radar tech fiap

radar tech fiap

Botão fechar

Fechar

Logo Radar TechLogo FIAP

RECEBA A NOSSA

NEWSLETTER

Para saber o que está vindo por aí é preciso
estar bem informado(a).

Ícone de e-mail

INSCREVA-SE NA NEWSLETTER

Ícone do LinkedInÍcone do InstagramÍcone do YouTubeÍcone do TikTokÍcone do Facebook
Tecnologia

Governança como investimento: um framework para tomada de decisões na Era da IA

Publicado

02 de março

Close de mãos utilizando stylus em um tablet, com sobreposição de elementos gráficos neon representando a Governança de IA. À esquerda, um ícone de cérebro digital (IA) conectado a uma figura humana centralizada dentro de um escudo de proteção. À direita, ícones de balança de justiça, conformidade e aperto de mãos simbolizam ética e regulação tecnológica.
Ícone de compartilhar

Compartilhe

Ícone do linkedin
Ícone do facebook
Ícone do whatsapp
Ícone do X

Copiar link

Resumo

A governança de IA precisa deixar de ser um entrave para se tornar o principal motor de investimento e segurança em 2026. Através do estudo de frameworks, como a matriz Build, Borrow ou Buy, e a análise das dimensões de risco, é possível mover projetos do estágio de piloto para a escala real com responsabilidade e lucro.

Artigo escrito por Rafael Piassa – Professor de IA e Projetos na FIAP . Especialista e consultor em IA com foco em inovação, ensino e tecnologia aplicada a negócios.

Quando 80% das empresas implementam IA generativa, mas a maioria não vê impacto direto nos lucros, o problema não é sobre tecnologia: é falta de método ou gestão. Essa verdade, um tanto incômoda, está muito clara em O “Paradoxo da GenAI” descrito pela McKinsey no estudo Seizing the agentic AI advantage, publicado em 2025. A análise mostra que, sem um framework robusto de governança para orientar decisões de investimento, organizações acumulam pilotos, inflam custos e amplificam riscos sem capturar valor.

A questão central não é mais se devemos investir em inteligência artificial, mas como governar decisões para mitigar riscos enquanto construímos vantagem competitiva. Para líderes de tecnologia e gestores que navegam a complexidade da inovação responsável, 2026 marca a transição definitiva da experimentação caótica para a transformação governada.

Afinal, uma governança estratégica não impede a velocidade; ela habilita decisões ágeis, seguras e consistentes. O objetivo é eliminar ambiguidades sobre critérios e responsabilidades, atingindo um patamar de risco aceitável para o negócio.

Temos que reconhecer que governança bem desenhada não impede velocidade, ela habilita decisões que ainda podem ser rápidas, mas que devem ser mais seguras e consistentes para eliminar a ambiguidade sobre critérios, responsabilidades e atingir um patamar de risco aceitável.

O framework de governança: as dimensões de risco

Toda decisão de investimento em IA carrega risco. Toda IA exposta a contextos complexos erra. Uma governança eficaz exige junto avaliações explícitas antes de alocar capital, e não depois que problemas emergem. Com base em alguns estudos publicados entre 2025 e 2026, podemos listar quatro tipos de riscos e cenários:

1. Risco Técnico-Operacional

Quando agentes de IA operam em processos críticos, previsão de demanda, gestão de suprimentos médicos e alocação de recursos, eles afetam diretamente capital de giro e margens operacionais.

Um agente sem a governança adequada pode aprovar compras fraudulentas, expor dados sensíveis, cometer crimes como o racismo ou violar regulamentações.

Governança já é um tema desafiador, independente do impacto da IA, que potencializa ainda mais os ganhos e riscos. A IDC (International Data Corporation) prevê que 20% das grandes empresas enfrentarão processos judiciais e demissões de CIOs até 2030 devido à governança insuficiente.

Isso vem como um dos principais desafios para o ano de 2026, que deverá ser ainda mais difícil, depois que 2025 mostrou fragilidades como mega vazamentos, fraudes bilionárias no sistema financeiro, problemas no Pix, crimes híbridos físico-digitais, expondo que alertas ignorados ou mal gerenciados viram crises sistêmicas.

Com a IA, o desafio se torna ainda mais crítico, ampliando o risco por um lado, e possibilitando eliminar problemas pelo outro.

2. Risco Financeiro-Estratégico

Este relatório da CrewAI, contudo, revela um dado alarmante: apenas 2% das empresas priorizam ROI ao avaliar plataformas de IA, focando obsessivamente em segurança (34%) e integração (30%). Esse desequilíbrio cria um paradoxo que são organizações que investem pesadamente em infraestrutura sem tese clara de valor, acumulando custos ocultos de integração, dependência de fornecedores e débito técnico.

O risco de estagnação e de ficar preso em pilotos que nunca escalam pode ser maior que o risco de implementação. Atualmente, 90% dos casos de uso verticais estão presos em piloto. Essa paralisia tem custo de oportunidade brutal em uma revolução estimada em US$ 3 trilhões.

3. Risco Social-Organizacional

A RepTrak evidenciou na sua publicação “Five Reputation Shifts That Will Define 2026” que estamos passando por uma mudança de ESG/DEI para “impacto tangível”, que reflete uma reconfiguração do contrato social corporativo.

Stakeholders tornaram-se mais pragmáticos: 52% valorizam empresas como empregadoras de escolha, 44% buscam apoio às comunidades locais, 41% priorizam governança de dados ética.

Mas quando a IA ameaça impactar o desemprego em massa sem plano de requalificação, ou quando algoritmos reproduzem vieses históricos sem controles claros do que pode ou não pode, o medo em todos os envolvidos é imediato.

Além disso, os maiores obstáculos para escalar IA são: integração de dados (35%) e falta de talentos (33%). Ambos são problemas organizacionais e possivelmente sociais que, mal geridos, viram crises de confiança interna e externa.

4. Risco Reputacional-Algorítmico

A IA transformou reputação em algo algoritmicamente mensurável. A RepTrak cunhou o termo AI as a Stakeholder: quando pacientes, investidores ou talentos pesquisam sua organização, conversam com modelos de IA que interpretam, sintetizam e recomendam. O que GPT-4, Claude ou Gemini dizem sobre você impacta milhões de dólares.

Os dados confirmam urgência: 4,6% a mais de stakeholders concordam que IA facilita a vida, mas 2,8% a mais expressam preocupação. A neutralidade acabou. Inconsistência entre discurso e prática não é mais problema de comunicação é risco sistêmico que destrói valor em escala.

O paradoxo da cautela e o equilíbrio necessário

Governança não é sinônimo de lentidão, mas muitas organizações ainda caem nessa armadilha. Segundo o relatório da CrewAI apenas 2% priorizam ROI enquanto 34% focam obsessivamente em segurança. É onde o risco está em criar processos de aprovação tão pesados que matam a inovação. O equilíbrio está em escalar com segurança por design, não testar tudo antes de escalar nada.

Governança ágil define guardrails claros e delega execução dentro deles. Por exemplo: para um agente de triagem médica, os guardrails podem ser “nunca toma decisão final sem validação humana” e “todas as recomendações devem ser auditáveis com explicações”.

Dentro desses limites, o agente opera com autonomia e já ajuda operacionalmente nas tarefas mais pesadas. Isso protege diversos tipos de riscos: técnico (limites claros), financeiro (velocidade de implementação), social (transparência de papel humano) e reputacional (demonstração de cuidado responsável).

Em setores como saúde, direito e construção civil, por exemplo, onde a IA pode salvar vidas através de diagnósticos precoces, decisões judiciais ou otimização de recursos, inação por excesso de cautela tem um custo. Governança eficaz não impede o uso e a escala dos serviços, ela habilita impacto com responsabilidade.

Do piloto ao núcleo: governança que destranca valor

O relatório CrewAI é taxativo: 100% das organizações planejam expandir IA agêntica em 2026, com 75% descrevendo-a como imperativo crítico. Mas 90% estão presos em piloto. O papel da governança aqui não é criar mais burocracia, é criar clareza sobre critérios de promoção de piloto para produção.

Governança eficaz define limites claros: quais métricas de segurança precisam ser atingidas? Que nível de auditabilidade é necessário? Qual impacto financeiro mínimo justifica escala? Quem aprova a transição? Com esses critérios claros, a decisão de escalar deixa de ser política para se tornar técnica.

A diferença de impacto é brutal: usar IA apenas para ajudar humanos a buscar informações (uso horizontal) gera ganhos de 5-10%. O impacto real de resolução autônoma em atendimento vem de reinventar processos colocando agentes no centro, podendo a chegar em 80% de ganho de produtividade.

Mas, reinventar processos sem governança clara sobre quem controla o quê, quais são os limites de autonomia e como falhas são tratadas, é receita para um desastre.

Para governar bem um projeto de IA, é preciso saber quais recursos são necessários e se a empresa possuí a expertise necessária para colocá-los em prática.

E para fazer isso bem, para que o equilíbrio ocorra, a escolha passa, dentre várias questões, se a empresa vai construir a solução, fazer parceria com alguém para desenvolvê-la ou fazer a aquisição do serviço/produto pronto, são temas que fazem parte de uma das grandes teorias dos últimos anos: Build, Borrow or Buy.

A Matriz de Decisão: Build, Borrow, Buy ou Buy?

A decisão de construir a solução, fazer parceria com alguém para desenvolvê-la ou fazer a aquisição do serviço/produto pronto deixou de ser binária para se tornar multidimensional. Baseado na obra de Capron & Mitchell (2012), esse framework é mais do que um leque de escolhas, é uma filosofia de como investir em TI e IA.

A era do modelo binário morreu; 57% das empresas já optaram por arquiteturas híbridas, com duas ou três dessas alternativas.

Mas o que governança significa nesse contexto? Significa ter critérios explícitos para cada caminho, mapeados contra as quatro dimensões de risco.

Build (Construir) – quando soberania é não-negociável

Reserve construção interna para o core business e diferenciação competitiva. Use quando exigir soberania total sobre dados sensíveis (registros de pacientes, propriedade intelectual), regras de negócio proprietárias que refletem décadas de expertise, ou quando dependência externa cria vulnerabilidade inaceitável.

Por exemplo, o iFood desenvolveu seu próprio modelo olhando para esses pontos.

Governança de Build

Exige maturidade técnica alta, recursos financeiros sustentados e capacidade de auditoria interna. O risco técnico-operacional é controlável porque você possui o código, mas não é trivial.

O risco financeiro está em subestimar complexidade e custo de manutenção. O risco social está em manter talentos especializados.

O risco reputacional é protegido quando você demonstra controle total e responsabilidade integral.

Build sinaliza que você assume a propriedade por completo, e isso tem valor reputacional quando executado com excelência, mas é devastador quando falha publicamente.

Veja mais sobre iFood, tecnologia e IA neste episódio do podcast Hipsters Ponto Tech.

Buy (Comprar) – quando velocidade e eficiência importam

Foque em funções comoditizadas, OCR, sumarização padrão, modelos fundacionais generalistas onde a escala do mercado oferece economia impossível de replicar. Comprar é pragmático para infraestrutura de nuvem e capacidades que não diferenciam competitivamente. A Meta adquiriu a Manus AI principalmente por esses motivos.

Governança de Buy

O risco crítico é dependência de fornecedor. A queda do Change Healthcare em 2025 provou que vulnerabilidades na cadeia de suprimentos expõe todos.

Governança exige due diligence implacável: avaliação de segurança do fornecedor, cláusulas contratuais sobre responsabilidade por falhas, planos de contingência para saída.

O risco reputacional está em terceirizar responsabilidade; quando fornecedor falha, você falha aos olhos dos stakeholders.

A governança mitiga isso com transparência sobre dependências e demonstração de que você escolheu parceiros confiáveis criteriosamente.

Borrow (Pegar Emprestado) – quando colaboração acelera inovação

A KPMG destaca essa via para empresas que querem inovar rápido, mas não têm talento interno suficiente. Envolve codesenvolvimento, parcerias estratégicas, uso de modelos open source e compartilhamento de risco com o ecossistema.

No cenário da IA Generativa tanto Microsoft, quanto Apple, fizeram isso com OpenAI e Google, respectivamente, mostrando que não importa o tamanho, mas sim a sua estratégia para escolher desenvolver via parceria.

Governança de Borrow

Requer estruturas claras de co-responsabilidade. Quem é responsável quando um módulo “emprestado” falha? Governança define isso antecipadamente através de acordos de nível de serviço, processos de auditoria conjunta e critérios de saída.

O risco técnico é compartilhado; o risco reputacional também. Borrow sinaliza humildade intelectual e abertura ao ecossistema, positivo reputacionalmente quando parceiros são bem escolhidos, mas compartilhar responsabilidade significa compartilhar culpa quando parceiros falham.

Governança mitiga com seleção rigorosa e monitoramento contínuo.

Governança como habilitador de velocidade responsável

O sucesso em 2026 não virá de escolher entre velocidade e governança, virá de reconhecer que governança bem desenhada é o que permite velocidade sustentável.

Em um mundo onde 80% implementaram IA mas poucos capturaram valor, o diferencial não é tecnologia. É método, gestão e a capacidade de decidir racionalmente onde investir, como integrar e quando escalar, protegendo simultaneamente contra riscos técnicos, financeiros, sociais e reputacionais.

O legado de 2025, megavazamentos, fraudes bilionárias e deepfakes, entre outros, não deveria servir somente para alimentar paranoias, mas para calibrar decisões presentes.

Aprendizado sem ação é entretenimento intelectual. 2026 é o ano em que seremos julgados pela solidez do que construímos e governamos. A vitória pertencerá às organizações que entenderem que tecnologia acelera execução, mas é a coerência da governança que sustenta perenidade.

Em um cenário onde algoritmos operam em escala inumana e inconsistência é fatal, o que se torna verdadeiramente escasso não é capacidade computacional, mas a disciplina de submeter cada decisão a um framework rigoroso que mapeia riscos, define responsabilidades e protege o que mais importa: a confiança que sustenta tudo.

Leia mais

Algumas referências para você se aprofundar no assunto:


—————————–

Autor: Rafael Piassa – Professor de IA e Projetos na FIAP , nos cursos de MBA, Graduação e Corporate. Founder de edtech, especialista e consultor em IA com foco em inovação, ensino e tecnologia aplicada a negócios. Palestrante, escritor, mentor de carreira e da Rock New Ventures  LinkedIn | Instagram | YoutTube | E-Mail

Imagem de Redação FIAP

Autora

Redação FIAP

Ícone do facebookÍcone do instagramÍcone do linkedin
Ícone do facebookÍcone do instagramÍcone do linkedin

Nosso site armazena cookies para coletar informações
e melhorar sua experiência.
ou consulte nossa política.