O Problema do Controle de IA

Governança de IA É Cibersegurança: A Fusão Que Sua Empresa Ainda Ignora

TV
Thiago Victorino
11 min de leitura
Governança de IA É Cibersegurança: A Fusão Que Sua Empresa Ainda Ignora

Durante décadas, governança de IA e cibersegurança viveram em departamentos diferentes, com orçamentos diferentes, líderes diferentes e métricas diferentes. Governança ficava com compliance e ética. Segurança ficava com o SOC e os firewalls. Quando as duas equipes se cruzavam, era na auditoria anual.

Essa separação fazia sentido quando IA era um modelo de machine learning treinado uma vez, implantado uma vez e esquecido em produção. Não faz mais.

Em dezembro de 2025, o NIST publicou o NISTIR 8596, um documento que funde formalmente o Cybersecurity Framework 2.0 com o AI Risk Management Framework. Não é um white paper acadêmico. É orientação regulatória. E a mensagem é direta: IA e cibersegurança são o mesmo problema.

Quando o regulador mais influente do mundo codifica a convergência, não é tendência. É fato consumado.

O Insider Digital

A McKinsey publicou duas pesquisas relevantes em 2025 que, lidas juntas, montam um quadro incômodo. (Vale a transparência: a McKinsey vende consultoria sobre exatamente esses temas. Os dados são úteis; o incentivo comercial, também.)

A primeira, apresentada na RSA Conference em maio, mostrou que tempos de invasão caíram para menos de uma hora. Atacantes já usam IA para reconhecimento, engenharia social e movimentação lateral. A segunda, de outubro, introduziu um conceito que merece atenção: agentes de IA como “insiders digitais”.

A analogia é precisa. Um insider tradicional é um funcionário com acesso legítimo a sistemas, dados e ferramentas, que usa esse acesso de maneira indevida. Um agente de IA tem exatamente o mesmo perfil: acesso privilegiado, autoridade de execução, capacidade de agir sem supervisão em tempo real.

A diferença: um insider humano é um. Um agente de IA pode ser centenas de instâncias simultâneas operando em dezenas de sistemas.

A pesquisa de outubro da McKinsey encontrou que 80% das organizações já identificaram comportamentos arriscados em seus agentes. Apenas 1% acreditam ter maturidade para gerenciá-los. E o Gartner projeta que 40% dos aplicativos empresariais terão agentes de IA embutidos até o final de 2026, enquanto apenas 6% das empresas possuem estratégia avançada para governá-los.

Esses números descrevem uma condição específica: adoção massiva precedendo controle. Como exploramos em A Camada de Governança, o mercado já precificou o risco quando a Anthropic anunciou uma única ferramenta de detecção. Quinze bilhões de dólares evaporaram. Agora imagine o que acontece quando o risco não vem de fora, mas de dentro dos próprios sistemas.

O Paradoxo do Phishing

A IBM X-Force publicou um dado que ilustra a nuance que falta na maioria das análises sobre IA e segurança. Pesquisadores compararam e-mails de phishing gerados por IA com e-mails escritos por red teamers humanos experientes.

A IA criou e-mails convincentes em cinco minutos, usando cinco prompts. Os humanos levaram dezesseis horas.

Resultado esperado: IA vence em eficiência, portanto o phishing vai explodir em escala.

Resultado real: os e-mails escritos por humanos tiveram taxa de clique de 14%. Os e-mails gerados por IA, 11%.

A IA é mais rápida. Os humanos são mais eficazes. Não é empate; é complementaridade assimétrica. E essa é a realidade que relatórios alarmistas não capturam. IA não substitui atacantes humanos. Ela amplifica o volume do ruído, mas o sinal (as campanhas realmente perigosas) ainda depende de inteligência humana.

Isso significa que investir apenas em detecção automatizada de phishing resolve metade do problema. A outra metade exige governança sobre como funcionários interagem com sistemas de comunicação, como agentes de IA processam e-mails e anexos, e quais permissões esses agentes possuem.

A Primeira Campanha Documentada

Em novembro de 2025, a Anthropic documentou o que chamou de caso GTG-1002: a primeira campanha de espionagem cibernética orquestrada por IA de que se tem registro público. Segundo o relatório, a IA realizou entre 80% e 90% das operações de reconhecimento, engenharia social e exfiltração de dados. PwC e ExtraHop corroboraram aspectos da investigação.

Trate esse dado com proporção. É um caso. Não é uma tendência estatística. Mas é o primeiro caso, e primeiros casos definem precedentes.

O GTG-1002 demonstra algo que a comunidade de segurança já suspeitava: atacantes sofisticados não precisam de IA para ser eficazes, mas IA reduz dramaticamente a barreira de entrada para operações que antes exigiam equipes inteiras. O que levava semanas de reconhecimento manual, um agente de IA completa em horas.

Existe uma nuance temporal importante. A comunidade de segurança chama de “buffer de alucinação” o fato de que modelos de IA ainda cometem erros que analistas humanos não cometeriam. Esse buffer oferece uma janela de detecção. Mas janelas de detecção se fecham. Os modelos melhoram a cada iteração. Contar com a ineficiência do atacante como estratégia de defesa é uma aposta com data de validade.

Cinco Riscos Que Seus Frameworks Não Cobrem

A pesquisa da McKinsey sobre IA agêntica identificou cinco categorias de risco que não existem nos frameworks tradicionais de cibersegurança (ISO 27001, SOC 2, NIST CSF pré-convergência). Esses riscos são nativos de sistemas autônomos.

Vulnerabilidades encadeadas. Quando agentes operam em cadeia, uma falha no agente A pode comprometer o agente B, que tem acesso a sistemas que o agente A nunca teria alcançado sozinho. A superfície de ataque não é a soma dos agentes. É o produto.

Escalação entre agentes. Um agente de IA com permissão restrita pode delegar tarefas a outro agente com permissões maiores. Sistemas de controle de acesso tradicionais não foram projetados para gerenciar delegação máquina-a-máquina.

Identidade sintética. Agentes de IA não têm biometria, não digitam senhas, não usam crachás. Ferramentas de Identity and Access Management foram projetadas para entidades humanas. A Strata Identity reportou em 2026 que 92% das organizações não confiam que suas ferramentas de IAM consigam lidar com identidades não humanas.

Vazamento não rastreável. Um agente de IA que processa documentos confidenciais pode incorporar informações desses documentos em seus outputs sem que nenhum sistema de DLP tradicional detecte a exfiltração. Não é vazamento por cópia de arquivo. É vazamento por reformulação semântica.

Propagação de corrupção de dados. Se um agente consome dados corrompidos e alimenta outros agentes com outputs baseados nesses dados, a corrupção se propaga pela cadeia. Cada agente subsequente amplifica o erro original. Sem validação em cada nó da cadeia, a integridade dos dados é irrecuperável.

Nenhum desses riscos aparece em auditorias SOC 2 tradicionais. Nenhum é coberto por ferramentas de SIEM convencionais. Todos exigem governança nativa para sistemas autônomos.

A Economia da Convergência

A IBM, no Cost of a Data Breach Report 2024, analisou 604 violações reais. O custo médio por violação: US$ 4,88 milhões. Mas o dado mais relevante não é a média. É a diferença.

Organizações com uso extensivo de IA e automação em segurança gastaram em média US$ 3,84 milhões por violação. Organizações sem: US$ 5,72 milhões. Uma diferença de US$ 1,88 milhão.

Quase dois milhões de dólares. Por violação. Não por ano.

Isso não significa que “IA em segurança se paga”. Significa que organizações com maturidade suficiente para implementar IA de forma extensiva em suas operações de segurança também possuem governança, processos e disciplina suficientes para detectar e conter violações mais rapidamente. A IA é o indicador. A governança é a causa.

Organizações que compram ferramentas de IA para segurança sem a governança que as sustenta não obtêm US$ 1,88 milhão de economia. Obtêm uma ferramenta cara e mal configurada que gera alertas que ninguém sabe interpretar.

A Previsão Que Importa

A Forrester publicou, entre suas previsões para 2026, que uma violação causada por IA agêntica resultará na demissão de pelo menos um executivo C-level. É uma previsão, não um fato. Mas previsões de analistas desse calibre estabelecem expectativas no conselho. E expectativas no conselho definem responsabilidade pessoal.

Quando o Gartner acrescenta que 40% das organizações enfrentarão incidentes de segurança relacionados a shadow AI, a sequência lógica se completa: agentes não governados causam violações, violações geram responsabilidade, responsabilidade recai sobre quem deveria ter governado.

Shadow AI não é shadow IT com outro nome. Shadow IT é um funcionário usando Dropbox sem aprovação do TI. Shadow AI é um funcionário usando um agente autônomo que toma decisões, acessa APIs, processa dados confidenciais e gera outputs que ninguém audita. A diferença entre inconveniência e risco sistêmico.

A Signicat documentou que deepfakes passaram de 0,1% para 6,5% das tentativas de fraude desde 2022. É um aumento de 65x. Mas o número absoluto é o que importa: 6,5% de todas as tentativas de fraude agora envolvem conteúdo gerado por IA. Não estamos falando de cenários hipotéticos.

O Ciclo Que Você Precisa Reconhecer

Existe um padrão na indústria de cibersegurança que precisa ser nomeado: o ciclo vendor-medo-produto. Funciona assim: um vendor publica pesquisa mostrando que o risco X está crescendo exponencialmente. A pesquisa é legítima. Mas o timing da publicação coincide com o lançamento do produto que endereça exatamente o risco X.

A McKinsey publica sobre riscos de IA agêntica e vende consultoria de implementação de governança. A IBM publica o Cost of a Data Breach e vende soluções de segurança. A Anthropic documenta o GTG-1002 e oferece ferramentas de segurança de código. O Gartner publica previsões alarmantes e vende advisory.

Isso não significa que os dados são falsos. Significa que os dados são selecionados. Cada vendor publica as estatísticas que melhor sustentam a narrativa que vende seu produto. As tendências são reais. A urgência é calibrada por incentivo comercial.

Reconhecer isso não invalida a tese de convergência. Na verdade, a fortalece. Quando múltiplos vendors com incentivos comerciais diferentes chegam à mesma conclusão (governança e segurança precisam convergir), a convergência provavelmente é real. Cada vendor a enquadra de um jeito, mas a direção subjacente é a mesma.

O Que Fazer Com Isso

A resposta não é criar um novo departamento. É reconhecer que governança de IA e cibersegurança são manifestações do mesmo problema: controle sobre sistemas autônomos que operam com privilégio.

Três ações concretas.

Primeiro, audite a superfície de seus agentes de IA como auditaria a superfície de ataque da sua rede. Quais agentes existem? Que permissões possuem? A quais dados têm acesso? Quem pode encerrar um agente que se comporta de maneira inesperada? Se você não consegue responder essas perguntas, você não tem governança. Tem esperança.

Segundo, unifique o reporte. Governança de IA e cibersegurança reportando para líderes diferentes criam pontos cegos por definição. O agente que exfiltra dados é problema de quem? Do time de segurança (porque é exfiltração) ou do time de governança (porque é comportamento indevido do agente)? A pergunta não deveria existir.

Terceiro, teste seus frameworks contra os cinco riscos nativos de IA agêntica. Se sua próxima auditoria SOC 2 não pergunta sobre delegação entre agentes, identidade sintética e vazamento por reformulação semântica, ela está auditando o passado.

O NIST já codificou a convergência. O mercado já precificou o risco. A pergunta para cada organização agora é simples: sua estrutura reflete essa realidade, ou ainda opera como se governança e segurança fossem problemas de departamentos diferentes?


Fontes

  • NIST. “NISTIR 8596: Cybersecurity and AI Risk Management Framework Profiles.” Dezembro 2025.
  • IBM Security / Ponemon Institute. “Cost of a Data Breach Report 2024.” Julho 2024.
  • IBM X-Force. “AI vs. Human Social Engineering: Comparison Study.” 2024.
  • McKinsey & Company. “AI Is the Greatest Threat and the Greatest Defense.” Maio 2025.
  • McKinsey & Company. “Deploying Agentic AI: A Playbook for Enterprise Leaders.” Outubro 2025.
  • Anthropic. “Case GTG-1002: AI-Orchestrated Cyber Espionage Campaign.” Novembro 2025.
  • Gartner. “Predicts 2026: AI Security and Risk Management.” Fevereiro 2026.
  • Forrester. “Predictions 2026: Cybersecurity, Risk, and Privacy.” 2025.
  • Signicat. “The Battle Against AI-Driven Identity Fraud.” 2025.
  • Strata Identity. “State of Multi-Cloud Identity Report 2026.” 2026.

Victorino Group avalia a maturidade de governança e segurança de IA da sua organização com diagnósticos estruturados: contato@victorino.com.br | www.victorino.com.br

Se isso faz sentido, vamos conversar

Ajudamos empresas a implementar IA sem perder o controle.

Agendar uma Conversa