O Problema do Controle de IA

A Tese dos Agentes na Nuvem Está Pela Metade

TV
Thiago Victorino
11 min de leitura

Nader Dabit, que trabalha na Cognition --- a empresa por trás do Devin --- publicou na semana passada a “Cloud Agent Thesis”. O argumento é preciso: agentes na nuvem não são versões remotas de assistentes locais de código. São uma categoria fundamentalmente diferente, definida por quatro propriedades que se acumulam em algo novo.

Ele está certo sobre as propriedades. Está errado sobre o que elas implicam.

As Quatro Propriedades

Dabit identifica quatro características que distinguem agentes na nuvem de ferramentas como Cursor ou Claude Code:

Acessibilidade. Membros não-técnicos da equipe podem invocar agentes via Slack sem conhecimento de Git ou ambiente de desenvolvimento local. A barreira para contribuir com código cai para quase zero.

Capacidade cross-repository. Agentes na nuvem acessam todo o codebase organizacional simultaneamente, diluindo o que Dabit chama de “fronteiras organizacionais ao redor de um codebase”.

Execução assíncrona. Diferente do pair programming síncrono, agentes na nuvem executam tarefas em paralelo --- refatorações, remediação de CVEs, cobertura de testes, atualização de dependências --- transferindo a restrição da disponibilidade do engenheiro para a capacidade de revisão.

Escala organizacional. Expertise é codificada uma vez via Playbooks e executada repetidamente. O agente se torna infraestrutura corporativa, não uma ferramenta individual de produtividade.

São observações precisas, respaldadas por adoção real. O Goldman Sachs está implantando centenas a milhares de agentes de IA ao lado de seus 12.000 desenvolvedores humanos. O Citi está distribuindo IA agêntica para 40.000 desenvolvedores. Os dados da própria Cognition mostram a taxa de merge do Devin subindo de 34% para 67% em um ano, com correções de segurança completadas 20x mais rápido que engenheiros humanos.

A tese é convincente. Também é incompleta.

Cada Propriedade É uma Superfície de Risco

Aqui está o que a tese não diz: cada propriedade que torna agentes na nuvem poderosos é também uma propriedade que os torna perigosos sem governança. As mesmas quatro características, examinadas pela lente da segurança, contam uma história muito diferente.

Acessibilidade sem Guardrails É Shadow AI em Escala

Se qualquer pessoa na organização pode invocar um agente via Slack, quem controla o que esse agente acessa? Dabit enquadra isso como democratização. É. Mas democratização sem governança é shadow AI com licença corporativa.

Os dados são contundentes. Mais de 60% dos usuários já dependem de ferramentas de IA pessoais e não gerenciadas, em vez de ferramentas aprovadas pela empresa. 77% dos funcionários foram observados compartilhando informações proprietárias com ferramentas de IA como ChatGPT. Incidentes envolvendo shadow AI adicionam estimados US$ 308 mil por violação.

Quando um funcionário não-técnico pede ao agente para “analisar os dados do cliente”, pode não entender que está expondo informações reguladas a um sistema autônomo sem controles de acesso. A acessibilidade que torna agentes na nuvem úteis é a mesma acessibilidade que os torna um passivo regulatório.

Acesso Cross-Repo Multiplica o Raio de Impacto

Um agente que consegue ver todo o codebase organizacional é um agente que, se comprometido ou alucinando, pode danificar todo o codebase. Dabit apresenta acesso cross-repo como vantagem competitiva. É. Também é a maior superfície de ataque autônoma já criada para um sistema de software.

O relatório State of AI Agent Security 2026 da Gravitee fornece os números: 88% das organizações reportaram incidentes de segurança confirmados ou suspeitos com agentes de IA no último ano. Apenas 14,4% têm aprovação completa de segurança para seus agentes implantados. Em média, apenas 47,1% dos agentes organizacionais são efetivamente monitorados.

Mais da metade dos agentes implantados opera sem supervisão de segurança ou logging. A tese celebra que agentes podem cruzar fronteiras organizacionais. Os dados de segurança sugerem que a maioria das organizações sequer consegue ver onde essas fronteiras estão sendo cruzadas.

Execução Assíncrona Acumula Risco de Forma Invisível

Quando agentes trabalham sem supervisão em paralelo, erros se acumulam antes de qualquer revisão. Esta é a tensão central que Dabit reconhece em um único parágrafo, mas que merecia ser o argumento principal.

O relatório Octoverse do GitHub mostra a escala: 82 milhões de pushes mensais, 43 milhões de pull requests mergeados, e aproximadamente 41% do código novo é assistido por IA. A produção de código por engenheiro cresceu 25-35%. A capacidade humana de revisão não mudou. O déficit de qualidade projetado para 2026 é de 40%.

Ferramentas de revisão automatizada estão surgindo --- Qodo, CodeRabbit, Cursor Bugbot --- mas benchmarks independentes pintam um quadro preocupante. O SWR-Bench, publicado pela Universidade de Pequim no início de 2026, testou ferramentas de revisão de IA contra 1.000 pull requests orgânicos. A melhor ferramenta alcançou um F1 score de 19,38%. Isso é aproximadamente três vezes menor que os números reportados por vendors, que usam bugs injetados em vez de defeitos reais.

O gargalo de revisão não é um problema operacional a ser otimizado. É uma decisão de governança sobre quem --- ou o quê --- determina o risco aceitável.

Escala Organizacional Exige Governança na Velocidade da Máquina

“Expertise codificada uma vez, executada repetidamente” soa excelente até que a expertise codificada esteja errada, desatualizada ou comprometida.

O desafio de identidade por si só é impressionante. Identidades não-humanas já superam identidades humanas na proporção de 50:1 no ambiente corporativo médio. Alguns analistas projetam 80:1 em dois anos. No entanto, apenas 21,9% das organizações tratam agentes de IA como entidades independentes portadoras de identidade. 45,6% ainda dependem de chaves de API compartilhadas para autenticação entre agentes.

A ISACA chama isso de “A Crise de Autorização Iminente”. A infraestrutura de IAM existente --- OAuth, SAML, contas de serviço tradicionais --- foi projetada para usuários humanos e processos fixos. Agentes autônomos são efêmeros, delegados e contextuais. Podem existir por minutos para completar uma tarefa específica, agir em nome de humanos ou outros agentes, e criar cadeias de delegação aninhadas que nenhum framework de autorização atual consegue modelar.

Os dados da Kiteworks 2026 acrescentam outra dimensão: 63% das organizações não conseguem impor limites de propósito para IA. 60% não conseguem terminar agentes mal-comportados. A infraestrutura para controlar sistemas autônomos em escala organizacional simplesmente ainda não existe.

O Ponto Cego

Dabit trabalha na Cognition. Isso não é ad hominem --- suas observações sobre as propriedades dos agentes na nuvem são precisas. Mas o enquadramento revela um viés estrutural: a tese posiciona agentes na nuvem como infraestrutura enquanto trata governança como detalhe operacional.

Todas as métricas de desempenho do Devin são auto-reportadas. Taxa de merge de PRs, melhorias de velocidade, economia de custos --- tudo vem do blog da própria Cognition. Não existe benchmark independente para agentes de código na nuvem. As organizações citadas como evidência --- Goldman Sachs, Citi, Ramp --- são clientes, não auditores.

A tese menciona o gargalo de revisão em um parágrafo. Não menciona: injeção de prompt, exfiltração de dados, alucinação em escala organizacional, conformidade com o EU AI Act, ou quem assume a responsabilidade quando um agente autônomo comete um erro consequente.

Um executivo lendo esta tese concluiria que agentes na nuvem estão prontos para implantação corporativa e que o principal desafio é adoção organizacional. Os dados de segurança sugerem que o principal desafio é que 88% das organizações já estão tendo incidentes de segurança, e a maioria não tem infraestrutura sequer para detectar esses incidentes.

A Tese Completa

A tese dos agentes na nuvem não está errada. Está pela metade.

Agentes na nuvem realmente têm quatro propriedades que os tornam fundamentalmente diferentes de assistentes locais. Essas mesmas quatro propriedades criam quatro categorias de risco que a infraestrutura corporativa atual não consegue gerenciar.

A tese completa não é “agentes na nuvem são infraestrutura corporativa”. É “agentes na nuvem são infraestrutura corporativa que exige infraestrutura de governança que ainda não existe na maioria das organizações”.

Antes de escalar agentes na nuvem pela sua organização, faça quatro perguntas:

  1. Inventário. Onde estão seus agentes? Quantos estão operando? Que dados acessam?
  2. Identidade. Seus agentes são tratados como entidades independentes com credenciais próprias, ou compartilham chaves de API e herdam permissões humanas?
  3. Limites. Você consegue impor restrições de propósito? Consegue terminar um agente mal-comportado? Consegue auditar o que um agente fez depois do fato?
  4. Revisão. Quem decide o que é aceitável na produção dos agentes? Essa decisão é feita por humanos, por outros agentes, ou por ninguém?

Se você não consegue responder essas perguntas, não está pronto para escalar agentes na nuvem. Está pronto para uma avaliação.

As propriedades são reais. A oportunidade é real. Mas os riscos também --- e esses riscos se acumulam exatamente na mesma velocidade que os benefícios.

Governança não é freio. É o que permite escalar.

Se isso faz sentido, vamos conversar

Ajudamos empresas a implementar IA sem perder o controle.

Agendar uma Conversa