O Problema do Controle de IA

IA Não Dilui Responsabilidade. Deleta.

TV
Thiago Victorino
7 min de leitura

Ali Abouelatta gastou US$20.000 em créditos de IA em três meses construindo o Lazyweb.com. Agentes rastreando. Agentes escrevendo copy. Agentes gerando código. Agentes fazendo o trabalho operacional que ele costumava procrastinar.

Funcionou. O que ele entregou teria levado anos sem IA.

Mas o insight que emergiu não foi sobre velocidade. Foi sobre o que a velocidade custa: “O que mais sinto falta não é mais potência. É propriedade compartilhada.”

O ensaio de Abouelatta, publicado em 20 de fevereiro de 2026, faz uma distinção que corta o discurso de produtividade com IA como uma faca. Responsabilidade compartilhada entre humanos dilui accountability — um fenômeno bem documentado em psicologia social chamado difusão de responsabilidade. Quanto mais pessoas envolvidas, menos qualquer indivíduo sente propriedade.

IA faz algo pior. IA deleta accountability.

O Teste das 3h da Manhã

Seu agente pode gerar código, rodar testes e abrir pull requests. Pode dizer que algo está “correto” no sentido estreito de passar um teste unitário.

Mas não é dono do resultado. Se o usuário odiar a UX, o agente não se importa. Se houver um bug de segurança e você for explorado, o agente não pede desculpas. Se o site cair às 3h da manhã, o agente não acorda.

Você acorda.

Isso não é objeção filosófica. É realidade operacional. Todo sistema em produção precisa de alguém que atenda o alerta. Todo produto voltado para cliente precisa de alguém que seja dono da experiência. Todo codebase precisa de alguém que faça a decisão difícil sobre o que construir e o que matar.

O agente gera. O humano é dono. E a lacuna entre geração e propriedade é onde as falhas vivem.

Mais Alavancagem, Mais Alavancas

Abouelatta identifica um paradoxo que a maioria das narrativas de produtividade com IA não percebe: “Mais alavancagem cria mais alavancas. Mais alavancas criam mais accountability, tradeoffs e decisões difíceis.”

Quando você pode construir mais rápido, constrói mais. Quando constrói mais, tem mais coisas para manter, mais superfícies para proteger, mais experiências de usuário para gerenciar, mais decisões sobre o que priorizar. A alavancagem não reduz o fardo de accountability — multiplica.

Por isso um builder solo atingindo o teto de accountability apesar de US$20 mil em alavancagem de IA é um dado tão poderoso. A restrição não é capacidade de geração. É capacidade de governança — a habilidade de tomar e ser dono de decisões sobre o que é construído, o que atende padrões de qualidade, e o que acontece quando as coisas dão errado.

A pesquisa da Veracode de 2025 encontrou que 40-48% do código gerado por IA contém vulnerabilidades de segurança. A pesquisa State of Code 2026 da Sonar, com 1.149 desenvolvedores, encontrou que 96% não confiam na precisão de código IA. Esses números descrevem um sistema onde o motor de geração funciona mas o motor de accountability está ausente. Código está sendo produzido. Ninguém está por trás dele.

”Correto” Não É “Bom”

A palavra mais perigosa no desenvolvimento assistido por IA é “correto.”

Um agente pode produzir código correto no sentido estreito e testável — passa nos testes unitários, compila, produz a saída esperada para as entradas especificadas. Mas correção e qualidade são coisas diferentes.

Simon Willison fez essa observação pela perspectiva de custo: entregar código é quase grátis, entregar bom código continua caro. Abouelatta faz pela perspectiva de accountability: o agente pode verificar que testes passam, mas não pode julgar se os testes testam as coisas certas, se a UX serve o usuário, ou se a decisão arquitetural vai se acumular em dívida técnica nos próximos dois anos.

A própria auditoria do SWE-bench da OpenAI reforçou isso pelo lado da medição — 59,4% dos problemas auditados tinham casos de teste defeituosos. Os testes em si estavam errados. “Correto” não significava nada.

Três fontes independentes, três ângulos diferentes, uma conclusão: a lacuna entre gerar código e entregar valor não é um problema de tecnologia. É um problema de governança. Alguém precisa ser dono da definição de “bom” no contexto, verificar que o que foi produzido atende essa definição, e assumir responsabilidade quando não atende.

Como É a Infraestrutura de Propriedade

Abouelatta referencia dois padrões organizacionais que forçam accountability: o DRI (Directly Responsible Individual) da Apple e a liderança single-threaded da Amazon. Ambos existem porque ambiguidade é o padrão. Sem estruturas explícitas de propriedade, responsabilidade se difunde até desaparecer.

Com IA, o problema é mais agudo. Não há humano que escreveu o código para responsabilizar. O desenvolvedor que aceitou o PR pode não entender cada linha. O revisor pode não ter tempo de rastrear cada dependência. A organização pode nem saber qual código foi gerado por IA — a Veracode encontrou que 97% das organizações têm código IA em produção, mas apenas 19% têm visibilidade sobre qual código é.

Essa é a lacuna de governança: não a ausência de capacidade de IA, mas a ausência de infraestrutura de propriedade para o output de IA.

Construir essa infraestrutura significa:

Propriedade explícita para artefatos gerados por IA. Cada mudança produzida por IA precisa de um dono humano identificado — não apenas alguém que clicou “aprovar,” mas alguém que entende o que foi aprovado e responderá por isso em produção.

Definições de qualidade que vão além de cobertura de testes. A lista de “bom código” de Willison — adequação ao propósito, resolve o problema certo, preparado para mudanças futuras — precisa ser operacionalizada, não apenas aspiracional. O que “bom” significa no seu contexto específico? Quem decide? Como é verificado?

Accountability que escala com a alavancagem. Se IA dá à sua equipe 10x mais capacidade de geração, suas estruturas de accountability precisam lidar com 10x mais decisões. Isso significa ou mais humanos no loop ou triagem mais inteligente sobre quais decisões exigem julgamento humano e quais podem ser automatizadas.

As organizações que terão sucesso não são as que geram mais código. São aquelas onde alguém ainda acorda às 3h da manhã — e tem o contexto, a autoridade e a infraestrutura para consertar o que quebrou.


Esta análise se baseia no ensaio de Ali Abouelatta “The Case for Humans” (20 de fevereiro de 2026), no artigo de Simon Willison “Writing code is cheap now” (23 de fevereiro de 2026), e na análise do SWE-bench Verified da OpenAI (23 de fevereiro de 2026), com dados de suporte da Veracode (2025) e Sonar State of Code 2026.

Se sua organização está gerando código com IA mais rápido do que consegue ser dona dos resultados, a Victorino Group ajuda a construir a infraestrutura de accountability que conecta output a propriedade.

Se isso faz sentido, vamos conversar

Ajudamos empresas a implementar IA sem perder o controle.

Agendar uma Conversa