O Problema do Controle de IA

Construtor ou Revisor? A Pergunta Errada Sobre Agentes de Código

TV
Thiago Victorino
8 min de leitura
Construtor ou Revisor? A Pergunta Errada Sobre Agentes de Código

Harrison Chase, CEO da LangChain (avaliada em US$ 1,25 bilhão), publicou um ensaio que acumulou 563 mil visualizações em dois dias. A tese: agentes de codificação estão remodelando engenharia, produto e design. PRDs morreram. Generalistas vencem especialistas. Você é construtor ou revisor.

O diagnóstico é preciso em vários pontos. Mas a receita tem um problema estrutural: Chase descreve o que muda sem perguntar quem governa a mudança. E essa omissão não é acidental. Cada afirmação que acelera adoção de agentes beneficia diretamente o negócio dele.

Isso não invalida as observações. Invalida a completude.

O gargalo de revisão é real (e pior do que Chase sugere)

Chase argumenta que o gargalo está se movendo de implementação para revisão. Dados confirmam isso com uma precisão que ele próprio não oferece. O relatório da LinearB de 2026, baseado em 8,1 milhões de pull requests de 4.800 organizações, mostra que PRs gerados por IA têm taxa de aceitação de 32,7%. Para PRs escritos por humanos, a taxa é 84,4%.

A diferença não é marginal. Dois em cada três PRs de IA são rejeitados ou precisam de retrabalho substancial.

Pior: PRs de IA esperam 4,6 vezes mais por revisão do que os manuais. Como mostramos em A Escalada da Verificação, o tempo de revisão de código em times assistidos por IA subiu 91% segundo dados da LeadDev. Não é um gargalo temporário. É uma consequência estrutural de gerar artefatos mais rápido do que humanos conseguem avaliá-los.

Chase identifica o sintoma. Não investiga a causa.

”Qualquer um pode escrever código” é uma meia-verdade perigosa

A afirmação central do ensaio é que agentes de código democratizam a implementação. Qualquer pessoa com senso de produto pode prototipar. O PM vira construtor. O designer vira construtor. Todos viram construtores.

O estudo do METR de 2025 conta outra história. Desenvolvedores experientes usando ferramentas de IA foram 19% mais lentos do que sem IA. E acreditavam ser 24% mais rápidos. A diferença entre percepção e realidade era de 43 pontos percentuais.

Escrever código nunca foi o gargalo principal. A LeadDev publicou essa tese explicitamente: o custo real sempre esteve em entender o problema certo, fazer as perguntas certas, validar contra requisitos reais. Agentes de código aceleram a parte que já era relativamente rápida.

Para PMs e designers sem experiência em engenharia, o risco é mais sutil. Como exploramos em Código Barato, Qualidade Cara, gerar código caiu para quase zero. Verificar qualidade, não. Quando não-engenheiros geram código sem infraestrutura de verificação, o volume de artefatos não-revisados cresce exponencialmente.

O falso binário: construtor versus revisor

Chase propõe que o mundo se divide em construtores e revisores. É uma taxonomia limpa. Também é incompleta.

Quem opera o sistema em produção? Quem mantém a coerência arquitetural quando 15 agentes geram código em paralelo? Quem define os padrões contra os quais a revisão acontece?

SREs, engenheiros de plataforma, arquitetos de sistemas. Chase os torna invisíveis. Addy Osmani, do Google, demonstrou que o perfil T-shaped (profundidade técnica combinada com amplitude generalista) supera o generalista puro em ambientes complexos. O construtor-revisor binário elimina exatamente o perfil que organizações maduras mais precisam.

E há um problema mais fundamental. Como discutimos em Mudança de Paradigma nos Times de Produto, 89% das organizações ainda operam modelos da era industrial. A pergunta não é “você é construtor ou revisor?” A pergunta é: quem define o que “excelente” significa quando a capacidade de construir explode e a capacidade de avaliar não acompanha?

O PM amplificado (e o PM destrutivo)

Aqui Chase acerta com clareza. Bons PMs são amplificados por agentes de código. Podem prototipar, validar hipóteses, reduzir ciclos de feedback. A distância entre ideia e artefato diminui.

Mas maus PMs se tornam exponencialmente mais destrutivos. Quando gerar código é trivial, cada especificação ruim produz artefatos concretos. Não ficam mais no papel. Viram PRs, protótipos, sistemas parcialmente construídos que precisam ser revisados, discutidos, eventualmente descartados.

O dado da CodeRabbit de 2025 sustenta isso: código gerado por IA produz 1,7 vez mais issues em produção do que código humano. Especificações ruins multiplicadas por geração barata produzem defeitos baratos de criar e caros de encontrar.

Chase reconhece o problema, mas não propõe solução. A solução é governança. Portões de qualidade antes da geração, não apenas depois. Especificações versionadas e validáveis. Critérios explícitos para o que merece ser construído.

O que o ensaio não menciona (e deveria)

Segurança está completamente ausente. O relatório da Veracode de 2025 testou mais de 100 LLMs e encontrou que 40% a 48% do código gerado por IA contém falhas de segurança. Em um mundo onde “qualquer um pode escrever código”, a superfície de ataque cresce proporcionalmente.

Governança e compliance também não aparecem. O estudo da Kiteworks de 2026 mostra que 63% das organizações não conseguem aplicar limites de propósito em sistemas de IA. Quem garante que o código gerado por agentes atende a requisitos regulatórios?

O perfil do operador é ignorado. Se o gargalo muda de implementação para revisão, quem revisa os revisores? Quem monitora a qualidade sistêmica quando o volume de artefatos gerados supera a capacidade humana de avaliação?

A pesquisa da Anthropic de 2026 sobre agentes que aprendem a detectar incerteza e pedir input humano aponta para uma resposta parcial. Mas parcial não é suficiente para organizações com requisitos regulatórios, contratos de SLA, ou responsabilidade legal sobre software em produção.

A pergunta que importa

Chase descreve com precisão o que está mudando. Agentes de código são reais. O gargalo de revisão é real. A amplificação de bons PMs é real.

Mas a divisão construtor/revisor cria um novo problema que o ensaio ignora: governança da transição. Quem decide os padrões de qualidade? Quem mantém coerência sistêmica quando dezenas de agentes geram código em paralelo? Quem é responsável quando código gerado por IA falha em produção?

O GitHub Octoverse 2025 registra que 41% do código novo já é assistido por IA. O estudo de Harvard mostra que contratações de desenvolvedores juniores caíram de 9% a 10% em seis trimestres após adoção de IA nas empresas pesquisadas. A transição não é hipotética. Está acontecendo.

A questão não é se você é construtor ou revisor. É se sua organização tem a infraestrutura de governança para que tanto a construção quanto a revisão funcionem com integridade. Sem isso, velocidade de geração é apenas velocidade de acumulação de risco.


Fontes

  • Chase, Harrison. “How Coding Agents Are Reshaping Engineering, Product and Design.” X/Twitter. Março 2026.
  • LinearB. “2026 Software Engineering Benchmarks.” 2026.
  • METR. “Measuring the Impact of Early 2025 AI Models on Experienced Open-Source Developer Productivity.” 2025.
  • Osmani, Addy. “The Next Two Years of Software Engineering.” 2026.
  • Veracode. “State of Software Security 2025.” 2025.
  • Kiteworks. “2026 Data Security and Compliance Report.” 2026.
  • CodeRabbit. “Code Review Benchmark Report.” 2025.
  • GitHub. “Octoverse 2025.” 2025.
  • Anthropic. “Agent Uncertainty Detection Research.” 2026.
  • LeadDev. “Writing Code Was Never the Bottleneck.” 2025.

A Victorino ajuda organizações a construir a infraestrutura de governança que torna código gerado por IA confiável em escala: contato@victorino.com.br | www.victorino.com.br

Se isso faz sentido, vamos conversar

Ajudamos empresas a implementar IA sem perder o controle.

Agendar uma Conversa