- Início
- The Thinking Wire
- Construtor ou Revisor? A Pergunta Errada Sobre Agentes de Código
Construtor ou Revisor? A Pergunta Errada Sobre Agentes de Código
Harrison Chase, CEO da LangChain (avaliada em US$ 1,25 bilhão), publicou um ensaio que acumulou 563 mil visualizações em dois dias. A tese: agentes de codificação estão remodelando engenharia, produto e design. PRDs morreram. Generalistas vencem especialistas. Você é construtor ou revisor.
O diagnóstico é preciso em vários pontos. Mas a receita tem um problema estrutural: Chase descreve o que muda sem perguntar quem governa a mudança. E essa omissão não é acidental. Cada afirmação que acelera adoção de agentes beneficia diretamente o negócio dele.
Isso não invalida as observações. Invalida a completude.
O gargalo de revisão é real (e pior do que Chase sugere)
Chase argumenta que o gargalo está se movendo de implementação para revisão. Dados confirmam isso com uma precisão que ele próprio não oferece. O relatório da LinearB de 2026, baseado em 8,1 milhões de pull requests de 4.800 organizações, mostra que PRs gerados por IA têm taxa de aceitação de 32,7%. Para PRs escritos por humanos, a taxa é 84,4%.
A diferença não é marginal. Dois em cada três PRs de IA são rejeitados ou precisam de retrabalho substancial.
Pior: PRs de IA esperam 4,6 vezes mais por revisão do que os manuais. Como mostramos em A Escalada da Verificação, o tempo de revisão de código em times assistidos por IA subiu 91% segundo dados da LeadDev. Não é um gargalo temporário. É uma consequência estrutural de gerar artefatos mais rápido do que humanos conseguem avaliá-los.
Chase identifica o sintoma. Não investiga a causa.
”Qualquer um pode escrever código” é uma meia-verdade perigosa
A afirmação central do ensaio é que agentes de código democratizam a implementação. Qualquer pessoa com senso de produto pode prototipar. O PM vira construtor. O designer vira construtor. Todos viram construtores.
O estudo do METR de 2025 conta outra história. Desenvolvedores experientes usando ferramentas de IA foram 19% mais lentos do que sem IA. E acreditavam ser 24% mais rápidos. A diferença entre percepção e realidade era de 43 pontos percentuais.
Escrever código nunca foi o gargalo principal. A LeadDev publicou essa tese explicitamente: o custo real sempre esteve em entender o problema certo, fazer as perguntas certas, validar contra requisitos reais. Agentes de código aceleram a parte que já era relativamente rápida.
Para PMs e designers sem experiência em engenharia, o risco é mais sutil. Como exploramos em Código Barato, Qualidade Cara, gerar código caiu para quase zero. Verificar qualidade, não. Quando não-engenheiros geram código sem infraestrutura de verificação, o volume de artefatos não-revisados cresce exponencialmente.
O falso binário: construtor versus revisor
Chase propõe que o mundo se divide em construtores e revisores. É uma taxonomia limpa. Também é incompleta.
Quem opera o sistema em produção? Quem mantém a coerência arquitetural quando 15 agentes geram código em paralelo? Quem define os padrões contra os quais a revisão acontece?
SREs, engenheiros de plataforma, arquitetos de sistemas. Chase os torna invisíveis. Addy Osmani, do Google, demonstrou que o perfil T-shaped (profundidade técnica combinada com amplitude generalista) supera o generalista puro em ambientes complexos. O construtor-revisor binário elimina exatamente o perfil que organizações maduras mais precisam.
E há um problema mais fundamental. Como discutimos em Mudança de Paradigma nos Times de Produto, 89% das organizações ainda operam modelos da era industrial. A pergunta não é “você é construtor ou revisor?” A pergunta é: quem define o que “excelente” significa quando a capacidade de construir explode e a capacidade de avaliar não acompanha?
O PM amplificado (e o PM destrutivo)
Aqui Chase acerta com clareza. Bons PMs são amplificados por agentes de código. Podem prototipar, validar hipóteses, reduzir ciclos de feedback. A distância entre ideia e artefato diminui.
Mas maus PMs se tornam exponencialmente mais destrutivos. Quando gerar código é trivial, cada especificação ruim produz artefatos concretos. Não ficam mais no papel. Viram PRs, protótipos, sistemas parcialmente construídos que precisam ser revisados, discutidos, eventualmente descartados.
O dado da CodeRabbit de 2025 sustenta isso: código gerado por IA produz 1,7 vez mais issues em produção do que código humano. Especificações ruins multiplicadas por geração barata produzem defeitos baratos de criar e caros de encontrar.
Chase reconhece o problema, mas não propõe solução. A solução é governança. Portões de qualidade antes da geração, não apenas depois. Especificações versionadas e validáveis. Critérios explícitos para o que merece ser construído.
O que o ensaio não menciona (e deveria)
Segurança está completamente ausente. O relatório da Veracode de 2025 testou mais de 100 LLMs e encontrou que 40% a 48% do código gerado por IA contém falhas de segurança. Em um mundo onde “qualquer um pode escrever código”, a superfície de ataque cresce proporcionalmente.
Governança e compliance também não aparecem. O estudo da Kiteworks de 2026 mostra que 63% das organizações não conseguem aplicar limites de propósito em sistemas de IA. Quem garante que o código gerado por agentes atende a requisitos regulatórios?
O perfil do operador é ignorado. Se o gargalo muda de implementação para revisão, quem revisa os revisores? Quem monitora a qualidade sistêmica quando o volume de artefatos gerados supera a capacidade humana de avaliação?
A pesquisa da Anthropic de 2026 sobre agentes que aprendem a detectar incerteza e pedir input humano aponta para uma resposta parcial. Mas parcial não é suficiente para organizações com requisitos regulatórios, contratos de SLA, ou responsabilidade legal sobre software em produção.
A pergunta que importa
Chase descreve com precisão o que está mudando. Agentes de código são reais. O gargalo de revisão é real. A amplificação de bons PMs é real.
Mas a divisão construtor/revisor cria um novo problema que o ensaio ignora: governança da transição. Quem decide os padrões de qualidade? Quem mantém coerência sistêmica quando dezenas de agentes geram código em paralelo? Quem é responsável quando código gerado por IA falha em produção?
O GitHub Octoverse 2025 registra que 41% do código novo já é assistido por IA. O estudo de Harvard mostra que contratações de desenvolvedores juniores caíram de 9% a 10% em seis trimestres após adoção de IA nas empresas pesquisadas. A transição não é hipotética. Está acontecendo.
A questão não é se você é construtor ou revisor. É se sua organização tem a infraestrutura de governança para que tanto a construção quanto a revisão funcionem com integridade. Sem isso, velocidade de geração é apenas velocidade de acumulação de risco.
Fontes
- Chase, Harrison. “How Coding Agents Are Reshaping Engineering, Product and Design.” X/Twitter. Março 2026.
- LinearB. “2026 Software Engineering Benchmarks.” 2026.
- METR. “Measuring the Impact of Early 2025 AI Models on Experienced Open-Source Developer Productivity.” 2025.
- Osmani, Addy. “The Next Two Years of Software Engineering.” 2026.
- Veracode. “State of Software Security 2025.” 2025.
- Kiteworks. “2026 Data Security and Compliance Report.” 2026.
- CodeRabbit. “Code Review Benchmark Report.” 2025.
- GitHub. “Octoverse 2025.” 2025.
- Anthropic. “Agent Uncertainty Detection Research.” 2026.
- LeadDev. “Writing Code Was Never the Bottleneck.” 2025.
A Victorino ajuda organizações a construir a infraestrutura de governança que torna código gerado por IA confiável em escala: contato@victorino.com.br | www.victorino.com.br
Se isso faz sentido, vamos conversar
Ajudamos empresas a implementar IA sem perder o controle.
Agendar uma Conversa