- Início
- Thinking...
- O Mítico Mês-Agente: Por Que Sua Estratégia de IA Precisa de Governança, Não de Mais Tokens
O Mítico Mês-Agente: Por Que Sua Estratégia de IA Precisa de Governança, Não de Mais Tokens
Wes McKinney publicou na semana passada um artigo que todo CTO rodando sessões paralelas de Claude Code deveria ler antes da próxima daily. O argumento dele: a observação de Fred Brooks em 1975 — que adicionar mais pessoas a um projeto atrasado só o atrasa mais — tem um análogo perfeito no desenvolvimento agêntico. Adicionar mais sessões de agentes a uma base de código complexa não produz retornos lineares. Produz o que McKinney chama de “poço de piche agêntico.”
Ele está articulando algo que profissionais sentem há meses, mas não tinham vocabulário para nomear. E as implicações vão muito além da engenharia de software.
O Problema do 1/9 Nunca Desapareceu
Brooks observou que um programa funcional representa aproximadamente um nono do esforço necessário para produzir um produto de software entregável. Os outros oito nonos — testes, documentação, hardening, integração, infraestrutura de manutenção — são o que separa uma demo de algo que clientes de fato dependem.
Agentes comprimiram o primeiro nono a quase zero. Uma sessão de Claude Code pode produzir um protótipo funcional em horas que teria levado semanas. Mas o ponto de McKinney é preciso: “Muitos novos vibe coders de IA claramente subestimam o trabalho envolvido em ir do protótipo à produção.”
Os oito nonos não encolheram. Na verdade, cresceram. Quando a fase de prototipagem é instantânea, organizações são tentadas a pular diretamente para o deploy. A camada de governança — revisão, testes, monitoramento — é tratada como overhead opcional, em vez de ser reconhecida como a maioria do trabalho real.
Esse é o erro mais antigo do software, agora rodando na velocidade da máquina.
A Barreira Brownfield
McKinney identifica algo que vai ressoar com qualquer pessoa que tentou agentes em código de produção real: um penhasco de desempenho por volta de 100 a 200 mil linhas de código.
Abaixo desse limiar, agentes funcionam bem. Conseguem manter contexto suficiente para fazer mudanças coerentes. Acima dele, McKinney relata que “cada nova mudança tem que abrir caminho através da selva de código criada por agentes anteriores.” Na Posit, onde ele é CEO, agentes “têm muito mais dificuldade em bases de código de mais de 1 milhão de linhas como o Positron, um fork do VSCode.”
O mecanismo importa mais que o limiar em si. Agentes gerando código criam o que McKinney chama de “dívida técnica em escala sem precedentes, acumulada na velocidade da máquina.” Cada função gerada carrega um fardo contextual futuro — manutenção, debugging e overhead de raciocínio para toda sessão subsequente de agente. Os agentes otimizam localmente enquanto degradam o ambiente global em que operam.
É a Lei de Conway encontrando o desenvolvimento agêntico: quando seu “time” consiste em agentes sem memória persistente e sem compreensão compartilhada do sistema, a arquitetura reflete essa ausência. Fragmentada. Inconsistente. Localmente correta, mas globalmente incoerente.
Complexidade Essencial Não Se Importa Com Seu Orçamento de Tokens
Brooks distinguiu complexidade acidental — a fricção imposta por ferramentas, linguagens e plataformas — de complexidade essencial — a dificuldade irredutível inerente ao problema em si.
Agentes são extraordinários com complexidade acidental. Boilerplate, wrappers de API, scaffolding CRUD, templates de teste — tarefas onde o padrão de solução está bem estabelecido e o trabalho é primariamente tradução. Isso é genuinamente valioso. Anos de frustração de desenvolvedores com complexidade acidental estão sendo resolvidos em segundos.
Mas complexidade essencial — decisões arquiteturais sem precedente para pattern matching, trade-offs que dependem de contexto de negócio que agentes não possuem — permanece teimosamente resistente. E aqui está a inversão crítica de McKinney: agentes são tão eficazes em eliminar complexidade acidental que geram nova complexidade acidental no processo. Boilerplate defensivo, abstrações rebuscadas, camadas desnecessárias de indireção. A estrutura essencial fica enterrada sob scaffolding gerado por máquina.
Quando gerar código é grátis, saber quando dizer não é sua última defesa.
Remova a Dificuldade, Remova o Produto
Sidu Ponnappa estende essa lógica à sua conclusão econômica. Sua tese: o valor do software sempre derivou da dificuldade de criação. Quando a IA torna a construção trivial, a categoria econômica de “produto” em si colapsa.
O framework é afiado. Ele distingue ativos (caros e arriscados de construir, portanto escassos, portanto amortizáveis entre clientes) de inventário (baratos e rápidos de produzir, portanto abundantes, portanto não amortizáveis porque clientes podem autoproduzir).
Um sistema de RH que levava seis meses e meio milhão de dólares era um ativo. O mesmo sistema construído em um fim de semana por algumas centenas de dólares em compute é inventário. O “flex de construído-no-fim-de-semana,” como Ponnappa coloca, “é também a confissão.”
O que cai abaixo dessa linha continua se expandindo. Boilerplate e autocomplete caíram primeiro. Depois integrações e dashboards. Agora aplicações CRUD completas, portais, ferramentas internas. A linha só se move em uma direção.
O que permanece acima dela? Compiladores. Modelos estado-da-arte. Sistemas que codificam algoritmos genuinamente novos ou dados de domínio acumulados — sistemas de trading, engines fiscais, frameworks de compliance. A dificuldade aqui mora em compreensão, não em volume de código.
Isso deveria alarmar qualquer organização cuja estratégia de IA se resume a “gerar mais código mais rápido.” Velocidade de geração é precisamente a métrica errada quando o valor dos artefatos gerados está convergindo para zero.
A Alternativa do Exoesqueleto
Se agentes autônomos falham com complexidade essencial e os artefatos que produzem estão perdendo valor de produto, qual é a alternativa governada?
O enquadramento da Kasava é o mais acionável que já vi: pare de pensar em IA como colega de trabalho e comece a tratá-la como um exoesqueleto.
Exoesqueletos físicos não levantam caixas sozinhos. Eles permitem que humanos levantem mais, por mais tempo, com menos lesão. A Ford implantou-os em fábricas. O exército os usa para transporte de carga. A medicina de reabilitação os usa para mobilidade. O padrão é idêntico: o humano dirige, a tecnologia multiplica a capacidade.
O paralelo com software é preciso. Agentes autônomos carecem do que a Kasava chama de “contexto organizacional implícito” — a lógica competitiva não escrita por trás das decisões de pricing, a deprecação combinada no trimestre passado, quais segmentos de clientes realmente geram margem. Não são coisas que cabem num prompt. São conhecimento organizacional distribuído que leva meses para adquirir e anos para desenvolver julgamento sobre.
Quando agentes autônomos falham, frequentemente você não consegue diagnosticar onde no pipeline as coisas deram errado. O modelo do exoesqueleto — micro-agentes com costuras visíveis — resolve isso. Quatro princípios:
Decomponha papéis em tarefas discretas. Não “a IA pode fazer o trabalho do desenvolvedor?” mas quais das quarenta e sete subtarefas semanais se beneficiam de amplificação.
Construa micro-agentes focados e confiáveis. Uma coisa feita consistentemente supera autonomia ampla feita mal.
Mantenha humanos no loop de decisão. IA amplifica execução. Humanos retêm julgamento.
Torne as costuras visíveis. Entradas e saídas claras por componente habilitam debugging e mantêm confiança. Quando algo quebra, você sabe exatamente qual componente falhou e por quê.
Isso é arquitetura de governança, não arquitetura de IA. As decisões tecnológicas seguem as decisões organizacionais, não o contrário.
Por Que o Entusiasmo dos CEOs com IA Não Cola
A desconexão entre essas realidades e a mensagem executiva tornou-se mensurável. A Axios reportou em fevereiro de 2026 que menções a “IA agêntica,” “força de trabalho de IA” e “trabalho digital” em calls de resultados corporativos aumentaram 4.425% do Q4 2023 ao Q4 2025. Enquanto isso, um estudo do NBER com 6.000 executivos descobriu que quase 90% das empresas relataram que a IA não teve impacto em emprego ou produtividade nos últimos três anos.
Leia de novo. Aumento de 4.425% em falar sobre impacto de IA. Taxa de 90% de zero impacto real.
A pesquisa do MIT adiciona outra camada: 95% das organizações não mostraram retorno mensurável sobre investimento em IA generativa. A pesquisa do ManpowerGroup com 14.000 trabalhadores em 19 países encontrou que, enquanto o uso de ferramentas de IA cresceu 13%, a confiança dos trabalhadores na utilidade da IA caiu 18%.
A lacuna não é um problema de comunicação. É um problema de substância. CEOs estão comunicando uma revolução de IA para acionistas enquanto funcionários experimentam uma IA que os faz corrigir 37% do output — segundo pesquisa da própria Workday. Quando o deck para investidores diz “eficiência” e o town hall diz “empoderamento,” funcionários ouvem duplo discurso. Eles não estão errados.
Ethan McCarty, CEO da Integral, colocou com clareza: “A lacuna entre a mensagem de IA para acionistas e funcionários não é um problema de comunicação — é um problema de confiança.”
Empresas com estratégias de IA centradas em pessoas superaram aquelas usando IA apenas como estratégia de tecnologia em 11,8%, segundo estudo de reputação da Burson. A variável não é qual modelo você usa. É se você construiu os sistemas humanos — treinamento, governança, accountability, integração clara com workflows — que tornam a tecnologia confiável no nível operacional.
O Mítico Mês-Agente Chegou
A percepção de Brooks em 1975 foi que desenvolvimento de software é fundamentalmente um problema de comunicação e coordenação, não um problema de digitação. Adicionar mais digitadores não ajuda quando o gargalo é compreensão.
Cinquenta anos depois, a percepção se sustenta. Agentes tornaram a digitação literalmente gratuita. E o gargalo continua sendo compreensão. Compreensão de quando dizer não. Compreensão de qual complexidade é essencial. Compreensão de que um protótipo é um nono do produto. Compreensão de que velocidade de geração não significa nada sem governança do output.
O mítico mês-agente chegou. E ele se parece exatamente com o mítico homem-mês: a crença de que paralelismo resolve problemas que são fundamentalmente sequenciais, que velocidade substitui julgamento, que mais é melhor quando a restrição nunca foi quantidade.
Organizações que reconhecem isso construirão a camada de governança — as arquiteturas de micro-agentes com costuras visíveis, os loops de decisão humana, os workflows spec-first. Não rodarão menos agentes. Rodarão agentes governados.
Organizações que não reconhecerem acumularão dívida técnica na velocidade da máquina, gerarão artefatos de valor econômico declinante e se perguntarão por que seus funcionários não compartilham seu entusiasmo.
Os agentes funcionam. A questão nunca foi se eles conseguem gerar código. A questão é se sua organização consegue governar o que eles geram.
Fontes
- Wes McKinney. “The Mythical Agent-Month.” wesmckinney.com, fevereiro 2026.
- Sidu Ponnappa. “After AI, There Is No Product.” sidu.in, fevereiro 2026.
- Kasava. “Stop Thinking of AI as a Coworker. It’s an Exoskeleton.” kasava.dev, fevereiro 2026.
- Eleanor Hawkins. “Why CEOs’ AI Hype Isn’t Landing with Employees.” Axios, 5 de fevereiro de 2026.
- NBER. Pesquisa com 6.000 executivos sobre impacto de IA. Via Fortune/Yahoo Finance, fevereiro 2026.
- MIT. “The GenAI Divide: State of AI in Business 2025.” MLQ/MIT, 2025.
- ManpowerGroup. “2026 Global Talent Barometer.” Janeiro 2026.
- Workday. “Beyond Productivity: AI Value.” 2026.
- Burson. Estudo de reputação e retorno aos acionistas. Janeiro 2026.
- Fred Brooks. The Mythical Man-Month. Addison-Wesley, 1975.
- Fred Brooks. “No Silver Bullet.” IEEE Computer, 1986.
Na Victorino Group, ajudamos organizações a construir a camada de governança que transforma capacidade de IA em resultados de engenharia confiáveis. Se seus agentes estão gerando mais rápido do que seu time consegue governar, vamos conversar.
Se isso faz sentido, vamos conversar
Ajudamos empresas a implementar IA sem perder o controle.
Agendar uma Conversa