- Início
- The Thinking Wire
- A Lacuna Operacional: O Que o Estudo de Autonomia da Anthropic Revela Sobre Operar IA em Escala
A Lacuna Operacional: O Que o Estudo de Autonomia da Anthropic Revela Sobre Operar IA em Escala
A Anthropic publicou algo incomum na semana passada. Não foi o anúncio de um modelo. Não foi um benchmark. Foi um estudo sobre como pessoas realmente usam agentes de IA — milhões de sessões, analisadas no nível de cada chamada de ferramenta.
Os números principais são relevantes: 80% das chamadas de ferramenta têm pelo menos uma salvaguarda. 73% parecem ter um humano no circuito. Apenas 0,8% das ações são irreversíveis.
Mas a descoberta mais interessante não está nas estatísticas de segurança. Está na diferença de comportamento entre usuários novos e experientes.
Confiança Se Conquista, Não Se Concede
Usuários novos (menos de 50 sessões) aprovam automaticamente cerca de 20% das ações do agente. Usuários experientes (mais de 750 sessões) aprovam automaticamente mais de 40%.
Isso não é imprudência. Os usuários experientes também interrompem com mais frequência — 9% por turno contra 5% dos iniciantes. Eles não estão confiando cegamente no agente. Mudaram sua estratégia de supervisão: de aprovação ação por ação para monitoramento ativo com intervenção estratégica.
É o mesmo padrão que vemos em todo domínio operacional maduro. Pilotos juniores seguem checklists rigidamente. Pilotos seniores monitoram sistemas e intervêm quando detectam anomalias. O checklist não desaparece. Ele se internaliza, e a atenção se move para sinais de ordem superior.
Os dados da Anthropic mostram esse padrão emergindo organicamente em milhões de usuários. Ninguém desenhou um programa de treinamento. Ninguém estabeleceu um framework de confiança graduada. Os usuários construíram isso sozinhos, sessão por sessão.
A pergunta para organizações é se essa calibração orgânica de confiança é suficiente, ou se precisa ser tornada explícita, medida e governada.
O Problema da Co-Construção
A Anthropic enquadra a autonomia como “co-construída” por três fatores: capacidade do modelo, comportamento do usuário e design do produto. Esse enquadramento importa porque a maioria das discussões de governança trata autonomia como propriedade binária do modelo — ou a IA é autônoma, ou não é.
A realidade é mais nuançada. O mesmo modelo, usado pela mesma pessoa, se comporta de forma diferente dependendo de qual produto o apresenta. Claude na API sem proteções opera diferentemente do Claude Code, que exige aprovação explícita para comandos bash. A camada de produto — permissões, padrões, fluxos de aprovação — molda o nível efetivo de autonomia tanto quanto a capacidade bruta do modelo.
Isso significa que organizações não podem governar autonomia de IA avaliando apenas modelos. Precisam avaliar o sistema inteiro: quais ferramentas o modelo pode acessar, quais fluxos de aprovação existem, o que o monitoramento captura, e como os usuários interagem com tudo isso.
O uso interno da Anthropic ilustra isso. Entre agosto e dezembro, a taxa de sucesso nas tarefas mais difíceis dobrou enquanto as intervenções humanas caíram de 5,4 para 3,3 por sessão. Tanto o modelo quanto os operadores melhoraram simultaneamente. Você não consegue separar um do outro.
A Inundação de Output Sem Infraestrutura de Qualidade
Enquanto a Anthropic estudava como a confiança se desenvolve, o mundo da engenharia descobria o que acontece quando se escala a produção de agentes sem escalar a infraestrutura de qualidade.
C.J. Roth compilou os números este mês. Times de engenharia assistidos por IA estão completando 21% mais tarefas e fazendo merge de 98% mais pull requests. Parece um milagre de produtividade. Depois você vê o outro lado: o tempo de revisão de PRs aumentou 91%. Incidentes por PR aumentaram 23,5%. Taxas de falha em mudanças subiram aproximadamente 30%.
O padrão é claro. IA facilita a geração de código. Não facilita a revisão de código. Não facilita a operação de código. O pipeline de produção se alargou, mas o pipeline de qualidade permaneceu com a mesma largura — ou estreitou, porque os mesmos revisores agora enfrentam PRs maiores e mais frequentes.
Isso não é uma falha tecnológica. É uma falha operacional. As organizações que evitaram esse padrão — Roth analisa Linear, Cursor e Stripe — investiram pesadamente em disciplina operacional antes de adicionar alavancagem de IA. A Linear realiza Quality Wednesdays com mais de mil correções de polimento em dois anos. O Stripe incorpora líderes nos times para fazer engenharia real. O Cursor gerencia frotas de agentes de IA em branches separados.
A fórmula que Roth propõe é multiplicativa: Gosto × Disciplina × Alavancagem. Zero disciplina com alavancagem infinita produz zero resultado útil. A IA multiplica qualquer capacidade organizacional que já exista — incluindo a disfunção organizacional.
O Que Realmente Importa Medir
Se volume de produção é enganoso e métricas tradicionais são manipuláveis, o que organizações deveriam realmente medir?
A resposta do GenHack é radical em sua simplicidade: duas métricas. Frequência de entrega e taxa de quebra.
Frequência de entrega mede com que regularidade o time entrega novas versões. Não quantas linhas de código. Não quantos tickets fechados. Não quantos story points completados. Com que frequência software funcionando chega aos usuários? O benchmark: pelo menos semanalmente.
Taxa de quebra mede com que frequência as coisas quebram quando você entrega. Não falhas menores de interface — severidade de produção fora do ar. O benchmark: basicamente nunca.
Todo o resto é ruído. Story points são manipuláveis. Linhas de código são manipuláveis. Tickets do Jira são manipuláveis. Desenvolvedores são pessoas inteligentes que vão otimizar para qualquer coisa que você meça. Se você mede a coisa errada, obtém precisamente a otimização errada.
Essa simplicidade tem uma lógica mais profunda. Frequência de entrega é um proxy para saúde organizacional — lotes pequenos, entrega contínua, ciclos de feedback rápidos. Taxa de quebra é um proxy para disciplina de qualidade — testes, revisão, monitoramento, maturidade operacional.
Juntos, esses dois números dizem se a organização consegue se mover rápido e manter confiabilidade. Na era de produção acelerada por IA, essa distinção importa mais do que nunca.
O Loop de Otimização Noturna
Tom Tunguz descreve um padrão operacional que conecta todos esses fios: o loop de otimização noturna.
Toda noite, um sistema automatizado coleta as últimas 100 conversas com agentes. Extrai falhas — timeouts de tarefas, outputs incorretos, correções de usuários. Então um LLM-como-juiz avalia as falhas e gera prompts melhorados automaticamente. Os prompts melhorados são implantados na manhã seguinte.
Isso produz ganhos semanais mensuráveis nas taxas de sucesso de tarefas sem intervenção manual.
O padrão é significativo não pela tecnologia — LLM-como-juiz é bem estabelecido — mas pela cadência operacional. Este é um loop de melhoria contínua aplicado a operações de IA. É o equivalente em IA do que organizações maduras de manufatura fazem há décadas: medir, analisar, melhorar, repetir.
A maioria das organizações que implantam agentes de IA não tem esse loop. Implantam um agente, ajustam manualmente quando problemas surgem, e esperam que continue funcionando. Não há mecanismo sistemático de feedback, nem revisão noturna, nem ciclo automatizado de melhoria.
Esta é a lacuna operacional. Não uma lacuna de modelo. Não uma lacuna de confiança. Uma lacuna operacional.
O Que os Dados da Anthropic Realmente Revelam
Voltemos aos dados internos da Anthropic. A taxa de sucesso nas tarefas mais difíceis dobrou entre agosto e dezembro. As intervenções caíram de 5,4 para 3,3 por sessão.
Essa melhoria aconteceu porque a Anthropic tem a infraestrutura operacional para produzi-la. Eles medem taxas de sucesso por dificuldade de tarefa. Rastreiam frequência de intervenção no nível da sessão. Têm infraestrutura que preserva privacidade (CLIO) que permite análise sem expor dados de usuários. Constroem monitoramento na camada de produto, não como reflexão tardia.
O “excedente de implantação” que a Anthropic identifica — modelos capazes de mais autonomia do que os usuários atualmente exercem — não é primariamente um problema de confiança. É um problema de infraestrutura. Usuários concederão mais autonomia quando tiverem o monitoramento, os mecanismos de rollback, a observabilidade e a confiança institucional para fazê-lo com segurança.
Usuários experientes já demonstram isso. Concedem 2x mais autonomia porque desenvolveram infraestrutura pessoal — modelos mentais, hábitos de monitoramento, padrões de intervenção — que os permitem operar em níveis mais altos de confiança. O desafio organizacional é tornar essa infraestrutura pessoal em infraestrutura institucional.
O Playbook Operacional
Nos quatro artigos analisados, um playbook operacional consistente emerge:
Meça o que importa, não o que é fácil. Frequência de entrega e taxa de quebra sobre story points e contagem de PRs. Taxas de sucesso por dificuldade de tarefa sobre total de sessões. Padrões de intervenção sobre taxas de aprovação.
Construa infraestrutura de qualidade antes de escalar a produção. Desenvolvimento orientado a especificações. PRs empilhados com menos de 200 linhas cada. Revisões medidas em minutos, não dias. Investimento em qualidade como prioridade de primeira classe.
Implemente loops de feedback contínuos. Otimização noturna revisando conversas com agentes. Rastreamento sobre documentação. Melhoria em circuito fechado que não requer intervenção manual.
Gradue confiança explicitamente. Migre de aprovação por ação para monitoramento ativo. Construa a infraestrutura de observabilidade que torna níveis mais altos de autonomia seguros. Torne a calibração de confiança mensurável e institucional, não pessoal e implícita.
Estruture times para a nova realidade. A unidade de três pessoas — dono de produto, engenheiro proficiente em IA, arquiteto de sistemas — está emergindo como a estrutura atômica de equipe. Engenheiros seniores realizam 5x os ganhos de produtividade dos juniores. A composição do time importa mais do que seu tamanho.
A Verdadeira Questão
O estudo da Anthropic revela que confiança entre humanos e agentes de IA se desenvolve naturalmente, através de interação repetida, em milhões de sessões. Usuários aprendem a calibrar autonomia. Modelos aprendem quando pedir ajuda. O sistema melhora.
Mas desenvolvimento natural é lento, desigual e não governado. Alguns usuários calibram bem. Outros não. Algumas organizações constroem infraestrutura operacional. A maioria não.
As organizações que vão operar IA em escala não são as que têm os melhores modelos ou mais usuários. São as que constroem a infraestrutura operacional para conquistar confiança progressivamente — monitoramento, mensuração, loops de feedback, autonomia graduada, e a disciplina para medir resultados ao invés de atividade.
A lacuna operacional é a verdadeira lacuna. E ela pode ser fechada — se você construir intencionalmente para isso.
Thiago Victorino é o fundador do Victorino Group, uma consultoria que ajuda organizações a construir governança e infraestrutura operacional para sistemas de IA. Para saber mais sobre estratégia de operações de IA, visite victorino.com.br ou entre em contato em contato@victorino.com.br.
Se isso faz sentido, vamos conversar
Ajudamos empresas a implementar IA sem perder o controle.
Agendar uma Conversa