- Início
- The Thinking Wire
- O Que É um Agent Harness? O Conceito Que Falta na Sua Estratégia de IA
O Que É um Agent Harness? O Conceito Que Falta na Sua Estratégia de IA
Você compra um modelo de IA. Testa. Funciona razoavelmente. Coloca em produção. Funciona mal. Troca por um modelo mais caro. Melhora um pouco. Não o suficiente. Compra o próximo. O ciclo se repete.
O problema provavelmente não é o modelo. É tudo ao redor dele.
Esse “tudo ao redor” tem nome: agent harness. E a maioria das organizações que investem em IA não sabe que ele existe, muito menos que é o fator determinante entre um agente que funciona e um que gera relatórios bonitos sobre o que não conseguiu fazer.
A Fórmula
A equação é simples:
Agente = Modelo + Harness
O modelo é a capacidade de raciocínio. O harness é a infraestrutura que envolve esse modelo para que ele consiga fazer algo útil no mundo real. Execução de ferramentas, gerenciamento de memória, curadoria de contexto, orquestração de fluxos, verificação de resultados, guardrails de segurança. Tudo isso é harness.
Sem harness, um modelo é um cérebro flutuando em um tanque. Capaz de pensar, incapaz de agir.
A Analogia do Computador
Philipp Schmid, da Hugging Face, oferece uma analogia que clarifica o conceito. Pense em um computador:
- Modelo = CPU. Poder bruto de processamento.
- Janela de contexto = RAM. Memória de trabalho limitada.
- Agent harness = Sistema operacional. Gerencia recursos, fornece interfaces padronizadas, coordena processos.
- Agente = Aplicação. A lógica específica para o problema do usuário.
Ninguém compra uma CPU e espera que ela rode planilhas sozinha. A CPU precisa de um sistema operacional, drivers, filesystem, gerenciador de memória. O modelo de IA precisa do equivalente. Esse equivalente é o harness.
A analogia tem limites (harnesses não são tão padronizados quanto sistemas operacionais, e a indústria ainda não convergiu em interfaces). Mas captura o essencial: o componente mais visível não é o mais importante.
O Que o Harness Faz, Concretamente
Seis responsabilidades compõem um harness completo.
Engenharia de contexto. Presets de prompt, injeção dinâmica de contexto, compactação quando a janela se aproxima do limite. O modelo não decide o que sabe. O harness decide o que o modelo precisa saber para cada tarefa específica.
Integração de ferramentas. Conecta o modelo a APIs externas, bancos de dados, sistemas de arquivos. Lida com execução, retry, tratamento de erros. O modelo diz “quero consultar o banco.” O harness traduz isso em uma query real, executa, captura erros e devolve resultados formatados.
Gerenciamento de memória e estado. Contexto de trabalho para a sessão atual, estado persistente entre sessões, memória de longo prazo. Sem isso, cada interação começa do zero.
Planejamento e decomposição. Quebra tarefas complexas em passos estruturados. Um agente que recebe “refatore este módulo” precisa de um plano: analisar dependências, identificar testes, executar mudanças em ordem, validar após cada passo.
Verificação e guardrails. Validação de schema, execução de testes, filtros de segurança. O harness verifica se o output do modelo está correto antes de executá-lo. Harnesses para aplicações de longa duração levam isso ao extremo, com avaliadores independentes separados do gerador.
Gestão de ciclo de vida. Hooks, recuperação de erros, coordenação de sub-agentes. Quando um agente falha no passo 7 de 12, o harness decide se tenta de novo, pula, ou aborta.
Harness, Framework, Orquestrador: Não São a Mesma Coisa
Três termos circulam como sinônimos. Não são.
Um framework de agentes (LangChain, CrewAI) é um kit de construção. Fornece blocos, abstrações, integrações. Você monta o sistema a partir desses blocos. É a planta baixa e os tijolos.
Um agent harness (Claude Code, Codex) é um sistema de runtime completo com escolhas opinadas já feitas. Contexto é gerenciado de um jeito específico. Ferramentas são expostas de um jeito específico. Ciclos de correção funcionam de um jeito específico. Você opera dentro dessas escolhas.
Um orquestrador controla quando e como chamar modelos. É o cérebro operacional que decide “agora executo o modelo A com este prompt, depois passo o resultado para o modelo B.”
Na prática, as fronteiras se borram. Frameworks podem virar harnesses quando opinam sobre suficientes decisões. Harnesses incluem orquestradores. Mas a distinção conceitual importa porque cada um exige investimento diferente. Um framework exige engenheiros construindo. Um harness exige engenheiros configurando. Um orquestrador exige engenheiros decidindo.
Os Números Que Encerram o Debate
Se a definição parece abstrata, os dados concretos ajudam.
Claude Opus 4.5 no CORE-Bench: 42% com scaffold básico, 78% com o harness do Claude Code. Mesmo modelo. Mesma inteligência. Zero alterações. A análise completa desses números mostra que, após corrigir bugs no próprio sistema de avaliação, o resultado chegou a 95%.
No Terminal Bench da LangChain, um agente de código saltou de 52,8% para 66,5% (do top 30 para o top 5 do benchmark) apenas por mudanças no harness. O modelo permaneceu fixo.
A Vercel removeu 80% das ferramentas do seu agente. O resultado melhorou. Menos ferramentas, menos bifurcações onde o modelo pode errar, mais acerto. Engenharia de harness, não engenharia de modelo.
Esses resultados seguem um padrão: para tarefas de engenharia onde padrões existem e validação é automatizável, o harness determina a maior parte da performance. O modelo importa menos do que a indústria quer que você acredite.
Quem Nomeou, Quem Praticou
A OpenAI cunhou o termo “harness engineering” em fevereiro de 2026, através de Ryan Lopopolo. A Anthropic descreveu os mesmos padrões sem batizá-los. Martin Fowler e Birgitta Bockeler contextualizaram a prática dentro da engenharia de software existente.
Como exploramos em Harness Engineering Não É Novo, as práticas subjacentes (documentação estruturada, validação automatizada, isolamento de ambiente) existem há décadas. O que mudou foi o reconhecimento de que elas formam uma disciplina coerente quando aplicadas a agentes de IA.
Nomear importa. Não porque a prática seja nova, mas porque o nome permite que organizações alocem orçamento, contratem especialistas e meçam maturidade. “Melhorar a infraestrutura ao redor do modelo” é vago. “Investir em harness engineering” é acionável.
O Que o Harness Não Resolve
Honestidade intelectual obriga: o harness tem limites.
Para tarefas na fronteira do conhecimento, onde o modelo precisa raciocinar de forma genuinamente nova sem padrões a seguir, a qualidade do modelo ainda domina. O benchmark APEX-Agents, focado em pesquisa científica, registrou um melhor resultado de 24%. O harness ajuda, mas não substitui capacidade de raciocínio.
Custo é outra dimensão ignorada nas narrativas de harness. Cada ciclo de verificação, cada retry, cada sub-agente coordenado consome tokens. A Stripe roda 63 turnos por problema no SWE-bench, o que significa 63 chamadas ao modelo para resolver uma única tarefa. Multiplicado por centenas de tarefas diárias, o custo de inferência cresce rápido.
Há também o risco de lock-in. A maioria dos harnesses disponíveis está acoplada a modelos específicos. Claude Code funciona com Claude. Codex funciona com modelos da OpenAI. Migrar de harness significa reescrever integrações, reconfigurar contexto, readaptar fluxos. É um custo de troca real que raramente aparece na planilha de ROI.
E nem todo caso de uso precisa de um harness completo. Uma chamada simples de API com um prompt bem escrito resolve muitos problemas. A sofisticação do harness deve ser proporcional à complexidade da tarefa. Engenharia excessiva é tão cara quanto engenharia insuficiente.
A Decisão de Investimento
O modelo está ficando mais barato a cada trimestre. Cada geração custa menos por token. Alternativas open-source ficam mais competitivas a cada mês. O preço de inferência é uma curva descendente.
O harness, por outro lado, é investimento que se acumula. Documentação estruturada, pipelines de validação, padrões de contexto, ciclos de correção calibrados. Nada disso deprecia quando o próximo modelo é lançado. Pelo contrário: cada melhoria no harness beneficia automaticamente qualquer modelo futuro.
Uma organização que gasta 80% do orçamento em modelos e 20% em harness está otimizando o componente que barateia e negligenciando o componente que diferencia.
Saber que o harness existe é o primeiro passo. Investir nele como disciplina de engenharia é o segundo. Para quem quer ir mais fundo nos padrões de implementação, a camada agêntica da Stripe mostra como isso funciona em escala de produção.
Fontes
- OpenAI. “Harness engineering: leveraging Codex in an agent-first world.” Fev. 2026.
- Anthropic. “Building Effective Agents.” 2025.
- Birgitta Böckeler / Martin Fowler. “Harness Engineering.” 2026.
- LangChain. “The Anatomy of an Agent Harness.” Mar. 2026.
- Philipp Schmid. “The importance of Agent Harness in 2026.” 2026.
Victorino Group ajuda organizações a projetar a camada de governança que torna agentes de IA confiáveis em produção: contato@victorino.com.br | www.victorino.com.br
Todos os artigos do The Thinking Wire são escritos com o auxílio do modelo LLM Opus da Anthropic. Cada publicação passa por pesquisa multi-agente para verificar fatos e identificar contradições, seguida de revisão e aprovação humana antes da publicação. Se você encontrar alguma informação imprecisa ou deseja entrar em contato com o editorial, escreva para editorial@victorino.com.br . Sobre o The Thinking Wire →
Se isso faz sentido, vamos conversar
Ajudamos empresas a implementar IA sem perder o controle.
Agendar uma Conversa