- Início
- The Thinking Wire
- Sua Documentação Agora Tem Dois Públicos. Um Deles Conta Tokens.
Sua Documentação Agora Tem Dois Públicos. Um Deles Conta Tokens.
Existe uma mudança silenciosa acontecendo no seu painel de analytics, e ela não tem nada a ver com o painel.
Os humanos continuam lá. Rolam a página. Clicam. Abandonam. O Google Analytics os conta. Mas em algum momento entre o trimestre passado e este, um segundo público começou a consumir sua documentação. Ele não rola. Não clica. Não aparece em nenhum gráfico que você já leu na vida.
Ele conta tokens.
Em abril de 2026, Addy Osmani — um líder de engenharia do Google que trabalha no Gemini — deu nome a essa mudança: Agentic Engine Optimization (AEO). O rótulo importa porque aponta para uma superfície de governança que a maioria das empresas ainda não percebeu que existe. Sua arquitetura de informação agora é consumida por duas espécies de leitor com necessidades incompatíveis, e você está otimizando para exatamente uma delas.
Isso é uma decisão. Só não é uma decisão que você está tomando conscientemente.
O público que você não consegue ver
Analytics web tradicionais assumem um humano do outro lado da conexão. Profundidade de rolagem assume rolagem. Tempo na página assume atenção. Taxa de clique assume um cursor. Agentes não têm nada disso. Quando o Claude Code busca sua referência de API, ele não rola — ele ingere. Quando o Cursor lê seu guia de início rápido, ele não gasta três minutos lendo — gasta milissegundos analisando. Suas métricas de funil simplesmente não enxergam esse tráfego.
Mas ele aparece, sim, nos seus logs de servidor. Osmani observa que os agentes de código se identificam em user-agents de um jeito quase cômico de discreto:
- Claude Code chega como
axios/1.8.4 - Cline aparece como
curl - Cursor se identifica como
got
Sua superfície de governança virou uma consulta grep em logs do nginx. É ali que você descobre quais agentes consomem quais páginas, com que frequência, e se voltam. Marketing não tem visão sobre isso. SRE tem. Só essa transferência de responsabilidade já merece uma reunião.
O token é o novo pixel
Aqui está a restrição que reordena tudo: a maioria dos agentes de código opera dentro de uma janela de contexto de 100 mil a 200 mil tokens. Essa janela precisa acomodar o código do usuário, o histórico da conversa, a saída das ferramentas e qualquer documentação que o agente buscou para responder à pergunta. Se sua página de referência de API tem 193 mil tokens — e Osmani aponta casos reais assim — carregá-la consome toda a janela útil antes do agente escrever uma única linha de código.
O agente não falha com estardalhaço. Ele falha em silêncio, alucinando. Inventa uma assinatura de função que se parece com a sua porque sua documentação expulsou do contexto justamente a parte que corrigiria o chute. O usuário culpa o modelo. O modelo não era o problema. Era a sua página.
Esta é a parte que deveria incomodar: o tamanho da documentação agora é uma variável de governança. Uma página útil para um humano e hostil para um agente deixou de ser um artefato neutro. Virou uma superfície confiantemente enganosa para metade do seu tráfego.
A pilha de seis camadas que Osmani propõe
O framework AEO de Osmani é a primeira tentativa séria que vi de dar estrutura ao problema. As seis camadas, na ordem em que o agente percorre o caminho:
1. Controle de acesso via robots.txt. Você já conhece esse arquivo. Provavelmente ainda não o viu como uma primitiva de governança de agentes. Ele é. Bloqueie os agentes que você não quer. Permita os que você quer. Registre todos.
2. Descoberta via llms.txt. Um sitemap, mas para modelos de linguagem. Um único arquivo na raiz do domínio que diz aos agentes o que existe, onde encontrar e como está organizado. Pense nele como o índice de um livro escrito para um leitor que nunca vai virar uma página.
3. Sinalização de capacidade via skill.md. Emprestado da especificação Agent Skills da Anthropic, um arquivo skill.md diz ao agente o que seu produto ou API faz, num formato otimizado para consumo de agente, não para marketing humano. O campo de descrição é o gancho. O corpo é o contrato.
4. Markdown limpo com metadados estruturais. Tabelas HTML que renderizam lindamente no navegador viram ruído num fluxo de tokens. Cabeçalhos limpos, estrutura previsível e markdown canônico não são mais um capricho de experiência do desenvolvedor. São legibilidade de máquina.
5. Contagem de tokens como metadado. A recomendação de Osmani: exponha o custo em tokens de cada página de documentação como metadado que o agente consiga ler antes de decidir carregá-la. Deixe o agente orçar. Um guia de início rápido deve ficar abaixo de 15 mil tokens. Uma página de referência de API deve ficar abaixo de 25 mil. Páginas que excedem esses limites devem ser divididas, não justificadas.
6. Botões “Copiar para IA”. Uma pequena cortesia de UX que permite a um humano entregar um trecho específico da documentação para seu agente sem copiar e colar a página inteira. É trivial de construir. O sinal que envia — sabemos que você está trabalhando com um agente, e projetamos para isso — não é trivial.
Nenhuma dessas camadas é especulativa. Todas são construíveis nesta semana. A razão pela qual a maioria dos times ainda não construiu é que ninguém era dono do problema. AEO dá um dono.
A razão de 100 para 1 muda quem é o cliente do produto
O post de Osmani chega junto de um segundo sinal, vindo da newsletter TLDR AI: o software empresarial está começando a experimentar uma inversão em que agentes superam operadores humanos numa proporção de até 100 para 1. O número é direcional, não preciso. Mas a direção é o que importa.
Se noventa e nove em cada cem chamadas à sua API são agentes, a superfície do produto deixa de ser um aplicativo web com uma API parafusada do lado. Vira uma capacidade consumível por agentes com um aplicativo web como um dos vários frontends possíveis. As implicações se acumulam:
- Seu modelo de preços assumia humanos. Agentes não respeitam precificação por assento.
- Seu onboarding assumia um tutorial. Agentes não assistem a vídeos.
- Seu suporte assumia tickets. Agentes não abrem tickets — eles tentam de novo, alucinam ou falham em silêncio.
- Sua documentação assumia um leitor com paciência. Agentes têm uma janela de contexto, não paciência.
Esta é a continuidade desconfortável com os posts que já escrevemos sobre Skills como primitiva de governança e o que a Anthropic aprendeu construindo Skills em público. Skills modularizaram capacidades dentro do runtime do agente. AEO modulariza a informação que o agente puxa de fora. Ambos são a mesma aposta, apontada para camadas diferentes da pilha: o futuro da governança é estrutural, não supervisório.
O que isso significa para o próximo trimestre
Se você é responsável por documentação, marketing de produto, experiência do desenvolvedor ou estratégia de API, há quatro perguntas que vale colocar na mesa antes do próximo ciclo de planejamento:
- Você sabe quais agentes leem sua documentação? Rode um grep nos logs. A resposta vai surpreender alguém.
- Qual é o custo em tokens das suas dez páginas mais acessadas? Se alguma ultrapassar o limite de 25 mil, ela deixou de ser uma página. Virou uma bomba de contexto.
- Você tem um llms.txt? Se não, você é invisível para a camada de descoberta que seu segundo público usa.
- Quem é o dono do AEO? Se a resposta for ninguém, a resposta ainda será ninguém no próximo trimestre. Atribua.
As empresas que vão vencer a próxima fase disso não serão as que têm a estratégia de IA mais barulhenta. Serão aquelas cuja documentação é igualmente legível para um humano lendo um tutorial e para um agente contando tokens. É uma vantagem competitiva chata. Também é a que compõe juros.
Sua documentação agora tem dois públicos. Um deles está contando tokens. A pergunta é se você está contando ele de volta.
Fontes
- Addy Osmani. “Agentic Engine Optimization (AEO).” Abril de 2026. https://addyosmani.com/blog/agentic-engine-optimization/
- “The New Software: CLI, Skills & Vertical Models.” TLDR AI, abril de 2026.
Ajudamos times a redesenhar conteúdo e APIs para que agentes de IA acertem, não alucinem: contato@victorino.com.br | www.victorino.com.br
Todos os artigos do The Thinking Wire são escritos com o auxílio do modelo LLM Opus da Anthropic. Cada publicação passa por pesquisa multi-agente para verificar fatos e identificar contradições, seguida de revisão e aprovação humana antes da publicação. Se você encontrar alguma informação imprecisa ou deseja entrar em contato com o editorial, escreva para editorial@victorino.com.br . Sobre o The Thinking Wire →
Se isso faz sentido, vamos conversar
Ajudamos empresas a implementar IA sem perder o controle.
Agendar uma Conversa