O Problema do Controle de IA

Como a IA Decide o Que Citar — E Por Que Isso É Uma Questão de Governança

TV
Thiago Victorino
10 min de leitura

Quando você pergunta algo ao ChatGPT, ele responde com fluência. Às vezes cita fontes. A resposta parece equilibrada, informada, criteriosa.

Mas a seleção do que é citado não é criteriosa. É mecânica. E entender essa mecânica é menos uma questão de marketing do que de governança.

Kevin Indig — ex-líder de crescimento na Shopify, G2 e Atlassian — publicou em fevereiro de 2026 uma análise de 1,2 milhão de citações do ChatGPT. Dos dados, 18.012 foram verificados manualmente para análise posicional. O resultado é um mapa de como modelos de linguagem distribuem atenção sobre o conteúdo que consomem. E esse mapa revela algo que deveria preocupar qualquer organização que depende de IA para disseminar informação.

O Padrão “Rampa de Esqui”

A descoberta central do estudo é que a atenção do ChatGPT não é distribuída uniformemente ao longo de um texto. Ela decai de forma previsível.

Os primeiros 30% de um conteúdo concentram 44,2% das citações. O meio — entre 30% e 70% — absorve 31,1%. Os últimos 30% ficam com 24,7%. E o rodapé — a faixa entre 90% e 100% — praticamente não existe para o modelo.

É um padrão que os pesquisadores chamaram de “rampa de esqui”: alta concentração no topo, queda contínua até o fundo.

Isso talvez não surpreenda quem conhece a arquitetura dos transformers — os modelos matemáticos por trás de sistemas como o ChatGPT. Em 2024, Liu et al. publicaram um artigo no Transactions of the Association for Computational Linguistics intitulado “Lost in the Middle”, demonstrando que modelos de linguagem de grande escala apresentam viés de primazia: prestam mais atenção ao que aparece primeiro na janela de contexto. É uma limitação arquitetural conhecida, não uma preferência editorial.

E essa distinção importa. Se o padrão de citação fosse resultado de avaliação de qualidade, seria uma funcionalidade. Sendo artefato de arquitetura, é uma vulnerabilidade — previsível, explorável e, portanto, governável.

Dentro do Parágrafo: Onde a Densidade Ganha

O estudo desce um nível de resolução e examina o que acontece dentro dos parágrafos citados. Onde, exatamente, o modelo fixa atenção?

Resposta: no meio. 53% das citações vêm das frases intermediárias de um parágrafo, contra 24,5% da primeira frase e 22,5% da última.

A explicação provável é densidade informacional. Primeiras frases tendem a ser introdutórias — contextualizam, mas dizem pouco. Últimas frases tendem a ser transições para o próximo parágrafo. O meio é onde está a carne: dados, definições, afirmações concretas.

Para quem trabalha com conteúdo corporativo, a implicação é direta. Enterrar a conclusão no final de um parágrafo longo — o instinto natural de quem escreve em estilo acadêmico — é uma forma eficaz de torná-la invisível para sistemas de IA.

Cinco Correlações, Não Cinco Regras

Indig identificou cinco características que aparecem com frequência no conteúdo citado pelo ChatGPT. É tentador transformá-las em checklist. Resista a essa tentação. São correlações observadas num dataset específico, não alavancas comprovadas.

Linguagem definitiva. Frases que afirmam “X é Y” diretamente foram citadas quase duas vezes mais que formulações condicionais (36,2% contra 20,2%). Modelos de linguagem funcionam por similaridade — comparam a pergunta do usuário com padrões no texto de treinamento e buscam correspondências de alta confiança. Uma afirmação direta é mais fácil de parear do que uma construção cheia de ressalvas. Isso não significa que afirmações diretas sejam melhores. Significa que são mais visíveis para o modelo.

Títulos em formato de pergunta. Conteúdos com interrogações nos títulos foram citados duas vezes mais. Detalhe relevante: 78,4% dessas citações vieram de títulos H2 — subtítulos, não título principal. A mecânica provável: quando o usuário faz uma pergunta ao ChatGPT, o modelo busca correspondência com perguntas similares no conteúdo que indexou. Um subtítulo que espelha a pergunta do usuário cria um atalho de relevância.

Densidade de entidades. O conteúdo citado apresenta 20,6% de densidade de entidades nomeadas — nomes próprios, organizações, números específicos, locais. O baseline típico fica entre 5% e 8%. Para entender o que isso significa na prática: “empresas estão adotando IA” tem baixa densidade de entidades. “A Petrobras implementou GPT-4 em sua operação de refino em Cubatão em março de 2025” tem alta densidade. Entidades nomeadas funcionam como âncoras de precisão para o modelo — pontos de referência concretos que facilitam a correspondência com consultas específicas.

Equilíbrio de sentimento. O conteúdo mais citado tem score de subjetividade em torno de 0,47 numa escala de 0 a 1. Nem puramente factual (0), nem puramente opinativo (1). O tom de um analista, não de um marqueteiro. Isso sugere que extremos — tanto o relatório seco quanto o artigo opinativo — são menos visíveis para o modelo do que conteúdo que combina análise com posicionamento.

Nível de leitura executivo. Conteúdo no Grau 16 da escala Flesch-Kincaid — equivalente a escrita de nível de pós-graduação — superou conteúdo no Grau 19,1. A interpretação é contraintuitiva: complexidade demais reduz a citabilidade. Não porque o modelo “prefira” simplicidade, mas porque textos excessivamente densos diluem os sinais que o modelo usa para parear informação com consultas.

O Que Esses Dados Não Dizem

Antes de agir com base nesses padrões, é necessário entender o que o estudo não é.

Não é pesquisa independente. O dataset vem da Gauge, plataforma que é simultaneamente patrocinadora e fornecedora dos dados do estudo. Isso não invalida os resultados, mas exige a mesma leitura crítica que aplicamos a qualquer relatório financiado pelo fornecedor dos dados.

Cobre apenas o ChatGPT. Nada no estudo permite afirmar que Claude, Gemini ou Perplexity apresentam os mesmos padrões. Cada sistema tem arquitetura, treinamento e pipelines de recuperação de informação diferentes. Generalizar para “a IA” com base em dados de um único sistema é extrapolação, não evidência.

Não é revisado por pares. É análise publicada numa newsletter. Competente, bem apresentada, mas sem o escrutínio metodológico de uma publicação acadêmica.

Correlação, não causalidade. As cinco características foram observadas no conteúdo que já é citado. Não há evidência experimental de que otimizar para essas características aumente a probabilidade de citação. É a diferença entre observar que pessoas de sucesso acordam cedo e afirmar que acordar cedo causa sucesso.

O P-Value é enganoso. O estudo reporta P-Value = 0,0 para várias métricas. Com 1,2 milhão de observações, praticamente qualquer diferença produz significância estatística. O que importa não é se a diferença é estatisticamente significativa, mas se é praticamente relevante. Dados do SE Ranking — analisando um ângulo complementar — indicam que o tráfego do domínio é o preditor mais forte de citações em IA, com peso três vezes maior que a estrutura do conteúdo. Ou seja: quem você é pode importar mais do que como você escreve.

Por Que Isso É Governança, Não Marketing

A reação mais natural a esses dados é “como otimizo meu conteúdo para ser citado pela IA”. Essa é a reação errada — ou, pelo menos, incompleta.

A reação correta é: se padrões de citação da IA são previsíveis e mecânicos, então organizações podem — e devem — tratar a forma como a IA representa suas informações como questão de governança.

Considere um cenário concreto. Sua empresa tem uma política de compliance documentada em um PDF de 40 páginas. As informações críticas — as que definem o que funcionários podem e não podem fazer — estão espalhadas pelo meio e pelo final do documento. Segundo o padrão observado por Indig, um modelo de IA que consulte esse documento tem alta probabilidade de citar as definições gerais do início e ignorar as restrições específicas do final.

Se um funcionário usa um assistente de IA interno para consultar essa política e recebe uma resposta incompleta — que descreve a regra geral mas omite a exceção crítica —, o problema não é do modelo. É de quem estruturou o documento sem considerar como sistemas de IA processam informação.

Isso não é otimização de SEO. É garantia de que a IA da sua organização represente corretamente suas próprias regras.

O Dividendo de Clareza

Existe uma convergência interessante entre o que a pesquisa de Indig descreve e o que boas práticas de governança de conteúdo já recomendam.

Conteúdo governado — documentação com definições claras, entidades nomeadas, conclusões antecipadas — naturalmente se alinha com as características que a IA prioriza para citação. Não por design, mas por uma razão mais fundamental: ambos recompensam clareza.

Um documento de política bem governado coloca as determinações mais importantes no início. Usa linguagem definitiva para não deixar margem a interpretação. Nomeia explicitamente as partes envolvidas. Mantém tom analítico, não emocional.

Essas são exatamente as características que o estudo correlaciona com maior visibilidade para a IA. A implicação é que organizações que já investem em governança de conteúdo estão, inadvertidamente, otimizando para legibilidade por IA. E organizações que não investem estão criando um risco específico: suas informações mais importantes podem ser sistematicamente ignoradas por sistemas de IA, simplesmente porque estão mal posicionadas ou mal estruturadas.

Chamo isso de dividendo de clareza. A mesma disciplina que torna um documento útil para humanos torna-o visível para máquinas.

O Risco Concreto

Se a atenção da IA é um artefato previsível — e os dados sugerem fortemente que é —, então a questão para líderes organizacionais não é se devem otimizar conteúdo para IA. É se devem governar como a IA interage com seu conteúdo.

A diferença é sutil mas importante.

Otimizar é tático: mova a conclusão para o primeiro parágrafo, use mais entidades nomeadas, reformule títulos como perguntas. Pode funcionar. Pode não funcionar. Os dados são correlacionais e limitados a um único sistema.

Governar é estrutural: garanta que os documentos críticos da sua organização — políticas, procedimentos, posicionamentos públicos — estejam estruturados de forma que qualquer sistema de IA que os consulte capture as informações mais importantes, não apenas as que aparecem primeiro.

Três perguntas que todo líder deveria fazer:

1. Se um modelo de IA resumir nosso documento mais importante, o resumo será preciso? — Teste isso. Literalmente. Coloque seus documentos críticos num modelo de IA e veja o que ele cita. Se as informações essenciais não aparecem, a estrutura do documento é uma vulnerabilidade.

2. Nossas políticas internas são legíveis por IA? — Não no sentido de SEO, mas no sentido de governança. Se sua organização está adotando assistentes de IA internos, a forma como suas políticas estão escritas determina a qualidade das respostas que os funcionários recebem.

3. Quem é responsável pela representação de IA da nossa organização? — Quando o ChatGPT cita sua empresa incorretamente — e eventualmente citará —, quem na organização identifica, avalia e corrige? Se a resposta é “ninguém”, você tem um gap de governança.

O Que Sabemos e o Que Não Sabemos

É importante ser preciso sobre o estado do conhecimento.

O que a pesquisa sugere com razoável confiança: modelos de linguagem como o ChatGPT não distribuem atenção uniformemente sobre o conteúdo. Existe um viés de primazia documentado tanto neste estudo quanto na literatura acadêmica. Conteúdo com maior densidade informacional, linguagem direta e entidades nomeadas aparece com mais frequência nas citações.

O que a pesquisa não demonstra: que essas são alavancas de otimização confiáveis. Que os mesmos padrões se aplicam a outros sistemas de IA. Que estrutura de conteúdo supera autoridade de domínio como preditor de citação. Que qualquer dessas correlações é causal.

O que podemos inferir razoavelmente: que tratar a forma como a IA processa conteúdo organizacional como questão de governança — não de marketing — é uma posição defensável e prudente, independentemente de os padrões específicos do estudo se confirmarem em pesquisas futuras.

A ciência da atenção da IA está no início. Temos observações, não leis. Mas as observações já são suficientes para uma conclusão: organizações que ignoram como a IA seleciona e representa suas informações estão delegando uma decisão de governança a um artefato de arquitetura. E artefatos não têm julgamento.


Fontes

  • Kevin Indig. “How AI Search Decides What Gets Cited.” Growth Memo, 16 de fevereiro de 2026. Dados: 1,2 milhão de citações do ChatGPT (18.012 verificadas), dataset da plataforma Gauge.
  • Liu et al. “Lost in the Middle: How Language Models Use Long Contexts.” Transactions of the Association for Computational Linguistics (TACL), 2024.
  • Aggarwal et al. “GEO: Generative Engine Optimization.” Princeton/Georgia Tech, 2023. arXiv:2311.09735.
  • ACL Findings, NAACL 2025: LLMs refletem padrões de citação humana com viés amplificado.
  • SE Ranking: Tráfego de domínio como preditor principal de citações em IA (peso 3x superior à estrutura de conteúdo).

O Grupo Victorino ajuda organizações a construir governança de IA que garante representação precisa de informações críticas. Se sua organização precisa garantir que a IA interprete corretamente suas políticas e posicionamentos, entre em contato: contato@victorino.com.br ou visite www.victorino.com.br.

Se isso faz sentido, vamos conversar

Ajudamos empresas a implementar IA sem perder o controle.

Agendar uma Conversa