Não Existe Fórmula Universal de Citação por IA

TV
Thiago Victorino
9 min de leitura
Não Existe Fórmula Universal de Citação por IA
Ouvir este artigo

Em fevereiro, analisamos o que 1,2 milhão de respostas do ChatGPT revelavam sobre padrões de citação. Separamos sinal de ruído, cruzamos com literatura acadêmica, e identificamos quatro achados direcionalmente sólidos: viés de posição, especificidade, estrutura de headings e sweet spot de legibilidade.

Kevin Indig, da Gauge, voltou ao mesmo dataset com uma lente diferente. Em vez de buscar padrões universais, segmentou 98 mil linhas de citação por vertical: B2B SaaS, finanças, saúde, educação, crypto, HR Tech, product analytics.

O resultado invalida a premissa de que existe uma fórmula única de otimização para citação por IA. Os dados mostram algo mais incômodo: sinais que elevam uma vertical prejudicam outra. Para quem constrói governança de informação, essa é a descoberta que importa.

O Único Padrão Universal Tem Limite

Linguagem declarativa na abertura do conteúdo é o sinal mais consistente entre verticais. O lift agregado é de 14%. Isso converge com o que já sabíamos sobre viés de posição e preferência por afirmações definitivas.

Mas esse é praticamente o único sinal que funciona em todas as verticais. A partir daí, os dados divergem de forma significativa.

Onde as Verticais Se Contradizem

Contagem de palavras. Em CRM e SaaS, conteúdo longo recebe 1,59x mais citações. Em finanças, a relação se inverte: 0,86x. Conteúdo mais curto é mais citado. A mesma métrica aponta em direções opostas dependendo do setor.

Isso faz sentido quando se pensa em como os modelos foram treinados. Documentação técnica de SaaS tende a ser extensa e detalhada. Conteúdo financeiro de qualidade tende a ser conciso e direto. O modelo aprendeu a associar comprimento com qualidade de forma diferente em cada domínio.

Hedging (linguagem hesitante). Sinal negativo em todas as verticais, sem exceção. “Pode ser”, “possivelmente”, “acredita-se que” reduzem citação de forma consistente. Isso confirma o que apontamos na análise anterior: LLMs recompensam confiança, não acurácia. Uma afirmação incorreta feita com convicção será citada mais que uma afirmação correta feita com ressalvas.

Para governança, esse é um problema sério. O sistema de citação incentiva exatamente o comportamento oposto ao que a honestidade intelectual exige.

Data de publicação. Sinal positivo entre verticais, um dos mais universais. Conteúdo com datas recentes recebe mais citações. Isso sugere que os sistemas de recuperação usam data como proxy de relevância.

Preço. Sinal negativo forte, com multiplicadores entre 0,5x e 0,8x dependendo da vertical. Páginas que mencionam preços são significativamente menos citadas. A hipótese mais provável: conteúdo com preços é classificado como comercial pelos modelos, e conteúdo comercial recebe menos citação que conteúdo informativo.

O Achado Contraintuitivo Sobre Knowledge Graph

Páginas mais citadas por IA têm menos entidades do Knowledge Graph, não mais. O multiplicador é 0,81x. Isso contradiz a intuição de que mais entidades significam mais relevância.

Na análise anterior, identificamos que densidade de entidades nomeadas (20,6%) correlaciona com mais citações. A distinção é sutil mas relevante: entidades nomeadas no texto (menções a ferramentas, pessoas, empresas) são diferentes de entidades estruturadas no Knowledge Graph (dados semânticos ligados a bases como Wikidata).

Uma explicação possível: conteúdo saturado de entidades KG tende a ser enciclopédico. Conteúdo analítico, que é mais citado, usa entidades como suporte ao argumento, não como catálogo.

A Zona Morta dos Headings

Conteúdo com 3 a 4 headings performa pior que conteúdo sem nenhum heading. Em todas as verticais. O efeito é consistente.

A leitura mais provável envolve como sistemas RAG fazem chunking. Zero headings significa que o documento inteiro é um chunk. Os sistemas de recuperação processam o bloco completo. Com 5 ou mais headings, os chunks são granulares e semânticamente coerentes. Mas 3 a 4 headings criam chunks grandes demais para serem específicos e pequenos demais para conter contexto completo. É o pior dos dois mundos.

Para quem estrutura documentação interna usada em pipelines RAG, esse dado é operacionalmente relevante. A estrutura de headings não é decisão editorial. É decisão de engenharia que afeta diretamente a qualidade da recuperação.

Conteúdo Corporativo Domina. UGC É Ruído.

94,7% das citações vêm de conteúdo corporativo. User-generated content responde por 5,3%. LinkedIn aparece em 11% das respostas de IA, ocupando a segunda posição em citações. Reddit varia entre 2% e 5% dependendo da vertical.

Esses números têm implicações diretas. Organizações que investem em conteúdo proprietário bem estruturado estão, de fato, construindo um ativo que os modelos de IA amplificam. Conteúdo disperso em fóruns e redes sociais tem peso marginal.

Isso também significa que a concentração de fontes é alta. Se quase 95% das citações vêm de conteúdo corporativo, as vozes que os LLMs amplificam são predominantemente institucionais. Perspectivas independentes, dissidentes ou de nicho ficam sub-representadas.

O Que Isso Muda Para Governança

A descoberta central (ausência de fórmula universal) tem consequências práticas para três audiências.

Para quem produz conteúdo: Otimização genérica de GEO não funciona. O que eleva citação em SaaS prejudica em finanças. Antes de aplicar qualquer “melhoria” ao conteúdo, é preciso entender o perfil de citação da sua vertical. Abordagens de “best practices universais” são, na melhor hipótese, ineficazes. Na pior, contraproducentes.

Para quem constrói sistemas RAG: A zona morta de headings é dado acionável. Se sua documentação interna tem 3 a 4 headings por documento, o chunking provavelmente está produzindo blocos de qualidade inferior. Audite a estrutura. Teste com mais granularidade ou menos divisões. Meça o impacto na qualidade das respostas.

Para quem governa IA: O viés contra hedging é o achado mais preocupante do dataset. Sistemas de IA que citam preferencialmente afirmações feitas com confiança (independentemente da acurácia) criam um ciclo de retroalimentação. Conteúdo assertivo é mais citado. Mais citação gera mais visibilidade. Mais visibilidade gera mais confiança percebida. A acurácia nunca entra na equação.

Políticas de governança de informação precisam considerar que os modelos de IA não avaliam verdade. Avaliam padrões de linguagem que correlacionam com autoridade percebida. A diferença entre os dois é onde o risco mora.

A Evolução do Campo

Em cinco semanas, passamos de “LLMs citam conteúdo no topo da página” para “cada vertical tem perfil de citação próprio que contradiz outras verticais”. Isso é progresso real na compreensão de como esses sistemas processam informação.

Mas o progresso vem acompanhado de um risco. Quanto mais granular o entendimento dos padrões de citação, mais sofisticada se torna a manipulação possível. Se sei que em finanças, conteúdo curto com data recente e sem menção a preços é mais citado, posso fabricar conteúdo otimizado para essas características. O conteúdo seria mais citado. Não seria mais verdadeiro.

A pergunta que define o valor dessa pesquisa continua a mesma que fizemos na análise anterior: estamos usando esses dados para entender como os sistemas funcionam, ou para manipulá-los?

Para governança de informação, a resposta determina se o dado é ferramenta de controle ou ferramenta de exploração.


Fontes

  • Indig, Kevin. “The Science of What AI Actually Rewards.” Growth Memo / Gauge. Março 2026.
  • Liu et al. “Lost in the Middle: How Language Models Use Long Contexts.” Stanford, TACL 2024.
  • Aggarwal et al. “GEO: Generative Engine Optimization.” Princeton/GT/Allen AI, ACM KDD 2024.

Victorino Group ajuda organizações a construir governança de informação que acompanha como a IA realmente processa conteúdo: contato@victorino.com.br | www.victorino.com.br

Todos os artigos do The Thinking Wire são escritos com o auxílio do modelo LLM Opus da Anthropic. Cada publicação passa por pesquisa multi-agente para verificar fatos e identificar contradições, seguida de revisão e aprovação humana antes da publicação. Se você encontrar alguma informação imprecisa ou deseja entrar em contato com o editorial, escreva para editorial@victorino.com.br . Sobre o The Thinking Wire →

Se isso faz sentido, vamos conversar

Ajudamos empresas a implementar IA sem perder o controle.

Agendar uma Conversa