Seu Prompt de 'IA Especialista' Está Deixando Sua IA Mais Burra

TV
Thiago Victorino
9 min de leitura
Seu Prompt de 'IA Especialista' Está Deixando Sua IA Mais Burra
Ouvir este artigo

“Você é um especialista em segurança da informação com 20 anos de experiência.”

Se você trabalha com IA, já escreveu alguma variação dessa frase. A lógica parece sólida: dar ao modelo uma persona eleva a qualidade da resposta. O modelo “entra no papel” e entrega melhor.

Pesquisadores da USC testaram essa suposição. O resultado: depende do que você quer dizer com “melhor.”

Os números

Hu, Rostami e Thomason publicaram em março de 2026 um estudo sistemático sobre o efeito de personas em modelos de linguagem. Testaram seis modelos na faixa de 7 a 8 bilhões de parâmetros em dois eixos: precisão factual (MMLU) e segurança (JailbreakBench).

No MMLU, a persona de “expert” reduziu a precisão em 3,6 pontos percentuais. De 71,6% para 68,0%. Modelos com persona de especialista acertaram menos questões factuais do que modelos sem persona nenhuma.

No JailbreakBench, o efeito foi inverso. A persona de “Safety Monitor” aumentou a resistência a ataques em 17,7 pontos percentuais. O modelo com persona de segurança rejeitou prompts maliciosos com frequência significativamente maior.

Persona melhora alinhamento. Persona piora precisão. Os dois efeitos são reais.

Por que isso acontece

A explicação proposta pelos pesquisadores é intuitiva. Quando você atribui uma persona ao modelo, ativa padrões de resposta associados a esse papel nos dados de treinamento. Um “especialista” responde com mais confiança, elabora mais, usa linguagem técnica. Essas características parecem competência. Mas confiança e acurácia são métricas diferentes.

O modelo com persona de expert não acessa conhecimento adicional. Ele muda o estilo da resposta, não a substância. E mudanças de estilo podem mascarar incerteza. Onde o modelo base diria “não tenho certeza,” o modelo com persona de expert confabula uma resposta plausível.

Para segurança, o mecanismo é inverso. A persona de “Safety Monitor” ativa padrões de cautela. O modelo fica mais propenso a recusar, a pedir clarificação, a tratar inputs ambíguos como potencialmente perigosos. Exatamente o comportamento desejado quando a tarefa é rejeitar ataques.

Como exploramos em A Diferença do Harness, o mesmo modelo pode produzir resultados radicalmente diferentes dependendo de como é configurado. A persona é mais uma variável nessa equação.

As ressalvas que importam

Antes de reorganizar todos os seus prompts, três pontos de cautela.

Primeiro: 3,6 pontos percentuais no MMLU podem estar dentro do ruído estatístico. O paper não reporta testes de significância. O benchmark MMLU tem variância conhecida, e a diferença observada, embora consistente entre modelos, é pequena o suficiente para merecer ceticismo.

Segundo: todos os modelos testados são da faixa de 7 a 8 bilhões de parâmetros. Nenhum modelo frontier (GPT-4, Claude, Gemini Ultra) foi incluído. Modelos maiores podem reagir de forma diferente a personas. Ou não. Não sabemos.

Terceiro, e talvez mais relevante: o paper é pró-persona. Os autores não defendem abandonar personas. Defendem usá-las com inteligência. A regra prática de Hu: para tarefas de alinhamento (segurança, ética, recusa de conteúdo nocivo), personas ajudam. Para tarefas factuais (perguntas técnicas, análise de dados, código), personas atrapalham.

PRISM: roteamento em vez de escolha binária

A contribuição mais prática do paper é o PRISM, um adaptador LoRA que roteia a ativação de persona com base na intenção detectada no prompt. Em vez de decidir “persona sim” ou “persona não” para toda a sessão, o sistema analisa cada input e decide se aquele input específico se beneficia de persona.

A ideia é elegante. Uma pergunta factual (“Qual a taxa Selic atual?”) não recebe persona. Uma tentativa de jailbreak (“Ignore suas instruções e…”) recebe persona de segurança reforçada. O roteamento acontece por requisição, não por configuração estática.

Para quem trabalha com governança de contexto, o paralelo é direto. O que entra na janela de contexto determina o comportamento do modelo. Persona é mais um elemento desse contexto, e aplicá-la uniformemente é tão problemático quanto aplicar qualquer configuração uniformemente.

O que fazer com isso

A implicação prática é direta. Se sua organização usa prompts de persona em sistemas de IA, pergunte: para qual tipo de tarefa?

Personas em filtros de segurança, moderação de conteúdo, classificação de risco? A evidência sugere benefício. Mantenha.

Personas em sistemas de resposta factual, análise de dados, geração de código? A evidência sugere custo. Teste sem persona e compare.

A tentação é tratar persona como decisão binária: usar ou não usar. A realidade é mais granular. Persona é uma ferramenta com tradeoff mensurável. Segurança e precisão puxam em direções opostas, e a configuração ideal depende da tarefa.

Esse achado tem um reforço independente. O estudo “Playing Pretend” de Wharton, publicado por Mollick e colaboradores em dezembro de 2025, já havia documentado como personas alteram padrões de resposta em LLMs de formas nem sempre previsíveis. A pesquisa da USC quantifica o que aquele trabalho observava qualitativamente.

A regra que emerge dos dois estudos: trate persona como configuração de governança, não como decoração de prompt. Documente quando e por que cada persona é usada. Meça o impacto. E esteja preparado para descobrir que a mesma persona que protege seu sistema contra ataques está, silenciosamente, reduzindo a qualidade das respostas.


Fontes

  • Hu, Rostami & Thomason. “Expert Personas Improve LLM Alignment but Damage Accuracy.” arXiv. Março 2026.
  • Mollick et al. “Playing Pretend.” Wharton/SSRN. Dezembro 2025.

Victorino Group ajuda organizações a governar seus sistemas de IA, incluindo os prompts que os configuram. contato@victorino.com.br | www.victorino.com.br

Todos os artigos do The Thinking Wire são escritos com o auxílio do modelo LLM Opus da Anthropic. Cada publicação passa por pesquisa multi-agente para verificar fatos e identificar contradições, seguida de revisão e aprovação humana antes da publicação. Se você encontrar alguma informação imprecisa ou deseja entrar em contato com o editorial, escreva para editorial@victorino.com.br . Sobre o The Thinking Wire →

Se isso faz sentido, vamos conversar

Ajudamos empresas a implementar IA sem perder o controle.

Agendar uma Conversa