- Início
- The Thinking Wire
- Só Mais Um Prompt: A Armadilha da Dopamina no Trabalho Assistido por IA
Só Mais Um Prompt: A Armadilha da Dopamina no Trabalho Assistido por IA
Preciso confessar uma coisa. Na terça passada, sentei para revisar um documento às 14h. Abri o Claude, mandei um prompt. Depois outro. Depois mais um. Quando olhei o relógio, eram 19h47. Cinco horas e quarenta e sete minutos. Não tomei café. Não respondi nenhuma mensagem. Não levantei da cadeira.
O documento ficou bom. Mas eu saí daquela sessão sentindo algo que não consigo descrever como cansaço comum. Era diferente. Um tipo de exaustão que não melhora dormindo, que não vem do corpo, que se instala na cabeça como uma névoa fina.
Comecei a conversar com colegas e clientes sobre isso. A resposta era quase sempre a mesma: “eu também”.
O Nome do Que Você Está Sentindo
Em março de 2026, a BCG publicou na Harvard Business Review os resultados de uma pesquisa com 1.488 trabalhadores americanos. Cunharam um termo para o fenômeno: AI brain fry. Fadiga mental causada pelo uso excessivo e pela supervisão constante de ferramentas de IA.
Quatorze por cento dos trabalhadores que usam IA reportaram o sintoma. Mas a distribuição é desigual. Em jurídico, 6%. Em marketing, 26%. A variação faz sentido: quanto mais aberto e criativo o trabalho, mais decisões o profissional precisa tomar sobre o que pedir, como avaliar e quando parar.
O número que me parou foi outro: 39% mais erros graves entre profissionais com “brain fry”. Não erros pequenos. Erros que importam.
É contraintuitivo. A IA deveria reduzir erros. E reduz, quando o profissional está em condições de supervisionar a saída. Mas quando a fadiga de decisão se acumula (33% mais fadiga de decisão, segundo o mesmo estudo), o supervisor humano falha. A rede de segurança se rompe justamente quando mais se precisa dela.
Já escrevemos aqui sobre o imposto da verificação: o custo cognitivo de revisar output de IA é real e subestimado. O estudo da BCG quantifica as consequências de ignorá-lo.
O Limiar das Três Ferramentas
A pesquisa da BCG encontrou um padrão que desafia a lógica do “quanto mais, melhor”. Produtividade percebida cresce quando profissionais usam de uma a três ferramentas de IA. A partir da quarta, cai.
Não é uma queda suave. É uma inversão. Mais ferramentas, menos resultado.
Isso contradiz o que a maioria das empresas está fazendo. A tendência é empilhar: um assistente para código, outro para texto, outro para pesquisa, outro para reuniões, outro para email. Cada um resolve um problema pontual. O custo agregado de alternar entre eles, manter o contexto, supervisionar cinco saídas diferentes, ninguém está medindo.
É a mesma dívida cognitiva que documentamos no contexto de código gerado por IA, agora espalhada por toda a jornada de trabalho.
Por Que Você Não Consegue Parar
Glenn Sanford, CEO de uma empresa de tecnologia imobiliária, descreveu sua experiência com IA à revista SUCCESS: “Era quase impossível parar. Só mais um prompt. Só mais uma coisa.” Trabalhava 12 a 16 horas por dia. Dormia em média 4 horas e 44 minutos. Desenvolveu fibrilação atrial.
A história de Sanford é uma anedota. N=1. Mas a neurociência por trás dela não é.
Dr. Tommy Wood e Dra. Elana Hoffman explicam o mecanismo: a dopamina é liberada na antecipação da recompensa, não na recompensa em si. E recompensas imprevisíveis geram respostas de dopamina mais fortes do que recompensas previsíveis. Isso se chama reforço de razão variável. É o mesmo mecanismo que torna caça-níqueis viciantes.
Cada prompt é uma alavanca. Você puxa e não sabe o que vai sair. Às vezes a resposta é medíocre. Às vezes surpreende. Essa variação é o que prende. Se a IA sempre desse respostas perfeitas, seria menos viciante. Se sempre desse respostas ruins, você pararia. A inconsistência é que alimenta o ciclo.
Existe ainda o efeito de tolerância. No início, qualquer resposta razoável gera satisfação. Com o tempo, o limiar sobe. Você precisa de respostas mais impressionantes para sentir a mesma coisa. Metas móveis, como descrevem os pesquisadores. O mesmo mecanismo da dependência química, aplicado a interfaces de texto.
Me reconheço nessa descrição. Suspeito que você também.
O Paradoxo de Jevons em Tempo Real
Em 1865, o economista William Stanley Jevons observou algo que parecia ilógico: quando motores a vapor se tornaram mais eficientes no uso de carvão, o consumo total de carvão aumentou. Eficiência não reduziu o uso do recurso. Tornou-o mais barato, o que criou mais demanda.
Satya Nadella, CEO da Microsoft, referencia explicitamente o paradoxo de Jevons ao falar sobre IA. Inteligência mais barata não significa menos trabalho humano. Significa mais demanda por ele.
A Fortune capturou isso com precisão em março de 2026. O CTO da Dun & Bradstreet: “Reduzi de 8 horas para 2, mas agora consigo colocar 20 horas de trabalho em um dia.” O CEO da KPMG: “Significa que posso passar mais volume pelo meu negócio.”
Leia de novo essas frases. O tempo economizado não voltou para a pessoa. Voltou para a empresa. A eficiência individual virou capacidade organizacional. O ser humano no centro da equação não ficou com mais tempo livre. Ficou com mais trabalho comprimido.
É uma versão individual do que documentamos em A Armadilha da Velocidade: codificação mais rápida não produziu entrega mais rápida. Produziu mais código, mais complexidade, mais manutenção. O mesmo padrão se repete agora fora da engenharia. Em marketing. Em jurídico. Em operações.
O Silêncio Organizacional
O detalhe mais revelador da reportagem da Fortune não foram as citações. Foi uma observação sobre o Google Cloud: organizações estão “um pouco nervosas” com as implicações da intensificação do trabalho por IA, mas estão “mantendo em silêncio”.
Faz sentido. Admitir que a IA está esgotando seus funcionários contradiz a narrativa de transformação digital. É mais fácil não medir. Não perguntar. Não saber.
Enquanto isso, os dados de burnout se acumulam. Em 2026, 52% dos funcionários dizem que burnout reduz seu engajamento. Era 34% doze meses antes. Um aumento de 53% em um ano. E, como reportou o TechCrunch, os primeiros sinais de burnout não vêm de quem resiste à IA. Vêm de quem a abraça.
Escrevemos sobre isso do ponto de vista organizacional em A Armadilha da Intensidade. Os mecanismos de intensificação documentados por Berkeley (expansão de tarefas, dissolução de fronteiras, multitarefa excessiva) são a moldura estrutural. Este artigo é o espelho: o que esses mecanismos fazem com você, a pessoa.
O Que a BCG Encontrou Que Funciona
Nem tudo no estudo da BCG é sombrio. Há um achado que aponta uma saída.
Quando a IA substituiu tarefas rotineiras em vez de simplesmente aumentar a carga de trabalho, o burnout caiu 15%. A diferença é sutil, mas fundamental. Aumentar significa mais output, mais supervisão, mais decisões. Substituir significa menos. Menos tarefas repetitivas, menos carga cognitiva, mais espaço para o trabalho que exige julgamento humano.
A maioria das implementações que vejo faz o contrário. Adiciona IA como camada sobre processos existentes. O profissional agora faz tudo que fazia antes, mais supervisionar a IA, mais decidir quando usar e quando não usar, mais alternar entre ferramentas. Não é substituição. É acúmulo.
A distinção entre substituir e aumentar é a fronteira entre usar IA de forma sustentável e usar IA até fritar.
O Que Fazer, Começando por Você
Este artigo é pessoal porque o problema é pessoal. Governança organizacional importa (e escrevemos sobre ela extensivamente). Mas esperar que sua empresa redesenhe processos enquanto você está fritando não é estratégia. É passividade.
Algumas coisas que tenho praticado:
Defina sessões com tempo fixo. “Vou usar IA por 45 minutos para esta tarefa.” Coloque alarme. Quando tocar, pare. Mesmo que o próximo prompt pareça que vai resolver tudo. Especialmente se parecer.
Conte suas ferramentas. O limiar de três da BCG é um ponto de partida útil. Se você alterna entre mais de três ferramentas de IA no seu dia, provavelmente está pagando mais em fadiga do que ganhando em produtividade.
Identifique o loop de dopamina. Quando você mandar o quinto prompt sobre o mesmo assunto, pergunte: estou melhorando o resultado ou estou perseguindo a sensação de que o próximo vai ser melhor? Se for o segundo, feche a aba.
Proteja o pós-IA. Depois de uma sessão intensa com IA, não pule para uma reunião ou outra tarefa complexa. Seu cérebro precisa de recuperação. Caminhe. Tome café. Faça algo que não exija decisões por dez minutos.
Meça a saída, não a atividade. “Passei 3 horas gerando com IA” não é métrica de produtividade. “Terminei o relatório em 3 horas” é. Se a IA ocupou todo o tempo sem reduzir o prazo, ela não ajudou. Ela preencheu.
Honestidade Intelectual
Preciso ser honesto sobre os limites do que apresentei.
“AI brain fry” é um termo cunhado pela BCG, não um diagnóstico clínico. O mecanismo de dopamina é inferido por similaridade com outros comportamentos compulsivos, não foi medido diretamente em usuários de IA. O caso de Glenn Sanford é uma anedota poderosa, não evidência epidemiológica. O paradoxo de Jevons é descritivo, não uma lei inevitável.
Nada disso invalida os achados. Mas define o peso que merecem. Estamos no início da compreensão de como o uso intensivo de IA afeta a cognição humana. Os sinais são consistentes. A ciência ainda está alcançando.
O que sei com certeza é mais simples: eu me reconheço nos dados. Os colegas com quem converso se reconhecem. Se você chegou até aqui, provavelmente se reconhece também.
Isso não é um convite ao pânico. É um convite à consciência. Saber que o mecanismo existe é o primeiro passo para não ser governado por ele.
Só mais um prompt. Ou não.
Fontes
- BCG. “When Using AI Leads to ‘Brain Fry’.” Março 2026.
- SUCCESS Magazine. “The Dopamine Trap: The Rarely Discussed Source of Burnout Developers Face in an AI Age.” 2026.
- Fortune. “AI Productivity: Workers Are Filling the Efficiency Gains With More Work.” Março 2026.
- Fortune. “AI ‘Brain Fry’: BCG Study on Workplace Productivity.” Março 2026.
- TechCrunch. “The First Signs of Burnout Are Coming From People Who Embrace AI the Most.” Fevereiro 2026.
- Ranganathan e Ye. “AI Doesn’t Reduce Work. It Intensifies It.” Harvard Business Review, fevereiro 2026.
- AllAboutAI. “Dopamine Loops and LLMs.” 2025.
Victorino Group ajuda organizações a projetar a camada de governança que torna agentes de IA confiáveis em produção: contato@victorino.com.br | www.victorino.com.br
Todos os artigos do The Thinking Wire são escritos com o auxílio do modelo LLM Opus da Anthropic. Cada publicação passa por pesquisa multi-agente para verificar fatos e identificar contradições, seguida de revisão e aprovação humana antes da publicação. Se você encontrar alguma informação imprecisa ou deseja entrar em contato com o editorial, escreva para editorial@victorino.com.br . Sobre o The Thinking Wire →
Se isso faz sentido, vamos conversar
Ajudamos empresas a implementar IA sem perder o controle.
Agendar uma Conversa