- Início
- Thinking...
- A Armadilha da Intensidade: Quando Ganhos de Produtividade Viram Sobrecarga
A Armadilha da Intensidade: Quando Ganhos de Produtividade Viram Sobrecarga
Existe um padrão que se repete toda vez que uma nova pesquisa sobre IA e produtividade é publicada. A pesquisa diz X. A mídia reporta Y. O LinkedIn debate Z. E nenhum dos três tem muito a ver com o outro.
Na primeira semana de fevereiro de 2026, o ciclo se repetiu. Duas pesquisadoras de Berkeley — Aruna Ranganathan e Xingqi Maggie Ye — publicaram na Harvard Business Review os achados preliminares de um estudo etnográfico de oito meses com 200 funcionários de uma empresa de tecnologia nos EUA. Em 48 horas, o estudo já era “Harvard prova que IA causa burnout”.
O achado real é mais interessante — e mais útil — do que a manchete.
O Que o Estudo Realmente Encontrou
Ranganathan e Ye não mediram produtividade. Observaram comportamento. Durante oito meses (abril a dezembro de 2025), acompanharam como 200 profissionais de tecnologia mudaram sua forma de trabalhar após adotar ferramentas de IA.
O que encontraram foi um padrão de intensificação que opera em três mecanismos:
Expansão de tarefas. A IA preencheu lacunas de conhecimento, permitindo que funcionários assumissem trabalho fora de seu papel original. Product managers começaram a escrever código. Pesquisadores passaram a fazer engenharia de dados. A barreira de entrada para qualquer tarefa caiu — e o escopo de responsabilidade de cada pessoa subiu.
Fronteiras dissolvidas. A fricção de iniciar uma tarefa caiu a quase zero. Quando começar algo requer apenas digitar um prompt, as barreiras temporais desaparecem. As pesquisadoras observaram funcionários enviando prompts durante o almoço, em reuniões, nos intervalos. O trabalho se espalhou para ocupar cada fenda do dia.
Multitarefa intensificada. Trabalhadores passaram a gerenciar múltiplos threads de IA simultaneamente — escrevendo código enquanto a IA gera alternativas, rodando agentes em paralelo, revisando outputs de vários processos ao mesmo tempo.
O resultado é um ciclo auto-reforçante: a IA acelera a execução, as expectativas sobem, a dependência se aprofunda, o escopo se expande, a intensidade aumenta. Cada etapa alimenta a próxima.
O Que a Mídia Errou
Antes de analisar as implicações, vale separar fato de ficção.
Não é um estudo de Harvard. As pesquisadoras são de Berkeley (UC Berkeley Haas School of Business). Publicaram na Harvard Business Review — que é uma revista, não um periódico acadêmico peer-reviewed. A diferença importa. A HBR é uma publicação respeitada, mas não aplica o mesmo rigor metodológico de um journal acadêmico.
Não é peer-reviewed. As próprias pesquisadoras descrevem o trabalho como pesquisa “em andamento”. Os achados são preliminares. Isso não os invalida — estudos etnográficos produzem insights valiosos — mas define o peso que devemos atribuir a eles.
É uma única empresa. Duzentos funcionários em uma empresa de tecnologia nos EUA. Contexto específico, cultura específica, ferramentas específicas. Generalizar para “a IA intensifica o trabalho em toda parte” é ir além do que os dados permitem.
“IA causa burnout” é mais forte do que o estudo afirma. As pesquisadoras alertaram sobre o risco de sobrecarga. Risco não é causalidade. A distinção não é semântica — é a diferença entre “esse padrão pode levar a problemas” e “esse padrão já causa problemas”.
Parte da cobertura brasileira adicionou uma camada extra de imprecisão. Um portal citou “3% de economia de tempo” atribuído a um estudo do NBER. O número real é 1,4% no agregado ou 5,4% para usuários ativos — uma diferença que muda a narrativa por completo.
O Gap de Percepção: Um Padrão que se Repete
O achado mais relevante do estudo de Ranganathan e Ye não é a intensificação em si — é que os funcionários não percebiam que estavam trabalhando mais. Acreditavam estar sendo mais produtivos. A percepção e a realidade divergiam.
Esse gap de percepção não é novo. Já o cobrimos aqui em detalhes.
O estudo do METR com 16 desenvolvedores experientes encontrou o mesmo padrão: desenvolvedores usando IA acreditavam ser 24% mais rápidos, mas eram 19% mais lentos. O DORA Report 2024 do Google mostrou que 75% dos desenvolvedores sentem-se mais produtivos com IA — mas cada 25% de aumento na adoção correlaciona com 1,5% de queda na velocidade de entrega e 7,2% na estabilidade.
Quando múltiplos estudos independentes, com metodologias diferentes, em contextos diferentes, convergem para o mesmo achado — percepção de produtividade descolada da realidade — estamos diante de um padrão sistêmico, não de uma anomalia.
E padrões sistêmicos exigem respostas sistêmicas.
O Problema Que Ninguém Está Nomeando
A maioria das análises sobre o estudo de Berkeley para no diagnóstico: “IA intensifica o trabalho”. Isso é útil, mas insuficiente. A pergunta que importa é: por que a intensificação acontece sem controle?
A resposta é governança — ou, mais precisamente, a ausência dela.
Nas empresas que observamos, a adoção de IA segue um padrão previsível: ferramentas são disponibilizadas, equipes experimentam, uso cresce organicamente. Ninguém define limites. Ninguém estabelece normas. Ninguém mede o que realmente está acontecendo.
As pesquisadoras de Berkeley usam o termo “AI Practice” — o conjunto de normas organizacionais que regulam como a IA é usada no dia a dia. Suas recomendações incluem definir quando o uso de IA é apropriado, estabelecer limites de escopo e criar mecanismos de feedback.
Isso é governança. Não governança como burocracia — governança como arquitetura organizacional.
Quando uma empresa implementa IA sem definir:
- Quem decide quais tarefas são apropriadas para IA e quais não são
- Como se mede o impacto real (não o percebido) no trabalho
- Quais limites existem para a expansão de escopo
- Que mecanismos protegem contra a dissolução de fronteiras entre trabalho e não-trabalho
…a intensificação não é um bug. É o resultado esperado.
A Evidência Complementar
O estudo de Berkeley não existe em isolamento. Ele se encaixa em um corpo crescente de evidências que aponta na mesma direção.
O estudo do NBER de Brynjolfsson (2023), publicado no Quarterly Journal of Economics — este sim peer-reviewed — encontrou ganhos reais de 14% em produtividade para atendentes de suporte ao cliente, com benefício desproporcionalmente maior para iniciantes (34%). Mas esses ganhos aconteceram em um contexto estruturado, com tarefas bem definidas e métricas claras.
O RCT do METR (julho de 2025) mostrou que em contextos complexos — codebases maduras, desenvolvedores experientes — a IA pode desacelerar em vez de acelerar. Mas usou ferramentas do primeiro semestre de 2025, com apenas 16 participantes.
O DORA Report 2024 do Google revelou uma correlação negativa entre adoção de IA e métricas de entrega em escala organizacional.
O padrão que emerge: IA funciona bem em tarefas estruturadas, com escopo definido e métricas claras. IA cria problemas em contextos abertos, sem governança e sem medição.
Isso não é anti-IA. É anti-ingenuidade.
A Armadilha da Intensidade como Problema de Design
A intensificação que Ranganathan e Ye documentam não é inevitável. É o resultado de uma implementação que ignora o sistema humano onde a IA opera.
Considere os três mecanismos que identificaram:
Expansão de tarefas é um problema de escopo. Se ninguém define os limites do papel de cada profissional na presença de IA, a expansão é natural. A solução não é proibir o uso — é redesenhar papéis para refletir a nova realidade.
Dissolução de fronteiras é um problema de normas. Se a organização não estabelece quando é aceitável usar IA e quando não é, os funcionários preencherão cada momento disponível. Porque podem. Porque parece produtivo. Porque ninguém disse o contrário.
Multitarefa intensificada é um problema de fluxo de trabalho. Se os processos não são redesenhados para absorver a velocidade da IA, as pessoas compensam gerenciando múltiplas tarefas simultaneamente. Isso cria a ilusão de produtividade enquanto fragmenta a atenção.
Cada um desses problemas tem solução. Mas nenhuma delas é tecnológica. São problemas de governança organizacional.
O Que Fazer Com Isso
Se você lidera uma organização que usa ou planeja usar IA, o estudo de Berkeley oferece um alerta útil — mas não o que as manchetes sugerem.
O alerta não é “IA causa burnout”. É: implementação sem governança cria padrões de intensificação que são invisíveis para quem os vive.
Ações concretas:
Meça o real, não o percebido. Não pergunte aos seus funcionários se a IA os torna mais produtivos. Meça. Tempos de ciclo, escopo de tarefas, horas trabalhadas, qualidade de saída. O gap de percepção é real e documentado — decisões baseadas em sentimento são decisões cegas.
Defina limites de escopo explícitos. Se a IA permite que um product manager escreva código, isso é uma expansão desejável ou uma distorção de papel? Essa decisão não pode ser orgânica. Precisa ser intencional.
Estabeleça normas de uso. Quando é aceitável enviar prompts? Durante reuniões? No almoço? Às 23h? Se a organização não define essas fronteiras, os indivíduos não vão defini-las por conta própria — porque cada prompt parece pequeno demais para recusar.
Redesenhe workflows, não apenas adote ferramentas. Uma ferramenta de IA inserida em um processo desenhado para humanos cria pressão em todas as costuras. O processo precisa ser redesenhado para absorver a velocidade e o escopo expandido que a IA possibilita.
Trate governança como infraestrutura, não como restrição. Governança não é o que impede a IA de funcionar. É o que impede a IA de criar problemas que ninguém percebe até que seja tarde.
A Distorção Midiática como Sintoma
Um último ponto sobre o ciclo de manchetes que esse estudo gerou.
Em menos de 48 horas, um estudo etnográfico preliminar de duas pesquisadoras de Berkeley se transformou em “Harvard prova que IA é ruim para os trabalhadores”. Esse tipo de distorção não é acidental — é o resultado de um ecossistema de mídia que otimiza para engajamento, não para precisão.
Para líderes que tomam decisões baseadas em evidência, isso cria um problema real. A narrativa anti-IA da mídia é tão imprecisa quanto a narrativa pró-IA dos vendors. Ambas servem a agendas que não são as suas.
O antídoto é o mesmo de sempre: vá à fonte primária. Leia o que as pesquisadoras realmente escreveram. Pese a evidência pelo que ela é — um estudo etnográfico de uma empresa, com achados preliminares, que sinaliza padrões que merecem atenção.
Nem mais, nem menos.
Fontes
- Aruna Ranganathan e Xingqi Maggie Ye. “Research: How AI Tools Can Intensify Work.” Harvard Business Review, fevereiro 2026.
- METR. “Measuring the Impact of Early-2025 AI on Experienced Open-Source Developer Productivity.” metr.org, julho 2025.
- Erik Brynjolfsson et al. “Generative AI at Work.” NBER/Quarterly Journal of Economics, 2023.
- Google Cloud DORA. “DORA Report 2024: State of DevOps.” Google, 2024.
Se a intensificação de IA na sua organização é uma preocupação real, podemos ajudar a diagnosticar e redesenhar. Não vendemos ferramentas — projetamos governança. contato@victorino.com.br | www.victorino.com.br
Se isso faz sentido, vamos conversar
Ajudamos empresas a implementar IA sem perder o controle.
Agendar uma Conversa