O Problema dos 2%: O Que os Dados do Federal Reserve Revelam Sobre o Teatro de Produtividade da IA

TV
Thiago Victorino
11 min de leitura
O Problema dos 2%: O Que os Dados do Federal Reserve Revelam Sobre o Teatro de Produtividade da IA
Ouvir este artigo

O GenAI Adoption Tracker, um projeto conjunto de Harvard, Vanderbilt e do Federal Reserve de St. Louis, registra 40,7% de adoção de IA generativa entre adultos no mercado de trabalho americano. O número parece confirmar a narrativa: quase metade da força de trabalho já usa IA. A revolução chegou.

Mas o mesmo tracker registra outro número. Usuários individuais reportam economia de 5,4% do tempo de trabalho. Quando diluído entre toda a força de trabalho (incluindo os 59,3% que não usam), o impacto agregado fica entre 1,1% e 2,2% do total de horas trabalhadas na economia.

Quarenta por cento de adoção. Dois por cento de impacto. Essa proporção deveria provocar perguntas difíceis. Em vez disso, provoca press releases.

Antes de tudo, honestidade sobre os números

O 2% é uma operação de denominador. Ele dilui ganhos reais de quem usa IA entre toda a população trabalhadora, incluindo quem nunca abriu o ChatGPT. É legítimo como métrica macroeconômica. É enganoso como diagnóstico de utilidade.

Preciso ser direto sobre o que os dados mostram de fato: os ganhos por tarefa são reais. Brynjolfsson, Li e Raymond publicaram no Quarterly Journal of Economics um estudo com 5.172 atendentes de suporte técnico. O grupo com acesso a IA generativa teve ganho médio de 14% em produtividade. Para os profissionais menos experientes, o ganho chegou a 30-35%.

Esses são números de produção, não de percepção. Coletados em ambiente controlado, com métricas objetivas. Ignorá-los seria desonestidade intelectual.

O problema não é que IA não funcione. É que o salto de “funciona para indivíduos em tarefas específicas” para “transforma a economia” exige uma série de condições que ninguém está medindo com rigor.

O conflito de credibilidade que ninguém nomeia

Jensen Huang, CEO da Nvidia, declarou que um engenheiro de US$ 500 mil por ano deveria consumir US$ 250 mil em tokens de IA. A frase é calibrada: posiciona IA como insumo proporcional ao talento, não como substituto. Mas Huang vende as GPUs que processam esses tokens. Cada dólar de “consumo de IA” é receita para a Nvidia.

Sam Altman projeta que IA substituirá categorias inteiras de trabalho. Altman vende o produto que supostamente fará essa substituição. Sundar Pichai anuncia ganhos de produtividade internos no Google. O Google vende IA para empresas. Satya Nadella cita métricas de adoção do Copilot. A Microsoft cobra por licença do Copilot.

Como apontou Rani Molla na Sherwood News, a estratégia de Big Tech para vender IA é o que a indústria chama de dogfooding: usar o próprio produto internamente e apresentar os resultados como evidência de valor. Não há fraude nisso. Há um conflito estrutural de incentivos que deveria modular o peso que damos a essas declarações.

Quando o vendedor é também a testemunha, o ônus da prova precisa ser maior. Não menor.

O teatro corporativo dos cortes

Uma pesquisa do Resume.org com mil gerentes de RH revelou que 9% dizem que IA substituiu funções existentes na organização. Quase metade (45%) reportou impacto mínimo ou nenhum sobre o quadro de pessoal.

O dado mais revelador: 59% das empresas usam a narrativa de IA para justificar demissões. Como documentamos em O Acerto de Contas da IA, empresas como a Block cortaram 40% do quadro enquadrando reestruturação financeira como “transformação via IA.” O mercado recompensou. A ação subiu 25%.

A mecânica é previsível. IA como justificativa para cortes pré-decididos custa menos politicamente do que admitir excesso de contratação durante a era de juros zero. O rótulo muda. O corte é o mesmo.

Isso não invalida os casos onde IA de fato altera operações. Invalida a narrativa de que estamos vivendo uma transformação generalizada da produtividade. Como mostramos em A McKinsey Mediu a Coisa Errada, as métricas que sustentam essa narrativa são majoritariamente auto-reportadas por executivos com incentivos claros para superestimar resultados.

A geografia do investimento conta outra história

Em dezembro de 2025, dados do Census Bureau mostram que a construção de data centers nos Estados Unidos atingiu US$ 3,6 bilhões por mês. Superou pela primeira vez a construção de escritórios, que ficou em US$ 3,5 bilhões.

A inversão é significativa. Capital está migrando de espaço para pessoas para espaço para computação. As empresas estão investindo em infraestrutura de IA mais do que em infraestrutura para trabalhadores humanos.

Esse investimento não prova que IA entrega os resultados prometidos. Prova que quem tem capital acredita que entregará. A diferença importa. Bolhas de investimento são construídas exatamente sobre essa distinção: capital alocado com base em projeção, não em retorno verificado.

O argumento da curva S (e seus limites)

Existe uma objeção legítima a todo este argumento. Toda tecnologia transformadora passou por um período onde produtividade agregada permaneceu estável antes da inflexão. A eletricidade levou décadas. O computador pessoal levou uma geração. A internet precisou de banda larga, smartphones e cloud para atingir seu potencial.

IA generativa tem dois anos de adoção em massa. Medir o impacto macroeconômico agora é como medir o impacto da internet em 1997.

Aceito o argumento. Parcialmente.

A curva S é um padrão real. Mas também é o álibi preferido de toda bolha que não se concretizou. “Espere mais” é indistinguível de “nunca vai acontecer” até que aconteça. E o fato de que toda tecnologia transformadora passou por esse período não significa que toda tecnologia que passa por esse período será transformadora.

O que podemos fazer é olhar para os dados atuais sem projetar nem otimismo nem pessimismo. E os dados atuais dizem: 2% de impacto agregado, com bolsões de 14-35% em tarefas específicas, mediados por um ecossistema de vendedores que são também suas próprias testemunhas.

O que falta medir

O Imposto da Verificação que documentamos mês passado é parte da resposta. Ganhos brutos de produtividade são parcialmente consumidos pelo tempo de revisão, correção e validação do output. Mas não é a resposta completa.

Faltam três medições que nenhum tracker contempla hoje:

Custo de coordenação. Quando um indivíduo é 14% mais produtivo, mas a organização precisa de novos fluxos de revisão, aprovação e governança para o output gerado por IA, qual é o saldo líquido? Ninguém publicou esse número.

Custo de retrabalho. A pesquisa de Brynjolfsson mediu tarefas concluídas. Não mediu tarefas concluídas que precisaram ser refeitas. Para tarefas de atendimento ao cliente, o retrabalho pode ser baixo. Para código, documentação legal ou análise financeira, o cálculo muda.

Concentração de ganho. Os 30-35% de ganho para profissionais juniores são o dado mais relevante do estudo. Se IA funciona como um equalizador de experiência, o impacto real pode ser uma compressão salarial disfarçada de ganho de produtividade. Juniores produzem como medianos. Medianos ficam mais caros do que a entrega justifica.

Sem essas medições, a conversa sobre produtividade de IA opera com dados parciais apresentados como conclusões completas.

O que isso significa na prática

Se você lidera uma organização, três implicações decorrem desses dados.

Primeiro: desconfie de benchmarks de vendedores. Quando a mesma empresa que vende a ferramenta publica o estudo de caso, o conflito de credibilidade é estrutural. Exija dados de terceiros com metodologia publicada.

Segundo: meça o impacto líquido, não o bruto. A economia de duas horas que custa uma hora e meia de revisão é uma economia de trinta minutos, não de duas horas. Qualquer dashboard que mostre apenas ganho bruto está mentindo por omissão.

Terceiro: trate o argumento da curva S como hipótese, não como plano. IA pode estar no início de uma transformação radical. Também pode estar em um platô prolongado. Decisões irreversíveis sobre força de trabalho deveriam exigir evidência mais forte do que “toda tecnologia é assim no começo.”

Os dados do Federal Reserve não dizem que IA é inútil. Dizem que o teatro de produtividade que cerca a tecnologia é mais barulhento do que a realidade justifica. E que organizações tomando decisões baseadas no barulho, em vez dos dados, estão assumindo riscos que ainda não sabem calcular.


Fontes

  • GenAI Adoption Tracker. Harvard/Vanderbilt/Fed Reserve de St. Louis. 2025.
  • Molla, R. “Big Tech’s Strategy for Selling AI: Dogfooding.” Sherwood News. Março 2026.
  • Brynjolfsson, Li & Raymond. “Generative AI at Work.” QJE. Maio 2025.

Victorino Group ajuda organizações a medir o que a IA realmente faz, não o que os fornecedores dizem: contato@victorino.com.br | www.victorino.com.br

Todos os artigos do The Thinking Wire são escritos com o auxílio do modelo LLM Opus da Anthropic. Cada publicação passa por pesquisa multi-agente para verificar fatos e identificar contradições, seguida de revisão e aprovação humana antes da publicação. Se você encontrar alguma informação imprecisa ou deseja entrar em contato com o editorial, escreva para editorial@victorino.com.br . Sobre o The Thinking Wire →

Se isso faz sentido, vamos conversar

Ajudamos empresas a implementar IA sem perder o controle.

Agendar uma Conversa