O Imposto da Curva de Aprendizado: O Que os Dados da Anthropic Revelam

TV
Thiago Victorino
10 min de leitura
O Imposto da Curva de Aprendizado: O Que os Dados da Anthropic Revelam
Ouvir este artigo

A Anthropic publicou o terceiro relatório do Economic Index. Um milhão de conversas. Cada achado com p<0,001. O dataset não tem precedente: dados de uso direto da empresa que constrói o modelo. Não é pesquisa sobre o que as pessoas dizem que fazem com IA. É medição do que de fato fazem.

Os números de manchete parecem progresso. O uso está se diversificando. As dez tarefas mais comuns caíram de 24% para 19% do total de conversas entre novembro de 2025 e fevereiro de 2026. Uso pessoal cresceu de 35% para 42%. Vendas comerciais e fluxos de trading automatizado pelo menos dobraram sua participação.

Mas dois achados enterrados no relatório contam uma história diferente.

O efeito da experiência

Usuários com seis meses ou mais de Claude alcançam uma taxa de sucesso 10% superior à de novos usuários. Também enfrentam tarefas que exigem aproximadamente um ano adicional de educação formal para cada ano de uso da plataforma.

Dez por cento soa modesto. Não é. Numa população de milhões de usuários, um diferencial de 10% entre experientes e inexperientes representa uma quantidade enorme de compute desperdiçado, tempo perdido e investimento organizacional sem retorno. Cada novo funcionário, cada nova equipe, cada novo departamento que adota IA começa na base dessa curva.

Não é um problema de tecnologia. É um problema de curva de aprendizado. E curvas de aprendizado têm uma propriedade bem estudada: são caras para escalar e organizações as escalam mais devagar que indivíduos.

Como documentamos em O Espectro da Adoção de IA, dados da própria OpenAI mostram uma lacuna de produtividade de 6x entre trabalhadores de fronteira e usuários médios. Os dados de experiência da Anthropic explicam parte do mecanismo. A lacuna não é apenas sobre disposição para adotar. É sobre habilidade acumulada que leva meses para se desenvolver e que organizações não têm como transferir de forma sistemática.

A queda de valor

O valor médio das tarefas caiu de US$ 49,30 para US$ 47,90 em equivalente salarial por hora. O requisito de educação caiu de 12,2 para 11,9 anos. Usuários estão levando IA para tarefas mais simples.

Isso não é necessariamente ruim. Adoção mais ampla em tarefas de menor complexidade pode indicar democratização saudável. Mas combinado com o efeito da experiência, revela um padrão: usuários experientes migram para tarefas mais difíceis e de maior valor enquanto a massa crescente de novos usuários puxa a média para baixo.

As implicações para adoção empresarial são desconfortáveis. Quando sua organização distribui ferramentas de IA, as métricas agregadas vão mostrar valor médio declinante por interação. Seus dashboards vão parecer que IA está ficando menos útil ao longo do tempo. A realidade é mais nuançada: um grupo pequeno de usuários experientes está extraindo valor crescente enquanto os demais ainda estão aprendendo quais prompts funcionam.

Isso espelha o que o Federal Reserve americano identificou e que analisamos em O Problema dos 2%: dados agregados de produtividade mascaram variação enorme entre organizações e entre indivíduos dentro de organizações. Os dados da Anthropic adicionam granularidade temporal. A variação não é estática. Ela evolui conforme usuários acumulam experiência, e a velocidade dessa acumulação é profundamente desigual.

O sinal da migração para API

Tarefas de programação estão migrando do Claude.ai para a API. Alta de 14% na API, queda de 18% no Claude.ai. Uso geral do Opus: 51%. O coeficiente Opus na API é de 2,8 pontos percentuais por aumento de US$ 10 no salário, contra 1,5 no Claude.ai.

Tradução: usuários sofisticados fazendo trabalho de alto valor estão migrando para acesso programático. Estão construindo fluxos, integrações e pipelines automatizados. Não estão conversando com o Claude. Estão embutindo o Claude em sistemas.

É o efeito da experiência manifestado como infraestrutura. Usuários experientes não apenas melhoram no prompting. Eles mudam a interface completamente. Saem da conversa para a orquestração. E quando fazem isso, escolhem desproporcionalmente o modelo mais capaz e pagam mais por ele.

Organizações que tratam adoção de IA como “dar acesso ao chat para todo mundo” estão otimizando para a base da curva de aprendizado. Os usuários que geram mais valor já abandonaram essa interface.

O silêncio do PyPI

Agora sobreponha a análise da Answer.AI. Alexis Gallagher e Rens Dimmendaal, do laboratório de pesquisa de Jeremy Howard, analisaram todos os pacotes do PyPI — cerca de 800.000 no total — procurando a explosão produtiva que deveria acompanhar a revolução de IA.

Não encontraram.

Novos pacotes por mês: 5.000 a 15.000. Nenhum ponto de inflexão após o lançamento do ChatGPT. A linha é plana. Pacotes de IA mostram velocidade de lançamento maior (20-26 releases anuais medianas para pacotes populares versus 10 para não-IA), mas a taxa de criação conta a verdadeira história. A proporção de criação IA/não-IA mudou de 6:1 em 2021 para menos de 2:1 em 2024. Pacotes de IA estão sendo criados a uma taxa relativamente decrescente comparada ao ecossistema mais amplo.

Os autores propõem duas hipóteses. A “Questão de Habilidade em IA”: construir aplicações de IA para produção é genuinamente mais difícil do que o esperado, exigindo expertise que a maioria dos desenvolvedores não possui. E “Dinheiro e Hype”: capital de investimento inundou pacotes de IA durante o boom, e o que vemos agora é normalização após a corrida do ouro.

Eles favorecem a segunda. Acredito que ambas são verdadeiras, e os dados de experiência da Anthropic explicam por quê.

A convergência

Eis o que esses dois datasets revelam quando lidos em conjunto.

A Anthropic mostra que habilidade individual com IA leva meses para se desenvolver, produz diferenças mensuráveis de desempenho e se manifesta como padrões de uso fundamentalmente diferentes (API versus chat, Opus versus modelos mais baratos, tarefas complexas versus simples). A curva de aprendizado é real, íngreme e consequente.

A Answer.AI mostra que a produção esperada de todo esse investimento em IA — medida da forma mais concreta possível, pacotes de software efetivamente publicados — não se materializou em escala. A curva de investimento para produção é plana.

A lacuna entre essas duas observações é aprendizado organizacional. Usuários individuais estão escalando a curva. Os dados do PyPI sugerem que organizações, no agregado, não estão convertendo esse aprendizado individual em produção efetiva.

Não é um padrão novo. Como exploramos em A Lacuna Institucional da IA, ganhos individuais de produtividade consistentemente falham em se traduzir em ganhos organizacionais sem infraestrutura deliberada de governança. Os dados da Anthropic agora fornecem evidência primária para o mecanismo: a curva de aprendizado é real, leva meses, e organizações não têm como acelerá-la de forma sistemática.

A revisão da convergência geográfica

Um detalhe do relatório da Anthropic merece atenção. O Economic Index anterior estimava que a convergência geográfica nos EUA em padrões de uso de IA levaria de 2 a 5 anos. O novo relatório revisa para 5 a 9 anos.

Não é uma correção menor. Quase dobra o horizonte temporal. Significa que os efeitos de desigualdade da adoção de IA — concentração entre ocupações de alta escolaridade, alta renda e uso intensivo de computação — vão persistir por mais tempo do que o projetado inicialmente. A Anthropic enquadra isso explicitamente como uma questão de governança, observando que monitoramento econômico deveria ser tratado como infraestrutura de governança.

Estão certos. Como documentamos em A Armadilha da Intensidade de IA, pesquisa de Berkeley mostra que a intensificação do trabalho impulsionada por IA recai desproporcionalmente sobre trabalhadores do conhecimento já sobrecarregados. O horizonte estendido de convergência significa que esse padrão tem mais tempo para se consolidar antes que a adoção mais ampla dilua o efeito.

O que isso significa para empresas

Três implicações.

Primeiro, orçamente para a curva de aprendizado. O efeito de 10% da experiência significa que seus cálculos de ROI de IA estão errados se assumem ganhos imediatos de produtividade. Construa períodos de ramp-up de seis meses nos seus modelos de adoção. Espere que o primeiro trimestre mostre retornos negativos enquanto usuários aprendem o que funciona.

Segundo, meça coortes, não médias. Métricas agregadas vão mostrar valor de tarefa declinante conforme a adoção se amplia. Isso é feature, não bug — mas apenas se você também estiver acompanhando coortes de power users separadamente. Os usuários experientes migrando para API são seus indicadores antecedentes. A média é um indicador defasado que vai desorientá-lo.

Terceiro, construa mecanismos de transferência. O efeito da experiência implica que habilidade com IA é aprendível mas não automaticamente transferível. Organizações que criam formas sistemáticas de transferir padrões de prompting, designs de fluxo de trabalho e arquiteturas de integração de usuários experientes para novos usuários vão escalar a curva mais rápido. Isso é função de governança, não de treinamento. Exige documentação, processos de revisão e memória institucional — a mesma infraestrutura que se constrói para qualquer outra capacidade organizacional crítica.

O imposto da curva de aprendizado é real. A Anthropic o mediu. O PyPI confirmou suas consequências. A questão não é se sua organização vai pagá-lo. A questão é se vai pagá-lo deliberadamente, com infraestrutura de governança que acelera o aprendizado, ou acidentalmente, se perguntando por que os ganhos de produtividade nunca se materializaram.


Fontes

Victorino Group ajuda empresas a navegar a lacuna de produtividade com IA por meio de governança que considera o aprendizado organizacional: contato@victorino.com.br | www.victorino.com.br

Todos os artigos do The Thinking Wire são escritos com o auxílio do modelo LLM Opus da Anthropic. Cada publicação passa por pesquisa multi-agente para verificar fatos e identificar contradições, seguida de revisão e aprovação humana antes da publicação. Se você encontrar alguma informação imprecisa ou deseja entrar em contato com o editorial, escreva para editorial@victorino.com.br . Sobre o The Thinking Wire →

Se isso faz sentido, vamos conversar

Ajudamos empresas a implementar IA sem perder o controle.

Agendar uma Conversa