A Inflexão da Força de Trabalho IA: Quando Consumo de Tokens Vira Métrica de Performance

TV
Thiago Victorino
10 min de leitura
A Inflexão da Força de Trabalho IA: Quando Consumo de Tokens Vira Métrica de Performance
Ouvir este artigo

Em uma única semana de março de 2026, quatro eventos independentes contaram a mesma história. O New York Times documentou uma cultura corporativa onde funcionários competem pelo maior consumo de tokens de IA. A Snowflake demitiu centenas de redatores técnicos após meses gravando suas sessões para treinar modelos. Mark Zuckerberg revelou estar construindo um agente pessoal de CEO para contornar camadas organizacionais. E o lote W26 da Y Combinator mostrou que 56 das 198 empresas estão construindo agentes autônomos vendidos como “funcionários de IA.”

Nenhum desses eventos é, isoladamente, transformador. A convergência é o sinal. IA está deixando de ser ferramenta e virando força de trabalho. Essa transição invalida a maioria dos frameworks de governança que organizações construíram nos últimos três anos.

Tokenmaxxing: quando consumo vira status

O termo apareceu primeiro em círculos de engenharia e migrou para o New York Times em 20 de março. “Tokenmaxxing” descreve a prática de maximizar o consumo pessoal de tokens de IA como indicador de produtividade. Empresas mantêm rankings internos. Funcionários competem por posição.

Os números são concretos. Ege Erdil, da Mechanize, opera um agente que consome 700 milhões de tokens por semana. Um engenheiro da OpenAI processou 210 bilhões de tokens em sete dias, equivalente a 33 vezes o conteúdo da Wikipedia. Um usuário do Claude Code acumula mais de 150 mil dólares em fatura mensal. O Google processa 1,3 quadrilhão de tokens por mês internamente.

Max Linder, engenheiro, resumiu a lógica: “Provavelmente gasto mais que meu salário em Claude.” Um funcionário anônimo da OpenAI ofereceu o contraponto: “Não parece sustentável.”

Os dois estão certos. E esse é o problema.

Quando consumo de tokens se torna métrica de performance, a organização está medindo insumo, não resultado. É o equivalente corporativo de medir produtividade de uma fábrica pela quantidade de eletricidade consumida. Uma empresa pode queimar tokens massivamente e produzir pouco. Outra pode usar uma fração e entregar mais. O ranking não distingue entre os dois cenários.

Meta, OpenAI e Shopify já operam com rankings internos de consumo. Isso cria incentivos perversos: funcionários otimizam para posição no ranking, não para resultado. Quando a métrica vira o objetivo, ela deixa de ser métrica útil. A Lei de Goodhart aplicada a tokens.

Snowflake: a extração silenciosa

Um dia após a matéria sobre tokenmaxxing, a Snowflake demitiu aproximadamente 400 pessoas, a maioria redatores técnicos. A empresa declarou publicamente que foi “um punhado” de funcionários. Reportagens indicaram o contrário.

O detalhe que importa não é o número. É o método. Durante oito meses antes das demissões, a Snowflake gravou sessões de trabalho dos redatores para treinar modelos de IA em suas práticas. O processo foi descrito internamente como “fase de extração.” Quando a extração foi considerada completa, a redundância humana foi declarada.

A meta era clara: redução de 40% nos custos de funções não ligadas a engenharia.

Esse padrão é diferente do que descrevemos no acerto de contas da força de trabalho IA. No caso da Block, a IA era narrativa para justificar reestruturação financeira. No caso da Snowflake, a IA é instrumento real. A empresa investiu oito meses treinando modelos antes de eliminar posições. A questão não é se IA pode substituir redatores técnicos. É que o processo de substituição já está operacionalizado.

Para governança corporativa, a distinção é relevante. Uma empresa que demite invocando IA sem evidência está fazendo teatro corporativo. Uma empresa que treina modelos durante meses e depois elimina posições está executando uma estratégia deliberada. Os dois cenários exigem respostas diferentes de conselhos de administração.

O agente CEO

Em 22 de março, o Wall Street Journal reportou que Zuckerberg está construindo um agente pessoal de CEO projetado para acessar informações de qualquer parte da Meta sem passar por camadas gerenciais. O objetivo declarado: eliminar a filtragem que ocorre quando dados sobem a hierarquia.

A Meta já usa IA como fator em avaliações de performance. A nova estrutura organizacional de IA opera com ratio de 50 engenheiros individuais para cada gerente. Internamente, ferramentas chamadas “My Claw” e “Second Brain” (construído sobre o Claude) já são padrão. E os agentes pessoais dos funcionários conversam entre si.

Leia essa última frase novamente. Agentes pessoais de funcionários conversando entre si. Isso não é IA como ferramenta. É uma camada organizacional paralela operando com autonomia própria.

Quando discutimos a ideia de empresa como código, o argumento era que organizações precisam codificar sua estrutura para que agentes possam operar dentro de limites definidos. A Meta está construindo exatamente o cenário que aquele artigo antecipou: agentes com acesso transversal à organização, sem a camada de governança que defina o que podem e o que não podem acessar.

O ratio 50:1 é igualmente revelador. Cinquenta contribuidores individuais para cada gerente significa que a supervisão humana tradicional é matematicamente impossível. Nesse modelo, a governança não pode depender de revisão gerencial. Precisa ser arquitetural.

YC W26: a industrialização

Chris Lu compilou os dados do lote W26 da Y Combinator. Oitenta e cinco por cento das empresas são AI-first. Das 198 do lote, 56 estão construindo agentes autônomos posicionados como “funcionários de IA.” Em 2025, startups de IA levantaram 150 bilhões de dólares.

Esses números confirmam que a infraestrutura para IA-como-força-de-trabalho está sendo industrializada. Não são protótipos de pesquisa. São empresas com financiamento, clientes e metas de receita construindo produtos para que outras empresas substituam funções humanas por agentes.

A escala de investimento cria seu próprio momentum. Cento e cinquenta bilhões de dólares em capital precisam gerar retorno. Esse retorno vem de vendas. As vendas acontecem quando empresas compram agentes para substituir, aumentar ou reorganizar força de trabalho humana. O capital investido não é neutro: ele cria pressão estrutural pela adoção, independente de maturidade.

O ponto de inflexão

Quatro sinais em quatro dias. Consumo de tokens como status. Extração deliberada de conhecimento humano para treinamento. Agentes executivos com acesso transversal. Industrialização de “funcionários IA” por centenas de startups financiadas.

Cada sinal seria isoladamente gerenciável. A convergência temporal não é coincidência: é o reflexo de uma transição já em curso. IA está mudando de categoria. De ferramenta que humanos operam para força de trabalho que opera ao lado de humanos.

A diferença prática é profunda. Ferramentas não competem por recursos organizacionais. Força de trabalho compete. Ferramentas não precisam de governança de acesso, permissões e limites operacionais. Força de trabalho precisa. Ferramentas não criam riscos de concentração de decisão. Força de trabalho cria.

Como analisamos sobre shadow AI, quando funcionários adotam IA sem supervisão, o problema não é o funcionário. É a ausência de governança. Agora a mesma lógica se aplica em escala diferente. Quando agentes operam como força de trabalho, a ausência de governança arquitetural não é falha de processo. É risco sistêmico.

Frameworks obsoletos

A maioria dos frameworks de governança de IA em uso nas organizações foi projetada para um cenário que já não existe. Eles pressupõem que IA é uma ferramenta usada por humanos, com humanos tomando decisões e IA executando tarefas delimitadas.

Nesse modelo, governança significa: quais ferramentas são aprovadas, quem pode usá-las, quais dados podem ser inseridos. Política de uso aceitável. Treinamento. Checklist de compliance.

No modelo que está emergindo, agentes operam com autonomia. Tomam decisões intermediárias. Acessam dados transversalmente. Conversam entre si. Consomem recursos mensuráveis. Substituem funções inteiras após fases de “extração” de conhecimento.

A governança para esse modelo precisa responder a perguntas diferentes.

Quais decisões um agente pode tomar sem aprovação humana? Qual é o perímetro de acesso a dados de cada agente? Como se audita a interação entre agentes? Quem é responsável quando um agente erra em produção? Como se mede o custo real (tokens, compute, erros) versus o valor gerado?

Nenhuma dessas perguntas aparece em políticas de uso aceitável. E são exatamente as perguntas que conselhos de administração precisariam estar respondendo antes de aprovar orçamentos de 150 mil dólares mensais em tokens para um único funcionário.

O que isso exige

Três movimentos práticos para organizações que reconhecem a transição.

Separar métricas de consumo de métricas de resultado. Consumo de tokens é custo, não produtividade. Se a organização mede sucesso pelo volume de tokens processados, está otimizando para o insumo errado. A pergunta correta não é “quanto seu time consome” e sim “o que seu time entrega por token consumido.”

Codificar limites antes de escalar agentes. O modelo de 50:1 da Meta funciona se os limites de operação dos agentes estão definidos arquiteturalmente. Sem esses limites, escala é exposição. Definir permissões, perímetros de decisão e mecanismos de auditoria antes de colocar agentes em produção é mais barato que remediar depois.

Tratar agentes como força de trabalho na governança. Isso significa incluir agentes em frameworks de gestão de risco, alocação de recursos e planejamento de capacidade. Se um agente consome 700 milhões de tokens por semana, ele tem um custo operacional. Se toma decisões intermediárias, tem um perfil de risco. Se acessa dados sensíveis, tem um perímetro de compliance. Ignorar qualquer dessas dimensões é governança incompleta.

A janela

A transição de IA-como-ferramenta para IA-como-força-de-trabalho não é uma previsão. Os quatro eventos desta semana são evidência de que já está acontecendo. Empresas que atualizarem seus frameworks de governança para refletir essa nova realidade terão vantagem operacional. Empresas que continuarem governando agentes como se fossem planilhas sofisticadas vão descobrir os riscos quando for caro demais corrigi-los.

A janela para ajustar é agora. Não porque a tecnologia vai esperar, mas porque os custos de remediação crescem com cada agente implantado sem governança adequada.


Fontes

  • New York Times. “Tokenmaxxing: The New AI Status Game.” Março 2026.
  • Fortune / TechCrunch. “Snowflake Lays Off Technical Writers After Training AI on Their Work.” Março 2026.
  • Wall Street Journal. “Zuckerberg Building Personal AI CEO Agent.” Março 2026.
  • Chris Lu / Y Combinator. “YC W26 Batch Analysis: 85% AI-First.” Março 2026.
  • OpenAI. “Codex Active Users Tripled, Token Usage 5x.” Março 2026.

Victorino Group ajuda organizações a redesenhar governança de IA para o modelo de força de trabalho, não apenas de ferramenta: contato@victorino.com.br | www.victorino.com.br

Todos os artigos do The Thinking Wire são escritos com o auxílio do modelo LLM Opus da Anthropic. Cada publicação passa por pesquisa multi-agente para verificar fatos e identificar contradições, seguida de revisão e aprovação humana antes da publicação. Se você encontrar alguma informação imprecisa ou deseja entrar em contato com o editorial, escreva para editorial@victorino.com.br . Sobre o The Thinking Wire →

Se isso faz sentido, vamos conversar

Ajudamos empresas a implementar IA sem perder o controle.

Agendar uma Conversa