O Problema do Controle de IA

O Acerto de Contas da IA: Quando Decisões Irreversíveis Encontram Capacidades Não Comprovadas

TV
Thiago Victorino
11 min de leitura
O Acerto de Contas da IA: Quando Decisões Irreversíveis Encontram Capacidades Não Comprovadas

Em fevereiro de 2026, a Block demitiu mais de 4.000 funcionários. Aproximadamente 40% da empresa. A ação subiu 25%.

Jack Dorsey enquadrou o corte como transformação: “Ferramentas de inteligência com equipes menores e mais horizontais possibilitam uma nova forma de trabalhar.” O mercado aplaudiu. A narrativa encaixou. Empresa visionária elimina burocracia, adota IA, entrega resultado.

Uma semana antes, a Oxford Economics havia publicado uma análise dos dados de demissão nos Estados Unidos entre 2023 e 2025. Conclusão: das demissões atribuídas à IA nesse período, 55.000 posições, apenas 4,5% do total nacional tinham relação verificável com automação. Ben May, economista-chefe da Oxford, foi direto: “Suspeitamos que empresas estão disfarçando demissões como boa notícia.”

Duas histórias. Um mercado que recompensa cortes em nome da IA. Uma pesquisa que sugere que a maioria desses cortes é ficção corporativa. O espaço entre essas duas realidades é onde organizações estão tomando decisões irreversíveis sobre força de trabalho baseadas em capacidades que ainda não foram comprovadas em escala.

O corte da Block não é sobre IA

Olhe para os números com atenção. A Block mira US$ 2 milhões de lucro bruto por funcionário, quatro vezes a base atual. Esse tipo de reestruturação tem um nome mais preciso: correção pós-ZIRP.

Entre 2020 e 2022, com juros próximos de zero, empresas de tecnologia contrataram agressivamente. Quando o capital ficou caro, o excesso ficou visível. Meta, Google, Amazon, Stripe: todas cortaram entre 2022 e 2024 pelo mesmo motivo. Nenhuma precisou invocar IA como justificativa.

A Block poderia ter feito o mesmo corte em 2023. A diferença é que em 2026, “corte por eficiência” não move ação. “Transformação via IA” move. A narrativa é o produto. O corte é o mesmo.

Isso não significa que IA não tenha papel nas operações da Block. Significa que usar IA como justificativa para uma reestruturação financeira obscurece tanto a natureza real do corte quanto as limitações reais da tecnologia. E quando o mercado recompensa a narrativa, o incentivo para repetir o padrão se espalha.

O efeito WPP

A Block não está sozinha. Em fevereiro de 2026, a WPP anunciou o programa “Elevate28” com meta de £500 milhões em economias operacionais. Mark Read, CEO, atribuiu a necessidade de reestruturação a “complexidade organizacional excessiva.”

A formulação é reveladora. A WPP não disse que descobriu uma nova capacidade via IA que torna certos papéis obsoletos. Disse que a organização ficou complexa demais e precisa ser simplificada. A IA é apresentada como instrumento da simplificação, não como causa. Mas a manchete diz “WPP corta posições com IA.” Causa e instrumento se fundem na narrativa.

O padrão se repete com variações. A C3 AI cortou posições e a ação caiu 17%. Por quê? Porque o corte veio sem guidance financeiro que o justificasse. O mercado não recompensa demissões por princípio. Recompensa demissões acompanhadas de projeção de margem. Sem a projeção, o corte sinaliza fraqueza.

Isso sugere algo que deveria preocupar conselhos de administração: a recompensa do mercado por cortes “de IA” depende mais da narrativa financeira que os acompanha do que de qualquer capacidade tecnológica demonstrada.

O abismo de percepção

Se a narrativa é forte o suficiente para mover mercados, o que dizem as pessoas que realmente usam as ferramentas?

A Section, uma consultoria de capacitação em IA, pesquisou 5.000 profissionais em 2026. Os resultados expõem uma distorção que nenhum relatório executivo captura. Mais de 40% do C-suite reporta que IA economiza oito ou mais horas por semana. Entre profissionais que não ocupam cargos de gestão, 67% reportam economia inferior a duas horas.

A distância entre essas duas percepções não é um detalhe estatístico. É o dado mais importante desta história.

Executivos tomam decisões sobre força de trabalho baseados na percepção de que IA já entrega ganhos substanciais de produtividade. Os profissionais que efetivamente usam as ferramentas no dia a dia reportam ganhos modestos. Quando um CEO corta 40% do quadro apostando em “ferramentas de inteligência,” ele está calibrado pela percepção do topo, não pela realidade da operação.

Como descrevemos em A Armadilha da Intensidade da IA, o padrão que identificamos está se materializando em escala. A pressão por demonstrar “intensidade de IA” gera incentivos para superestimar capacidades e subestimar riscos. A pesquisa da Section quantifica exatamente onde essa pressão distorce a tomada de decisão.

A Bloomberg cunhou o termo “pânico de produtividade” para descrever executivos que tomam decisões de reestruturação baseados em percepção de ganhos que seus próprios funcionários não confirmam. A reportagem se baseia em quatro ou cinco entrevistas individuais, o que limita sua generalização. Mas o rótulo captura algo real.

O que acontece depois do corte

A Klarna é o caso mais instrutivo. Em 2024, a empresa cortou aproximadamente 700 posições apostando que IA cobriria a diferença. Chatbots substituíram atendentes. Automação absorveu tarefas operacionais. Sebastian Siemiatkowski, o CEO, celebrou publicamente os resultados.

Meses depois, a qualidade do atendimento caiu a ponto de o próprio Siemiatkowski admitir: “Fomos longe demais.” A empresa precisou recontratar para funções que havia eliminado.

A Klarna não é exceção. Pesquisa da Orgvue em parceria com Forrester, publicada em 2025, mostra que 55% das empresas que fizeram cortes baseados em IA se arrependeram. Um em cada três departamentos de RH perdeu competências que se revelaram críticas após a eliminação. Quase um terço descobriu que recontratar custou mais que a economia projetada.

Esses números revelam o custo real da irreversibilidade. Uma demissão é uma decisão que se executa em semanas e cujas consequências levam trimestres para se manifestar. Quando a manifestação chega, o talento já foi absorvido pelo mercado. O conhecimento institucional se dissipou. E a organização precisa reconstruir capacidades que poderia ter preservado.

Como discutimos em A Visão Limitada do Valor da IA, organizações que medem o valor da IA exclusivamente por redução de headcount estão usando a métrica errada. Produtividade não é sinônimo de eliminação. E eficiência sem capacidade operacional é uma equação que fecha no trimestre e quebra no ano.

A ficção jurídica

Existe um detalhe regulatório que torna essa situação mais perigosa. O Harvard Law School Forum on Corporate Governance publicou, em dezembro de 2025, uma análise sobre obrigações fiduciárias relacionadas à supervisão de IA. A conclusão: nos Estados Unidos, não existe obrigação legal explícita de que o conselho de administração supervisione o uso de IA na organização.

Isso significa que conselhos podem aprovar cortes massivos de força de trabalho baseados em capacidades de IA sem obrigação formal de verificar se essas capacidades funcionam como prometido. A decisão é irreversível. A due diligence é opcional.

No Brasil, a situação é marginalmente melhor. A LGPD exige demonstração de controle sobre sistemas automatizados que processam dados pessoais. Mas a cobertura é parcial. Decisões sobre força de trabalho baseadas em projeções de capacidade de IA não estão no escopo da legislação atual. O conselho pode demitir milhares apostando em automação sem que nenhum regulador pergunte “vocês testaram se a automação funciona?”

A ausência de obrigação legal não elimina o risco. Elimina apenas a pressão externa para administrá-lo.

O padrão que se forma

Quando você sobrepõe todos esses dados, um padrão emerge.

Primeiro: empresas cortam força de trabalho citando IA como justificativa. O mercado recompensa quando o corte vem acompanhado de guidance financeiro forte.

Segundo: a maioria das demissões atribuídas à IA não tem relação verificável com automação. A narrativa supera a evidência.

Terceiro: executivos superestimam os ganhos de IA por uma margem de quatro vezes em relação ao que profissionais operacionais reportam.

Quarto: empresas que cortaram cedo estão descobrindo, trimestres depois, que eliminaram competências que precisam. Recontratar custa mais que a economia projetada.

Quinto: não existe obrigação regulatória que force conselhos a verificar se as capacidades de IA justificam os cortes.

Cada elemento isolado é administrável. A combinação é sistêmica. Decisões irreversíveis, baseadas em percepções infladas, sem verificação obrigatória e com consequências que só se revelam quando é tarde para corrigir.

O que governança exige aqui

A resposta não é evitar cortes. Organizações precisam ajustar quadro e estrutura continuamente. A resposta é não fazer cortes irreversíveis baseados em capacidades não verificadas.

Na prática, isso significa três coisas.

Verificação antes da decisão. Antes de eliminar posições alegando que IA cobrirá a demanda, meça. Não pergunte ao C-suite quanto tempo IA economiza. Pergunte aos profissionais que a utilizam. Conduza pilotos controlados. Compare produtividade real, não percepção.

Reversibilidade estrutural. Se a verificação é inconclusiva, estruture o ajuste de forma reversível. Contratos temporários, realocação, redução de escopo antes de eliminação de posições. Isso custa mais no curto prazo. Custa menos quando a automação não entrega o prometido.

Supervisão formal. Mesmo na ausência de obrigação legal, conselhos que aprovam reestruturações baseadas em IA deveriam exigir evidência verificável de capacidade. Não decks de fornecedores. Dados internos, em ambiente de produção, com métricas de qualidade que vão além de volume de output.

O teste do próximo trimestre

Nos próximos meses, mais empresas vão anunciar cortes em nome da IA. Algumas terão feito o trabalho de verificação. A maioria estará repetindo o padrão da Block: reestruturação financeira vestida de transformação tecnológica.

A forma de distinguir entre as duas é simples. Pergunte: “Qual é a evidência de que a IA substitui as competências eliminadas?” Se a resposta é uma projeção, não uma medição, a decisão é uma aposta. E apostas com força de trabalho são apostas com pessoas.

Organizações que separam a decisão financeira da narrativa tecnológica vão tomar decisões melhores. Não porque sejam contra IA. Porque são a favor de evidência.

O acerto de contas não é entre IA e trabalho humano. É entre narrativa e realidade. E quanto mais tempo organizações adiarem esse confronto, maior será o custo quando a realidade se impuser.


Fontes

  • Engineer’s Codex. “Block Layoffs 4,000 AI.” Fevereiro 2026.
  • Fortune. “Block Jack Dorsey CEO Stock Square 4000 AI Layoffs.” Fevereiro 2026.
  • Oxford Economics / Fortune. “AI Layoffs Corporate Fiction.” Janeiro 2026.
  • Section. “AI Productivity Survey: 5,000 Respondents.” 2026.
  • Bloomberg. “Productivity Panic: AI Layoffs Narrative.” Fevereiro 2026.
  • Klarna / Financial Times. “CEO Admits AI Customer Service Went Too Far.” 2025.
  • Orgvue / Forrester. “55% of Companies Regret AI-Driven Layoffs.” 2025.
  • WPP. “Elevate28 Programme: £500M Savings Target.” Fevereiro 2026.
  • C3 AI. “Q3 Earnings and Restructuring.” Fevereiro 2026.
  • Harvard Law School Forum on Corporate Governance. “Board Oversight of AI.” Dezembro 2025.

Victorino Group ajuda organizações a construir frameworks de governança antes de tomar decisões irreversíveis sobre força de trabalho: contato@victorino.com.br | www.victorino.com.br

Se isso faz sentido, vamos conversar

Ajudamos empresas a implementar IA sem perder o controle.

Agendar uma Conversa