A IA Eliminou o Atrito Que Construiu Seus Melhores Times

TV
Thiago Victorino
7 min de leitura
A IA Eliminou o Atrito Que Construiu Seus Melhores Times
Ouvir este artigo

Em 2012, antes de “produtividade com IA” ser uma frase que alguém usava, o Human Dynamics Lab do MIT colocou crachás eletrônicos em trabalhadores e mediu algo a que ninguém estava prestando atenção: com que frequência colegas se interrompiam.

Os times com mais interação informal — mais perguntas rápidas, mais esclarecimentos de corredor, mais momentos de “ei, posso te incomodar um segundo?” — produziram 35% mais resultados bem-sucedidos do que os times com menos.

Os times com o fluxo de trabalho mais limpo perderam.

Três anos depois, o Project Aristotle do Google concluiu seu estudo de vários anos sobre o que torna seus próprios times eficazes. O melhor preditor único não foi habilidade, senioridade, estrutura ou densidade de talento. Foi segurança psicológica — a permissão sentida para interromper, perguntar, contestar, expor ignorância.

Ambas as descobertas precedem a era da IA em mais de uma década. Ambas descrevem o tecido conectivo que a IA vem removendo com mais eficiência.

A análise de Casey Hudetz e Eric Olive na Smashing Magazine (abril de 2026) nomeia isso diretamente: ferramentas de IA que prometem eliminar atrito estão eliminando o atrito produtivo que construiu todo time de alta performance no registro de pesquisa. E em 2025, a conta chegou.

A Replicação de 2025

Pesquisadores de Harvard, Columbia e Yeshiva publicaram um estudo examinando o que acontece quando a automação por IA entra em fluxos de trabalho de times. As conclusões:

  • A automação por IA “diminuiu o desempenho geral do time.”
  • A automação por IA “diminuiu a confiança no time.”
  • O dano foi pior em times de baixa e média qualificação — exatamente as populações que vendedores miram com discursos de “a IA nivela o jogo”.

Isso não é uma crítica de vibe à IA. É uma replicação revisada por pares do que o MIT e o Google já tinham estabelecido sobre interação informal, executada dentro do novo modelo operacional. Mesmo mecanismo, mesmo resultado, direção oposta.

Quando colegas param de se incomodar, desempenho e confiança caem juntos. Seja a razão ansiedade de escritório aberto em 2012 ou IA-assistente-substituindo-Slack em 2025, a curva tem o mesmo formato.

O Que “Sem Atrito” Realmente Remove

O argumento para assistentes de IA em trabalho colaborativo é quase sempre enquadrado como redução de atrito. Não incomode seu colega — pergunte à IA. Não agende uma reunião — deixe o agente resumir. Não interrompa o engenheiro sênior — deixe o copilot responder.

Cada uma dessas substituições soa como eficiência. Cada uma remove uma microinteração estrutural.

Os crachás do MIT capturaram o que essas interações de fato fazem. Um júnior fazendo uma pergunta rápida a um sênior não é apenas transferência de informação. É:

  • Um microevento de construção de confiança entre dois humanos.
  • Um sinal para o sênior sobre onde o júnior está travado (dado de desenvolvimento de carreira).
  • Um sinal para o júnior sobre como o sênior pensa (dado de modelagem).
  • Um reforço de que perguntar é seguro (capital de segurança psicológica).
  • Uma exposição pequena e não roteirizada de contexto que nenhuma documentação captura.

Quando o júnior pergunta à IA, a informação é transferida. Nenhuma das outras cinco coisas acontece. A interação parece idêntica do ponto de vista de conclusão de tarefa e é estruturalmente oca do ponto de vista de formação de time.

Multiplique por cada interação ao longo de um trimestre, e você tem uma organização onde tarefas são concluídas e a confiança drena em silêncio.

O Lado de Custo Que Ninguém Modela

Hudetz e Olive citam dados da McKinsey mostrando que a empresa mediana do S&P 500 carrega de US$ 228 milhões a US$ 355 milhões em custo anual de turnover. Citam também dados de survey mostrando que 34% dos trabalhadores que experimentam “brain fry” relacionado a IA pretendem pedir demissão.

Traduzindo. As mesmas ferramentas vendidas como produtividade-positivas estão operando, de formas mensuráveis, como retenção-negativas. E retenção é uma das variáveis mais caras na demonstração de resultados de uma empresa de capital aberto.

Se sua adoção de IA está melhorando throughput por tarefa em 15% e silenciosamente elevando turnover voluntário em 5 pontos percentuais, a conta nem é próxima. O ganho de throughput é reversível no momento em que o próximo vendor lança um modelo mais rápido. O conhecimento institucional perdido com saída de seniores não é.

Este é o arco de governança cross-domain pelo qual líderes de engenharia vêm passando há dois anos — reverificação, accountability, infraestrutura de propriedade — chegando à mesa de People Ops pela primeira vez. Com dados revisados por pares anexados.

O Que Engenharia Já Aprendeu

Times de engenharia que adotaram IA cedo bateram nessa parede primeiro. O padrão foi: entregar mais rápido, defeitos vazam, accountability se difunde, on-call piora, engenheiros sêniores ou esgotam ou saem. A resposta madura não foi banir as ferramentas. Foi construir governança em torno delas — propriedade explícita, gates de reverificação, checkpoints estruturados de humano no loop.

People Ops está agora onde engenharia estava em 2024.

Os artefatos que a IA remove dos fluxos de People Ops são mais suaves e mais difíceis de instrumentar: um DM no Slack que vira um prompt de IA, uma one-on-one que vira um resumo de IA, uma conversa de corredor que nunca acontece porque a resposta já foi recuperada. Mas o problema estrutural é idêntico. O output é preservado. O substrato que produz output ao longo do tempo está sendo depletado.

A resposta correta é a mesma a que engenharia chegou: governe a ferramenta, não banha. Decida explicitamente o que a IA tem permissão para remover e o que precisa ser preservado como superfície humano-humano.

Faça Isso Agora

Institucionalize atrito produtivo. Identifique as interações informais que constroem confiança, modelagem e segurança psicológica na sua organização — pareamento, office hours, peer review estruturado, canais de “pergunte qualquer coisa”. Estas não são práticas legadas para otimizar e remover. São o substrato. Proteja-as com a mesma seriedade com que protege uptime.

Direcione a IA para o trabalho enfadonho, não para a colaboração. A IA é excelente no trabalho que ninguém queria fazer mesmo: compilação de status, agendamento, redação de documentos, triagem de logs. A IA é estruturalmente ruim no trabalho que constrói times: um sênior desbloqueando um júnior, um par desafiando outro par, um gestor lendo a sala. Seja explícito sobre qual lado dessa linha cada deploy de IA está. Reverta qualquer deploy que cruzou a linha por acidente.

Meça segurança psicológica como indicador antecedente. Turnover é sinal atrasado. Quando aparece no seu dashboard, os engenheiros sêniores já saíram. Faça medições de pulso de segurança psicológica trimestralmente. Acompanhe frequência de interação informal onde for possível (latência de resposta no Slack entre pessoas específicas, densidade de calendário de one-on-ones não estruturadas). Sinalize tendências de queda como questões de governança, não de RH.

Os times que produziram 35% melhores resultados em 2012 não eram melhores por terem ferramentas melhores. Eram melhores porque se incomodavam. A tecnologia que nos permite parar de incomodar uns aos outros também é a tecnologia que permite que a próxima geração de engenheiros e operadores sêniores nunca se forme. Esse é o trade. Governe-o deliberadamente.


Fontes

  • Casey Hudetz e Eric Olive, “Bug-Free Workforce: AI Disrupting Teams”, Smashing Magazine, abril de 2026.
  • Estudo de crachás do MIT Human Dynamics Lab (2012) e Project Aristotle do Google (2015), conforme citados em Hudetz & Olive.
  • Estudo Harvard / Columbia / Yeshiva sobre IA em times (2025), conforme citado em Hudetz & Olive.
  • Dados da McKinsey sobre custo de turnover no S&P 500 e survey de intenção de pedir demissão por “AI brain fry”, conforme citados em Hudetz & Olive.

Relacionados: IA deleta responsabilidade · Padrões de desempoderamento por IA · A lacuna de ROI da org IA-nativa · Governança saindo do silo de engenharia


A Victorino ajuda People Ops e líderes de engenharia a construir governança cross-domain para times humano-IA: contato@victorino.com.br | www.victorino.com.br

Todos os artigos do The Thinking Wire são escritos com o auxílio do modelo LLM Opus da Anthropic. Cada publicação passa por pesquisa multi-agente para verificar fatos e identificar contradições, seguida de revisão e aprovação humana antes da publicação. Se você encontrar alguma informação imprecisa ou deseja entrar em contato com o editorial, escreva para editorial@victorino.com.br . Sobre o The Thinking Wire →

Se isso faz sentido, vamos conversar

Ajudamos empresas a implementar IA sem perder o controle.

Agendar uma Conversa