- Início
- The Thinking Wire
- Os Três Diagnósticos da McKinsey: Como uma Consultoria Descobre Governança aos Poucos
Os Três Diagnósticos da McKinsey: Como uma Consultoria Descobre Governança aos Poucos
Em quatro meses, a McKinsey publicou três peças que contam uma história que a própria firma ainda não articulou completamente. Cada uma se aproxima mais da mesma conclusão. Nenhuma a declara abertamente.
O padrão importa mais que qualquer artigo individual. Porque quando uma firma com o alcance da McKinsey itera em direção a um diagnóstico que não consegue nomear completamente, a iteração em si se torna a evidência.
Diagnóstico Um: A Medição Estava Correta
Em novembro de 2025, a McKinsey entrevistou 300 executivos sobre o impacto da IA no desenvolvimento de software. Os executivos reportaram ganhos de produtividade de 16-45%. A McKinsey transformou essas percepções em conclusões.
O problema, como exploramos em A McKinsey Mediu a Coisa Errada, não estava na conclusão. Estava na metodologia. O ensaio clínico randomizado da METR mostrou desenvolvedores 19% mais lentos com IA enquanto acreditavam ser 24% mais rápidos. A pesquisa do NBER de fevereiro de 2026 com 6.000 executivos encontrou que mais de 80% reportam zero ganho de produtividade mensurável. A lacuna entre percepção e medição não era ruído. Era direcionalmente errada.
Naquele momento, a posição implícita da McKinsey era: IA funciona, executivos confirmam que funciona, o desafio é adoção organizacional. A prescrição: capacitação, gestão de mudança, implementação ponta-a-ponta, papéis IA-nativos. Cinco recomendações que mapeavam precisamente cinco linhas de serviço da McKinsey.
Diagnóstico Dois: O Problema É Design
Em 11 de março de 2026, Chris Smith, sócio da prática de design da McKinsey, publicou um ensaio no Re:think argumentando que o problema de escalação da IA não é um problema de tecnologia. É um problema de design. Organizações colaram caixas de chat em fluxos de trabalho pré-IA e esperaram transformação.
Smith identifica quatro características de design que experiências com IA precisam: clareza (revelar raciocínio), continuidade (lembrar contexto), profundidade (automatizar fluxos completos) e colaboração (humanos e IA direcionando juntos, não corrigindo depois do fato).
Os estudos de caso são convincentes na direção: uma ferramenta de marketing com 75% de adoção e aumento de 2%+ nas vendas, uma ferramenta de vendas adotada por 90% dos usuários, uma ferramenta de gestão hoteleira onde quase todos os usuários passaram a utilizá-la quando ela revelou seu raciocínio.
A prescrição mudou. Não era mais apenas mudança organizacional. Era design. E Smith escreve da prática de design da McKinsey, construída através das aquisições da LUNAR Design em 2012 e da Veryday em 2015. O diagnóstico, mais uma vez, apontava para o que a McKinsey vende.
Como analisamos em Design Sem Governança É Decoração, cada um dos quatro princípios de Smith descreve um comportamento de superfície desejável enquanto pula a infraestrutura necessária para produzi-lo. Clareza requer sistemas de explicabilidade. Continuidade requer governança de dados. Profundidade requer limites de permissão. Colaboração requer responsabilização de decisões.
Diagnóstico Três: A Palavra que a McKinsey Usou Sem Definir
A frase que torna o arco de três artigos significativo está no parágrafo final de Smith:
“The next frontier of AI will be about reinventing the architecture of collaboration, driven by systems that make intelligence understandable, governable, and usable at scale.”
Governável. A palavra aparece uma vez, sem elaboração, em um ensaio de 800 palavras sobre design. Smith não define o que governável significa. Não descreve como é a infraestrutura de governança. Não a conecta aos quatro princípios que acabou de apresentar. Mas a usa.
Esta é a progressão diagnóstica em miniatura. De “IA funciona, basta adotar corretamente” para “IA precisa de melhor design” para “IA precisa ser governável”. Cada passo se aproxima. Cada passo para antes da conclusão estrutural.
O Que a Iteração Revela
O padrão nos três textos da McKinsey mapeia uma trajetória comum de como organizações descobrem necessidades de governança.
Estágio 1: Percepção como evidência. A tecnologia é adotada. Líderes reportam que está funcionando. Ninguém mede independentemente. As métricas que existem medem atividade, não resultados. Pesquisas confirmam a tese de investimento. Todos estão satisfeitos.
Estágio 2: Design como diagnóstico. Quando a adoção trava na escala piloto, a explicação muda de “funciona, basta escalar” para “a experiência do usuário precisa melhorar”. Este é um problema real. Mas é o sintoma visível, não a causa estrutural. Organizações redesenham interfaces enquanto deixam a infraestrutura subjacente inalterada.
Estágio 3: Governança como requisito. Eventualmente, alguém diz a palavra. Geralmente em voz baixa, numa oração subordinada, sem um framework completo anexado. O reconhecimento chega antes da arquitetura. O uso de “governável” por Smith é precisamente este momento: o reconhecimento de que princípios de design sem infraestrutura de governança produzem teatro de design.
A maioria das organizações vive essa mesma progressão. Passam meses no Estágio 1, convictas de que IA está entregando valor com base em dados de percepção. Investem no Estágio 2 quando a adoção não escala, contratando consultores de design para melhorar a experiência. Chegam ao Estágio 3 quando percebem que melhorias de design não se sustentam sem sistemas subjacentes de explicabilidade, governança de dados, limites de fluxo de trabalho e responsabilização de decisões.
A Convergência que Ninguém Planejou
A McKinsey não está sozinha nesta trajetória. Os dados da indústria estão convergindo de múltiplas direções.
O AI Radar 2025 da BCG encontrou que apenas 26% das empresas geram retornos financeiros significativos com IA. As principais barreiras identificadas foram qualidade de dados, lacunas de talentos, medição de ROI pouco clara e preocupações com segurança. “Design ruim” não entrou na lista. O relatório Q4 2024 da Deloitte encontrou que 68% das organizações moveram menos de 30% dos experimentos de IA generativa para produção. A análise deles apontou para governança e infraestrutura de dados, não experiência do usuário.
A pesquisa da Apple e Carnegie Mellon na IUI’26 mostrou que a confiança em agentes desmorona em uma única interação sem explicação substantiva. Não a aparência de transparência. O mecanismo de responsabilização. O projeto Magentic-UI da Microsoft demonstrou que colaboração estruturada melhora o desempenho de agentes em 71%, mas a melhoria veio de seis mecanismos de governança: co-planejamento, co-execução, aprovação de ações, verificação de respostas, memória e multitarefa.
Cada linha de pesquisa está chegando ao mesmo lugar. A palavra difere — governança, infraestrutura, responsabilização, guardrails — mas o destino é o mesmo. O que torna IA escalável não é o modelo, não é a interface, mas os sistemas que tornam outputs verificáveis, decisões rastreáveis e comportamentos delimitados.
Por Que Consultorias Não Conseguem Dizer Isso Diretamente
Existe uma razão estrutural para o diagnóstico da McKinsey parar no design. Infraestrutura de governança não é um engagement de consultoria. É uma construção de engenharia e organizacional que requer investimento permanente em sistemas, não um projeto com data de término definida e entregável final.
Um engagement de design tem escopo claro: auditar a experiência atual, identificar pontos de atrito, redesenhar a interação, medir adoção. Começa e termina. Produz artefatos. Cabe em uma proposta comercial.
Infraestrutura de governança não funciona assim. Sistemas de explicabilidade precisam de manutenção contínua. Políticas de governança de dados precisam de enforcement permanente. Limites de fluxo de trabalho precisam de recalibração regular. Responsabilização de decisões precisa de comprometimento institucional permanente. São capacidades operacionais, não entregas de projeto.
Consultorias vendem projetos. Governança não é um projeto. Não é uma crítica. É uma observação estrutural sobre por que o diagnóstico consistentemente para uma camada antes da resposta estrutural.
A Implicação Prática
Se sua organização está presa no purgatório dos pilotos, considere em qual estágio de diagnóstico você está.
Se você ainda depende da percepção executiva para avaliar o valor da IA, você está no Estágio 1. O primeiro passo não é design. É medição. Construa a infraestrutura para saber se IA está ajudando antes de decidir o que consertar.
Se você investiu em melhorias de design e a adoção ainda não escala, você está no Estágio 2. A interface não é o gargalo. A infraestrutura por trás dela é. Nenhuma melhoria de UX compensa explicabilidade ausente, persistência de dados não gerenciada, automação de fluxos sem limites ou colaboração sem responsabilização.
Se você chegou ao Estágio 3 e alguém na sala disse a palavra “governança” mas ninguém definiu o que isso significa para sua organização, é aí que o trabalho real começa. Não um projeto. Uma capacidade organizacional.
A McKinsey provavelmente chegará a este diagnóstico explicitamente em uma publicação futura. A trajetória é clara. Enquanto isso, a lacuna entre onde o diagnóstico deles está e para onde a evidência aponta é a lacuna onde as organizações ficam presas.
Fontes
- Chris Smith, “Improved user experiences could unleash the full potential of AI,” McKinsey Re:think, março de 2026.
- McKinsey, “Supercharging software development with generative AI,” novembro de 2025.
- METR, ensaio clínico randomizado sobre produtividade com IA, 2025.
- NBER, pesquisa com executivos sobre produtividade de IA, fevereiro de 2026.
- BCG AI Radar 2025.
- Deloitte, relatório Q4 2024 sobre IA generativa.
- Apple/CMU, taxonomia de UX de agentes, IUI’26.
- Microsoft, pesquisa Magentic-UI.
O Victorino Group constrói a infraestrutura de governança para a qual diagnósticos de consultoria eventualmente apontam. Se sua organização já passou do design e precisa dos sistemas por baixo, vamos conversar.
Se isso faz sentido, vamos conversar
Ajudamos empresas a implementar IA sem perder o controle.
Agendar uma Conversa