- Início
- The Thinking Wire
- O Quinto Artigo da McKinsey Sobre IA Repete a Falha dos Quatro Anteriores
O Quinto Artigo da McKinsey Sobre IA Repete a Falha dos Quatro Anteriores
Cinco artigos em cinco meses. Este é o quinto texto da McKinsey sobre IA que acompanhamos desde novembro de 2025. Cada um diagnostica o problema de forma ligeiramente diferente. Cada um prescreve algo que a McKinsey vende. E cada um repete a mesma omissão central.
O primeiro mediu percepção e chamou de evidência. O segundo tratou escala como problema de design. O terceiro usou a palavra “governável” sem defini-la. O quarto prescreveu fábricas de agentes sem framework de governança. Agora, no quinto, o tema é arquitetura empresarial para a “era agêntica.”
A prescrição: dois caminhos. Integração incremental ou transformação abrangente. A omissão: segurança. Zero menções em um artigo de arquitetura empresarial.
A falsa dicotomia como técnica de ancoragem
O artigo apresenta dois caminhos para organizações que querem integrar IA agêntica à sua arquitetura. O primeiro é incremental: adicionar agentes sobre sistemas legados. O segundo é abrangente: reconstruir a arquitetura do zero.
Quem trabalha com decisões estratégicas reconhece o formato. É a técnica clássica de ancoragem. Ao apresentar a opção cara (transformação completa) ao lado da opção modesta (integração incremental), a opção cara ganha legitimidade. O leitor para de perguntar “preciso disso?” e começa a perguntar “qual dos dois?”
O problema: a escolha real não é entre os dois caminhos. O diferenciador entre organizações que extraem valor de IA e as que não extraem não é a abordagem arquitetural. É a maturidade de governança. Uma organização com governança madura pode adotar qualquer caminho e ajustá-lo. Uma organização sem governança vai fracassar em ambos.
A McKinsey transforma uma questão de governança em uma questão de arquitetura. Convenientemente, arquitetura é o que consultorias de gestão vendem.
O raciocínio circular da transformação abrangente
O artigo argumenta que a transformação abrangente “simplifica governança.” A justificativa: quando você reconstrói tudo, pode construir uma plataforma de governança desde o início.
Leia de novo. A transformação abrangente simplifica governança porque inclui a construção de uma plataforma de governança abrangente. É circular. A conclusão pressupõe o que deveria demonstrar.
A questão que o artigo não responde: o que essa plataforma de governança contém? Quais políticas aplica? Como determina o que um agente pode decidir sozinho versus o que precisa de supervisão humana? Sem essas respostas, “construa governança” é tão útil quanto “seja estratégico.”
O framework de governança de IA agêntica publicado por Singapura (IMDA, janeiro de 2026) oferece uma primitiva concreta: “action-space,” o conjunto delimitado de ações que um agente pode executar em contexto específico. É o tipo de especificidade que transforma um princípio em ferramenta. O artigo da McKinsey opera na direção oposta: transforma ferramentas (arquitetura) em princípios (governança).
Agentic mesh: validação parcial de um conceito que definimos
O artigo da McKinsey adota o termo “agentic mesh” como camada de orquestração central. Para quem acompanha nossa série, isso não é novidade. Publicamos uma análise detalhada sobre o que é uma agentic mesh, suas seis camadas e os protocolos em disputa.
A adoção pela McKinsey valida o conceito. Mas a definição que a firma usa é mais restrita. Eric Broda cunhou o termo para descrever um ecossistema. A McKinsey o reduz a uma camada de infraestrutura. Críticos na comunidade de engenharia chamam o conceito de “fantasia de consultores” quando desprovido de especificação técnica.
A verdade está no meio. A agentic mesh resolve um problema real: coordenação governada entre agentes construídos por equipes diferentes. Mas a forma como a McKinsey a apresenta (como componente de uma transformação abrangente que a McKinsey implementa) é mais proposta comercial do que arquitetura de referência.
Os números que não fecham
O artigo cita um banco latino-americano como caso de sucesso. Orçamento de US$ 600 milhões, mais de 100 sistemas de IA, redução de 60% no tempo de engenharia, US$ 250 milhões em economias.
O caso é anônimo. Não há nome, não há data específica, não há metodologia publicada. Não é possível verificar.
Mais revelador: um artigo separado da própria McKinsey, publicado em período próximo, descreve um caso com características similares (banco, IA, reestruturação de arquitetura) com economias de “US$ 3 milhões anuais.” A diferença entre os dois números é de 83 vezes. Mesmo considerando que podem ser organizações distintas, a variação levanta a pergunta: qual é o padrão real de resultado que a McKinsey observa?
Quando analisamos o quarto artigo, os estudos de caso também eram anônimos e inverificáveis. O padrão se repete. A McKinsey sustenta prescrições bilionárias com evidência que não sobrevive a uma verificação cruzada básica.
A omissão que define o artigo
Em um texto sobre arquitetura empresarial para IA agêntica, a palavra “segurança” não aparece. Nenhuma menção a superfície de ataque, autenticação entre agentes, isolamento de runtime, ou proteção de dados.
Isso não é um detalhe. Segundo relatório da Strata (2026), 88% das organizações reportaram ao menos um incidente de segurança relacionado a IA nos últimos 12 meses. A própria plataforma interna da McKinsey, o Lilli, foi comprometida por um agente autônomo em menos de duas horas durante testes de segurança.
Como discutimos em A Arquitetura da Confiança em Agentes, confiança não vem de prompts. Vem de restrições ambientais: sandboxing, permissões granulares, audit trails. Um artigo de arquitetura que ignora segurança é como uma planta de prédio que ignora saídas de incêndio.
A metáfora que o artigo usa para governança (“cinto de segurança em carro de corrida”) é sintomática. Trivializa. Cinto de segurança é um acessório de proteção passiva. Governança de agentes autônomos é controle de sistemas que tomam decisões com consequências reais. A diferença de escala entre os dois conceitos revela como o artigo posiciona governança: como complemento, não como fundação.
O paradoxo enterrado no próprio texto
A afirmação mais importante do artigo é a que recebe menos atenção: “100 engenheiros se tornam um punhado de equipes.” A promessa é de ganho de produtividade na ordem de 10 a 20 vezes.
Coloque isso ao lado de outro dado que a McKinsey publicou: 80% das organizações que usam IA generativa não reportam contribuição material ao resultado. O estudo randomizado do NBER corrobora: 89% dos executivos reportam zero impacto na produtividade. O METR demonstrou que desenvolvedores experientes ficaram 20% mais lentos com assistentes de código.
Multiplicação de 10x com adoção de 80% e resultado próximo de zero. O Gartner projeta simultaneamente 40% de adoção de agentes e 40% de cancelamento de projetos até 2027. São previsões sobre o mesmo mercado, no mesmo horizonte temporal.
A Cognition AI (criadora do Devin) é direta: arquiteturas multiagente “resultam em sistemas frágeis.” A Anthropic reporta que sistemas multiagente consomem 15 vezes mais tokens que sistemas de agente único. Mais complexidade, mais custo, mais fragilidade. Os dados da própria indústria contradizem a escala de ganho que o artigo sugere.
O arco de cinco artigos
O padrão completo:
Artigo 1 (novembro 2025): IA funciona, executivos confirmam. Prescrição: adoção.
Artigo 2 (fevereiro 2026): IA não escala. Prescrição: design de experiência.
Artigo 3 (março 2026): IA precisa ser “governável.” Prescrição: princípios vagos.
Artigo 4 (março 2026): IA precisa de fábricas. Prescrição: produção sem governança.
Artigo 5 (março 2026): IA precisa de nova arquitetura. Prescrição: dois caminhos sem segurança.
Cinco diagnósticos progressivamente mais sofisticados. Cinco prescrições que evitam a mesma conclusão. A arquitetura empresarial está mudando de “blueprint” para “sistema operacional” (Gartner, Forrester e IEEE convergem nesse ponto). Mas um sistema operacional sem modelo de segurança é um sistema operacional comprometido.
O que fazer com o quinto artigo
Três orientações concretas.
Primeiro: ignore a dicotomia incremental versus abrangente. Sua organização provavelmente precisa de ambos, em proporções que dependem da maturidade dos seus sistemas, da sua capacidade de governança, e do apetite real (não projetado) de risco. A pergunta correta não é “qual caminho,” mas “onde tenho governança suficiente para dar o próximo passo.”
Segundo: exija especificidade dos estudos de caso. Se um fornecedor (consultoria, plataforma, integrador) cita resultados de 60% de redução ou US$ 250 milhões em economia, peça o nome da organização, a metodologia e a linha temporal. Se a resposta é “confidencial,” o número é anedota, não evidência.
Terceiro: antes de projetar a agentic mesh, projete o modelo de segurança. Identidade de agentes. Permissões por contexto. Audit trail completo. Isolamento de runtime. Se essas camadas não existem antes de os agentes começarem a se comunicar, cada conexão na mesh é uma vulnerabilidade.
A McKinsey vai publicar o sexto artigo. Talvez seja o que finalmente integra governança e segurança na prescrição. Até lá, o que temos é um padrão consistente: diagnósticos que melhoram a cada iteração e prescrições que evitam o ponto central.
Fontes
- McKinsey & Company. “Rethinking Enterprise Architecture for the Agentic Era.” Março 2026.
- IMDA Singapura. “Singapore Releases World’s First Agentic AI Governance Framework.” Janeiro 2026.
- Gartner. “Predicts 2026: AI Agents and Agent Ecosystems.” Dezembro 2025.
- NBER. “The Real Effects of Generative AI on the U.S. Labor Market.” Fevereiro 2026.
- METR. “Measuring the Impact of Early LLM-Based Coding Assistants on Developer Productivity.” Fevereiro 2026.
- Strata. “AI Security Report.” 2026.
- Cognition AI. “Devin Technical Architecture Report.” 2026.
- Anthropic. “Building Effective Agents.” 2025.
Victorino Group projeta sistemas de IA com governança e segurança integradas desde a arquitetura: contato@victorino.com.br | www.victorino.com.br
Todos os artigos do The Thinking Wire são escritos com o auxílio do modelo LLM Opus da Anthropic. Cada publicação passa por pesquisa multi-agente para verificar fatos e identificar contradições, seguida de revisão e aprovação humana antes da publicação. Se você encontrar alguma informação imprecisa ou deseja entrar em contato com o editorial, escreva para editorial@victorino.com.br . Sobre o The Thinking Wire →
Se isso faz sentido, vamos conversar
Ajudamos empresas a implementar IA sem perder o controle.
Agendar uma Conversa