Implementação Governada

Design Sem Governança É Decoração

TV
Thiago Victorino
9 min de leitura
Design Sem Governança É Decoração

A última edição da newsletter Re:think da McKinsey faz uma afirmação que é direcionalmente correta e estruturalmente incompleta. Chris Smith, sócio da prática de design da consultoria, argumenta que o problema de escala da IA não é um problema de tecnologia. É um problema de design. As organizações estão presas no purgatório dos pilotos porque colaram caixas de chat em fluxos de trabalho pré-IA e esperaram transformação.

O diagnóstico está meio certo. A prescrição é onde a coisa desmorona.

Quatro Princípios Que Precisam de Uma Fundação

A McKinsey identifica quatro características que experiências de IA precisam ter: clareza, continuidade, profundidade e colaboração.

Clareza significa que os sistemas devem revelar como chegaram às suas conclusões e ser transparentes sobre incertezas. Continuidade significa que a IA deve reconhecer o progresso entre usuários e tarefas em vez de tratar cada requisição como uma folha em branco. Profundidade significa automatizar fluxos de trabalho inteiros em vez de fornecer respostas isoladas. Colaboração significa interação humano-IA que vai além de corrigir o sistema depois do fato.

Não estão errados. Estão incompletos. Cada princípio descreve um comportamento de superfície desejável enquanto pula a infraestrutura necessária para produzi-lo.

Clareza Sem Trilha de Auditoria É Teatro

Dizer a um sistema para “revelar como chegou às conclusões” parece uma decisão de design. Não é. É um requisito de engenharia e governança que demanda infraestrutura específica.

Clareza requer sistemas de explicabilidade que rastreiem quais fontes de dados informaram uma decisão, qual versão do modelo produziu a saída e qual nível de confiança o sistema atribuiu. Requer logs de auditoria que capturem não apenas o que o sistema decidiu, mas quais alternativas ele considerou. Requer rastreamento de decisões que conecte saídas a entradas através de fluxos de trabalho com múltiplas etapas.

Nada disso é um problema de design. É um problema de infraestrutura de governança. Você pode desenhar um painel de explicação bonito que não mostra nada útil porque o sistema por trás dele não tem capacidade de rastreamento. Como exploramos em Governança É um Problema de UX, a pesquisa da Apple e Carnegie Mellon mostrou que quando agentes tomam ações sem explicação, a confiança colapsa em uma única interação. Mas a pesquisa também mostrou que a explicação precisa ser substantiva. Usuários não querem a aparência de transparência. Querem o mecanismo de prestação de contas.

A McKinsey trata clareza como uma escolha de design. Na prática, clareza é a saída visível de um sistema de governança de explicabilidade. Sem o sistema, o design é decoração.

Continuidade Sem Governança de Dados É Passivo

O princípio da continuidade é a lacuna mais reveladora do framework da McKinsey.

“Construir uma compreensão do que veio antes para antecipar o que vem depois” é uma descrição de memória organizacional persistente. Significa que o sistema de IA retém contexto entre interações, acumula conhecimento sobre a organização e usa esse contexto acumulado para informar decisões futuras.

Isso levanta questões que design não consegue responder. Quais dados são persistidos? Quem controla o acesso à memória organizacional? Como informações desatualizadas ou incorretas são purgadas? O que acontece quando um funcionário sai e seu contexto permanece no sistema? Quem audita o que a IA “lembra” sobre sua organização?

São questões de governança de dados. Interseccionam com regulamentações de privacidade, políticas de retenção de dados e requisitos de segurança da informação. Em indústrias reguladas, são obrigações de conformidade com consequências legais.

Projetar para continuidade sem responder essas perguntas é construir um sistema que lembra de tudo, não esquece nada e não tem prestação de contas sobre o que carrega adiante. Isso não é design melhor. É um passivo de dados não gerenciado.

Profundidade Sem Limites É Risco de Automação

Profundidade significa “automatizar fluxos de trabalho inteiros em vez de apenas fornecer respostas.” A McKinsey descreve IA que se conecta a múltiplas fontes de dados e processos com múltiplas etapas.

É aqui que o pensamento de design sem o pensamento de governança se torna ativamente perigoso.

Um sistema de IA que automatiza um fluxo de trabalho inteiro precisa de limites de permissão em cada etapa. Quais sistemas ele pode acessar? Quais dados pode ler? Quais ações pode tomar? Quando escala para um humano? O que acontece quando encontra um caso extremo fora de sua distribuição de treinamento?

Automação de fluxos de trabalho sem governança de limites é como organizações acabam com acesso não autorizado a dados, ações não intencionais em escala e falhas em cascata através de sistemas conectados. Quanto mais profunda a automação, mais crítica a governança. Como discutimos em A Lacuna de Governança na Qualidade do Output de IA, até saídas simples de IA convergem para a mediocridade sem restrições estruturadas. Fluxos de trabalho inteiros automatizados sem restrições de governança convergem para o risco.

Os três estudos de caso da McKinsey ilustram essa lacuna sem reconhecê-la. Uma ferramenta de campanha de marketing com 75% de adoção e um aumento de “mais de 2 por cento” nas vendas. Uma ferramenta para representantes de vendas adotada por 90% dos usuários. Uma ferramenta de gestão hoteleira onde “quase todos” os usuários a implantaram. Nenhuma organização nomeada. Nenhuma metodologia divulgada. Nenhuma discussão sobre qual governança tornou essas implementações seguras.

Colaboração Sem Governança de Decisão É Caos

A McKinsey corretamente observa que “humano no circuito” é insuficiente. O objetivo, argumentam, é que humanos e IA interajam através de direcionamento, revisão e debate para produzir resultados superiores.

Este é o mais interessante dos quatro princípios, e o que mais obviamente requer infraestrutura de governança.

Se humanos e IA estão colaborando em decisões, quem tem autoridade? Quando o humano e a IA discordam, qual decisão prevalece? Como essa decisão é registrada? Quem é responsável pelo resultado?

O projeto Magentic-UI da Microsoft demonstrou que superfícies de colaboração estruturadas melhoram o desempenho do agente em 71%. Mas a melhoria não veio de design melhor. Veio de seis mecanismos específicos de governança: co-planejamento, co-execução, aprovação de ações, verificação de respostas, memória e multitarefas. Cada mecanismo é uma superfície de governança que define limites, cria pontos de verificação e estabelece responsabilização.

Design sem esses mecanismos produz teatro de colaboração. A IA apresenta opções. O humano clica em aprovar. Ninguém rastreia se a aprovação foi informada ou reflexiva.

O Diagnóstico Real

O artigo da McKinsey acidentalmente prova um ponto que não pretende fazer.

A lacuna entre piloto e produção é real. Múltiplas fontes independentes confirmam. O relatório Q4 2024 da Deloitte encontrou que 68% das organizações moveram menos de 30% de seus experimentos de IA generativa para produção. O AI Radar 2025 da BCG encontrou que apenas 26% das empresas geram retornos financeiros significativos da IA. A pesquisa de fevereiro de 2026 do NBER com 6.000 executivos encontrou que mais de 80% reportam zero ganhos mensuráveis de produtividade.

Mas a causa não é primariamente design. A própria pesquisa da BCG encontrou que as principais barreiras são qualidade de dados, lacunas de talento, medição de ROI pouco clara, preocupações com segurança e resistência organizacional. “Design ruim de experiência do usuário” não aparece entre as principais barreiras.

Isso importa porque o diagnóstico determina o tratamento. Se o problema é design, a solução é consultoria de design. Se o problema é infraestrutura de governança, a solução é construir os sistemas que tornam os princípios de design implementáveis.

Exploramos essa distinção em McKinsey Mediu a Coisa Errada. Aquele estudo anterior da McKinsey pesquisou 300 executivos sobre ganhos percebidos de produtividade com IA. Os executivos reportaram melhorias de 16-45%. O ensaio controlado do METR encontrou que desenvolvedores eram 19% mais lentos com IA mas acreditavam ser 24% mais rápidos. A lacuna entre percepção e medição não era ruído. Era infraestrutura faltando.

O padrão se repete aqui. A McKinsey identifica como boa IA deveria parecer. Pula o que torna boa IA possível.

O Que Realmente Leva Organizações Além do Piloto

Organizações que escalam IA com sucesso não apenas projetam experiências melhores. Elas constroem quatro capacidades de governança que tornam experiências melhores possíveis.

Infraestrutura de explicabilidade: Não apenas um painel que mostra raciocínio, mas sistemas que rastreiam decisões até fontes de dados, registram versões de modelos, capturam escores de confiança e criam trilhas de auditoria.

Governança de contexto: Não apenas memória persistente, mas políticas que definem o que é retido, quem pode acessar, como é atualizado e quando é purgado.

Limites de fluxo de trabalho: Não apenas automação ponta a ponta, mas sistemas de permissão, regras de escalação, capacidades de reversão e tratamento de erros para cada etapa da cadeia.

Responsabilização de decisões: Não apenas interfaces de colaboração, mas modelos claros de autoridade, pontos de decisão documentados e resultados medidos.

A Circularidade Comercial

Vale notar o que a McKinsey está vendendo aqui. A McKinsey adquiriu a LUNAR Design em 2012 e a Veryday em 2015 para construir sua prática de consultoria de design. Chris Smith escreve a partir dessa prática. O artigo diagnostica um problema de design e prescreve soluções de design. A circularidade é estrutural.

Isso não torna as observações erradas. Mas significa que o enquadramento é comercialmente motivado. Quando a McKinsey diz que o problema é design, estão dizendo que o problema é algo que eles vendem.

A diferença está no que as evidências suportam. Os dados sobre a lacuna entre piloto e produção apontam para barreiras de governança, dados e organização mais consistentemente do que para design.

A Integração

Design e governança não são alternativas. São camadas.

Governança sem design é o PDF de política na pasta compartilhada que ninguém lê. O documento existe. A conformidade existe. O comportamento não muda porque a governança é invisível.

Design sem governança é a interface bonita que não mostra nada útil. O painel de explicação sem sistema de rastreamento por trás. A superfície de colaboração sem modelo de responsabilização por baixo. A experiência contínua sem governança de dados definindo o que persiste.

Organizações que superam o purgatório dos pilotos vão construir ambas as camadas simultaneamente. Vão projetar experiências de IA que surfacem informações de governança. E vão construir infraestrutura de governança que produza informações que valham a pena surfacear.

A McKinsey acertou a superfície. A fundação é a parte que deixaram de fora.


Fontes

  • Smith, Chris. “The value of rich and meaningful AI interactions.” McKinsey Re:think #96. Março 2026.
  • Apple/CMU. “Mapping the Design Space of User Experience for Computer Use Agents.” IUI’26. 2026.
  • Microsoft. “Magentic-UI: Human-AI Collaboration for Web Tasks.” Fevereiro 2026.
  • BCG. “AI Radar 2025: From Experimentation to Impact.” 2025.
  • NBER. “Executive Survey on AI Productivity Impact.” Fevereiro 2026.

Victorino Group constrói a infraestrutura de governança que torna princípios de design de IA implementáveis: contato@victorino.com.br | www.victorino.com.br

Se isso faz sentido, vamos conversar

Ajudamos empresas a implementar IA sem perder o controle.

Agendar uma Conversa