O Problema do Controle de IA

Seu Sistema de IA Também Precisa de um Fiscal

TV
Thiago Victorino
9 min de leitura

Laura Klein publicou na Nielsen Norman Group um artigo que deveria ser leitura obrigatória fora do mundo do design. “Your Design System Needs an Enforcer” diagnostica por que design systems fracassam --- e o diagnóstico é estruturalmente idêntico ao fracasso da governança de IA na maioria das empresas.

A tese de Klein é direta: um design system perfeito que ninguém usa não vale nada. O problema nunca é a qualidade do sistema. É a ausência de mecanismos que garantam sua adoção.

Se você trocar “design system” por “política de IA”, o artigo continua fazendo sentido. Cada palavra.

Os Quatro Modos de Falha

Klein identifica quatro razões pelas quais design systems são ignorados na prática:

1. Lacuna de expertise. Quem mantém o design system enxerga toda a organização. Quem está na equipe de produto enxerga apenas sua feature. Essa assimetria de perspectiva gera decisões localmente racionais e globalmente destrutivas.

2. Desvios que se acumulam. O exemplo de Klein é preciso: uma organização cria um componente de carrossel. Times começam a ajustá-lo --- uma variação aqui, outra ali. Em meses, existem dezenas de versões incompatíveis do mesmo componente. Nenhum ajuste individual parecia problemático. O resultado agregado é caos.

3. Otimização local. Cada equipe otimiza para suas métricas. O time de e-commerce quer conversão. O time de onboarding quer retenção. Ambos modificam os mesmos componentes em direções opostas. O produto inteiro perde coerência.

4. Pressão sobre o designer. Sem um fiscal com autoridade, o designer que insiste em seguir o sistema enfrenta resistência. “Só dessa vez” vira exceção permanente. O fiscal dá ao designer respaldo institucional para dizer não.

São observações sólidas. Também são um mapa quase exato do que acontece com IA nas organizações.

O Espelho da IA

Troque os termos e os quatro modos de falha se aplicam sem adaptação:

Lacuna de expertise → Governança centralizada vs. times distribuídos. A equipe de governança de IA entende os riscos sistêmicos --- viés, conformidade regulatória, exposição de dados. Os times de produto entendem seus problemas imediatos e querem soluções rápidas. A assimetria é idêntica.

Desvios acumulados → Drift de modelos e shadow AI. Uma equipe conecta o ChatGPT a um processo interno. Outra treina um modelo com dados de clientes sem validação. Uma terceira automatiza e-mails com uma API de linguagem sem revisão jurídica. Cada decisão parecia razoável isoladamente. O resultado é uma proliferação de sistemas de IA sem inventário, sem padrão e sem controle --- o equivalente organizacional das dezenas de carrosséis de Klein.

Os dados confirmam a escala do problema: 40% das empresas enfrentarão incidentes de segurança com shadow AI segundo o Gartner. 63% das organizações não conseguem impor limites de propósito para suas ferramentas de IA (Kiteworks, 2026). Apenas cerca de 25% têm governança de segurança de IA abrangente (CSA, 2025).

Otimização local → Experimentação departamental vs. estratégia empresarial. Marketing quer IA generativa para conteúdo. Operações quer automação de processos. Jurídico quer análise de contratos. Cada departamento escolhe ferramentas diferentes, negocia contratos separados, cria integrações isoladas. A empresa perde poder de negociação, duplica custos e impossibilita qualquer visão unificada de como IA está sendo usada.

Pressão sobre o designer → Pressão sobre o gestor de risco. O profissional que levanta preocupações com governança enfrenta a mesma dinâmica. “Nosso concorrente já está usando.” “Vamos perder a janela.” “Só dessa vez, sem passar pelo comitê.” Sem autoridade institucional, governança vira sugestão.

Onde Klein Para Cedo Demais

O diagnóstico de Klein é preciso. A prescrição é estreita.

Ela propõe um fiscal humano com autoridade executiva, aliança com engenharia, sessões de revisão e processos de contribuição. A regra heurística: inclua no design system mudanças que beneficiem três ou mais times.

Funciona --- até certo ponto. O modelo de fiscal humano não escala além de vinte times. É o mesmo problema de gargalo que aparece em revisão de código: a capacidade humana de supervisão é fixa. Quando a organização cresce, o fiscal vira obstáculo.

Klein também ignora três alternativas que o campo de design systems já desenvolveu:

Enforcement automatizado. Linting, CI/CD gates, testes de regressão visual --- mecanismos que detectam desvios antes que cheguem à produção. Não substituem o fiscal, mas reduzem dramaticamente a carga sobre ele.

Governança federada. Nathan Curtis, da EightShapes, propõe um modelo com núcleo centralizado e contribuidores federados. Times não são apenas consumidores do sistema --- são coautores, com processos claros para propor, revisar e incorporar mudanças. Brad Frost descreve algo similar: governança baseada em conversas que constroem confiança gradualmente.

Incentivos de adoção. O modelo do Spotify de “golden path” --- o caminho recomendado é o mais fácil. Em vez de forçar conformidade, você torna a conformidade o padrão mais conveniente.

Essas três abordagens não são concorrentes. São complementares. E juntas formam um modelo de governança mais robusto do que o fiscal solitário.

A Tríade: Enforcement, Automação, Incentivos

Para IA, a lição é a mesma. Governança que depende exclusivamente de um comitê humano --- revisão manual de cada modelo, aprovação caso a caso de cada ferramenta --- não escala. É o fiscal de Klein sem as ferramentas que tornam o fiscal eficaz.

O modelo que funciona combina três mecanismos:

Enforcement com autoridade. Alguém precisa ter o poder de dizer não. Não um comitê consultivo. Não um documento de boas práticas. Uma pessoa ou equipe com mandato executivo para vetar implantações que não atendem aos critérios de governança. Klein está certa neste ponto: sem autoridade real, governança é teatro.

Automação de conformidade. Políticas declarativas que se aplicam automaticamente. Classificação de dados, controles de acesso, limites de propósito, logging de decisões --- codificados em pipelines, não em manuais. Pesquisas recentes sobre Governance-as-a-Service (GaaS) descrevem frameworks com políticas declarativas, scoring de confiança e enforcement graduado (ArXiv 2508.18765v2). A ideia central: governança que opera na velocidade dos sistemas que governa.

Já escrevemos sobre uma versão concreta disso. Quando usamos arquivos como CLAUDE.md para definir permissões, limites e comportamentos de agentes de código, estamos praticando governança como código --- governance-as-code. Não é metáfora. É literalmente um arquivo que define o que o sistema pode e não pode fazer, versionado junto com o código que ele governa.

Incentivos estruturais. O “golden path” aplicado a IA: a ferramenta aprovada é a mais fácil de usar. O processo de compliance é menos burocrático que a alternativa informal. O time que segue a governança gasta menos tempo, não mais. Se seguir as regras for mais difícil que ignorá-las, as regras serão ignoradas. Isso não é cinismo --- é física organizacional.

A analogia com design systems é direta. Estimativas do setor indicam que design systems maduros geram ganhos de produtividade de 34% a 50% para equipes de design (Smashing Magazine, Knapsack). O ROI não vem do sistema em si --- vem da governança que garante seu uso consistente. O mesmo vale para IA: o retorno não está na tecnologia, mas na infraestrutura de governança que permite escalar com controle.

O Insight Central

Klein fecha seu artigo com uma frase que vale repetir: o trabalho do fiscal não é policiar. É proteger.

Proteger o sistema contra erosão gradual. Proteger os times contra pressão de curto prazo. Proteger a organização contra a entropia que se instala quando cada decisão é tomada localmente sem consequência global.

Governança de IA é exatamente isso. Não é burocracia. Não é o departamento do “não”. É o mecanismo que permite que sistemas complexos escalem sem se desintegrar.

Design systems ensinaram essa lição ao longo de uma década. Empresas que construíram sistemas bonitos sem enforcement viram esses sistemas ignorados. Empresas que investiram em enforcement --- humano, automatizado e estrutural --- viram adoção real e retorno mensurável.

IA está na mesma trajetória, com uma diferença: as consequências de falhar são maiores. Um carrossel inconsistente é um problema de UX. Um modelo de IA sem governança é um risco regulatório, financeiro e reputacional.

O fiscal não é opcional. O fiscal é o que faz o sistema funcionar.


Na Victorino Group, ajudamos organizações a construir governança de IA que funciona --- enforcement com autoridade, automação de conformidade e incentivos que tornam a adoção o caminho mais fácil. Se você precisa que seus sistemas de IA escalem com controle, vamos conversar.

Se isso faz sentido, vamos conversar

Ajudamos empresas a implementar IA sem perder o controle.

Agendar uma Conversa