O Problema do Controle de IA

Quando Interfaces Se Tornam Descartáveis: Onde Fica a Governança Quando Usuários Ignoram Sua UI?

TV
Thiago Victorino
9 min de leitura

Chris Loy, designer de produto e desenvolvedor, descreveu recentemente como construiu uma visualização personalizada de sono para seu recém-nascido em aproximadamente duas horas. Usou um assistente de programação com IA e a API pública do FitBit. O aplicativo oficial não mostrava o que ele precisava. Então ele construiu algo que mostrava. Depois, quando a necessidade passou, descartou.

Esta é a premissa do software descartável: ferramentas de propósito específico, construídas rapidamente por IA, usadas brevemente, descartadas sem cerimônia. Loy enquadra isso como um insight de estratégia de produto --- interfaces são baratas, capacidades são duráveis, monetize a camada de API. Ele está certo sobre o modelo de negócio. Mas está perdendo a história maior.

Quando seus usuários ignoram sua interface e vão direto à sua API via um agente de IA, onde a governança acontece?

A interface era sua última superfície de governança. Agora ela se foi.

A Superfície de Governança Que Você Não Sabia Que Tinha

A maioria das organizações não pensa em sua UI como mecanismo de governança. É “apenas a interface.” Mas considere o que vive ali.

Fluxos de consentimento. Banners de cookies do GDPR. Telas de autorização HIPAA. Etapas de verificação de identidade KYC. Aceitação de termos de serviço. Verificação de idade. Não são decoração. São pontos de verificação de conformidade que reguladores esperam encontrar.

Limitação de taxa na experiência do usuário. Barras de progresso, estados de carregamento, mensagens de “por favor, aguarde.” São a manifestação visível de controles que previnem abuso. Ensinam aos usuários que o sistema tem limites.

Trilhas de auditoria. Diálogos “Tem certeza que deseja excluir isso?”. Telas de confirmação. Fluxos de aprovação em múltiplas etapas. Criam registros de intenção humana. Provam que uma pessoa fez uma escolha deliberada.

Escopo de acesso. Menus de navegação que mostram apenas o que você está autorizado a ver. Botões desabilitados para ações que não pode realizar. Campos de formulário que aplicam regras de negócio. São controles de autorização usando uma fantasia visual.

Quando um usuário interage com seu produto pela interface, ele passa por todos esses pontos de verificação. Quando um agente de IA chama sua API diretamente, ignora cada um deles.

O Problema de Governança em Três Camadas

O modelo de arquitetura de produto de Loy é útil: capacidades na base, camada de serviço/API no meio, interface no topo. O que ele não diz explicitamente é onde a governança normalmente vive nessa pilha.

Vive no topo. Na camada de interface. A camada que ele chama de descartável.

Não é acidente. A interface é onde humanos interagem com sistemas, então é onde organizações construíram controles projetados para interação humana. Consentimento requer uma tela para ser exibido. Confirmação requer um diálogo para clicar. Trilhas de auditoria requerem um timestamp de ação humana. A interface era o lar natural da governança porque governança foi projetada para usuários humanos.

Agentes de IA não são usuários humanos. Não leem banners de consentimento. Não pausam em diálogos de confirmação. Não criam os sinais comportamentais que sistemas de auditoria esperam. Chamam a API, recebem a resposta e seguem em frente. A camada de governança que ignoram nunca foi opcional. Apenas estava no lugar errado.

MCP Torna Isso Estrutural, Não Anedótico

Loy menciona o Model Context Protocol de passagem, mas o MCP é o que transforma isso de uma observação sobre design de produto em uma crise de governança.

Antes do MCP, usuários que ignoravam sua interface precisavam de sofisticação técnica. Alguém precisava entender sua API, autenticar corretamente e escrever código para interagir com ela. A população de usuários capaz disso era pequena e gerenciável.

O MCP padroniza o bypass. A Anthropic introduziu o MCP em novembro de 2024 como um protocolo aberto para agentes de IA se conectarem a serviços externos. Em fevereiro de 2026, foi adotado por OpenAI, Google DeepMind, Microsoft e AWS. Foi doado à Agentic AI Foundation da Linux Foundation em dezembro de 2025. O ecossistema é real e cresce rápido.

Um servidor MCP para FitBit já existe no GitHub. Qualquer pessoa com um agente de IA pode se conectar aos serviços do FitBit sem nunca abrir o aplicativo. O mesmo padrão está se replicando em milhares de serviços.

Segundo o Gartner, mais de 30% do aumento na demanda de APIs em 2026 virá de ferramentas de IA usando modelos de linguagem. Não é um caso de uso marginal. É uma mudança estrutural em como produtos são consumidos.

E aqui está o problema de governança: o MCP define como clientes e servidores trocam recursos e ferramentas, mas não define quem pode agir, quando pode agir, ou sob quais condições. Como aponta uma análise de governança empresarial, o MCP está para agentes assim como REST esteve para APIs --- a interface é útil, mas organizações ainda precisam de uma camada para identidade, política, visibilidade e segurança.

Shadow MCP: Shadow IT da Era dos Agentes

Há um padrão emergente que deveria preocupar todo CTO: shadow MCP.

Assim como funcionários antes instalavam ferramentas SaaS não autorizadas (shadow IT), agora estão implantando servidores MCP que conectam agentes de IA a sistemas empresariais sem supervisão. Um desenvolvedor quer que seu assistente de código acesse a wiki interna, então sobe um servidor MCP. Um gerente de produto quer que o Claude consulte o banco de dados de analytics, então configura uma conexão MCP. Cada ação individual parece razoável. O resultado agregado é uma malha não governada de conexões IA-sistema que ninguém enxerga.

A vulnerabilidade BodySnatcher de janeiro de 2026 (CVE-2025-12420) na API do Virtual Agent da ServiceNow ilustrou os riscos. Um atacante não autenticado podia se passar por qualquer usuário --- incluindo administradores --- usando apenas um endereço de e-mail, ignorando MFA, SSO e todos os outros controles de identidade. Não era risco teórico. Era uma vulnerabilidade em produção em uma grande plataforma empresarial de integração com agentes de IA.

Quando sua superfície de governança era a UI, shadow IT significava alguém usando um app não autorizado. Quando sua superfície de governança é a API, shadow MCP significa um agente de IA com acesso não sancionado aos seus sistemas de produção.

Design Contract-First: A Nova Fundação da Governança

Se interfaces são descartáveis e governança não pode viver nelas, para onde vai?

A resposta é design contract-first na camada de API.

Arquitetura para sistemas descartáveis, como descrita por praticantes construindo nesse paradigma, requer esquemas rígidos que servem como contrato de fronteira. A interface pode ser qualquer coisa --- um app personalizado, um agente de IA, um assistente de voz. Mas o contrato da API define o que é permitido, para onde os dados fluem e quais condições devem ser atendidas.

Isso significa:

  • Autenticação não é opcional. Toda chamada de API carrega identidade, seja de um usuário humano ou de um agente de IA agindo em seu nome.
  • Autorização é granular. A API determina o que cada chamador pode fazer, não a UI. Botões desabilitados viram respostas 403.
  • Consentimento é programático. Se um usuário precisa concordar com termos antes de acessar dados, a API garante isso, não uma checkbox em um formulário.
  • Auditoria é automática. Toda chamada de API é registrada com identidade, timestamp, ação e resultado. Nenhum diálogo de confirmação necessário.
  • Limitação de taxa é arquitetural. Throttling acontece no gateway da API, não através de spinners de carregamento na UI.

Não é uma refatoração menor. É uma mudança fundamental em onde a lógica de governança vive. A maioria das organizações tem anos de governança embutida na camada de interface que nunca foi replicada no nível da API. A migração não é barata nem rápida.

O Paradoxo da Abertura

Loy faz uma observação interessante sobre enshittification --- o termo de Cory Doctorow para plataformas que degradam serviço para extrair valor. Ele sugere que agentes de IA podem reverter essa tendência, forçando plataformas a manter APIs abertas.

Isso é otimista. A contraevidência é forte.

Quando o Reddit viu sistemas de IA extraindo seu conteúdo via API, elevou os preços dramaticamente. Quando o Twitter/X percebeu que clientes de terceiros ignoravam sua interface com anúncios, restringiu acesso à API e começou a cobrar. Plataformas que fecharam suas APIs o fizeram por razões econômicas. Agentes de IA não mudam essa economia. Podem, na verdade, acelerar o fechamento.

O paradoxo: quanto mais valioso o acesso à API se torna (porque agentes de IA o tornam mais útil), mais plataformas vão querer controlá-lo, monetizá-lo ou restringi-lo. Abertura não é o equilíbrio natural. Abertura governada --- acesso documentado, autenticado, limitado e monetizado --- é.

Esta é outra superfície de governança. Não na UI. Nos termos de serviço da API, nos limites de taxa, nas faixas de preço e nos requisitos de autenticação. Governança segue o ponto de acesso. Quando o ponto de acesso migra da UI para a API, governança migra junto.

O Que Isso Significa Para Sua Organização

Audite sua superfície de governança. Mapeie todo controle de governança no seu produto. Quantos vivem na camada de interface? Quantos sobreviveriam se usuários acessassem seu serviço inteiramente por chamadas de API? A lacuna entre esses dois números é sua dívida de governança.

Assuma que sua interface será ignorada. Não por agentes mal-intencionados. Pelos seus próprios usuários, usando agentes de IA para trabalhar mais rápido. Se seu modelo de conformidade depende de usuários verem uma tela, ele já está falhando para os usuários que não a veem.

Construa governança dentro da API, não em cima dela. Consentimento, autorização, auditoria, limitação de taxa --- são preocupações da camada de API agora. Se sua API foi projetada como conveniência para desenvolvedores e sua UI foi projetada como a superfície primária de governança, você tem a arquitetura invertida para um mundo orientado por agentes.

Observe o shadow MCP. Seus funcionários já estão conectando agentes de IA aos seus sistemas. Você pode não saber. Estabeleça um framework de governança MCP antes que as conexões não governadas se tornem norma.

Trate contratos de API como artefatos de governança. Sua especificação OpenAPI não é apenas documentação. É sua fronteira de governança. Versione, audite, aplique. Quando a interface é descartável, o contrato é a única superfície estável de governança que você tem.

A interface descartável é um insight de design de produto. A lacuna de governança que ela revela é uma crise organizacional. As organizações que reconhecem a diferença serão as que sobrevivem à transição.


Fontes

  • Chris Loy. “AI Makes Interfaces Disposable.” chrisloy.dev, 14 de fevereiro de 2026.
  • Tray.ai. “Enterprise Governance and Security for the Model Context Protocol (MCP).” 2026.
  • The Hacker News. “AI Agents Are Becoming Authorization Bypass Paths.” Janeiro de 2026.
  • Curity. “API Security Trends 2026: AI, MCP, Authorization and More.” 2026.
  • IAPP. “Vibe Coding: Don’t Kill the Vibe, Govern It.” 2026.
  • Gartner. Previsão de demanda de APIs, 2025—2026.
  • Tuan-Anh Tran. “Architecture for Disposable Systems.” 15 de janeiro de 2026.

O Victorino Group ajuda organizações a construir governança na camada de API antes que suas interfaces se tornem opcionais. Se seu modelo de conformidade depende de usuários verem uma tela, precisamos conversar. Entre em contato em contato@victorino.com.br ou visite www.victorino.com.br.

Se isso faz sentido, vamos conversar

Ajudamos empresas a implementar IA sem perder o controle.

Agendar uma Conversa