- Início
- The Thinking Wire
- A Semana em que Governança Virou Feature de Produto
A Semana em que Governança Virou Feature de Produto
Na mesma semana, duas das maiores empresas de IA do mundo embarcaram funcionalidades de governança em seus produtos. Não como documentação. Não como white paper. Como código que roda em produção.
A Anthropic lançou uma API de Compliance para o Claude Platform. A Microsoft adicionou modos de Critique e Council ao 365 Copilot. Cada anúncio, isolado, seria uma atualização de produto. Juntos, formam um padrão.
Em ISO 42001: Quando Governança de IA Vira Atributo de Produto, examinamos como certificações estavam transformando governança em sinal de mercado. A tese era que governança deixaria de ser disciplina interna para virar critério de seleção. O que aconteceu na última semana de março vai além: governança não é mais sinal. É primitiva de produto.
O Que a Anthropic Embarcou
A Compliance API do Claude Platform permite que administradores acessem logs de auditoria programaticamente. Não por meio de um painel. Por meio de uma API que se integra a SIEMs, ferramentas de compliance e pipelines de automação.
O que é rastreado: adição de membros, criação de chaves de API, mudanças de configuração, operações em arquivos, eventos de login e logout. O público declarado: serviços financeiros, saúde, jurídico. São indústrias onde auditabilidade não é diferencial. É pré-requisito para operação.
Uma decisão de design merece atenção. A API não rastreia atividades de inferência. Conversas com o modelo ficam fora do escopo de compliance. Isso é uma escolha deliberada de fronteira: o que a organização faz com a plataforma é auditável; o que os usuários dizem ao modelo, não.
Para equipes de segurança, essa distinção importa. O rastreamento cobre o perímetro administrativo (quem acessou, o que mudou, quando mudou) sem tocar no conteúdo das interações. É o mesmo modelo que SIEMs tradicionais aplicam a e-mail corporativo: metadados sim, conteúdo não.
Uma limitação prática: atividades anteriores à habilitação da API não são recuperáveis. Não existe preenchimento retroativo. Quem precisa de trilha de auditoria completa precisa ativar a API antes de precisar dos dados. Compliance é infraestrutura, não seguro retroativo.
O Que a Microsoft Embarcou
O Microsoft 365 Copilot ganhou dois modos novos. Critique é um modelo secundário que revisa o output do modelo primário antes de entregar ao usuário. Council roda múltiplos modelos (Anthropic e OpenAI) em paralelo sobre o mesmo prompt, com um modelo juiz identificando onde convergem e onde divergem.
Satya Nadella descreveu o Council com uma frase que vale repetir: “Você pode rodar múltiplos modelos no mesmo prompt ao mesmo tempo, para ver onde se alinham e onde divergem.”
Isso não é comparação de benchmark. É verificação cruzada embutida no fluxo de trabalho.
O modo Critique reporta melhoria de 13,88% sobre Perplexity e Claude Opus 4.6 no benchmark DRACO. Os números importam menos que a arquitetura. A Microsoft está dizendo que a saída de um modelo não é confiável o bastante para ser a saída final. A resposta da empresa não é “confie no nosso modelo.” É “nosso produto verifica o próprio output.”
Essa é uma admissão de mercado disfarçada de funcionalidade. E é exatamente o tipo de admissão que constrói confiança.
O Padrão Que Emerge
Olhe as duas funcionalidades lado a lado.
A Anthropic entrega auditabilidade administrativa. A Microsoft entrega verificação de output. Uma cuida do perímetro. A outra cuida do conteúdo. Juntas, cobrem as duas superfícies que reguladores vão exigir: prova de que a organização controla o sistema, e prova de que o sistema verifica a si mesmo.
Nenhuma das duas resolve governança. As duas tornam governança operacionalizável. A diferença é a mesma que existe entre ter uma política de segurança e ter controles técnicos que a implementam. Políticas são necessárias. Controles são suficientes.
O movimento é consistente com o que se observa desde o início de 2026. Quando o Datadog buscou a certificação ISO 42001, empacotou governança como diferencial de vendas. Quando a Cloudflare tornou segurança de IA gratuita, estabeleceu um piso de infraestrutura. Agora Anthropic e Microsoft estão dando o passo seguinte: governança como API. Como modo de operação. Como primitiva que desenvolvedores consomem sem precisar construir do zero.
Por Que Isso Muda o Cálculo
Para quem opera IA em indústrias reguladas, essas funcionalidades alteram a conversa com compliance e jurídico.
Antes: “Estamos usando IA generativa, mas temos políticas internas que garantem governança.” Essa frase nunca convenceu ninguém em auditoria. Políticas sem controles técnicos são intenções, não garantias.
Agora: “Estamos usando IA generativa com trilha de auditoria via API de compliance e verificação cruzada de output via modelos independentes.” Essa frase gera um artefato auditável. É a diferença entre dizer que você controla o sistema e mostrar os logs.
Para fornecedores de IA que ainda não embarcaram funcionalidades de governança, o relógio acelerou. Quando dois dos maiores provedores do mercado entregam compliance como feature, a expectativa do comprador muda. A pergunta deixa de ser “vocês têm governança?” e passa a ser “onde está a API?”
O Que Ainda Falta
Funcionalidades de governança embarcadas no produto são necessárias. Não são suficientes.
A API da Anthropic cobre o perímetro administrativo. Não cobre o que o modelo faz com os dados do usuário durante a inferência. O Council da Microsoft compara outputs de modelos diferentes. Não valida se algum deles está correto, apenas se convergem. Consenso entre modelos não é verdade. É consenso.
A próxima fronteira é observabilidade de inferência: o que acontece entre o prompt e a resposta. Quais dados foram acessados. Quais ferramentas foram chamadas. Quais decisões o agente tomou e por quê. Essa camada ainda não existe como produto em nenhum dos provedores principais.
Governança embarcada é o piso. Observabilidade de ponta a ponta é o teto. A distância entre os dois é onde o trabalho real acontece.
Fontes
- Anthropic. “Audit Claude Platform Activity with the Compliance API.” March 2026.
- Testing Catalog. “Microsoft 365 Copilot Gets Critique and Council Modes.” March 2026.
Victorino Group ajuda empresas a embutir governança na infraestrutura de IA — antes que reguladores exijam: contato@victorino.com.br | www.victorino.com.br
Todos os artigos do The Thinking Wire são escritos com o auxílio do modelo LLM Opus da Anthropic. Cada publicação passa por pesquisa multi-agente para verificar fatos e identificar contradições, seguida de revisão e aprovação humana antes da publicação. Se você encontrar alguma informação imprecisa ou deseja entrar em contato com o editorial, escreva para editorial@victorino.com.br . Sobre o The Thinking Wire →
Se isso faz sentido, vamos conversar
Ajudamos empresas a implementar IA sem perder o controle.
Agendar uma Conversa