O Problema do Controle de IA

OpenClaw Não É Claude Code — E Essa Confusão Diz Tudo

TV
Thiago Victorino
10 min de leitura

Em 6 de fevereiro de 2026, Shafiq Shivji — VP da CloudBees — publicou um artigo sobre governança de IA agêntica que circulou amplamente no LinkedIn. A tese central é sólida: à medida que agentes de IA passam de assistentes a executores autônomos, governança se torna o diferencial competitivo. O artigo usa o crescimento viral do OpenClaw como estudo de caso — mais de 145 mil estrelas no GitHub — para argumentar que a adoção está acelerando mais rápido do que os controles.

O problema é que o artigo confunde dois projetos completamente diferentes. E essa confusão diz mais sobre o estado da governança de IA do que qualquer dado que ele cita.

O Erro Que Importa

O artigo trata OpenClaw e Claude Code como se fossem o mesmo projeto. Não são.

Claude Code é o agente de codificação oficial da Anthropic. Opera no terminal. Lê, escreve e executa código. É uma ferramenta de desenvolvimento de software — e uma que já gerou US$ 1 bilhão em receita recorrente nos primeiros seis meses de lançamento, segundo dados da própria Anthropic.

OpenClaw é um assistente pessoal de IA open-source criado por Peter Steinberger. Conecta-se ao WhatsApp, gerencia emails, organiza calendários. É uma ferramenta de produtividade pessoal — não um ambiente de desenvolvimento.

São projetos com propósitos, arquiteturas, superfícies de ataque e modelos de risco inteiramente distintos. Confundi-los em um artigo sobre governança é como escrever sobre segurança automotiva confundindo um caminhão de carga com uma bicicleta elétrica. Ambos se movem. Ambos precisam de regras. Mas as regras são fundamentalmente diferentes.

Por que isso importa? Porque governança eficaz exige compreensão precisa do que está sendo governado. Se um VP de uma empresa que vende ferramentas de governança não consegue distinguir dois projetos que aparecem no mesmo ecossistema, qual é a qualidade da governança que essa empresa entrega?

O Que os Dados Realmente Dizem

Apesar do erro factual, o artigo da CloudBees cita dados que merecem atenção — porque são verificáveis e contam uma história que a indústria não quer ouvir.

O mercado cresce, a preparação não. O mercado de IA agêntica deve saltar de US$ 7,84 bilhões em 2025 para US$ 52,62 bilhões até 2030, segundo a Markets and Markets — um CAGR de 46,3%. Ao mesmo tempo, o Cisco AI Readiness Index de 2025 revela que apenas 13% das organizações estão genuinamente preparadas para IA. E apenas 31% conseguem proteger adequadamente sistemas de IA agêntica.

Releia esses números juntos. O mercado cresce a 46% ao ano. 87% das organizações não estão preparadas. 69% não conseguem proteger o que já implantaram.

Isso não é uma lacuna. É um abismo.

O risco é concreto, não teórico. O CVE-2025-53773 — uma vulnerabilidade de execução remota de código via prompt injection no GitHub Copilot, com CVSS 7.8 — demonstra que agentes de codificação são superfícies de ataque reais. Não estamos falando de cenários hipotéticos de pesquisadores acadêmicos. Estamos falando de vulnerabilidades catalogadas, com severidade alta, em ferramentas que milhões de desenvolvedores usam diariamente.

A receita da Anthropic conta outra história. A empresa encerrou 2025 com receita anualizada superior a US$ 9 bilhões, segundo a Bloomberg. Claude Code sozinho gerou US$ 1 bilhão em receita recorrente em seis meses. Essa velocidade de adoção, combinada com a falta de preparação que a Cisco documenta, cria uma dinâmica perigosa: organizações adotam ferramentas poderosas antes de construir a infraestrutura para operá-las com segurança.

Os Quatro Imperativos — Reinterpretados

O artigo da CloudBees propõe quatro imperativos de governança para IA agêntica. Os imperativos são sólidos. O enquadramento é que precisa de revisão — porque a CloudBees vende ferramentas de governança, e o artigo posiciona o problema de forma que a solução seja, convenientemente, comprar um produto.

Vamos reinterpretar cada imperativo pela lente de quem implementa governança como decisão arquitetural, não como aquisição de software.

1. Limites de Autoridade

O que o artigo diz: Defina quais decisões o agente pode tomar autonomamente e quais exigem supervisão humana.

O que isso significa na prática: Esse é o imperativo mais importante e o mais negligenciado. A maioria das organizações implanta agentes sem definir explicitamente seus limites de atuação. O agente pode enviar emails? Modificar dados de produção? Aprovar transações? Acessar informações de clientes?

Se essas perguntas não têm resposta documentada antes da implantação, você não tem governança. Tem esperança.

Limites de autoridade não são configurações de software. São decisões organizacionais que precedem qualquer ferramenta. Quem define os limites? Quem os revisa? Com que frequência? O que acontece quando um agente tenta ultrapassar um limite?

2. Auditabilidade

O que o artigo diz: Mantenha registros completos de todas as ações dos agentes.

O que isso significa na prática: Auditabilidade não é logging. Logging registra eventos. Auditabilidade permite reconstruir o raciocínio — por que o agente tomou determinada decisão, com quais dados, sob quais restrições.

Uma trilha de auditoria eficaz para agentes de IA precisa capturar: o prompt que originou a ação, o contexto disponível no momento da decisão, as alternativas consideradas (quando o modelo as explicita), e o resultado final. Sem isso, você tem um log de eventos sem valor forense.

3. Reversibilidade

O que o artigo diz: Garanta a capacidade de desfazer erros rapidamente.

O que isso significa na prática: Reversibilidade é a consequência prática dos limites de autoridade. Se você definiu que o agente pode rascunhar emails mas não pode enviá-los, o erro é reversível por definição — basta não enviar. Se o agente pode enviar emails autonomamente, a reversibilidade depende de mecanismos técnicos que a maioria das organizações não tem.

O critério de design é simples: ações irreversíveis exigem aprovação humana. Sempre. Sem exceção. Essa regra sozinha elimina a maioria dos riscos catastróficos.

Já discutimos isso em detalhe no nosso artigo sobre o Claude Cowork — e o princípio permanece: irreversibilidade é a linha vermelha que separa delegação segura de negligência operacional.

4. Responsabilização

O que o artigo diz: Mantenha propriedade humana sobre ações iniciadas por IA.

O que isso significa na prática: Responsabilização sem cadeia de comando é abstração vazia. “A empresa é responsável” não resolve nada quando um agente vaza dados de clientes. A pergunta é: quem configurou o agente? Quem aprovou o escopo de acesso? Quem deveria estar monitorando?

O EU AI Act — cuja aplicação completa para sistemas de alto risco entra em vigor em 2 de agosto de 2026 — exige exatamente essa clareza. A Itália já multou a OpenAI em 15 milhões de euros por violações do GDPR. A FTC americana, através da “Operation AI Comply”, executa ações de fiscalização desde setembro de 2024, com mais de oito casos iniciados.

O cenário regulatório não espera que as empresas se preparem. Ele avança — e quem não estiver pronto paga o preço.

O Elefante na Sala: Governança Não É Produto

O artigo da CloudBees apresenta governança como um problema que se resolve com a ferramenta certa. Isso é compreensível — a CloudBees vende ferramentas de CI/CD e DevOps, e o movimento natural é enquadrar governança como extensão do pipeline de entrega.

Mas governança de IA agêntica não é uma camada de software que você adiciona ao stack. É uma decisão arquitetural que permeia toda a organização.

O conceito de “Autonomia Delimitada” — Bounded Autonomy — que o artigo menciona indiretamente, já aparece em trabalhos da XMPro, InfoQ, Salesforce e McKinsey. A ideia é que agentes operem independentemente dentro de restrições bem definidas. É um framework útil. Mas as restrições não são implementadas por um produto. São implementadas por:

  • Políticas organizacionais codificadas — quem pode o quê, até onde, sob quais condições
  • Arquitetura de sistemas — separação de permissões, controle de acesso, isolamento de dados
  • Processos de revisão — pontos de verificação humana em decisões de alto impacto
  • Cultura operacional — a expectativa de que agentes são ferramentas, não colegas autônomos

Comprar uma ferramenta de governança sem essas fundações é como instalar um alarme em uma casa sem portas.

Já argumentamos isso em artigos anteriores — sobre Company as Code como camada de governança, sobre a Constituição do Claude como framework adaptável, sobre os padrões de desempoderamento que surgem quando governança é tratada como produto e não como prática. A confusão do artigo da CloudBees reforça o padrão: o mercado quer soluções simples para problemas complexos.

O Que Organizações Devem Fazer

Os dados da Cisco são a verdadeira história deste artigo. 13% de preparação. 31% de proteção adequada. Em um mercado que cresce a 46% ao ano.

Três movimentos concretos para organizações que querem operar agentes de IA com responsabilidade:

Primeiro: conheça o que você implanta. Se seu time não consegue distinguir os projetos que usa — suas arquiteturas, superfícies de ataque, modelos de licenciamento — você não está pronto para governá-los. A confusão da CloudBees entre OpenClaw e Claude Code não é um erro jornalístico. É sintoma de uma indústria que adota ferramentas mais rápido do que as compreende.

Segundo: codifique seus limites antes de implantar seus agentes. Limites de autoridade, trilhas de auditoria, critérios de reversibilidade, cadeias de responsabilização — tudo isso deve existir como artefato documentado e versionado antes que o primeiro agente entre em operação. Não depois. Não “quando der problema”. Antes.

Terceiro: trate governança como arquitetura, não como aquisição. Nenhum produto resolve governança. Produtos implementam controles específicos dentro de uma arquitetura de governança que você define. Se a arquitetura não existe, o produto é uma ferramenta sem fundação. E ferramentas sem fundação criam a ilusão de segurança — que é pior do que a ausência declarada de segurança.

A Confusão É o Sintoma

Um VP de uma empresa de DevOps publicou um artigo sobre governança de IA que confunde dois projetos fundamentalmente diferentes. O artigo foi amplamente compartilhado. Poucos notaram o erro.

Isso não é falha de um indivíduo. É retrato de um mercado que adota IA agêntica na velocidade de 46% ao ano enquanto 87% das organizações admitem não estar preparadas. É o que acontece quando a urgência de vender supera a disciplina de entender.

Os quatro imperativos de governança do artigo — limites de autoridade, auditabilidade, reversibilidade, responsabilização — são corretos. Mas imperativos sem compreensão precisa do que está sendo governado são retórica, não governança.

Governança real começa com uma pergunta simples: você sabe exatamente o que seus agentes fazem, como fazem, e onde param?

Se a resposta é não — e para 87% das organizações é não — o caminho não é comprar uma ferramenta. É construir uma arquitetura.


Fontes

  • Shafiq Shivji. “When AI Agents Stop Assisting and Start Acting: Why Governance Is the New Differentiator.” CloudBees blog, fevereiro 2026.
  • Markets and Markets. Projeção do mercado de IA agêntica: US$ 7,84B (2025) → US$ 52,62B (2030), CAGR 46,3%.
  • Cisco 2025 AI Readiness Index. 13% das organizações preparadas; 31% protegem adequadamente sistemas agênticos.
  • CVE-2025-53773. Execução remota de código via prompt injection no GitHub Copilot, CVSS 7.8. NVD.
  • Bloomberg. Receita anualizada da Anthropic: US$ 9B+ no final de 2025.
  • Anthropic. Claude Code: US$ 1B em receita recorrente em 6 meses. 2026.
  • EU AI Act. Aplicação para sistemas de alto risco: 2 de agosto de 2026.
  • Garante per la Protezione dei Dati Personali (Itália). Multa de €15M à OpenAI por violações do GDPR.
  • FTC. “Operation AI Comply.” Ativa desde setembro de 2024, 8+ ações de fiscalização.
  • OpenClaw. Assistente pessoal de IA open-source por Peter Steinberger. github.com/nicepkg/openclaw
  • Claude Code. Agente de codificação oficial da Anthropic.

A Victorino ajuda organizações a projetar a arquitetura de governança que IA agêntica exige — antes que a ausência dessa arquitetura se torne um problema regulatório, operacional ou reputacional. Se você precisa de ajuda para definir limites, trilhas de auditoria e cadeias de responsabilização para seus agentes de IA, entre em contato.

Se isso faz sentido, vamos conversar

Ajudamos empresas a implementar IA sem perder o controle.

Agendar uma Conversa