Implementação Governada

A Convergência da Contenção: NVIDIA, Docker e OpenAI Lançaram Sandboxes na Mesma Semana

TV
Thiago Victorino
13 min de leitura
A Convergência da Contenção: NVIDIA, Docker e OpenAI Lançaram Sandboxes na Mesma Semana

Em fevereiro, documentamos quatro empresas lançando infraestrutura de contenção em uma semana. Cursor construiu sandboxing a nível de sistema operacional. Docker lançou sandboxes com isolamento de credenciais. Zenity publicou probes de ativação. Entire levantou US$ 60 milhões para governança baseada em checkpoints.

Três semanas depois, aconteceu de novo. Maior.

Em 11 de março, a NVIDIA disponibilizou o OpenShell como código aberto --- um runtime com quatro camadas de políticas de governança para agentes de IA. No mesmo dia, Docker publicou sua arquitetura de orquestração de times de agentes com isolamento via microVM. A OpenAI lançou o ambiente computacional do Responses API com proxies de saída e injeção de credenciais por domínio. Em 16 de março, a NVIDIA apresentou o NemoClaw no GTC, transformando o framework viral OpenClaw em uma plataforma enterprise com segurança integrada. E a OpenAI publicou um argumento técnico sobre por que o Codex Security usa fronteiras de confiança semânticas em vez de análise estática tradicional.

Cinco lançamentos. Uma semana. Nenhuma coordenação.

O padrão de contenção que identificamos em fevereiro não está mais emergindo. Está convergindo para uma arquitetura compartilhada.

A Arquitetura Compartilhada

O que torna esta semana diferente de fevereiro não é o número de lançamentos. É a similaridade dos designs. Três organizações, com modelos de negócio diferentes e bases de clientes diferentes, chegaram independentemente à mesma stack de contenção:

Governança declarativa via YAML. O OpenShell da NVIDIA usa arquivos de política YAML que controlam quatro camadas: sistema de arquivos, rede, processos e inferência. Políticas estáticas travam na criação do sandbox. Políticas dinâmicas (rede, inferência) suportam hot-reload via openshell policy set sem reiniciar o container. O Docker Agent usa arquivos de configuração YAML que definem papéis de agentes, modelos, hierarquias de sub-agentes e permissões de ferramentas. A especificação de governança se tornou um arquivo YAML.

Proxy de saída como fronteira de confiança. O policy engine do OpenShell intercepta todas as conexões de saída e executa uma de três ações: permitir, rotear para inferência, ou negar com registro. O Responses API da OpenAI roteia todas as requisições de rede de saída através de um proxy de saída sidecar que aplica listas de permissão e controles de acesso. O Docker Sandboxes fornece isolamento de rede com listas de permissão/negação configuráveis. O padrão é idêntico nos três: nenhum acesso de saída direto. Tudo passa por uma camada de política.

Isolamento de credenciais do ambiente do agente. O OpenShell injeta chaves de API como variáveis de ambiente em runtime; elas nunca existem no sistema de arquivos do sandbox. A OpenAI usa injeção de segredos por domínio na saída --- o modelo e o container veem apenas placeholders, enquanto os valores reais permanecem fora do contexto visível pelo modelo e são aplicados apenas para destinos aprovados. A arquitetura anterior do Docker usava injeção de credenciais via proxy de rede com valores sentinela. O agente nunca possui a chave real.

Isso não é coincidência. É evolução convergente. As mesmas restrições de engenharia --- agentes precisam de acesso à rede, agentes não devem possuir segredos, agentes precisam de autonomia limitada --- produzem as mesmas soluções arquiteturais independentemente de quem está construindo.

NVIDIA OpenShell: Política como Infraestrutura

O OpenShell é o mais arquiteturalmente explícito dos três. Seu modelo de segurança em quatro camadas mapeia contenção em uma taxonomia:

CamadaProteçãoMutabilidade
Sistema de ArquivosRestringe leituras/escritas a caminhos permitidosTravada na criação
RedeBloqueia conexões de saída não autorizadasHot-reloadable
ProcessoPrevine escalação de privilégios, syscalls perigosasTravada na criação
InferênciaRedireciona chamadas de API de modelo para backends gerenciadosHot-reloadable

A stack inteira roda como K3s (Kubernetes leve) dentro de um único container Docker. A distinção entre políticas estáticas e dinâmicas é a decisão de design mais interessante. Políticas de sistema de arquivos e processo não podem mudar após a criação do sandbox --- um agente não pode negociar acesso mais amplo a arquivos ou escalação de privilégios durante a sessão. Políticas de rede e inferência podem ser atualizadas em tempo real.

Isso mapeia como governança funciona no mundo real. Algumas fronteiras são constitucionais --- não mudam durante a sessão. Outras são operacionais --- se adaptam conforme a tarefa evolui. O OpenShell codifica essa distinção diretamente no policy engine.

Docker: De Sandboxes a Times de Agentes

A contribuição do Docker esta semana vai além do isolamento. A arquitetura Docker Agent + Docker Sandboxes resolve um problema que os lançamentos de fevereiro não abordaram: coordenação multi-agente dentro de fronteiras de contenção.

O Docker Agent permite times de agentes especializados --- um gerente de produto, um designer, um engenheiro, um especialista de QA --- cada um com seu próprio modelo, seu próprio contexto e suas próprias permissões de ferramentas. O agente raiz coordena a delegação. Cada agente opera dentro de um Docker Sandbox rodando em uma microVM dedicada (Docker Desktop 4.60+).

O modelo de segurança é direto. Agentes não podem acessar arquivos fora do workspace montado. Isolamento de rede usa listas de permissão/negação configuráveis. Se um agente comete um erro, está contido na sua microVM. docker sandbox rm e começar de novo.

A dimensão multi-agente importa porque implantações enterprise não serão de agente único. Um workflow que envolve pesquisa, geração de código, testes e deploy requer múltiplos agentes com capacidades e níveis de confiança diferentes.

OpenAI: O Runtime do Agente

O ambiente computacional do Responses API da OpenAI é o runtime de agente mais completo dos três, mas segue os mesmos princípios de contenção.

A shell tool permite que o modelo proponha comandos; o Responses API orquestra a execução em um container hospedado. O modelo pode propor múltiplos comandos shell concorrentemente. A API multiplexa sessões de execução. A saída é limitada por comando para controlar orçamentos de contexto.

A camada de contenção está na rede. Todas as requisições de saída passam por um proxy de saída centralizado. Injeção de segredos por domínio significa que o modelo nunca vê credenciais reais --- apenas placeholders que o proxy troca por valores reais em destinos aprovados. Isso é arquiteturalmente idêntico à abordagem de valores sentinela do Docker em fevereiro e à injeção de credenciais do OpenShell via variáveis de ambiente.

A OpenAI também introduziu Agent Skills --- pacotes de workflow reutilizáveis com um arquivo SKILL.md e recursos de suporte. Skills são bundles versionados carregados no container antes da execução. Isso não é contenção em si, mas é a camada de workflow que torna a contenção prática. Sem padrões reutilizáveis, cada sessão de agente redescobre os mesmos workflows, e governança se torna impossível de padronizar.

NemoClaw: OpenClaw Enterprise

O segundo lançamento da NVIDIA na semana, o NemoClaw, resolve a lacuna de governança que tornava o OpenClaw inadequado para empresas. O OpenClaw, o framework local de agentes de código aberto que viralizou no início de 2026, teve um banco de dados inseguro que permitia qualquer pessoa se passar por qualquer agente na plataforma. Várias grandes empresas, incluindo a Meta, proibiram seu uso em máquinas corporativas.

O NemoClaw é o OpenClaw com segurança enterprise integrada. O enquadramento de Jensen Huang no GTC foi explícito: “Toda empresa no mundo hoje precisa ter uma estratégia de OpenClaw, uma estratégia de sistemas agênticos.” A NVIDIA trabalhou com Peter Steinberger, criador do OpenClaw, para construir o NemoClaw como a versão segura para empresas.

A plataforma integra com o framework NeMo da NVIDIA e a camada de microsserviços NIM. O modelo backbone é o Nemotron 3 Nano --- 30 bilhões de parâmetros, janela de contexto de 1 milhão de tokens, arquitetura híbrida Mixture-of-Experts. Uma variante Super de ~100 bilhões de parâmetros é esperada em breve.

O NemoClaw está atualmente em alpha. Mas o padrão estratégico é claro: pegar um framework de agentes de código aberto viral, adicionar infraestrutura de governança, e posicioná-lo como o padrão enterprise. É o playbook da CUDA aplicado a software --- doar a plataforma para criar dependência no hardware.

Codex Security: Fronteiras de Confiança Além do Sandbox

A quinta peça da convergência desta semana é a explicação da OpenAI sobre por que o Codex Security não começa com um relatório SAST. Não é um produto de contenção, mas revela uma filosofia de contenção que importa.

Análise estática tradicional rastreia dados da fonte ao destino e verifica se um sanitizador existe no caminho. O Codex Security argumenta que isso é insuficiente porque “há uma grande diferença entre ‘o código chama um sanitizador’ e ‘o sistema é seguro’.” A verificação pode rodar antes da decodificação. A validação pode não sobreviver à cadeia de transformação. A invariante pode não se manter através de fronteiras de contexto.

O Codex Security começa pela arquitetura do repositório e suas fronteiras de confiança. Escreve micro-fuzzers para fatias de código suspeitas. Usa z3-solver para raciocínio de restrições. Executa hipóteses em ambientes sandboxed para produzir provas de conceito.

A relevância para contenção é esta: sandboxing em runtime restringe o que um agente pode fazer. Fronteiras de confiança semânticas restringem o que um agente deveria fazer. O primeiro é necessário, mas insuficiente. Um agente rodando dentro de um sandbox perfeito ainda pode produzir código que é seguro no perímetro e quebrado na lógica. Como analisamos anteriormente, sandboxing previne exfiltração mas não drift arquitetural, erros lógicos, ou violações de invariantes.

A stack de contenção está ganhando uma nova camada: não apenas “o que o agente pode acessar” mas “o output do agente mantém as propriedades de confiança que o sistema requer.”

A Taxonomia Atualizada

Em fevereiro, propusemos uma taxonomia de quatro camadas. Os dados desta semana expandem:

CamadaAbordagemProvedores (Fev)Provedores (Mar)
OSRestrição de syscall + sistema de arquivosCursorOpenShell (camadas filesystem + processo)
VM/ContainerRuntime isolado + proxy de credenciaisDockerDocker Sandboxes (microVM), OpenAI (container hospedado), OpenShell (container K3s)
RedeProxy de saída + segredos por domínioDocker (proxy de credenciais)OpenShell, OpenAI, Docker (todos três)
ModeloProbes de ativação internaZenity---
ProcessoTrilha de auditoria de raciocínioEntire---
PolíticaGovernança declarativa YAML---OpenShell, Docker Agent, NemoClaw
SemânticaAnálise de fronteiras de confiança---Codex Security

A convergência na camada de proxy de saída de rede é a mais significativa. Quando três organizações independentes implementam o mesmo padrão de sidecar-proxy-com-injeção-de-credenciais na mesma semana, isso não é uma escolha de design. É um requisito de design. Controle de saída com isolamento de segredos está se tornando tão fundamental para infraestrutura de agentes quanto TLS é para infraestrutura web.

O Que Isso Significa para Empresas

A pergunta de fevereiro era “qual é sua fronteira de confiança?” A pergunta de março é mais específica: você implementou os três elementos que toda plataforma importante agora considera obrigatórios?

Governança declarativa. Suas políticas de contenção de agentes devem ser arquivos YAML em controle de versão, revisados como código, auditados como políticas IAM. Se sua governança ainda é aprovação por ação individual, você está operando um modelo que a indústria inteira abandonou este mês.

Proxy de saída. Toda requisição de saída de um ambiente de agente deve passar por uma camada de política que aplica listas de permissão, injeta credenciais no nível do domínio, e registra todo o tráfego. Se agentes possuem chaves de API reais ou têm acesso irrestrito à rede, sua fronteira de contenção tem um furo exatamente onde cada vendor esta semana colocou sua defesa primária.

Isolamento de credenciais. O agente nunca deve ver o segredo real. Placeholders, valores sentinela, injeção de variáveis de ambiente em runtime --- o mecanismo específico varia, mas o princípio é agora universal. A credencial vive fora do ambiente do agente e é aplicada apenas em destinos aprovados.

Estas não são recomendações aspiracionais. São o mínimo arquitetural que NVIDIA, Docker e OpenAI lançaram em produção esta semana.

A Velocidade da Convergência

Em fevereiro, quatro empresas lançando contenção em uma semana era notável. Em março, três empresas lançando independentemente a mesma arquitetura de contenção em uma semana é uma transição de fase.

O padrão de contenção não está se tornando padrão através de comitê ou especificação. Está se tornando padrão através de implementação convergente. Quando toda plataforma importante chega a governança YAML, proxies de saída e isolamento de credenciais independentemente, o padrão existe quer alguém tenha escrito ou não.

Para empresas construindo infraestrutura de agentes, a implicação é clara: as decisões arquiteturais não são mais debatíveis. Os detalhes de implementação variam, mas a stack de contenção convergiu. Construa para esta arquitetura agora, ou gaste o próximo trimestre retrofitando.


Cinco lançamentos. Uma semana. Uma arquitetura. A convergência da contenção não é uma tendência. É infraestrutura se tornando padrão.

Fontes

O Victorino Group ajuda organizações a construir infraestrutura de contenção de agentes alinhada com a arquitetura que a indústria convergiu esta semana. Vamos conversar.

Se isso faz sentido, vamos conversar

Ajudamos empresas a implementar IA sem perder o controle.

Agendar uma Conversa