O Problema do Controle de IA

Empresa como Código: A Camada de Governança que Falta para Agentes de IA

TV
Thiago Victorino
8 min de leitura

Daniel Rothmann, do 42futures, publicou recentemente um artigo propondo que empresas tratem sua estrutura organizacional como código. A ideia: criar um “manifesto da empresa” — uma fonte única de verdade onde papéis, políticas, unidades organizacionais e mapeamentos de compliance vivem como artefatos versionáveis, não como documentos estáticos no SharePoint.

A motivação de Rothmann é prática. Auditorias ISO 27001 consomem centenas de horas-pessoa porque a informação organizacional está espalhada entre wikis, planilhas e documentos desatualizados. Company-as-Code resolve isso da mesma forma que Infrastructure as Code resolveu provisionamento manual de servidores: codificando o que antes era informal.

A observação está correta. Mas o enquadramento é limitado.

O Problema Maior que Compliance

Rothmann propõe Company-as-Code como otimização de compliance. Menos horas em auditoria, menos inconsistência entre documentos, melhor rastreabilidade. Tudo válido. Mas isso é como justificar Infrastructure as Code apenas porque facilita relatórios de inventário. Verdade, mas não é o ponto.

O valor real de codificar sua organização aparece quando você pergunta: quem vai consumir essa informação?

Hoje, humanos. Amanhã — e em muitas empresas, já hoje — agentes de IA.

Quando agentes autônomos entram na força de trabalho, eles precisam de contexto organizacional para operar. Não como sugestão, não como referência. Como requisito funcional. Um agente que processa faturas precisa saber quem aprova o quê, até qual valor, sob quais condições. Um agente que responde tickets precisa conhecer a hierarquia de escalonamento, as políticas de SLA, os limites do que pode prometer. Um agente que gera código precisa entender quais repositórios pode acessar, quais padrões seguir, quais aprovações solicitar.

Nada disso funciona se a informação está em páginas do Confluence que ninguém atualiza.

A Lei de Conway Precisa de Uma Atualização

Melvin Conway observou em 1967 que organizações produzem sistemas que espelham suas estruturas de comunicação. Uma empresa com três divisões produz software com três módulos. A “manobra inversa de Conway” propõe reestruturar times deliberadamente para obter a arquitetura desejada.

Ambas as formulações assumem que os participantes são humanos que leem organogramas, absorvem cultura organizacional e deduzem limites implícitos.

Agentes de IA não fazem nada disso.

Um agente não “absorve cultura”. Não deduz que “ninguém mexe no módulo de billing sem falar com a Maria” porque presenciou três reuniões onde isso ficou implícito. Um agente opera com o que recebe como contexto explícito. Se a regra não está codificada, a regra não existe.

Isso exige uma atualização da Lei de Conway: quando sua força de trabalho inclui máquinas, sua estrutura organizacional não apenas molda o código — ela precisa ser expressa como código. Não por conveniência, mas por necessidade operacional.

O Que Rothmann Acerta — e o Que Falta

O artigo do 42futures propõe uma arquitetura técnica para Company-as-Code: um modelo de grafos (não-dirigido e cíclico, diferente dos DAGs do Infrastructure as Code) para representar relações organizacionais, uma DSL declarativa para definir entidades e políticas, e uma arquitetura multi-store combinando graph database, banco relacional e event logs.

A proposta técnica é sólida. Relações organizacionais são de fato grafos cíclicos — um gerente reporta ao diretor que participa do comitê que governa o projeto que o gerente lidera. DAGs não capturam isso. E a DSL declarativa permite que líderes de negócio modifiquem a estrutura via interface low-code enquanto o versionamento opera por baixo.

Rothmann também desenvolveu o Firm, uma DSL open-source para gestão de trabalho baseada em texto, que trata relações de negócio como grafos consultáveis. A direção é consistente.

O que falta é a implicação mais significativa: agentes como entidades de primeira classe no manifesto.

No modelo de Rothmann, o manifesto descreve pessoas, papéis, unidades e políticas. Em um modelo completo, agentes de IA apareceriam ali como entidades com papéis, permissões e restrições — funcionários digitais registrados na mesma fonte de verdade que seus colegas humanos.

Policy as Code Já Existe. Falta a Camada Organizacional.

A ideia de codificar políticas não é nova. Open Policy Agent (OPA) e HashiCorp Sentinel já permitem definir políticas de acesso e compliance como código executável. Terraform e Pulumi codificam infraestrutura. Pipelines de CI/CD codificam processos de deploy.

Cada uma dessas ferramentas resolve uma camada:

  • Infrastructure as Code: onde o software roda
  • Pipeline as Code: como o software é entregue
  • Policy as Code: o que é permitido fazer
  • Company as Code: quem faz o quê, por quê e sob quais condições

A última camada é a que falta. E é exatamente a camada que agentes autônomos precisam para operar com governança.

Sem ela, cada agente precisa ser configurado individualmente com seu contexto organizacional. Políticas são duplicadas entre agentes. Mudanças organizacionais — uma reestruturação de times, uma nova política de aprovação — precisam ser propagadas manualmente para cada sistema. É o equivalente organizacional de configurar servidores à mão antes do Terraform.

O Experimento de Carlini Ilustra o Problema

Nicholas Carlini, pesquisador da Anthropic, colocou recentemente 16 instâncias do Claude para construir um compilador C em paralelo. O resultado técnico foi impressionante — 100.000 linhas de código funcional. Mas a lição relevante aqui é outra.

O maior esforço de Carlini não foi em prompts ou instruções. Foi em infraestrutura de coordenação: lock files para evitar colisões, task claiming para evitar duplicação, testes de integração para detectar incompatibilidades. Governança operacional codificada como mecanismos técnicos.

Isso funcionou para 16 agentes trabalhando em um único repositório com um objetivo claro. Agora imagine dezenas ou centenas de agentes operando em uma organização inteira, interagindo com múltiplos departamentos, seguindo políticas diferentes conforme o contexto, escalando decisões para humanos diferentes dependendo do domínio.

Sem uma camada de governança organizacional legível por máquina, a coordenação se torna impossível na escala.

Implicações Práticas

Se sua organização está construindo ou planejando programas de IA com agentes autônomos, três questões merecem atenção.

Sua estrutura organizacional é legível por máquina? Organogramas em PowerPoint e políticas em PDFs não servem para agentes. Se um agente precisa saber quem aprova uma despesa acima de R$ 50.000, essa informação precisa estar em um formato que ele consiga consultar programaticamente. JSON, YAML, uma API — o formato importa menos que a acessibilidade.

Suas políticas são executáveis ou declarativas? Há uma diferença entre “o gerente regional aprova compras acima de R$ 10.000” escrito em um documento e a mesma regra expressa como lógica consultável. Agentes não interpretam documentos — executam regras. Se a regra não é executável, o agente não consegue cumpri-la.

Agentes estão no seu modelo organizacional? Na maioria das empresas, agentes de IA são tratados como ferramentas, não como entidades organizacionais. Não têm papéis formais, não aparecem em hierarquias de aprovação, não têm limites explícitos de atuação. Isso funciona quando agentes são assistentes pontuais. Não funciona quando operam de forma autônoma.

O Sequenciamento Correto

A tentação é esperar. Primeiro implantar agentes, depois resolver a governança quando surgirem problemas. Esse sequenciamento está invertido.

Codificar a camada organizacional primeiro — mesmo que de forma incremental — significa que cada agente implantado já nasce dentro de limites definidos. O manifesto organizacional se torna o contexto padrão que todo agente recebe ao ser instanciado. Mudanças nas políticas propagam automaticamente para todos os agentes. Auditoria se torna consulta ao log de eventos, não escavação arqueológica em e-mails.

Rothmann enquadrou Company-as-Code como otimização de compliance. É mais que isso. É a infraestrutura de governança que torna operações com agentes autônomos viáveis em escala.

A organização que codifica sua estrutura primeiro não está apenas economizando horas de auditoria. Está construindo a camada que seus agentes de IA vão precisar para operar como cidadãos produtivos — e governáveis — da organização.


Fontes

  • Daniel Rothmann. “Company as Code.” 42futures blog, fevereiro 2025.
  • Firm DSL — ferramenta open-source para gestão de trabalho baseada em texto. github.com/42futures/firm
  • Melvin Conway. “How Do Committees Invent?” Datamation, abril 1968.
  • Nicholas Carlini. Experimento de compilador C construído por 16 instâncias do Claude. Fevereiro 2026.
  • Open Policy Agent (OPA) — motor de políticas para cloud-native. openpolicyagent.org
  • HashiCorp Sentinel — policy as code framework. hashicorp.com/sentinel

A Victorino ajuda organizações a construir a infraestrutura de governança que agentes autônomos de IA precisam para operar dentro de limites definidos. Se você está avaliando a implantação de agentes e precisa de ajuda para projetar a camada organizacional que os viabiliza, entre em contato.

Se isso faz sentido, vamos conversar

Ajudamos empresas a implementar IA sem perder o controle.

Agendar uma Conversa