- Início
- The Thinking Wire
- Toda Tentativa de Governança para Labs de IA Falhou. DeepMind Explica Por Quê.
Toda Tentativa de Governança para Labs de IA Falhou. DeepMind Explica Por Quê.
Entre 2015 e 2017, Demis Hassabis e sua equipe no DeepMind tentaram quatro reformas estruturais de governança distintas para impedir que sua pesquisa em IA se tornasse instrumento de monopólio corporativo. Todas foram vetadas.
O relato de Sebastian Mallaby sobre o “Project Mario”, publicado em março de 2026 como trecho de The Infinity Machine, é o registro mais detalhado que temos do que acontece quando pessoas genuinamente motivadas tentam construir estruturas de governança ao redor de laboratórios de IA. O registro é devastador. Não porque os envolvidos fossem maus atores, mas porque as dinâmicas que enfrentaram são estruturais. Elas derrotariam qualquer equipe em qualquer organização.
Isso importa além da história. O padrão que Mallaby documenta está se repetindo agora, em cada lab de fronteira. Se você está desenhando governança para sistemas de IA dentro da sua organização, precisa entender por que ela continua falhando nos lugares com mais recursos e motivação para acertar.
Quatro Tentativas, Quatro Fracassos
Tentativa 1: O Comitê de Segurança AGI (agosto de 2015). Hassabis convocou a primeira reunião formal de segurança de AGI na sede da SpaceX. O encontro incluía Elon Musk, que havia cofundado a OpenAI meses antes, e Larry Page, cuja Alphabet adquirira o DeepMind em 2014. A reunião fracassou antes que qualquer mecanismo de governança pudesse ser proposto. Musk e Page estavam pessoalmente em conflito sobre filosofia de IA. Musk acreditava que IA representava risco existencial. Page considerava essa posição “especista”. A tensão pessoal entre dois bilionários impediu a conversa de chegar à substância.
Tentativa 2: O Board 3-3-3 (final de 2015). Após a reestruturação da Alphabet, Hassabis propôs um “board 3-3-3” para o DeepMind: três assentos para o DeepMind, três para a Alphabet, três para diretores independentes. A estrutura não daria a nenhum dos lados controle unilateral. A proposta nunca chegou à negociação formal. A liderança da Alphabet não via razão para diluir autoridade sobre uma subsidiária que possuía integralmente.
Tentativa 3: O Spin-Out (primeiro semestre de 2016). Hassabis se reuniu com Larry Page quatro vezes para negociar um spin-out formal. Um term sheet foi redigido. O DeepMind se tornaria uma “aposta” independente da Alphabet, com sua própria estrutura de governança. Em 21 de novembro de 2016, David Drummond, Chief Legal Officer do Google, bloqueou o acordo. O advogado corporativo tinha mais poder operacional que o relacionamento do fundador com o CEO.
Tentativa 4: A Global Interest Company (2017). Esta foi a proposta mais ambiciosa. Uma “company limited by guarantee” não tem ações, não paga dividendos e opera vinculada ao seu estatuto. É a separação estrutural mais limpa entre missão e lucro. Reid Hoffman comprometeu US$ 1 bilhão para financiar um plano de saída do DeepMind caso a Alphabet recusasse. Pichai contra-atacou propondo dividir o DeepMind em dois. Em junho de 2017, o DeepMind anunciou a estrutura “Global Interest Company” à própria equipe. Na mesma semana, o Google vetou a proposta. O artigo do transformer, “Attention Is All You Need”, foi publicado no mesmo mês, e o valor comercial da pesquisa em IA tornou impossível para qualquer empresa-mãe abrir mão.
O Padrão: Por Que Governança Perde
Lendo o relato de Mallaby com atenção, a mesma dinâmica se repete nas quatro tentativas. Ela não é exclusiva do DeepMind ou da Alphabet.
Detentores de poder não têm incentivo para diluir poder. Parece óbvio. Não é. Cada proposta de governança pressupunha que a liderança da Alphabet aceitaria restrições à própria autoridade porque a missão exigia. Mas a Alphabet era dona do DeepMind. Pagava as contas. Do ponto de vista deles, propostas de governança eram pedidos para entregar o controle de um ativo que haviam comprado. Nenhum argumento ético altera o cálculo de propriedade.
Controle operacional vence desenho estrutural. Hassabis tinha relação direta com Larry Page. Tinha bilionários como apoiadores. Tinha uma equipe disposta. Nada disso importou quando David Drummond, um advogado corporativo, decidiu que o acordo não servia ao Google. Quem controla a linha de assinatura controla o resultado. Propostas de governança que precisam de aprovação da entidade governada são pedidos, não reformas.
O timing trabalha contra a governança. A cada mês que a pesquisa do DeepMind ganhava mais valor comercial, o argumento para independência estrutural enfraquecia. O artigo do transformer foi publicado durante a última negociação de governança. Quanto mais valioso o ativo, mais firme a empresa-mãe o segura. Janelas de governança se fecham conforme a capacidade avança. Este é o paradoxo central: o momento em que governança de IA se torna mais necessária é exatamente o momento em que se torna menos alcançável.
Dinâmicas pessoais atropelam desenho institucional. O primeiro comitê de segurança fracassou porque Musk e Page não conseguiam estar numa sala de forma produtiva. O paralelo com a OpenAI é idêntico. Em setembro de 2017, Ilya Sutskever e Greg Brockman confrontaram Musk e Altman sobre o controle da OpenAI. Sutskever disse diretamente a Musk: “A estrutura atual oferece a você um caminho onde acaba com controle unilateral absoluto sobre a AGI.” Depois virou para Altman: “A AGI é realmente sua motivação principal? Como ela se conecta aos seus objetivos políticos?” Estes não eram problemas estruturais. Eram perguntas sobre ambição individual disfarçadas de forma institucional.
O Fracasso Espelhado na OpenAI
O relato de Mallaby torna o paralelo explícito, e ele é devastador para quem acredita que estrutura de governança sozinha resolve o problema.
O DeepMind queria governança sem fins lucrativos sobre recursos com fins lucrativos. Tentaram criar uma estrutura vinculada à missão que pudesse acessar o capital da Alphabet sem ser capturada pelos incentivos da Alphabet.
A OpenAI queria o inverso: economia com fins lucrativos sobre governança sem fins lucrativos. Criaram uma estrutura de “lucro limitado” para atrair investimento enquanto preservavam o controle da missão pelo board da organização sem fins lucrativos.
Ambas falharam. O DeepMind nunca alcançou independência estrutural. O board sem fins lucrativos da OpenAI tentou demitir Sam Altman em novembro de 2023 e foi atropelado em dias pela pressão dos investidores, revolta dos funcionários e veto implícito da Microsoft. O conselho que deveria ter autoridade final descobriu que autoridade evapora quando as pessoas com alavancagem econômica discordam.
Dois laboratórios. Abordagens estruturais opostas. Mesmo resultado: dinâmicas de poder corporativo venceram.
Por Que “Company Limited by Guarantee” Era a Ideia Certa Que Nunca Poderia Funcionar
O detalhe mais interessante no relato de Mallaby é a proposta de “company limited by guarantee”. É uma forma jurídica britânica em que a entidade não tem acionistas, não tem equity e não paga dividendos. Opera exclusivamente para cumprir seu estatuto. Os governadores da entidade não podem lucrar com seu sucesso.
Essa estrutura elimina o cálculo de propriedade que derrotou todas as outras propostas. Se ninguém é dono da empresa, ninguém tem interesse financeiro em resistir a restrições de governança. A missão e a estrutura de incentivos apontam na mesma direção.
Nunca foi implementada. Não porque a estrutura fosse falha, mas porque exigia que a Alphabet liberasse o DeepMind por completo. Não se cria uma entidade vinculada a estatuto dentro de uma empresa-mãe que maximiza lucro. A solução estrutural exigia a única coisa que nenhum detentor de poder concede voluntariamente: desinvestimento total de um ativo valioso sem compensação.
O compromisso de US$ 1 bilhão de Hoffman para financiar uma saída pretendia resolver isso, tornando a partida crível. Mas partir exigia que pessoas saíssem, e pessoas têm hipotecas, cronogramas de vesting de ações e famílias. O problema de ação coletiva é real mesmo quando o financiamento está resolvido.
O Que Isso Significa para Governança de IA nas Empresas
A história do DeepMind é sobre um laboratório de fronteira, mas o padrão se aplica a toda organização que implanta sistemas de IA.
Governança imposta pela entidade governada não é governança. Se seu comitê de governança de IA reporta ao mesmo executivo que controla o orçamento de IA, você tem um comitê consultivo, não um órgão de governança. Como exploramos em Anthropic e o Pentágono, até pressão de governança externa (do exército americano, nada menos) luta contra estruturas de incentivo corporativo. Governança interna tem ainda menos alavancagem.
Governança precisa ser desenhada antes que o ativo ganhe valor. A melhor chance do DeepMind de conseguir independência estrutural era antes do transformer, antes do AlphaGo, antes que o potencial comercial de sua pesquisa fosse óbvio. Uma vez que o valor do ativo ficou claro, toda negociação virou disputa de soma zero sobre quem controla o retorno. O mesmo vale dentro das empresas. Construa governança nos programas de IA desde o início, quando os sistemas são experimentos. Quando começam a gerar receita, o cálculo político vira contra a restrição.
Separe a função de governança da função governada financeiramente. A ideia da “company limited by guarantee” aponta para o princípio correto, mesmo que a forma específica seja impraticável para a maioria das organizações. Órgãos de governança que dependem do orçamento daquilo que governam serão sempre capturados. Financie governança de forma independente. Dê a ela linhas de reporte que não passem pela liderança do programa de IA.
Aceite que governança é uma disputa de poder, não um problema de design. Os engenheiros e pesquisadores do DeepMind projetaram quatro propostas de governança estruturalmente sólidas. Falharam porque governança não é um desafio de engenharia. É uma negociação entre partes com poder desigual e incentivos desalinhados. Desenhe estruturas melhores, sem dúvida. Mas se você não construir também a coalizão política para defender essas estruturas quando forem testadas, o design é acadêmico.
A Conclusão Incômoda
O relato de Mallaby força uma conclusão que otimistas de governança (inclusive eu) prefeririam evitar.
Toda tentativa de governança estrutural para laboratórios de IA falhou. Não algumas. Todas. Não porque as estruturas fossem mal desenhadas. Porque as dinâmicas de poder que a governança deveria restringir são as mesmas que determinam se a governança é implementada.
O transformer foi publicado no mesmo mês em que o Google matou a última proposta de governança do DeepMind. Capacidade não espera governança. Nunca esperou. A pergunta para toda organização que constrói ou implanta IA não é se sua estrutura de governança é bem desenhada. É se ela sobrevive ao momento em que alguém com mais poder decide que ela é inconveniente.
A história diz que não sobrevive. A tarefa é provar que a história está errada. Isso começa por entender, com clareza e sem ilusão, por que ela esteve certa até agora.
Fontes
- Sebastian Mallaby. “Project Mario: Demis Hassabis and DeepMind.” Março 2026.
A Victorino ajuda organizações a projetar estruturas de governança de IA que sobrevivem ao contato com dinâmicas de poder: contato@victorino.com.br | www.victorino.com.br
Todos os artigos do The Thinking Wire são escritos com o auxílio do modelo LLM Opus da Anthropic. Cada publicação passa por pesquisa multi-agente para verificar fatos e identificar contradições, seguida de revisão e aprovação humana antes da publicação. Se você encontrar alguma informação imprecisa ou deseja entrar em contato com o editorial, escreva para editorial@victorino.com.br . Sobre o The Thinking Wire →
Se isso faz sentido, vamos conversar
Ajudamos empresas a implementar IA sem perder o controle.
Agendar uma Conversa