- Início
- Thinking...
- O Paradoxo da Segurança: Como a Pressão Competitiva Desmonta a Governança de IA
O Paradoxo da Segurança: Como a Pressão Competitiva Desmonta a Governança de IA
Há dois anos e meio, a Anthropic fez uma promessa: se um modelo fosse classificado como perigoso durante o desenvolvimento, a empresa pausaria tudo. Sem exceções. Era a Responsible Scaling Policy, o documento que diferenciava a Anthropic de seus concorrentes e justificava o prêmio de preço que compradores corporativos pagavam pela “IA segura.”
Em 24 de fevereiro de 2026, a empresa abandonou essa promessa.
A nova política é mais sutil, mas o efeito é binário. Se um concorrente lançar um modelo com capacidades comparáveis, a Anthropic pode continuar o desenvolvimento mesmo que seus próprios testes indiquem risco. A justificativa, publicada no blog oficial: “The policy environment has shifted toward prioritizing AI competitiveness.”
Tradução direta: a segurança é condicional. Ela vale até o momento em que custa mercado.
A Anatomia de uma Erosão
Não é a primeira vez que uma empresa de tecnologia recua em compromissos de segurança sob pressão competitiva. O que torna este caso instrutivo é a velocidade e a transparência do processo.
A Responsible Scaling Policy era o artefato central de governança da Anthropic. Não era uma página de marketing. Era um documento técnico com critérios operacionais: testes específicos, limiares quantificáveis, compromissos de pausa vinculados a resultados de avaliação. Pesquisadores construíram suas carreiras em torno dessa política.
Mrinank Sharma foi um deles. Pesquisador da Anthropic, Sharma saiu da empresa em fevereiro de 2026. No caminho para fora, publicou um artigo acadêmico (disponível no arXiv) argumentando que ferramentas de IA podem desempoderar seus próprios usuários. Escreveu publicamente que “the world is in peril.” Não é linguagem comum em artigos acadêmicos.
Sharma não foi o único. Vários pesquisadores deixaram a Anthropic e outras empresas de IA no mesmo período. O padrão é consistente: as pessoas que construíram as políticas de segurança estão saindo das empresas que as abandonam.
Quando os engenheiros de segurança abandonam o navio, o navio provavelmente tem problemas que não estão no relatório trimestral.
A Pressão que Ninguém Resiste
Para entender por que a Anthropic cedeu, considere a sequência de eventos das últimas semanas.
O Pentágono deu um ultimato: até 28 de fevereiro, 17h01 ET, os quatro grandes laboratórios de IA precisam concordar com acesso militar “para todos os fins legais.” A alternativa é classificação como risco à cadeia de suprimentos ou invocação do Defense Production Act. A xAI de Elon Musk já assinou. O Grok recebeu acesso a ambientes classificados.
Enquanto isso, a corrida comercial se intensificou. OpenAI, Google e xAI lançam modelos sem as restrições que a Anthropic mantinha. Cada modelo sem compromissos de segurança que chega ao mercado torna a posição da Anthropic mais cara de sustentar. Não é uma questão filosófica. É uma questão de sobrevivência competitiva.
A pressão opera em duas frentes simultâneas. O governo ameaça punição econômica por manter restrições. O mercado penaliza perda de velocidade. A posição intermediária (manter segurança enquanto compete) se torna insustentável quando as duas forças convergem.
O Padrão Histórico
A indústria de tecnologia já viveu esse ciclo antes.
Nos anos 2000, empresas de telecomunicações mantinham políticas robustas de proteção de dados de clientes. Após o 11 de setembro, o governo americano exigiu acesso amplo sob o PATRIOT Act. As empresas que resistiram pagaram caro em litígios e pressão regulatória. As que cederam receberam imunidade retroativa em 2008. A mensagem foi clara: cooperação é recompensada, resistência é punida.
O ciclo com a IA está acelerado. As telecomunicações levaram anos para ceder. A Anthropic levou meses. A diferença é que a pressão competitiva e a pressão governamental chegaram simultaneamente, não em sequência.
O resultado previsível é uma corrida para baixo. Quando a empresa mais comprometida com segurança abandona seus compromissos, o piso desaparece. Não existe incentivo de mercado para ser o mais seguro quando o mais seguro acabou de demonstrar que segurança é negociável.
O Que Isso Significa na Prática
Se você compra ou implementa IA na sua organização, três implicações concretas emergem.
Compromissos de segurança de fornecedores são condicionais. A Responsible Scaling Policy não era uma sugestão. Era o compromisso operacional mais específico que qualquer laboratório de IA havia feito. Se esse compromisso não sobreviveu a dois anos e meio de pressão competitiva, nenhum compromisso voluntário de fornecedor pode ser tratado como garantia. Sua governança precisa funcionar independentemente das promessas do fornecedor.
A saída de pesquisadores é um indicador antecipado. Quando Sharma e outros pesquisadores saem publicamente de empresas de IA citando preocupações com segurança, isso é informação material para avaliação de risco de fornecedor. Não é drama corporativo. É sinal de que a estrutura interna de governança está cedendo antes que a política oficial seja atualizada. Monitore as saídas. Leia o que os ex-pesquisadores publicam.
Governança precisa ser estrutural, não contratual. O modelo de governança baseado em “escolher o fornecedor mais responsável” falhou. A Anthropic era, por qualquer métrica, o fornecedor mais comprometido com segurança no mercado. Se a pressão competitiva forçou a Anthropic a recuar, o modelo de “escolher bem” é insuficiente. Governança precisa existir na sua arquitetura: controles de acesso, monitoramento de saídas, limiares de risco definidos pela sua organização, não pelo fornecedor.
A Pergunta de Fundo
O paper de Sharma no arXiv levanta uma questão que transcende a disputa Anthropic-Pentágono: ferramentas de IA podem desempoderar seus usuários mesmo quando funcionam como projetadas. A preocupação não é que a IA falhe. É que a IA funcione de formas que concentram poder em quem a controla e reduzem a agência de quem a usa.
Quando a empresa que mais investiu em pesquisa sobre desempoderamento digital decide que a competitividade supera a cautela, o sinal é inequívoco. As proteções que existiam não eram insuficientes por acidente. Eram frágeis porque dependiam de incentivos que mudaram.
A governança de IA que sobrevive não é a que depende da boa vontade dos fornecedores. É a que assume, desde o projeto, que fornecedores vão ceder quando a pressão for suficiente. E constrói controles que funcionam mesmo assim.
Toda arquitetura de governança de IA que depende de promessas voluntárias acaba de receber um teste empírico. O resultado foi negativo.
Fontes: Wall Street Journal (24 de fev. 2026), Axios (16 e 19 de fev. 2026), Mrinank Sharma et al., arXiv (arxiv.org/abs/2601.19062). Dados sobre a Responsible Scaling Policy da documentação pública da Anthropic.
Para avaliação de governança e risco de fornecedores de IA: contato@victorino.com.br | www.victorino.com.br
Se isso faz sentido, vamos conversar
Ajudamos empresas a implementar IA sem perder o controle.
Agendar uma Conversa