- Início
- Thinking...
- Anthropic e o Pentágono: Quando Segurança de IA Vira Risco na Cadeia de Suprimentos
Anthropic e o Pentágono: Quando Segurança de IA Vira Risco na Cadeia de Suprimentos
O Secretário de Defesa Pete Hegseth está próximo de classificar a Anthropic como “risco à cadeia de suprimentos.” Essa classificação é normalmente reservada para adversários estrangeiros como a Huawei ou a Kaspersky. O alvo aqui é uma empresa de IA de São Francisco cujo principal problema é insistir que sua tecnologia não deve ser usada para vigilância doméstica em massa ou armas totalmente autônomas.
Isto não é uma história sobre contratos militares. É uma história sobre governança que afeta toda empresa avaliando fornecedores de IA.
O Que Aconteceu
Os fatos, reunidos a partir de reportagens do Axios, New York Times, Wall Street Journal e Fast Company entre 13 e 19 de fevereiro de 2026:
O Claude, da Anthropic, é o único modelo de IA de fronteira implantado nas redes classificadas do Pentágono, integrado através de uma parceria com a Palantir. O contrato é avaliado em até US$ 200 milhões. No verão de 2025, o Departamento de Defesa assinou o acordo. Em janeiro de 2026, o Claude foi utilizado durante a operação militar dos EUA para capturar o presidente venezuelano Nicolás Maduro.
Após a operação, as tensões se intensificaram. O Wall Street Journal reportou que funcionários da Anthropic expressaram preocupações à Palantir sobre o papel que o Claude desempenhou. A Anthropic nega qualquer contato desse tipo. O Pentágono afirma que aconteceu.
Agora, o Pentágono exige que os quatro grandes laboratórios de IA — Anthropic, OpenAI, Google e xAI — concordem em permitir que os militares usem seus modelos para “todos os fins legais.” A Anthropic está disposta a flexibilizar seus termos, mas quer manter duas restrições: nada de vigilância doméstica em massa e nada de armas totalmente autônomas. O Pentágono diz que essas condições são impraticáveis.
Um alto funcionário do Pentágono disse ao Axios: “Vai ser uma enorme dor de cabeça desembaraçar tudo, e vamos garantir que eles paguem o preço por nos forçar a isso.”
A Classificação como Arma de Governança
O termo “risco à cadeia de suprimentos” tem significado jurídico e regulatório específico na aquisição federal. Sob o Federal Acquisition Regulation, uma classificação de risco à cadeia de suprimentos exige que toda empresa que faça negócios com o Pentágono certifique que não depende da entidade classificada em suas operações.
A Anthropic afirma que oito das dez maiores empresas americanas usam o Claude. Mesmo descontando isso como dado auto-reportado de um anúncio de captação, o Claude está embutido em pilhas tecnológicas empresariais de diversos setores. Uma classificação de risco à cadeia de suprimentos forçaria fornecedores de defesa a auditar todo o seu aparato tecnológico em busca do uso do Claude — um exercício de conformidade de escopo gigantesco.
Alex Bores, ex-funcionário da Palantir agora candidato ao Congresso, descreveu a consequência prática: “A vasta maioria das empresas que agora usam o Claude de repente se tornariam inelegíveis para trabalhar com o governo.”
Isto não tem precedentes. Classificações de cadeia de suprimentos visam adversários estrangeiros que representam riscos de inteligência ou sabotagem. Usar esse mecanismo contra uma empresa doméstica por uma divergência sobre termos de segurança de IA transforma uma ferramenta de aquisição em uma arma de governança.
O Problema dos “Todos os Fins Legais”
A demanda do Pentágono soa razoável isoladamente. “Todos os fins legais” implica que nada ilegal aconteça. O problema é que “legal” no contexto de vigilância por IA e armas autônomas é pobremente definido.
A legislação existente sobre vigilância em massa foi escrita antes que a IA tornasse possível processar, correlacionar e agir sobre dados em escala populacional em tempo real. O Pentágono já tem autoridade legal para coletar postagens em redes sociais, permissões de porte de armas e outros dados sobre cidadãos americanos. A IA transforma essa autoridade em algo qualitativamente diferente do que a lei originalmente contemplou.
Quando o Pentágono pede acesso “para todos os fins legais” a um modelo de IA, está pedindo um cheque em branco denominado em uma moeda cujo valor não foi estabelecido. A lei não acompanhou a capacidade tecnológica. “Legal” está indefinido no sentido relevante.
A posição da Anthropic — sim ao uso militar, não à vigilância em massa e armas totalmente autônomas — é uma tentativa de traçar linhas de governança que a lei ainda não traçou. A posição do Pentágono é que executivos do Vale do Silício não deveriam estar traçando essas linhas.
Ambas as posições têm mérito. Nenhuma resolve o problema subjacente: não existe estrutura de governança adequada à capacidade sendo implantada.
O Cenário Competitivo Conta a História da Governança
Os outros três laboratórios nesta negociação revelam como dinâmicas competitivas interagem com escolhas de governança.
A xAI, fundada por Elon Musk, reportadamente disse ao Pentágono que aceita “todo uso legal” em qualquer nível de classificação. A xAI foi o único laboratório de fronteira a participar da licitação do Pentágono para software de drones autônomos. Musk tem acesso político direto ao governo atual e criticou publicamente os compromissos de segurança dos rivais como “ideológicos.”
A OpenAI removeu suas salvaguardas ordinárias para sistemas militares não classificados, mas está concorrendo apenas para aplicações limitadas — tradução de comandos de voz para instruções digitais, não controle de drones ou integração de armas. Um porta-voz da OpenAI disse ao Axios que trabalho classificado “exigiria que concordássemos com um acordo novo ou modificado.”
O Google também flexibilizou salvaguardas para uso não classificado, mas não comentou sobre trabalho classificado. O Google tem memória institucional da revolta do Project Maven em 2018, quando engenheiros protestaram contra IA para análise de imagens de drones e a empresa abandonou o contrato após um conflito interno danoso.
Um alto funcionário do governo reconheceu que a briga pública com a Anthropic foi uma “forma útil de definir o tom” para negociações com os outros três laboratórios. Isto é negociação por exemplo público. A mensagem para OpenAI e Google: cumpram integralmente, ou assistam ao que acontece com a empresa que não cumpriu.
Palantir: A Dependência de Infraestrutura que Ninguém Discute
No meio do fogo cruzado está a Palantir, a contratante de defesa que fornece a infraestrutura de nuvem segura conectando o Claude às redes classificadas do Pentágono.
A Palantir permaneceu em silêncio enquanto as tensões escalavam. Esse silêncio é estratégico, mas insustentável. Uma classificação de risco à cadeia de suprimentos forçaria a Palantir a romper sua relação com a Anthropic — uma de suas parcerias de IA mais importantes. A dependência de infraestrutura funciona nos dois sentidos: a Palantir precisa das capacidades do Claude, e a Anthropic precisa do acesso da Palantir às redes classificadas.
Este é um ponto único de falha na governança. Quando um provedor de infraestrutura media entre um fornecedor de IA e o maior cliente militar do mundo, esse provedor se torna o nexo de toda tensão de governança entre os dois. A posição da Palantir é insustentável não por algo que a Palantir fez, mas porque a estrutura de governança não prevê intermediários de infraestrutura na implantação de IA.
O Que Isto Significa para Governança de IA Empresarial
Se você administra a aquisição de IA na sua empresa, esta disputa introduz uma nova categoria de risco de fornecedor que não existia há seis meses.
Compromissos de segurança agora são passivos de aquisição. A Anthropic construiu sua marca sobre desenvolvimento responsável de IA. Compradores empresariais valorizavam esse posicionamento. A disputa com o Pentágono demonstra que os mesmos compromissos de segurança podem desencadear retaliação governamental que se propaga pela cadeia de suprimentos. A postura ética de um fornecedor não é mais um positivo puro na avaliação de aquisição — é uma variável que interage com relações governamentais de formas imprevisíveis.
Estratégia multi-fornecedor não é mais opcional. Qualquer organização com contratos governamentais ou clientes adjacentes ao governo não pode ter dependência de um único fornecedor de IA. O mecanismo de classificação de risco à cadeia de suprimentos significa que a relação de um único fornecedor com o governo pode desqualificar toda a sua pilha tecnológica. Governança exige redundância.
Avaliação de fornecedores agora tem dimensão geopolítica. A aquisição empresarial de IA tradicionalmente avaliava fornecedores por desempenho do modelo, custo, segurança e conformidade. Adicione à lista: status da relação fornecedor-governo, exposição política da liderança do fornecedor e risco de retaliação regulatória. Estas não são avaliações técnicas. Exigem uma competência diferente na equipe de aquisição.
O padrão “todos os fins legais” vai se espalhar. Se o Pentágono estabelecer isto como linha base para relações com fornecedores de IA, outras agências governamentais seguirão. O Departamento de Segurança Interna, a comunidade de inteligência, forças policiais estaduais e locais — todos adotarão linguagem similar. Toda empresa que vende para o governo precisa entender o que este padrão significa para suas escolhas de fornecedores de IA.
A Pergunta que Ninguém Está Respondendo
Uma fonte familiar com as negociações disse ao Axios algo que merece mais atenção do que recebeu: “Se há uma chance em um milhão de que o modelo faça algo imprevisível, essa chance de um em um milhão é tão catastrófica que não vale a pena correr o risco?”
Esta é a questão central de governança. Não se a IA deveria ser usada pelos militares. Não se restrições de segurança são apropriadas. A questão é: quem decide o limiar de risco aceitável para sistemas de IA cujo comportamento não é totalmente previsível, implantados em contextos onde erros podem ser letais?
O Pentágono diz que os militares decidem. A Anthropic diz que os desenvolvedores também têm responsabilidade. A estrutura de governança não diz nada, porque ainda não existe.
Quando o Pentágono considera sua política de segurança de IA um risco à cadeia de suprimentos, a conversa sobre governança saiu da engenharia e entrou na geopolítica. Toda aquisição empresarial de IA agora tem uma nova dimensão.
As organizações que construírem arquiteturas de governança capazes de navegar essa dimensão manterão sua capacidade de operar em múltiplos setores. As que tratarem seleção de fornecedores de IA como decisão puramente técnica estão expostas a uma categoria de risco que ainda não precificaram.
Fontes: Axios (16 e 19 de fev. 2026), New York Times (18 de fev. 2026), Fast Company (17 de fev. 2026), Wall Street Journal (fev. 2026). Dados de receita e clientes da Anthropic são auto-reportados do anúncio da rodada Series G.
Para avaliação de governança e risco de fornecedores de IA: contato@victorino.com.br | www.victorino.com.br
Se isso faz sentido, vamos conversar
Ajudamos empresas a implementar IA sem perder o controle.
Agendar uma Conversa