Juíza critica tentativa do Pentágono de prejudicar Anthropic e questiona motivação do Departamento de Defesa

Durante uma audiência realizada na última terça-feira, a juíza federal Rita Lin levantou dúvidas sobre as motivações do Departamento de Defesa dos Estados Unidos (DoD) ao rotular a desenvolvedora de inteligência artificial Anthropic como um risco na cadeia de suprimentos. O caso, que ocorre em um tribunal distrital de São Francisco, envolve uma disputa sobre a designação que o governo atribuiu à Anthropic após a empresa tentar impor restrições ao uso militar de suas ferramentas de IA.
Contexto do Conflito Entre Anthropic e o Departamento de Defesa
A Anthropic, criadora do chatbot Claude, entrou com duas ações federais alegando que a administração Trump retaliou ilegalmente a empresa ao classificá-la como risco de segurança. Essa classificação resultou em sanções que, segundo a juíza, parecem ir além do cancelamento de contratos, configurando uma tentativa de "paralisar" a empresa.

O Departamento de Defesa alega que seguiu os procedimentos adequados ao determinar que as ferramentas da Anthropic não poderiam mais ser consideradas confiáveis para operações críticas, citando preocupações de que a empresa poderia manipular os modelos de IA para não funcionarem conforme esperado em situações militares.
Argumentos e Questionamentos da Justiça
A juíza Lin enfatizou que cabe ao secretário de Defesa, Pete Hegseth, decidir se a Anthropic é uma fornecedora adequada para o departamento, mas compete ao tribunal verificar se houve violações legais ao adotar medidas que vão além do simples cancelamento de contratos.
Ela qualificou como "preocupante" o fato de que a designação de risco na cadeia de suprimentos e as restrições mais amplas impostas ao uso do Claude por contratantes governamentais não parecem ser direcionadas especificamente a preocupações legítimas de segurança nacional.
Além disso, a juíza questionou a autoridade legal de Hegseth para proibir que contratantes militares realizem qualquer atividade comercial com a Anthropic, especialmente em trabalhos não relacionados ao Departamento de Defesa, uma medida anunciada publicamente pelo secretário que o advogado do governo admitiu não ter respaldo legal.
Impactos e Repercussões da Designação
O rótulo de risco na cadeia de suprimentos é uma medida severa, normalmente reservada para adversários estrangeiros, terroristas e atores hostis, o que torna incomum sua aplicação contra uma empresa americana de tecnologia. O advogado da Anthropic, Michael Mongan, destacou o caráter extraordinário da ação, interpretando-a como uma retaliação contra um parceiro comercial considerado "teimoso" nas negociações.
Enquanto isso, o Pentágono anunciou planos para substituir as tecnologias da Anthropic por alternativas de Google, OpenAI e xAI, além de implementar medidas para evitar qualquer tentativa de manipulação dos sistemas durante a transição.
Próximos Passos e Expectativas
A Anthropic busca uma ordem judicial temporária para suspender a designação do Departamento de Defesa, com o objetivo de manter a confiança de seus clientes e evitar perdas financeiras significativas. A juíza Lin deve emitir sua decisão sobre essa liminar nos próximos dias, baseando-se na probabilidade de sucesso da empresa no mérito da ação.
O caso destaca um debate mais amplo sobre a utilização crescente da inteligência artificial pelas forças armadas e o papel das empresas de tecnologia na definição dos limites para o uso militar dessas ferramentas.