Justiça Federal suspende medidas contra Anthropic em disputa com o Pentágono sobre uso do Claude AI

Decisão judicial protege Anthropic contra ações punitivas do Departamento de Defesa dos EUA
Uma juíza federal da Califórnia concedeu na última quinta-feira (26) uma liminar temporária favorável à Anthropic, empresa de inteligência artificial que trava uma batalha judicial contra o Departamento de Defesa dos Estados Unidos (DoD). A decisão suspende, por enquanto, as medidas punitivas impostas pelo governo americano contra a companhia, enquanto o processo é analisado pelo tribunal do distrito norte da Califórnia.
Contexto do conflito: uso do modelo Claude em sistemas autônomos
O impasse gira em torno da recusa da Anthropic em permitir que o DoD utilize seu modelo de IA, chamado Claude, em sistemas autônomos letais ou em vigilância doméstica em larga escala. A empresa argumenta que a utilização de sua tecnologia para esses fins ultrapassa limites éticos e legais que ela impõe.
Em resposta, o governo dos EUA classificou a Anthropic como um risco à cadeia de suprimentos e ordenou que agências federais deixassem de usar sua tecnologia. A Anthropic contestou essa designação, alegando que viola seus direitos à liberdade de expressão garantidos pela Primeira Emenda da Constituição americana.
Argumentos e fundamentação da juíza Rita Lin
A juíza Rita Lin considerou que o Departamento de Defesa excedeu sua autoridade ao tentar punir e coagir a Anthropic, qualificando a designação de risco à cadeia de suprimentos como “provavelmente ilegal, arbitrária e caprichosa”. Ela destacou que não há base legítima para inferir que a empresa possa agir como sabotadora, especialmente diante da postura transparente da Anthropic em restringir o uso de sua tecnologia.
Durante a audiência, Lin questionou os advogados do governo sobre a razão de não simplesmente excluir a Anthropic como contratada, em vez de emitir uma designação tão severa. Ela também demonstrou ceticismo quanto à justificativa do secretário de Defesa, Pete Hegseth, que publicou nas redes sociais que nenhum contratado militar poderia trabalhar com a Anthropic, mas sem respaldo legal para tal declaração.
Implicações práticas para o uso do Claude AI pelo governo
A liminar tem efeitos diretos na tentativa do governo de substituir o Claude por outras ferramentas de IA em agências federais, tarefa complexa devido à profunda integração da tecnologia da Anthropic em operações governamentais. Fontes indicam que o DoD tem utilizado o Claude em operações militares, incluindo seleção de alvos e análise de ataques de mísseis na guerra contra o Irã.
A Anthropic alerta que as ações do governo podem acarretar perdas financeiras bilionárias e são inéditas e ilegais, por punirem a empresa por exercer sua liberdade de expressão.