Voltar para o blog
Notícias de IA

Anthropic e Departamento de Defesa dos EUA se enfrentam na Justiça por uso de IA em sistemas militares

24 de março de 2026
18:32
Anthropicinteligência artificialchatbotsCadeia de SuprimentosSegurança NacionalTecnologia MilitarDepartamento de Defesa dos EUAdireito e tecnologiaSilicon ValleyTrump
Anthropic e Departamento de Defesa dos EUA se enfrentam na Justiça por uso de IA em sistemas militares

Conflito judicial entre Anthropic e governo americano

A empresa de inteligência artificial Anthropic entrou com um processo contra o Departamento de Defesa dos Estados Unidos (DoD) após o governo federal proibir o uso da tecnologia da companhia em suas operações militares e por parte de contratantes. O embate judicial teve uma audiência realizada em um tribunal distrital do norte da Califórnia, presidida pela juíza Rita Lin, que analisou um pedido de liminar temporária feito pela Anthropic para suspender a decisão governamental.

Motivos da proibição e posicionamento da Anthropic

O conflito teve início quando a Anthropic recusou-se a permitir que seu chatbot de IA, chamado Claude, fosse utilizado em sistemas de armas autônomas letais e em vigilância doméstica em massa. Em resposta, o ex-presidente Donald Trump ordenou que todas as agências governamentais dos EUA deixassem de usar as ferramentas da Anthropic, medida que a empresa está contestando judicialmente.

A Anthropic alega que seu modelo de IA não é confiável para aplicações como vigilância massiva e armamentos totalmente autônomos, além de defender que o uso da tecnologia para esses fins poderia ser autoritário e antiético. O CEO da empresa, Dario Amodei, já manifestou preocupações públicas sobre o uso da IA em contextos autoritários.

Designação como risco na cadeia de suprimentos e consequências financeiras

O secretário de Defesa, Pete Hegseth, classificou a Anthropic como um risco na cadeia de suprimentos, uma designação inédita para uma empresa americana. Segundo a Anthropic, essa decisão é punitiva, viola seus direitos constitucionais à liberdade de expressão e pode causar danos irreparáveis, incluindo perdas na casa de centenas de milhões de dólares em receita.

A juíza Rita Lin destacou durante a audiência que a ação do governo parece ir além de uma simples decisão de não trabalhar com a Anthropic, indicando uma tentativa de prejudicar severamente a empresa. Ela questionou os representantes do governo sobre a legitimidade das declarações públicas de Hegseth, que proibiam contratantes de fazer negócios com a Anthropic, e recebeu respostas evasivas.

Impacto estratégico para o Departamento de Defesa e Silicon Valley

O uso do Claude está profundamente integrado às operações do governo americano, inclusive em contextos militares, como a análise e seleção de alvos para ataques de mísseis no Irã. Por isso, a descontinuação do uso da tecnologia da Anthropic geraria grande impacto operacional e levaria meses para ser implementada, afetando a continuidade das operações.

Além disso, o confronto gerou tensões na relação entre o governo Trump e o Vale do Silício, já que a medida de classificar uma empresa americana de IA como risco na cadeia de suprimentos é inédita e sinaliza um endurecimento das políticas governamentais contra empresas de tecnologia consideradas politicamente incompatíveis.

Posicionamentos públicos e próximos passos legais

A Anthropic não comentou publicamente o processo judicial. O Departamento de Defesa, por sua vez, afirmou que não comenta questões de litígio por política interna. O processo está em fase inicial, e a decisão da juíza Lin sobre a liminar temporária poderá definir os rumos da relação entre a empresa e o governo americano.

Enquanto isso, o Departamento de Defesa tem firmado acordos com outras empresas rivais, como OpenAI e xAI, para operar em ambientes classificados, o que evidencia a busca por alternativas para substituir a tecnologia da Anthropic.

Links úteis