Voltar para o blog
Notícias de IA

Tribunal mantém restrição da Anthropic para uso militar de IA nos EUA

8 de abril de 2026
19:49
ClaudeIAPentágonoSegurança NacionalDepartamento de DefesaTecnologia MilitarregulaçãoInteligência ArtificialAnthropicTribunal
Tribunal mantém restrição da Anthropic para uso militar de IA nos EUA

Tribunal de apelação reforça restrição sobre Anthropic e seu AI Claude

Uma corte de apelação dos Estados Unidos decidiu nesta quarta-feira (8 de abril de 2026) que a designação de risco na cadeia de suprimentos imposta pela Defesa contra a empresa de inteligência artificial Anthropic deve permanecer em vigor. Essa decisão judicial mantém a proibição do uso do sistema de IA Claude pela força militar americana, em meio a um conflito judicial que apresenta decisões conflitantes entre tribunais.

Contexto da disputa judicial

A Anthropic foi sancionada pelo Pentágono sob duas leis distintas relacionadas à cadeia de suprimentos, ambas com efeitos semelhantes, mas aplicadas por cortes diferentes: uma em Washington, DC, e outra em San Francisco. Enquanto o tribunal de Washington manteve a restrição, o juiz de San Francisco ordenou a retirada do rótulo de risco, permitindo que o Departamento de Defesa retomasse o acesso às ferramentas da Anthropic.

Imagem relacionada ao artigo de Wired AI
Imagem de apoio da materia original.

Segundo o painel de três juízes da corte de apelação, a empresa não cumpriu os requisitos rigorosos para suspender temporariamente essa designação. Eles argumentaram que liberar a Anthropic para continuar fornecendo serviços críticos de IA durante um conflito militar poderia prejudicar as operações militares e a segurança nacional.

Implicações para o uso militar da IA Claude

A Anthropic alega que a sanção é ilegal e que o Departamento de Defesa agiu de má-fé, motivado por discordâncias sobre os limites propostos pela empresa quanto ao uso da tecnologia em operações sensíveis, como ataques com drones não supervisionados por humanos. A empresa afirma que a designação já causou prejuízo financeiro e perda de contratos.

O governo, por sua vez, sustenta que a proibição impede que o Pentágono e seus contratados utilizem o Claude em projetos militares, e que medidas foram tomadas para garantir que a Anthropic não possa sabotar a transição para outras ferramentas de IA, como as da Google DeepMind e OpenAI.

Disponibilidade e acesso à tecnologia

Devido às decisões conflitantes, a situação do Claude no âmbito militar permanece incerta. A corte de Washington deve realizar audiências orais no dia 19 de maio para discutir o caso. Enquanto isso, a Anthropic continua confiante de que a justiça reconhecerá a ilegalidade das designações impostas.

Para o público geral e empresas fora do Departamento de Defesa, o Claude permanece disponível para uso, mas o impacto prático dessa disputa destaca os desafios enfrentados por empresas de IA que buscam equilibrar inovação tecnológica, segurança nacional e regulação governamental.

Impacto prático para os usuários e o mercado de IA

  • Para o setor público: a decisão reforça o controle do governo sobre fornecedores de IA considerados críticos para a segurança nacional, podendo restringir o acesso a tecnologias estrangeiras ou domésticas sob suspeita.
  • Para empresas de IA: o caso Anthropic serve de alerta sobre os riscos regulatórios e políticos envolvidos na oferta de soluções para o setor militar e governamental.
  • Para o mercado de IA geral: a disputa evidencia a importância de transparência, conformidade e diálogo entre empresas e órgãos reguladores para evitar sanções que possam comprometer contratos e reputação.

Links úteis