Justiça suspende designação de risco na cadeia de suprimentos contra Anthropic e permite continuidade de negócios

Uma decisão judicial temporária concedida pela juíza federal Rita Lin, da corte distrital de São Francisco, suspendeu a designação da empresa Anthropic como um risco na cadeia de suprimentos pelo Departamento de Defesa dos EUA, durante a administração Trump. A medida, anunciada em 26 de março de 2026, permite que a startup de inteligência artificial continue suas operações comerciais sem a etiqueta que restringiria seu acesso ao governo federal a partir da próxima semana.
Contexto da disputa entre Anthropic e o Departamento de Defesa
Anthropic, conhecida por seu chatbot Claude, vinha fornecendo ferramentas de IA para o Departamento de Defesa, auxiliando na redação de documentos sensíveis e análise de dados classificados nos últimos anos. No entanto, em março, o Pentágono começou a descontinuar o uso do Claude após concluir que a empresa não era confiável, citando preocupações relacionadas a restrições impostas pela própria Anthropic sobre o uso de sua tecnologia.

O governo alegou que essas limitações eram desnecessárias e potencialmente prejudiciais, levando à emissão de várias diretrizes que culminaram na designação da Anthropic como um risco na cadeia de suprimentos. Essa classificação resultou na redução gradual do uso do Claude em agências federais, impactando diretamente as vendas e a reputação da empresa.
Decisão judicial e seus fundamentos
Na decisão, a juíza Rita Lin qualificou a designação como "provavelmente contrária à lei, arbitrária e caprichosa". Ela destacou que não há fundamento legítimo para inferir que a postura da Anthropic quanto às restrições de uso indicaria uma intenção de sabotagem. A liminar restabelece o status quo anterior à emissão das diretrizes, datado de 27 de fevereiro de 2026.
Importante ressaltar que a decisão não obriga o Departamento de Defesa a retomar o uso dos produtos da Anthropic nem impede que o órgão migre para outros fornecedores de IA, desde que tais ações respeitem as normas legais e constitucionais vigentes.
Implicações práticas para Anthropic e o governo
Embora a liminar suspenda temporariamente a designação que restringia os negócios da Anthropic, o governo ainda pode cancelar contratos e solicitar que terceiros interrompam a integração do Claude, desde que não utilizem a classificação de risco na cadeia de suprimentos como justificativa.
O impacto imediato da decisão é incerto, pois a ordem só entra em vigor uma semana após a publicação e ainda aguarda julgamento em um tribunal federal de apelações sobre outro processo movido pela Anthropic, que questiona a aplicação de uma lei diferente que também a impede de fornecer software ao setor militar.
Para Anthropic, a decisão representa um alívio significativo, podendo ser usada para reconquistar clientes que se afastaram devido à percepção negativa gerada pela designação governamental.
Próximos passos e cenário futuro
Não há uma previsão definida para uma decisão final sobre o caso. A disputa judicial entre Anthropic e o Departamento de Defesa evidencia os desafios regulatórios e de segurança enfrentados por empresas de inteligência artificial que atuam em setores sensíveis, especialmente em um contexto geopolítico complexo.
Enquanto isso, o mercado acompanha com atenção o desenrolar da situação, que pode influenciar políticas futuras sobre o uso de IA em ambientes governamentais e militares.