Voltar para o blog
Notícias de IA

Anthropic e OpenAI em Conflito sobre Projeto de Lei que Limita Responsabilidade de IA em Illinois

14 de abril de 2026
12:41
RegulamentaçãoOpenAIsegurança em IApolítica tecnológicaInteligência ArtificialAnthropiclegislação de IAresponsabilidade civilIllinoisSB 3444
Anthropic e OpenAI em Conflito sobre Projeto de Lei que Limita Responsabilidade de IA em Illinois

Nos Estados Unidos, um embate entre duas das principais empresas de inteligência artificial (IA), Anthropic e OpenAI, ganhou destaque em função de um projeto de lei proposto no estado de Illinois. A legislação, conhecida como SB 3444, visa regular a responsabilidade das empresas de IA em casos de danos em larga escala causados por seus sistemas, mas tem provocado divergências profundas sobre como deve ser feita essa regulação.

O que propõe o projeto de lei SB 3444?

O projeto de lei SB 3444, patrocinado pelo senador estadual Bill Cunningham, propõe que laboratórios de IA fiquem amplamente isentos de responsabilidade em situações graves, como mortes em massa ou prejuízos financeiros superiores a US$ 1 bilhão, desde que tenham elaborado e divulgado um framework próprio de segurança em seu site. Ou seja, se um agente mal-intencionado utilizar um sistema de IA para causar um desastre — por exemplo, a criação de uma arma biológica letal — o laboratório que desenvolveu a IA não seria responsabilizado, contanto que tenha cumprido os requisitos formais previstos pelo projeto.

Imagem relacionada ao artigo de Wired AI
Imagem de apoio da materia original.

Posições divergentes: Anthropic versus OpenAI

A OpenAI apoia a SB 3444, argumentando que a proposta reduz os riscos de danos graves ao mesmo tempo em que permite que a tecnologia avance e chegue a diversos setores, de pequenas a grandes empresas. A empresa afirma estar colaborando com outros estados, como Nova York e Califórnia, para criar uma abordagem harmonizada que possa servir de base para uma futura regulamentação nacional. Segundo a porta-voz da OpenAI, Liz Bourgeois, a ausência de uma legislação federal torna essencial o trabalho conjunto com os estados para estabelecer um marco consistente de segurança.

Por outro lado, a Anthropic se posiciona contra o projeto, defendendo que as empresas desenvolvedoras de IA deveriam ser responsabilizadas, ao menos parcialmente, em casos de danos sociais significativos decorrentes do uso de suas tecnologias. Cesar Fernandez, chefe de relações governamentais da Anthropic nos EUA, declarou que a legislação atual oferece um “cartão de liberdade” que isenta as empresas de suas responsabilidades, o que pode comprometer a segurança pública e a prestação de contas. A empresa tem atuado diretamente junto ao senador Cunningham e outros legisladores para modificar substancialmente ou até mesmo barrar o projeto.

Contexto político e repercussões

Embora especialistas em políticas públicas afirmem que a SB 3444 tem poucas chances de ser aprovada em sua forma atual, a disputa revelou as tensões entre as duas empresas e o impacto que a regulamentação da IA pode ter no futuro do setor nos EUA. A divergência reflete também uma discussão maior sobre até onde deve ir a responsabilidade das empresas diante de riscos tecnológicos emergentes.

O governador de Illinois, JB Pritzker, manifestou cautela, afirmando que não acredita que grandes empresas de tecnologia devam ter uma proteção total contra responsabilidades que garantam a defesa do interesse público. Essa posição sugere que o debate legislativo continuará em aberto, com pressão para um equilíbrio entre inovação e segurança.

Legislação alternativa e iniciativas de segurança

Além da SB 3444, a Anthropic apoia outro projeto no estado, o SB 3261, que propõe uma das regulamentações mais rigorosas para IA nos EUA. Essa lei exigiria que empresas desenvolvedoras de IA de ponta, como OpenAI e Anthropic, criem planos públicos de segurança e proteção infantil, a serem avaliados por auditores independentes para verificar sua eficácia.

Essa postura da Anthropic está alinhada com sua reputação de defender fortemente a adoção de salvaguardas para mitigar riscos associados a inteligências artificiais avançadas. Fundada há cinco anos por ex-funcionários da OpenAI, a empresa tem sido crítica a abordagens que minimizam a responsabilidade das corporações nesse campo.

Implicações para o futuro da regulação de IA nos EUA

O confronto entre Anthropic e OpenAI em Illinois sinaliza que a regulação da inteligência artificial será uma arena complexa, com interesses divergentes e desafios consideráveis para equilibrar inovação e segurança. À medida que as empresas ampliam suas atividades de lobby em diferentes estados, o debate sobre responsabilidade civil, transparência e controle dos sistemas de IA deve ganhar cada vez mais relevância, influenciando tanto políticas estaduais quanto federais.

Links úteis