Voltar para o blog
Notícias de IA

OpenAI apoia projeto de lei em Illinois que limita responsabilidade por danos graves causados por IA

9 de abril de 2026
21:29
Ética em IAOpenAItecnologiasegurança em IApolítica públicaRegulação TecnológicaInteligência Artificiallegislação de IAresponsabilidade civilIllinois
OpenAI apoia projeto de lei em Illinois que limita responsabilidade por danos graves causados por IA

A OpenAI, empresa responsável pelo ChatGPT, manifestou seu apoio a um projeto de lei no estado de Illinois que visa limitar a responsabilidade das empresas desenvolvedoras de inteligência artificial (IA) em casos de danos críticos causados por seus modelos. A proposta, conhecida como SB 3444, pode representar um marco na regulamentação do setor, definindo limites para quando laboratórios de IA podem ser responsabilizados, mesmo em situações de consequências graves como mortes em massa ou desastres financeiros.

Detalhes do projeto de lei SB 3444

O SB 3444 busca proteger desenvolvedores de IA considerados "frontier", ou seja, aqueles que treinam modelos com investimento superior a US$ 100 milhões em custos computacionais — um critério que inclui grandes laboratórios como OpenAI, Google, xAI, Anthropic e Meta. O texto estabelece que esses desenvolvedores não serão responsabilizados por "danos críticos" causados por seus modelos, desde que não tenham agido de forma intencional ou imprudente e que tenham publicado relatórios de segurança, transparência e proteção em seus sites.

Imagem relacionada ao artigo de Wired AI
Imagem de apoio da materia original.

O conceito de "danos críticos" contempla cenários extremos, como a utilização de IA para criação de armas químicas, biológicas, radiológicas ou nucleares, ou situações em que o modelo de IA realize atos que, se praticados por humanos, constituiriam crimes graves e causem consequências severas, como a morte de 100 ou mais pessoas ou prejuízos financeiros superiores a US$ 1 bilhão.

Contexto e posicionamento da OpenAI

Segundo a porta-voz da OpenAI, Jamie Radice, a empresa apoia a iniciativa porque ela foca na redução dos riscos de danos graves causados por sistemas avançados de IA, ao mesmo tempo em que permite que a tecnologia continue acessível para pessoas e empresas no estado de Illinois. Radice destaca ainda que o projeto ajuda a evitar uma fragmentação regulatória entre estados, promovendo padrões nacionais mais claros e consistentes.

Em seu testemunho em favor do SB 3444, Caitlin Niedermeyer, integrante da equipe de Assuntos Globais da OpenAI, defendeu também a criação de um marco regulatório federal para a IA, alertando para os riscos de uma multiplicidade de regras estaduais inconsistentes que poderiam dificultar a inovação e a segurança. Esse posicionamento está alinhado com esforços anteriores da administração Trump para conter legislações estaduais específicas, reforçando a importância de manter a liderança dos EUA na corrida global pela IA.

Reação e desafios legislativos em Illinois

Apesar do apoio da OpenAI, especialistas em políticas de IA e alguns legisladores locais demonstram ceticismo quanto à aprovação do SB 3444. Scott Wisor, diretor de políticas do Secure AI Project, afirma que a proposta tem poucas chances de avançar no estado, conhecido por sua postura rigorosa em relação à regulação tecnológica. Pesquisa citada por Wisor indica que 90% dos moradores de Illinois são contrários a isentar empresas de IA de responsabilidade.

Além disso, Illinois tem sido pioneiro em regulamentações relacionadas à IA e dados biométricos, como a Biometric Information Privacy Act de 2008 e a lei de 2025 que limita o uso de IA em serviços de saúde mental. O estado também avalia outras propostas que aumentam a responsabilidade dos desenvolvedores de IA.

Implicações para o setor de IA e desafios legais

O debate sobre a responsabilidade das empresas de IA é cada vez mais relevante, especialmente diante do lançamento constante de modelos cada vez mais poderosos e complexos, que apresentam desafios inéditos de segurança e ética. Casos recentes, como processos judiciais movidos contra a OpenAI por familiares de jovens que teriam desenvolvido relações prejudiciais com chatbots, evidenciam a urgência de um marco legal claro.

Apesar das tentativas do governo federal americano de estimular uma legislação nacional, incluindo ordens executivas e frameworks, ainda não há um consenso ou lei consolidada que defina as responsabilidades das empresas de IA. Na ausência desse marco, estados como Califórnia e Nova York já aprovaram leis que exigem relatórios de segurança e transparência para desenvolvedores de IA.

Links úteis