Estados Unidos e Califórnia Usam Poder de Compra para Definir Regras de IA

Ausência de Regulação Legislativa Impulsiona Supervisão via Compras Governamentais
Com a falta de uma regulamentação legislativa federal clara para a inteligência artificial (IA), tanto o governo dos Estados Unidos quanto o estado da Califórnia adotaram uma estratégia alternativa para estabelecer normas: o uso do poder de compra governamental. Essa abordagem, embora eficaz para definir padrões, traz desafios e potenciais conflitos para empresas que desejam fornecer soluções de IA para o setor público.
Regras da Administração de Serviços Gerais dos EUA (GSA)
Em 6 de março de 2026, a U.S. General Services Administration (GSA), responsável pelas compras governamentais federais, divulgou um conjunto de regras para aquisição de sistemas de IA. Entre os pontos centrais, destaca-se a exigência de que as soluções sejam neutras, evitando posições ideológicas, inclusive em temas sensíveis como diversidade, equidade e inclusão. A GSA busca, assim, garantir um ambiente não partidário para as tecnologias adquiridas.

As regras são consideradas "landmark" por especialistas jurídicos, dado seu caráter prescritivo. Elas incluem:
- Exigência de que os sistemas de IA sejam desenvolvidos e produzidos nos Estados Unidos.
- Proibição do uso de dados governamentais para treinar ou aprimorar modelos de IA que atendam outros clientes.
- Monitoramento de vieses e realização de benchmarks conduzidos pelo governo, embora sem definição clara de métricas quantitativas para medir esses vieses.
Essa ausência de métricas numéricas específicas dificulta a mensuração objetiva do viés, deixando espaço para interpretações subjetivas, conforme apontado por especialistas em segurança cibernética.
Posicionamento da Califórnia e Ordem Executiva do Governador
Em contraponto, o governador da Califórnia, Gavin Newsom, emitiu uma ordem executiva em 30 de março de 2026 que exige que fornecedores demonstrem mecanismos de proteção contra vieses nocivos e salvaguardas para direitos civis. Diferentemente do governo federal, a Califórnia enfatiza a responsabilidade social e a proteção dos direitos individuais nas contratações de IA.
Essa ordem determina que os departamentos estaduais de Serviços Gerais e Tecnologia desenvolvam diretrizes contratuais em até quatro meses. Contudo, como ordens executivas podem ser revogadas por futuros governadores, e considerando que Newsom deixa o cargo em janeiro de 2027, a continuidade dessas políticas pode ficar em aberto.
Lobby da Indústria e Desafios Regulatórios
Enquanto isso, a indústria de IA investe milhões para influenciar legisladores e limitar regulações mais rígidas. Em um documento recente, a OpenAI defende a criação de processos democráticos para moldar políticas de IA. No entanto, o mecanismo de compras governamentais não é democrático: fornecedores precisam cumprir regras específicas para ganhar contratos.
Especialistas ressaltam que o poder financeiro do governo molda comportamentos do mercado, tornando as regras de aquisição uma ferramenta poderosa de controle.

Conflitos Federais e Estaduais
Em dezembro de 2025, o ex-presidente Donald Trump emitiu uma ordem executiva para que agências federais contestem leis estaduais relacionadas à IA, defendendo a existência de um único conjunto de regras para manter a liderança americana na área. Apesar disso, vários estados continuam a propor legislações próprias, incluindo medidas para proteger menores no uso de chatbots e regular sistemas de alto risco em setores como saúde.
Além disso, há preocupações crescentes sobre o impacto ambiental da infraestrutura necessária para IA, com estados como Maine aprovando proibições temporárias para novos grandes data centers.
Segundo especialistas jurídicos, o governo federal não pode determinar como os estados gastam seus recursos, o que limita a eficácia das tentativas de unificação regulatória nacional.
Impactos Práticos para Empresas e Mercado
Para fornecedores de IA, essa multiplicidade de regras e enfoques representa um desafio significativo. Não é viável criar sistemas distintos para cada regulador; em vez disso, é necessário investir em governança robusta, com mecanismos internos para testes de viés, explicabilidade e monitoramento constante.
Essa complexidade pode aumentar custos e riscos, mas também impulsiona a inovação na forma como os resultados são apresentados para diferentes compradores, garantindo transparência e equidade.
Além disso, o uso do poder de compra governamental como ferramenta regulatória é comparado a outras áreas, como a saúde, onde o Medicare atua como regulador indireto por meio de suas políticas de pagamento.
O cenário atual mostra que, na ausência de uma legislação federal consolidada, estados e governo federal estão experimentando diferentes estratégias para regular a inteligência artificial, especialmente por meio das compras públicas. Essa dinâmica cria um ambiente de incertezas e desafios para empresas, mas também pode servir como campo de testes para abordagens regulatórias eficazes no futuro.