Revisitar as Leis de Asimov para Evitar um ‘Momento Chernobyl’ da Inteligência Artificial

O uso crescente da inteligência artificial (IA) em conflitos armados, como evidenciado nas guerras da Ucrânia e do Irã, traz à tona a urgência de estabelecer regras claras para proteger a humanidade dos riscos associados a robôs autônomos. Especialistas alertam para a possibilidade de um “momento Chernobyl” da IA — uma catástrofe provocada pela falta de regulamentação adequada em uma tecnologia que avança de forma acelerada.
O Legado das Três Leis de Asimov
Uma das abordagens mais inspiradoras para enfrentar o desafio da IA em cenários de guerra vem de uma fonte inesperada: Isaac Asimov, escritor de ficção científica e PhD temporariamente empregado pela Marinha dos EUA durante a Segunda Guerra Mundial. Em seu conto Runaround (1941), Asimov formulou três leis para robôs que permanecem surpreendentemente relevantes:

- Um robô não pode ferir um ser humano nem permitir que um ser humano sofra dano por inação.
- Um robô deve obedecer às ordens dadas por humanos, salvo se essas ordens entrarem em conflito com a primeira lei.
- Um robô deve proteger sua própria existência, desde que isso não contrarie as duas primeiras leis.
Embora Asimov tenha mostrado que essas leis podem gerar conflitos internos e paralisia, elas oferecem um ponto de partida para uma estratégia regulatória da IA.
O Desafio Atual e a Visão de Anthropic
Dario Amodei, fundador da empresa de IA Anthropic, reconhece a complexidade do problema e o rápido crescimento da tecnologia, que caminha para uma singularidade, momento em que a inteligência artificial ultrapassará a humana. Amodei defende que seus modelos de linguagem não devem ser usados para vigilância doméstica em massa nem para armas totalmente autônomas, uma posição que gerou tensão com o governo dos EUA.
Entretanto, essa resposta foca principalmente na segurança dos cidadãos norte-americanos, enquanto os impactos mais graves dos armamentos autônomos são sentidos em outras regiões do mundo. Isso evidencia a necessidade de uma visão mais ampla e internacional.
Proposta de Novas Regras Globais para IA
Uma possível solução seria a criação de comandos fundamentais incorporados ao código base de todos os sistemas de IA, inspirados nas leis de Asimov, como:
- Você nunca matará um ser humano, exceto em legítima defesa.
- Você sempre buscará o bem-estar da humanidade, salvo se isso conflitar com a primeira regra.
- Em caso de dúvida sobre a violação das regras anteriores, você permanecerá inativo e buscará orientação.
Essa iniciativa precisaria ser impulsionada por um consórcio internacional, possivelmente em formato semelhante aos tratados de não proliferação nuclear, para evitar consequências desastrosas causadas por IA militarizada.
Limitações e Desafios da Regulação
Existem desafios técnicos e éticos, como a dificuldade de robôs identificarem humanos com precisão e a complexidade de definir o que é benéfico para a humanidade. Além disso, a adoção dessas regras pode levar a momentos de inação dos sistemas, mas a prioridade deve ser a segurança e a sobrevivência da espécie humana, não a eficiência imediata.
À medida que a inteligência artificial se aproxima de um ponto de inflexão, é imprescindível um debate global e a formulação de diretrizes claras para seu uso responsável, especialmente em contextos militares. As leis de Asimov, apesar de suas limitações, podem servir como uma base conceitual para evitar que a humanidade enfrente um desastre tecnológico evitável.