Austrália lança nova política militar de IA em momento estratégico, mas desafio é a implementação

A Austrália divulgou recentemente uma nova política para o uso de inteligência artificial (IA) em suas forças armadas, numa iniciativa que ocorre em um contexto global de crescente adoção da tecnologia em conflitos militares. Apesar de alinhar-se às diretrizes de países aliados como Reino Unido e Estados Unidos, o documento australiano é mais uma declaração de intenções do que um plano detalhado de execução.
Contexto e motivações da política australiana
A inteligência artificial tem desempenhado papel central em conflitos atuais, como no Oriente Médio, onde os Estados Unidos usam IA para identificar alvos e acelerar decisões, mesmo diante do aumento de vítimas civis. É neste cenário que o Departamento de Defesa da Austrália lançou sua política, com o objetivo de regulamentar o uso da IA no âmbito militar.
Principais requisitos estabelecidos pela política
A política define três requisitos fundamentais para o uso da IA pelas Forças Armadas australianas:
- Conformidade legal: o uso da IA deve respeitar as leis australianas e os compromissos internacionais assumidos pelo país.
- Responsabilidade e impacto humano: deve haver responsabilidade individual, com a IA sendo explicável, confiável, segura e projetada para minimizar vieses e danos não intencionais.
- Gestão de riscos: os riscos associados à IA devem ser controlados proporcionalmente, por meio de testes, treinamentos e avaliações.
O documento destaca que a IA é uma tecnologia habilitadora com múltiplas aplicações, desde sistemas de direcionamento até logística e manutenção, cada uma com riscos específicos a serem gerenciados.
Limitações e lacunas na implementação
Embora a política identifique o Defence AI Centre, criado em 2024, como o núcleo de governança, ela não detalha como as Forças Armadas e outras entidades de defesa colocarão as diretrizes em prática. Faltam informações sobre processos de monitoramento, recursos, avaliações práticas e mecanismos de reporte. Além disso, o documento não especifica como serão realizados os testes e avaliações de sistemas de IA em ambientes militares, onde o comportamento imprevisível e a confiabilidade são desafios conhecidos.
Comparação com políticas de aliados
A política australiana reflete elementos centrais das estratégias do Reino Unido e dos Estados Unidos, como o uso legal da IA, a manutenção da responsabilidade humana e a antecipação e mitigação de riscos. O Reino Unido, por exemplo, já nomeou oficiais responsáveis por IA em cada componente do Ministério da Defesa e publicou relatórios de progresso. Os EUA, por sua vez, já possuem princípios éticos e estratégias de implementação detalhadas, com foco recente em velocidade e letalidade.
Um aspecto distintivo da Austrália é a menção ao Artigo 36 do Protocolo Adicional I da Convenção de Genebra, que obriga revisões legais de sistemas de armas baseados em IA — um compromisso significativo pouco adotado por outros países. Contudo, a ausência de planos de implementação detalhados torna a política mais uma declaração de intenções do que um guia operacional.
Implicações para a cooperação internacional e governança da IA militar
Com o enfraquecimento das discussões multilaterais sobre armas autônomas, as políticas nacionais ganham importância para definir padrões, orientar aquisições e sinalizar práticas aceitáveis a parceiros, especialmente no contexto do AUKUS Pillar II, que envolve cooperação na integração rápida de tecnologias autônomas. A eficácia da política australiana dependerá da capacidade de traduzir suas diretrizes em ações concretas, garantindo governança robusta sobre o desenvolvimento e uso da IA militar.