Voltar para o blog
Notícias de IA

Perspectivas Indígenas sobre Inteligência Artificial: Responsabilidade, Controle e Desafios Éticos

22 de abril de 2026
01:08
ética em tecnologiatecnologia e culturaInteligência Artificialpovos indígenassoberania dos dadosgovernança da IApesquisa australianaIA e desigualdadedireitos indígenasimpactos sociais da IA
Perspectivas Indígenas sobre Inteligência Artificial: Responsabilidade, Controle e Desafios Éticos

AI como parte de um sistema relacional

Uma pesquisa recente conduzida por Bronwyn Carlson e Tamika Worrell, da Macquarie University, na Austrália, traz à tona uma visão distinta sobre a inteligência artificial (IA) a partir das perspectivas dos povos indígenas aborígenes e das ilhas Torres Strait. Diferentemente da abordagem comum que vê a IA como uma ferramenta isolada, o projeto Relational Futures posiciona a IA como parte de um sistema mais amplo que molda as relações entre pessoas, instituições, dados e a terra (Country).

Problemas identificados: falta de responsabilização e impactos desiguais

Os indígenas participantes expressaram desconfiança significativa em relação à IA, destacando que ela opera sem mecanismos claros de responsabilização, controle (checks and balances) e compromisso ético, conforme um dos relatos: “sem responsabilidade, sem controles e sem prestação de contas”. Essa falta de transparência e governança adequada pode intensificar desigualdades existentes, especialmente em setores sensíveis como assistência social, saúde e bem-estar.

Imagem relacionada ao artigo de The Conversation AI
Imagem de apoio da materia original.

O exemplo australiano do sistema Robodebt, que automatizou decisões sobre benefícios sociais e resultou em graves consequências para a população, ilustra os riscos de sistemas automatizados implementados sem a devida supervisão e sensibilidade cultural.

Métodos da pesquisa: yarning circles e surveys para captar vozes indígenas

Para entender como os povos indígenas vivenciam e percebem a IA, os pesquisadores utilizaram métodos qualitativos como yarning circles — rodas de conversa tradicionais — e questionários. Essa abordagem buscou centrar as perspectivas indígenas, revelando uma disposição clara de recusar o uso da IA quando esta perpetua injustiças, sem rejeição absoluta à tecnologia.

Entendendo a soberania dos dados indígenas

Um ponto central da pesquisa é a soberania dos dados indígenas, que defende o direito coletivo desses povos de controlar dados relacionados às suas comunidades, territórios e recursos durante todo o ciclo de vida dos dados. Essa governança deve apoiar a autodeterminação, estar enraizada na comunidade e garantir benefícios coletivos sem causar danos ou marginalização.

Além da preocupação com a privacidade, os participantes destacaram riscos como os impactos ambientais da IA, a apropriação e simplificação dos saberes indígenas e a falta de transparência nos processos de desenvolvimento e aplicação dos sistemas.

AI Elder: uma proposta especulativa e suas limitações

Como parte do projeto, foi apresentada a ideia do “AI Elder” — uma entidade de IA que poderia atuar na reconexão cultural ou aconselhamento em questões tradicionais. A reação dos indígenas foi crítica: um Elder é uma figura inserida em relações de confiança, responsabilidade e prestação de contas dentro da comunidade, características que a IA não pode replicar. Assim, mesmo concepções avançadas da IA não substituem as relações humanas e culturais essenciais.

Implicações práticas e caminhos para a governança da IA

A pesquisa enfatiza que a governança da IA não pode ser reduzida a padrões técnicos ou conformidade regulatória, mas deve englobar questões de autoridade, responsabilidade, cuidado e prevenção de danos. Projetar sistemas seguros, responsáveis e benéficos para os povos indígenas — frequentemente os mais vigiados e marginalizados — é fundamental para garantir eficácia e justiça para toda a sociedade.

Como destacou um participante, há o risco real de exclusão: “Meu maior receio é que sejamos deixados para trás”. A participação indígena ativa no desenvolvimento e uso da IA é essencial para evitar que as desigualdades estruturais sejam replicadas pela tecnologia.

O projeto Relational Futures oferece tanto um alerta quanto uma proposta: sem liderança indígena e abordagens relacionais na governança da IA, os danos já observados em sistemas automatizados continuarão. A solução não está em retardar a tecnologia, mas em repensar seu propósito, para quem ela serve e como é responsabilizada.

Links úteis