Por que a inteligência artificial não deve decidir até mesmo casos judiciais 'simples

Nos últimos anos, a inteligência artificial generativa (IA gen) vem transformando diversos setores, da saúde à educação, do entretenimento às finanças, incluindo o sistema jurídico. No entanto, o uso da IA para proferir decisões judiciais, mesmo em casos considerados "simples" ou de baixo risco, levanta sérias preocupações sobre a justiça e a integridade do processo legal.
Uso atual e perspectivas da IA nos tribunais
Alguns líderes judiciais, como Geoffrey Vos, o segundo juiz mais sênior do Reino Unido, têm sugerido que a IA poderia ser utilizada para decidir casos de menor complexidade, como cálculos de pensão, benefícios ou indenizações por danos pessoais. A ideia é que a automação poderia economizar tempo e recursos, acelerando processos considerados "mecânicos".

De fato, jurisdições como Estônia, Alemanha e Taiwan já testam sistemas de IA para auxiliar em pequenas demandas ou auxiliar na elaboração de rascunhos de sentenças, sempre com supervisão humana. Por exemplo, o Tribunal Distrital de Frankfurt utiliza um sistema chamado Frauke para gerar rascunhos em casos de direitos de passageiros aéreos, que são depois revisados e finalizados por juízes.
Limites éticos e jurídicos do uso da IA para decisões judiciais
Apesar do potencial de eficiência, especialistas alertam que substituir juízes humanos por IA, mesmo em casos "simples", compromete princípios fundamentais da justiça. O processo judicial não se resume a uma decisão final, mas envolve o direito ao contraditório, à apresentação da defesa, à análise cuidadosa de narrativas concorrentes e ao exercício do julgamento baseado em lei e equidade.

Algoritmos, por mais sofisticados que sejam, não compreendem nuances humanas como sofrimento, credibilidade, arrependimento ou vulnerabilidade. Além disso, a categorização de um caso como "simples" é subjetiva e pode levar à criação de um sistema judicial de duas velocidades, onde alguns cidadãos têm direito a um julgamento humano e outros são julgados por máquinas, o que pode ferir garantias previstas, por exemplo, no Artigo 6 da Convenção Europeia dos Direitos Humanos.
Riscos práticos e impacto na confiança pública
Outro ponto crítico é a confiabilidade da IA. Sistemas de IA podem apresentar erros, como "alucinações" — informações fabricadas — ou decisões enviesadas devido a dados de treinamento imperfeitos. Isso exige supervisão constante, auditorias e correções, o que pode anular ganhos de eficiência.
Além disso, a confiança pública no sistema judiciário é essencial. Caso a população perca a fé em decisões automatizadas, o número de recursos e apelações pode aumentar, sobrecarregando ainda mais os tribunais.
Recomendações para o uso responsável da IA no Judiciário
- Utilizar a IA apenas para tarefas preparatórias, como resumir documentos extensos, traduzir textos legais, identificar precedentes e melhorar a legibilidade.
- Manter a decisão final e o julgamento sob responsabilidade exclusiva de juízes humanos.
- Promover debates sérios sobre direitos humanos e proteção legal no contexto da IA.
- Garantir transparência, supervisão rigorosa e auditorias constantes dos sistemas automatizados.