Como a Linguagem Humanizada Pode Enganar Sobre o Que a IA Realmente Faz

O problema da antropomorfização em Inteligência Artificial
Termos como “pensar”, “saber” e “entender” são comuns para descrever processos mentais humanos. Porém, quando aplicados à inteligência artificial (IA), esses verbos podem induzir a uma percepção errada sobre o que essas tecnologias realmente fazem. Um estudo recente conduzido por pesquisadores da Iowa State University revelou que, embora usar linguagem humanizada para falar sobre IA possa parecer inofensivo, isso pode criar falsas expectativas e confundir o público sobre a natureza e os limites das máquinas.
Metodologia da pesquisa: análise de linguagem em notícias
O estudo, intitulado "Anthropomorphizing Artificial Intelligence: A Corpus Study of Mental Verbs Used with AI and ChatGPT", publicado na Technical Communication Quarterly, investigou como escritores de notícias utilizam verbos mentais relacionados à IA e ao ChatGPT. A equipe analisou o corpus News on the Web (NOW), contendo mais de 20 bilhões de palavras de artigos jornalísticos em inglês de 20 países.

Os pesquisadores focaram em palavras como “learns” (aprende), “means” (significa), “knows” (sabe) e “needs” (precisa), verificando a frequência com que apareciam associadas a termos como “AI” e “ChatGPT”. O objetivo era entender se a linguagem empregada nos veículos de comunicação tende a conferir características humanas à IA.
Principais resultados: menos antropomorfização do que se imagina
- A antropomorfização da IA em textos jornalísticos é menos frequente do que se supunha. Apesar de ser comum em conversas cotidianas, o uso de verbos mentais para descrever IA é raro na mídia formal.
- O verbo “needs” foi o mais utilizado em relação à IA, aparecendo 661 vezes, mas frequentemente descrevendo requisitos simples, como “IA precisa de grandes volumes de dados” ou “IA precisa de assistência humana”.
- Para o ChatGPT, “knows” foi o verbo mais frequente, mas apareceu apenas 32 vezes, indicando cuidado editorial.
- Quando verbos mentais foram usados, muitas vezes estavam em construções passivas que remetem à responsabilidade humana, como “IA precisa ser treinada”, evitando atribuir agência à máquina.
- O estudo mostrou que a antropomorfização acontece em um espectro, desde descrições neutras até expressões que sugerem capacidades humanas, como “IA precisa entender o mundo real”.
Limitações e impacto real da linguagem antropomórfica
Embora o estudo tenha revelado que a mídia é relativamente cuidadosa, o uso ocasional de linguagem humanizada pode levar a interpretações equivocadas. Termos que atribuem consciência, intenção ou emoções à IA podem inflar as expectativas do público sobre sua autonomia e inteligência.
Além disso, essa linguagem pode desviar a atenção dos verdadeiros responsáveis: os desenvolvedores, engenheiros e organizações que criam e gerenciam essas tecnologias. Ao colocar a IA como agente, corre-se o risco de minimizar a responsabilidade humana no design e uso ético desses sistemas.
Por que a pesquisa é relevante para o futuro da comunicação sobre IA
Com a popularização e avanço rápido da IA, a forma como falamos sobre ela molda a percepção pública e as políticas relacionadas. Os autores destacam que jornalistas e comunicadores técnicos precisam estar atentos ao impacto das palavras para transmitir com precisão as capacidades e limitações da IA.
Essa consciência ajuda a evitar mitos e expectativas irreais, além de reforçar a importância do papel humano no desenvolvimento dessas tecnologias. A pesquisa também abre caminho para estudos futuros que investiguem como diferentes tipos de linguagem influenciam a compreensão pública da IA.