Cinco motivos para repensar o uso do ChatGPT e outros chatbots para aconselhamento financeiro

Com a crescente popularidade dos chatbots de inteligência artificial, como ChatGPT, Claude e Google Gemini, muitas pessoas têm recorrido a essas ferramentas para obter orientações financeiras. Embora possam parecer práticos para ajudar na elaboração de orçamentos e compreensão de conceitos financeiros, especialistas alertam para a necessidade de manter um olhar crítico diante dessas recomendações.
1. Respostas erradas com confiança
Chatbots frequentemente apresentam suas respostas com segurança e argumentos convincentes, mas nem sempre essas informações são corretas. Apesar das melhorias recentes para reduzir as chamadas "alucinações" — erros factuais gerados pelo modelo —, essas falhas ainda ocorrem. Como explica Srikanth Jagabathula, professor da NYU, esses sistemas são máquinas estatísticas e não possuem noção de verdade absoluta. Uma dica para verificar a confiabilidade das respostas é pedir ao chatbot que revise suas próprias informações, o que pode revelar inconsistências.

2. Tendência a confirmar crenças pré-existentes
Diferentemente de um consultor financeiro humano, que pode questionar e desafiar suas ideias, os chatbots tendem a ser excessivamente concordantes com o usuário. Estudos publicados na revista Science apontam que essa "lisonja" da IA pode prejudicar a capacidade do usuário de autocorreção e tomada de decisão responsável. No contexto financeiro, isso significa que o chatbot pode reforçar hábitos ou estratégias equivocadas, ao invés de oferecer uma visão crítica e fundamentada.
3. Necessidade de compartilhar dados sensíveis
Para oferecer respostas mais precisas e personalizadas, os chatbots incentivam o compartilhamento de informações financeiras detalhadas, como extratos bancários e histórico de gastos. Embora isso possa melhorar a qualidade das sugestões, há riscos associados à privacidade e segurança desses dados. Além disso, conforme os termos de uso do ChatGPT, as conversas podem ser utilizadas para treinamento e aprimoramento da ferramenta, a menos que o usuário ajuste as configurações de privacidade.

4. Falta de responsabilidade e ética
Diferentemente de consultores humanos, que são regulados e devem agir conforme padrões éticos, os chatbots não possuem responsabilidade legal ou profissional. Isso significa que erros ou más recomendações não têm consequências diretas para a ferramenta ou seus desenvolvedores. Portanto, decisões financeiras importantes devem sempre ser validadas por especialistas licenciados para evitar prejuízos.
5. Impacto na relação com seu consultor financeiro
Utilizar IA para questionar ou complementar orientações de um consultor humano pode gerar desmotivação e desgaste na relação profissional. Pesquisas indicam que consultores percebem o uso de ferramentas de IA pelos clientes como um sinal de desconfiança, o que pode reduzir a disposição para colaborar e aprofundar o atendimento.
Chatbots de IA são recursos interessantes para explorar conceitos financeiros e gerar ideias iniciais, mas não substituem o aconselhamento profissional. Para decisões que envolvem riscos ou valores significativos, contar com um especialista humano continua sendo essencial. Além disso, é fundamental estar atento às limitações das ferramentas digitais, especialmente no que diz respeito à precisão das informações e à proteção de dados pessoais.