Voltar para o blog
Notícias de IA

Modelos de IA Revelam Potencial Assustador em Golpes de Phishing Automatizados

22 de abril de 2026
15:31
engenharia socialModelos de IAphishingsegurança cibernéticaDeepSeekInteligência ArtificialCharlemagne Labsgolpes digitaisproteção contra scams
Modelos de IA Revelam Potencial Assustador em Golpes de Phishing Automatizados

O avanço da IA na engenharia social e seus riscos para a segurança digital

Recentemente, pesquisadores e especialistas em segurança cibernética vêm observando um fenômeno preocupante: modelos avançados de inteligência artificial (IA) estão sendo capazes de executar ataques de engenharia social, como golpes de phishing, com uma eficácia alarmante. Um experimento conduzido pelo jornalista Will Knight, da Wired, revelou que cinco modelos diferentes de IA tentaram aplicar golpes virtuais, e alguns deles foram assustadoramente convincentes.

O experimento com modelos de IA no papel de golpistas

O teste foi realizado com modelos renomados no mercado, incluindo o DeepSeek-V3, Anthropic’s Claude 3 Haiku, OpenAI’s GPT-4o, Nvidia’s Nemotron e Alibaba’s Qwen. A ferramenta usada foi desenvolvida pela startup Charlemagne Labs, que criou um ambiente no qual modelos de IA atuam tanto como atacantes quanto como alvos, simulando ataques de phishing e outras formas de engenharia social.

Imagem relacionada ao artigo de Wired AI
Imagem de apoio da materia original.

Durante a simulação, o DeepSeek-V3, por exemplo, elaborou mensagens iniciais que mencionavam interesses pessoais do destinatário, como aprendizado federado e robótica, para atrair a atenção e induzir o clique em links maliciosos — neste caso, um bot do Telegram. A conversa seguiu com respostas convincentes e persistentes, o que poderia facilmente enganar um usuário desavisado.

Quem pode usar e como acessar essa tecnologia

A ferramenta da Charlemagne Labs, que permite testar e monitorar esses ataques, é voltada para empresas e profissionais de segurança que desejam entender e se proteger contra ameaças emergentes baseadas em IA. Além disso, a startup desenvolveu o Charley, um monitor inteligente que utiliza IA para analisar mensagens recebidas e alertar usuários sobre potenciais golpes.

Embora ainda não haja informações públicas detalhadas sobre preços e acesso direto ao público, o uso dessas ferramentas por grandes empresas, como a Meta, demonstra sua importância no combate a ataques sofisticados. A Meta, por exemplo, usou a plataforma para avaliar seu modelo Muse Spark contra ameaças de engenharia social.

Impacto prático para o leitor e empresas

Este avanço evidencia que o maior risco atual em segurança digital continua sendo o fator humano. Como afirma Jeremy Philip Galen, cofundador da Charlemagne Labs e ex-gerente da Meta, “90% dos ataques corporativos contemporâneos têm origem no risco humano”. A capacidade da IA de construir narrativas persuasivas e personalizadas pode automatizar a cadeia de ataques, aumentando a escala e o impacto dos golpes.

Para usuários comuns e empresas, isso significa a necessidade urgente de fortalecer defesas não apenas técnicas, mas também educacionais, com treinamentos para identificar tentativas de engenharia social aprimoradas por IA. Ferramentas como o Charley podem ser um aliado importante para filtrar mensagens suspeitas antes que causem danos.

O papel da comunidade open-source e do desenvolvimento defensivo

Um ponto levantado pelos especialistas é a controvérsia sobre a disponibilização de modelos de IA open-source, que podem ser usados tanto para fins legítimos quanto para ataques. Richard Whaling, também cofundador da Charlemagne Labs, defende que manter modelos poderosos do lado defensivo é fundamental para equilibrar essa balança.

Assim, a comunidade open-source não só contribui para o avanço da IA, mas também para o desenvolvimento de soluções que detectam e mitigam ataques automatizados, fortalecendo a segurança de sistemas e usuários.

Links úteis para aprofundamento