Voltar para o blog
Notícias de IA

Golpes com Deepfakes no TikTok: Como celebridades como Taylor Swift estão protegendo sua imagem contra fraudes digitais

29 de abril de 2026
17:45
segurança digitaldeepfakeproteção de imagemTikTokdireito digitalInteligência ArtificialcelebridadesTaylor Swiftfraude digitalgolpes online
Golpes com Deepfakes no TikTok: Como celebridades como Taylor Swift estão protegendo sua imagem contra fraudes digitais

O problema dos deepfakes e a proteção da imagem de celebridades

Nos últimos anos, o avanço da inteligência artificial (IA) tem possibilitado a criação de deepfakes — vídeos manipulados que reproduzem com alta fidelidade a aparência e voz de pessoas reais. Embora essa tecnologia possa ter usos legítimos, ela também vem sendo explorada para fraudes, especialmente em redes sociais como o TikTok.

Recentemente, a cantora Taylor Swift entrou com pedidos de registro de marca para proteger sua imagem e voz, incluindo uma fotografia icônica sua com uma guitarra rosa durante a turnê Eras e frases sonoras como "Hey, it’s Taylor Swift" e "Hey, it’s Taylor". Essa iniciativa ocorre em meio à crescente proliferação de deepfakes não autorizados que usam sua imagem para fins fraudulentos.

Imagem relacionada ao artigo de Wired AI
Imagem de apoio da materia original.

Metodologia da pesquisa sobre deepfake em anúncios no TikTok

Um relatório da empresa de detecção de IA Copyleaks investigou anúncios patrocinados no TikTok que utilizam deepfakes de celebridades como Taylor Swift, Kim Kardashian e Rihanna. Os pesquisadores identificaram vídeos que simulam entrevistas ou eventos de tapete vermelho, nos quais as celebridades, geradas artificialmente, promovem supostos programas de recompensas.

Esses anúncios apresentam vozes realistas e filtros que disfarçam imperfeições visuais típicas da IA, aumentando a credibilidade da fraude. Por exemplo, um vídeo manipulado reproduz Swift falando sobre um programa chamado "TikTok Pay", no qual usuários seriam pagos por assistir vídeos e dar feedback, incentivando-os a clicar e fornecer dados pessoais.

Resultados e impacto dos golpes com deepfakes

Ao clicar nos anúncios, os usuários são direcionados a serviços de terceiros que exibem o nome e logo do TikTok, mas que na verdade são operados por plataformas como a Lovable, identificável pela sua marca na URL. Nessa etapa, as vítimas são solicitadas a informar dados pessoais, que podem ser usados para fraudes ou outras práticas maliciosas.

Embora ainda não esteja claro o uso final desses dados, golpes semelhantes são comuns e causam prejuízos financeiros e danos à reputação das celebridades envolvidas. Em paralelo, a Federal Trade Commission (FTC) dos EUA reportou aumento significativo de golpes em redes sociais, com o Facebook sendo o principal palco de perdas financeiras.

Imagem relacionada ao artigo de Wired AI
Imagem de apoio da materia original.

Limitações das medidas atuais e importância da proteção legal

Apesar da crescente conscientização, a sofisticação dos deepfakes dificulta a identificação e bloqueio dessas fraudes. O caso recente de um homem condenado por enganar visualmente com deepfakes "íntimos" demonstra que a legislação começa a acompanhar essa nova realidade, mas o desafio permanece.

Para celebridades como Swift, registrar marcas que protejam sua imagem e voz é uma forma de buscar controle legal sobre o uso indevido de sua identidade, especialmente diante do crescimento dessas fraudes digitais que podem causar danos irreparáveis à sua marca pessoal.

Por que essa pesquisa importa no mundo real

O uso de deepfakes em golpes evidencia riscos emergentes da inteligência artificial na segurança digital e na proteção da privacidade. Usuários comuns são alvos fáceis para golpes que exploram a credibilidade de figuras públicas, enquanto as próprias celebridades enfrentam ameaças à sua imagem e reputação.

Além disso, a proliferação desses golpes impacta a confiança nas plataformas digitais e reforça a necessidade de políticas mais eficazes e ferramentas tecnológicas para detecção e prevenção de deepfakes maliciosos.

Links úteis para aprofundamento