Voltar para o blog
Notícias de IA

Clarifai apaga 3 milhões de fotos fornecidas por OkCupid para treinar IA de reconhecimento facial após acordo com FTC

21 de abril de 2026
15:46
Ética em IAtecnologiaprivacidade de dadosreconhecimento facialInteligência ArtificialOkCupidFTCClarifai
Clarifai apaga 3 milhões de fotos fornecidas por OkCupid para treinar IA de reconhecimento facial após acordo com FTC

A plataforma de inteligência artificial Clarifai anunciou a exclusão de 3 milhões de fotos que recebeu do aplicativo de relacionamento OkCupid para o treinamento de sua tecnologia de reconhecimento facial. A medida faz parte de um acordo firmado com a Federal Trade Commission (FTC) dos Estados Unidos, que investigou o uso indevido desses dados.

Contexto da coleta e uso dos dados

Segundo documentos judiciais revelados pela Reuters, em 2014 Clarifai solicitou ao OkCupid — cuja equipe executiva possuía investimentos na empresa — o compartilhamento de dados para aprimorar seus modelos de IA. O OkCupid forneceu imagens enviadas por seus usuários, além de informações demográficas e de localização.

Imagem relacionada ao artigo de TechCrunch AI
Imagem de apoio da materia original.

Essa prática, conforme as próprias políticas de privacidade do OkCupid, deveria ter sido proibida, já que os dados foram usados para desenvolver uma ferramenta capaz de estimar idade, sexo e raça a partir de fotos faciais.

Investigação e desdobramentos legais

A FTC só iniciou a investigação em 2019, após reportagem do New York Times revelar o uso das imagens para treinar o algoritmo da Clarifai. A agência reguladora acusou o OkCupid e sua controladora, Match Group, de ocultar a prática e tentar dificultar a apuração dos fatos.

Embora OkCupid e Match Group não tenham admitido formalmente as acusações de violação das políticas de privacidade, a confirmação da Clarifai sobre a exclusão dos dados indica que a empresa teve acesso às fotos. A FTC impôs uma restrição permanente para que as empresas não possam mais representar de forma enganosa suas práticas de coleta e compartilhamento de dados.

Consequências práticas para usuários e empresas

Essa ação reforça a importância da transparência no uso de dados pessoais, especialmente quando envolvem informações sensíveis como imagens faciais. Para os usuários, o caso evidencia riscos de uso indevido de dados mesmo em plataformas populares.

Para empresas que desenvolvem IA, o episódio serve como alerta para respeitar rigorosamente as políticas de privacidade e obter consentimento claro para o uso de dados, evitando sanções e perda de confiança.

Links úteis