Clarifai apaga 3 milhões de fotos fornecidas por OkCupid para treinar IA de reconhecimento facial após acordo com FTC

A plataforma de inteligência artificial Clarifai anunciou a exclusão de 3 milhões de fotos que recebeu do aplicativo de relacionamento OkCupid para o treinamento de sua tecnologia de reconhecimento facial. A medida faz parte de um acordo firmado com a Federal Trade Commission (FTC) dos Estados Unidos, que investigou o uso indevido desses dados.
Contexto da coleta e uso dos dados
Segundo documentos judiciais revelados pela Reuters, em 2014 Clarifai solicitou ao OkCupid — cuja equipe executiva possuía investimentos na empresa — o compartilhamento de dados para aprimorar seus modelos de IA. O OkCupid forneceu imagens enviadas por seus usuários, além de informações demográficas e de localização.

Essa prática, conforme as próprias políticas de privacidade do OkCupid, deveria ter sido proibida, já que os dados foram usados para desenvolver uma ferramenta capaz de estimar idade, sexo e raça a partir de fotos faciais.
Investigação e desdobramentos legais
A FTC só iniciou a investigação em 2019, após reportagem do New York Times revelar o uso das imagens para treinar o algoritmo da Clarifai. A agência reguladora acusou o OkCupid e sua controladora, Match Group, de ocultar a prática e tentar dificultar a apuração dos fatos.
Embora OkCupid e Match Group não tenham admitido formalmente as acusações de violação das políticas de privacidade, a confirmação da Clarifai sobre a exclusão dos dados indica que a empresa teve acesso às fotos. A FTC impôs uma restrição permanente para que as empresas não possam mais representar de forma enganosa suas práticas de coleta e compartilhamento de dados.
Consequências práticas para usuários e empresas
Essa ação reforça a importância da transparência no uso de dados pessoais, especialmente quando envolvem informações sensíveis como imagens faciais. Para os usuários, o caso evidencia riscos de uso indevido de dados mesmo em plataformas populares.
Para empresas que desenvolvem IA, o episódio serve como alerta para respeitar rigorosamente as políticas de privacidade e obter consentimento claro para o uso de dados, evitando sanções e perda de confiança.