IaFoco
Voltar para o blog
TechCrunch AI

Grammarly enfrenta processo por usar identidades reais em recurso de IA sem autorização

14 de março de 2026
13:17
Ética em IAPrivacidadeinteligência artificialtecnologiainovaçãosegurança digitalGrammarlyProcesso JudicialProteção de DadosLGPD
Grammarly enfrenta processo por usar identidades reais em recurso de IA sem autorização

Nos últimos meses, a popular ferramenta de correção gramatical Grammarly tem chamado atenção, mas não pelos seus recursos de aprimoramento de texto. A empresa está no centro de uma polêmica envolvendo o uso não autorizado de identidades reais para alimentar seu recurso de sugestões de "Especialistas" baseadas em Inteligência Artificial. Este caso levanta importantes questões sobre ética, privacidade e os limites do uso de dados pessoais em tecnologias de IA.

O que aconteceu?

A Grammarly lançou uma funcionalidade chamada "Expert Review" (Revisão por Especialistas), que oferece sugestões de melhoria no texto baseadas em análises feitas por supostos especialistas. No entanto, foi descoberto que a empresa estava utilizando os nomes e identidades de pessoas reais, incluindo jornalistas e profissionais, para dar credibilidade a essas sugestões, sem a permissão deles.

Entre os afetados está a jornalista Julia Angwin, que decidiu tomar medidas legais contra a Grammarly. Ela entrou com uma ação coletiva, alegando que a empresa violou direitos ao usar sua identidade para promover um recurso de IA, caracterizando uma apropriação indevida e enganosa.

Implicações éticas e legais

O caso da Grammarly não é apenas sobre uma empresa que usou nomes sem autorização. Ele destaca um dilema maior que vem crescendo com o avanço da Inteligência Artificial: até que ponto as tecnologias podem se beneficiar de dados pessoais e imagens de terceiros?

  • Consentimento e privacidade: Utilizar a identidade de alguém sem autorização para fins comerciais é uma violação clara da privacidade e pode configurar uso indevido de imagem.
  • Transparência: Usuários das ferramentas de IA merecem saber como os dados são coletados e utilizados, especialmente quando envolvem terceiros.
  • Responsabilidade das empresas: As companhias precisam garantir que seus produtos estejam em conformidade com legislações de proteção de dados, como a LGPD no Brasil e o GDPR na Europa.

O impacto para o mercado de IA

Esse episódio serve como um alerta para outras empresas que desenvolvem soluções baseadas em Inteligência Artificial. O uso indevido de dados pessoais pode não apenas gerar processos judiciais, mas também prejudicar a reputação da marca e a confiança do público.

Além disso, a situação reforça a importância de políticas claras de ética em IA, que incluam:

  • Consentimento explícito para uso de dados pessoais
  • Auditorias regulares para garantir conformidade legal
  • Comunicação transparente com os usuários

Conclusão

O processo contra a Grammarly é um marco para o debate sobre o uso ético da Inteligência Artificial, especialmente quando envolve dados pessoais e identidades reais. Enquanto a tecnologia avança rapidamente, é fundamental que empresas e desenvolvedores priorizem a transparência e o respeito aos direitos individuais.

Para os usuários, esse caso reforça a importância de estar atento às políticas de privacidade e às práticas das ferramentas que utilizam, garantindo que seus dados e identidades sejam tratados com responsabilidade.

Em um cenário onde a IA se torna cada vez mais integrada ao nosso cotidiano, a ética e a legalidade devem caminhar lado a lado para construir um futuro tecnológico mais justo e seguro para todos.