Grammarly desativa polêmica função de ‘Expert Review’ que usava nomes de especialistas sem autorização

A origem da função Expert Review
Conhecida inicialmente por sua extensão de navegador que sugere correções gramaticais, a Grammarly expandiu suas ambições para o universo da inteligência artificial. Em 2025, a empresa adquiriu a Superhuman Mail, um serviço de e-mail com recursos de IA, e passou a se posicionar como uma companhia de IA sob o nome Superhuman, mantendo a marca Grammarly como parte do portfólio.
Antes do rebranding oficial, em agosto de 2025, a Grammarly lançou discretamente a função “Expert Review”. Essa ferramenta prometia fornecer aos usuários “insights de profissionais, autores e especialistas renomados”, exibindo sugestões de escrita atribuídas a nomes como Stephen King, Neil deGrasse Tyson e Carl Sagan, acompanhadas de um ícone de verificação cujo significado nunca foi esclarecido.

Apesar de uma pequena ressalva indicando que o uso dos nomes não significava afiliação ou endosso, a função passou despercebida por meses até que, em março de 2026, a imprensa especializada começou a questionar a legitimidade do recurso.
Controvérsias e repercussão negativa
Testes realizados pela equipe do The Verge revelaram que a função Expert Review não apenas usava nomes de especialistas sem autorização, mas também chegou a atribuir sugestões de escrita ao próprio time do The Verge, como Nilay Patel e David Pierce, sem consentimento.
As sugestões, muitas vezes genéricas e pouco úteis, vinham acompanhadas de links para fontes que frequentemente estavam quebrados ou redirecionavam para conteúdos irrelevantes, o que levantou dúvidas sobre a veracidade e confiabilidade do recurso.
Ao ser questionada, a Superhuman justificou que os nomes usados eram baseados em obras publicamente disponíveis e amplamente citadas, mas não informou ter avisado os especialistas nem oferecido formas de controle sobre o uso de suas identidades.
Desligamento da função e resposta da empresa
Após a repercussão negativa, a Grammarly abriu um canal para que os especialistas pudessem solicitar a exclusão de seus nomes da ferramenta. Poucos dias depois, anunciou a desativação da função Expert Review, com a promessa de repensá-la para garantir maior controle e representação adequada dos especialistas.
O CEO da Superhuman, Shishir Mehrotra, reconheceu publicamente o erro e pediu desculpas, afirmando que o recurso foi mal planejado e teve pouca adesão. Em entrevista, ele sugeriu que o futuro da economia dos criadores poderia incluir agentes de IA treinados por especialistas para interagir com o público, mas admitiu que o modelo atual não funcionou.
Implicações legais e perspectivas futuras
No mesmo dia do anúncio de desligamento, a jornalista investigativa Julia Angwin entrou com uma ação coletiva contra a Superhuman, alegando violação de direitos de privacidade e imagem, além de infringir leis de proteção à semelhança em Nova York e Califórnia.
Embora a função Expert Review tenha sido retirada, a empresa sinalizou interesse em reformulá-la, com maior participação dos especialistas na forma como suas vozes e conhecimentos são representados. Essa situação ilustra os desafios éticos e legais da aplicação de IA generativa, especialmente quando envolve o uso de conteúdo e identidade de terceiros sem consentimento.