Grammarly oferece 'revisão de especialistas' com IA de autores famosos—vivos ou mortos
O Grammarly lançou uma funcionalidade que simula feedback de autores consagrados como Hemingway e Virginia Woolf no seu texto. O problema é que a empresa não te
Grammarly oferece “revisão de especialistas” com IA simulando autores famosos — vivos ou mortos
O Grammarly, ferramenta de correção de texto que muita gente usa pra revisar inglês, lançou uma funcionalidade que promete feedback de escritores consagrados sobre o seu texto. Stephen King, Neil deGrasse Tyson, Virginia Woolf, Hemingway — você escolhe o “especialista” e a IA te dá sugestões baseadas no estilo deles.
O problema? A empresa não pediu autorização pra ninguém. Nem pros autores vivos, nem pros espólios dos mortos. E isso reacende uma discussão que não vai embora tão cedo: até onde as empresas de IA podem ir usando o trabalho de outras pessoas?
A empresa, que recentemente se rebatizou como Superhuman (o assistente de escrita continua se chamando Grammarly), deixa um aviso discreto dizendo que “referências a especialistas são apenas para fins informativos e não indicam afiliação ou endosso”. Ou seja: os autores não têm nada a ver com isso, mas seus nomes e estilos estão sendo usados mesmo assim.
O que está acontecendo
O recurso se chama “Expert Review” e funciona assim: você escreve um texto, seleciona um “especialista” de uma lista de acadêmicos e autores famosos, e a IA gera críticas e sugestões baseadas no estilo e nas obras dessas pessoas.
A lista inclui gente viva, como o escritor Stephen King e o astrofísico Neil deGrasse Tyson, e mortos, como o editor William Zinsser (autor do clássico “On Writing Well”) e o astrônomo Carl Sagan. Segundo a empresa, o sistema “examina o texto do usuário e usa o modelo de linguagem para apresentar conteúdo de especialistas que pode ajudar a moldar o trabalho”.
O caso ganhou atenção quando Vanessa Heggie, professora associada de história da ciência na Universidade de Birmingham, postou no LinkedIn um exemplo perturbador. O sistema estava oferecendo análise baseada em David Abulafia, historiador inglês especializado em períodos medieval e renascentista — que morreu em janeiro de 2026. Heggie chamou a prática de “obscena”, acusando a empresa de criar “pequenos LLMs” baseados em trabalhos extraídos sem permissão.
A revista WIRED testou a ferramenta e confirmou: conseguiu recomendações de bots modelados em Abulafia, nos cientistas cognitivos Steven Pinker e Gary Marcus, e viu o sistema mencionando que estava “se inspirando” em William Strunk Jr. (do clássico “Elements of Style”) e no sociólogo Pierre Bourdieu.
Quando contatados, Stephen King e Neil deGrasse Tyson não responderam. Pinker e Marcus também não.
Por que isso importa pra você
Esse caso ilustra um problema estrutural da era da IA generativa: empresas treinando modelos com conteúdo de terceiros sem pedir licença — e agora usando nomes e reputações de pessoas reais como diferencial de produto.
Se você é criador de conteúdo, escritor, acadêmico ou trabalha com qualquer tipo de produção intelectual, isso deveria acender um alerta. Hoje são autores famosos. Amanhã pode ser o seu trabalho sendo usado pra treinar um bot que simula o seu estilo — sem você saber, sem você ganhar nada, sem você poder fazer nada a respeito.
A questão legal ainda está nebulosa. Existem dezenas de processos judiciais sobre direitos autorais e IA generativa em andamento, mas nenhuma decisão definitiva. As empresas continuam operando numa zona cinzenta, apostando que a lei vai demorar pra alcançá-las.
E tem outro aspecto: a questão ética de usar o nome de pessoas mortas recentemente. O caso de Abulafia é emblemático — o historiador morreu há poucos meses e já virou um “agente de IA” oferecendo feedback sobre textos.
O que esperar
O Grammarly provavelmente não é a última empresa a fazer isso. A tendência de personalizar assistentes de IA com “personalidades” baseadas em figuras reais só deve crescer. E enquanto não houver regulamentação clara, as empresas vão continuar empurrando os limites.
Para os usuários, vale o alerta: quando uma ferramenta oferece “feedback de Stephen King” ou “análise no estilo de Carl Sagan”, você não está recebendo nada dessas pessoas. É um modelo de linguagem que processou textos deles (provavelmente sem autorização) e está gerando respostas estatisticamente prováveis. Pode ser útil? Talvez. Mas é importante saber o que você está comprando.
O próprio Stephen King já declarou publicamente que vê o avanço da IA como “inevitável”. Mas uma coisa é reconhecer uma tendência tecnológica, outra é ter seu nome usado como produto sem ser consultado. Essa distinção importa — e o mercado ainda não aprendeu a respeitá-la.
Fonte original: Wired AI
Este artigo foi gerado automaticamente pelo AI Digest a partir de multiplas fontes e curado por nossa equipe.
Fonte original
www.wired.com