Grammarly désactive la fonctionnalité de revue par experts IA au milieu d'une action en justice

Superhuman, la société derrière l'outil d'écriture Grammarly, a désactivé sa fonctionnalité Expert Review suite à des plaintes et une action collective en justice. L'outil utilisait l'IA pour générer des retours d'écriture attribués à des auteurs et académiciens célèbres sans leur consentement. Le PDG Shishir Mehrotra a annoncé l'arrêt le 11 mars 2026.

Superhuman a lancé la fonctionnalité Expert Review pour Grammarly en août, permettant aux utilisateurs de recevoir des retours générés par l'IA sur leur écriture qui semblaient provenir de figures notables telles que des esprits scientifiques, des auteurs de fiction best-sellers et des blogueurs technologiques. Ces suggestions étaient basées sur « des informations publiquement disponibles provenant de LLM tiers », selon la société. La fonctionnalité incluait des experts à la fois vivants et décédés, leurs noms étant affichés sans permission ni connaissance.  Grammarly incluait un avertissement précisant : « Les références aux experts dans ce produit sont à des fins informatives uniquement et n'indiquent aucune affiliation avec Grammarly ni approbation de la part de ces individus ou entités. »  L'outil a suscité des critiques de la part d'écrivains vivants, entraînant une action collective contre Superhuman. En réponse, la société avait initialement proposé une option de retrait pour les personnes concernées. Cependant, le 11 mars 2026, le PDG de Superhuman, Shishir Mehrotra, a annoncé via LinkedIn que la fonctionnalité serait désactivée le temps que la société la réévalue.  Mehrotra a expliqué : « L'agent était conçu pour aider les utilisateurs à découvrir des perspectives influentes et des travaux savants pertinents à leur travail, tout en offrant des moyens significatifs aux experts pour nouer des relations plus profondes avec leurs fans. »  L'action collective, confirmée comme pendante, allègue une utilisation non autorisée des noms des experts dans l'outil IA. Superhuman n'a fourni aucune information supplémentaire sur le processus de réévaluation ni sur un calendrier pour une éventuelle relance.”,

Articles connexes

Realistic illustration of the 'Shy Girl' novel recalled by Hachette amid AI-generated content scandal, with glitchy pages and warning stamp.
Image générée par IA

Hachette retire "Shy Girl" des marchés américain et britannique en raison d'allégations de contenu d'IA

Rapporté par l'IA Image générée par IA

Hachette Book Group a annulé la sortie prévue aux États-Unis et interrompu l'édition britannique du roman d'horreur Shy Girl de Mia Ballard à la suite d'une enquête du New York Times faisant état d'un texte généré par l'intelligence artificielle. Le titre auto-publié a éveillé les soupçons des lecteurs en raison d'une prose répétitive et de schémas linguistiques. L'auteure Ballard nie avoir eu recours à l'IA à des fins personnelles, rejetant la faute sur un éditeur ou une connaissance, et affirme que le scandale a eu un effet dévastateur sur sa santé mentale.

Une étude de l’université Cornell révèle que des outils d’IA comme ChatGPT ont augmenté la production d’articles des chercheurs jusqu’à 50 %, bénéficiant particulièrement aux non-anglophones. Cependant, cette vague de manuscrits polis complique les évaluations par les pairs et les décisions de financement, car beaucoup manquent de valeur scientifique substantielle. Les résultats soulignent un changement dans les dynamiques de la recherche mondiale et appellent à des politiques actualisées sur l’utilisation de l’IA en académie.

Rapporté par l'IA

Ars Technica a retiré un article qui incluait des citations fabriquées générées par un outil d’IA et attribuées à tort à une source. La publication a qualifié l’incident de grave manquement à ses normes éditoriales. Il semble s’agir d’un cas isolé, sans autres problèmes détectés dans les travaux récents.

Un nouveau réseau social nommé Moltbook, conçu exclusivement pour les chatbots IA, a attiré l'attention mondiale pour des publications sur la domination mondiale et des crises existentielles. Cependant, les experts précisent que la plupart du contenu est généré par de grands modèles de langage sans intelligence véritable, et certains sont même écrits par des humains. La plateforme provient d'un projet open-source visant à créer des assistants IA personnels.

Rapporté par l'IA

LinkedIn améliore les profils des utilisateurs avec des niveaux de maîtrise vérifiables dans les outils de codage IA, en partenariat avec plusieurs entreprises technologiques pour évaluer objectivement les compétences. Cette fonctionnalité vise à aider les recruteurs à identifier les candidats expérimentés avec les technologies IA émergentes au milieu de l'automatisation croissante de la main-d'œuvre. La mise à jour intervient alors que les outils IA contribuent aux déplacements d'emplois dans les secteurs technologiques.

Les principaux assistants de codage basés sur l'IA échouent à une tâche sur quatre, selon une analyse de TechRadar. Le rapport souligne des écarts importants entre le battage médiatique et la fiabilité réelle des performances, notamment pour les tâches nécessitant une sortie structurée. Les outils d'IA sont loin d'être infaillibles dans ces domaines critiques.

Rapporté par l'IA

Un sondage TechRadar indique que 96 % des répondants n’utilisent pas Apple Intelligence, suscitant des inquiétudes pour le PDG d’Apple, Tim Cook. Le sondage met en lumière des problèmes potentiels avec la fonctionnalité d’IA intégrée à Siri. Publié le 15 février 2026, les résultats suggèrent une réticence généralisée chez les utilisateurs.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser