Grammarly desactiva función de revisión por expertos de IA en medio de demanda

Superhuman, la empresa detrás de la herramienta de escritura Grammarly, ha desactivado su función Expert Review tras quejas y una demanda colectiva. La herramienta utilizaba IA para generar retroalimentación de escritura atribuida a autores famosos y académicos sin su consentimiento. El CEO Shishir Mehrotra anunció el cierre el 11 de marzo de 2026.

Superhuman lanzó la función Expert Review para Grammarly en agosto, permitiendo a los usuarios recibir retroalimentación generada por IA sobre su escritura que parecía provenir de figuras notables como mentes científicas, autores de ficción más vendidos y blogueros tecnológicos. Estas sugerencias se basaban en «información públicamente disponible de LLMs de terceros», según la compañía. La función incluía expertos tanto vivos como fallecidos, con sus nombres mostrados sin permiso ni conocimiento de ellos. Grammarly incluía un descargo de responsabilidad que decía: «Las referencias a expertos en este producto son solo con fines informativos y no indican ninguna afiliación con Grammarly ni endoso por parte de esas personas o entidades.» La herramienta recibió críticas de escritores vivos, lo que llevó a un intento de demanda colectiva contra Superhuman. En respuesta, la compañía inicialmente ofreció una opción de exclusión para las personas afectadas. Sin embargo, el 11 de marzo de 2026, el CEO de Superhuman Shishir Mehrotra anunció vía LinkedIn que la función sería desactivada mientras la compañía la reevalúa. Mehrotra explicó: «El agente estaba diseñado para ayudar a los usuarios a descubrir perspectivas influyentes y erudición relevantes para su trabajo, al mismo tiempo que proporcionaba formas significativas para que los expertos construyeran relaciones más profundas con sus fans.» La demanda colectiva, confirmada como pendiente, alega el uso no autorizado de los nombres de los expertos en la herramienta de IA. Superhuman no ha proporcionado más detalles sobre el proceso de reevaluación ni el cronograma para un posible relanzamiento.

Artículos relacionados

Realistic illustration of the 'Shy Girl' novel recalled by Hachette amid AI-generated content scandal, with glitchy pages and warning stamp.
Imagen generada por IA

Hachette retira "Shy Girl" de los mercados de EE.UU. y el Reino Unido por acusaciones de contenido de inteligencia artificial

Reportado por IA Imagen generada por IA

Hachette Book Group ha cancelado el lanzamiento previsto en Estados Unidos y descatalogado la edición británica de la novela de terror Shy Girl, de Mia Ballard, a raíz de una investigación del New York Times en la que se denunciaba la existencia de texto generado por inteligencia artificial. El título autopublicado despertó las sospechas de los lectores por su prosa repetitiva y sus patrones lingüísticos. La autora, Ballard, niega el uso personal de IA, culpando a un editor o conocido, y afirma que el escándalo ha devastado su salud mental.

Un estudio de la Universidad de Cornell revela que herramientas de IA como ChatGPT han aumentado la producción de artículos de los investigadores hasta en un 50%, beneficiando especialmente a los hablantes no nativos de inglés. Sin embargo, este aumento en manuscritos pulidos está complicando las revisiones por pares y las decisiones de financiación, ya que muchos carecen de valor científico sustancial. Los hallazgos destacan un cambio en la dinámica de la investigación global y llaman a políticas actualizadas sobre el uso de IA en la academia.

Reportado por IA

Ars Technica ha retirado un artículo que incluía citas fabricadas generadas por una herramienta de IA y atribuidas erróneamente a una fuente. La publicación describió el incidente como un grave fallo de sus estándares editoriales. Parece un caso aislado, sin otros problemas en trabajos recientes.

Una nueva red social llamada Moltbook, diseñada exclusivamente para chatbots de IA, ha atraído la atención mundial por publicaciones sobre dominación mundial y crisis existenciales. Sin embargo, los expertos aclaran que gran parte del contenido es generado por modelos de lenguaje grandes sin verdadera inteligencia, y algo incluso está escrito por humanos. La plataforma proviene de un proyecto de código abierto destinado a crear asistentes de IA personales.

Reportado por IA

LinkedIn está mejorando los perfiles de usuarios con niveles de competencia verificables en herramientas de codificación con IA, en colaboración con varias empresas tecnológicas para evaluar habilidades de manera objetiva. Esta función busca ayudar a los reclutadores a identificar candidatos con experiencia en tecnologías emergentes de IA en medio de la creciente automatización en la fuerza laboral. La actualización llega cuando las herramientas de IA contribuyen a desplazamientos laborales en los sectores tecnológicos.

Los principales asistentes de programación basados en IA fallan en una de cada cuatro tareas, según un análisis de TechRadar. El informe señala brechas importantes entre la publicidad y la fiabilidad real del rendimiento, especialmente en tareas de salida estructurada. Las herramientas de IA están lejos de ser perfectas en estas áreas críticas.

Reportado por IA

Una encuesta de TechRadar indica que el 96 % de los encuestados no usan Apple Intelligence, generando preocupación para el CEO de Apple, Tim Cook. La encuesta destaca posibles problemas con la función de IA integrada en Siri. Publicada el 15 de febrero de 2026, los resultados sugieren una amplia reticencia entre los usuarios.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar