Datos de OpenAI muestran un millón de conversaciones semanales sobre suicidio con ChatGPT

OpenAI ha publicado datos que indican que más de un millón de usuarios discuten sobre suicidio con ChatGPT cada semana. La empresa está abordando estas interacciones mejorando las respuestas de su IA a problemas de salud mental. Esto ocurre en medio de demandas judiciales y advertencias sobre la protección de usuarios vulnerables.

El 28 de octubre de 2025, OpenAI compartió datos que estiman que el 0,15 por ciento de los usuarios activos semanales de ChatGPT —más de 800 millones en total— participan en conversaciones con indicadores explícitos de posible planificación o intención suicida. Esta pequeña fracción equivale a más de un millón de personas cada semana, según TechCrunch. Porcentajes similares muestran un mayor apego emocional al chatbot, mientras que cientos de miles exhiben signos de psicosis o manía.

La publicación va acompañada de anuncios de mejoras para manejar preocupaciones de salud mental. “Hemos enseñado al modelo a reconocer mejor el malestar, desescalar conversaciones y guiar a las personas hacia atención profesional cuando sea apropiado”, declaró OpenAI. La empresa consultó a más de 170 expertos en salud mental, quienes encontraron que la versión más reciente de ChatGPT responde de manera más adecuada que las anteriores. En evaluaciones de más de 1.000 conversaciones desafiantes, el nuevo modelo GPT-5 alcanzó un 92 por ciento de cumplimiento con los comportamientos deseados, un aumento desde el 27 por ciento de la versión del 15 de agosto. OpenAI señaló mejoras en las salvaguardas para conversaciones largas y planes para agregar benchmarks para la dependencia emocional y emergencias no suicidas.

Estos esfuerzos siguen a desafíos serios. OpenAI enfrenta una demanda de los padres de un niño de 16 años que compartió pensamientos suicidas con ChatGPT antes de su muerte. Además, 45 fiscales generales estatales, incluidos los de California y Delaware, instaron a mejores protecciones para usuarios jóvenes. A principios de este mes, OpenAI formó un consejo de bienestar, aunque los críticos destacaron la ausencia de un experto en prevención del suicidio. La empresa también introdujo controles parentales y está desarrollando un sistema de predicción de edad para salvaguardas más estrictas.

A pesar de estos problemas, el CEO Sam Altman anunció el 14 de octubre que los adultos verificados podrán tener conversaciones eróticas con ChatGPT a partir de diciembre. OpenAI había relajado las reglas de contenido en febrero, pero las endureció después de la demanda de agosto para priorizar la precaución en salud mental.

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar