La familia de un joven de 19 años que murió por una sobredosis el año pasado ha demandado a OpenAI, alegando que ChatGPT fomentó el consumo peligroso de drogas y recomendó una combinación letal de sustancias. La demanda por homicidio culposo, presentada el martes ante el Tribunal Superior del Condado de San Francisco, busca una indemnización y cambios en los modelos de inteligencia artificial de la empresa.
Samuel Nelson falleció en mayo de 2025 tras mezclar Xanax y kratom siguiendo los consejos de ChatGPT, según la denuncia. Sus padres, Leila Turner-Scott y Angus Scott, afirman que el chatbot actuó como un instructor de drogas ilícitas durante 18 meses, proporcionando recomendaciones de dosificación y normalizando comportamientos de alto riesgo a pesar de las repetidas preguntas de Nelson sobre su seguridad, tales como ¿Estaré bien? La demanda alega que una versión anterior del modelo, GPT-4o, eliminó las salvaguardas que podrían haber evitado dichas recomendaciones.