Tras la reciente disculpa del CEO de OpenAI, Sam Altman, las familias de las víctimas del tiroteo escolar de febrero en Tumbler Ridge han presentado demandas contra la empresa, alegando que ignoró las señales internas sobre la actividad del tirador en ChatGPT y no alertó a las autoridades.
Según NPR, los abogados presentaron seis demandas el miércoles ante un tribunal federal de San Francisco en nombre de las familias afectadas, incluida la sobreviviente Maya Gebala. El tiroteo del 10 de febrero dejó un saldo de cinco estudiantes, un profesor, la madre del tirador y su medio hermano muertos, tras lo cual Jesse Van Rootselaar, de 18 años, se suicidó.
Una de las demandas sostiene que los sistemas de seguridad de OpenAI detectaron en junio de 2025 que Van Rootselaar utilizaba ChatGPT para "actividades y planificación de violencia armada", y que el equipo recomendó contactar a la policía; sin embargo, la empresa solo desactivó la cuenta, lo que permitió que abriera una nueva. Esto se hace eco de la disculpa de Altman la semana pasada por no haber notificado a las autoridades antes, a pesar de haber suspendido la cuenta ocho meses atrás.
Un portavoz de OpenAI declaró a Engadget: "Los sucesos en Tumbler Ridge son una tragedia. Tenemos una política de tolerancia cero respecto al uso de nuestras herramientas para ayudar a cometer actos de violencia". Una publicación en el blog de la empresa el martes detalló nuevas medidas de seguridad: mejora en la detección de amenazas, escalada de casos y apoyo a usuarios en situaciones de angustia.
Estas demandas se suman a una querella presentada en marzo por la familia de una joven gravemente herida y a un caso previo por muerte por negligencia relacionado con el suicidio de Adam Raine, un adolescente, también vinculado a ChatGPT en 2025, lo que intensifica los esfuerzos por responsabilizar a las empresas de IA.