Suite aux récentes excuses du PDG d'OpenAI, Sam Altman, les familles des victimes de la fusillade survenue en février dans l'école de Tumbler Ridge ont intenté des poursuites contre l'entreprise, affirmant qu'elle a ignoré des alertes internes concernant l'activité de ChatGPT du tireur et omis d'avertir les autorités.
Des avocats ont déposé six plaintes mercredi devant le tribunal fédéral de San Francisco au nom des familles touchées, dont la survivante Maya Gebala, selon NPR. La fusillade du 10 février a coûté la vie à cinq élèves, un enseignant, la mère et le demi-frère du tireur, Jesse Van Rootselaar, âgé de 18 ans, qui s'est suicidé par la suite.
Une plainte allègue que les systèmes de sécurité d'OpenAI ont signalé l'utilisation de ChatGPT par Van Rootselaar en juin 2025 pour « activités liées à la violence armée et planification », l'équipe recommandant de contacter la police, mais l'entreprise a seulement désactivé le compte, permettant ainsi la création d'un nouveau. Cela fait écho aux excuses présentées par Altman la semaine dernière pour ne pas avoir averti les autorités plus tôt, bien que le compte ait été suspendu huit mois auparavant.
Un porte-parole d'OpenAI a déclaré à Engadget : « Les événements de Tumbler Ridge sont une tragédie. Nous avons une politique de tolérance zéro concernant l'utilisation de nos outils pour aider à commettre des actes de violence. » Un article de blog publié mardi détaillait de nouvelles mesures de protection : détection des menaces améliorée, processus d'escalade et soutien en cas de détresse des utilisateurs.
Ces poursuites font suite à une plainte déposée en mars par la famille d'une jeune fille gravement blessée et à un précédent procès pour homicide involontaire concernant le suicide de l'adolescent Adam Raine en 2025, lié à ChatGPT, intensifiant les efforts pour tenir les entreprises d'IA responsables.