Une septième plainte a été ajoutée à l'action en justice croissante contre OpenAI par les familles des victimes de la fusillade scolaire de février à Tumbler Ridge, alléguant que la supervision de ChatGPT par l'entreprise a facilité l'attaque. Déposées devant un tribunal fédéral de San Francisco, les plaintes affirment qu'OpenAI a omis d'alerter les autorités malgré le signalement du compte du tireur. OpenAI a exprimé ses regrets pour ne pas avoir agi plus tôt.
Cette dernière plainte porte à sept le nombre total de dossiers déposés au nom des familles des victimes, faisant suite à six précédentes actions introduites la semaine dernière qui soulignaient des alertes de sécurité internes concernant l'activité ChatGPT du tireur Jesse Van Rootselaar en juin 2025, liée à la planification d'actes de violence armée. Ces plaintes, dont celle déposée pour la survivante Maya Gebala, accusent OpenAI d'avoir désactivé le compte sans avertir la police, permettant ainsi la création d'un nouveau compte.
La pression s'accentue après les récentes excuses du PDG Sam Altman concernant cette défaillance, survenue huit mois avant la tragédie du 10 février, où l'ancien élève de 18 ans a tué cinq enfants, une assistante pédagogique, sa mère et son demi-frère avant de se suicider.
OpenAI a réitéré sa politique de tolérance zéro et a détaillé de nouvelles mesures de protection telles qu'une détection améliorée des menaces. Ces dossiers s'ajoutent à des plaintes antérieures, notamment une affaire liée au suicide d'un adolescent impliquant ChatGPT, accentuant les débats sur la responsabilité de l'IA dans le cadre de la controverse plus large de Tumbler Ridge.