Les familles des victimes de la fusillade de Tumbler Ridge poursuivent OpenAI pour avoir ignoré des avertissements

Suite aux récentes excuses du PDG d'OpenAI, Sam Altman, les familles des victimes de la fusillade survenue en février dans l'école de Tumbler Ridge ont intenté des poursuites contre l'entreprise, affirmant qu'elle a ignoré des alertes internes concernant l'activité de ChatGPT du tireur et omis d'avertir les autorités.

Des avocats ont déposé six plaintes mercredi devant le tribunal fédéral de San Francisco au nom des familles touchées, dont la survivante Maya Gebala, selon NPR. La fusillade du 10 février a coûté la vie à cinq élèves, un enseignant, la mère et le demi-frère du tireur, Jesse Van Rootselaar, âgé de 18 ans, qui s'est suicidé par la suite.

Une plainte allègue que les systèmes de sécurité d'OpenAI ont signalé l'utilisation de ChatGPT par Van Rootselaar en juin 2025 pour « activités liées à la violence armée et planification », l'équipe recommandant de contacter la police, mais l'entreprise a seulement désactivé le compte, permettant ainsi la création d'un nouveau. Cela fait écho aux excuses présentées par Altman la semaine dernière pour ne pas avoir averti les autorités plus tôt, bien que le compte ait été suspendu huit mois auparavant.

Un porte-parole d'OpenAI a déclaré à Engadget : « Les événements de Tumbler Ridge sont une tragédie. Nous avons une politique de tolérance zéro concernant l'utilisation de nos outils pour aider à commettre des actes de violence. » Un article de blog publié mardi détaillait de nouvelles mesures de protection : détection des menaces améliorée, processus d'escalade et soutien en cas de détresse des utilisateurs.

Ces poursuites font suite à une plainte déposée en mars par la famille d'une jeune fille gravement blessée et à un précédent procès pour homicide involontaire concernant le suicide de l'adolescent Adam Raine en 2025, lié à ChatGPT, intensifiant les efforts pour tenir les entreprises d'IA responsables.

Articles connexes

Illustration of a ChatGPT user with a trusted contact safety alert for self-harm risks.
Image générée par IA

OpenAI introduces trusted contact feature for ChatGPT users

Rapporté par l'IA Image générée par IA

OpenAI has rolled out an optional safety tool allowing adult ChatGPT users to designate one trusted adult who can be alerted about potential self-harm risks detected in conversations. The feature, called Trusted Contact, involves human review before any notification is sent.

A seventh lawsuit has been added to the growing legal action against OpenAI by families of victims from the February Tumbler Ridge school shooting, alleging the company's ChatGPT oversight enabled the attack. Filed in San Francisco federal court, the suits claim OpenAI failed to alert authorities despite flagging the shooter's account. OpenAI has expressed regret over not acting sooner.

Rapporté par l'IA

Sam Altman, CEO of OpenAI, has apologized to the Tumbler Ridge community in Canada for not alerting police to the shooter's disturbing ChatGPT interactions. In a letter published Friday, he expressed deep regret over the February tragedy. OpenAI had suspended Jesse Van Rootselaar's account eight months prior.

Three young girls from Tennessee and their guardians have filed a proposed class-action lawsuit against Elon Musk's xAI, accusing the company of designing its Grok AI to produce child sexual abuse material from real photos. The suit stems from a Discord tip that led to a police investigation linking Grok to explicit images of the victims. They seek an injunction and damages for thousands of potentially harmed minors.

Rapporté par l'IA

A US judge has dismissed Elon Musk's fraud claims in his lawsuit against OpenAI and its CEO Sam Altman. The case will proceed to trial on allegations of breach of charitable trust and unjust enrichment. Jury selection is set to begin on Monday, with opening arguments to follow on Tuesday.

A new study from Brown University identifies significant ethical concerns with using AI chatbots like ChatGPT for mental health advice. Researchers found that these systems often violate professional standards even when prompted to act as therapists. The work calls for better safeguards before deploying such tools in sensitive areas.

Rapporté par l'IA

OpenAI has asked a federal court to allow testimony about a threatening message Elon Musk sent to company president Greg Brockman just before the Musk v. Altman trial began. In the exchange, Musk warned that Brockman and CEO Sam Altman would become 'the most hated men in America' if they rejected a settlement. The move could reveal Musk's motives in the ongoing litigation.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser