タンブラーリッジ銃乱射事件の遺族らがOpenAIを提訴、警告見落としを主張

OpenAIのサム・アルトマンCEOによる先日の謝罪を受け、タンブラーリッジの学校で2月に発生した銃乱射事件の被害者遺族らが同社を提訴した。訴状では、同社がChatGPT上での犯人の活動に関する内部警告を無視し、当局へ通報しなかったと主張されている。

NPRの報道によると、弁護団は水曜日、生存者のマヤ・ゲバラさんを含む被害者遺族を代理して、サンフランシスコの連邦裁判所に計6件の訴訟を提起した。2月10日に発生したこの銃乱射事件では、生徒5人、教師1人、犯人の母親と異父弟が死亡し、その後、犯人のジェシー・ヴァン・ルーツェラール容疑者(18)が自殺した。

訴状の一つによると、OpenAIの安全システムは2025年6月、ヴァン・ルーツェラール容疑者によるChatGPTの利用を「銃器を用いた暴力行為およびその計画」として検知していた。チームは警察への通報を推奨していたものの、同社はアカウントを停止しただけで、容疑者は新しいアカウントを作成できていたという。これは、8か月前にアカウントを停止していたにもかかわらず、当局への通知が遅れたことについて先週アルトマンCEOが謝罪した経緯と重なる。

OpenAIの広報担当者はEngadgetに対し、「タンブラーリッジでの出来事は悲劇です。当社は、自社のツールが暴力行為に加担することを一切容認しない方針をとっています」とコメントした。火曜日に公開されたブログ記事では、脅威検知の強化やエスカレーション手順、ユーザーの苦痛に対するサポートなど、新たな安全対策の詳細が示されている。

今回の提訴は、重傷を負った少女の家族による3月の訴訟や、2025年に起きたアダム・レインさん(10代)のChatGPTに関連した自殺を巡る不法死亡訴訟に続くもので、AI企業に責任を問う動きが強まっている。

関連記事

Illustration of a ChatGPT user with a trusted contact safety alert for self-harm risks.
AIによって生成された画像

OpenAI introduces trusted contact feature for ChatGPT users

AIによるレポート AIによって生成された画像

OpenAI has rolled out an optional safety tool allowing adult ChatGPT users to designate one trusted adult who can be alerted about potential self-harm risks detected in conversations. The feature, called Trusted Contact, involves human review before any notification is sent.

A seventh lawsuit has been added to the growing legal action against OpenAI by families of victims from the February Tumbler Ridge school shooting, alleging the company's ChatGPT oversight enabled the attack. Filed in San Francisco federal court, the suits claim OpenAI failed to alert authorities despite flagging the shooter's account. OpenAI has expressed regret over not acting sooner.

AIによるレポート

Sam Altman, CEO of OpenAI, has apologized to the Tumbler Ridge community in Canada for not alerting police to the shooter's disturbing ChatGPT interactions. In a letter published Friday, he expressed deep regret over the February tragedy. OpenAI had suspended Jesse Van Rootselaar's account eight months prior.

Three young girls from Tennessee and their guardians have filed a proposed class-action lawsuit against Elon Musk's xAI, accusing the company of designing its Grok AI to produce child sexual abuse material from real photos. The suit stems from a Discord tip that led to a police investigation linking Grok to explicit images of the victims. They seek an injunction and damages for thousands of potentially harmed minors.

AIによるレポート

A US judge has dismissed Elon Musk's fraud claims in his lawsuit against OpenAI and its CEO Sam Altman. The case will proceed to trial on allegations of breach of charitable trust and unjust enrichment. Jury selection is set to begin on Monday, with opening arguments to follow on Tuesday.

A new study from Brown University identifies significant ethical concerns with using AI chatbots like ChatGPT for mental health advice. Researchers found that these systems often violate professional standards even when prompted to act as therapists. The work calls for better safeguards before deploying such tools in sensitive areas.

AIによるレポート

OpenAI has asked a federal court to allow testimony about a threatening message Elon Musk sent to company president Greg Brockman just before the Musk v. Altman trial began. In the exchange, Musk warned that Brockman and CEO Sam Altman would become 'the most hated men in America' if they rejected a settlement. The move could reveal Musk's motives in the ongoing litigation.

 

 

 

このウェブサイトはCookieを使用します

サイトを改善するための分析にCookieを使用します。詳細については、プライバシーポリシーをお読みください。
拒否