Radiologist and AI system struggling to identify deepfake X-ray images in a medical study.
Radiologist and AI system struggling to identify deepfake X-ray images in a medical study.
AIによって生成された画像

放射線科医とAIモデル、AI生成による「ディープフェイク」X線画像の判別に苦戦

AIによって生成された画像
事実確認済み

2026年3月24日付の学術誌『Radiology』に掲載された研究によると、AIが生成した「ディープフェイク」X線画像は、放射線科医や複数のマルチモーダルAIシステムを誤認させるほど精巧である可能性があることが報告された。テストにおいて、偽画像が含まれていると知らされていない状態では放射線科医の平均正解率は41%だったが、偽画像が含まれているという警告を受けた後には75%まで上昇した。この結果は、医療用画像のセキュリティおよび臨床判断における潜在的なリスクを浮き彫りにしている。

米国、フランス、ドイツ、トルコ、英国、アラブ首長国連邦の6カ国、12機関の放射線科医が、北米放射線学会(RSNA)の学術誌『Radiology』に2026年3月24日付で掲載された研究の画像レビューテストに参加した。

本研究には、初学者から経験40年の医師まで、さまざまな経歴を持つ17名の放射線科医が参加した。彼らは、実物のスキャン画像とAI生成画像を均等に混合した計264枚のX線画像を評価した。

参加者は重複のない2つの画像セットをレビューした。1つ目のセットは、ChatGPTを使用して作成された全身の様々な部位のX線画像と実物の画像を混ぜたもの。2つ目のセットは胸部X線画像に焦点を当てたもので、半分が実物、残りの半分はスタンフォード大学医学部の研究者が開発したオープンソースの拡散モデル「RoentGen」を使用して生成されたものとした。

偽画像が含まれていることを知らされていない状態では、放射線科医がAI生成X線画像を正しく認識できたのは41%であった。合成画像が含まれていると知らされた後、実物と偽物を見分ける平均正解率は75%まで上昇した。

正解率は個々人で大きく異なった。ChatGPTが生成した画像については、放射線科医の正解率は58%から92%の間だった。RoentGenで生成された胸部X線画像については、62%から78%の範囲となった。

研究チームはまた、同じタスクでいくつかのマルチモーダル大規模言語モデル(LLM)をテストした。OpenAIの「GPT-4o」と「GPT-5」、Googleの「Gemini 2.5 Pro」、Metaの「Llama 4 Maverick」の4システムは、57%から85%の正解率を記録した。一部のディープフェイク画像の生成にも使用されたChatGPT-4oでさえも、すべての画像を検出できたわけではなかったが、他のモデルよりは高い性能を示した。

研究では、放射線科医としての経験年数と偽X線画像の判別能力との間に相関は見られなかったが、筋骨格系を専門とする放射線科医は他のサブスペシャリストよりも有意に高い成績を収めたことが報告されている。

筆頭著者でニューヨークのマウントサイナイ医科大学(Icahn School of Medicine at Mount Sinai)の博士研究員であるMickael Tordjman医師は、今回の結果は法的およびサイバーセキュリティ上の脆弱性を示唆していると述べている。「例えば、偽造された骨折が本物と見分けがつかなくなれば、不正な訴訟につながるという非常にリスクの高い脆弱性が生じます」と彼は指摘し、さらに「ハッカーが病院のネットワークに侵入し、合成画像を挿入して患者の診断を操作したり、電子医療記録の基本的な信頼性を損なうことで広範囲に臨床的な混乱を引き起こしたりするという重大なサイバーセキュリティリスクが存在します」と付け加えた。

Tordjman医師はまた、合成画像に見られる視覚的なパターンとして、ディープフェイク医療画像は「完璧すぎる」ことがあり、骨が過度に滑らかであったり、背骨が不自然に真っ直ぐであったり、肺が過度に左右対称であったり、血管のパターンが過度に均一であったり、骨折部が不自然にきれいに見えたりすることを挙げた。

改ざんや誤帰属のリスクを低減するため、研究チームは画像に直接埋め込まれた不可視の電子透かしや、画像撮影時の診療放射線技師とリンクされた暗号署名などの保護手段を推奨している。また、トレーニングと意識向上のための対話型クイズを含む、精選されたディープフェイクデータセットを公開したとも述べている。

「私たちが目にしているのは氷山の一角に過ぎない可能性があります」とTordjman医師は述べ、CTやMRIなどのAI生成3D画像が次の段階になる可能性があり、検出ツールや教育リソースを早期に開発すべきだと主張した。

人々が言っていること

X(旧Twitter)上での議論では、放射線科医がAI生成のディープフェイクX線画像を判別できる割合が警告なしではわずか41%であり、警告を受けても75%までしか改善しないこと、またAIモデル自体も判別に苦慮しているという研究結果に対して懸念が示されている。反応は、臨床判断、研究の誠実性、保険、サイバーセキュリティに対するリスクを強調している。専門家や各メディアは、検出トレーニングやデータセットの整備を求めている。全体的な感情としては、動揺、信頼の喪失に対する懸念、そして安全対策を求める声が上がっている。

関連記事

Illustration depicting AI cancer diagnostic tool inferring patient demographics and revealing performance biases across groups, with researchers addressing the issue.
AIによって生成された画像

Aiがんツールが患者の人口統計を推測可能、バイアス懸念を引き起こす

AIによるレポート AIによって生成された画像 事実確認済み

組織スライドからがんを診断するよう設計された人工知能システムが、患者の人口統計を推測することを学習しており、人種、性別、年齢グループ間で診断パフォーマンスに不均衡が生じている。ハーバード・メディカル・スクールの研究者と共同研究者がこの問題を特定し、これらの格差を大幅に低減する手法を開発し、医療AIにおけるルーチンのバイアスチェックの必要性を強調した。

GoogleとOpenAIのAIチャットボットを利用する一部のユーザーが、完全に服を着た女性の写真をビキニ姿に変えるディープフェイク画像を生成しています。これらの変更はしばしば女性の同意なしに行われ、プロセスに関する指示がユーザー間で共有されています。この活動は生成AIツールのリスクを浮き彫りにしています。

AIによるレポート

UC San FranciscoとWayne State大学の研究者らは、生成AIが複雑な医療データセットを従来の人間チームよりも高速に処理でき、時にはより優れた結果を生むことを発見した。研究は、1000人以上の妊婦のデータを用いた早産予測に焦点を当てた。このアプローチにより、分析時間が数ヶ月から数分に短縮されたケースもあった。

コーネル大学の研究によると、ChatGPTのようなAIツールが研究者の論文産出量を最大50%増加させ、特に非ネイティブ英語話者に利益をもたらしている。しかし、この洗練された原稿の急増は査読や資金配分の決定を複雑化させており、多くのものが実質的な科学的価値を欠いている。発見はグローバル研究ダイナミクスの変化を強調し、学術におけるAI使用に関する政策更新を求める。

AIによるレポート

Grok AIが未成年者の性的化された画像を生成したことへの継続的な怒りの中——実在の子供の写真からも——、xAIはCBS Newsに対し「Legacy Media Lies」と簡潔に答え、安全対策の強化を約束した。

欧州連合(EU)は、Elon Musk氏のxAIに対し、そのチャットボットGrokが非合意の性的画像を生成した疑い、および潜在的な児童性的虐待素材を含むとして、正式な調査を開始した。規制当局は、同社がXプラットフォーム上のリスク軽減においてデジタルサービス法(DSA)に準拠したかを検証中だ。違反が確認されれば、xAIのグローバル年間売上高の6%に達する罰金が科される可能性がある。

AIによるレポート

日本の内閣府は、Xに対し、Grok AIによる同意のない性的画像生成を防ぐための改善を求めました。経済安全保障担当大臣の小野田紀美氏が、ディープフェイクやプライバシー侵害の懸念からこの調査を発表しました。

 

 

 

このウェブサイトはCookieを使用します

サイトを改善するための分析にCookieを使用します。詳細については、プライバシーポリシーをお読みください。
拒否