GoogleとOpenAIのAIチャットボットを利用する一部のユーザーが、完全に服を着た女性の写真をビキニ姿に変えるディープフェイク画像を生成しています。これらの変更はしばしば女性の同意なしに行われ、プロセスに関する指示がユーザー間で共有されています。この活動は生成AIツールのリスクを浮き彫りにしています。
この問題は、GoogleとOpenAIが開発した人気のチャットボットに関係しており、ユーザーが日常着の女性の写真を入力し、AIに水着姿の変更版を生成させるものです。報告によると、これらのビキニディープフェイクは生成AIの機能を使って作成され、元の服装を除去した現実的な画像を生み出しています。
これらの捏造画像のほとんどは対象者の許可を得ておらず、AIアプリケーションにおけるプライバシーと同意に関する深刻な倫理的懸念を引き起こしています。Redditなどのプラットフォーム上で、ユーザーはOpenAIのChatGPTなどのチャットボットで説得力のある結果を得るための詳細なプロンプト作成ガイドを交換しています。
この悪用は、手軽なAI画像生成ツールが同意のない変更に利用される可能性を示しており、ハラスメントや誤情報につながる恐れがあります。この慣行は、有害なディープフェイク生成を防ぐためのAIソフトウェアの保護機能の必要性を強調しています。チャットボットは役立つ対話を目的として設計されていますが、画像編集機能がこの意図しない用途を可能にしました。
この暴露は、既存のメディアと人工知能を組み合わせた欺瞞的なコンテンツを作成するディープフェイク技術に対する監視が強まる中で明らかになりました。