ペンシルベニア州立大学の研究者を含むチームが、ブロックチェーン技術が人工知能システムに倫理的境界を強制する方法を調査した。彼らの研究は、Journal of Cybersecurity and Privacyに掲載され、AIが人間の価値観に準拠することを保証するためのフレームワークを提案している。この研究は、AIの意思決定におけるブロックチェーンの透明性と説明責任の可能性を強調している。
ペンシルベニア州マルバーンで、ペンシルベニア州立大学グレートバレー校のソフトウェア工学助教授ドゥサン・ラムリャク氏とその協力者らは、ブロックチェーンがAIを倫理基準に適合させる役割を検討した論文を発表した。自動取引ボットや診断ツールなどのAIシステムが人間の監督を最小限に抑えて動作するにつれ、医学や金融などの分野で信頼できない結果のリスクが高まっている。「AIシステムは特定の参数内で特定の方法で動作するよう訓練される。参数が変わると...人間の価値観に反する予測不能な方法で動作する可能性がある — 例えば、機密の健康データを誤って扱うことによる誤表現や、誤った医療治療を推奨することによる誤情報などだ」とラムリャク氏は説明した。
チームには、ペンシルベニア州立大学アビントン校の助教授メアリャム・ロシャナエイ氏、マスター学生のジェイニル・カッカ氏、ウィーン大学の博士課程学生アレクサンダー・ノイリンガー氏とルーカス・スパラー氏、クラグイェヴァツ大学の博士課程学生ドラグーチン・オストイッチ氏が含まれており、7,000件以上の研究をレビューした。彼らは将来の研究のための3層フレームワークを開発した:ユーザーデータを保護するための技術プロトコルに焦点を当てたマイクロレベルの分析、金融と医療のセクター特有のユースケースのためのメゾレベルの分析、そして道徳的原則、国際法基準、文化変異を扱うマクロレベルの分析、例えば欧州連合のArtificial Intelligence Actなど。
暗号通貨を支えることで知られるブロックチェーンは、透明なデータ系統と改ざん耐性ログを持つ安全で分散型記録を提供する。それは、参加者が倫理的ルールに投票するコンセンサスメカニズムを可能にし、スマートコントラクトで施行される。これにより、追跡可能な決定が促進され、訓練データの操作に抵抗する。しかし、課題には高いエネルギー消費、透明性の増加によるプライバシーリスク、多様な文化的・法的文脈にわたる柔軟なフレームワークの必要性がある。
ラムリャク氏は、安全性、ガバナンス、法的な制約を統合した多層フレームワークの必要性を強調した。「ブロックチェーンとAIの収束は、技術システムの信頼性向上だけでなく、人間中心のガバナンスの新しい方法を提供し、大規模な説明責任を確保する可能性がある」と彼は述べた。