パーソナライズドアルゴリズムが学習を歪め、過信を助長する

新しい研究によると、YouTubeのようなプラットフォームのパーソナライズドアルゴリズムは、事前の知識がない人々でさえ情報への露出を制限することで学習を妨げることが示された。研究の参加者は少ない資料を探求し、誤った結論を引き出し、誤りに対して過度に自信を持った。知見は日常のデジタル交流における偏った理解のリスクを強調している。

Journal of Experimental Psychology: Generalに掲載された研究は、パーソナライズド推薦システムが学習プロセスにどのように干渉するかを明らかにした。The Ohio State Universityでの博士論文の一部としてGiwon Bahgが行ったこの研究は、トピックに関する背景知識のない346人のオンライン参加者を対象とした。効果をテストするため、研究者らは参加者が形や色などの6つの変動する特徴で定義されるクリスタル状のエイリアンの種類を識別する学習をする架空のタスクを作成した。

一つの条件では、参加者は各エイリアンのすべての特徴をクリックして明らかにした。もう一つの条件では、パーソナライズドアルゴリズムが選択をガイドし、同じ特徴を繰り返し調べるよう誘導しつつスキップを許可した。アルゴリズムを使用した人々は全体的に特徴を少なく、選択的なパターンで見た。後で新しいエイリアンでテストされた際、彼らは誤って分類したが、回答に高い自信を表明した。

「彼らは正しかった場合よりも、実際には選択を誤っていた場合にさらに自信を持っていた。これは彼らが知識が少なかったため懸念される」とBahgは述べた。現在Pennsylvania State Universityのポスドク研究員であるBahgは、アルゴリズムが即座にバイアスを構築し、現実の歪んだ見方を生むと指摘した。

共同著者のBrandon Turner(Ohio State大学の心理学教授)は説明した:「アルゴリズムに従うと人々は情報を逃すが、自分たちが知っていることが経験したことのない他の特徴や環境の部分に一般化すると考える。」

研究者らは映画推薦のシナリオでバイアスを例示した:ある国の映画に初めて触れるユーザーはアクション・スリラーしか見ず、その映画や文化についての不正確な仮定を形成するかもしれない。示唆はオンラインで学ぶ子供たちにも及び、アルゴリズムは広範な探求よりコンテンツ消費を優先する。「世界について本気で学びたい幼い子供がいて、ユーザーにさらにコンテンツを消費させることを優先するオンラインアルゴリズムと関わるなら、何が起こるか?」とTurnerは問うた。共同著者のVladimir SloutskyもOhio State大学から貢献した。

このウェブサイトはCookieを使用します

サイトを改善するための分析にCookieを使用します。詳細については、プライバシーポリシーをお読みください。
拒否