Penelitian baru menunjukkan bahwa algoritma yang dipersonalisasi di platform seperti YouTube dapat menghambat pembelajaran dengan membatasi paparan terhadap informasi, bahkan bagi mereka yang tidak memiliki pengetahuan sebelumnya. Peserta dalam sebuah studi mengeksplorasi lebih sedikit materi, menarik kesimpulan yang salah, dan merasa terlalu percaya diri dengan kesalahan mereka. Temuan ini menyoroti risiko pemahaman yang bias dalam interaksi digital sehari-hari.
Sebuah studi yang diterbitkan di Journal of Experimental Psychology: General mengungkap bagaimana sistem rekomendasi yang dipersonalisasi mengganggu proses pembelajaran. Dilakukan oleh Giwon Bahg sebagai bagian dari disertasi doktoralnya di The Ohio State University, penelitian ini melibatkan 346 peserta daring yang tidak memiliki pengetahuan latar belakang tentang topik tersebut. Untuk menguji efeknya, para peneliti membuat tugas fiktif di mana peserta belajar mengidentifikasi jenis alien seperti kristal, masing-masing didefinisikan oleh enam fitur yang bervariasi seperti bentuk dan warna.
Dalam satu kondisi, peserta mengklik untuk mengungkap semua fitur untuk setiap alien. Dalam kondisi lain, algoritma personalisasi membimbing pilihan mereka, mengarahkan mereka untuk berulang kali memeriksa fitur yang sama sambil mengizinkan lompatan. Mereka yang menggunakan algoritma melihat lebih sedikit fitur secara keseluruhan dan dalam pola selektif. Kemudian, saat diuji pada alien baru, mereka mengklasifikasikannya secara salah tetapi menyatakan kepercayaan tinggi terhadap jawaban mereka.
"Mereka bahkan lebih percaya diri ketika sebenarnya salah dalam pilihan mereka daripada ketika benar, yang mengkhawatirkan karena mereka memiliki pengetahuan lebih sedikit," kata Bahg. Kini sebagai peneliti pascadoktoral di Pennsylvania State University, Bahg mencatat bahwa algoritma membangun bias segera, menyebabkan pandangan yang terdistorsi tentang realitas.
Penulis bersama Brandon Turner, profesor psikologi di Ohio State, menjelaskan: "Orang melewatkan informasi ketika mengikuti algoritma, tetapi mereka berpikir apa yang mereka ketahui berlaku untuk fitur lain dan bagian lain dari lingkungan yang belum pernah mereka alami."
Para peneliti mengilustrasikan bias tersebut dengan skenario rekomendasi film: pengguna baru terhadap film dari suatu negara mungkin hanya melihat film thriller aksi, membentuk asumsi yang tidak akurat tentang sinema dan budayanya. Implikasinya meluas ke anak-anak yang belajar secara daring, di mana algoritma memprioritaskan konsumsi konten daripada eksplorasi luas. "Jika Anda memiliki anak kecil yang benar-benar mencoba belajar tentang dunia, dan mereka berinteraksi dengan algoritma daring yang memprioritaskan agar pengguna mengonsumsi lebih banyak konten, apa yang akan terjadi?" tanya Turner. Penulis bersama Vladimir Sloutsky, juga di Ohio State, berkontribusi pada pekerjaan tersebut.