De nouvelles recherches montrent que les algorithmes personnalisés sur des plateformes comme YouTube peuvent entraver l'apprentissage en limitant l'exposition aux informations, même pour ceux sans connaissances préalables. Les participants à une étude ont exploré moins de matériel, tiré des conclusions erronées et se sont sentis excessivement confiants dans leurs erreurs. Les résultats mettent en lumière les risques d'une compréhension biaisée dans les interactions numériques quotidiennes.
Une étude publiée dans le Journal of Experimental Psychology: General révèle comment les systèmes de recommandation personnalisés interfèrent avec les processus d'apprentissage. Réalisée par Giwon Bahg dans le cadre de sa thèse de doctorat à The Ohio State University, la recherche a impliqué 346 participants en ligne sans connaissances préalables sur le sujet. Pour tester les effets, les chercheurs ont créé une tâche fictive où les participants apprenaient à identifier des types d'aliens semblables à des cristaux, chacun défini par six caractéristiques variables telles que la forme et la couleur.
Dans une condition, les participants cliquaient pour révéler toutes les caractéristiques de chaque alien. Dans une autre, un algorithme de personnalisation guidait leurs choix, les orientant vers un examen répété des mêmes caractéristiques tout en permettant des sauts. Ceux utilisant l'algorithme ont vu moins de caractéristiques au total et selon un schéma sélectif. Plus tard, testés sur de nouveaux aliens, ils les ont triés incorrectement mais ont exprimé une forte confiance dans leurs réponses.
"Ils étaient encore plus confiants quand ils étaient en fait incorrects sur leurs choix que quand ils étaient corrects, ce qui est préoccupant car ils avaient moins de connaissances", a déclaré Bahg. Désormais chercheur postdoctoral à Pennsylvania State University, Bahg a noté que les algorithmes instillent des biais immédiatement, menant à des visions déformées de la réalité.
Le co-auteur Brandon Turner, professeur de psychologie à Ohio State, a expliqué : "Les gens manquent d'informations quand ils suivent un algorithme, mais ils pensent que ce qu'ils savent se généralise à d'autres caractéristiques et à d'autres parties de l'environnement qu'ils n'ont jamais expérimentées."
Les chercheurs ont illustré le biais avec un scénario de recommandation de films : un utilisateur novice des films d'un pays ne verrait que des thrillers d'action, formant des suppositions inexactes sur son cinéma et sa culture. Les implications s'étendent aux enfants apprenant en ligne, où les algorithmes privilégient la consommation de contenu sur l'exploration large. "Si vous avez un jeune enfant qui essaie vraiment d'apprendre sur le monde, et qu'il interagit avec des algorithmes en ligne qui priorisent la consommation de plus de contenu par les utilisateurs, que va-t-il se passer ?" a demandé Turner. Le co-auteur Vladimir Sloutsky, également à Ohio State, a contribué au travail.