Una nueva investigación muestra que los algoritmos personalizados en plataformas como YouTube pueden obstaculizar el aprendizaje al limitar la exposición a la información, incluso para aquellos sin conocimientos previos. Los participantes en un estudio exploraron menos material, sacaron conclusiones incorrectas y se sintieron excesivamente confiados en sus errores. Los hallazgos destacan riesgos para una comprensión sesgada en las interacciones digitales cotidianas.
Un estudio publicado en el Journal of Experimental Psychology: General revela cómo los sistemas de recomendación personalizados interfieren en los procesos de aprendizaje. Realizado por Giwon Bahg como parte de su tesis doctoral en The Ohio State University, la investigación involucró a 346 participantes en línea sin conocimientos previos sobre el tema. Para probar los efectos, los investigadores crearon una tarea ficticia en la que los participantes aprendían a identificar tipos de alienígenas similares a cristales, cada uno definido por seis características variables como forma y color.
En una condición, los participantes hicieron clic para revelar todas las características de cada alienígena. En otra, un algoritmo de personalización guió sus elecciones, dirigiéndolos a examinar repetidamente las mismas características mientras permitía saltos. Los que usaron el algoritmo vieron menos características en general y en un patrón selectivo. Más tarde, al ser probados con nuevos alienígenas, los clasificaron incorrectamente pero expresaron alta confianza en sus respuestas.
"Estaban aún más confiados cuando en realidad estaban equivocados en sus elecciones que cuando estaban correctos, lo cual es preocupante porque tenían menos conocimiento", dijo Bahg. Ahora becario postdoctoral en Pennsylvania State University, Bahg señaló que los algoritmos construyen sesgos de inmediato, lo que lleva a visiones distorsionadas de la realidad.
El coautor Brandon Turner, profesor de psicología en Ohio State, explicó: "La gente pierde información cuando sigue un algoritmo, pero piensa que lo que sabe se generaliza a otras características y otras partes del entorno que nunca han experimentado."
Los investigadores ilustraron el sesgo con un escenario de recomendación de películas: un usuario nuevo en las películas de un país podría ver solo thrillers de acción, formando suposiciones inexactas sobre su cine y cultura. Las implicaciones se extienden a los niños que aprenden en línea, donde los algoritmos priorizan el consumo de contenido sobre la exploración amplia. "Si tienes un niño pequeño que realmente intenta aprender sobre el mundo, y están interactuando con algoritmos en línea que priorizan que los usuarios consuman más contenido, ¿qué va a pasar?" preguntó Turner. El coautor Vladimir Sloutsky, también en Ohio State, contribuyó al trabajo.