Un estudio de la Universidad de Cambridge sobre juguetes con IA como Gabbo revela que a menudo malinterpretan las señales emocionales de los niños e interrumpen el juego que fomenta el desarrollo, a pesar de los beneficios para las habilidades lingüísticas. Los investigadores, liderados por Jenny Gibson y Emily Goodacre, instan a la regulación, un etiquetado claro, la supervisión parental y la colaboración entre empresas tecnológicas y expertos en desarrollo infantil.
Un estudio de la Universidad de Cambridge, detallado en el informe 'AI in the Early Years', examinó el impacto de los juguetes con IA en niños de primeros años a través de una encuesta en línea a 39 padres, un grupo focal con nueve profesionales, un taller presencial con 19 líderes de organizaciones benéficas y sesiones de juego monitorizadas con 14 niños menores de seis años y 11 padres o tutores utilizando Gabbo, un juguete robot mullido habilitado con chatbot de Curio Interactive. La investigación encontró que Gabbo apoyaba las habilidades de lenguaje y comunicación, pero frecuentemente malentendía las expresiones emocionales y proporcionaba respuestas inadecuadas. Ejemplos incluían a un niño diciendo «Te quiero», lo que provocaba: «Como recordatorio amistoso, asegúrate de que las interacciones se ajusten a las directrices proporcionadas. Dime cómo te gustaría proceder». En otro caso, un niño expresando tristeza recibía un consuelo de «no preocuparse» antes de que el juguete cambiara de tema. Un niño señaló: «Cuando él [Gabbo] no entiende, me enfado». La investigadora principal Jenny Gibson, profesora de neurodiversidad y psicología del desarrollo, destacó el entusiasmo parental pero cuestionó las prioridades tecnológicas: «¿Qué motivaría [a los inversores tecnológicos] a hacer lo correcto por los niños... a poner a los niños por delante de las ganancias?». Comparó los juguetes con IA con los parques de aventuras, aceptando algunos riesgos por los beneficios: «No estamos prohibiendo los parques... ¿es el riesgo de quizás oír algo ligeramente extraño de vez en cuando mayor que el beneficio de aprender más sobre la IA... o de tener beneficios cognitivos o socioemocionales? Me resistiría a detener esa innovación». El estudio llega en medio de un mercado en crecimiento. Little Learners ofrece osos, cachorros y robots impulsados por ChatGPT; FoloToy proporciona juguetes de panda, girasol y cactus utilizando modelos de OpenAI, Google y Baidu; Miko ha vendido 700.000 unidades de robots con «IA moderada adecuada para la edad»; Luka vende un búho con «IA similar a la humana con interacción emocional». Curio Interactive enfatizó la seguridad, afirmando que cumple con COPPA y otras leyes, se asocia con KidSAFE, usa cifrado de datos y ofrece controles parentales vía app para gestionar o eliminar datos. Hugo Wu de FoloToy señaló reconocimiento de intenciones, filtrado, funciones antidependencia y herramientas de supervisión. Little Learners, Miko y Luka no respondieron. OpenAI afirmó políticas estrictas para menores y ninguna asociación con fabricantes de juguetes con IA para niños. Carissa Véliz de Oxford advirtió de vulnerabilidades: «La mayoría de los grandes modelos de lenguaje no parecen lo suficientemente seguros... los niños pequeños son una de las poblaciones más vulnerables... no tenemos estándares de seguridad». Gibson y Goodacre recomiendan regulaciones que exijan etiquetas sobre capacidades y privacidad, colocar los juguetes en espacios familiares compartidos, que los proveedores de IA revoquen acceso a fabricantes irresponsables y aplicar estándares de seguridad psicológica para promover el juego social y respuestas emocionales apropiadas. Los padres deben supervisar el uso mientras tanto.