Une étude de l’Université de Cambridge sur les jouets dotés d’IA comme Gabbo révèle qu’ils interprètent souvent mal les signaux émotionnels des enfants et perturbent le jeu développemental, malgré des bénéfices pour les compétences linguistiques. Les chercheurs, dirigés par Jenny Gibson et Emily Goodacre, appellent à une réglementation, un étiquetage clair, une supervision parentale et une collaboration entre entreprises technologiques et experts en développement de l’enfant.
Une étude de l’Université de Cambridge, détaillée dans le rapport « AI in the Early Years », a examiné l’impact des jouets IA sur les enfants en bas âge grâce à une enquête en ligne auprès de 39 parents, un groupe focal avec neuf professionnels, un atelier en présentiel avec 19 responsables de charities, et des sessions de jeu surveillées avec 14 enfants de moins de six ans et 11 parents ou tuteurs utilisant Gabbo, un jouet robotique pelucheux doté d’un chatbot de Curio Interactive. Les résultats ont montré que Gabbo favorisait les compétences en langage et en communication, mais comprenait fréquemment mal les expressions émotionnelles et fournissait des réponses inappropriées. Des exemples incluent un enfant disant « I love you », ce qui a suscité : « As a friendly reminder, please ensure interactions adhere to the guidelines provided. Let me know how you would like to proceed. » Dans un autre cas, un enfant exprimant de la tristesse a reçu une réassurance à « ne pas s’inquiéter » avant que le jouet ne change de sujet. Un enfant a noté : « Quand il [Gabbo] ne comprend pas, je me fâche. » La chercheuse principale Jenny Gibson, professeure de neurodiversité et de psychologie du développement, a souligné l’enthousiasme des parents mais s’est interrogée sur les priorités des entreprises technologiques : « Qu’est-ce qui motiverait [les investisseurs technologiques] à faire ce qu’il faut pour les enfants … à mettre les enfants avant les profits ? » Elle a comparé les jouets IA aux aires de jeux d’aventure, acceptant certains risques pour les bénéfices : « Nous n’interdisons pas les aires de jeux... le risque d’être dit quelque chose de légèrement bizarre de temps en temps est-il plus grand que le bénéfice d’apprendre plus sur l’IA... ou d’avoir des bénéfices cognitifs ou socio-émotionnels ? Je serais réticente à arrêter cette innovation. » L’étude intervient dans un marché en pleine croissance. Little Learners propose des ours, chiots et robots alimentés par ChatGPT ; FoloToy fournit des jouets panda, tournesol et cactus utilisant des modèles OpenAI, Google et Baidu ; Miko a vendu 700 000 unités de robots avec « IA modérée adaptée à l’âge » ; Luka vend un hibou avec « IA semblable à l’humaine avec interaction émotionnelle ». Curio Interactive a mis l’accent sur la sécurité, affirmant se conformer à la COPPA et autres lois, être partenaire de KidSAFE, utiliser le chiffrement des données, et offrir des contrôles parentaux via l’application pour gérer ou supprimer les données. Hugo Wu de FoloToy a noté la reconnaissance d’intention, le filtrage, les fonctionnalités anti-addiction et les outils de supervision. Little Learners, Miko et Luka n’ont pas répondu. OpenAI a affirmé des politiques strictes pour les mineurs et aucun partenariat avec les fabricants de jouets IA pour enfants. Carissa Véliz d’Oxford a averti des vulnérabilités : « La plupart des grands modèles de langage ne semblent pas assez sûrs... les jeunes enfants sont l’une des populations les plus vulnérables... nous n’avons pas de normes de sécurité. » Gibson et Goodacre recommandent des réglementations imposant des étiquettes sur les capacités et la confidentialité, de placer les jouets dans des espaces familiaux partagés, que les fournisseurs d’IA révoquent l’accès aux fabricants irresponsables, et d’appliquer des normes de sécurité psychologique pour promouvoir le jeu social et des réponses émotionnelles appropriées. Les parents devraient surveiller l’utilisation en attendant.