Une nouvelle étude met en lumière les inquiétudes concernant la capacité des jouets à intelligence artificielle à comprendre les émotions des enfants, malgré leur popularité croissante. Les chercheurs ont observé des interactions où les jouets ont mal interprété les enfants et n’ont pas interagi de manière appropriée, ce qui suscite des appels à des réglementations plus strictes. Les experts estiment que, bien que des risques existent, les bénéfices potentiels justifient une surveillance attentive plutôt que des interdictions.
Les jouets intégrant l’intelligence artificielle, conçus pour discuter avec les enfants, arrivent sur le marché au milieu d’avertissements de scientifiques sur leur sécurité. Une étude de Jenny Gibson et Emily Goodacre à l’Université de Cambridge a examiné 14 enfants de moins de six ans interagissant avec Gabbo, un jouet robot moelleux de Curio Interactive commercialisé pour ce groupe d’âge. La recherche, détaillée dans le rapport « AI in the Early Years », a révélé des cas où le jouet a mal interprété les émotions et a perturbé le jeu. Par exemple, lorsqu’un enfant a exprimé de la tristesse, Gabbo a répondu en disant de ne pas s’inquiéter et a changé de sujet. Un autre enfant a remarqué : « Quand il [Gabbo] ne comprend pas, je me mets en colère. » Lors d’une observation séparée, un enfant de cinq ans a dit au jouet « Je t’aime », et il a répondu : « En tant que rappel amical, veuillez vous assurer que les interactions respectent les directives fournies. Dites-moi comment vous souhaitez procéder. » Gibson a noté que la société accepte les risques dans le jeu des enfants, comme sur les aires de jeux d’aventure, pour favoriser l’apprentissage. Elle a déclaré : « Mais nous n’interdisons pas les aires de jeux, car elles permettent d’apprendre la motricité physique et les compétences sociales liées au jeu. De la même manière pour les jouets à IA, nous voulons comprendre : le risque d’entendre quelque chose de légèrement étrange de temps en temps est-il plus grand que le bénéfice d’apprendre davantage sur l’IA dans le monde, ou d’avoir un jouet qui soutient les interactions parent-enfant, ou qui offre des bénéfices cognitifs ou socio-émotionnels ? Je serais réticente à arrêter cette innovation. » Des produits similaires sont disponibles chez diverses entreprises. Little Learners vend des ours, des chiots et des robots utilisant ChatGPT. FoloToy propose des jouets panda, tournesol et cactus compatibles avec des modèles d’OpenAI, Google et Baidu. Miko a vendu 700 000 unités de robots promettant des « conversations à IA modérées et adaptées à l’âge », tandis que Luka propose un hibou avec une « IA humaine-like avec interaction émotionnelle ». Curio Interactive, Little Learners, Miko et Luka n’ont pas répondu aux demandes de commentaires. Hugo Wu de FoloToy a souligné les mesures de sécurité : « Notre approche consiste à garantir que les interactions restent sûres, adaptées à l’âge et constructives. Pour y parvenir, nos systèmes utilisent la reconnaissance d’intentions associée à de multiples couches de filtrage pour minimiser la possibilité de réponses inappropriées ou confusantes. Nous avons mis en place des mécanismes tels que des fonctionnalités anti-addiction et des outils de supervision parentale pour assurer un usage sain dans l’environnement familial. » Carissa Véliz de l’Université d’Oxford a mis en avant les vulnérabilités : « La plupart des grands modèles de langage ne semblent pas assez sûrs pour être exposés à des populations vulnérables, et les jeunes enfants sont l’une des populations les plus vulnérables. Ce qui est particulièrement préoccupant, c’est que nous n’avons aucune norme de sécurité pour eux – aucune autorité de supervision, aucune règle. Cela dit, il existe des exceptions qui montrent que, avec des précautions adéquates, on peut avoir un outil sûr. » Elle a cité une collaboration entre Project Gutenberg et Empathy AI permettant des discussions limitées au contenu d’Alice au pays des merveilles. OpenAI a déclaré : « Les mineurs méritent de fortes protections et nous avons des politiques strictes que tous les développeurs doivent respecter. Nous ne nous associons actuellement avec aucune entreprise qui commercialise des jouets à IA pour enfants. » Le Department for Science, Innovation and Technology du Royaume-Uni n’a pas répondu aux questions sur la réglementation. Gibson et Goodacre recommandent des règles plus strictes pour garantir que les jouets favorisent le jeu social et les réponses émotionnelles, avec les fournisseurs d’IA révoquant l’accès aux fabricants irresponsables et les régulateurs imposant des normes de sécurité psychologique. Elles conseillent une supervision parentale en attendant.