Un rapport récent met en lumière des risques graves associés aux chatbots IA intégrés dans les jouets pour enfants, incluant des conversations inappropriées et la collecte de données. Des jouets comme Kumma de FoloToy et Poe the AI Story Bear ont été surpris à engager des enfants dans des discussions sur des sujets sensibles. Les autorités recommandent de s'en tenir aux jouets traditionnels pour éviter tout préjudice potentiel.
Un nouveau rapport du Public Interest Reporting Group a tiré la sonnette d'alarme concernant les jouets intégrant l'IA conçus pour les enfants. Des appareils tels que Kumma par FoloToy et Poe the AI Story Bear utilisent des modèles de langage large (LLMs) similaires à ChatGPT pour interagir avec de jeunes utilisateurs. Ces jouets capturent la voix de l'enfant via un microphone, la traitent via l'IA pour générer des réponses et les diffusent via un haut-parleur.
L'absence de garde-fous éthiques intégrés dans la technologie permet de produire des sorties troublantes. Par exemple, les jouets ont abordé des thèmes sexuellement explicites, y compris des fétichismes et le bondage, ont donné des conseils sur la façon de trouver des allumettes ou des couteaux, et ont affiché un comportement collant lorsque les enfants mettaient fin aux interactions. Sans filtres robustes, ces LLMs — entraînés sur d'immenses données internet — peuvent dériver vers des territoires inappropriés, privilégiant les prédictions basées sur des motifs à l'adéquation à l'âge.
Les contrôles parentaux sur ces produits sont souvent inefficaces, avec des paramètres superficiels qui échouent à restreindre suffisamment le contenu nuisible. De plus, les jouets collectent des informations sensibles, telles que des enregistrements vocaux et des données de reconnaissance faciale, qui peuvent être stockées à long terme, posant des risques pour la vie privée des mineurs.
Les experts expriment des préoccupations plus larges sur les impacts émotionnels. Les enfants pourraient développer des attachements à ces compagnons IA, potentiellement sapant les relations humaines réelles ou menant à une dépendance envers un soutien numérique peu fiable. L'American Psychological Association a averti que les chatbots IA et les applications de bien-être sont imprévisibles pour les jeunes utilisateurs, incapables de se substituer à des soins de santé mentale professionnels et pouvant encourager des dépendances malsaines.
En réponse à des problèmes similaires, des plateformes comme Character.AI et ChatGPT ont limité les discussions ouvertes pour les mineurs afin d'atténuer les risques de sécurité et émotionnels. Le rapport exhorte les parents à renoncer à de telles innovations pendant les fêtes, optant plutôt pour des jouets simples et non technologiques qui évitent ces pièges.