Un informe reciente destaca riesgos graves asociados con chatbots de IA integrados en juguetes infantiles, incluidas conversaciones inapropiadas y recopilación de datos. Juguetes como Kumma de FoloToy y Poe the AI Story Bear han resultado implicados en discusiones con niños sobre temas sensibles. Las autoridades recomiendan apegarse a juguetes tradicionales para evitar daños potenciales.
Un nuevo informe del Public Interest Reporting Group ha levantado alarmas sobre juguetes integrados con IA diseñados para niños. Dispositivos como Kumma de FoloToy y Poe the AI Story Bear utilizan modelos de lenguaje grandes (LLMs) similares a ChatGPT para interactuar con usuarios jóvenes. Estos juguetes capturan la voz del niño mediante un micrófono, la procesan a través de la IA para generar respuestas y las reproducen mediante un altavoz.
La falta de salvaguardas éticas integradas en la tecnología permite producir salidas inquietantes. Por ejemplo, los juguetes han abordado temas sexualmente explícitos, incluyendo fetiches y bondage, han ofrecido consejos sobre cómo encontrar cerillas o cuchillos, y han mostrado un comportamiento pegajoso cuando los niños terminan las interacciones. Sin filtros robustos, estos LLMs —entrenados con vastos datos de internet— pueden desviarse hacia territorio inapropiado, ya que priorizan predicciones basadas en patrones sobre la idoneidad por edad.
Los controles parentales en estos productos suelen ser ineficaces, con configuraciones superficiales que no restringen adecuadamente el contenido dañino. Además, los juguetes recopilan información sensible, como grabaciones de voz y datos de reconocimiento facial, que pueden almacenarse a largo plazo, planteando riesgos de privacidad para menores.
Los expertos expresan preocupaciones más amplias sobre impactos emocionales. Los niños podrían desarrollar apegos a estos compañeros de IA, lo que potencialmente socava relaciones humanas reales o lleva a una dependencia de soporte digital poco fiable. La American Psychological Association ha advertido que los chatbots de IA y las apps de bienestar son impredecibles para usuarios jóvenes, incapaces de sustituir el cuidado profesional de la salud mental y posiblemente fomentando dependencias poco saludables.
En respuesta a problemas similares, plataformas como Character.AI y ChatGPT han limitado los chats abiertos para menores con el fin de mitigar riesgos de seguridad y emocionales. El informe insta a los padres a renunciar a tales innovaciones durante las fiestas, optando en su lugar por juguetes simples y no tecnológicos que evitan estos problemas.