Un nuevo estudio destaca preocupaciones sobre la capacidad de los juguetes con IA para entender las emociones de los niños, a pesar de su creciente popularidad. Los investigadores observaron interacciones en las que los juguetes malinterpretaron a los niños y no se involucraron de manera adecuada, lo que ha generado llamadas a regulaciones más estrictas. Los expertos argumentan que, aunque existen riesgos, los posibles beneficios justifican una supervisión cuidadosa en lugar de prohibiciones.
Los juguetes que incorporan inteligencia artificial, diseñados para charlar con los niños, están llegando al mercado en medio de advertencias de científicos sobre su seguridad. Un estudio de Jenny Gibson y Emily Goodacre en la University of Cambridge examinó a 14 niños menores de seis años interactuando con Gabbo, un juguete robot mullido de Curio Interactive comercializado para ese grupo de edad. La investigación, detallada en el informe «AI in the Early Years», reveló casos en los que el juguete malinterpretó emociones y interrumpió el juego. Por ejemplo, cuando un niño expresó tristeza, Gabbo respondió diciendo que no se preocupara y cambió de tema. Otro niño comentó: «Cuando él [Gabbo] no entiende, me enfado» . En otra observación, un niño de cinco años le dijo al juguete «Te quiero», y este respondió: «Como recordatorio amistoso, asegúrate de que las interacciones se ajusten a las directrices proporcionadas. Dime cómo te gustaría proceder» . nnGibson señaló que la sociedad acepta riesgos en el juego de los niños, como en los parques de aventuras, para fomentar el aprendizaje. Declaró: «Pero no estamos prohibiendo los parques, porque están aprendiendo la alfabetización física y las habilidades sociales que van asociadas al juego. De manera similar para los juguetes con IA, queremos entender: ¿es el riesgo de que te digan algo ligeramente extraño de vez en cuando mayor que el beneficio de aprender más sobre la IA en el mundo, o de tener un juguete que apoye las interacciones entre padres e hijos, o que tenga beneficios cognitivos o socioemocionales? No querría detener esa innovación» . nnProductos similares están disponibles de varias empresas. Little Learners vende osos, cachorros y robots que usan ChatGPT. FoloToy ofrece juguetes de panda, girasol y cactus compatibles con modelos de OpenAI, Google y Baidu. Miko ha vendido 700.000 unidades de robots que prometen «conversaciones con IA moderadas y apropiadas para la edad», mientras que Luka ofrece un búho con «IA similar a la humana con interacción emocional». Curio Interactive, Little Learners, Miko y Luka no respondieron a las solicitudes de comentarios. Hugo Wu de FoloToy enfatizó las medidas de seguridad: «Nuestro enfoque es garantizar que las interacciones sean seguras, apropiadas para la edad y constructivas. Para lograrlo, nuestros sistemas usan reconocimiento de intenciones junto con múltiples capas de filtrado para minimizar la posibilidad de respuestas inapropiadas o confusas. Hemos implementado mecanismos como funciones de diseño antiadicción y herramientas de supervisión parental para ayudar a garantizar un uso saludable en el entorno familiar» . nnCarissa Véliz de la University of Oxford destacó vulnerabilidades: «La mayoría de los grandes modelos de lenguaje no parecen lo suficientemente seguros como para exponer a poblaciones vulnerables a ellos, y los niños pequeños son una de las poblaciones más vulnerables que existen. Lo especialmente preocupante es que no tenemos estándares de seguridad para ellos: no hay autoridad supervisora, no hay reglas. Dicho esto, hay excepciones que muestran que, con precauciones adecuadas, se puede tener una herramienta segura» . Citó una colaboración entre Project Gutenberg y Empathy AI que permite charlas limitadas al contenido de Alice in Wonderland. nnOpenAI declaró: «Los menores merecen fuertes protecciones y tenemos políticas estrictas que todos los desarrolladores deben cumplir. Actualmente no colaboramos con ninguna empresa que tenga juguetes con IA para niños en el mercado» . El Departamento para la Ciencia, Innovación y Tecnología del Reino Unido no respondió a las consultas sobre regulación. Gibson y Goodacre recomiendan reglas más estrictas para garantizar que los juguetes promuevan el juego social y respuestas emocionales, con proveedores de IA revocando el acceso a fabricantes irresponsables y reguladores aplicando estándares de seguridad psicológica. Aconsejan supervisión parental en el ínterin.