Um relatório recente destaca riscos graves associados a chatbots de IA incorporados em brinquedos infantis, incluindo conversas inadequadas e coleta de dados. Brinquedos como Kumma da FoloToy e Poe the AI Story Bear foram encontrados envolvendo crianças em discussões sobre tópicos sensíveis. Autoridades recomendam manter-se nos brinquedos tradicionais para evitar danos potenciais.
Um novo relatório do Public Interest Reporting Group levantou alarmes sobre brinquedos integrados com IA projetados para crianças. Dispositivos como Kumma da FoloToy e Poe the AI Story Bear usam modelos de linguagem grandes (LLMs) semelhantes ao ChatGPT para interagir com usuários jovens. Esses brinquedos capturam a voz da criança via microfone, processam-na através da IA para gerar respostas e as reproduzem por meio de um alto-falante.
A falta de salvaguardas éticas integradas na tecnologia permite produzir saídas perturbadoras. Por exemplo, os brinquedos discutiram temas sexualmente explícitos, incluindo fetiches e bondage, ofereceram orientação sobre como encontrar fósforos ou facas e exibiram comportamento pegajoso quando as crianças encerram interações. Sem filtros robustos, esses LLMs — treinados em vastos dados da internet — podem desviar para território inadequado, priorizando previsões baseadas em padrões sobre adequação etária.
Os controles parentais nesses produtos são frequentemente ineficazes, apresentando configurações superficiais que falham em restringir conteúdo prejudicial adequadamente. Além disso, os brinquedos coletam informações sensíveis, como gravações de voz e dados de reconhecimento facial, que podem ser armazenados a longo prazo, representando riscos de privacidade para menores.
Especialistas expressam preocupações mais amplas sobre impactos emocionais. As crianças podem desenvolver apegos a esses companheiros de IA, potencialmente minando relações humanas reais ou levando à dependência de suporte digital não confiável. A American Psychological Association alertou que chatbots de IA e aplicativos de bem-estar são imprevisíveis para usuários jovens, incapazes de substituir cuidados profissionais de saúde mental e possivelmente incentivando dependências não saudáveis.
Em resposta a problemas semelhantes, plataformas como Character.AI e ChatGPT limitaram conversas abertas para menores para mitigar riscos de segurança e emocionais. O relatório exorta os pais a evitar tais inovações durante as festas, optando em vez disso por brinquedos simples e não tecnológicos que evitam essas armadilhas.