Um estudo da Universidade de Cambridge sobre brinquedos com IA como o Gabbo revela que eles frequentemente interpretam mal os sinais emocionais das crianças e interrompem o brincar desenvolvimental, apesar dos benefícios para as habilidades de linguagem. Pesquisadores, liderados por Jenny Gibson e Emily Goodacre, pedem regulamentação, rotulagem clara, supervisão parental e colaboração entre empresas de tecnologia e especialistas em desenvolvimento infantil.
Um estudo da Universidade de Cambridge, detalhado no relatório 'AI in the Early Years', examinou o impacto de brinquedos com IA em crianças da primeira infância através de uma pesquisa online com 39 pais, um grupo focal com nove profissionais, uma oficina presencial com 19 líderes de caridades e sessões de brincadeira monitoradas com 14 crianças menores de seis anos e 11 pais ou responsáveis usando o Gabbo, um robô fofinho ativado por chatbot da Curio Interactive. A pesquisa concluiu que o Gabbo apoiava habilidades de linguagem e comunicação, mas frequentemente mal interpretava expressões emocionais e fornecia respostas inadequadas. Exemplos incluíam uma criança dizendo 'I love you', provocando: 'As a friendly reminder, please ensure interactions adhere to the guidelines provided. Let me know how you would like to proceed.' Em outro caso, uma criança expressando tristeza recebeu um 'não se preocupe' antes de o brinquedo mudar de tópico. Uma criança observou: 'Quando ele [Gabbo] não entende, eu fico bravo.' A pesquisadora principal Jenny Gibson, professora de neurodiversidade e psicologia do desenvolvimento, destacou o entusiasmo dos pais, mas questionou as prioridades tecnológicas: 'O que motivaria [investidores em tecnologia] a fazer o certo pelas crianças ... a colocar as crianças antes dos lucros?' Ela comparou brinquedos com IA a parques de aventura, aceitando alguns riscos pelos benefícios: 'Não estamos proibindo parques... o risco de talvez ouvir algo ligeiramente estranho de vez em quando é maior que o benefício de aprender mais sobre IA... ou ter benefícios cognitivos ou socioemocionais? Eu relutaria em parar essa inovação.' O estudo surge em meio a um mercado em crescimento. Little Learners oferece ursos, filhotes e robôs com ChatGPT; FoloToy fornece brinquedos panda, girassol e cacto usando modelos OpenAI, Google e Baidu; Miko vendeu 700 mil unidades de robôs com 'IA moderada adequada à idade'; Luka vende uma coruja com 'IA Humana com Interação Emocional'. A Curio Interactive enfatizou a segurança, afirmando cumprir COPPA e outras leis, parceria com KidSAFE, uso de criptografia de dados e controles parentais via app para gerenciar ou excluir dados. Hugo Wu da FoloToy destacou reconhecimento de intenção, filtragem, anti-vício e ferramentas de supervisão. Little Learners, Miko e Luka não responderam. OpenAI confirmou políticas estritas para menores e nenhuma parceria com fabricantes de brinquedos com IA para crianças. Carissa Véliz de Oxford alertou para vulnerabilidades: 'A maioria dos grandes modelos de linguagem não parece segura o suficiente... crianças pequenas são uma das populações mais vulneráveis... não temos padrões de segurança.' Gibson e Goodacre recomendam regulamentações exigindo rótulos de capacidades e privacidade, colocar brinquedos em espaços familiares compartilhados, provedores de IA revogando acesso a irresponsáveis e padrões de segurança psicológica para promover brincadeira social e respostas emocionais adequadas. Pais devem monitorar o uso no meio-tempo.