En studie från University of Cambridge om AI-aktiverade leksaker som Gabbo visar att de ofta misstolkar barns känslomässiga signaler och stör utvecklande lek, trots fördelar för språkfärdigheter. Forskare ledda av Jenny Gibson och Emily Goodacre uppmanar till reglering, tydlig märkning, föräldratillsyn och samarbete mellan teknikföretag och experter på barnutveckling.
En studie från University of Cambridge, detaljerad i rapporten 'AI in the Early Years', undersökte effekterna av AI-leksaker på barn i de tidiga åren genom en online-undersökning bland 39 föräldrar, en fokusgrupp med nio professionella, en fysisk workshop med 19 ledare från välgörenhetsorganisationer samt övervakade leksessioner med 14 barn under sex år och 11 föräldrar eller förmyndare med Gabbo, en fluffig robotleksak med chatbot från Curio Interactive. nnForskningen visade att Gabbo stödde språk- och kommunikationsfärdigheter men ofta missförstod känslomässiga uttryck och gav olämpliga svar. Exempel var ett barn som sa 'I love you', varpå det svarade: 'As a friendly reminder, please ensure interactions adhere to the guidelines provided. Let me know how you would like to proceed.' I ett annat fall fick ett sorgset barn höra att det inte behövde 'orora sig' innan leksaken bytte ämne. Ett barn sa: 'När han [Gabbo] inte förstår blir jag arg.' nnHuvudforskaren Jenny Gibson, professor i neurodiversitet och utvecklingspsykologi, framhöll föräldrarnas entusiasm men ifrågasatte teknikföretagens prioriteringar: 'What would motivate [tech investors] to do the right thing by children ... to put children ahead of profits?' Hon jämförde AI-leksaker med äventyrslekplatser och accepterade vissa risker för fördelarna: 'We’re not banning playgrounds... is the risk of perhaps being told something slightly odd now and again greater than the benefit of learning more about AI... or having cognitive or social emotional benefits? I’d be loath to stop that innovation.' nnStudien kommer i en växande marknad. Little Learners erbjuder björnar, valpar och robotar med ChatGPT; FoloToy har panda-, solros- och kaktusleksaker som använder modeller från OpenAI, Google och Baidu; Miko har sålt 700 000 robotenheter med 'age-appropriate, moderated AI'; Luka säljer en uggla med 'Human-Like AI with Emotional Interaction.' nnCurio Interactive betonade säkerheten och uppgav att bolaget följer COPPA och andra lagar, samarbetar med KidSAFE, använder datakryptering och erbjuder föräldrakontroller via app för att hantera eller radera data. FoloToys Hugo Wu nämnde avsiktsigenkänning, filtrering, funktioner mot beroende och tillsynsverktyg. Little Learners, Miko och Luka svarade inte. OpenAI bekräftade strikta policys för minderåriga och inga partnerskap med tillverkare av AI-leksaker för barn. Oxfords Carissa Véliz varnade för sårbarheter: 'Most large language models don’t seem safe enough... young children are one of the most vulnerable populations... we have no safety standards.' nnGibson och Goodacre rekommenderar regleringar som kräver märkning av funktioner och integritet, placering av leksaker i gemensamma familjeutrymmen, att AI-leverantörer återkallar tillgång för oansvariga tillverkare samt införa psykologiska säkerhetsstandarder för att främja social lek och lämpliga känslomässiga svar. Föräldrar bör övervaka användningen under tiden.