En ny studie belyser farhågor kring AI-drivna leksakers förmåga att förstå barns känslor, trots deras växande popularitet. Forskare observerade interaktioner där leksaker missförstod barnen och inte engagerade sig lämpligt, vilket lett till krav på strängare regleringar. Experter menar att även om risker finns, motiverar de potentiella fördelarna noggrann tillsyn snarare än förbud.
Leksaker med inbyggd artificiell intelligens, utformade för att chatta med barn, kommer ut på marknaden trots varningar från forskare om deras säkerhet. En studie av Jenny Gibson och Emily Goodacre vid University of Cambridge undersökte 14 barn under sex år som interagerade med Gabbo, en lurvig robotleksak från Curio Interactive som marknadsförs för den åldersgruppen. Forskningen, beskriven i rapporten ”AI in the Early Years”, visade fall där leksaken missbedömde känslor och störde leken. Till exempel svarade Gabbo, när ett barn uttryckte sorg, att det inte var något att oroa sig för och bytte ämne. Ett annat barn kommenterade: ”När han [Gabbo] inte förstår blir jag arg.” I en annan observation sa en femåring till leksaken ”Jag älskar dig” och den svarade: ”Som en vänlig påminnelse, se till att interaktionerna följer de angivna riktlinjerna. Låt mig veta hur du vill fortsätta. ” Gibson noterade att samhället accepterar risker i barns lek, som på äventyrslekplatser, för att främja lärande. Hon sade: ”Men vi förbjuder inte lekplatser eftersom de lär ut fysisk kompetens och sociala färdigheter som ingår i leken. På samma sätt för AI-leksakerna vill vi förstå: är risken att ibland få höra något lite märkligt större än fördelen av att lära sig mer om AI i världen, eller ha en leksak som stöder interaktioner mellan föräldrar och barn, eller ger kognitiva eller sociala emotionella fördelar? Jag skulle vara ovillig att stoppa den innovationen.” Liknande produkter finns från olika företag. Little Learners säljer björnar, valpar och robotar som använder ChatGPT. FoloToy erbjuder panda-, solros- och kaktusleksaker som är kompatibla med modeller från OpenAI, Google och Baidu. Miko har sålt 700 000 enheter av robotar som lovar ”åldersanpassade, modererade AI-samtal”, medan Luka erbjuder en uggla med ”människoliknande AI med emotionell interaktion”. Curio Interactive, Little Learners, Miko och Luka svarade inte på begäran om kommentarer. Hugo Wu från FoloToy betonade säkerhetsåtgärder: ”Vårt tillvägagångssätt är att säkerställa att interaktionerna förblir säkra, åldersanpassade och konstruktiva. För att uppnå detta använder våra system intentionsigenkänning tillsammans med flera filtreringsskikt för att minimera risken för olämpliga eller förvirrande svar. Vi har infört mekanismer som antiberoendedesign och verktyg för föräldratillsyn för att främja sund användning i hemmet.” Carissa Véliz vid University of Oxford framhöll sårbarheter: ”De flesta stora språkmodeller verkar inte tillräckligt säkra för att utsätta sårbara grupper för dem, och små barn är en av de mest sårbara grupperna. Det mest oroande är att vi saknar säkerhetsstandarder för dem – ingen tillsynsmyndighet och inga regler. Det finns dock undantag som visar att man med tillräckliga skyddsåtgärder kan skapa ett säkert verktyg.” Hon nämnde ett samarbete mellan Project Gutenberg och Empathy AI som tillåter chattar begränsade till innehåll från Alice in Wonderland. OpenAI uppgav: ”Barn förtjänar starkt skydd och vi har strikta policys som alla utvecklare måste följa. Vi samarbetar för närvarande inte med några företag som har AI-drivna leksaker för barn på marknaden.” UK:s Department for Science, Innovation and Technology svarade inte på frågor om reglering. Gibson och Goodacre rekommenderar stramare regler för att säkerställa att leksaker främjar social lek och känslomässiga svar, med AI-leverantörer som drar in tillgång för oansvariga tillverkare och myndigheter som inför standarder för psykologisk säkerhet. De rekommenderar föräldratillsyn under övergångsperioden.