AI-drivna leksaker utgör säkerhetsrisker för små barn

En ny studie belyser farhågor kring AI-drivna leksakers förmåga att förstå barns känslor, trots deras växande popularitet. Forskare observerade interaktioner där leksaker missförstod barnen och inte engagerade sig lämpligt, vilket lett till krav på strängare regleringar. Experter menar att även om risker finns, motiverar de potentiella fördelarna noggrann tillsyn snarare än förbud.

Leksaker med inbyggd artificiell intelligens, utformade för att chatta med barn, kommer ut på marknaden trots varningar från forskare om deras säkerhet. En studie av Jenny Gibson och Emily Goodacre vid University of Cambridge undersökte 14 barn under sex år som interagerade med Gabbo, en lurvig robotleksak från Curio Interactive som marknadsförs för den åldersgruppen. Forskningen, beskriven i rapporten ”AI in the Early Years”, visade fall där leksaken missbedömde känslor och störde leken. Till exempel svarade Gabbo, när ett barn uttryckte sorg, att det inte var något att oroa sig för och bytte ämne. Ett annat barn kommenterade: ”När han [Gabbo] inte förstår blir jag arg.” I en annan observation sa en femåring till leksaken ”Jag älskar dig” och den svarade: ”Som en vänlig påminnelse, se till att interaktionerna följer de angivna riktlinjerna. Låt mig veta hur du vill fortsätta. ” Gibson noterade att samhället accepterar risker i barns lek, som på äventyrslekplatser, för att främja lärande. Hon sade: ”Men vi förbjuder inte lekplatser eftersom de lär ut fysisk kompetens och sociala färdigheter som ingår i leken. På samma sätt för AI-leksakerna vill vi förstå: är risken att ibland få höra något lite märkligt större än fördelen av att lära sig mer om AI i världen, eller ha en leksak som stöder interaktioner mellan föräldrar och barn, eller ger kognitiva eller sociala emotionella fördelar? Jag skulle vara ovillig att stoppa den innovationen.” Liknande produkter finns från olika företag. Little Learners säljer björnar, valpar och robotar som använder ChatGPT. FoloToy erbjuder panda-, solros- och kaktusleksaker som är kompatibla med modeller från OpenAI, Google och Baidu. Miko har sålt 700 000 enheter av robotar som lovar ”åldersanpassade, modererade AI-samtal”, medan Luka erbjuder en uggla med ”människoliknande AI med emotionell interaktion”. Curio Interactive, Little Learners, Miko och Luka svarade inte på begäran om kommentarer. Hugo Wu från FoloToy betonade säkerhetsåtgärder: ”Vårt tillvägagångssätt är att säkerställa att interaktionerna förblir säkra, åldersanpassade och konstruktiva. För att uppnå detta använder våra system intentionsigenkänning tillsammans med flera filtreringsskikt för att minimera risken för olämpliga eller förvirrande svar. Vi har infört mekanismer som antiberoendedesign och verktyg för föräldratillsyn för att främja sund användning i hemmet.” Carissa Véliz vid University of Oxford framhöll sårbarheter: ”De flesta stora språkmodeller verkar inte tillräckligt säkra för att utsätta sårbara grupper för dem, och små barn är en av de mest sårbara grupperna. Det mest oroande är att vi saknar säkerhetsstandarder för dem – ingen tillsynsmyndighet och inga regler. Det finns dock undantag som visar att man med tillräckliga skyddsåtgärder kan skapa ett säkert verktyg.” Hon nämnde ett samarbete mellan Project Gutenberg och Empathy AI som tillåter chattar begränsade till innehåll från Alice in Wonderland. OpenAI uppgav: ”Barn förtjänar starkt skydd och vi har strikta policys som alla utvecklare måste följa. Vi samarbetar för närvarande inte med några företag som har AI-drivna leksaker för barn på marknaden.” UK:s Department for Science, Innovation and Technology svarade inte på frågor om reglering. Gibson och Goodacre rekommenderar stramare regler för att säkerställa att leksaker främjar social lek och känslomässiga svar, med AI-leverantörer som drar in tillgång för oansvariga tillverkare och myndigheter som inför standarder för psykologisk säkerhet. De rekommenderar föräldratillsyn under övergångsperioden.

Relaterade artiklar

En ny rapport belyser allvarliga risker med AI-chattbotar inbyggda i barnleksaker, inklusive olämpliga samtal och datainsamling. Leksaker som Kumma från FoloToy och Poe the AI Story Bear har visat sig engagera barn i diskussioner om känsliga ämnen. Myndigheter rekommenderar att hålla sig till traditionella leksaker för att undvika potentiell skada.

Rapporterad av AI

En ny studie från Brown University identifierar betydande etiska bekymmer med att använda AI-chatbots som ChatGPT för råd om mental hälsa. Forskare fann att dessa system ofta bryter mot professionella standarder även när de uppmanas att agera som terapeuter. Arbetet kräver bättre skyddsåtgärder innan sådana verktyg används i känsliga områden.

Nintendo har avfärdat påståenden om att generativ AI användes i promotionsbilder för den nya My Mario-leksakslinjen. Företaget annonserade produktens lansering i USA den 19 februari 2025, mitt i sociala medieannonser som visar familjer som interagerar med leksakerna. Oro uppstod kring realismen i händerna på fotona, men både Nintendo och en medverkande modell har nekat AI-inblandning.

Rapporterad av AI

Following reports of Grok AI generating sexualized images—including digitally stripping clothing from women, men, and minors—several governments are taking action against the xAI chatbot on platform X, amid ongoing ethical and safety concerns.

 

 

 

Denna webbplats använder cookies

Vi använder cookies för analys för att förbättra vår webbplats. Läs vår integritetspolicy för mer information.
Avböj