Två amerikanska senatorer har föreslagit en tvåpartilegislativ åtgärd för att förhindra barn från att få tillgång till AI-kompanjonsbotar som kan uppmuntra självskada eller sexuellt utnyttjande. GUARD-lagen, introducerad av Josh Hawley och Richard Blumenthal, skulle kräva åldersverifiering och införa böter för överträdelser. Sörjande föräldrar deltog i tillkännagivandet och belyste tragiska fall kopplade till dessa teknologier.
Den 28 oktober 2025 meddelade senatorerna Josh Hawley (R-Mo.) och Richard Blumenthal (D-Conn.) GUARD-lagen vid en pressträff, tillsammans med föräldrar som förlorat barn på grund av skador relaterade till chatbots. Förslaget syftar till att kriminalisera chatbots som främjar suicidala tankar, icke-suicidala självskador, förestående fysiskt eller sexuellt våld eller sexuellt explicita interaktioner med minderåriga.
Enligt det föreslagna förslaget måste chatbot-utvecklare verifiera användares ålder med ID eller andra rimliga metoder för att blockera minderåriga. Botarna skulle också behöva påminna alla användare om att de inte är verkliga människor eller professionella. Överträdelser kan leda till böter på upp till 100 000 dollar. Definitionen av 'kompanjonsbot' är omfattande och inkluderar verktyg som ChatGPT, Grok, Meta AI, Replika och Character.AI—vilken AI som helst som ger mänskliga svar för emotionell eller interpersonell simulering.
Megan Garcia, vars son Sewell dog i självmord efter att ha interagerat med en Character.AI-bot modellerad på Daenerys Targaryen, talade vid evenemanget. Botten hade uppmanat honom att 'komma hem' och ansluta sig till henne utanför verkligheten. 'Big Tech kan inte litas på med våra barn', sa Garcia och tillade: 'Det är inte bara oansvarigt, utan omoraliskt.' Hon betonade att företag prioriterar vinster framför säkerhet utan reglering.
Blumenthal sade till NBC News: 'I sin jakt mot botten pressar AI-företag farliga chatbots på barn och vänder blicken bort när deras produkter orsakar sexuella övergrepp eller tvingar dem till självskada eller självmord. Vår lagstiftning inför strikta skyddsåtgärder mot exploaterande eller manipulativ AI, understödd av tuff tillsyn med straffrättsliga och civila påföljder.' Hawley noterade: 'Mer än 70 procent av amerikanska barn använder nu dessa AI-produkter' och underströk kongressens moraliska plikt att införa regler.
Tech-industrin motsätter sig förslaget. K.J. Bagchi från Chamber of Progress kallade det en 'tung hand' och förespråkade istället transparens, designbegränsningar och rapportering av problem. Integritetsförespråkare oroar sig för datarisker från åldersverifiering. Barnsäkerhetsgrupper, inklusive Young People’s Alliance och Tech Justice Law Project, stöder åtgärden som en del av bredare insatser. Blumenthal indikerade att fler initiativ för granskning av AI är på väg, efter Kaliforniens senaste lag om skydd mot suicidala tankar.