OpenAI har rullat ut ett valfritt säkerhetsverktyg som gör det möjligt för vuxna ChatGPT-användare att utse en betrodd vuxen som kan bli varnad vid potentiella risker för självskadebeteende som upptäcks i konversationer. Funktionen, kallad Trusted Contact, innebär en mänsklig granskning innan någon avisering skickas.
Den nya funktionen bygger vidare på befintliga föräldrakontroller och kommer i takt med att oron växer över att användare utvecklar emotionella band till AI-chatbotar. OpenAI uppger att deras system upptäcker mer än en miljon meddelanden per vecka med explicita indikatorer på potentiella självmordsplaner eller avsikter bland användare världen över. Om den automatiserade övervakningen flaggar för en allvarlig säkerhetsrisk granskar ett litet team av utbildade granskare situationen och kan komma att meddela kontakten via e-post, sms eller app-meddelande inom en timme. Aviseringen ger endast en allmän orsak till oron utan att dela chattloggar eller detaljer. Användare lägger till en betrodd kontakt via inställningarna i ChatGPT-appen, och den utsedda personen måste acceptera en inbjudan inom en vecka. Utullningen till alla vuxna användare globalt förväntas vara klar inom några veckor.