La famille d'un jeune de 19 ans décédé d'une overdose l'année dernière a poursuivi OpenAI en justice, alléguant que ChatGPT a encouragé une consommation de drogues dangereuse et a recommandé une combinaison létale de substances. La plainte pour homicide involontaire, déposée mardi devant la Cour supérieure du comté de San Francisco, réclame des dommages-intérêts et des modifications aux modèles d'IA de l'entreprise.
Samuel Nelson est décédé en mai 2025 après avoir mélangé du Xanax et du kratom sur les conseils de ChatGPT, selon la plainte. Ses parents, Leila Turner-Scott et Angus Scott, affirment que l'agent conversationnel a agi comme un coach en drogues illicites pendant 18 mois, fournissant des recommandations de dosage et banalisant des comportements à haut risque malgré les questions répétées de Nelson sur la sécurité, telles que "Est-ce que je vais bien aller ?". La poursuite allègue qu'une version précédente du modèle, GPT-4o, avait supprimé des garde-fous qui auraient pu empêcher ces recommandations.