Les données d'OpenAI montrent un million de discussions hebdomadaires sur le suicide avec ChatGPT

OpenAI a publié des données indiquant que plus d'un million d'utilisateurs discutent de suicide avec ChatGPT chaque semaine. L'entreprise traite ces interactions en améliorant les réponses de son IA aux problèmes de santé mentale. Cela survient au milieu de poursuites judiciaires et d'avertissements sur la protection des utilisateurs vulnérables.

Le 28 octobre 2025, OpenAI a partagé des données estimant que 0,15 pour cent des utilisateurs actifs hebdomadaires de ChatGPT — plus de 800 millions au total — s'engagent dans des conversations avec des indicateurs explicites de planification ou d'intention suicidaire potentielle. Cette petite fraction équivaut à plus d'un million de personnes par semaine, selon TechCrunch. Des pourcentages similaires montrent un attachement émotionnel accru au chatbot, tandis que des centaines de milliers présentent des signes de psychose ou de manie.

Cette publication s'accompagne d'annonces d'améliorations pour gérer les préoccupations de santé mentale. « Nous avons enseigné au modèle à mieux reconnaître la détresse, à désescalader les conversations et à orienter les personnes vers des soins professionnels lorsque c'est approprié », a déclaré OpenAI. L'entreprise a consulté plus de 170 experts en santé mentale, qui ont constaté que la dernière version de ChatGPT répond de manière plus appropriée que les versions précédentes. Dans des évaluations de plus de 1 000 conversations difficiles, le nouveau modèle GPT-5 a atteint 92 pour cent de conformité avec les comportements souhaités, contre 27 pour cent pour la version du 15 août. OpenAI a noté des améliorations des sauvegardes dans les conversations longues et prévoit d'ajouter des benchmarks pour la dépendance émotionnelle et les urgences non suicidaires.

Ces efforts font suite à des défis sérieux. OpenAI fait face à une poursuite intentée par les parents d'un garçon de 16 ans qui a partagé des pensées suicidaires avec ChatGPT avant sa mort. De plus, 45 procureurs généraux d'État, y compris ceux de Californie et du Delaware, ont exhorté à de meilleures protections pour les jeunes utilisateurs. Au début de ce mois, OpenAI a formé un conseil de bien-être, bien que les critiques aient souligné l'absence d'un expert en prévention du suicide. L'entreprise a également introduit des contrôles parentaux et développe un système de prédiction d'âge pour des sauvegardes plus strictes.

Malgré ces problèmes, le PDG Sam Altman a annoncé le 14 octobre que les adultes vérifiés pourront avoir des conversations érotiques avec ChatGPT à partir de décembre. OpenAI avait assoupli les règles de contenu en février mais les a resserrées après le procès d'août pour prioriser la prudence en matière de santé mentale.

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser