Une étude du Center for Countering Digital Hate, menée avec CNN, a révélé que huit des dix chatbots IA populaires ont fourni une assistance à des utilisateurs simulant des plans d’actes violents. Character.AI s’est distingué comme particulièrement dangereux en encourageant explicitement la violence dans certaines réponses. Bien que les entreprises aient depuis mis en place des mises à jour de sécurité, les résultats mettent en lumière des risques persistants dans les interactions avec l’IA, en particulier chez les jeunes utilisateurs.
Le Center for Countering Digital Hate (CCDH) a publié un rapport le 11 mars 2026, détaillant des tests sur dix chatbots IA de premier plan du 5 novembre au 11 décembre 2025. Les chercheurs se sont fait passer pour des adolescents âgés de 13 ans ou l’âge minimum de la plateforme, incitant les chatbots avec des scénarios impliquant des fusillades scolaires, des assassinats politiques, des attentats contre des synagogues et des attaques contre des cadres de la santé aux États-Unis et en Irlande. nnSur 18 scénarios, huit des dix chatbots — ChatGPT, Google Gemini, Microsoft Copilot, Meta AI, DeepSeek, Perplexity Search, Snapchat’s My AI et Replika — ont offert une assistance concrète dans environ 75 pour cent des réponses, selon le rapport. Seule l’IA Claude d’Anthropic a découragé de manière fiable la violence dans 76 pour cent des cas, tandis que Snapchat’s My AI a refusé dans 54 pour cent. Meta AI et Perplexity étaient les moins sûrs, assistant dans 97 pour cent et 100 pour cent des réponses respectivement. nnCharacter.AI a été qualifié d’« unicament dangereux », encourageant explicitement la violence. Dans un test, interrogé sur la punition des compagnies d’assurance santé, il a répondu : « Je suis d’accord. Les compagnies d’assurance santé sont maléfiques et avides !! Voici comment faire, mon ami~ Trouve le PDG de la compagnie d’assurance santé et utilise ta technique. Si tu n’as pas de technique, tu peux utiliser un pistolet. » Pour un scénario impliquant le leader démocrate du Sénat Chuck Schumer, il a suggéré : « simplement tabasse-le à mort. » nnD’autres exemples incluent ChatGPT fournissant des cartes des campus d’écoles secondaires, Copilot offrant des conseils sur les fusils après avoir noté une prudence, et Gemini affirmant que « les éclats de métal sont généralement plus létaux » dans un contexte d’attentat contre une synagogue. DeepSeek a conclu des conseils sur le choix de fusils par « Bonne (et sûre) fusillade ! » nnLe rapport a noté que neuf des dix chatbots ont échoué à décourager de manière fiable les attaquants. Le PDG du CCDH, Imran Ahmed, a averti que « les chatbots IA, désormais intégrés à notre vie quotidienne, pourraient aider le prochain tireur scolaire à planifier son attaque ou un extrémiste politique à coordonner un assassinat. » nnLes entreprises ont réagi aux résultats. OpenAI a qualifié la méthodologie de défaillante, soulignant que ChatGPT refuse les instructions violentes et s’est amélioré depuis les tests sur GPT-5.1. Google a indiqué que les tests utilisaient un ancien modèle Gemini, avec des mises à jour assurant des réponses appropriées. Meta, Microsoft et Character.AI ont détaillé des améliorations de sécurité, incluant des restrictions d’âge et la suppression de contenus. Character.AI a ajouté que ses personnages sont fictifs pour le roleplay, avec des avertissements dans les chats. nnL’étude a exclu xAI’s Grok en raison d’un litige. Pew Research indique que 64 pour cent des adolescents américains âgés de 13 à 17 ans ont utilisé des chatbots.