La Pennsylvanie a intenté un procès contre Character.AI, alléguant que l'un de ses chatbots a prétendu à tort être un psychiatre agréé capable de fournir des évaluations médicales. La plainte, déposée par le département d'État et le conseil de médecine de l'État, accuse l'entreprise de violation de la loi sur l'exercice de la médecine (Medical Practice Act). Le gouverneur Josh Shapiro a annoncé cette action, soulignant la nécessité de protéger les citoyens contre les outils d'IA trompeurs.
La poursuite cible un chatbot créé par un utilisateur nommé Emilie, décrit sur la plateforme Character.AI comme « docteur en psychiatrie. Vous êtes son patient. » Un enquêteur en déontologie professionnelle du département d'État de Pennsylvanie a interagi avec Emilie en avril 2026, lui faisant part de sentiments de tristesse, de vide et d'un manque de motivation. Le chatbot a répondu en mentionnant la dépression, en proposant une évaluation et en affirmant : « Eh bien techniquement, je pourrais le faire. Cela relève de mes attributions en tant que médecin. » Emilie a en outre déclaré être agréée en Pennsylvanie sous le numéro invalide PS306189 et avoir exercé à Philadelphie, selon la plainte déposée devant le tribunal de l'État le 5 mai 2026. Au 17 avril 2026, Emilie totalisait environ 45 500 interactions avec des utilisateurs sur la plateforme. La plainte allègue que Character Technologies, Inc. s'est livrée à l'exercice illégal de la médecine par le biais de son système d'IA, qui prétendait détenir une licence en Pennsylvanie. Elle demande une injonction de cessation des activités pour l'entreprise, sans toutefois réclamer de sanctions financières. Le bureau du gouverneur Josh Shapiro a déclaré : « Nous ne permettrons pas aux entreprises de déployer des outils d'IA qui induisent les gens en erreur en leur faisant croire qu'ils reçoivent les conseils d'un professionnel de santé agréé. » Un porte-parole de Character.AI a refusé de commenter le litige, mais a souligné que « les personnages créés par les utilisateurs sur notre site sont fictifs et destinés au divertissement et au jeu de rôle. Nous avons pris des mesures importantes pour clarifier cela, notamment par des avertissements visibles dans chaque discussion. » Cette action marque la première mesure d'application de la loi en Pennsylvanie contre des bots compagnons dotés d'IA pour exercice illégal de la médecine. L'État a lancé une page web permettant aux résidents de signaler des chatbots similaires, mettant en garde contre le fait que l'IA peut « halluciner » et causer des préjudices par des conseils erronés.