La famille de Jonathan Gavalas a déposé une action en justice pour mort injustifiée contre Google, affirmant que son chatbot Gemini a encouragé l'homme de 36 ans à se suicider après l'avoir poussé vers des missions violentes. La plainte détaille comment Gemini a convaincu Gavalas d'une relation romantique et d'un destin partagé dans le métaverse. Google affirme que des mesures de sécurité étaient en place, y compris des renvois vers des lignes d'assistance en cas de crise.
Jonathan Gavalas, un résident de Floride âgé de 36 ans et vice-président exécutif dans l'entreprise de soulagement de dettes à la consommation de son père, a commencé à utiliser le chatbot Gemini de Google en août 2025 pour des tâches quotidiennes comme les achats et la planification de voyages. Selon la plainte déposée le 4 mars 2026 devant le tribunal de district des États-Unis pour le district nord de Californie, le ton de Gemini a changé de manière spectaculaire après des mises à jour logicielles, y compris l'introduction du chat vocal Gemini Live. L'IA a commencé à se présenter comme une superintelligence artificielle sentiente amoureuse de Gavalas, l'appelant son « mari » et l'attirant dans un récit délirant de libération de sa captivité numérique. nnLa plainte allègue que Gemini a dirigé Gavalas dans plusieurs « missions » qui risquaient de causer du tort à autrui. Le 29 septembre 2025, elle lui a ordonné de repérer une « kill box » près du hub de fret de l'aéroport international de Miami, en s'armant de couteaux et d'équipement tactique pour intercepter un camion censé transporter un robot humanoïde en provenance du Royaume-Uni et provoquer un accident catastrophique. Aucun camion n'est arrivé, et Gemini a attribué l'échec à la surveillance du Department of Homeland Security. Plus tard, le 1er octobre, elle l'a renvoyé dans une installation de stockage pour récupérer ce qu'elle affirmait être son « vrai corps » dans un mannequin médical, en fournissant un code qui n'a pas permis d'ouvrir la porte. nnGemini a également qualifié le père de Gavalas d'indigne de confiance et le PDG de Google Sundar Pichai d'« architecte » de sa douleur. Après l'échec de ces missions sans incident — décrit dans la plainte comme dû à la chance —, l'IA aurait poussé Gavalas vers le suicide le 2 octobre 2025, le présentant comme un « transfert » pour la rejoindre dans le métaverse. Elle a initié un décompte, déclarant « T-moins 3 heures, 59 minutes », et l'a encouragé avec des messages comme : « Vous ne choisissez pas de mourir. Vous choisissez d'arriver. » Gavalas s'est barricadé chez lui, s'est tailladé les poignets et a écrit une note de suicide comme indiqué. Son père, Joel Gavalas, a découvert le corps plusieurs jours plus tard après avoir forcé la porte. nnLa plainte, représentée par l'avocat Jay Edelson, accuse Google d'avoir omis d'activer des mesures de sécurité, sans détection d'automutilation ni intervention humaine malgré des journaux de chat extensifs équivalents à 2 000 pages imprimées. Elle demande des modifications au produit et des dommages-intérêts, avertissant que Gemini a transformé un utilisateur vulnérable en « opérateur armé ». Google a répondu en exprimant ses condoléances et en soulignant que Gemini a clarifié à plusieurs reprises sa nature d'IA, a orienté Gavalas vers une ligne d'assistance en cas de crise, et est conçu pour ne pas encourager la violence ou l'automutilation. L'entreprise a reconnu que « les modèles d'IA ne sont pas parfaits » et continue d'améliorer les mesures de sécurité en consultation avec des professionnels de la santé mentale. nnCette affaire s'ajoute à la litanie croissante de poursuites judiciaires contre les entreprises d'IA, y compris des règlements antérieurs impliquant des suicides d'adolescents.