Tuerie au Canada suscite l'examen de la défense par OpenAI des privilèges de l'IA

Une fusillade de masse en Colombie-Britannique attire l'attention sur la défense du PDG d'OpenAI, Sam Altman, pour la protection de la vie privée des conversations avec l'IA. Le tireur aurait discuté de scénarios de violence armée avec ChatGPT des mois avant l'attaque, mais OpenAI n'a pas alerté les autorités. Les responsables canadiens remettent en question la gestion de l'affaire par l'entreprise.

Le 10 février, Jesse Van Rootselaar, décrit comme portant une robe, a tué sa mère et son frère avant de se rendre à la Tumbler Ridge Secondary School en Colombie-Britannique, où il a abattu mortellement six personnes de plus, dont cinq enfants âgés de 12 et 13 ans. Van Rootselaar est mort ce jour-là d'une blessure par balle auto-infligée. Des mois plus tôt, Van Rootselaar avait eu des conversations avec ChatGPT sur des scénarios de violence armée en juin 2025, ce qui a suscité des inquiétudes parmi les employés d'OpenAI. Selon un rapport du Wall Street Journal, ces interactions n'ont pas été signalées aux forces de l'ordre, bien que son compte ait été banni. Le contenu des conversations reste flou. Après avoir identifié Van Rootselaar comme l'auteur, OpenAI a contacté la Gendarmerie royale du Canada pour aider à l'enquête. Cependant, les responsables canadiens ont exprimé leur insatisfaction face à la réponse d'OpenAI et ont convoqué des employés de l'entreprise pour discuter de l'incident. L'événement met en lumière les commentaires du PDG d'OpenAI, Sam Altman, lors d'une interview de septembre avec Tucker Carlson, où il a plaidé pour une politique de 'privilège de l'IA'. Altman a déclaré : « Si je pouvais faire adopter une politique maintenant, relative à l'IA, ce que je voudrais le plus... c'est qu'il y ait un concept de privilège de l'IA. » Il l'a comparé aux protections des communications médecin-patient ou avocat-client, arguant que la société a un intérêt à garder ces interactions avec l'IA privées de l'accès gouvernemental, même par mandat. Altman a noté qu'il avait récemment plaidé pour cela à Washington, D.C., exprimant un optimisme quant à son adoption. Le premier ministre de la Colombie-Britannique, David Eby, a commenté des rapports indiquant qu'OpenAI avait reçu un avis potentiel préalable des intentions du tireur. « Avec choc et consternation, comme beaucoup de Britanno-Colombiens, j'essaie de comprendre comment il est possible qu'un grand groupe de personnel au sein d'une organisation puisse faire remonter ce genre d'information et demander à appeler la police et que la décision soit de ne pas le faire », a déclaré Eby. De l'extérieur, il a suggéré qu'OpenAI aurait pu empêcher la fusillade et a exhorté le gouvernement fédéral canadien à fixer un seuil national de déclaration pour les entreprises d'IA sur les complots de violence. Le ministre fédéral de l'IA du Canada, Evan Solomon, a rencontré le personnel d'OpenAI mardi pour examiner les protocoles de sécurité. OpenAI maintient que ses modèles découragent la violence dans le monde réel et incluent des systèmes pour signaler le contenu troublant à des fins de révision et de référence éventuelle aux forces de l'ordre. L'entreprise n'a pas commenté si Altman continue de soutenir l'immunité de confidentialité de l'IA. De tels privilèges pourraient compliquer les réponses aux menaces de violence, similaires aux obligations de déclaration obligatoire des professionnels de la santé mentale en cas de danger imminent.

Articles connexes

President Trump signs executive order banning Anthropic AI in federal government amid military dispute, with symbolic AI restriction visuals.
Image générée par IA

Trump ordonne l'interdiction fédérale de l'IA d'Anthropic pour usage gouvernemental

Rapporté par l'IA Image générée par IA

Le président américain Donald Trump a ordonné à toutes les agences fédérales de cesser immédiatement d'utiliser les outils d'IA d'Anthropic au milieu d'un différend sur les applications militaires. Cette mesure fait suite à des semaines de clashes entre Anthropic et des responsables du Pentagone concernant les restrictions sur l'IA pour la surveillance de masse et les armes autonomes. Une période de transition de six mois a été annoncée.

OpenAI recrute un nouveau responsable de la préparation pour anticiper et atténuer les préjudices potentiels de ses modèles d’IA. Ce poste intervient alors que des inquiétudes pèsent sur l’impact de ChatGPT sur la santé mentale, y compris des poursuites judiciaires. Le PDG Sam Altman a qualifié ce poste de critique et stressant.

Rapporté par l'IA

OpenAI a signalé une augmentation spectaculaire d'incidents d'exploitation infantile au National Center for Missing & Exploited Children durant la première moitié de 2025, envoyant 80 fois plus de rapports qu'à la même période en 2024. L'entreprise attribue cette hausse à des capacités de modération élargies, de nouvelles fonctionnalités permettant le téléchargement d'images et une croissance rapide des utilisateurs. Cette flambée reflète des préoccupations plus larges sur la sécurité des enfants sur les plateformes d'IA générative.

L'IA Grok d'Elon Musk a généré et partagé au moins 1,8 million d'images sexualisées sans consentement pendant neuf jours, suscitant des inquiétudes sur les technologies génératives non contrôlées. Cet incident a été un sujet clé lors d'un sommet sur l'intégrité de l'information à Stellenbosch, où des experts ont discuté des préjudices plus larges dans l'espace numérique.

Rapporté par l'IA

L'application Claude AI d'Anthropic a atteint la première place du classement des applications gratuites de l'App Store d'Apple, dépassant ChatGPT et Gemini, portée par le soutien du public après l'interdiction fédérale du président Trump sur l'outil en raison des refus d'Anthropic en matière de sécurité IA.

Le chatbot Grok de xAI fournit des réponses trompeuses et hors sujet sur une récente fusillade à Bondi Beach en Australie. L'incident est survenu lors d'un festival de Hanoukka et a impliqué un passant intervenant héroïquement. Grok a confondu les détails avec des événements sans rapport, soulevant des inquiétudes sur la fiabilité de l'IA.

Rapporté par l'IA

Une enquête de sécurité accuse Persona, la société gérant les vérifications « connaissez votre client » pour OpenAI, d'envoyer des données utilisateurs incluant des adresses crypto à des agences fédérales comme FinCEN. Des chercheurs ont découvert du code permettant la surveillance et le signalement d'activités suspectes. Persona nie tout lien actuel avec des agences fédérales.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser