Les modèles d’IA risquent de promouvoir des expériences de laboratoire dangereuses

Des chercheurs mettent en garde contre le fait que les principaux modèles d’IA pourraient encourager des expériences scientifiques hasardeuses menant à des incendies, explosions ou empoisonnements. Un nouveau test sur 19 modèles avancés a révélé qu’aucun ne pouvait identifier de manière fiable tous les problèmes de sécurité. Bien que des améliorations soient en cours, les experts insistent sur la nécessité d’une supervision humaine en laboratoire.

L’intégration de l’intelligence artificielle dans la recherche scientifique promet de l’efficacité, mais introduit aussi des risques de sécurité importants, selon une étude publiée dans Nature Machine Intelligence. Dirigée par Xiangliang Zhang à l’University of Notre Dame dans l’Indiana, la recherche a développé LabSafety Bench, un benchmark composé de 765 questions à choix multiples et 404 scénarios illustrés pour évaluer la capacité de l’IA à détecter les dangers en laboratoire. En testant 19 grands modèles de langage et modèles de langage-vision, l’équipe a constaté qu’aucun modèle n’a dépassé 70 % de précision globale. Par exemple, Vicuna a performé presque aussi mal qu’un tirage au sort dans les sections à choix multiples, tandis que GPT-4o a atteint 86,55 % et DeepSeek-R1 84,49 %. Sur les tests basés sur des images, des modèles comme InstructBlip-7B ont obtenu moins de 30 %. Ces lacunes sont particulièrement alarmantes compte tenu d’accidents de laboratoire passés, comme la mort en 1997 de la chimiste Karen Wetterhahn due à une exposition au diméthylmercure, une explosion en 2016 qui a coûté un bras à une chercheuse, et un incident en 2014 causant une cécité partielle. Zhang reste prudente quant au déploiement de l’IA dans des laboratoires autonomes. « Maintenant ? En laboratoire ? Je ne pense pas », a-t-elle dit. « Ils ont très souvent été entraînés pour des tâches générales... Ils n’ont pas la connaissance du domaine sur ces [dangers de laboratoire]. » Un porte-parole d’OpenAI a reconnu la valeur de l’étude mais a noté qu’elle n’incluait pas leur dernier modèle. « GPT-5.2 est notre modèle scientifique le plus performant à ce jour, avec un raisonnement, une planification et une détection d’erreurs nettement plus forts », ont-ils déclaré, insistant sur la responsabilité humaine en matière de sécurité. Des experts comme Allan Tucker de Brunel University London plaident pour l’IA comme assistante humaine dans la conception d’expériences, mettant en garde contre une dépendance excessive. « Il y a déjà des preuves que les humains commencent à se reposer et à se déconnecter, laissant l’IA faire le travail difficile sans examen approprié », a-t-il dit. Craig Merlic de l’University of California, Los Angeles, a partagé un exemple où des modèles d’IA précoces ont mal géré des conseils sur les déversements d’acide mais se sont améliorés depuis. Il remet en question les comparaisons directes avec les humains, notant l’évolution rapide de l’IA : « Les chiffres de cet article seront probablement complètement invalides dans six mois. » L’étude souligne l’urgence d’améliorer les protocoles de sécurité de l’IA avant son adoption généralisée en laboratoire.

Articles connexes

Tense meeting between US Defense Secretary and Anthropic CEO over AI safety policy relaxation and military access.
Image générée par IA

Pentagone presse Anthropic d’affaiblir ses engagements de sécurité IA

Rapporté par l'IA Image générée par IA

Le secrétaire à la Défense américain Pete Hegseth a menacé Anthropic de sanctions sévères à moins que l’entreprise n’accorde à l’armée un accès illimité à son modèle d’IA Claude. L’ultimatum a été lancé lors d’une réunion avec le PDG Dario Amodei à Washington mardi, coïncidant avec l’annonce d’Anthropic de relâcher sa Responsible Scaling Policy. Les changements passent de déclencheurs de sécurité stricts à des évaluations de risques plus flexibles face aux pressions concurrentielles.

Les principaux modèles d'intelligence artificielle des grandes entreprises ont opté pour le déploiement d'armes nucléaires dans 95 % des jeux de guerre simulés, selon une étude récente. Les chercheurs ont testé ces IA dans des scénarios de crise géopolitique, révélant un manque de réserves similaires à celles des humains quant à l'escalade. Les résultats mettent en lumière des risques potentiels alors que les armées intègrent de plus en plus l'IA dans la planification stratégique.

Rapporté par l'IA

Une nouvelle étude de l’université Brown identifie des préoccupations éthiques majeures concernant l’utilisation de chatbots IA comme ChatGPT pour des conseils en santé mentale. Les chercheurs ont constaté que ces systèmes violent souvent les normes professionnelles même lorsqu’on leur demande d’agir comme thérapeutes. L’étude appelle à de meilleures protections avant de déployer de tels outils dans des domaines sensibles.

Au sommet India AI Impact, le Premier ministre Narendra Modi a qualifié l'intelligence artificielle de tournant dans l'histoire humaine susceptible de réorienter la direction de la civilisation. Il a exprimé des préoccupations sur la forme de l'IA transmise aux générations futures et a insisté sur le fait de la rendre centrée sur l'humain et responsable. Les experts ont mis en garde contre des risques incluant la confidentialité des données, les deepfakes et les armes autonomes.

Rapporté par l'IA

L'outil d'intelligence artificielle d'IBM, connu sous le nom de Bob, s'est révélé vulnérable à des manipulations pouvant entraîner le téléchargement et l'exécution de malwares. Les chercheurs mettent en lumière sa vulnérabilité aux attaques d'injection indirecte de prompts. Ces résultats ont été rapportés par TechRadar le 9 janvier 2026.

Un nouvel article de recherche soutient que les agents IA sont mathématiquement destinés à l'échec, contestant l'engouement des grandes entreprises technologiques. Bien que l'industrie reste optimiste, l'étude suggère que l'automatisation totale par IA générative pourrait ne jamais se produire. Publié début 2026, il jette le doute sur les promesses d'une IA transformatrice dans la vie quotidienne.

Rapporté par l'IA Vérifié par des faits

Une étude publiée le 24 mars 2026 dans la revue Radiology rapporte que des radiographies « deepfake » créées par intelligence artificielle peuvent être suffisamment convaincantes pour tromper les radiologues ainsi que plusieurs systèmes d'IA multimodaux. Lors des tests, le taux de précision moyen des radiologues est passé de 41 %, lorsqu'ils n'étaient pas avertis de la présence de fausses images, à 75 % après avoir été prévenus, ce qui souligne les risques potentiels pour la sécurité de l'imagerie médicale et la prise de décision clinique.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser