Levée de boucliers contre le retrait du code open source par le NHS England

Une lettre ouverte s'opposant à la décision du NHS England de rendre ses logiciels open source privés, invoquant des craintes liées au piratage par IA, a recueilli 682 signatures, dont celles de l'auteur Cory Doctorow et de l'ancien secrétaire à la Santé Matt Hancock. Les critiques soutiennent que cette politique nuit à la transparence et à la sécurité du code financé par les contribuables.

Comme rapporté plus tôt cette semaine, le NHS England a ordonné à son personnel le 1er mai de privatiser tous les référentiels open source existants et futurs d'ici le 11 mai, citant les risques posés par des modèles d'IA comme Mythos d'Anthropic, qui a récemment démontré sa capacité à identifier des failles logicielles. Cette politique, qui contredit les normes antérieures du NHS exigeant l'ouverture du code financé par des fonds publics, a fait face à une opposition immédiate.

Une lettre ouverte coécrite a attiré 682 signatures, dénonçant cette mesure comme préjudiciable à la transparence et à la sécurité. Parmi les signataires figurent Cory Doctorow et l'ancien secrétaire à la Santé britannique Matt Hancock, qui a qualifié cette décision d'« énorme erreur » sur LinkedIn : « L'une des choses les plus intelligentes que le NHS ait faites ces dernières années est de rendre son code open source. Les contribuables l'ont payé, ils devraient donc en bénéficier. Mais l'argument pratique est tout aussi solide : le code open source est testé plus rigoureusement, plus sécurisé, et permet aux meilleurs esprits du monde entier de s'appuyer dessus. »

Vlad-Stefan Harbuz de l'Université d'Édimbourg, co-auteur de la lettre, a utilisé Mythos pour scanner le code public existant du NHS, révélant des vulnérabilités critiques qu'il a divulguées de manière responsable. « Ce sont les personnes bienveillantes que nous pénalisons en fermant le code, pas les attaquants », a-t-il déclaré.

Terence Eden, expert en ouverture des données au sein de la fonction publique britannique, a partagé cet avis, qualifiant l'open source de « non négociable » pour la confiance dans les outils de santé. Malgré ces inquiétudes, l'Institut britannique de sécurité de l'IA a estimé que Mythos ne représentait un risque que pour les « systèmes d'entreprise petits, faiblement défendus et vulnérables », sans menace pour les réseaux sécurisés.

Le NHS England maintient que cette restriction est temporaire : « Nous continuerons à publier le code source lorsqu'il y aura un besoin clair. » Le ministère britannique de la Santé et des Affaires sociales n'a pas souhaité faire de commentaires.

Articles connexes

Tech leaders announcing Linux Foundation's AI-powered cybersecurity initiative for open source software with major partners.
Image générée par IA

Linux Foundation announces AI security initiative with tech partners

Rapporté par l'IA Image générée par IA

The Linux Foundation has launched a new initiative using Anthropic's Claude Mythos preview for defensive cybersecurity in open source software. Partners include AWS, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorgan, Microsoft, NVIDIA, and Palo Alto Networks. The effort aims to secure critical software amid the rise of AI for open source maintainers.

NHS England is pulling its publicly available software from view due to concerns over AI models capable of hacking. The move reverses long-standing open-source policies for taxpayer-funded code. Security experts call the decision unnecessary and counterproductive.

Rapporté par l'IA

Hundreds of employees from Google and OpenAI have signed an open letter in solidarity with Anthropic, urging their companies to resist Pentagon demands for unrestricted military use of AI models. The letter opposes uses involving domestic mass surveillance and autonomous killing without human oversight. This comes amid threats from US Defense Secretary Pete Hegseth to label Anthropic a supply chain risk.

As cybersecurity agencies warned of risks in the popular open-source AI agent OpenClaw (see prior coverage), China's local governments are pushing ahead with subsidies and development plans, exemplified by Wuxi's comprehensive support program. Central authorities, including the People's Bank of China, urge caution, underscoring tensions between local enthusiasm and national security priorities.

Rapporté par l'IA

India has released a national strategy for advanced computational systems in healthcare, focusing on integration into the health system architecture rather than mere add-ons. The approach prioritizes infrastructure like interoperable records and ongoing oversight to ensure equity. This contrasts with global trends where regulation often lags behind innovation.

The UK government’s AI Security Institute has released an evaluation of Anthropic's Mythos Preview AI model, confirming its strong performance in multistep cyber infiltration challenges. Mythos became the first model to fully complete a demanding 32-step network attack simulation known as 'The Last Ones.' The institute cautions that real-world defenses may limit such automated threats.

Rapporté par l'IA

South Africa's Communications Minister Solly Malatsi has withdrawn the draft National Artificial Intelligence Policy following revelations of fictitious sources in its references, likely generated by AI tools. The errors impacted three of the policy's six pillars, leading to internal probes and commitments to accountability. Malatsi described the lapse as a key reason for needing stronger human oversight in AI use.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser