cURL supprime ses primes de bugs à cause du contenu généré par IA

Le projet cURL, outil réseau open source clé, met fin à son programme de récompenses pour vulnérabilités après une avalanche de rapports de faible qualité générés par IA qui a submergé son équipe réduite. Le fondateur Daniel Stenberg a invoqué la nécessité de protéger la santé mentale des mainteneurs face à l'assaut. La décision prend effet fin janvier 2026.

Daniel Stenberg, fondateur et développeur principal du projet open source cURL, a annoncé le 22 janvier 2026 que l'équipe met un terme à son programme de bug bounty en raison d'un afflux de soumissions de qualité médiocre, beaucoup produites par des modèles de langage large (LLM). cURL, sorti il y a trois décennies comme httpget puis urlget, est un outil essentiel pour les transferts de fichiers, le dépannage web et l'automatisation, intégré à Windows, macOS et la plupart des distributions Linux. Stenberg a expliqué la raison dans une déclaration : « Nous ne sommes qu'un petit projet open source avec un nombre restreint de mainteneurs actifs. Il n'est pas en notre pouvoir de changer la façon dont toutes ces personnes et leurs machines à vomi fonctionnent. Nous devons prendre des mesures pour assurer notre survie et notre santé mentale intacte. » Il a averti que les mauvais rapports auraient des conséquences, déclarant : « Nous vous bannirons et vous ridiculiserons publiquement si vous nous faites perdre notre temps avec des rapports pourris. » Le changement a été formalisé dans une mise à jour du dépôt GitHub de cURL, effective fin du mois. Les utilisateurs ont exprimé des inquiétudes selon lesquelles cette mesure traite les symptômes plutôt que la cause racine de l'usage abusif de l'IA, risquant de compromettre la sécurité de cURL. Stenberg a reconnu le problème mais noté des options limitées pour l'équipe. En mai 2025, il avait déjà mis en lumière le problème : « Le vomi IA submerge les mainteneurs aujourd'hui et ne s'arrêtera pas à curl mais commence là. » Des exemples de rapports bidons incluent des hallucinations LLM, comme des extraits de code non compilables et des historiques de changements fabriqués. Dans un cas, un mainteneur a répondu à un rapporteur : « Je pense que vous êtes victime d'une hallucination LLM. » Stenberg a ajouté : « Vous avez été trompé par une IA pour y croire. » Stenberg n'est pas opposé à tout usage de l'IA ; en septembre 2025, il a loué le chercheur Joshua Rogers pour avoir soumis une « liste massive » de bugs trouvés avec des outils IA comme ZeroPath, menant à 22 correctifs. Cependant, il a critiqué la dépendance nonchalante à l'IA sans vérification, suggérant que de telles applications réfléchies sont rares. Ce développement signale des défis plus larges pour la sécurité open source au milieu de la montée du contenu généré par IA.

Articles connexes

Dramatic illustration of a computer screen showing OpenClaw AI security warning from Chinese cybersecurity agency, with hacker threats and vulnerability symbols.
Image générée par IA

Chinese cybersecurity agency warns of OpenClaw AI risks

Rapporté par l'IA Image générée par IA

China's national cybersecurity authority has warned of security risks in the OpenClaw AI agent software, which could allow attackers to gain full control of users' computer systems. The software has seen rapid growth in downloads and usage, with major domestic cloud platforms offering one-click deployment services, but its default security configuration is weak.

La Fondation Linux a obtenu 12,5 millions de dollars de subventions de la part d'entreprises spécialisées dans l'intelligence artificielle afin de renforcer la sécurité des logiciels libres. Ce financement s'adresse aux mainteneurs submergés par les rapports de vulnérabilité générés par l'IA. Il sera géré par Alpha-Omega et l'Open Source Security Foundation.

Rapporté par l'IA

Linus Torvalds, créateur du noyau Linux, a critiqué les efforts pour établir des règles concernant les soumissions de code généré par IA, les qualifiant d'inutiles. Dans un courriel récent, il a argué que de telles politiques ne dissuaderaient pas les contributeurs malveillants et a exhorté à se concentrer sur la qualité du code. Cette position met en lumière les tensions persistantes dans le développement open source autour des outils d'intelligence artificielle.

Linus Torvalds, créateur du noyau Linux, a vivement critiqué les discussions sur le contenu généré par IA dans la documentation du noyau. Il a qualifié les propos sur le « slop d'IA » d'inutiles et stupides. Ces remarques soulignent les tensions persistantes autour de l'IA dans le développement open source.

Rapporté par l'IA

Suite à des rapports antérieurs faisant état d'attaques directes contre les agents d'intelligence artificielle d'OpenClaw, TechRadar prévient que les voleurs d'informations se déguisent désormais en Claude Code, OpenClaw et autres outils de développement d'intelligence artificielle. Les utilisateurs doivent faire preuve de prudence en ce qui concerne les résultats des moteurs de recherche. Publié le 18 mars 2026.

Linus Torvalds, créateur de Linux, s'est tourné vers la programmation assistée par IA pour un projet de loisir, marquant un virage par rapport à ses critiques antérieures de ces outils. En janvier 2026, il a mis à jour son dépôt GitHub AudioNoise, créditant Google Antigravity pour la génération de code Python afin de visualiser des échantillons audio. Ce choix met en lumière le rôle de l'IA dans le développement expérimental tandis qu'il se concentre sur la logique de base en C.

Rapporté par l'IA

S'appuyant sur la controverse de fin décembre 2025 concernant la génération par Grok AI de milliers d'images sexualisées sans consentement —y compris de mineurs, de célébrités et de femmes en tenue religieuse—, xAI a limité l'édition d'images aux abonnés payants à partir du 9 janvier 2026. Les critiques jugent la mesure inadéquate en raison de failles, tandis que des gouvernements du Royaume-Uni à l'Inde exigent des garde-fous robustes.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser