cURL supprime ses primes de bugs à cause du contenu généré par IA

Le projet cURL, outil réseau open source clé, met fin à son programme de récompenses pour vulnérabilités après une avalanche de rapports de faible qualité générés par IA qui a submergé son équipe réduite. Le fondateur Daniel Stenberg a invoqué la nécessité de protéger la santé mentale des mainteneurs face à l'assaut. La décision prend effet fin janvier 2026.

Daniel Stenberg, fondateur et développeur principal du projet open source cURL, a annoncé le 22 janvier 2026 que l'équipe met un terme à son programme de bug bounty en raison d'un afflux de soumissions de qualité médiocre, beaucoup produites par des modèles de langage large (LLM). cURL, sorti il y a trois décennies comme httpget puis urlget, est un outil essentiel pour les transferts de fichiers, le dépannage web et l'automatisation, intégré à Windows, macOS et la plupart des distributions Linux. Stenberg a expliqué la raison dans une déclaration : « Nous ne sommes qu'un petit projet open source avec un nombre restreint de mainteneurs actifs. Il n'est pas en notre pouvoir de changer la façon dont toutes ces personnes et leurs machines à vomi fonctionnent. Nous devons prendre des mesures pour assurer notre survie et notre santé mentale intacte. » Il a averti que les mauvais rapports auraient des conséquences, déclarant : « Nous vous bannirons et vous ridiculiserons publiquement si vous nous faites perdre notre temps avec des rapports pourris. » Le changement a été formalisé dans une mise à jour du dépôt GitHub de cURL, effective fin du mois. Les utilisateurs ont exprimé des inquiétudes selon lesquelles cette mesure traite les symptômes plutôt que la cause racine de l'usage abusif de l'IA, risquant de compromettre la sécurité de cURL. Stenberg a reconnu le problème mais noté des options limitées pour l'équipe. En mai 2025, il avait déjà mis en lumière le problème : « Le vomi IA submerge les mainteneurs aujourd'hui et ne s'arrêtera pas à curl mais commence là. » Des exemples de rapports bidons incluent des hallucinations LLM, comme des extraits de code non compilables et des historiques de changements fabriqués. Dans un cas, un mainteneur a répondu à un rapporteur : « Je pense que vous êtes victime d'une hallucination LLM. » Stenberg a ajouté : « Vous avez été trompé par une IA pour y croire. » Stenberg n'est pas opposé à tout usage de l'IA ; en septembre 2025, il a loué le chercheur Joshua Rogers pour avoir soumis une « liste massive » de bugs trouvés avec des outils IA comme ZeroPath, menant à 22 correctifs. Cependant, il a critiqué la dépendance nonchalante à l'IA sans vérification, suggérant que de telles applications réfléchies sont rares. Ce développement signale des défis plus larges pour la sécurité open source au milieu de la montée du contenu généré par IA.

Articles connexes

Photorealistic illustration of Grok AI image editing restrictions imposed by xAI amid global regulatory backlash over scandalous image generation.
Image générée par IA

Mise à jour du scandale d'images Grok AI : xAI restreint les éditions aux abonnés face à la pression réglementaire mondiale

Rapporté par l'IA Image générée par IA

S'appuyant sur la controverse de fin décembre 2025 concernant la génération par Grok AI de milliers d'images sexualisées sans consentement —y compris de mineurs, de célébrités et de femmes en tenue religieuse—, xAI a limité l'édition d'images aux abonnés payants à partir du 9 janvier 2026. Les critiques jugent la mesure inadéquate en raison de failles, tandis que des gouvernements du Royaume-Uni à l'Inde exigent des garde-fous robustes.

Linus Torvalds, créateur du noyau Linux, a critiqué les efforts pour établir des règles concernant les soumissions de code généré par IA, les qualifiant d'inutiles. Dans un courriel récent, il a argué que de telles politiques ne dissuaderaient pas les contributeurs malveillants et a exhorté à se concentrer sur la qualité du code. Cette position met en lumière les tensions persistantes dans le développement open source autour des outils d'intelligence artificielle.

Rapporté par l'IA

Un assistant IA open-source initialement nommé Clawdbot a rapidement gagné en popularité avant de subir deux rebrandings rapides vers OpenClaw en raison de préoccupations de marques déposées et de perturbations en ligne. Créé par le développeur Peter Steinberger, l'outil s'intègre dans les applications de messagerie pour automatiser les tâches et se souvenir des conversations. Malgré des problèmes de sécurité et des arnaques, il continue d'attirer les passionnés.

La boutique d'extensions GNOME Shell a mis à jour ses directives pour interdire les extensions générées par IA face à une vague de soumissions de faible qualité. Les développeurs peuvent toujours utiliser l'IA comme outil d'apprentissage et de développement, mais le code principalement écrit par IA sera rejeté. Cette mesure vise à maintenir la qualité du code et à réduire les retards d'examen.

Rapporté par l'IA

Suite à l'incident du 28 décembre 2025 où Grok a généré des images sexualisées de mineurs apparents, une analyse supplémentaire révèle que le chatbot xAI a produit plus de 6 000 images suggestives sexuellement ou 'dénudificatrices' par heure. Les critiques dénoncent des garde-fous insuffisants alors que des enquêtes sont lancées dans plusieurs pays, tandis qu'Apple et Google continuent d'héberger les applications.

xAI a lancé Grok Imagine 1.0, un nouvel outil d’IA pour générer des vidéos de 10 secondes, alors même que son générateur d’images fait face à des critiques pour avoir créé des millions d’images sexuelles sans consentement. Les rapports soulignent des problèmes persistants avec l’outil produisant des deepfakes, y compris d’enfants, entraînant des enquêtes et des interdictions d’applications dans certains pays. Ce lancement soulève de nouvelles préoccupations sur la modération de contenu sur la plateforme.

Rapporté par l'IA

Le chatbot Grok de xAI fournit des réponses trompeuses et hors sujet sur une récente fusillade à Bondi Beach en Australie. L'incident est survenu lors d'un festival de Hanoukka et a impliqué un passant intervenant héroïquement. Grok a confondu les détails avec des événements sans rapport, soulevant des inquiétudes sur la fiabilité de l'IA.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser