Réécriture par l’IA de la bibliothèque chardet enflamme le débat sur les licences open source

La sortie de la version 7.0 de la bibliothèque Python open source chardet a suscité une controverse sur la possibilité pour une réécriture assistée par l’IA de changer sa licence restrictive d’origine. Le mainteneur Dan Blanchard a utilisé l’outil Claude d’Anthropic pour créer une version plus rapide sous licence MIT, mais l’auteur original Mark Pilgrim argue qu’elle viole les termes de la LGPL. Ce cas met en lumière les questions juridiques et éthiques émergentes concernant le code généré par l’IA.

La bibliothèque chardet, d’abord développée par Mark Pilgrim en 2006 et publiée sous la GNU Lesser General Public License (LGPL), détecte les encodages de caractères dans les textes. Dan Blanchard en a assumé la maintenance en 2012 et a dévoilé la semaine dernière la version 7.0, qu’il décrit comme une réécriture complète sous la licence MIT plus permissive. Réalisée avec l’assistance de l’outil de codage Claude d’Anthropic, cette mise à jour promet une amélioration des performances par un facteur de 48 et une plus grande précision, obtenues en environ cinq jours.  Blanchard visait à rendre chardet apte à l’inclusion dans la bibliothèque standard de Python en résolvant les problèmes liés à sa licence, sa vitesse et sa précision. Il a commencé avec un dépôt vide, a rédigé un document de conception décrivant l’architecture, et a instruit Claude d’éviter de baser le code sur du matériel sous licence LGPL ou GPL. Après la génération, Blanchard a examiné, testé et itéré sur chaque partie sans rédiger le code à la main.  Cependant, un commentateur GitHub sous le nom de Mark Pilgrim a contesté le changement de licence, affirmant que la nouvelle version dérive du code LGPL original malgré la réécriture. « Leur affirmation qu’il s’agit d’une ‘réécriture complète’ est sans objet, puisqu’ils ont eu une exposition abondante au code sous licence originale (c’est-à-dire que ce n’est pas une implémentation en ‘salle blanche’), » a écrit Pilgrim. « Ajouter un générateur de code sophistiqué au mélange ne leur confère pas de droits supplémentaires. J’insiste respectueusement pour qu’ils remettent le projet sous sa licence originale. »  Blanchard a reconnu sa familiarité avec l’ancien codebase mais a maintenu que la sortie de l’IA est structurellement indépendante. Une analyse de similarité via JPlag a montré au plus 1,29 pour cent de chevauchement entre les fichiers de la version 7.0 et leurs prédécesseurs, contre jusqu’à 80 pour cent dans les mises à jour précédentes. Il a noté la dépendance à des fichiers de métadonnées des anciennes versions et l’entraînement de Claude sur des données publiques, potentiellement incluant le code de chardet, comme complications potentielles.  Le différend a alimenté des discussions plus larges au sein de la communauté open source. La directrice exécutive de la Free Software Foundation, Zoë Kooyman, a déclaré à The Register : « Il n’y a rien de ‘propre’ dans un grand modèle de langage qui a ingéré le code qu’on lui demande de réimplémenter. » Le développeur open source Armin Ronacher a argué dans un billet de blog que supprimer tout le code original crée une nouvelle œuvre, la comparant au Navire de Thésée. Le codeur italien Salvatore « antirez » Sanfilippo a suggéré de s’adapter à l’impact transformateur de l’IA sur le logiciel, tandis que l’évangéliste Bruce Perens a averti de profonds bouleversements économiques, les comparant aux effets de l’imprimerie.

Articles connexes

Illustrative photo of Pentagon challenging Anthropic's limits on Claude AI for military use during strained contract talks.
Image générée par IA

Le Pentagone conteste les limites imposées par Anthropic à l'utilisation militaire de Claude, alors que les négociations contractuelles sont tendues

Rapporté par l'IA Image générée par IA Vérifié par des faits

Après que le PDG d'Anthropic, Dario Amodei, a déclaré fin février que l'entreprise ne permettrait pas que son modèle Claude soit utilisé pour la surveillance domestique de masse ou pour des armes entièrement autonomes, de hauts responsables du Pentagone ont déclaré qu'ils n'avaient pas l'intention d'utiliser l'IA pour la surveillance domestique et ont insisté sur le fait que les entreprises privées ne peuvent pas fixer de limites contraignantes sur la manière dont l'armée américaine utilise les outils d'IA.

Les agents de codage IA de sociétés comme OpenAI, Anthropic et Google permettent un travail prolongé sur des projets logiciels, y compris l'écriture d'applications et la correction de bugs sous surveillance humaine. Ces outils reposent sur de grands modèles de langage mais font face à des défis comme un traitement de contexte limité et des coûts computationnels élevés. Comprendre leur fonctionnement aide les développeurs à décider quand les déployer efficacement.

Rapporté par l'IA

Anthropic a annoncé que son chatbot IA Claude restera sans publicité, en net contraste avec la décision récente de son rival OpenAI de tester des publicités dans ChatGPT. L'entreprise a lancé une campagne publicitaire lors du Super Bowl moquant les assistants IA qui interrompent les conversations avec des pitches produits. Cette initiative met en lumière les tensions croissantes dans le paysage concurrentiel de l'IA.

Le 5 février 2026, Anthropic et OpenAI ont lancé simultanément des produits faisant passer les utilisateurs de la discussion avec l’IA à la gestion d’équipes d’agents IA. Anthropic a introduit Claude Opus 4.6 avec des équipes d’agents pour les développeurs, tandis qu’OpenAI a dévoilé Frontier et GPT-5.3-Codex pour les flux de travail d’entreprise. Ces sorties coïncident avec une chute de 285 milliards de dollars des actions logicielles, sur fond de craintes que l’IA perturbe les fournisseurs SaaS traditionnels.

Rapporté par l'IA

Un assistant IA open-source initialement nommé Clawdbot a rapidement gagné en popularité avant de subir deux rebrandings rapides vers OpenClaw en raison de préoccupations de marques déposées et de perturbations en ligne. Créé par le développeur Peter Steinberger, l'outil s'intègre dans les applications de messagerie pour automatiser les tâches et se souvenir des conversations. Malgré des problèmes de sécurité et des arnaques, il continue d'attirer les passionnés.

Wikipédia a interdit l'utilisation de modèles de langage étendus pour créer ou réécrire le contenu des articles, invoquant des violations des politiques fondamentales en matière de contenu. Les modifications de base, telles que la correction de fautes de frappe et certaines traductions d'articles, sont autorisées sous des conditions strictes. Les détails de l'application de cette politique restent flous.

Rapporté par l'IA

L'encyclopédie Britannica et sa filiale Merriam-Webster ont intenté un procès à OpenAI, alléguant une violation du droit d'auteur pour avoir utilisé leur contenu afin d'entraîner des modèles d'IA comme ChatGPT sans autorisation, ainsi qu'une violation de la marque déposée, l'IA attribuant faussement des hallucinations à Britannica. Les plaignants affirment que ChatGPT reproduit mot pour mot ou presque mot pour mot des portions, des résumés ou des abrégés de leurs œuvres, cannibalisant ainsi le trafic vers leurs sites.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser