AerynOS rejette l'utilisation des LLM dans les contributions pour des raisons éthiques

AerynOS, une distribution Linux en phase alpha, a mis en place une politique interdisant les modèles de langage large dans son développement et ses activités communautaires. Cette mesure aborde les problèmes éthiques liés aux données d'entraînement, aux impacts environnementaux et aux risques de qualité. Les exceptions sont limitées aux besoins de traduction et d'accessibilité.

AerynOS, une distribution Linux axée sur les mises à jour atomiques et encore en phase alpha, a mis à jour ses directives de contribution pour interdire l'utilisation de modèles de langage large (LLM) dans l'ensemble du projet. Cette décision, annoncée sur Reddit, s'applique à tous les aspects du développement et de l'engagement communautaire, y compris le code source, la documentation, les rapports de problèmes et les œuvres d'art. La politique découle de plusieurs préoccupations clés. Les développeurs soulignent les problèmes éthiques liés à la formation des LLM, y compris la sourcing des données. Ils pointent également les coûts environnementaux élevés, tels que la consommation excessive d'électricité et d'eau impliquée dans la construction et l'exploitation de ces modèles. De plus, il y a des inquiétudes quant à la manière dont le contenu généré par LLM pourrait dégrader la qualité globale des contributions et soulever des questions potentielles de droits d'auteur. Bien que l'interdiction soit complète, AerynOS autorise des exceptions limitées. Les contributeurs ne peuvent utiliser les LLM que pour traduire du texte en anglais pour les problèmes ou commentaires. Le projet pourrait envisager d'autres autorisations pour des besoins d'accessibilité. En matière de support utilisateur, l'équipe déconseille de dépendre des chatbots IA plutôt que de la documentation officielle. Les demandes basées sur des sorties LLM inexactes risquent d'être ignorées, les mainteneurs visant à éviter le débogage d'erreurs tierces. Cette politique prospective vise à s'assurer que toutes les contributions font l'objet d'un examen humain, préservant ainsi les normes techniques et la fiabilité du projet. Elle reflète une tendance croissante parmi les initiatives open source à scruter l'intégration de l'IA au milieu de débats plus larges sur ses implications.

Articles connexes

Realistic illustration of Linux Foundation executives and AI partners launching Agentic AI Foundation, featuring collaborative autonomous AI agents on a conference screen.
Image générée par IA

Linux Foundation lance Agentic AI Foundation

Rapporté par l'IA Image générée par IA

La Linux Foundation a lancé l'Agentic AI Foundation pour favoriser la collaboration ouverte sur les systèmes d'IA autonomes. De grandes entreprises technologiques, dont Anthropic, OpenAI et Block, ont contribué des projets open source clés pour promouvoir l'interopérabilité et éviter le verrouillage fournisseur. L'initiative vise à créer des normes neutres pour les agents IA capables de prendre des décisions et d'exécuter des tâches de manière indépendante.

Le projet open source LLVM a introduit une nouvelle politique autorisant le code généré par IA dans les contributions, à condition que des humains examinent et comprennent les soumissions. Cette approche « humain dans la boucle » assure la responsabilité tout en répondant aux préoccupations de la communauté sur la transparence. Élaborée avec l'apport des contributeurs, la politique équilibre innovation et fiabilité dans le développement logiciel.

Rapporté par l'IA

Linus Torvalds, créateur du noyau Linux, a critiqué les efforts pour établir des règles concernant les soumissions de code généré par IA, les qualifiant d'inutiles. Dans un courriel récent, il a argué que de telles politiques ne dissuaderaient pas les contributeurs malveillants et a exhorté à se concentrer sur la qualité du code. Cette position met en lumière les tensions persistantes dans le développement open source autour des outils d'intelligence artificielle.

Linus Torvalds, créateur du noyau Linux, a vivement critiqué les discussions sur le contenu généré par IA dans la documentation du noyau. Il a qualifié les propos sur le « slop d'IA » d'inutiles et stupides. Ces remarques soulignent les tensions persistantes autour de l'IA dans le développement open source.

Rapporté par l'IA

Un commentaire de CNET soutient que décrire l’IA comme dotée de qualités humaines telles que des âmes ou des confessions égare le public et érode la confiance dans la technologie. Il met en lumière comment des entreprises comme OpenAI et Anthropic utilisent un tel langage, qui occulte les vrais problèmes comme les biais et la sécurité. L’article plaide pour une terminologie plus précise afin de favoriser une compréhension exacte.

L'outil b4 de développement du noyau Linux teste désormais en interne son agent IA conçu pour assister aux revues de code. Cette étape, connue sous le nom de dog-feeding, marque une application pratique de la fonctionnalité IA dans le processus de développement de l'outil. Cette mise à jour provient de Phoronix, une source clé d'informations sur Linux.

Rapporté par l'IA

Un rapport du Guardian a révélé que le dernier modèle d'IA d'OpenAI, GPT-5.2, puise dans Grokipedia, une encyclopédie en ligne alimentée par xAI, lorsqu'il aborde des questions sensibles comme l'Holocauste et la politique iranienne. Bien que vanté pour des tâches professionnelles, des tests remettent en question la fiabilité de ses sources. OpenAI défend son approche en insistant sur des recherches web étendues avec des mesures de sécurité.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser