LLVM ينفذ سياسة ذكاء اصطناعي تتطلب إشرافًا بشريًا

قدم مشروع LLVM مفتوح المصدر سياسة جديدة تسمح بكود مولد بالذكاء الاصطناعي في المساهمات، شريطة مراجعته وفهمه من قبل البشر. يضمن هذا النهج «البشر في الحلقة» المساءلة مع معالجة مخاوف المجتمع بشأن الشفافية. تم تطوير السياسة بمدخلات من المساهمين، وتوازن بين الابتكار والموثوقية في تطوير البرمجيات.

LLVM، وهي مجموعة أساسية من مكونات المترجمات وأدوات السلسلة، المستخدمة في مشاريع مثل Clang وRust وSwift ونواة Linux، اعتمدت سياسة بشأن استخدام أدوات الذكاء الاصطناعي في المساهمات. نُشرت الإرشادات في 22 يناير 2026، وتسمح للمطورين باستخدام أي أدوات ذكاء اصطناعي لكنها تؤكد على المساءلة الكاملة عن العمل المقدم. بموجب السياسة، يجب على المساهمين الكشف عن أداة الذكاء الاصطناعي المستخدمة، إما في وصف طلب السحب أو رسالة الالتزام أو تفاصيل المؤلف. يتعين عليهم مراجعة وفهم تقاريرهم، وتبريرها بثقة أثناء المراجعات وضمان أنها تستحق انتباه المحافظ. توضح القواعد أن الانتهاكات ستُعالج وفقًا لعمليات المجتمع الحالية. شمل عملية التطوير مشاركة مجتمعية واسعة. أبرز عضو في LLVM تناقضات بين معالجة الذكاء الاصطناعي للمشروع ومدونة السلوك والممارسات الفعلية، مشيرًا إلى طلب سحب بارز نوقش في Hacker News حيث اعترف باستخدام الذكاء الاصطناعي بعد التقديم لكنه لم يُكشف عنه في البداية. قاد محافظ LLVM ريد كلكنر الجهد. اقترح مسودته الأولية، المستوحاة من سياسة Fedora للذكاء الاصطناعي، قيودًا مثل الحد من الوافدين الجدد إلى 150 سطرًا من كود غير اختبار. بعد تعليقات من اجتماعات ومنتديات المجتمع، تحولت النسخة النهائية إلى متطلبات أكثر صراحة، مركزة على جاهزية المراجعة وقدرة الإجابة على الأسئلة بدلاً من بنود ملكية غامضة. السياسة المحدثة لاستخدام أدوات الذكاء الاصطناعي متوفرة الآن على موقع توثيق LLVM، بما في ذلك أمثلة على أعمال مساعدة بالذكاء الاصطناعي مقبولة وإرشادات الانتهاكات. يتوافق هذا الإجراء مع مبادرات مفتوحة المصدر أخرى تتكيف مع دور الذكاء الاصطناعي المتزايد في التطوير.

مقالات ذات صلة

Realistic illustration of Linux Foundation executives and AI partners launching Agentic AI Foundation, featuring collaborative autonomous AI agents on a conference screen.
صورة مولدة بواسطة الذكاء الاصطناعي

Linux Foundation تطلق Agentic AI Foundation

من إعداد الذكاء الاصطناعي صورة مولدة بواسطة الذكاء الاصطناعي

أطلقت Linux Foundation مؤسسة Agentic AI Foundation لتعزيز التعاون المفتوح حول أنظمة الذكاء الاصطناعي المستقلة. ساهمت شركات تقنية كبرى، بما في ذلك Anthropic وOpenAI وBlock، بمشاريع مفتوحة المصدر رئيسية لتعزيز التوافقية ومنع الاعتماد على مزود واحد. تهدف المبادرة إلى إنشاء معايير محايدة لعوامل الذكاء الاصطناعي القادرة على اتخاذ قرارات وتنفيذ مهام بشكل مستقل.

لينوس تورفالدز، مبدع نواة لينكس، انتقد الجهود لإنشاء قواعد لتقديمات الكود المولد بالذكاء الاصطناعي، واصفًا إياها بلا جدوى. في بريد إلكتروني حديث، جادل بأن مثل هذه السياسات لن تثني المساهمين الضارين ودعا إلى التركيز على جودة الكود بدلاً من ذلك. هذا الموقف يبرز التوترات المستمرة في تطوير المصادر المفتوحة حول أدوات الذكاء الاصطناعي.

من إعداد الذكاء الاصطناعي

لقد تحولت مجتمع مطوري لينكس من نقاش دور الذكاء الاصطناعي إلى دمجه في عمليات هندسة النواة. يستخدم المطورون الآن الذكاء الاصطناعي لصيانة المشاريع، على الرغم من استمرار الأسئلة حول كتابة الكود به. تظل المخاوف بشأن حقوق النشر وتراخيص المصدر المفتوح قائمة.

أداة b4 لتطوير نواة Linux تقوم الآن باختبار وكيل الذكاء الاصطناعي الخاص بها داخليًا، والذي صُمم للمساعدة في مراجعات الكود. هذه الخطوة، المعروفة باسم dog-feeding، تمثل تطبيقًا عمليًا لميزة الذكاء الاصطناعي ضمن عملية تطوير الأداة. التحديث يأتي من Phoronix، مصدر رئيسي لأخبار Linux.

من إعداد الذكاء الاصطناعي

OpenClaw، مشروع ذكاء اصطناعي مفتوح المصدر كان يُعرف سابقًا باسم Moltbot وClawdbot، قد ارتفع إلى أكثر من 100,000 نجمة على GitHub في أقل من أسبوع. يمكّن هذا المحرك التنفيذي الوكلاء الذكاء الاصطناعي من أداء إجراءات مثل إرسال البريد الإلكتروني وإدارة التقويمات نيابة عن المستخدمين داخل واجهات الدردشة. يبرز صعوده الإمكانيات لتبسيط استخدام العملات المشفرة مع إثارة مخاوف أمنية.

لقد منعت Bandcamp الموسيقى المولدة كليًا أو بشكل كبير بواسطة الذكاء الاصطناعي على منصتها، بهدف حماية العنصر البشري في إبداع الموسيقى. السياسة، التي أُعلنت في 14 يناير 2026، تسمح للمستخدمين برفع تقارير عن محتوى مشتبه به من الذكاء الاصطناعي للمراجعة والإزالة. هذه الخطوة تتناقض مع خدمات البث الموسيقي الأخرى التي تواجه تدفقًا من المقاطع المصنعة بالذكاء الاصطناعي.

من إعداد الذكاء الاصطناعي

Music labels and tech companies are addressing the unauthorized use of artists' work in training AI music generators like Udio and Suno. Recent settlements with major labels aim to create new revenue streams, while innovative tools promise to remove unlicensed content from AI models. Artists remain cautious about the technology's impact on their livelihoods.

 

 

 

يستخدم هذا الموقع ملفات تعريف الارتباط

نستخدم ملفات تعريف الارتباط للتحليلات لتحسين موقعنا. اقرأ سياسة الخصوصية الخاصة بنا سياسة الخصوصية لمزيد من المعلومات.
رفض