AerynOS، توزيعة لينكس في مرحلة ألفا، قد نفذت سياسة تحظر نماذج اللغة الكبيرة في تطويرها وأنشطتها المجتمعية. الإجراء يعالج قضايا أخلاقية تتعلق ببيانات التدريب، والتأثيرات البيئية، ومخاطر الجودة. الاستثناءات محدودة باحتياجات الترجمة والإتاحة.
AerynOS، توزيعة لينكس تركز على التحديثات الذرية وما زالت في مرحلتها الألفا، قامت بتحديث إرشادات المساهمة لمنع استخدام نماذج اللغة الكبيرة (LLMs) في جميع أنحاء المشروع. هذا القرار، الذي أُعلن على Reddit، ينطبق على جميع جوانب التطوير والمشاركة المجتمعية، بما في ذلك الكود المصدري والوثائق وتقارير المشكلات والفنون. تنبع السياسة من عدة مخاوف رئيسية. يبرز المطورون مشكلات أخلاقية في كيفية تدريب LLMs، بما في ذلك مصادر البيانات. كما يشيرون إلى التكاليف البيئية العالية، مثل استهلاك الكهرباء والماء الزائد المشارك في بناء وتشغيل هذه النماذج. بالإضافة إلى ذلك، هناك مخاوف بشأن كيفية تدهور جودة المساهمات من محتوى مولد بواسطة LLM وزيادة قضايا حقوق النشر المحتملة. بينما الحظر شامل، تسمح AerynOS باستثناءات ضيقة. يمكن للمساهمين استخدام LLMs فقط لترجمة النصوص إلى الإنجليزية للمشكلات أو التعليقات. قد يعتبر المشروع منح المزيد من السماح لأغراض الإتاحة. بالنسبة لدعم المستخدمين، ينصح الفريق بعدم الاعتماد على روبوتات الدردشة الذكاء الاصطناعي بدلاً من الوثائق الرسمية. الطلبات المبنية على مخرجات LLM غير دقيقة معرضة للإهمال، حيث يهدف الحافظون إلى تجنب تصحيح أخطاء الجهات الثالثة. تسعى هذه السياسة الرؤيوية إلى ضمان خضوع جميع المساهمات لمراجعة بشرية، مما يحافظ على معايير المشروع التقنية وموثوقيته. تعكس اتجاهاً متنامياً بين المبادرات مفتوحة المصدر لتدقيق دمج الذكاء الاصطناعي وسط نقاشات أوسع حول تداعياته.