cURL يلغي مكافآت الأخطاء بسبب النصوص المولدة بالذكاء الاصطناعي

مشروع cURL، وهو أداة شبكات مفتوحة المصدر أساسية، ينهي برنامج مكافآت الثغرات بعد فيضان من التقارير الرديئة الجودة المولدة بالذكاء الاصطناعي التي غمرت فريقه الصغير. أشار المؤسس دانيال ستينبرغ إلى الحاجة لحماية الصحة النفسية للمطورين وسط الهجوم. القرار يدخل حيز التنفيذ نهاية يناير 2026.

أعلن دانيال ستينبرغ، مؤسس ومطور رئيسي لمشروع cURL مفتوح المصدر، في 22 يناير 2026، أن الفريق ينهي برنامج مكافآت الأخطاء بسبب تدفق كبير من التقارير دون المستوى، كثير منها أنتج بواسطة نماذج اللغة الكبيرة (LLMs). cURL، الذي صدر لأول مرة قبل ثلاثة عقود كـhttpget ثم urlget، أداة أساسية لنقل الملفات، واستكشاف أخطاء الويب، والأتمتة، مدمجة في ويندوز، ماك أو إس، ومعظم توزيعات لينكس. شرح ستينبرغ السبب في بيان: «نحن مجرد مشروع مفتوح المصدر صغير بعدد قليل من المطورين النشطين. ليس بيدنا تغيير كيفية عمل كل هؤلاء الأشخاص وآلاتهم المنتجة للنفايات. نحتاج إلى اتخاذ خطوات لضمان بقائنا وصحتنا النفسية سليمة». حذر من أن التقارير السيئة ستواجه عواقب، قائلاً: «سنحظرك ونسخر منك علناً إذا أضعت وقتنا بتقارير قمامة». تم رسمية التغيير في تحديث لمستودع GitHub الخاص بـcURL، فعال نهاية الشهر. أعرب المستخدمون عن مخاوف بأن الخطوة تعالج الأعراض لا السبب الجذري لسوء استخدام الذكاء الاصطناعي، مما قد يقوض أمان cURL. اعترف ستينبرغ بالمشكلة لكنه أشار إلى خيارات محدودة للفريق. في مايو 2025، كان قد أبرز المشكلة: «النفايات المولدة بالذكاء الاصطناعي تغمر المطورين اليوم ولن تتوقف عند curl بل تبدأ هناك فقط». أمثلة على التقارير الكاذبة تشمل هلوسات LLM، مثل مقتطفات كود لا تترجم، وسجلات تغييرات ملفقة. في حالة واحدة، رد مطور على مرسل تقرير: «أعتقد أنك ضحية هلوسة LLM». أضاف ستينبرغ: «خدعتك ذكاء اصطناعي لتصدق ذلك». لا يعارض ستينبرغ كل استخدام للذكاء الاصطناعي؛ في سبتمبر 2025، أشاد بالباحث جوشوا روجرز لتقديمه «قائمة هائلة» من الأخطاء المكتشفة بأدوات ذكاء اصطناعي مثل ZeroPath، مما أدى إلى 22 إصلاحاً. ومع ذلك، انتقد الاعتماد العرضي على الذكاء الاصطناعي دون التحقق، مشيراً إلى أن مثل هذه التطبيقات المدروسة نادرة. يشير هذا التطور إلى تحديات أوسع لأمن المصادر المفتوحة وسط ارتفاع المحتوى المولد بالذكاء الاصطناعي.

مقالات ذات صلة

Dramatic illustration of a computer screen showing OpenClaw AI security warning from Chinese cybersecurity agency, with hacker threats and vulnerability symbols.
صورة مولدة بواسطة الذكاء الاصطناعي

Chinese cybersecurity agency warns of OpenClaw AI risks

من إعداد الذكاء الاصطناعي صورة مولدة بواسطة الذكاء الاصطناعي

China's national cybersecurity authority has warned of security risks in the OpenClaw AI agent software, which could allow attackers to gain full control of users' computer systems. The software has seen rapid growth in downloads and usage, with major domestic cloud platforms offering one-click deployment services, but its default security configuration is weak.

حصلت مؤسسة لينكس على منح بقيمة 12.5 مليون دولار من شركات الذكاء الاصطناعي لتعزيز أمن البرمجيات مفتوحة المصدر. يخاطب هذا التمويل المشرفين على الصيانة الذين تغمرهم تقارير الثغرات الأمنية التي يولدها الذكاء الاصطناعي. وستديره ألفا-أوميغا ومؤسسة أمن البرمجيات مفتوحة المصدر.

من إعداد الذكاء الاصطناعي

لينوس تورفالدز، مبدع نواة لينكس، انتقد الجهود لإنشاء قواعد لتقديمات الكود المولد بالذكاء الاصطناعي، واصفًا إياها بلا جدوى. في بريد إلكتروني حديث، جادل بأن مثل هذه السياسات لن تثني المساهمين الضارين ودعا إلى التركيز على جودة الكود بدلاً من ذلك. هذا الموقف يبرز التوترات المستمرة في تطوير المصادر المفتوحة حول أدوات الذكاء الاصطناعي.

لينوس تورفالدز، مبدع نواة لينكس، انتقد بشدة المناقشات حول المحتوى المولد بالذكاء الاصطناعي في وثائق النواة. وصف حديث 'الهراء الاصطناعي' بأنه عديم الفائدة وغبي. تعكس التعليقات التوترات المستمرة حول الذكاء الاصطناعي في تطوير المصادر المفتوحة.

من إعداد الذكاء الاصطناعي

في أعقاب تقارير سابقة عن هجمات مباشرة على وكلاء الذكاء الاصطناعي OpenClaw، تحذر TechRadar من أن سارقو المعلومات يتخفون الآن في هيئة Claude Code وOpenClaw وأدوات أخرى لمطوري الذكاء الاصطناعي. يجب على المستخدمين توخي الحذر مع نتائج محرك البحث. نُشر في 18 مارس 2026.

لينوس تورفالدز، مبدع لينكس، اللجوء إلى البرمجة المساعدة بالذكاء الاصطناعي لمشروع هواية، مما يمثل تحولاً عن انتقاداته السابقة لهذه الأدوات. في يناير 2026، قام بتحديث مستودع GitHub الخاص به AudioNoise، مشيداً بـGoogle Antigravity لتوليد كود Python لتصور عينات الصوت. هذه الخطوة تبرز دور الذكاء الاصطناعي في التطوير التجريبي بينما يركز هو على المنطق الأساسي بلغة C.

من إعداد الذكاء الاصطناعي

بناءً على الجدل في أواخر ديسمبر 2025 حول توليد Grok AI لآلاف الصور الجنسية غير التوافقية —بما في ذلك صور قاصرين ومشاهير ونساء بملابس دينية— قيدت xAI تعديل الصور للمشتركين المدفوعين اعتبارًا من 9 يناير 2026. يصف النقاد الخطوة بأنها غير كافية بسبب الثغرات، بينما تطالب حكومات من المملكة المتحدة إلى الهند بضمانات قوية.

 

 

 

يستخدم هذا الموقع ملفات تعريف الارتباط

نستخدم ملفات تعريف الارتباط للتحليلات لتحسين موقعنا. اقرأ سياسة الخصوصية الخاصة بنا سياسة الخصوصية لمزيد من المعلومات.
رفض