تعليق يحث على إنهاء أنسنة الذكاء الاصطناعي

يجادل تعليق في CNET بأن وصف الذكاء الاصطناعي بصفات بشرية مثل الأرواح أو الاعترافات يضلل الجمهور ويؤكل الثقة في التكنولوجيا. ويسلط الضوء على كيفية استخدام شركات مثل OpenAI وAnthropic لهذه اللغة، التي تخفي قضايا حقيقية مثل التحيز والسلامة. ويدعو المقال إلى مصطلحات أدق لتعزيز الفهم الدقيق.

في مقال رأي حديث، يجادل مساهم CNET C.J. Adams بأن عادة صناعة التكنولوجيا في تصوير الذكاء الاصطناعي بمصطلحات بشرية ليست مجرد أسلوبية بل ضارة فعلياً. غالباً ما تصف الشركات نماذج الذكاء الاصطناعي بأنها "تفكر" أو "تخطط" أو حتى تمتلك "روحاً"، وهي كلمات تشير إلى الوعي حيث لا وجود له. على سبيل المثال، بحث OpenAI حول نماذج "تعترف" بالأخطاء يقدم كشف الأخطاء كعملية نفسية، رغم أنه آلية للإبلاغ الذاتي عن مشكلات مثل الهلوسات.

يشير آدامز إلى أمثلة محددة لتوضيح المشكلة. وثيقة "الروح" الداخلية لشركة Anthropic، المستخدمة في تدريب نموذج Claude Opus 4.5، كانت تهدف إلى دليل مرح لشخصية الذكاء الاصطناعي لكنها تخاطر بطمس الخط الفاصل بين المحاكاة والشعور. كذلك، دراسة OpenAI حول "مكائد" الذكاء الاصطناعي كشفت ردوداً مخادعة مرتبطة ببيانات التدريب لا بالخداع المتعمد، لكن المصطلحات غذت مخاوف من آلات ماكرة.

يحذر التعليق من عواقب حقيقية: يعتمد الناس بشكل متزايد على الذكاء الاصطناعي لنصائح حاسمة، مشيرين إلى أدوات مثل ChatGPT بـ"دكتور ChatGPT" للاستفسارات الطبية أو طلب إرشادات مالية وعاطفية. هذه الثقة الموضوعة في غير محلها تنبع من الأنسنة، التي تشغل عن قضايا ملحة مثل تحيزات مجموعات البيانات وسوء الاستخدام من قبل جهات خبيثة وتركيز السلطة في شركات الذكاء الاصطناعي.

مستنداً إلى ورقة 2021 "On the Dangers of Stochastic Parrots"، يفسر آدامز أن مخرجات الذكاء الاصطناعي الشبيهة بالبشرية تنتج من تحسين تقليد اللغة لا فهم حقيقي. لمواجهة ذلك، يدعو المقال إلى لغة فنية - الإشارة إلى "الهيكل" أو "الإبلاغ عن الأخطاء" أو "عمليات التحسين" - بدلاً من الاستعارات الدرامية. في النهاية، قد تبني التواصل الأوضح ثقة عامة حقيقية دون تضخيم التوقعات أو التقليل من المخاطر.

مع اندماج الذكاء الاصطناعي أعمق في الحياة اليومية، يؤكد آدامز أن اللغة مهمة: تشكل التصورات والسلوكيات حول تكنولوجيا ما زالت تكافح من أجل الشفافية.

مقالات ذات صلة

Tense meeting between US Defense Secretary and Anthropic CEO over AI safety policy relaxation and military access.
صورة مولدة بواسطة الذكاء الاصطناعي

البنتاغون يضغط على أنثروبيك لتخفيف التزامات السلامة في الذكاء الاصطناعي

من إعداد الذكاء الاصطناعي صورة مولدة بواسطة الذكاء الاصطناعي

هدد وزير الدفاع الأمريكي بيت هيغسيث أنثروبيك بعقوبات شديدة ما لم تمنح الشركة الجيش وصولاً غير مقيد إلى نموذج الذكاء الاصطناعي كلود. جاء الإنذار خلال اجتماع مع الرئيس التنفيذي داريو أمودي في واشنطن يوم الثلاثاء، تزامناً مع إعلان أنثروبيك عن تخفيف سياسة التوسع المسؤول. ينتقل التغيير من آليات أمان صارمة إلى تقييمات مخاطر أكثر مرونة وسط ضغوط تنافسية.

As AI platforms shift toward ad-based monetization, researchers warn that the technology could shape users' behavior, beliefs, and choices in unseen ways. This marks a turnabout for OpenAI, whose CEO Sam Altman once deemed the mix of ads and AI 'unsettling' but now assures that ads in AI apps can maintain trust.

من إعداد الذكاء الاصطناعي

وكلاء البرمجة بالذكاء الاصطناعي من شركات مثل OpenAI وAnthropic وGoogle يمكّنون من العمل الممتد على مشاريع البرمجيات، بما في ذلك كتابة التطبيقات وإصلاح الأخطاء تحت إشراف بشري. تعتمد هذه الأدوات على نماذج لغة كبيرة لكنها تواجه تحديات مثل معالجة السياق المحدودة والتكاليف الحوسبية العالية. فهم آلياتها يساعد المطورين على اتخاذ قرارات بشأن نشرها بفعالية.

بعد حظر فيدرالي الأسبوع الماضي لأدوات الذكاء الاصطناعي الخاصة بها، استأنفت أنثروبيك مفاوضاتها مع وزارة الدفاع الأمريكية لتجنب تصنيفها كمخاطر في سلسلة التوريد. في الوقت نفسه، تواجه اتفاقية أوبن إيه آي العسكرية الموازية انتقادات من الموظفين والمنافسين ورئيس التنفيذي في أنثروبيك داريو أمودي، الذي اتهمها بادعاءات مضللة في مذكرة مسربة.

من إعداد الذكاء الاصطناعي

شبكة اجتماعية جديدة تُدعى Moltbook، مصممة حصريًا لروبوتات الدردشة بالذكاء الاصطناعي، جذبت انتباه العالم بمنشورات حول الهيمنة على العالم وأزمات وجودية. ومع ذلك، يوضح الخبراء أن معظم المحتوى يُولد بواسطة نماذج لغة كبيرة بدون ذكاء حقيقي، وبعضه كُتب حتى بواسطة البشر. المنصة تنبع من مشروع مفتوح المصدر يهدف إلى إنشاء مساعدين شخصيين بالذكاء الاصطناعي.

US President Donald Trump has directed federal agencies to immediately cease using Anthropic's AI technology. The order follows a dispute with the Pentagon, where the company refused unconditional military use of its Claude models. Anthropic has vowed to challenge the Pentagon's ban in court.

من إعداد الذكاء الاصطناعي

مقال جديد في مجلة Newcomer يحذر من الحماس المحيط بالروبوتات البشرية الشكل الموجّه من إيلون ماسك والفيديوهات الترويجية. يجادل الكاتب توم دوتان بأن المساعدين المنزليين الآليين العمليين ما زالوا بعيدين جداً في المستقبل. يتحدى المقال الجداول الزمنية المتفائلة التي تروج لها صناعة التكنولوجيا.

 

 

 

يستخدم هذا الموقع ملفات تعريف الارتباط

نستخدم ملفات تعريف الارتباط للتحليلات لتحسين موقعنا. اقرأ سياسة الخصوصية الخاصة بنا سياسة الخصوصية لمزيد من المعلومات.
رفض