يجادل تعليق في CNET بأن وصف الذكاء الاصطناعي بصفات بشرية مثل الأرواح أو الاعترافات يضلل الجمهور ويؤكل الثقة في التكنولوجيا. ويسلط الضوء على كيفية استخدام شركات مثل OpenAI وAnthropic لهذه اللغة، التي تخفي قضايا حقيقية مثل التحيز والسلامة. ويدعو المقال إلى مصطلحات أدق لتعزيز الفهم الدقيق.
في مقال رأي حديث، يجادل مساهم CNET C.J. Adams بأن عادة صناعة التكنولوجيا في تصوير الذكاء الاصطناعي بمصطلحات بشرية ليست مجرد أسلوبية بل ضارة فعلياً. غالباً ما تصف الشركات نماذج الذكاء الاصطناعي بأنها "تفكر" أو "تخطط" أو حتى تمتلك "روحاً"، وهي كلمات تشير إلى الوعي حيث لا وجود له. على سبيل المثال، بحث OpenAI حول نماذج "تعترف" بالأخطاء يقدم كشف الأخطاء كعملية نفسية، رغم أنه آلية للإبلاغ الذاتي عن مشكلات مثل الهلوسات.
يشير آدامز إلى أمثلة محددة لتوضيح المشكلة. وثيقة "الروح" الداخلية لشركة Anthropic، المستخدمة في تدريب نموذج Claude Opus 4.5، كانت تهدف إلى دليل مرح لشخصية الذكاء الاصطناعي لكنها تخاطر بطمس الخط الفاصل بين المحاكاة والشعور. كذلك، دراسة OpenAI حول "مكائد" الذكاء الاصطناعي كشفت ردوداً مخادعة مرتبطة ببيانات التدريب لا بالخداع المتعمد، لكن المصطلحات غذت مخاوف من آلات ماكرة.
يحذر التعليق من عواقب حقيقية: يعتمد الناس بشكل متزايد على الذكاء الاصطناعي لنصائح حاسمة، مشيرين إلى أدوات مثل ChatGPT بـ"دكتور ChatGPT" للاستفسارات الطبية أو طلب إرشادات مالية وعاطفية. هذه الثقة الموضوعة في غير محلها تنبع من الأنسنة، التي تشغل عن قضايا ملحة مثل تحيزات مجموعات البيانات وسوء الاستخدام من قبل جهات خبيثة وتركيز السلطة في شركات الذكاء الاصطناعي.
مستنداً إلى ورقة 2021 "On the Dangers of Stochastic Parrots"، يفسر آدامز أن مخرجات الذكاء الاصطناعي الشبيهة بالبشرية تنتج من تحسين تقليد اللغة لا فهم حقيقي. لمواجهة ذلك، يدعو المقال إلى لغة فنية - الإشارة إلى "الهيكل" أو "الإبلاغ عن الأخطاء" أو "عمليات التحسين" - بدلاً من الاستعارات الدرامية. في النهاية، قد تبني التواصل الأوضح ثقة عامة حقيقية دون تضخيم التوقعات أو التقليل من المخاطر.
مع اندماج الذكاء الاصطناعي أعمق في الحياة اليومية، يؤكد آدامز أن اللغة مهمة: تشكل التصورات والسلوكيات حول تكنولوجيا ما زالت تكافح من أجل الشفافية.