قام فريق من الباحثين، بما في ذلك من جامعة بن ستيت، بدراسة كيفية استخدام تقنية البلوكشين لفرض الحدود الأخلاقية على أنظمة الذكاء الاصطناعي. عملهم، المنشور في مجلة الأمن السيبراني والخصوصية، يقترح إطارًا لضمان امتثال الذكاء الاصطناعي للقيم الإنسانية. يبرز الدراسة إمكانية البلوكشين في تعزيز الشفافية والمساءلة في عملية اتخاذ قرارات الذكاء الاصطناعي.
في مالفيرن، بنسلفانيا، نشر الدكتور المساعد في هندسة البرمجيات في جامعة بن ستيت غريت فالي، دوشان راملجاك، وشركاؤه ورقة بحثية تفحص دور البلوكشين في توحيد الذكاء الاصطناعي مع المعايير الأخلاقية. مع زيادة عمل أنظمة الذكاء الاصطناعي مثل روبوتات التداول الآلية وأدوات التشخيص بأقل إشراف بشري، ترتفع مخاطر النتائج غير الثقة في مجالات مثل الطب والمالية. "تُدرب أنظمة الذكاء الاصطناعي على التصرف بطرق معينة ضمن معايير محددة. إذا تغيرت المعايير... يمكن أن تتصرف بطرق غير متوقعة تتعارض مع القيم الإنسانية — على سبيل المثال، التضليل من خلال التعامل السيء مع بيانات الصحة الحساسة أو نشر معلومات خاطئة من خلال التوصية بالعلاج الطبي الخاطئ," شرح راملجاك.
يشمل الفريق الدكتورة المساعدة في جامعة بن ستيت أبينغتون ماريام روشاناي، طالب الماجستير جينيل كاكا، طلاب الدكتوراه في جامعة فيينا ألكسندر نويلينغر ولוקاس سبارر، وطالب الدكتوراه في جامعة كراغويفاك دراغوتين أوستويتش، الذين راجعوا أكثر من 7000 دراسة. طوروا إطارًا ثلاثي المستويات للبحوث المستقبلية: تحليل على المستوى الدقيق يركز على البروتوكولات التقنية لتأمين بيانات المستخدمين؛ تحليل على المستوى المتوسط للحالات الاستخدامية الخاصة بالقطاعات في التمويل والرعاية الصحية؛ وتحليل على المستوى الكلي يتناول المبادئ الأخلاقية، والمعايير القانونية الدولية، والاختلافات الثقافية، مثل قانون الذكاء الاصطناعي للاتحاد الأوروبي.
البلوكشين، المعروف بتشغيل العملات المشفرة، يقدم سجلات آمنة ولامركزية مع خط نسب البيانات الشفاف ويوميات مقاومة للتلاعب. يمكّن آليات التوافق حيث يصوت المشاركون على القواعد الأخلاقية، المنفذة عبر عقود ذكية. هذا يعزز قرارات قابلة للتتبع ويقاوم التلاعب ببيانات التدريب. ومع ذلك، تشمل التحديات استهلاك الطاقة العالي، مخاطر الخصوصية من الشفافية المتزايدة، والحاجة إلى إطارات مرنة عبر سياقات ثقافية وقانونية متنوعة.
أكد راملجاك على الحاجة إلى إطارات متعددة الطبقات تدمج الأمان والحوكمة والقيود القانونية. "يمكن أن يمنحنا التقارب بين البلوكشين والذكاء الاصطناعي ليس فقط موثوقية محسنة للأنظمة التقنية، بل أيضًا طرقًا جديدة للحوكمة المركزة على الإنسان، مما يضمن المساءلة على نطاق واسع," قال.