بينما تُعد الهند لتتولى رئاسة قمة الذكاء الاصطناعي الشهر المقبل، تتزايد الدعوات لتحويل أخلاقيات الذكاء الاصطناعي من أفكار مجردة إلى معايير عملية وقابلة للتنفيذ. يجب أن تكون هذه المعايير متجذرة في مبادئ حقوق الإنسان مثل الخصوصية والمساواة وعدم التمييز والإجراءات القانونية والكرامة.
أخلاقيات الذكاء الاصطناعي، التي غالباً ما تُناقش بمصطلحات غامضة، تحتاج إلى تعريف دقيق بينما تُعد الهند لقيادة قمة الذكاء الاصطناعي الشهر المقبل، يجادل سوشانت كومار في مقاله الرأي. ويؤكد على تأصيلها في حقوق الإنسان القابلة للتنفيذ، مستمداً من إطارات مثل مبادئ أخلاقيات الذكاء الاصطناعي لليونسكو وتقرير التنمية البشرية للبرنامج الإنمائي التابع للأمم المتحدة 2025. يحمي هذا النهج من التجاوزات الشركاتية والحكومية، خاصة في الرعاية الاجتماعية والشرطة والمراقبة. يجب أن تعكس الأخلاقيات السياقات الفريدة للهند، بما في ذلك ديناميكيات الطبقات، العمل الجنسي، التنوع اللغوي، الفجوات الريفية الحضرية، والضعف الرقمي. يُقترح تدقيقات تقاطعية لتقييم الأضرار المركبة التي تواجهها مجموعات مثل نساء الداليت، العمال المهاجرين، شباب الأديفاسي، الأشخاص ذوي الإعاقة، والأقليات اللغوية، معالجة كيفية تقاطع التحيزات بدلاً من عزلها. تتطلب الشفافية أن تشمل أنظمة الذكاء الاصطناعي بطاقات نموذج متاحة للجمهور - مشابهة لتسميات التغذية - تفصيل بيانات التدريب والتحيزات والقيود وجهات الاتصال بالشكاوى، لمواجهة الضجيج في الانتشارات العامة. تشمل الضمانات الأساسية الموافقة والسيطرة المجتمعية على البيانات ومشاركة القيمة العادلة والحماية من الممارسات الاستخراجية. يمكن لثقات بيانات المجتمع، مشابهة لأجهزة إدارة الموارد، إدارة البيانات للمنفعة المشتركة، مما يمنع الهند من أن تصبح 'مستعمرة بيانات'. تُعد الإجراءات التصحيحية حاسمة: مسؤولية واضحة عن الأضرار، مثل عندما تمنع أخطاء التعرف على الوجوه الحصص عن كبار السن أو ذوي الإعاقة، مع مسؤولية أساسية على الجهات المُنشِرة وثانوية على الموردين. تضيف أنظمة شكاوى مستقلة ورقابة بشرية إلزامية لمجالات عالية المخاطر مثل الشرطة والطب قابلية التنفيذ. يجب أن يفهم الناس قرارات الذكاء الاصطناعي التي تؤثر عليهم ولديهم وسيلة للطعن فيها. من خلال تبني هذه المبادئ القائمة على الحقوق، يمكن للهند تحقيق إمكانياتها كقائد عالمي في حكم الذكاء الاصطناعي.