أطلقت OpenAI أداة Sora 2، وهي أداة متقدمة لتوليد مقاطع الفيديو بالذكاء الاصطناعي تسمح للمستخدمين بإدراج أنفسهم في مقاطع الفيديو المولدة مع صوت متزامن. تهدف التحديث إلى جعل إنشاء الفيديو أكثر شخصية وسهولة الوصول من خلال تطبيق جديد. يبرز الخبراء كلاً من الإمكانيات الترفيهية ومخاطر الديبفيك.
كشفت OpenAI عن Sora 2 في أكتوبر 2025، بناءً على نموذجها السابق لتحويل النص إلى فيديو. الابتكار الرئيسي هو ميزة تتيح للمستخدمين تحميل صورة شخصية، يقوم الذكاء الاصطناعي بعد ذلك بدمجها في مشاهد فيديو مخصصة. على سبيل المثال، يمكن لمستخدم أن يظهر كشخصية في مغامرة خيالية، مع تضمين الفيديو صوتًا مولدًا مثل الحوار أو الأصوات المحيطة.
وفقًا لـ Ars Technica، تعالج الأداة مدخلات المستخدمين عبر تطبيق محمول مخصص، حيث تصف التلميحات المشاهد، ويتولى الذكاء الاصطناعي الباقي. 'يُديمقراطي Sora 2 إنتاج الفيديو من خلال السماح لأي شخص بأن يكون نجمًا في قصص مصنوعة بالذكاء الاصطناعي'، قال متحدث باسم OpenAI. يأتي الإصدار بعد إطلاق Sora الأولي في 2024، مع تحسينات في الواقعية والطول — الآن فيديوهات تصل إلى 60 ثانية.
تقرير Wired أن التطبيق يستهدف تطبيقات الترفيه، مثل الأفلام القصيرة أو محتوى وسائل التواصل الاجتماعي، لكنه يثير إنذارات بشأن آثار الديبفيك. 'قد يُطمس هذا الخطوط بين الوسائط الحقيقية والمصطنعة'، لاحظت الدكتورة إلينا فاسكيز، خبيرة أخلاقيات الذكاء الاصطناعي. نفذت OpenAI ضمانات، بما في ذلك علامات مائية على المخرجات وتقييدات على التلميحات الحساسة، لتخفيف الاستخدام السيء.
حدث الإطلاق وسط تزايد التمحيص للذكاء الاصطناعي التوليدي. يشمل السياق الخلفي تحول OpenAI نحو أدوات المستهلكين بعد شراكات مع شركات الإعلام. لا تظهر تناقضات كبيرة بين المصادر؛ كلتاهما تؤكدان الإطلاق في أكتوبر والميزات الأساسية. تشمل الآثار تعزيز الإبداع للمبدعين، على الرغم من أن المنظمين قد يدفعون لضوابط أكثر صرامة على الوسائط الاصطناعية.
بدأت اختبارات المستخدمين فورًا بعد الإطلاق، مع تعليقات أولية تمدح سهولة الاستخدام لكنها تطالب بخيارات تخصيص أفضل.