مزود KYC الخاص بـOpenAI متهم بمشاركة بيانات المستخدمين مع وكالات أمريكية

اتهمت تحقيق أمني شركة Persona، التي تتولى فحوصات «اعرف عميلك» لشركة OpenAI، بإرسال بيانات المستخدمين بما في ذلك عناوين العملات المشفرة إلى وكالات فيدرالية مثل FinCEN. وجد الباحثون كودًا يمكّن من مراقبة الأنشطة المشبوهة والإبلاغ عنها. تنفي Persona أي صلات حالية مع الوكالات الفيدرالية.

في 18 فبراير، نشر باحثو الأمن vmfunc وMDL وDziurwa تحقيقًا كشف عن كود متاح علنًا في نظام Persona يبدو أنه ينقل البيانات المجمعة أثناء عملية KYC الخاصة بـOpenAI إلى شبكة مكافحة الجرائم المالية (FinCEN)، وهي مكتب تابع لوزارة الخزانة الأمريكية. تشمل هذه البيانات صور جوازات السفر والصور السيلفي والفيديوهات التي قدمها المستخدمون للتحقق من هويتهم للوصول إلى ميزات ChatGPT المتقدمة. الكود، الذي يعمل منذ نوفمبر 2023، يتكامل أيضًا مع Chainalysis لفحص عناوين العملات المشفرة المرتبطة بحثًا عن مخاطر، وتحليل التفاعلات، وتمكين المراقبة المستمرة عبر نظام قائمة مراقبة. أبرز الباحثون قدرات المنصة، قائلين: «نفس الشركة التي تأخذ صورة جواز سفرك عند التسجيل في ChatGPT تدير أيضًا منصة حكومية تقدم تقارير نشاط مشبوه إلى FinCEN وتصنفها بأسماء برامج استخباراتية مشفرة». وأضافوا: «هل قمت برفع صورة سيلفي لاستخدام روبوت الدردشة؟ تهانينا! الآن يتم مقارنتها بقاعدة بيانات تحتوي على كل سياسي ورئيس دولة وعائلاتهم الممتدة على الأرض». أكد خبراء أمن متعددون، بما في ذلك Tanuki42 من مجموعات الاستجابة لحوادث البلوكشين، مصداقية النتائج، مشيرين إلى أن النطاقات الحكومية المذكورة موجودة ومن المحتمل أن تستضيفها Persona. ومع ذلك، لا تزال هناك أسئلة حول الدوافع والاستخدام والمعايير الدقيقة لتشغيل الفحوصات أو التقارير. رد الرئيس التنفيذي لشركة Persona، ريك سونغ، على X معبرًا عن خيبة أمله ومطالبًا بأن الباحثين لم يتواصلوا معه مسبقًا. في رسائل بريد إلكتروني شاركها سونغ، قال إن شركته لا تعمل مع أي وكالة فيدرالية اليوم، لكنه لم يتناول آثار الكود مباشرة. كتب سونغ في منشور: «أنا مخيب للآمال حقًا من كيفية التعامل مع كل هذا»، ومدح موهبة vmfunc. لم يرد OpenAI وPersona على طلبات التعليق من DL News. تثير هذه الكشوفات مخاوف وسط القلق المتزايد بشأن متطلبات KYC، التي تفحص العقوبات والروابط الإرهابية والجرائم المالية لكنها تعرض المستخدمين أيضًا لإساءة استخدام البيانات المحتملة أو الاختراقات. فترات الاحتفاظ غير واضحة، مع تناقضات بين حد OpenAI المعلن لمدة عام واحد والكود الذي يشير إلى ثلاث سنوات أو تخزين دائم لهويات حكومية.

مقالات ذات صلة

Illustration of Google's Gemini AI with Personal Intelligence feature integrating Gmail, Photos, Search, and YouTube for personalized responses.
صورة مولدة بواسطة الذكاء الاصطناعي

جوجل تُطلق ميزة الذكاء الشخصي لـ Gemini

من إعداد الذكاء الاصطناعي صورة مولدة بواسطة الذكاء الاصطناعي

أطلقت جوجل ميزة الذكاء الشخصي، وهي ميزة جديدة لـ Gemini AI الخاصة بها، والتي تدمج بيانات من Gmail وPhotos وSearch وYouTube لتقديم ردود أكثر تخصيصًا. متوفرة في البداية للمشتركين المدفوعين في الولايات المتحدة، تؤكد الأداة الاختيارية على ضوابط خصوصية المستخدم وتتجنب التدريب المباشر على البيانات الشخصية. يبدأ الإطلاق في مرحلة بيتا، مع خطط للوصول الأوسع في المستقبل.

Discord has informed UK users that they may be part of an experiment using the age-assurance vendor Persona for verification, where submitted data is temporarily stored unlike previous promises. This change has raised privacy concerns among users, particularly due to Persona's links to investor Peter Thiel and his surveillance firm Palantir. The update is part of a broader global rollout of mandatory age verification starting in early March.

من إعداد الذكاء الاصطناعي

أبلغت OpenAI عن زيادة دراماتيكية في حوادث استغلال الأطفال إلى المركز الوطني للأطفال المفقودين والمستغلين خلال النصف الأول من 2025، مرسلة 80 ضعفًا أكثر من التقارير في الفترة نفسها من 2024. أرجعت الشركة الارتفاع إلى توسيع قدرات الاعتدال، وميزات جديدة تسمح بتحميل الصور، ونمو سريع في عدد المستخدمين. يعكس هذا الارتفاع المخاوف الأوسع بشأن سلامة الأطفال في منصات الذكاء الاصطناعي التوليدي.

بعد فضيحة تتعلق بتوليد Grok التابع لـxAI ملايين الصور المسيئة، قامت المنافسات OpenAI وGoogle بتنفيذ إجراءات جديدة لمنع الاستخدام السيء المماثل. أبرز الحادث الثغرات في أدوات صور الذكاء الاصطناعي، مما دفع الردود السريعة من الصناعة. تهدف هذه الخطوات إلى حماية المستخدمين من الصور الحميمة غير التوافقية.

من إعداد الذكاء الاصطناعي

تقوم OpenAI بتوجيه الموارد نحو تحسين روبوت الدردشة الرئيسي ChatGPT، مما أدى إلى رحيل عدة باحثين كبار. تواجه الشركة في سان فرانسيسكو منافسة شديدة من Google وAnthropic، مما يدفع إلى تحول استراتيجي من البحث طويل الأمد. أثار هذا التغيير مخاوف بشأن مستقبل استكشاف الذكاء الاصطناعي المبتكر في الشركة.

لجنة حماية البيانات في أيرلندا فتحت تحقيقًا واسع النطاق في X بشأن توليد روبوت الدردشة بالذكاء الاصطناعي Grok لصور جنسية محتملة الضرر تشمل بيانات مستخدمي الاتحاد الأوروبي. يفحص التحقيق الامتثال لقواعد اللائحة العامة لحماية البيانات (GDPR) بعد تقارير عن ديبفيك غير موافق عليه، بما في ذلك تلك الخاصة بالأطفال. هذا يمثل التحقيق الثاني في الاتحاد الأوروبي حول الموضوع، بناءً على تحقيق سابق بموجب قانون الخدمات الرقمية.

من إعداد الذكاء الاصطناعي

كشف تقرير لـ«الغارديان» أن أحدث نموذج ذكاء اصطناعي من OpenAI، GPT-5.2، يستمد من «Grokipedia»، وهي موسوعة إلكترونية مدعومة بـxAI، عند التعامل مع قضايا حساسة مثل الهولوكوست وسياسة إيران. رغم الترويج للنموذج للمهام المهنية، إلا أن الاختبارات تشكك في موثوقية مصادره. يدافع OpenAI عن نهجه بالتأكيد على عمليات بحث واسعة على الويب مع تدابير أمان.

 

 

 

يستخدم هذا الموقع ملفات تعريف الارتباط

نستخدم ملفات تعريف الارتباط للتحليلات لتحسين موقعنا. اقرأ سياسة الخصوصية الخاصة بنا سياسة الخصوصية لمزيد من المعلومات.
رفض