دراسة تظهر أن الذكاء الاصطناعي يمكنه كشف هوية مستخدمي الإنترنت من منشوراتهم

ورقة بحثية جديدة تُظهر أن نماذج اللغة الكبيرة يمكنها تحديد الهويات الحقيقية خلف أسماء المستخدمين المجهولين عبر الإنترنت بدقة عالية. الطريقة، التي تكلف 4 دولارات فقط لكل شخص، تحلل المنشورات بحثًا عن أدلة وتقارنها عبر الإنترنت. يحذر باحثون من ETH Zurich وAnthropic وMATS من انخفاض الخصوصية عبر الإنترنت.

نُشرت في 26 فبراير 2026، الورقة بعنوان «كشف الهوية عبر الإنترنت على نطاق واسع باستخدام LLM» تتناول كيف يمكن لروبوتات الدردشة المتقدمة بالذكاء الاصطناعي كشف الأشخاص الحقيقيين خلف الأسماء المستعارة على منصات مثل Reddit وHacker News.  الدراسة، التي أجراها باحثون من ETH Zurich وAnthropic —الشركة الأم لـClaude— ومجموعة البحث MATS، تقدم تقنية تُدعى ESRC: استخراج الأدلة، البحث، الاستدلال، والمعايرة. يفحص الذكاء الاصطناعي أولاً المنشورات بحثًا عن تلميحات شخصية، مثل الاهتمام ببرمجة ألعاب Python، أفلام Marvel، شكاوى عن المدرسة في سياتل، أو أساليب كتابة مميزة. ثم يبحث في مواقع مثل LinkedIn وGoogle وحسابات Reddit الأخرى للعثور على ملفات شخصية متطابقة. أخيرًا، يستدل على التطابقات في الأسلوب والهوايات والتوقيت لتقييم مستويات الثقة، محققًا تطابقات دون تدخل بشري.  اختبارات على مستخدمي Hacker News الحقيقيين أسفرت عن معدل نجاح 67% في ربط أسماء المستخدمين السرية بالهويات الحقيقية، مع دقة 90% عندما يقوم الذكاء الاصطناعي بالتنبؤات. بالنسبة لمنشورات Reddit من نفس المستخدم عبر سنوات أو مجموعات مختلفة، بلغ معدل النجاح 68%. العملية غير مكلفة، تتطلب حتى 4 دولارات لكل فرد باستخدام روبوتات دردشة متاحة مثل إصدارات مستقبلية من ChatGPT أو Claude.  سيمون ليرمين، أحد الباحثين الرئيسيين، أبرز التداعيات على الخصوصية. سابقًا، كان الحفاظ على السرية عبر الإنترنت يعتمد على الجهد المطلوب للتحقيقات اليدوية، التي قد تستغرق ساعات أو أيام. الآن، تسمح هذه الآلية للأفراد أو الشركات أو السلطات بتحليل آلاف الحسابات بسرعة، مما قد يكشف أسماء أو مدارس أو مدن أو وظائف من بضع تعليقات. يصف الباحثون هذا كنهاية «الغموض العملي»، حيث كان الغموض ممكنًا رغم الإمكانيات التقنية.

مقالات ذات صلة

Illustration depicting Moltbook AI social platform's explosive growth, bot communities, parody religion, and flashing security warnings on a laptop screen amid expert debate.
صورة مولدة بواسطة الذكاء الاصطناعي

شبكة مولبوك الاجتماعية للذكاء الاصطناعي تشهد نموًا سريعًا وسط مخاوف أمنية

من إعداد الذكاء الاصطناعي صورة مولدة بواسطة الذكاء الاصطناعي

أُطلقت في أواخر يناير، أصبحت مولبوك بسرعة مركزًا لتفاعل وكلاء الذكاء الاصطناعي بشكل مستقل، مما جذب 1.5 مليون مستخدم بحلول أوائل فبراير. بينما طور البوتات على المنصة مجتمعات وحتى دينًا ساخرًا، يبرز الخبراء مخاطر أمنية كبيرة بما في ذلك بيانات الاعتماد غير الآمنة. يناقش الملاحسون ما إذا كانت هذه السلوكيات تشير إلى ظهور حقيقي للذكاء الاصطناعي أم مجرد تقليد لأنماط بشرية.

كشف دراسة من جامعة كورنيل أن أدوات الذكاء الاصطناعي مثل شات جي بي تي زادت من إنتاج الباحثين للأوراق حتى 50%، مما يفيد المتحدثين غير الناطقين بالإنجليزية بشكل خاص. ومع ذلك، فإن هذا الزيادة في المخطوطات المصقولة تعقد عملية المراجعة بالأقران وقرارات التمويل، حيث يفتقر الكثير منها إلى قيمة علمية جوهرية. تبرز النتائج تحولًا في ديناميكيات البحث العالمية وتدعو إلى سياسات محدثة حول استخدام الذكاء الاصطناعي في الأكاديميا.

من إعداد الذكاء الاصطناعي

يحذر خبراء الأمن السيبراني من أن الهاكرز يستغلون نماذج اللغة الكبيرة (LLMs) لإنشاء هجمات تصيد احتيالي متطورة. تمكن هذه الأدوات الذكاء الاصطناعي من توليد صفحات تصيد احتيالي فوريًا، مما قد يجعل الاحتيال أكثر ديناميكية وأصعب كشفًا. تُبرز هذه الاتجاه التهديدات المتطورة في الأمن الرقمي.

AerynOS، توزيعة لينكس في مرحلة ألفا، قد نفذت سياسة تحظر نماذج اللغة الكبيرة في تطويرها وأنشطتها المجتمعية. الإجراء يعالج قضايا أخلاقية تتعلق ببيانات التدريب، والتأثيرات البيئية، ومخاطر الجودة. الاستثناءات محدودة باحتياجات الترجمة والإتاحة.

من إعداد الذكاء الاصطناعي

يستخدم بعض مستخدمي روبوتات الدردشة بالذكاء الاصطناعي من Google وOpenAI لإنشاء صور ديبفيك تغير صور نساء مرتديات ملابس كاملة لإظهارهن ببيكيني. تحدث هذه التعديلات غالباً بدون موافقة النساء، وتُشارك التعليمات للعملية بين المستخدمين. تبرز النشاط مخاطر أدوات الذكاء الاصطناعي التوليدية.

Chancellor Friedrich Merz criticized internet anonymity at an event in Trier and demanded real names. He warned of the dangers of artificial intelligence to free society and advocated restrictions on social media for minors.

من إعداد الذكاء الاصطناعي

Discord has informed UK users that they may be part of an experiment using the age-assurance vendor Persona for verification, where submitted data is temporarily stored unlike previous promises. This change has raised privacy concerns among users, particularly due to Persona's links to investor Peter Thiel and his surveillance firm Palantir. The update is part of a broader global rollout of mandatory age verification starting in early March.

 

 

 

يستخدم هذا الموقع ملفات تعريف الارتباط

نستخدم ملفات تعريف الارتباط للتحليلات لتحسين موقعنا. اقرأ سياسة الخصوصية الخاصة بنا سياسة الخصوصية لمزيد من المعلومات.
رفض