استناداً إلى مراقبة Beating، زعمٌ فيروسيٌّ حديثٌ بأن إدخال رموزٍ مميزة مثل <|begin_of_sentence|> في مربع دردشة DeepSeek يمكن أن يُظهر محادثات المستخدمين الآخرين، مُصنَّفاً على أنه فشلٌ خطير بمستوى P0 في عزل تعدد المستأجرين. في الواقع، فإن هذه الظاهرة لا علاقة لها بعزل البيانات. عند تفعيلها باستخدام هذه الرموز، يدخل النموذج أنماط تنسيقِ زمنِ التدريب الخاصة به ويُولِّد حواراً مُفبركاً استناداً إلى ذاكرته وأوامره النظامية الخاصة به—وليس استرجاعاً آنياً من جلسات أخرى. إن ذلك يُعدُّ استخراجَ بياناتِ التدريب، وهي ثغرةٌ مشتركة عبر جميع نماذج اللغات الكبيرة، وليست أمراً حصرياً لدى DeepSeek. نشرت Google DeepMind أبحاثاً في عام 2023 تُظهر أن المدخلات الخاصة يمكن أن تستخرج بيانات التدريب من GPT وPaLM. وتستند ورقة Magpie في ICLR 2025 مباشرةً إلى هذه الآلية. لا تُثبت الادعاءات بأن المحتوى المتسرب يشمل تاريخ اليوم حدوث فشلٍ في عزل تعدد المستأجرين، إذ تتضمن DeepSeek التاريخ الحالي في أمرها النظامي، كما تُدرِج النماذج بطبيعتها ذلك في المخرجات التي تُولِّدها.
Related News
تخطط OpenAI لمقاضاة Apple: تكامل ChatGPT لم يحقق النتائج المرجوة على نحو مرضٍ، وشراكة عمالقة التكنولوجيا تعثرت
أضافت OpenAI ميزة اكتشاف محادثات “أزمة ChatGPT” لتعزيز قدرات التحذير من العنف الذاتي
دعاوى قانونية ضد ChatGPT تزداد قضية جديدة! يتم اتهام الشركة بالتسريب السري لمحتوى محادثات المستخدمين إلى Meta وGoogle