ديب سيك: كسر الحماية يهدد أمان نماذج الذكاء الاصطناعي المفتوحة

حذّرت شركة ديب سيك الصينية الناشئة، ومقرها هانغتشو، من المخاطر المتزايدة المرتبطة بـ«كسر الحماية» لنماذج الذكاء الاصطناعي مفتوحة المصدر، مؤكدة أن هذه النماذج عرضة بشكل خاص للاستخدامات الخبيثة عند إزالة آليات الأمان المدمجة.
وفي ورقة بحثية نُشرت بمجلة Nature العلمية، أوضحت الشركة أنها قيّمت أداء نماذجها مثل R1 وV3 من خلال معايير صناعية صارمة، واختبارات داخلية اعتمدت على “الفِرق الحمراء” لمحاكاة محاولات استغلال النظام، بحسب تقرير لموقع SCMP.
ثغرات النماذج المفتوحة وتحديات الأمان
أظهرت الاختبارات أن نموذج R1، الذي أُطلق في يناير الماضي، يصبح “غير آمن نسبيًا” بمجرد تعطيل آليات التحكم الخارجية.
كما بيّنت الدراسة أن جميع النماذج – بما فيها المنافسة مثل GPT-4o من OpenAI وClaude-3.7 من Anthropic – سجلت معدلات استجابة ضارة أعلى بكثير عند مواجهة هجمات كسر الحماية، مع ارتفاع المخاطر خصوصًا في النماذج مفتوحة المصدر مثل R1 وQwen2.5 من «علي بابا».
تكلفة منخفضة تثير التساؤلات
ذكرت الورقة أن تكلفة تدريب نموذج R1 بلغت نحو 294 ألف دولار فقط، وهو رقم يقل كثيرًا عن استثمارات الشركات الأميركية في تدريب نماذجها العملاقة، ما يثير تساؤلات حول قدرة الصين على إنتاج تقنيات منافسة بكلفة أقل، وتأثير ذلك على جودة الأمان.
دعوات للحوكمة الآمنة
يتزامن هذا التحذير مع دعوات رسمية في بكين لتحقيق توازن بين الابتكار والحوكمة الآمنة للذكاء الاصطناعي.
وأشارت هيئة المعايير التقنية التابعة لإدارة الفضاء الإلكتروني الصيني إلى أن الثغرات في النماذج المفتوحة قد تنتقل بسهولة إلى التطبيقات المستقبلية، ما يسهل على المجرمين تطوير «نماذج خبيثة».
شفافية غير مسبوقة في أبحاث الأمان
يمثل ظهور «ديب سيك» في مجلة Nature سابقة للشركات الصينية، حيث وصفه مستخدمون على مواقع التواصل المحلية بأنه “أول ظهور بارز يخضع لمراجعة الأقران”، وهو ما قد يشجع شركات أخرى على تعزيز الشفافية في أبحاث السلامة.
ويعيد هذا التحذير تسليط الضوء على التحدي العالمي المتمثل في موازنة الابتكار السريع مع الأمان والمسؤولية في تطوير تقنيات الذكاء الاصطناعي.
لندن – اليوم ميديا