عاجل: صور الذكاء الاصطناعي تخفي أوامر خبيثة تهدد بياناتك الآن!

حذر خبراء أمنيون من هجوم إلكتروني متطور يستخدم الصور التي تُنشأ بواسطة نماذج الذكاء الاصطناعي التوليدية لإخفاء تعليمات خبيثة داخلها. وقد أشار الخبراء إلى أن هذه الطريقة تستغل عمليات تحجيم الصور داخل النماذج، ما يجعل الأوامر الضارة غير مرئية للمستخدم، لكنها تصبح قابلة للقراءة والتحليل من قبل الخوارزميات بعد المعالجة.

تفاصيل التقنية المستخدمة

طور فريق باحثين في شركة Trail of Bits أداة تكشف كيف يمكن إخفاء أوامر ضارة داخل الصور المنشأة بالذكاء الاصطناعي، بحيث تظل غير مرئية للمستخدم العادي. وتعتمد التقنية على أسلوب إعادة تحجيم الصور، إذ تكشف عملية التحجيم الداخلية للنموذج أنماطاً غير مرئية في النسخة الأصلية من الصورة.

طرق التحجيم المستهدفة

أوضح الباحثون أن الهجوم يستغل طرق التحجيم الشائعة مثل:

  • أقرب جار (Nearest Neighbor)
  • ثنائي (Bilinear)
  • المكعب الثنائي (Bicubic)

عند تطبيق هذه الأساليب، تظهر تشويهات بصرية تتحول إلى نصوص سوداء يمكن للنموذج قراءتها والتفاعل معها كأوامر.

تجربة عملية تؤكد الخطر

أظهرت تجربة عملية أن مناطق داكنة في صورة ما تحولت خلال عملية التحجيم المكعب الثنائي إلى نصوص واضحة يمكن للنموذج التعامل معها تلقائياً، دون أن يلاحظ المستخدم أي تغيير على الصورة الأصلية. ويشير هذا إلى إمكانية استغلال هذه الثغرة لتنفيذ أوامر خبيثة وسرقة البيانات الحساسة أو التسلل إلى الأنظمة.

توصيات الخبراء للحماية

حذر خبراء الأمن السيبراني من خطورة هذه التقنية، مؤكدين ضرورة:

  • اعتماد دفاعات متعددة الطبقات لحماية الأنظمة.
  • تحديث البرمجيات الأمنية بشكل دوري.
  • توخي الحذر عند التعامل مع الصور المنشأة بالذكاء الاصطناعي، خصوصاً تلك القادمة من مصادر غير موثوقة.
  • مراقبة أي نشاط غير معتاد في الشبكات الداخلية للشركات والمؤسسات.

الخلاصة

يمثل هذا الهجوم الجديد تذكيراً حقيقياً بأهمية اليقظة الأمنية في عصر الذكاء الاصطناعي، حيث يمكن أن تتحول الأدوات التكنولوجية المفيدة إلى وسيلة لاستهداف الخصوصية وسرقة البيانات إذا لم يتم التعامل معها بحذر.

لندن – اليوم ميديا

زر الذهاب إلى الأعلى