كاميرات المستقبل تخدعنا: أسرار الأخطاء الخفية للذكاء الاصطناعي

أظهرت دراسة وتجارب عملية في لندن أن كاميرات المراقبة المزودة بالذكاء الاصطناعي تعطي تنبيهات خاطئة بنسبة تصل إلى 50٪، ما يسلط الضوء على حدود الرؤية الحاسوبية في تفسير السلوك البشري.
تجربة لندن: نصف التنبيهات خاطئة
حللت هيئة النقل في لندن بيانات كاميرات مراقبة مترو ويلسدن غرين خلال الفترة من أكتوبر 2022 إلى سبتمبر 2023.
- أكثر من 44 ألف تنبيه صادر عن النظام.
- حوالي نصف التنبيهات كانت خاطئة أو مضللة.
- أخطاء شائعة تضمنت: خوف الأطفال من حواجز التذاكر يفسر على أنه تهرب من الدفع، وخلط الدراجات القابلة للطي بالدراجات العادية.
الذكاء الاصطناعي يرى الفعل لا السبب
تعمل معظم الأنظمة على رصد الحركة والأنماط السطحية دون فهم السياق:
- الشخص الذي يركض قد يكون يمارس الرياضة أو يهرب من الخطر أو يلاحق وسيلة نقل.
- الذكاء الاصطناعي لا يميز بين السبب والفعل، ما يؤدي إلى إنذارات كاذبة.
كما أظهرت المشكلات في المتاجر، النقل العام، والمستشفيات، حيث تسبب سوء التفسير في التمييز أو تفويت حالات الطوارئ الحقيقية.
تحديات التقنية الحالية
- الأنظمة تتعامل مع مقاطع بصرية قصيرة دون مراعاة الزمن أو ديناميكيات الحشود أو الصوت.
- عدم وجود حس مدمج بالفيزياء والمنطق: النظام لا يعرف أن الكرة تتدحرج إذا دفعت، إلا إذا شاهد ملايين المقاطع المماثلة.
- ثقافة الاعتماد على البكسلات فقط تجعل الذكاء الاصطناعي يكتشف تفاصيل سطحية بلا معنى فعلي، كما حدث في تجارب التعرف على الدبابات العسكرية.
الطريق نحو ذكاء اصطناعي يفهم
يشير الخبراء إلى أن الحل يكمن في:
- ربط الحركة بالمعنى والقصد: دمج الوقت والسياق لفهم النوايا.
- تعلم القواعد الفيزيائية والمنطقية: لفهم البيئة كما يفعل البشر.
- نماذج متعددة المصادر: الجمع بين الصوت، الإشارات البيئية، والزمن لتقليل الأخطاء.
عندما يتحقق ذلك، سيصبح الذكاء الاصطناعي قادرًا على التفاعل مع البشر بذكاء وشفافية، بدلًا من مجرد المراقبة.
لندن – اليوم ميديا