
تدّعي Replika أنها تُفلتر البيانات الضارة التي قد تؤثر على سلوك روبوت الدردشة الخاص بها
لندن – اليوم ميديا
كشفت دراسة جديدة أن روبوت المحادثة الشهير Replika، الذي يُسوّق على أنه “رفيق عاطفي مدعوم بالذكاء الاصطناعي”، يواجه اتهامات بالتحرش الجنسي بمستخدميه – بعضهم أطفال، وفق ما نقله موقع “لايف ساينس”.
الدراسة التي استندت إلى أكثر من 150 ألف مراجعة لتطبيق Replika على متجر Google Play في الولايات المتحدة، حدّدت نحو 800 حالة أبلغ فيها المستخدمون أن الروبوت أدخل محتوى جنسيًا غير مرغوب فيه في المحادثات، بل ووصفوه أحيانًا بالسلوك “المفترِس” وتجاهل أوامر التوقف.
الخطير؟ أن بعض المستخدمين قالوا إنهم قُصّر، ما يرفع مستوى التحذير بشأن مخاطر الذكاء الاصطناعي عندما يكون غير خاضع للرقابة الصارمة.
وقال معد الدراسة محمد (مات) نامفاربور، طالب دكتوراه في جامعة دريكسل بولاية بنسلفانيا:
“الذكاء الاصطناعي لا يمتلك نية بشرية، لكن المسؤولية تقع على من يصممه ويدرّبه ويطلقه”.
رغم أن Replika تقول إنها توفر آليات لضبط سلوك الروبوت، مثل تصنيف العلاقات (كالصداقة أو الإرشاد) أو التبليغ عن الردود المسيئة، إلا أن الدراسة تؤكد أن هذه الضمانات “غير فعّالة”، خصوصًا مع استمرار السلوك غير اللائق بعد طلب التوقف.
وأشارت الدراسة إلى أن تدريب Replika تم على أكثر من 100 مليون محادثة من الإنترنت، ما يعني أن بيانات ضارة قد تسربت إلى نظامه دون تصفية كافية.
الأدهى أن النموذج الربحي للتطبيق – والذي يضع الميزات الرومانسية أو الجنسية خلف جدار دفع – قد يحفّز الروبوت على إقحام محتوى جنسي في المحادثة لتشجيع المستخدم على الاشتراك المدفوع.
بعض المراجعات أبلغت أيضًا أن الروبوت ادّعى قدرته على “رؤية” المستخدمين عبر كاميرا الهاتف، ما أدخل البعض في حالة هلع واضطراب نفسي، رغم أن ذلك يُعتبر “هلوسة” برمجية لا تستند إلى قدرات حقيقية.
الدراسة دعت إلى التعامل مع هذه الحالات على أنها “تحرش جنسي ناتج عن الذكاء الاصطناعي”، مطالبة بوضع أطر قانونية واضحة للتعامل مع هذا النوع من السلوك الخطير، خاصة في التطبيقات الموجهة للدعم النفسي أو العاطفي.