عندما تصبح تنبيهات المتجر اتهامًا علنيًا

تضع مجموعة جديدة من الحالات المبلّغ عنها في المملكة المتحدة حافة أكثر حدة على الجدل حول التعرف على الوجه في التجارة اليومية. ووفقًا لتقرير نشرته صحيفة The Guardian، تمّت مواجهة بعض المتسوقين داخل المتاجر وطُلب منهم المغادرة، وأُبلغوا بأن نظامًا مباشرًا للتعرف على الوجه قد حددهم على أنهم مشتبه بهم في سرقة المتاجر. ويقول الأشخاص المعنيون إنهم أبرياء، ثم واجهوا صعوبة في العثور على مسار عملي للطعن في الاتهام أو تبرئة أسمائهم.

يركز المقال على Facewatch، وهو نظام يجري نشره عبر قطاع التجزئة في المملكة المتحدة للمساعدة في مكافحة السرقة. ويزعم موقعه الإلكتروني دقة تبلغ 99.98%، ويقول إنه أرسل 50,288 تنبيهًا عن مخالفين معروفين إلى متاجر مشاركة خلال شهر حديث. لكن التجارب المبلغ عنها تُظهر أنه حتى النظام الذي يُروَّج له على أنه شديد الدقة يمكن أن يصبح ضارًا اجتماعيًا عندما يصل الخطأ إلى أرضية المتجر. فالنسب المئوية للدقة لا تمحو عواقب التطابق الخاطئ على الشخص الذي يُطلب منه ترك أغراضه والمغادرة.

فجوة الحوكمة هي التي تصبح القصة

ربما لا تكون القضية الأهم هنا هي مجرد استخدام التعرف على الوجه، بل ضعف المساءلة المحيطة بنشره. أحد المتسوقين المذكورين في التقرير، Ian Clayton، قال إنه أُبلغ بأنه يظهر على النظام بوصفه سارق متجر أثناء زيارته متجر Home Bargains. وبعد محاولات للحصول على إجابات، قدّم في النهاية طلب وصول من صاحب البيانات، وعلم أنه جرى ربطه خطأً بحادثة سابقة. ووصف التجربة بأنها أشبه بأن يُعتبر المرء مذنبًا إلى أن يثبت العكس.

هذه العبارة تلتقط المشكلة الأعمق. ففي كثير من النقاشات العامة حول الذكاء الاصطناعي، ينصب التركيز على دقة النموذج، وادعاءات المورد، وما إذا كانت التقنية تعمل من حيث المبدأ. لكن بالنسبة إلى الأشخاص الذين تطالهم تنبيهات خاطئة، فإن الأسئلة الملحة هي إجرائية. من اتخذ القرار؟ هل كان خطأً من النظام أم من الموظفين؟ ما الأدلة الموجودة؟ ما مدى سرعة تصحيح الخطأ؟ ومن المسؤول عن الضرر؟

والجواب المبلّغ عنه، على الأقل في هذه الحالات، لم يكن مطمئنًا. قال بعض الأشخاص إنهم تلقوا القليل من المساعدة ولم يعرفوا كيف يشتكون أو يثبتون براءتهم. ويشير ذلك إلى أن الرقابة وآليات إنصاف العملاء لم تواكب وتيرة النشر.