مخاطر تحول تقنية التعرف على الوجوه إلى رصد المشاعر

مخاطر تحول تقنية التعرف على الوجوه إلى رصد المشاعر
(أرشيفية- أ ب)

تحولت تقنية التعرف على الوجه، من خيال علمي موجود في الروايات، إلى أمر واقع في حياة الكثيرين، مع استعداد ملايين الناس في جميع أنحاء العالم لمسح وجوههم عبر الأجهزة الإلكترونية باستخدام البرامج المختلفة عبر الهواتف الذكية وغيرها، إلا أن المشكلة أعمق بكثير مع تطور هذه التقنية التي باتت تميّز تفاصيل دقيقة.

وكتب الصحافي الأميركي سام بيدل، في مقاله الذي نشره موقع "ذي إنترسيبت"، أن باحثين من جامعة نيوريورك، حذروا بشكل جدي من تقنية نظام التعرف على الوجه المتطورة، التي قال علماء في المجال، إنهم يستطيعون تحديد المعاني "الخفية" لوجه الإنسان عن طريق ملامح الوجه، كالأنف والفم وطريقة الابتسام وغيرها.

وأشار بيدل، إلى تقرير جامعة نيويورك الجديد، الذي فصل من خلاله الباحثون، أن المصطلح الأكثر استخداما في التكنولوجيا الحديثة، "الذكاء الاصطناعي"، يعمل غطاء علمي واسع، ويشمل عددًا لا يحصى من المحاولات العلمية لمحاكاة الحكم البشري و"تسويق التفاهات"، يستمر في الانتشار دون إشراف أو تنظيم أو تدقيق أخلاقي حقيقي.

ويشمل التقرير مساحة واسعة من استخدامات التكنولوجيا وتسخيرها لتجاوزات، بما في ذلك حالات التمييز العنصري، ومساعد الشرطة على المراقبة، وغيرها من الانتهاكات المُبطنة لحقوق الإنسان.

وقال بيدل، إن المجموعة البحثية داخل جامعة نيويورك التي أطلقت على نفسها اسم "الذكاء الاصطناعي"، والتي أعدت التقرير الأخير، عبرت عن مخاوف حقيقية من التقنيات الجديدة في مجال التعرف على الوجه، وهي "فئة فرعية من التعرف على الوجوه التي تدعي إمكانية اكتشاف أشياء مثل الشخصية، والمشاعر الداخلية، والصحة العقلية، ومدى تفاعل العمال مع أماكن عملهم، على أساس صور للوجوه أو فيديوهات".

ولفت بيدل إلى أن الفكرة التي أتت من نظرية علمية "كاذبة" في القرن التاسع عشر، يُقال إنها تُستخدم في هذه التقنية الحديثة، التي تتعدى كونها مجرد القليل من علم الفراسة، بل هي القدرة على استخدام الرؤية الآلية والتحليل الهائل للبيانات للعثور على الارتباطات، عن طريق الادعاء بأن شخصية الأشخاص، يُمكن تمييزها من أجسادهم، ووجوههم بشكل خاص.

وقالت الباحثة في جامعة "نيويورك"، كيت كراوفورد، لموقع "ذي إنترسيبت"، إن فريقها يعترض بشدّة على انتشار هذا النوع من التنبؤ الحسابي الرجعي من الناحية الثقافية والعلمية، فعلى الرغم من "أن علم الفراسة لم يلقى رواجا كبيرا بسبب  ارتباطه بالعلوم العرقية النازية، إلا أن الباحثين قلقون من عودة انتشار أفكار فراسية، في تطبيقات التعرف على الوجوه".

وأضافت كراوفورد أن "الفكرة القائلة بأن أنظمة الذكاء الاصطناعي قد تكون قادرة على إخبارنا بمشاعر الطالب أو الزبون أو المشتبه به جنائيًا، أو تحديد نوعية الأشخاص بشكل جوهري، تُعتبر جذابة لكل من الشركات والحكومات، على الرغم من أن المبررات العلمية لمثل هذه المطالبات مشكوك فيها إلى حد كبير، وتاريخ أغراضها التمييزية موثق بشكل جيد".

ولفت بيدل إلى أن "الأسواء من علوم سيئة، تستطيع الحكم على أي أحد عن طريق الكاميرا، هو أن تتخذ الخوارزميات (المعادلات الإلكترونية) هذه القرارات، وهي بملكية الشركات التي تطورها، في مأمن من المحاسبة الصارمة، من وراء ستار من السرية التجارية".