حذّرت تقارير صحافيّة مختلفة، كان آخرها تقرير نشرته صحيفة "نيويورك تايمز" الأميركيّة، من تقنيّة "Deepfake"، والتي لا تستطيع دول كثيرة حول العالم، فعل الكثير حيالها، إثر استخداماتها المتعدّدة، والتي وصلت للتضليل الإعلاميّ الانتخابيّ عام 2022، في عدد من دول العالم.

وخلال العام الماضي، اجتاحت الأخبار الكاذبة مواقع التواصل الاجتماعيّ على اختلافها، من تويتر وفيسبوك وإنستغرام ويوتيوب وتيك توك، واعتمدت هذه الأخبار على صور وفيديوهات معدّلة من خلال تقنيّة "Deepfake" أو "التزييف العميق"، وهي تقنيّة ذكاء اصطناعيّ تقوم على استبدال الوجوه، ويشهد العالم ميلًا متزايدًا للتضليل الإعلاميّ، على صعيد الانتخابات.

وبدأت دول مختلفة استعداداتها لمكافحة التضليل الإعلاميّ، إذ حذّر محلّلون من هذه الحملات التي قد تكون ذات تأثير كبير مع اقتراب انتخابات 2024 في الولايات المتّحدة الأميركيّة.

وتأمل الصين، أن تكون الاستثناء فيما يتعلّق بتقنيّات الـ"Deepfake"، بعد أن تبنّت الدولة قواعد موسّعة، تجبر العاملين في هذه التقنية، أخذ موافقة الأشخاص الذين يتمّ التلاعب بصورهم أو فيديوهاتهم، وأن تحمل هذه الفيديوهات توقيعات رقميّة أو علامات مائيّة. وتواجه الصين، العقبات نفسها التي تواجهها دول حول العالم، إذ يميل العاملون في هذه التقنيات، على إخفاء هويّاتهم، وهو ما قد يصعّب المهمّة، أو حتّى يجعلها مستحيلة بحسب خبراء، ومن جهة أخرى، يخشى باحثون في التكنولوجيا، من أنّ الحكومة الصينيّة، يمكنها استخدام هذه القواعد للحدّ من حريّة التعبير.

(Getty)

ويمكن لبكين التأثير على كيفيّة تعامل الحكومات الأخرى مع الذكاء الاصطناعي وتقنيّة "Deepfake" على وجه الخصوص، وقال الباحث في مختبر المسؤوليّة التعاونيّ للذكاء الاصطناعي في جامعة بيتسبرغ، رافيت دوتان "مشهد الذكاء الاصطناعي مكان مثير للاهتمام للسياسة العالميّة، لأنّ البلدان تتنافس مع بعضها على من سيحدّد النغمة. نحن نعرف أنّ القوانين قادمة، لكنّنا لا نعرف ماهيّتها على وجه الخصوص، لذلك، هناك عدم قدرة على تنبّؤ ما سيحدث".

وبدأت هذه التقنيّة في الدخول إلى العديد من المجالات والصناعات، والتي استخدمتها الشرطة الهولنديّة على سبيل المثال، من خلال إنشائها لصور رقميّة لضحيّة قتل كان يبلغ 13 عامًا، كما استُخدمت التقنيّة في المحاكاة، بالإضافة إلى المتسوّقين من أجل معرفة المقاسات في غرف الملابس "الافتراضيّة"، بالإضافة إلى استخدام اليونيسيف التقنيّة في دراسة حول التعاطف، بعد تحويل صور مدن أميركيّة وأوروبيّة إلى أماكن مدمّرة، كالذي حدث في سورية.

ويشعر عدد من الخبراء القانونيّين بالقلق من إساءة استخدام مثل هذه التقنيّات، وذلك بعد فيديو مزيّف، تمّ استخدامه في قضيّة حضانة أطفال في بريطانيا عام 2019، كما حدّدت بيانات لأجهزة شرطة ووزارات أمنيّة أوروبيّة، من التلاعب بالاعتماد على تقنيّات التزييف العميق، وحذّر خبراء، من أنّه يمكن بالفعل إنشاء ما يصل إلى 90٪ من المحتوى عبر الإنترنت، من خلال هذه التقنيّات، وذلك خلال بضع سنوات فقط.

(Getty)

وخلال العام الماضي، أصدرت وكالة إنقاذ القانون الأوروبيّة "يوروبول"، تقريرًا أعربت فيه عن تخوّفها، بشأن تقنيّات التزييف العميق وزيادة استخدامها، وقالت الوكالة "لم يعد لدى المواطنين حقيقة مشتركة، وهو ما يمكن أن يخلق ارتباكًا مجتمعيًّا حول مصادر المعلومات التي يمكن الاعتماد عليها".

وخلال الأشهر الـ8 الأولى من عام 2021، أعرب مسؤولون بريطانيّون عن خشيتهم من التهديدات الحاصلة اعتمادًا على هذه التقنيّة، مثل الموقع الذي تمّت زيارته لأكثر من 38 مليون مرّة، ووظيفته "تجريد النساء من ملابسهنّ". وخلال عام 2019، وعام 2021، اقترحت النائبة الأميركيّة إيفيت دي كلارك، مشروع قانون يخضع مثل هذه التقنيّات للمساءلة، إلّا أنّ القانون لم يتمّ التصويت عليه حتّى اللحظة، وتخطّط كلارك لإعادة طرح مشروع القانون مرّة أخرى، وقالت إنّ الولايات المتّحدة يجب أن تكون أكثر جرأة في وضع المعايير الخاصّة للتعامل مع هذه التقنيات.

وقال مسؤولو إنفاذ القانون، إنّ "تقنية كشف التزييف العميق"، لا تزال غير قادرة على اكتشاف التزييف العميق. بالإضافة إلى أنّ عددًا قليلًا من الولايات الأميركيّة، منها نيويورك، تضع قيودًا على الموادّ الإباحيّة المزيّفة.

من جهتها، تدفع بعض المجموعات العاملة في مجال الحقوق الرقميّة، مثل "Electronic Frontier Foundation" المشرّعين لاستخدام إطار قانونيّ، يمكنه معالجة قضايا الاحتيال وانتهاك حقوق النشر والتشهير، فيما يتعلّق بتقنيات التزييف العميق.

وتحاول شركات مثل "مايكروسوفت" و"أدوبي"، المصادقة على الوسائط، وتدريب "تقنيّة الاعتدال" للتعرّف على التناقضات التي تنتجها تقنية "التزييف العميق"، وذلك من أجل كشف المحتوى المزيّف العميق. وقال عالم الفيزياء من مؤسّسة "راند"، جاريد موندشين "هناك سباق تسلّح تكنولوجي بين مبدعي التزييف العميق، ويجب أن نبدأ في التوصّل إلى الطرق التي نكتشف من خلالها هذا التزييف بشكل أفضل".