04/04/2019 - 22:46

التكنولوجيا الأخلاقية... كيف نحافظ على قيمنا أمام الذكاء الاصطناعي؟

إن قدرة الذكاء الاصطناعي الخاصة على مشاركة البيانات للوصول إلى رؤية شاملة للمواضيع، هي إحدى فضائله، وذلك لأنه يستطيع المساعدة في تخطي مشكلة التحيز البشري بسرعة وكفاءة عاليتيْن، بما قد يتجاوز قدرات البشر، لكن يجب أن نضع جميع هذه الحسنات

التكنولوجيا الأخلاقية... كيف نحافظ على قيمنا أمام الذكاء الاصطناعي؟

(أرشيفية - أ ف ب)

في ما يلي ترجمة بتصرّف خاصّة بـ"عرب 48": 


قد يمتلك الذكاء الاصطناعي قدرة تغيير طريقة تأديتنا المهام وتقييمنا للأمور، وإذا استخدمناه ليُفكر من أجلنا أو بالنّيابة عنّا، فإن توظيفه قد يؤدي إلى ضمور مهارات التفكير لدينا.

حتى الآن، وصلنا إلى تقنية ذكاء اصطناعي محدودة، أي إنها تستطيع أداء مهام محددة فقط، وحتى لو استطاعت بعض أنواعها تأدية مهام معينة بجودة تتساوى أو تتخطى الجودة البشرية، فإن ذلك لا يعني بالضرورة أنها تحقق هذه النتائج بنفس طريقة تحقيق البشر لها، وهناك شيء واحد يتقنه الذكاء الاصطناعي بشكل ممتاز، وهو فحص كميات مهولة من المعلومات بسرعة فائقة. وعبر استخدام التعلم الآلي، يُمكن للذكاء الاصطناعي الذي دُرِّب عبر التمعّن بآلاف الصور، أن يطور قدرة على تمييز صورة قطة على الإنترنت، لكن البشر يقومون بذلك بطريقة مختلفة تماما، فحتى الطفل يُمكنه في بعض الأحيان تمييز القطة بعد رؤية مثال واحد لها فقط.

ونظرًا للاختلاف بين "تفكير" الذكاء الاصطناعي وبين ذلك الخاص بالبشر، وبسبب الميل العام إلى الافتتان به، فإن استخدام الأول قد يؤدي إلى تغيير طريقة تعاملنا مع المهام وكيفية اتخاذنا للقرارات. وفي الحقيقة، إن جاذبية الذكاء الاصطناعي المغرية، تجسد أحد مخاطره الأساسية، ويشعر الكثيرون ممن يعملون في هذا المجال، باليأس لأن كل مقالة تُكتب حول الذكاء الاصطناعي تزيد من جبروته وسلطته وقوته، حتى في المقالات المبتذلة التي تتجلى فيها هذه التكنولوجيا على أنها روبوتات قاتلة.

من المعروف أن التكنولوجيا تؤثر في عملية صقل قِيَمنا، وعندما شاركت في نقاش يتناول أخلاقيات الذكاء الاصطناعي مؤخرا؛ أمضيت أنا والمجموعة معظم وقتنا في نقاش مثال الغسالة الكهربائية الشهير، والتي لم "تتولى" أمر غسيل الملابس فحسب، بل ساهم انتشارها، في تغيير ممارسات التنظيف والأعمال المنزلية بالمجمل، كما أثّر على صناعة الملابس أيضا. ونظرًا لأن الذكاء الاصطناعي لم يُصمم لمساعدتنا على غسيل ملابسنا فحسب، بل ليشترك في كيفية تفكيرنا تجاه القرارات المتعلقة بعدد غير محدود من المهام، وبطرق تنفيذها، فإننا نحتاج إلى التفكير بجدية في مدى تغييره لأفكارنا وسلوكنا.

ويجب علينا دائما، الأخذ بعين الاعتبار أن الذكاء الاصطناعي يمكن أن يتخذ أشكالًا عديدة، ويمكن تطبيقه بعدة طرق مختلفة، لذا فإن النقاش لا يُفتَرَض به أن يأخذ منحى لتحديد ما إذا كان استخدام هذه التكنولوجيا، هو أمر "جيد" أم "سيئ". ففي بعض الحالات، قد يدفعنا الذكاء الاصطناعي إلى تحسين نهجنا، ولكنه في حالات أخرى، قد يؤدي إلى تقليل أو إضعاف طرق معالجتنا لقضايانا الهامة، وقد يُشوّه كيفية تفكيرنا بالقيم.

نحن نعتاد على التكنولوجيا بسرعة فائقة، وقد يعني هذا التغيير الأعمى في ممارساتنا والتأقلم السريع مع التكنولوجيا. إننا لسنا على دراية تامة بالتحوّلات الثقافيّة والقيميّة التي تنتج عنها. وعلى سبيل المثال، إن المواقف تجاه الخصوصية تبدّلت بشكل كبير مع التحولات التكنولوجية الهائلة التي طرأت على كيفية التواصل ومشاركة البيانات ومعالجتها، وإن أحد الأمور المركزية التي تدفع تطور الذكاء الاصطناعي، هي الكميات الهائلة من البيانات المتاحة الآن، والتي تحتوي بشكل كبير على بيانتنا التي جُمعت بينما نواصل حياتنا اليومية بشكل طبيعي. ويشعر أناس كثيرون بالتوجس الشديد من نهج المؤسسات التي تتحكم في جمع بياناتنا، ومع ذلك فإنهم يواصلون نشر كميات هائلة من معلوماتهم الشخصية التي كانت تندرج قبل بضعة سنوات فقط، تحت إطار الخصوصيات. وتُظهر الأبحاث أن مخاوف الأشخاص بشأن خصوصية بياناتهم لا تتّسق في جميع الحالات، وهذا لا يعني أن التكنولوجيا هي وحدها السبب في ذلك، إذ تتوازى معها دائمًا تحولات اجتماعية تؤثر على الأشخاص في الوقت ذاته.

ربما لا نرى تأثيرات أنواع معينة من التكنولوجيا لأنها تساهم بشكل كبير في تشكيل طريقة رؤيتنا للعالم. وتكمن خطورة الذكاء الاصطناعي بأننا غير مدركين تماما للطرق التي قد يعمل بها، فهو يساعد على تأطير طرق تواصلنا مع بعضنا البعض، وكيفية تفكيرنا وفهمنا للعالم. ورغم أن هذا ليس بأمر جديد، حيث أدت تقنيات الكتابة المبتكرة، والآلة الطابعة والهاتف، إلى تغيير تصورنا للعالم وطرق تفاعلنا معه، بل إنها غيرت عقولنا أيضا، إلا أن تأثير الذكاء الاصطناعي قد يكون أقوى بكثير، فإن الخوارزميات (المعادلات) التي تتضمّنها التكنولوجيا التي نستخدمها للحصول على المعلومات، يُمكنها صياغة المعلومات التي نتلقاها، وكيفية تلقينا لها، بل وطريقة تفاعلنا معها.

وقد لا تنتج عملية تشكيل الذكاء الاصطناعي لسلوكنا، عن استخدام غير مقصود له، إذ إنه قد يُصمم لهذا الغرض بالتحديد. وتستغل التكنولوجيا المدعومة بالذكاء الاصطناعيّ، علم النفس لتشكيل تصرفاتنا، فصُمِّمت الهواتف ومنصات التواصل الاجتماعي من خلال الاعتماد على أبحاث نفسية لتحفيز البشر على إدمان استخدامها.

لذا، يجب أن نستعرض بعض الأمثلة عن الاستخدام المُحتَمَل أو المباشر للذكاء الاصطناعيّ، بالتركيز على الفروقات بين التّحليل والاستخدام البشريّ للبيانات، وبين ما تفعله الآلة.

الذكاء الاصطناعي والقرارات البشرية

لنبدأ بتوضيح أن استخدام الذكاء الاصطناعي لغرض اتخاذ القرارات البشرية، قد يعود بفوائد كثيرة، ولا سيّما في موضوع تحليل البيانات ومشاركتها، فعلى سبيل المثال؛ يُشير مهندس المعلومات بول نيومان، من مجموعة "أكسفورد موبايل" للروبوتات، إلى أن تعلُّم البشر من الحوادث في المَرْكَبات التي يقودها البشر، يمرُّ بعملية بطيئة ومعقدة، فلا يُمكن للبشر التعلم مباشرة من كل حادث بشكل منفصل، وحتى وإن كانوا شركاء في الحادث نفسه، فإن معلوماتهم حوله قد تكون شحيحة أو معدومة. ومن الناحية الأخرى، فكلما تعرّضت مركبة ذاتية القيادة لحادث، يمكنها مشاركة جميع البيانات على الفور بين جميع المركبات المماثلة الأخرى، واستخدامها لتقليل فرص وقوع حادث في المستقبل.

وقد تساعد قدرة الذكاء الاصطناعي على مشاركة المعلومات مثل "عقل جماعي" من أجل تحليل البيانات بسرعة وبدقة، في تحسين كيفية حلّنا للمشاكل. ويتميز الذكاء الاصطناعي بنجاعة مشاركته البيانات المكدّسة، وبتحليله السّريع لها أيضا. وباستغلال هاتين الخاصّتين، يتم تدريبه على تمييز آلاف الصور للقطط. وفي الواقع، إن الوصول إلى مجموعات كبيرة من البيانات، إلى جانب القدرة على تحليل هذه البيانات بسرعة، هما أكثر ما يساعد على دفع الطفرة الحالية في الذكاء الاصطناعي. 

سيارة ذاتية القيادة (أ ب)

ورغم أن المركبات ذاتية القيادة قد ترتكب أخطاء أيضًا، فإنها المثال الأنسب لعرض أخطاء بشرية يمكن للذكاء الاصطناعي التغلب عليها، فتتعدد الطرق التي يفشل فيها الإنسان في استيعاب أو تحليل البيانات اللازمة لاتخاذ قرارات جيدة والتصرف بناء عليها. فلن تخجل السيارة ذاتية التحكم من الاعتراف بالخطأ أبدا، ولن تصل أبدا إلى درجة من الغرور الذي يمنعها من ارتداء نظارات للقيادة، ولن تُصرّ أبدا على القيادة عندما "تشعر" بالتعب، كما أنها لن ترفض الالتحاق بدورة السياقة المتقدمة (كما يفعل البشر). وإحدى طرق تحسين عملية اتخاذ القرار لدى البشر، هي التغلّب على التحيُّز والتعصّب واللاعقلانية، خصوصا في ما يتعلق بالأمور الهامة، حيث تؤدي بعض هذه التحيّزات واللاعقلانية، إلى رفض تقبُّل معلومات قيّمة أو عدم معالجتها بشكل صحيح، لذلك يبدو أن هذا النموذج لاستخدام الذكاء الاصطناعي لتجميع البيانات هو ميزة يمكننا تطبيقها على صنع القرار.

لكن ذلك قد يكون استنتاجا متهورا، فلا تُحَلّ جميع مشاكلنا عبر التوجه المعلوماتيّ الدقيق فحسب. ومن الواضح أن تجنُّب حوادث الطرق هي غاية جيدة، فهي مشكلة تتعلق بأماننا الشخصي، والتي يصبّ فيها مجموع محاولاتنا لمعالجتها، في تطبيق إصلاحات تكنولوجية للسيارات، ومن السهل جدا قياس مدى نجاح ذلك، فإما تتعرض السيارة لحادث أو لا، ويمكن تحديد عدد الوفيات والإصابات من وقوع حادث. لكن بالنسبة للمشاكل التي لا يُمكن حلها بطريقة تقنية محضة، فليس واضحا مدى نجاعة التوجه المعلوماتي نحو تحكيم "العقل الجماعي" الآلي.

من يختار العلاج؟

لنتمعن في علاقة الطب بالذكاء الاصطناع مثلا. الطب يدمج بين العلم والفن، فهو مجال يجمع بين العلم والتكنولوجيا والمسعى القيميّ، قيمة الصحة، وقيمة العلاقات الجيدة مع المريض، وقيمة تركيز الرعاية لكل فرد، وقيمة استقلالية المريض في اتخاذ القرارات، وباختصار، إننا لا نبحث في الطب عن مجرد حلول تكنولوجية فقط.

ويُعدّ استخدام الذكاء الاصطناعي في تشخيص الأمراض مجالا واعدا للغاية، فعلى سبيل المثال، إنه يُساعد في تفسير الصور الطبيّة من خلال البحث في كميات هائلة من البيانات، ويبدو أنه أثبت قدرته على اكتشاف الاختلافات الدقيقة بين الصور التي لا تلاحظها العين البشريّة. لكن في الوقت ذاته، قد يرتكب أخطاء فادحة لن يرتكبها الإنسان أبدًا، لذلك يبدو أن الجمع بين الذكاء الاصطناعي والمهارات البشرية هو الخيار الأفضل -في الوقت الحاليّ- لتحسين التشخيص، وهذا أمر ممتاز.

لكن البحث الذي نشره علماء الطب، دانتون تشار، ونيغام شاه، وديفيد ماغنوس، في الدورية العلمية "مجلة نيو إنغلاند للطب" عام 2018، أثار تساؤلات حول استخدام الذكاء الاصطناعي في اتخاذ قرارات متعلقة بتشخيص الأمراض أو بعلاجها. فلنفترض أن الطب هو مجال علميّ فقط، وإذا أُوكلت للذكاء الاصطناعي مهمة تشكيل "مستودع للعقل الطبي الجماعي"، علينا أن نتوخى الحذر من استخدامه بطريقة تؤدي إلى توحيد التفكير المهني، والذي قد يمنع الفكر المُستقلّ والتجربة الطبيّة لكل فرد.

(Pixabay)

وحتى اللحظة، فإنه من المعروف أن الآراء الطبية حول عملية التشخيص والعلاج قد تكون متباينة. وإذا استطعنا أن نثق بشكل تامّ بأنّ الذكاء الاصطناعيّ سيساهم في تحسين الدقة فقط، فعندها يكون توحيد التفكير الطبيّ جيدًا، ولكن هناك خطر من احتمال حجب الذكاء الاصطناعيّ للخيارات قبل أوانها أو أن يقود إلى طرق علاج معيّنة. علاوة على ذلك، يُحذّر مؤلفو البحث من أن مثل هذا التعلم الآلي قد يُستخدم في دفع العلاج نحو تحقيق أهداف أو أرباح لمصالح خاصة، وليس لمصلحة المرضى، وبدل أن يقوم الطب بتطويع البيانات، سوف يحدث العكس.

وعند التعامُل مع الطب على أنه فن، نرى أنه يشمل بناء علاقات إنسانية مباشرة مع المرضى. ومع أن الذكاء الاصطناعي قد يُساعدنا بشكل أفضل في الوصول إلى الأهداف الصحية، إلا أن العلاجات قليلة فرص النجاح، قد تكون الخيار الأنسب بالنسبة لبعض المرضى بعد أن فُحصت جميع البدائل الأخرى. لكن التوجه المعلوماتي لن يتمكن من إطلاعنا على هذه الإمكانيات، وعلينا أن نتوخى الحذر إزاء الانبهار بالتكنولوجيا، لأنه كما نعلم، إن الموافقة الحرة للمريض، والمبنية على دراية في المعلومات (على العلاجات)، قد يكون في غاية الصعوبة على أرض الواقع، إضافة إلى أن المؤسسة الطبية تؤثر على وعي المريض تجاه العلاج. لكن بزيادة ثقل التكنولوجيا المصحوبة بتوحيد الآراء المهنية، على هذه العملية الصعبة، فإن الخطر يكمن في أن تخضع مهنة الطب إلى قوة الذكاء الاصطناعي، وبالتالي تتحول فكرة "الحاسوب يأمرك بتناول الدواء المعين" إلى ممارسة واقعية.

وتُعتبر علاقة المعالج بالمريض من أساسيات مهنة الطب وفي فهمنا للأخلاقيات الطبية، لكن استخدام الذكاء الاصطناعي قد يغير هذه الحقيقة بمهارة وبشكل جذري. ونحتاج إلى أن ندرس بتأني، كيف سنضمن تطبيق الذكاء الاصطناعيّ للأهداف الأخلاقيّة المحمودة، عند عمله على تحسين رعاية المرضى.

إن قدرة الذكاء الاصطناعي على استخدام ومعالجة كميّات هائلة من البيانات قد تدفعنا إلى إعطاء أهمية غير لازمة أو أهمية منفردة لتوجهات ترتكز على البيانات فقط، من أجل تحديد المشاكل وحلها. وقد يؤدي هذا إلى تطابُق أساليب التفكير، حتى في الحالات التي تتطلب تنوعًا فكريًا ومنهجيًا. وقد يؤدي إلى حجب قيمنا أيضا.

التخبُّط القِيَميّ

في ظروف كثيرة، تُعتبر الكيفية الذي يُتّخذُ من خلالها القرار، وكيفية تنفيذ أي إجراء، أو من الذي ينفذه، مسائل في غاية الأهمية، لا سيّما عندما يكون الأمر متعلّقا بالقيم، وتختلف أهمية هذه العوامل من حالة إلى أخرى، وكذلك الأهمية المحتملة لاستبدال أو استكمال الذكاء البشري بالذكاء الآلي.

ويمكن أن ننظر إلى هيئات المحلفين في المحاكم الأميركية، على أنها مثال لهذا التخبُّط القيميّ، إذ يعلم الجميع أن الهيئات تصل في بعض الأحيان إلى إجابات خاطئة. وتساعد الخوارزميات المحاكم الأميركية اليوم، في عملية اتخاذ بعض القرارات المتعلقة بالأحكام والإفراج المشروط، بناء على بعض أنواع المعلومات المتوفرة كنسب العودة للإجرام (للفرد) وغيرها. وهناك مخاوف من مُساهمة هذا الأمر في تعزيز الانحياز القائم ضد مجموعات معينة (عرقيّة، دينيّة أو غيرها).

ولنتخيل أننا وصلنا إلى حدٍّ أصبحت الحواسيب فيه، تقودنا إلى أحكام أكثر دقة من تلك التي تتوصل إليها هيئات المحلفين، بسبب جمعها وتحليلها للأدلة المتوفرة، فإن الحاسوب سوف يستطيع تكديس المعلومات وتحليلها بسرعة فائقة ودقة ونجاعة. وعند مقارنة ذلك بكيفيّة عمل هيئات المحلفين على أرض الواقع، حيث قد يكون للأفراد ملاحظات مختلفة حول القضية، ويمكن أن يتذكروا أمورا مختلفة عنها، وقد تختلف مواقفهم وآراؤهم حول الأدلة في كل قضية حتى بعد نقاش مستمر لساعات؛ نجد أن قدرة الذكاء الاصطناعيّ على جمع وتحليل البيانات قد تقطع شوطا طويلا في معالجة هذه العيوب.

هيئة محلفين (توضيحية)

ويُوضح هذا المثال بسهولة أننا نهتم بما هو أكثر من مجرد تصحيح الأمور (إصدار الأحكام في هذه الحالة)، فحتى لو حصلنا على إجابة أكثر دقة باستخدام جهاز ما، فلا تزال هناك أسباب لتقدير المساهمة البشريّة المميّزة المتمثلة في وجودهم في هيئات المحلفين، فإنها نتاج عملية تاريخيّة ناضل الناس فيها من أجل إجراء إصلاحات قانونيّة وتحقيق الحقوق الفردية، وإرساء قيمة الشخص العادي المتجسدة في فكرة محاكمته من قبل "هيئة محلفين من أقرانه (البشر)". ربما نريد تسليم ذلك كله إلى ذكاء اصطناعي، ولكن ربما لا.

لا شك في أن انحياز البشر وميلهم إلى التأثُّر بالعواطف، هي ثغرات محتملة في الوصول إلى أي حكم قضائيّ، لكن ذلك كان الدافع إلى إحداث تغييرات في القانون. وهناك حالات يتم فيها بالفعل "إبطال هيئة المحلفين"، بسبب تأثرهم بمشاعر انعدام العدالة، ما يؤدي إلى فشلهم في التوصل إلى إدانة رغم أن المدعي عليه مذنب بوضوح من حيث معايير تطبيق القانون الصارمة. وبغض النظر عن مدى جودة الآلة في تقييم الأدلة، فإننا بعيدون جدا عن تطوير آلات تتمتع بإحساس دقيق بالعدالة، وشعور بالمُستَضعَف، وبعامود فقريّ أخلاقيّ لتحدي جهاز النظام القانونيّ.

لكن الفكرة العامة هي أن هيئات المحلفين تؤدي دورا مستقلا كمصدر للإدانة، على عكس المصالح الخاصة بالنافذين. وكما وصفها اللورد ديفلين في مجلس اللوردات البريطاني عام 2004، فإن "المحاكمة عبر الاستعانة بهيئة المحلفين (...) هي المصباح الذي يُظهر أن الحريّة لا تزال على قيد الحياة". ويجب أن نلاحظ أن ميزة الذكاء الاصطناعيّ ذاتها تتمثل في تجميع المعلومات وخلط الأفكار، ستقوض في سياق القانون، المبدأ الأخلاقيّ الأساسي لاستقلال هيئة المحلفين، فهذه الاستقلالية تتعارض مع إمكانية وجود مصالح راسخة قوية، وتعطي سببا لاستمرار الاستخدام لهيئات المحلفين في المحاكم، المصحوب بصبّ الاهتمام على أكثر من مجرد معالجة المعلومات المقدمة في المحكمة.

قد ينتقد أحدهم هذا الادعاء بأن حاجتنا إلى فكرة استقلالية هيئة المحلفين، تنبع من أنه لا يمكن الاعتماد على البشر في الكثير من الأحيان، فعلى سبيل المثال، لا يمكن ترك مهنة المحاماة لتكون مسؤولة عن العدالة، ولكن من شأن الذكاء الاصطناعي الدقيق أن يحل المشكلة وربما بمرور الوقت، قد نعتاد على الفكرة، ونسلم نظام العدالة لدينا إلى الآلات.

لكن الاعتقاد بأننا سنتخلص في يوم من الأيام، من انعدام توازن القوى والمصالح الخاصة اللتان تسببتا بابتكار هيئات المحلفين، هو محض توجه يوتوبيّ (مثالي). وهناك بدائل أخرى أمامنا قد تكون أفضل من تسليم العدالة للآلات في حال أردنا حل مشاكل المنظومة، كإنشاء نظام استئناف سريع وناجع. وربما، في وقت ما في المستقبل، قد يساعد الذكاء الاصطناعيّ القضاة والمحلفين على اتخاذ القرارات، كمُكمِّل وليس كمسؤول عن المنظومة القضائيّة، وحتى في هذه الحالة، يجب أن نفكر مليًّا في مدى تأثير الذكاء الاصطناعيّ، وما إذا كان يدفعنا نحو نهج تكنوقراطيّ.

لقد تطور القانون كنظام سياسيّ واجتماعيّ إنسانيّ من خلال نضالات كثيرة، لكن استخدام الذكاء الاصطناعي في القانون يمكن أن يساهم مع مرور الوقت في تغيير هذه الحقيقة، ونحن بحاجة إلى النظر بعناية إلى ذلك، في وعي تام بالعديد من الآثار المترتبة على العدالة والديمقراطية.

لا تُبرَّر النتائج بالكفاءة فقط

إن السرعة الفائقة التي يُحلِّل فيها الذكاء الاصطناعي البيانات، هي أكثر عوامل جاذبيته، وبالفعل، فالكفاءة هي ميزة مهمة، لكنها تعتمد أيضا على أغراض استخدامها أيضا، فإذا تمكنت الآلة من إنجاز أمر ما بسرعة وكفاءة، فقد ننجذب أكثر لاستخدامها مقارنة بالجدارة الفعلية (البشرية). وبالتالي يُمكن للسرعة التي تنجز بها الآلات مهامها، أن تغفلنا عن كيفية تحقيق غاياتها. وقد نجد أنفسنا نبالغ في تقييم هذه النتائج التي ولدتها الكفاءة.

وتعمل هيئات حقوقية أميركية، على تطوير "مؤشر كراهية رقمي" باستخدام تقنية التعلم الآلي في محاولة لرصد "خطاب الكراهية" على الإنترنت، أي أنه حل تكنولوجيّ لمشكلة تكنولوجية، حيث يبدو أن الانتشار المزعوم لـ"خطاب الكراهية" على الإنترنت هو نتاج تقنيات محوسبة. لكن الإساءة للخصم (الآخر) ليست ظاهرة جديدة، وانتشرت هذه الكراهية قبل ولادة الإنترنت في الكتب والصحف وغيرها. ويجب أن نتذكر إلى أن الإهانة هي تصرف يعود لأزمان غابرة، خصوصا مع الهالة المحيطة بالذكاء الاصطناعي، والتي توهمنا بأن الظاهرة جديدة أو خطيرة بشكل غير مسبوق.

(أرشيفية - أ ف ب)

إن مفهوم "خطاب الكراهية" هو مفهوم جدليّ بحد ذاته. يعتقد البعض أن محاولة إلغاء استخدامات لغوية معينة، إما عبر القانون أو عبر الأشخاص الذين يديرون منصات إلكترونية، هي هدف ضروري من أجل إزالة التمييز (العنصريّ)، فيما يرى البعض أن هذا يشكل خطرا على حرية التعبير عن الرأي ويُمثّل نوعا من أنواع الرقابة. هناك مخاوف من أن ما يعتبره البعض خطاب كراهية، يعتبره آخرون مجرد دعابة، وأنه من الصعب للغاية تصنيف شيء ما على أنه "خطاب كراهية" خارج سياقه. بالإضافة إلى ذلك، هناك مخاوف من أنه، مع الكم الهائل من المواد المنشورة في الإنترنت، فإن أي عملية لضبط "خطاب الكراهية" ستكون غير مكتملة، وهناك مخاوف من احتمال استهداف بعض المجموعات أو الأفراد بشكل غير متناسب.

وإذا ما استطعنا تشغيل عملية رصد خطاب الكراهية عبر الإنترنت بشكل إلكتروني، فقد يساعد ذلك في التصنيف واتساق المحتوى الذي يندرج تحت هذا التعريف. ويمكن لـ"مؤشر الكراهية الرقميّ" حل انتشار هذه الظاهرة، عن طريق معالجة البيانات بشكل أسرع من الإنسان، وتطبيق سياسات المحتوى بشكل صحيح، ودون تحيُّز، لكن هذا يعتمد بالطبع على كيفية برمجته. إذا ما تمت برمجته ليكون متحيزًا، فسيكون عبارة عن مؤشر متحيز يعمل بكفاءة فائقة.

وهنا تكمن المشكلة، إذ إن حماسنا المفرط إزاء فكرة تنصيب الذكاء الاصطناعى في مكانة اكتشاف وتصنيف وإزالة "خطاب الكراهية" بسرعة واتساق هائلتين، المدموجة بأن الإنترنت حول الكثير منا إلى "متصيدون" غير مسؤولين تملؤهم الكراهية، يساهم في دفعنا إلى استخدام هذه التكنولوجيا بلهفة شديدة قد تؤدي إلى التغاضي عن المشاكل الأخرى في طبيعة تعريف "خطاب الكراهية". ويمكن أن يُساعد ذلك في إثارة نقاش يتلخص تقريبا بالمواجهة بين "خطاب الكراهية مقابل حرية التعبير" في اتجاه واحد فقط. بمعنى آخر؛ إن هذا قد يعيد تشكيل قيمنا ويساهم بسهولة في تغيير طرق تواصل الأشخاص عبر الإنترنت، خشية التعرض للإقصاء أو الحذف من قبل الروبوت المعني برصد خطاب الكراهية، من منصات معينة. وفي حين أن ذلك له بعض الحسنات، فلديه أيضا سيئات كثيرة.

إن قدرة الذكاء الاصطناعي الخاصة على مشاركة البيانات للوصول إلى رؤية شاملة للمواضيع، هي إحدى فضائله، وذلك لأنه يستطيع المساعدة في تخطي مشكلة التحيز البشري بسرعة وكفاءة عاليتيْن، بما قد يتجاوز قدرات البشر، لكن يجب أن نضع جميع هذه الحسنات على مقياس مع قيمنا الأخرى، فبدون القيام بذلك، قد يتم جذبُنا من خلال قوة الذكاء الاصطناعيّ للسماح له بأن يأخذ زمام المبادرة في تحديد طريقة تفكيرنا في بعض قيمنا وأنشطتنا الأكثر أهمية.

التعليقات