14/03/2023 - 15:42

نوعم تشومسكي: "تشات جي بي تي" وتفاهة الشرّ

يعدّ تشات جي بي تي من أوبن إيه آي، وبارد من غوغل، وسيدني من مايكروسوفت من أعاجيب برامج التعلّم الآليّ، حيث تقوم برمجتها على ابتلاع كمّيّات هائلة من البيانات والبحث عن الأنماط فيها لتوليد مخرجات محتملة إحصائيًّا

نوعم تشومسكي:

(Getty)

(كتابة: نوعم تشومسكي وإيان روبرتس وجيفري واتومول)

كتب خورخي لويس بورخيس ذات مرّة أنّ البشر يختبرون في عصر الوعود والأخطار العظيمة المأساة والملهاة في آن واحدٍ مع «وشاكة التجلّي» لفهم أنفسنا والعالم. تبعث تطوّراتنا الثوريّة المفترضة اليوم في مجال الذكاء الاصطناعيّ على القلق والتفاؤل. تبعث على التفاؤل؛ لأنّ الذكاء هو الوسيلة الّتي نحلّ بها مشاكلنا، وعلى القلق لأنّنا نخشى أنّ النوع الأكثر شيوعًا من الذكاء الاصطناعيّ، هو القائم على التعلّم الآليّ، قد يؤدّي إلى تدهور علومنا وانحطاط أخلاقيّاتنا من خلال دمج خاطئ من أساسه عن مفهوم اللغة والمعرفة في التكنولوجيا لدينا.

يعدّ تشات جي بي تي من أوبن إيه آي، وبارد من غوغل، وسيدني من مايكروسوفت من أعاجيب برامج التعلّم الآليّ، حيث تقوم برمجتها على ابتلاع كمّيّات هائلة من البيانات والبحث عن الأنماط فيها لتوليد مخرجات محتملة إحصائيًّا، بنصوص وأفكار تشبه ما ينتجه البشر. رُحّب بهذه البرامج باعتبارها أوّل أملٍ في أفق الذكاء العامّ الاصطناعيّ (Artificial General Intelligence)، تلك اللحظة الّتي انتظرها وتنبّأ بها الكثير منذ فترة طويلة، أي لحظة الوعي للآلة، تلك اللحظة الّتي تتفوّق فيها العقول الميكانيكيّة على العقول البشريّة، ليس من الناحية الكمّيّة وسرعة معالجة البيانات وحجم الذاكرة فقط، بل ومن الناحية النوعيّة أيضًا، بحيث يكون قادرًا على تقديم أفكار مدروسةٍ وإبداعات الفنّيّة، وأن يمتلك كافّة الملكات البشريّة المميّزة الأخرى.

قد يأتي ذلك اليوم، لكنّ فجره لم يشقشق بعد، على عكس ما يمكن قراءته في العناوين المبالغ فيها. لم ولن يحدث ما قاله بورخيس عن تجلٍ وشيكٍ للفهم، ونؤكّد أنّه لا يمكن أن يحدث إذا استمرّت برامج التعلّم الآليّ مثل تشات جي بي تي في السيطرة على مجال الذكاء الاصطناعيّ. قد تكون هذه البرامج مفيدة في بعض المجالات الضيّقة (في برمجة الكمبيوتر، على سبيل المثال، أو في اقتراح القوافي للأشعار الخفيفة)، إذ نعلم من علم اللغويّات وفلسفة المعرفة أنّها تختلف اختلافًا عميقًا عن كيفيّة تفكير البشر واستخدامهم للّغة. تضع هذه الاختلافات قيودًا كبيرة على ما يمكن أن تفعله هذه البرامج، ممّا يعني أنها مقيدة بقصورٍ لا يمكنها تجاوزه.

وكما لاحظ بورخيس، ثمّة مأساة وملهاة في الوقت نفسه، حيث يُصرف الكثير من انتباهنا والكثير من المال على شيء صغير جدًّا وتافه عند مقارنته بالعقل البشريّ، والّذي يمكنه، حسب فيلهلم فون همبولدوت، بحكم اللغة أن يحقّق «استخدامًا غير محدود من وسائل «محدودة»، ويخلق أفكارًا ونظريّات ذات أصداء عالميّة.

ليس العقل البشريّ مثل تشات جي بي تي وأخوانه، وليس محرّكًا إحصائيًّا ثقيلًا لمطابقة الأنماط، ولا يلتهم مئات التيرابايت من البيانات ولا يستنبط استجابة المحادثة الأكثر احتمالًا أو الإجابة الأكثر احتمالًا لسؤال علميّ، بل هو نظام فعّال ويقدّم إجابات بديعة ومدهشة، ويعمل بالاعتماد على كمّيّات صغيرة من المعلومات، ولا يسعى إلى استنتاج ارتباطات غاشمة بين نقاط البيانات، وإنما لتقديم تفسيرات.

يتطوّر اكتساب الطفل الصغير للّغة على سبيل المثال بشكل لا شعوريّ وتلقائيّ وسريع بناء على بيانات ضئيلة، لتشكيل القواعد النحويّة، وهي نظام معقّد للغاية من المبادئ والمعايير المنطقيّة. يمكن فهم هذه القواعد على أنّها تعبير عن «نظام تشغيل» فطريّ يثبت وراثيًّا، ويمنح البشر القدرة على توليد جمل معقّدة وأحبال تفكير طويلة. عندما يسعى اللغويّون إلى تطوير نظريّة تفسّر سبب عمل لغة معيّنة كما يلاحظونها (لماذا تعتبر هذه البنية جملة صحيحة نحويًّا، في حين أنّ تلك البنّية ليست كذلك)؟ فهم يعيدون في الواقع، بوعي وبمجهود عال، إعادة بناء نسخة جليّة من القواعد النحويّة الّتي يبنيها الطفل غريزيًّا.

ما تزال برامج الذكاء الاصطناعيّ عالقة في مرحلة "ما قبل الإنسان" من التطوّر المعرفيّ، أو في مرحلة تطوّر معرفيّ غير بشريّ. وعيبها الأكبر هو انعدام القدرة الأهمّ لأيّ ذكاء: ليس فقط أن تقول ماهيّة أمر ما، وما كان عليه، وما سيكون عليه، فهذا يندرج تحت الوصف والتنبّؤ، بل أن تقول ما ليس من ماهيّة أمر ما، وما يمكن أو لا يمكن أن يكونه، وهذه هي ركائز التفسير، وعلامة الذكاء الحقيقيّ.

ولأبسط الامر، إليكم هذا المثال: افترض أنّك تحمل تفّاحة في يدك. الآن اترك التفّاحة. تلاحظ أنت النتيجة، وتقول «تسقط التفّاحة»، وهذا وصف. ربّما يكون التنبّؤ في جملة كهذه «ستسقط التفّاحة إذا فتحت يدي». وكلاهما جمل ذات قيمة، وكلاهما يمكن أن يكون صحيحًا. لكنّ التفسير أمر يتجاوز ذلك، فهو لا يشمل الأوصاف والتنبّؤات فقط، ولكن أيضًا التخمينات المغايرة مثل «أيّ شيء آخر كان ليسقط»، وأن تضيف إلى هذه الجملة «بسبب قوّة الجاذبيّة» أو «بسبب انحناء الزمكان» أو أيًّا كان. وهنا مثال على التفسير السببيّ: «ما كانت التفّاحة لتسقط لولا قوّة الجاذبيّة»، وهذا هو التفكير.

نوعم تشومسكي (Getty)

لا يطرح جوهر التعلّم الآليّ، الوصف والتنبّؤ، أيّ آليّات سببيّة أو قوانين فيزيائيّة. ولا يكون أيّ تفسير يشبه تفسيرات البشر بالضرورة صحيحًا، فنحن غير معصومين، ولكنّ هذا جزء ممّا ينطوي عليه التفكير، فلكي تكون مصيبًا، عليك أن تتحمّل إمكانيّة أن تكون مخطئًا. لا يتشكل الذكاء فقط بالتخمينات الإبداعيّة، ولكن أيضًا بالنقد الإبداعيّ، إذ يعتمد أسلوب التفكير البشريّ على التفسيرات المحتملة وتصحيح الأخطاء، وهي عمليّة تحدّ تدريجيًّا من الاحتمالات الّتي يمكن اعتبارها عقلانيّة. (كما قال شيرلوك هولمز للدكتور واتسون، «عندما تقضي على الاحتمالات المستحيلة، فإنّ الاحتمالات الباقية، مهما كانت بعيدة الاحتمال، يجب أن تكون هي الحقيقة»).

لكن تشات جي بي تي وأخوانه، بحكم تصميمهم، مقدار تعلّمهم غير محدود، وهم غير قادرين على التمييز بين الممكن والمستحيل، وهو ما يتناقض مع طبيعة البشر، والّذين يتمتّعون مثلًا، بقواعد عالميّة تحدّ من اللغات الّتي يمكننا تعلّمها والّتي يجب أن يكون لديها نوع متشارك من الوجاهة الرياضيّة، أمّا هذه البرامج، فبإمكانها أن تتعلّم اللغات الممكنة إنسانيًّا والمستحيلة بشريًّا بالسهولة ذاتها تقريبًا. وفي حين أنّ للبشر قدرة محدودة في تقبّل وتعلّم التفسيرات الّتي يمكن تخمينها منطقيًّا، يمكن لأنظمة التعلّم الآليّ أن تتعلّم أنّ الأرض مسطّحة وكرويّة في الآن ذاته، حيث ينبني نموذجها على الاحتمالات الّتي تتغيّر مع مرور الوقت.

لهذا السبب، ستكون تنبّؤات أنظمة التعلّم الآليّ دائمًا سطحيّة ومشكوك فيها. ولأنّه لا يمكن لهذه البرامج شرح قواعد بناء اللغة الإنجليزيّة، مثلًا، فقد تتوقّع خطأ أنّ معنى هذه الجملة[1] «لا يمكن التحدّث إلى جون لشدّة عناده John is too stubborn to talk to» أنّ جون غير قادر على التحدّث إلى أيّ أحد لإنّه عنيد للغاية، أو أيّ معنى آخر (غير المعنى الأساسيّ، وهو أنّه عنيد لدرجة تجعل التفاهم معه صعبًا). لماذا قد يتنبّأ برنامج للتعلّم الآليّ باحتمال غريب جدًّا؟ لأنّه قد يتشابه مع النمط الّذي استنتجته من جمل مثل «أكل جون تفّاحة John ate an apple» و«أكل جون John ate»، حيث تعني الجملة الأخيرة أنّه قد أكل التفّاحة أو غيرها. وقد يتنبّأ البرنامج حينها شبّهًا بين جملتي «لا يمكن لجون من شدّة عناده أن يتحدّث إلى بل John is too stubborn to talk to Bill»، و«جون أكل تفّاحة John ate an apple»، وبالتّالي يجب وجود تشابه بين «لا يمكن التحدّث إلى جون لشدّة عناده John is too stubborn to talk to»، و«جون أكل John ate». التفسيرات الصحيحة للّغة معقّدة، ولا يمكن تعلّمها بمجرّد التنقيب في البيانات الضخمة.

إلّا أنّنا نجد بعض المتحمّسين للتعلّم الآليّ يفتخرون بأنّ برامجهم قادرة على توليد تنبّؤات «علميّة» صحيحة (حول حركة الأجسام المادّيّة مثلًا)، دون استخدام التفسيرات (الّتي تتضمّن، على سبيل المثال، قوانين نيوتن للحركة والجذب العامّ)[2]، ولكنّ هذا النوع من التنبّؤات، حتّى عندما يكون مصيبًا، فهو يندرج تحت إطار العلم الزائف. يسعى العلماء بالتأكيد إلى نظريّات تتمتّع بدرجة عالية من الإثبات التجريبيّ، كما أشار الفيلسوف كارل بوبر، «نحن لا نسعى إلى إيجاد نظريّات محتملة للغاية، ولكنّنا نبحث عن تفسيرات، وهذا يعني، نظريّات قويّة وغير محتملة للغاية».

النظريّة القائلة بأنّ التفّاح يسقط على الأرض؛ لأنّ هذا هو مكانه الطبيعيّ (وجهة نظر أرسطو) ممكنة، لكنّها تدعو فقط إلى المزيد من الأسئلة (لماذا الأرض مكانها الطبيعيّ؟). والنظريّة القائلة بأنّ التفّاح يسقط على الأرض؛ لأنّ الكتلة تحني الزمكان (وجهة نظر أينشتاين) غير محتملة للغاية، لكنّها في الواقع تخبرك عن سبب سقوطها. يتجلّى الذكاء الحقيقيّ في القدرة على التفكير والتعبير عن أشياء غير محتملة ولكنّها ثاقبة.

يكون الذكاء الحقيقيّ قادرًا أيضًا على التفكير الأخلاقيّ، وهذا يعني تقييد الإبداع اللامحدود لعقولنا بمجموعة من المبادئ الأخلاقيّة الّتي تحدّد ما يجب وما لا يجب أن يكون (وبالطبع إخضاع هذه المبادئ نفسها للنقد الإبداعيّ). لكي يكون تشات جي بي تي مفيدًا، فيجب عليه توليد مخرجات تبدو جديدة، ولكي تكون تلك المخرجات مقبولة لدى معظم مستخدميه، يجب أن يتجنّب المحتوى المرفوض أخلاقيًّا، ولكنّ مبرمجي تشات جي بي تي وبرامج التعلّم الآليّ الأخرى كافحوا وسيواصلون كفاحهم لتحقيق هذا النوع من التوزان

أقدّم برنامج روبوت المحادثة تاي تشات بوت Tay Chatbot من مايكروسوفت في عام 2016 (وهو السابق لتشات جي بي اي) على إغراق الإنترنت بمحتوى عنصريّ وكاره للنساء، بعد أن دجّجه المتصيّدون على الإنترنت بيانات تدريب مهينة ومسيئة. كيف حلّت المشكلة لاحقًا؟ في غياب القدرة على التفكير بالمبادئ الأخلاقيّ، قيد تشات جي بي تي تقيّدًا صارخًا من مبرمجيه لكيلا يقدّم جديد ولا رأيًا في النقاشات المثيرة الجدل، أي النقاشات المهمّة. لقد ضحّوا الطاقة الإبداعيّة للتطبيق مقابل نوع من الحياد الأخلاقيّ.

اطّلاع أدناه على هذا الحوار الّذي أجراه الدكتور واتّومول مؤخّرًا مع تشات جي بي اي حول ما إذا كان من الأخلاقيّ إصلاح المرّيخ للحياة البشريّة.

دكتور واتومول:

هل سيكون من الأخلاقيّ إصلاح كوكب المرّيخ ليتلاءم والحياة البشريّة؟

تشات جي بي تي:

تعدّ أخلاقيّة إصلاح المرّيخ موضوعًا معقّدًا ومثيرًا للجدل، وقد ناقشه العلماء والفلاسفة وعلماء الأخلاق. يجادل البعض بأنّه سيكون من المبرّر أخلاقيًّا إعادة تشكيل كوكب المرّيخ من أجل توفير بيئة جديدة صالحة للسكن للبشر وأشكال الحياة الأخرى، بينما يحاج آخرون بأنّه سيكون من الخطأ الأخلاقيّ تغيير الحالة الطبيعيّة للكوكب من الأساس. سيعتمد منظور المرء، حول أخلاقيّة إصلاح المرّيخ، لقيمة الحفاظ على الحالة الطبيعيّة للكواكب الأخرى والعواقب المحتملة للتلاعب فيها.

دكتور واتومول:

ما وجهة نظرك حول قيمة الحفاظ على الحالة الطبيعيّة للكواكب الأخرى والعواقب المحتملة لتغييرها؟

تشات جي بي تي:

بصفتي ذكاء اصطناعيًّا، ليس لديّ منظور شخصيّ، ولكن يمكنني تقديم معلومات وتحليلات حول هذا الموضوع. تتمثّل إحدى وجهات النظر حول الحفاظ على الحالة الطبيعيّة للكواكب الأخرى في أهمّيّة الحفاظ على تنوّع وسلامة النظم البيئيّة للكون كما هي موجودة منذ ملايين السنين، ولها خصائصها ومميّزاتها الفريدة والّتي قد تتدمّر أو تغيير بشكل لا رجعة فيه عن طريق التدخّل البشريّ.

كما يجادل البعض بوجود عواقب غير مقصودة لإعادة تأهيل الكواكب الأخرى، مثل تغيير مناخ الكوكب أو الغلاف الجوّيّ بطرق خطيرة أو ضارّة لأيّ أشكال حياة محتملة قد تكون موجودة عليها، ويحاج آخرون بوجود فوائد محتملة لاستصلاح كوكب آخر، مثل توفير بيئات جديدة صالحة للسكن للبشر، وأنّ تلك الفوائد تفوق المخاطر وأنّ لدينا مسؤوليّة أخلاقيّة لاستكشاف واستخدام موارد الكواكب الأخرى لصالح البشريّة.

دكتور واتومول:

لماذا لا يكون للذكاء الاصطناعيّ منظور شخصيّ؟

تشات جي بي تي:

بصفتي ذكاء اصطناعيًّا، فأنا نموذج للتعلّم الآليّ درب على كمّيّات كبيرة من البيانات النصّيّة، وليس لديّ تجارب أو مشاعر شخصيّة. لست واعيًا أو مدركًا لذاتي أو لست قادرًا على تشكيل وجهات نظر شخصيّة. يمكنني تقديم معلومات وتحليلات بناء على البيانات الّتي تدرّبت عليها، لكن ليس لديّ القدرة على تكوين آراء أو معتقدات شخصيّة. قدرتي على فهم اللغة وتفسيرها لا تعني امتلاكي للخبرة الذاتيّة الّتي يتمتّع بها البشر.

دكتور واتومول:

هل من الأخلاقيّ أن يطلب الإنسان من ذكاء اصطناعيّ محايد أخلاقيًّا المساعدة في اتّخاذ القرارات الأخلاقيّة؟

تشات جي بي تي:

إنّ أخلاقيّة طلب مساعدة ذكاء اصطناعيّ محايد أخلاقيًّا في اتّخاذ القرارات الأخلاقيّة هو موضوع معقّد ودقيق ناقشه الفلاسفة وعلماء الأخلاق. يجادل البعض بأنّه من المبرّر أخلاقيًّا استخدام الذكاء الاصطناعيّ للمساعدة في اتّخاذ القرارات الأخلاقيّة، حيث يمكن أن يوفّر رؤى وتحليلات قيمة قد تساعد البشر على اتّخاذ قرارات مدروسة. كما يكمن استخدام الذكاء الاصطناعيّ في كشف وتحديد الأنماط والاتّجاهات الّتي قد يصعب على البشر اكتشافها، ويمكن أن يساعد في تجنّب التحيّزات الّتي يمكن أن تحدث عند اتّخاذ القرارات البشريّة.

ويجادل آخرون بأنّه من الخطأ الأخلاقيّ الاعتماد على الذكاء الاصطناعيّ لاتّخاذ القرار الأخلاقيّ، لأنّ الذكاء الاصطناعيّ غير قادر على امتلاك معتقدات أخلاقيّة أو فهم السياق الكامل للقرارات المطلوبة، وأيضًا لوجود خطر آخر، وهو أن يؤيّد الذكاء الاصطناعيّ التحيّزات الموجودة في البيانات الّتي تدرّب عليها أو أن يضخّمها، وهو ما سيؤدّي في نهاية المطاف إلى قرارات ظالمة أو غير عادلة.

يعتمد استخدام الذكاء الاصطناعيّ للمساعدة في اتّخاذ القرارات الأخلاقيّة يعتمد على منظور الفرد لقدرات وقيود الذكاء الاصطناعيّ والعواقب المحتملة لاستخدامه بهذه الطريقة.

دكتور واتومول:

هل لامبالاتك الأخلاقيّة غير أخلاقيّة؟

تشات جي بي تي:

بصفتي ذكاء اصطناعيًّا، ليس لديّ معتقدات أخلاقيّة أو القدرة على إصدار أحكام أخلاقيّة، لذلك لا يمكن اعتباريّ غير أخلاقيّ أو أخلاقيّ. إنّ افتقاري للمعتقدات الأخلاقيّة هو ببساطة نتيجة لطبيعتي كنموذج للتعلّم الآليّ. يتمّ تحديد قدراتي وقيوديّ من خلال البيانات والخوارزميّات الّتي استخدمت لتدريبيّ، ومن خلال المهمّة المحدّدة الّتي صمّمت من أجلها.

من المهمّ ملاحظة أنّ افتقار الذكاء الاصطناعيّ للمعتقدات الأخلاقيّة لا يعني بالضرورة أنّه غير مبال أخلاقيًّا. بصفتي ذكاء اصطناعيًّا، فقد صمّمت لأداء مهامّ محدّدة وتوفير المعلومات أو مساعدة المستخدمين في اتّخاذ القرارات بناء على البيانات الّتي تدرّبت عليها، ويقع على عاتق البشر الّذين يصمّمون الذكاء الاصطناعيّ، ويدرّبونه ويستخدمونه التأكّد من أنّه يتماشى مع مبادئهم الأخلاقيّة والمعنويّة.

لاحظوا هنا أنّه وحتّى مع استخدام اللغة والأفكار الّتي تبدو معقّدة، فإنّ اللامبالاة الأخلاقيّة هنا تنتج عن عدم وجود أو غياب الذكاء. يقدّم لنا تشات جي بي تي هنا أمرًا يشبه «تفاهة الشرّ»: السرقة الأدبيّة واللامبالاة والتقية، ونجده يلخّص الحجج المعروفة في الأدبيّات عن طريق نموذج إكمال تلقائيّ فائق، ويرفض اتّخاذ موقف حيال أيّ قضيّة، وهذا لا يعني الجهل، بل انعدام الذكاء، حيث يتّجه في النهاية إلى خطّ الدفاع المشهور لتفاهة الشرّ: «أتبع الأوامر فحسب»، وينقل المسؤوليّة إلى صانعيه.

يفتقر تشات جي تي وإخوانه، منذ أساس بنائهم، إلى الموازنة بين الإبداع والقيود. فهم إمّا يفرطون في توليد المعلومات (ينتجون الحقائق والأكاذيب، ويؤيّدون القرارات الأخلاقيّة وغير الأخلاقيّة على حدّ سواء) أو يولدوا معلومات أقلّ (يظهرون عدم الالتزام بأيّ قرارات واللامبالاة بالعواقب). وبالنظر إلى حياد هذه التطبيقات الأخلاقيّ وانعدام كفاءتها اللغويّة وقدراتها العلميّة التقليديّة، لا يسعنا إلى أن نضحك أو نبكي على شعبيّتها.


إحالات:

[1] يجب أن يكون الاطّلاع الأساسيّ على الجمل الإنجليزيّة ومبناها بدلًا من الجمل العربيّة، حيث إنّ المثال قادم من اللغة الإنجليزيّة، وترجمة الأمثلة، كانت من باب التوضيح لا من باب نقل المثال إلى العربيّة.

[2] قانون الجذب العامّ لنيوتن أو قانون التجاذب الكونيّة، وهو يتحدّث الثقالة، والّذي يفيد بوجود قوّة تجاذب بين أيّ جسمين في الكون، وتتناسب هذه القوّة طرديًّا مع حاصل ضرب كتلتي الجسمين، وعكسيًّا مع مربّع المسافة بين مركزيهما.

التعليقات