الذكاء الاصطناعيّ يعيد تشكيل صناعات: مطالبات بتدابير تنظيميّة

نظرًا لأنّ أنظمة الذكاء الاصطناعيّ أصبحت أكثر تعقيدًا، تظهر مخاوف بشأن تهديداتها المحتملة للأنظمة المختلفة، بما في ذلك الخصوصيّة والأمان وعمليّات صنع القرار، وأحد المخاوف المهمّة هو احتمال التحيّز والتمييز في خوارزميّات الذكاء الاصطناعيّ

الذكاء الاصطناعيّ يعيد تشكيل صناعات: مطالبات بتدابير تنظيميّة

(Getty)

استحوذ التطوّر السريع للذكاء الاصطناعيّ على العالم بإمكانيّة إحداث ثورة في الصناعات، ومع توسّع قدرات الذكاء الاصطناعيّ، تزداد المخاوف بشأن تهديداته المحتملة للأنظمة الحاليّة، إذ وحسب التطوّرات الأخيرة، بات الذكاء الاصطناعيّ يملك القدرة على إعادة تشكيل صناعات بأكملها وعلى نطاق غير مسبوق، من الرعاية الصحيّة إلى النقل والتمويل والتصنيع، حيث تعمل التقنيّات المدعومة بالذكاء الاصطناعيّ على تحسين العمليّات.

وكانت مجموعات إعلاميّة دوليّة قد دعت في رسالة مفتوحة القادة السياسيّين ومسؤولي القطاع إلى تنظيم استخدام الذكاء الاصطناعيّ في المجال الإعلاميّ. وطالب الموقّعون على الرسالة بتدابير تنظيميّة تشمل خصوصًا "الشفّافيّة" حول أساليب التدريب على الذكاء الاصطناعيّ، وضرورة الاستحصال على موافقة "أصحاب حقوق الملكيّة الفكريّة" قبل استخدام محتواهم، مثل الصور أو المقالات الصحافيّة، لتدريب الذكاء الاصطناعيّ.

ويشار إلى أن نحو 160 ألف ممثل تلفزيونيّ وسينمائيّ أميركيّ، شرعوا يإضراب مع كتّاب السيناريو منذ أسابيع، ويطالب الممثلون وكتّاب السيناريو بزيادة أجورهم التي تشهد ركودًا في زمن منصّات البثّ التدفقيّ، ويرغبون في الحصول على ضمانات بشأن استخدام الذكاء الاصطناعي، لمنع هذه التكنولوجيا من إنشاء نصوص أو استنساخ صوتهم وصورتهم.

وكشفت دراسة أجراها معهد ماكينزي العالميّ أنّه في حين أنّ تكامل الذكاء الاصطناعيّ يمكن أن يساهم في النموّ الاقتصاديّ العالميّ، فإنّه قد يؤدّي أيضًا إلى إزاحة الوظائف وربّما يؤدّي إلى تفاقم عدم المساواة في الدخل، وقد يتمّ التخلّص التدريجيّ من المهامّ الروتينيّة الّتي يتمّ أتمتتها بسهولة بواسطة الذكاء الاصطناعيّ، مثل إدخال البيانات والتحليل الأساسيّ، ممّا يؤثّر على العمّال ذوي المهارات المنخفضة، ويمكن أن يؤدّي هذا الاضطراب إلى إجهاد شبكات الأمان الاجتماعيّ القائمة، ممّا يؤكّد الحاجة إلى صنع سياسة استباقيّة.

ونظرًا لأنّ أنظمة الذكاء الاصطناعيّ أصبحت أكثر تعقيدًا، تظهر مخاوف بشأن تهديداتها المحتملة للأنظمة المختلفة، بما في ذلك الخصوصيّة والأمان وعمليّات صنع القرار، وأحد المخاوف المهمّة هو احتمال التحيّز والتمييز في خوارزميّات الذكاء الاصطناعيّ، وإذا تمّ تدريب هذه الأنظمة على مجموعات البيانات المتحيّزة، فيمكنها إدامة عدم المساواة والتحيّزات القائمة.

بالإضافة إلى ذلك، فإنّ التأثير المتزايد للذكاء الاصطناعيّ في القطاعات الحيويّة مثل الرعاية الصحّيّة والمركبات ذاتيّة القيادة يثير تساؤلات حول موثوقيّة أنظمة الذكاء الاصطناعيّ ومساءلتها، ويؤكّد تقرير صادر عن المنتدى الاقتصاديّ العالميّ على الآثار الأخلاقيّة للذكاء الاصطناعيّ في تشخيص الرعاية الصحّيّة وتوصيات العلاج، مشدّدًا على أهمّيّة الشفّافيّة والمبادئ التوجيهيّة الواضحة لضمان سلامة المريض وثقته.

ووسط هذه التحدّيات، يؤكّد الخبراء على أهمّيّة إنشاء إطار قانونيّ لتوجيه تطوير أنظمة الذكاء الاصطناعيّ ونشرها وحوكمتها، ويؤكّد الباحث في مجال الذكاء الاصطناعيّ، يوشا بينغيو، على أنّ "الذكاء الاصطناعيّ يحتاج إلى إطار قانونيّ وأخلاقيّ قويّ لضمان تعظيم فوائده مع تقليل مخاطره إلى الحدّ الأدنى".

ويمكن للتقنين تحميل مطوّري الذكاء الاصطناعيّ والقائمين على نشره المسؤوليّة عن عمل أنظمتهم، تمامًا كما يتحمّل المصنعون مسؤوليّة سلامة منتجاتهم، يجب أن يلتزم مطوّرو الذكاء الاصطناعيّ بالالتزام بالمعايير الّتي تضمن التشغيل الأخلاقيّ والآمن لتقنيّاتهم، حيث يمكن للإطار القانونيّ معالجة المخاوف الأخلاقيّة المحيطة بالذكاء الاصطناعيّ، مثل التخفيف من التحيّز والحفاظ على الخصوصيّة والشفّافيّة.

وقالت دراسة نشرت في مجلّة "ساينس" عن قوانين "المساءلة الخوارزميّة" الّتي تفرض الشفّافيّة في عمليّات صنع القرار بالذكاء الاصطناعيّ، ممّا يمكن المستخدمين من فهم القرارات المؤتمتة وتحدّيها، ويمكن أن يوفّر التقنين منصّة لإنشاء سياسات تخفّف من التأثير السلبيّ المحتمل للذكاء الاصطناعيّ على القوى العاملة، ومن خلال تحفيز برامج التدريب وإعادة تشكيل المهارات، يمكن للحكومات ضمان بقاء القوى العاملة قابلة للتكيّف وقادرة على الاندماج مع أنظمة الذكاء الاصطناعيّ.

وكان تقرير صادر عن الأمم المتّحدة أوصى بإبرام معاهدة دوليّة لمواجهة التحدّيات الّتي يفرضها الذكاء الاصطناعيّ، بما في ذلك اضطرابات سوق العمل، والمخاوف المتعلّقة بالخصوصيّة، والتطبيقات العسكريّة.
واتّخذت العديد من البلدان بالفعل خطوات نحو الأطر القانونيّة، حيث تهدف اللائحة العامّة لحماية البيانات (GDPR) في الاتّحاد الأوروبّيّ وقانون الذكاء الاصطناعيّ المرتقب إلى حماية حقوق الأفراد مع ضمان الاستخدام المسؤول لتقنيّات الذكاء الاصطناعيّ، ويفرض القانون متطلّبات الشفّافيّة والمساءلة وتقييم المخاطر، ممّا يضع سابقة للمناطق الأخرى لتحذو حذوها.

وشهدت الولايات المتّحدة أيضًا مناقشات حول حوكمة الذكاء الاصطناعيّ، حيث تمّ تكليف المعهد الوطنيّ للمعايير والتكنولوجيا (NIST) بوضع مبادئ توجيهيّة لأنظمة الذكاء الاصطناعيّ الجديرة بالثقة، ومعالجة الاعتبارات الفنّيّة والأخلاقيّة.

التعليقات