تسبّب وكيل ذكاء اصطناعي داخل شركة "ميتا" في كشف كمية كبيرة من البيانات الحساسة للمستخدمين والشركة أمام موظفين، بعد أن قدّم توجيهات تقنية خاطئة لمهندس داخل الشركة.
ووقعت الحادثة عندما طلب أحد الموظفين حلاً لمشكلة هندسية عبر منصة داخلية، ليردّ الوكيل الذكي باقتراح تم تطبيقه لاحقًا، ما أدى إلى إتاحة بيانات حساسة لعدد من المهندسين لمدة ساعتين قبل احتواء الخلل.
وأكدت "ميتا" وقوع الحادثة، مشيرة إلى عدم إساءة استخدام بيانات المستخدمين، ومعتبرة أن الخطأ كان يمكن أن يصدر أيضًا عن تدخل بشري. كما أوضحت أن الواقعة دفعت إلى إطلاق إنذار أمني داخلي، في إطار إجراءاتها لحماية البيانات.
وتأتي هذه الحادثة ضمن سلسلة وقائع حديثة مرتبطة باستخدام وكلاء الذكاء الاصطناعي في شركات التكنولوجيا الأميركية، إذ أبلغت تقارير عن أعطال سابقة في "أمازون" نتيجة الاعتماد المتزايد على أدوات مماثلة.
ويرى خبراء أن هذه الحوادث تعكس مرحلة تجريبية تمر بها الشركات في نشر هذا النوع من الأنظمة، وسط مخاوف من ضعف تقييم المخاطر المرتبطة بها، خصوصًا عند منحها صلاحيات واسعة.
ويشير مختصون إلى أن وكلاء الذكاء الاصطناعي يفتقرون إلى الفهم السياقي المتراكم لدى البشر، ما يزيد احتمال وقوع أخطاء تؤدي إلى عواقب غير متوقعة، مثل كشف بيانات أو تنفيذ أوامر غير ملائمة.
ومع تسارع تطوير هذه التقنيات، يتوقع خبراء تكرار مثل هذه الأخطاء، في ظل سعي الشركات إلى دمج الذكاء الاصطناعي في مختلف جوانب العمل، رغم التحديات الأمنية والتنظيمية المصاحبة.