الاختراق باستخدام الذكاء الاصطناعي يُشكل تحديا للأمن الإلكتروني

نجح فريق من المبرمجين في شركة "آي بي إم"، بتطوير برامج ذكاء اصطناعي تستطيع تعلم كيفية مراوغة الدفاعات الأقوى للشبكة. 

الاختراق باستخدام الذكاء الاصطناعي يُشكل تحديا للأمن الإلكتروني

أرشيفية (أ ب)

نجح فريق من المبرمجين في شركة "آي بي إم"، بتطوير برامج ذكاء اصطناعي تستطيع تعلم كيفية مراوغة الدفاعات الأقوى للشبكة. 

واستخدم الفريق تقنية معروفة باسم "التعلم الآلي" لتصميم برامج اختراق تستطيع التسلل عبر أشد الإجراءات الدفاعية حصانة. وكشف الفريق تفاصيل عن تجربته خلال مؤتمر "بلاك هات" الأمني الذي أُقيم في مدينة لاس فيجاس الأميركية أمس الأربعاء.

وتعتمد أحدث الدفاعات بشكل عام على فحص ما يقوم به البرنامج المهاجم بدلا من التقنية الشائعة التي تقوم على تحليل شفرة البرنامج لرصد أي مؤشرات خطر. لكن النوع الجديد من برامج الذكاء الاصطناعي يمكن تدريبها بحيث تبقى خاملة حتى تصل إلى هدف محدد الأمر الذي يجعل التصدي لها أمرا في غاية الصعوبة.

ولم يُعلن أحد حتى الآن برصد أي برنامج خبيث يعتمد بشكل واضح على خاصية التعلم الآلي أو أي نوع آخر من الذكاء الاصطناعي وربما يرجع ذلك إلى أن تلك البرامج أفضل من أن يتم رصدها.

ويقول باحثون إنها مجرد مسألة وقت في أفضل الأحوال فوحدات الذكاء الاصطناعي اللازمة لبرامج التدريب متاحة مجانا من شركة ألفابت وشركات أخرى.

وقال كبير المحللين في أمن الإنترنت في شركة "سيمانتك"،جون ديماجيو :" أؤمن تماما بأننا نسير في هذا الاتجاه (...) سيزيد ذلك من صعوبة رصد البرامج".

وأظهر أكثر المتسللين تطورا على مستوى الدول قدرتهم بالفعل على بناء برامج هجومية لا تنشط إلا عندما تبلغ هدفا معينا. ولعل أفضل مثال على ذلك هو برنامج "ستاكسنت" الذي استخدمته المخابرات الأميركية والإسرائيلية لهجوم إلكتروني ضد منشأة لتخصيب اليورانيوم في إيران.

وأظهر أحد برامج فريق "آب بي إم" ، المُسمى بـ"ديبلوكر"  أن مستوى مشابها من الدقة قد يصبح متاحا لمن يملكون موارد أقل بكثير من حكومة وطنية.

وفي عرض توضيحي باستخدام صور متاحة علنا لعينة مستهدفة، استخدم الفريق نسخة مقرصنة من برنامج للتحدث عبر الفيديو لم ينشط إلا عندما رصد الوجه المستهدف.

وقال قائد الفريق، مارك ستوكلين: ”لدينا أسباب كثيرة للاعتقاد بأن هذا هو التطور الأكبر المقبل (...) ربما يكون قد حدث بالفعل وسنشهده خلال عامين أو ثلاثة من الآن".

 

التعليقات