«النقاط العمياء» تخضع لاختبار نظم الذكاء الصناعي لتفادي الأخطاء

«النقاط العمياء» تخضع لاختبار نظم الذكاء الصناعي لتفادي الأخطاء

الاثنين - 4 شهر رمضان 1441 هـ - 27 أبريل 2020 مـ رقم العدد [ 15126]
ماتياس مولر طالب الدكتوراه في كاوست
جدة: «الشرق الأوسط»

كثير من الذين يقودون السيارات قد يجهلون مصطلح «النقاط العمياء». إنها النقطة التي حينما تتجاوزك سيارة ولم تشاهدها في المرآة الداخلية، ولا في المرآة الجانبية. إنها النقطة التي تنعدم فيها رؤية الأجسام الموجودة خلف سيارتك، ولا يمكنك رؤيتها في إطار المرايا.
في هذا الإطار أصبح استخدام نظم الذكاء الصناعي كتقنية تساعد النُظم المؤتمتة على اتخاذ قرارات، أفضل وأكثر مواءمة، شائعاً بشكل متزايد، لكن احتمالات الخطأ تظل واردة، وهو أمر يجب تجنّبه خصوصاً في حالتي السيارات ذاتية القيادة والتشخيص الطبي.
الذكاء الصناعي عبارة عن خوارزمية تسمح للنظام بالتعلّم من بيئته ومن المعطيات المتاحة له. وفي التطبيقات المتقدِّمة، كالسيارات ذاتية القيادة، يُدرَّب الذكاء الصناعي باستخدام نهج يُعرف باسم «التعلّم العميق»، معتمداً فقط على كمّيات كبيرة من بيانات أجهزة الاستشعار دون أي تدخل بشري. مع ذلك، فإن نظم تعلّم الآلة هذه من الممكن أن تفشل عندما تُضَلّل بيانات التعلم عملية صناعة القرار.
ولهذا السبب طوّر باحثو جامعة الملك عبد الله للعلوم والتقنية (كاوست) وسيلة للتنبؤ بالمواقف التي يمكن أن يفشل فيها الذكاء الصناعي؛ عبر التحقّق من قوة نماذج تعلم الآلة باستخدام نهج أساسه السياق.
داخل مختبرات كاوست وضمن فريق الدكتور برنارد غانم، أستاذ الهندسة الكهربائية المشارك، عكف كل من عبد الله حمدي وماتياس مولر على بحث أوجه محدودية الذكاء الصناعي والشبكات العصبية العميقة للتطبيقات التي تُحتّم مراعاة عنصر الأمان، مثل السيارات ذاتية القيادة. ويشرح حمدي الأمر قائلاً: «الذكاء الصناعي والتعلم العميق أداتان قويتان جداً، لكن التقنية يمكن أن تفشل في حالات استثنائية نادرة، من الأرجح أن تحدث في نهاية المطاف في الواقع عند استخدام نماذج التعلّم هذه في حياتنا اليومية».
بالنسبة لكثير من التطبيقات، يُعدُّ إخفاق الذكاء الصناعي أمراً مزعجاً لا أكثر، ما دام أنه يعمل كما هو متوقّع أغلب الوقت؛ أمَّا بالنسبة لتطبيقات مثل السيارات ذاتية القيادة أو التشخيص الطبي التي يمكن أن يُفضي فيها الفشل إلى الوفاة أو إلى كارثة محققة، فلا يمكن التساهل مع الإخفاقات المفاجئة المتكررة.
يوضح حمدي أن التعلّم العميق حقَّق نجاحاً في نطاق واسع من المهام، ولكن لا أحد يعلم تحديداً لماذا ينجح في عمله ومتى يخفق في مهامه. ولأن نماذج التعلّم العميق ستُستخدم بتواتر أكثر في المستقبل، فلا ينبغي أن نؤمن إيماناً أعمى بالنماذج غير المفهومة فهماً تاماً، التي من الممكن أن تُعرِّض حياة الناس للخطر.
أثبت فريق العمل كيف يمكن أن تفشل أدوات الذكاء الصناعي تلك فشلاً ذريعاً في سيناريوهات ساذجة في ظاهرها، وابتكر طريقة لتحليل هذه السيناريوهات ووضع خرائط للمخاطر تُحدّد تلك الأخطار في التطبيقات الفعلية.
وفي هذا الصدد يعلّق حمدي: «عادةً ما تُختبر نماذج الذكاء الصناعي للتعرّف على مدى متانتها باستخدام تشويشات نقط الشاشة (البكسل)؛ أي إضافة تشويش إلى صورة ما في محاولة لخداع الشبكة المُدرَّبة تدريباً عميقاً. ومع ذلك، فإن من المستبعد في واقع الأمر أن تحدث تشويشات نقاط الشاشة المصطنعة في التطبيقات الواقعية. ومن الأرجح بكثير أن تحدث سيناريوهات دلالية أو سياقية لم تُدَّرب عليها الشبكات من قبل».
على سبيل المثال، بدلاً من تعرّض نظام القيادة الذاتية إلى صورة مشوشة لشيء ما، من الأرجح أن يتعرَّض النظام إلى شيء ما ذي اتّجاه مختلف أو إلى سيناريو إضاءة لم يتعلَّمها أو يصادفها من قبل. ومن ثمَّ فقد لا يتعرَّف النظام على ما يمكن أن يكون مركبةً أخرى أو أحد المشاة السائرين على مقربة منه. وهذا النوع من الإخفاق هو ما حدث في عدد من الحوادث الجسيمة التي تعرَّضت لها مركبات ذاتية القيادة.
يختتم حمدي حديثه: «ينطوي نهجُنا على تدريب شبكة عميقة أخرى كي تتحدَّى نموذج التعلَّم العميق. وسيسمح لنا ذلك التحدي بالكشف عن نقاط ضعف وقوة نموذج الذكاء الصناعي المزمع استخدامه في نهاية المطاف في التطبيقات».
ويتوقَّع الباحثون أن يُسهم نهج الذكاء الصناعي الخاص بهم في تطوير نماذج ذكاء صناعي قوية والتحقق من تقنيات التعلّم العميق قبل تطبيقها.


اختيارات المحرر

الوسائط المتعددة