«النقاط العمياء» تخضع لاختبار نظم الذكاء الصناعي لتفادي الأخطاء

ماتياس مولر طالب الدكتوراه في كاوست
ماتياس مولر طالب الدكتوراه في كاوست
TT

«النقاط العمياء» تخضع لاختبار نظم الذكاء الصناعي لتفادي الأخطاء

ماتياس مولر طالب الدكتوراه في كاوست
ماتياس مولر طالب الدكتوراه في كاوست

كثير من الذين يقودون السيارات قد يجهلون مصطلح «النقاط العمياء». إنها النقطة التي حينما تتجاوزك سيارة ولم تشاهدها في المرآة الداخلية، ولا في المرآة الجانبية. إنها النقطة التي تنعدم فيها رؤية الأجسام الموجودة خلف سيارتك، ولا يمكنك رؤيتها في إطار المرايا.
في هذا الإطار أصبح استخدام نظم الذكاء الصناعي كتقنية تساعد النُظم المؤتمتة على اتخاذ قرارات، أفضل وأكثر مواءمة، شائعاً بشكل متزايد، لكن احتمالات الخطأ تظل واردة، وهو أمر يجب تجنّبه خصوصاً في حالتي السيارات ذاتية القيادة والتشخيص الطبي.
الذكاء الصناعي عبارة عن خوارزمية تسمح للنظام بالتعلّم من بيئته ومن المعطيات المتاحة له. وفي التطبيقات المتقدِّمة، كالسيارات ذاتية القيادة، يُدرَّب الذكاء الصناعي باستخدام نهج يُعرف باسم «التعلّم العميق»، معتمداً فقط على كمّيات كبيرة من بيانات أجهزة الاستشعار دون أي تدخل بشري. مع ذلك، فإن نظم تعلّم الآلة هذه من الممكن أن تفشل عندما تُضَلّل بيانات التعلم عملية صناعة القرار.
ولهذا السبب طوّر باحثو جامعة الملك عبد الله للعلوم والتقنية (كاوست) وسيلة للتنبؤ بالمواقف التي يمكن أن يفشل فيها الذكاء الصناعي؛ عبر التحقّق من قوة نماذج تعلم الآلة باستخدام نهج أساسه السياق.
داخل مختبرات كاوست وضمن فريق الدكتور برنارد غانم، أستاذ الهندسة الكهربائية المشارك، عكف كل من عبد الله حمدي وماتياس مولر على بحث أوجه محدودية الذكاء الصناعي والشبكات العصبية العميقة للتطبيقات التي تُحتّم مراعاة عنصر الأمان، مثل السيارات ذاتية القيادة. ويشرح حمدي الأمر قائلاً: «الذكاء الصناعي والتعلم العميق أداتان قويتان جداً، لكن التقنية يمكن أن تفشل في حالات استثنائية نادرة، من الأرجح أن تحدث في نهاية المطاف في الواقع عند استخدام نماذج التعلّم هذه في حياتنا اليومية».
بالنسبة لكثير من التطبيقات، يُعدُّ إخفاق الذكاء الصناعي أمراً مزعجاً لا أكثر، ما دام أنه يعمل كما هو متوقّع أغلب الوقت؛ أمَّا بالنسبة لتطبيقات مثل السيارات ذاتية القيادة أو التشخيص الطبي التي يمكن أن يُفضي فيها الفشل إلى الوفاة أو إلى كارثة محققة، فلا يمكن التساهل مع الإخفاقات المفاجئة المتكررة.
يوضح حمدي أن التعلّم العميق حقَّق نجاحاً في نطاق واسع من المهام، ولكن لا أحد يعلم تحديداً لماذا ينجح في عمله ومتى يخفق في مهامه. ولأن نماذج التعلّم العميق ستُستخدم بتواتر أكثر في المستقبل، فلا ينبغي أن نؤمن إيماناً أعمى بالنماذج غير المفهومة فهماً تاماً، التي من الممكن أن تُعرِّض حياة الناس للخطر.
أثبت فريق العمل كيف يمكن أن تفشل أدوات الذكاء الصناعي تلك فشلاً ذريعاً في سيناريوهات ساذجة في ظاهرها، وابتكر طريقة لتحليل هذه السيناريوهات ووضع خرائط للمخاطر تُحدّد تلك الأخطار في التطبيقات الفعلية.
وفي هذا الصدد يعلّق حمدي: «عادةً ما تُختبر نماذج الذكاء الصناعي للتعرّف على مدى متانتها باستخدام تشويشات نقط الشاشة (البكسل)؛ أي إضافة تشويش إلى صورة ما في محاولة لخداع الشبكة المُدرَّبة تدريباً عميقاً. ومع ذلك، فإن من المستبعد في واقع الأمر أن تحدث تشويشات نقاط الشاشة المصطنعة في التطبيقات الواقعية. ومن الأرجح بكثير أن تحدث سيناريوهات دلالية أو سياقية لم تُدَّرب عليها الشبكات من قبل».
على سبيل المثال، بدلاً من تعرّض نظام القيادة الذاتية إلى صورة مشوشة لشيء ما، من الأرجح أن يتعرَّض النظام إلى شيء ما ذي اتّجاه مختلف أو إلى سيناريو إضاءة لم يتعلَّمها أو يصادفها من قبل. ومن ثمَّ فقد لا يتعرَّف النظام على ما يمكن أن يكون مركبةً أخرى أو أحد المشاة السائرين على مقربة منه. وهذا النوع من الإخفاق هو ما حدث في عدد من الحوادث الجسيمة التي تعرَّضت لها مركبات ذاتية القيادة.
يختتم حمدي حديثه: «ينطوي نهجُنا على تدريب شبكة عميقة أخرى كي تتحدَّى نموذج التعلَّم العميق. وسيسمح لنا ذلك التحدي بالكشف عن نقاط ضعف وقوة نموذج الذكاء الصناعي المزمع استخدامه في نهاية المطاف في التطبيقات».
ويتوقَّع الباحثون أن يُسهم نهج الذكاء الصناعي الخاص بهم في تطوير نماذج ذكاء صناعي قوية والتحقق من تقنيات التعلّم العميق قبل تطبيقها.



«مرايا» الذكاء الاصطناعي تعكس دواخلها «مع كل التحيزات»

«بوابة السحاب» مرآة تعكس الحياة وتشوهاتها
«بوابة السحاب» مرآة تعكس الحياة وتشوهاتها
TT

«مرايا» الذكاء الاصطناعي تعكس دواخلها «مع كل التحيزات»

«بوابة السحاب» مرآة تعكس الحياة وتشوهاتها
«بوابة السحاب» مرآة تعكس الحياة وتشوهاتها

قبل بضع سنوات، وجدت شانون فالور نفسها أمام تمثال «بوابة السحاب (Cloud Gate)»، الضخم المُصمَّم على شكل قطرة زئبقية من تصميم أنيش كابور، في حديقة الألفية في شيكاغو. وبينما كانت تحدق في سطحه اللامع المرآتي، لاحظت شيئاً، كما كتب أليكس باستيرناك (*).

وتتذكر قائلة: «كنت أرى كيف أنه لا يعكس أشكال الأفراد فحسب، بل والحشود الكبيرة، وحتى الهياكل البشرية الأكبر مثل أفق شيكاغو... ولكن أيضاً كانت هذه الهياكل مشوَّهة؛ بعضها مُكبَّر، وبعضها الآخر منكمش أو ملتوٍ».

الفيلسوفة البريطانية شانون فالور

تشويهات التعلم الآلي

بالنسبة لفالور، أستاذة الفلسفة في جامعة أدنبره، كان هذا يذكِّرنا بالتعلم الآلي، «الذي يعكس الأنماط الموجودة في بياناتنا، ولكن بطرق ليست محايدة أو موضوعية أبداً»، كما تقول. أصبحت الاستعارة جزءاً شائعاً من محاضراتها، ومع ظهور نماذج اللغة الكبيرة (والأدوات الكثيرة للذكاء الاصطناعي التي تعمل بها)، اكتسبت مزيداً من القوة.

مرايا الذكاء الاصطناعي مثل البشر

تبدو «مرايا» الذكاء الاصطناعي مثلنا كثيراً؛ لأنها تعكس مدخلاتها وبيانات التدريب، مع كل التحيزات والخصائص التي يستلزمها ذلك. وبينما قد تنقل القياسات الأخرى للذكاء الاصطناعي شعوراً بالذكاء الحي، فإن «المرآة» تعبير أكثر ملاءمة، كما تقول فالور: «الذكاء الاصطناعي ليس واعياً، بل مجرد سطح مسطح خامل، يأسرنا بأوهامه المرحة بالعمق».

غلاف كتاب «مرايا الذكاء الاصطناعي»

النرجسية تبحث عن صورتها

كتابها الأخير «مرآة الذكاء الاصطناعي (The AI Mirror)»، هو نقد حاد وذكي يحطِّم عدداً من الأوهام السائدة التي لدينا حول الآلات «الذكية». يوجه بعض الاهتمام الثمين إلينا نحن البشر. في الحكايات عن لقاءاتنا المبكرة مع برامج الدردشة الآلية، تسمع أصداء نرجس، الصياد في الأساطير اليونانية الذي وقع في حب الوجه الجميل الذي رآه عندما نظر في بركة من الماء، معتقداً بأنه شخص آخر. تقول فالور، مثله، «إن إنسانيتنا مُعرَّضة للتضحية من أجل هذا الانعكاس».

تقول الفيلسوفة إنها ليست ضد الذكاء الاصطناعي، لكي نكون واضحين. وسواء بشكل فردي، أو بصفتها المديرة المشارِكة لمنظمة «BRAID»، غير الربحية في جميع أنحاء المملكة المتحدة المكرسة لدمج التكنولوجيا والعلوم الإنسانية، قدَّمت فالور المشورة لشركات وادي السيليكون بشأن الذكاء الاصطناعي المسؤول.

نماذج «مسؤولة» ومختبرة

وهي ترى بعض القيمة في «نماذج الذكاء الاصطناعي المستهدفة بشكل ضيق والآمنة والمختبرة جيداً والمبررة أخلاقياً وبيئياً» لمعالجة المشكلات الصحية والبيئية الصعبة. ولكن بينما كانت تراقب صعود الخوارزميات، من وسائل التواصل الاجتماعي إلى رفاق الذكاء الاصطناعي، تعترف بأن ارتباطها بالتكنولوجيا كان مؤخراً «أشبه بالوجود في علاقة تحوَّلت ببطء إلى علاقة سيئة. أنك لا تملك خيار الانفصال».

فضائل وقيم إنسانية

بالنسبة لفالور، إحدى الطرق للتنقل وإرشاد علاقاتنا المتزايدة عدم اليقين بالتكنولوجيا الرقمية، هي الاستفادة من فضائلنا وقيمنا، مثل العدالة والحكمة العملية. وتشير إلى أن الفضيلة لا تتعلق بمَن نحن، بل بما نفعله، وهذا جزء من «صراع» صنع الذات، بينما نختبر العالم، في علاقة مع أشخاص آخرين. من ناحية أخرى، قد تعكس أنظمة الذكاء الاصطناعي صورة للسلوك أو القيم البشرية، ولكن كما كتبت في كتابها، فإنها «لا تعرف عن التجربة الحية للتفكير والشعور أكثر مما تعرف مرايا غرف نومنا آلامنا وأوجاعنا الداخلية».

الخوارزميات والعنصرية وعدم المساواة

في الوقت نفسه تعمل الخوارزميات المدربة على البيانات التاريخية، بهدوء، على تقييد مستقبلنا بالتفكير نفسه الذي ترك العالم «مليئاً بالعنصرية والفقر، وعدم المساواة، والتمييز، وكارثة المناخ».

«كيف سنتعامل مع تلك المشكلات الناشئة التي ليست لها سابقة؟»، تتساءل فالور، وتشير: «مرايانا الرقمية الجديدة تشير إلى الوراء».

الاعتماد على السمات البشرية المفيدة

مع اعتمادنا بشكل أكبر على الآلات، وتحسينها وفقاً لمعايير معينة مثل الكفاءة والربح، تخشى فالور أننا نخاطر بإضعاف عضلاتنا الأخلاقية أيضاً، وفقدان المسار للقيم التي تجعل الحياة تستحق العناء.

مع اكتشافنا لما يمكن أن يفعله الذكاء الاصطناعي، سنحتاج إلى التركيز على الاستفادة من السمات البشرية الفريدة أيضاً، مثل التفكير القائم على السياق والحكم الأخلاقي، وعلى تنمية قدراتنا البشرية المتميزة. كما تعلمون. وهي تقول: «لسنا بحاجة إلى هزيمة الذكاء الاصطناعي. نحن بحاجة إلى عدم هزيمة أنفسنا».

* مجلة «فاست كومباني» - خدمات «تريبيون ميديا»

اقرأ أيضاً