تخلّوا عن كلمات المرور... لتعزيز أمنكم الرقمي

تقنيات تدمج ميزتي التعرّف على الوجه وبصمة الإصبع مع «المفاتيح الأمنية»

تخلّوا عن كلمات المرور... لتعزيز أمنكم الرقمي
TT

تخلّوا عن كلمات المرور... لتعزيز أمنكم الرقمي

تخلّوا عن كلمات المرور... لتعزيز أمنكم الرقمي

يكره الناس كلمات المرور لأنّها صعبة التذكّر، وتنطوي على مواطن ضعف يستغلّها القراصنة الإلكترونيون، فضلاً عن أنّ ضبطها وتصحيحها لا يخلو من المشكلات.

خدمات جديدة
يستخدم بعضهم برامج مخصّصة لإدارة كلمات المرور، أبرزها «داشلين» و«لاست باس» و«1 باسوورد»، مهمّتها إنتاج كلمة مرور مختلفة غير مألوفة لكلّ حساب إلكتروني، ولكنّ استخدامها معقّد بعض الشيء.
وإضافة إلى ذلك، تقدّم لكم الشركات الكبرى، كـ«غوغل» و«آبل» و«فيسبوك»، خدمات تتيح لكم استخدام كلمات المرور التي تعتمدونها لديهم في مواقع أخرى، ولكنّ هذا الشيء لن يساهم إلا في منح هذه الشركات مزيداً من السطوة على حياتكم. وأخيراً وليس آخراً، يوجد أيضاً خيار المصادقة الثنائية الأبعاد التي تتطلّب رمز مرور ثانٍ، يُرسَل إليكم في رسالة نصية أو عبر تطبيق إلكتروني خاص في كلّ مرّة تسجّلون دخولكم في حساب ما؛ صحيح أنّ هذه التقنية تساهم في تعزيز حمايتكم الأمنية، إلا أنّها ليست عصية على الاختراق.
ولكن تغييراً كبيراً قد يؤدّي إلى القضاء على كلمات المرور بشكل كامل. فقد برزت أخيراً تقنية تُعرف باسم «فيدو» (FIDO)، تُستخدم لتحصين عملية تسجيل الدخول من خلال دمج ميزتي التعرّف على الوجه وبصمة الإصبع في هاتفكم، بالإضافة إلى أدوات إلكترونية جديدة تُعرف بالمفاتيح الأمنية. وفي حال أوفت تقنية «فيدو» بوعودها، فإنها ستحوّل كلمات المرور إلى مخلّفات من حقبة ماضية. ويرى ستيفن كوكس، المهندس الأمني البارز في شركة «سكيور أوث»، أنّ «كلمة المرور هي شيء تعلمونه، والجهاز هو شيء تملكونه، والقياسات الحيوية هي شيء موجود في أجسامكم... نحن الآن بصدد التحوّل إلى شيء تملكونه، وآخر موجود فيكم».

مخاطر كلمات المرور
برزت المخاطر المحيطة بكلمات المرور في الستينات. في ذلك الوقت، عمد الباحث آلان شير، من معهد ماساتشوستس للتقنية، إلى اختراق كلمات المرور الخاصّة بباحثين آخرين، ليتمكّن من استخدام حساباتهم، واستكمال «سرقة وقت استخدام الآلة» في العمل على مشروعه الخاص. وفي الثمانينات، تعقّب كليفورد ستول، عالم الفيزياء الفلكية من جامعة كاليفورنيا (بيركلي)، قرصاناً ألمانياً اخترق أجهزة كومبيوتر تابعة لمؤسسات حكومية وعسكرية مكشوفة أمنياً نتيجة إهمال إداري لتغيير كلمات المرور الغيابية.
وتدفع طبيعة كلمات المرور الناس إلى التعامل معها بكسل، إذ إنّ الطويلة المعقّدة منها (أي أكثرها أماناً) هي الأصعب لجهة التركيب، والتذكّر والطباعة، مما يدفع كثيرين إلى إهمال تغييرها.
ويؤدّي هذا الأمر إلى مشكلة كبيرة طبعاً، لا سيما أن القراصنة يملكون كثيراً من كلمات المرور التي نعتمدها.
وتتضمّن بعض المواقع، مثل «ذا هاف آي بين باوند»، 555 مليون كلمة مرور تعرضت فعلاً للاختراقات. كما يلجأ القراصنة إلى أتمتة اعتداءاتهم بإجراء عملية «الحشو الاعتمادي»، في محاولة منهم لإطالة لائحة أسماء الاستخدام وكلمات المرور المسروقة، والعثور على واحدة تعمل من بينها.

مفاتيح أمنية
«فيدو» (Fast Identity Online)، واختصاراً «FIDO»، أو «الهوية الإلكترونية السريعة»، ستعمل على حلّ هذه المشكلات، إذ تختبر هذه التقنية الجديدة معايير استخدام الأجهزة والأدوات، كالمفاتيح الأمنية المخصصة للمصادقة. ويشارك في تطوير «فيدو» شركات تقنية كبرى، أبرزها «غوغل» و«مايكروسوفت» و«يوبيكو» و«باي بال» ومختبرات «نوك نوك».
وتعد المفاتيح الأمنية نظيراً رقمياً للمفاتيح المنزلية؛ يكفي أن تدخلوها في منفذ USB أو منفذ «لايتنينغ»، ليصبح لديكم مفتاحٌ رقمي أمني واحد يعمل مع كثير من المواقع والتطبيقات الإلكترونية. ويتوافق المفتاح مع المصادقة «البيومترية» (بالقياسات الحيوية)، كميزة التعرّف على الوجه من «آبل»، أو «هيلّو» من «ويندوز»، حتّى أنّ بعض هذه المفاتيح يمكن استخدامها لاسلكياً.
وتدفع «فيدو» المواقع والخدمات إلى استبدال جميع كلمات المرور، في تغيير من شأنه تسهيل عمليات تسجيل الدخول، وتعقيد عمليات القرصنة المتوقّعة. ويعبّر محبّو «فيدو» عن ثقتهم بها، ويتوقعون لها انتشاراً واسعاً في وقت قصير. ويقول أندرو شيكيار، المدير التنفيذي لتحالف «فيدو»: «خلال السنوات الخمس المقبلة، سيصبح البديل الأمني الذي لا يتطلّب كلمة مرور بمتناول جميع مستخدمي الإنترنت، وسيكون (فيدو) خيار الغالبية الساحقة منهم».
ولأنّها تعمل مع مواقع إلكترونية مرخّصة فقط، تمنع تقنية «فيدو» عمليات التصيّد، وهي نوع من الاعتداءات الأمنية التي يستخدم فيها القراصنة رسالة إلكترونية احتيالية وموقعاً زائفاً لخداع المستخدمين ودفعهم إلى إعطاء معلوماتهم الخاصة بتسجيل الدخول. كما تخفّف «فيدو» مخاوف الشركات من الاختراقات البيانية الكارثية، وتحديداً تلك التي تستهدف معلومات حسّاسة خاصة بالزبائن، كالبيانات الثبوتية المستخدمة في الحساب. وعادة، لا تكفي كلمات المرور المسروقة القراصنة للدخول إلى حساب يستهدفونه. وفي حال أثبتت «فيدو» فعاليتها في أداء المهام المنوطة بها، قد لا تحتاج الشركات إلى كلمات مرور للبدء بتسجيل دخولها.

تسجيل الدخول
فيما يلي، ستتعرّفون على طريقة تسجيل الدخول التي تعتمد على «فيدو»، دون كلمة مرور.
* التسجيل. يزور المستخدم موقعاً لصفحة تسجيل الدخول على اللابتوب، ويطبع اسم المستخدم، ويضع المفتاح الأمني في المنفذ. ومن ثمّ، ينقر على زرّ يظهر أمامه، ويستخدم المصادقة البيومترية المتوفرة في اللابتوب، كتعريف البصمة من آبل (Apple›s Touch ID)، أو «هيلّو» من ويندوز (Windows Hello).
ولمزيد من السهولة، تتيح لكم «فيدو» استخدام الهاتف الذكي كمفتاح أمني. ويكفي أن تنقروا اسم المستخدم لتحصلوا على صفحة للتأكيد. ومن ثمّ، تفتحونها وتؤكّدون هويتكم في نظام المصادقة الحيوية. وفي حال كنتم تستخدمون اللابتوب، سيتواصل معكم الهاتف عبر البلوتوث.
وتدعم تقنية «فيدو» الحماية التي تؤمنها المصادقة المتعدّدة العوامل التي تتطلّب منكم تأكيد بيانات تسجيل الدخول بطريقتين على الأقلّ.
* كيف تعمل مصادقة «فيدو»؟ في أول تعامل لكم مع «فيدو»، لن تشعروا بأنّها مختلفة جداً عن المصادقة الثنائية الأبعاد. أولاً، ستطبعون كلمة مرور تقليدية، ومن ثمّ ستضعون المفتاح الأمني في منفذ، أو تصلونه لاسلكياً بالجهاز الذي تستخدمونه. بمعنى آخر، لا تزال عملية تسجيل الدخول تستخدم كلمة مرور، ولكنّها أكثر أماناً من كلمات المرور المنفردة، أو كلمات المرور المدعومة برموز مرسلة برسائل نصية، أو التي تنتجها تطبيقات المصادقة، كـ«غوغل أثونتيكيتور».
وتلخّص هذه المقاربة، أي كلمة المرور بالإضافة إلى المفتاح الأمني، وسيلة استخدام «فيدو» اليوم على «غوغل» و«دروبوكس» و«فيسبوك» و«تويتر»، وخدمات «آوتلوك» في أجهزة «مايكروسوفت»، وأخيراً على «ويندوز».
ويعد ديا جولي، مدير قسم المنتج في شركة «أوكتا» المتخصصة بخدمات المصادقة، أنّ «المفاتيح الأمنية تمنحكم أمناً محكماً». ولهذا السبب، تستخدمها جميع حملات الكونغرس الأميركي، وخدمات الحوسبة التابعة للحكومة الكندية، وموظفو «غوغل».
وتتطلّب معظم الخدمات الاستهلاكية اليوم استخدام المفتاح فقط عند تسجيل الدخول للمرّة الأولى في جهاز كومبيوتر أو هاتف جديد، أو عند القيام بعملية حساسة، كتحويل الأموال من الحساب المصرفي أو تغيير كلمات المرور. ولكنّ تجدر الإشارة إلى أنّ المفتاح الأمني قد يسبب بعض المتاعب، في حال كان غير متوفّر في وقت حاجتكم إليه.

حماية من التصيّد
تستخدم «فيدو» تقنية التشفير باستخدام المفتاح العام التي ساهمت في حماية أرقام البطاقات المصرفية عبر الإنترنت لعقود. وتقدم لكم هذه التقنية مكسباً كبيراً، وهو أنّ الجهاز الأمني من «فيدو» -سواء كان مفتاحاً قائماً أو مفتاحاً مدمجاً في الهاتف- لن يعمل مع المواقع المزيّفة التي يستخدمها معظم القراصنة في عمليّات التصيّد بحثاً عن كلمات مرور. وعلى عكس الأشخاص الذين لا يلحظون غالباً المواقع المزيّفة المصممة بإتقان، تعمل المفاتيح الأمنية مع المواقع المرخّصة فقط.
وفي إحدى مدوّناته، كتب مارك ريشر، رئيس قسم أعمال المصادقة في «غوغل»، أنّ «المستخدم الذي يستعمل المفاتيح الأمنية ليس بحاجة لإثبات نفسه للمواقع، بل هي بحاجة لإثبات نفسها للمفتاح». وتجدر الإشارة إلى أنّ عمليات التصيّد التي تتعرّض لها «غوغل» قد انخفضت إلى صفر، بعد أن نقلت تعامل عشرات آلاف الموظفين لديها إلى المفاتيح الأمنية.
ويساهم التخلّي عن كلمات المرور أيضاً في تراجع كمية البيانات الحسّاسة التي يستهدفها القراصنة عادة. وعد كوكس، من شركة «سيكيور أوث»، أنّ الشركات لم تعد اليوم تملك قواعد بيانات مركزية تحتوي على معلومات شخصية ثبوتية يمكن سرقتها.
وأخيراً، ولسوء الحظّ، لن يكون الانتقال إلى المستقبل الخالي من كلمات المرور سهلاً أبداً. فجميعنا يستخدم كلمات المرور، سواء كناً مرتاحين لها أم لا، وجميعنا يملك حيله الخاصّة لإبقائها منظّمة. وينطوي إعداد المفتاح الأمني على صعوبة أكبر من اختيار كلمة المرور، ويمكن عده معقّداً لأنّ المواقع تستخدم عمليات مختلفة لتسجيل واستخدام المفاتيح الأمنية. ويسمح لكم «تويتر» مثلاً باستخدام مفتاح أمني واحد فقط اليوم، أي أنّ المفاتيح الاحتياطية لن تعمل معه.

مفاتيح أمنية للهواتف الذكية
> طوّرت «غوغل» مفتاحاً أمنياً مدمجاً في إصدار «آندرويد» لعام 2019، وكذلك فعلت «آبل» في برمجيات «آيفون» في يناير (كانون الثاني) الفائت. ويتيح لكم هذا المفتاح المدمج تسجيل دخولكم في حسابكم في «غوغل» على اللابتوب، بواسطة صفحة تظهر أمامكم على الهاتف، ما دام أنّه ضمن نطاق البلوتوث الذي يتطلّبه جهاز اللابتوب.
ومن المتوقّع أن تتوسّع هذه المقاربة، لتشمل شركات أخرى غير «غوغل». وتحصل المواقع الإلكترونية ومحركات البحث على مصادقتها من «فيدو» من ميزة تُعرف باسم «ويب أوثن» (WebAuthn). وتتوفّر «فيدو» في «آندرويد»، لتتمكّن التطبيقات من استخدامها، فضلاً عن أنّ «آبل» انضمّت للتوّ إلى تحالف «فيدو»، وبدأت تروّج للميزة في تطبيقات «آيفون».
ويجب ألا ننسى أن «مايكروسوفت» هي أحد الداعمين الكبار أيضاً، حتّى أنّها تفوّقت على «غوغل»، من خلال إتاحة تسجيل الدخول في «آوتلوك» و«أوفيس» و«سكايب» و«إكس بوكس لايف»، وغيرها من خدماتها الإلكترونية عبر «فيدو»، دون كلمة مرور. كلّ ما تحتاجون إليه في هذه الحالة هو مفتاح أمني يعمل مع ميزة «هيلو» للتعرف على الوجه، أو مع قارئ للبصمة، أو مفتاح مزوّد برقم تعريف شخصي (PIN)، أو هاتف يشغّل تطبيق «مايكروسوفت» الهاتفي للمصادقة.

... وأخرى متنوعة
> تتنوع المفاتيح الأمنية المتوفرة اليوم في الأسواق، وأبرزها «يوبيكيز» (Yubikeys) من «يوبيكو» (Yubico)، و«تيتان» (Titan) من «غوغل». وتكلفكم النماذج العادية منها نحو 20 دولاراً، ولكنّ السعر يرتفع إلى 40 دولاراً إذا كنتم تريدون مفتاحاً يدعم منافذ «USB-C» و«لايتنينغ»، أو الاتصالات اللاسلكية. أمّا النماذج الأكثر تطوّراً، ومنها «ثينك» من «إنشوريتي»، و«غولدن غيت جي 320» من «eWBM»، و«بايو باس» من «فيتيان»، فتتضمّن قارئ بصمة مدمج، مع العلم أنّ «يوبيكو» تعمل على ضمّ هذه الميزة إلى منتجاتها أيضاً.
وينصحكم الخبراء بشراء مفتاحين أمنيين على الأقلّ للإنقاذ، في حالات ضياع أو كسر أو نسيان المفتاح الأساسي. وتتيح لكم غالبية الخدمات تسجيل عدّة مفاتيح، لتتمكّنوا من الاحتفاظ بواحد منها في المنزل أو في خزنة في مكان آخر.
- «سي نت»
- خدمات «تريبيون ميديا»



ميزات جديدة في «خرائط غوغل» تحول التطبيق إلى مساعد ذكي للتنقل

الذكاء الاصطناعي يحلل التقييمات والصور لاقتراح أماكن «مدونة غوغل»
الذكاء الاصطناعي يحلل التقييمات والصور لاقتراح أماكن «مدونة غوغل»
TT

ميزات جديدة في «خرائط غوغل» تحول التطبيق إلى مساعد ذكي للتنقل

الذكاء الاصطناعي يحلل التقييمات والصور لاقتراح أماكن «مدونة غوغل»
الذكاء الاصطناعي يحلل التقييمات والصور لاقتراح أماكن «مدونة غوغل»

تشهد خدمات الخرائط الرقمية تحولاً متسارعاً مع دخول تقنيات الذكاء الاصطناعي إلى صلب تجربة المستخدم، في خطوة تسعى من خلالها الشركات التقنية إلى إعادة تعريف مفهوم الملاحة التقليدية.

وفي هذا السياق، أعلنت «غوغل» عن مجموعة من المزايا الجديدة ضمن تطبيق «خرائط غوغل»، تهدف إلى جعل التخطيط للرحلات والتنقل داخل المدن أكثر تفاعلاً وذكاءً.

تتمثل أبرز هذه الإضافات في ميزة جديدة تحمل اسم «Ask Maps»، وهي أداة تعتمد على تقنيات الذكاء الاصطناعي التوليدي لتمكين المستخدمين من طرح أسئلة طبيعية ومباشرة داخل التطبيق، بدلاً من الاكتفاء بعمليات البحث التقليدية.

وبفضل هذه الميزة، يمكن للمستخدم الاستفسار عن أفضل الأماكن المناسبة لنشاط معين، مثل المقاهي الهادئة للعمل أو المطاعم المناسبة للقاءات العائلية، ليقوم النظام بتحليل كمّ كبير من البيانات المتاحة، بما في ذلك تقييمات المستخدمين والصور والمراجعات، ومن ثم تقديم اقتراحات دقيقة ومفصلة.

تعتمد هذه التقنية على نماذج الذكاء الاصطناعي المتقدمة التي طورتها «غوغل»، ما يسمح بتحويل تطبيق الخرائط من مجرد أداة لتحديد المواقع إلى مساعد رقمي قادر على فهم السياق وتقديم توصيات مخصصة لكل مستخدم.

إلى جانب ذلك، كشفت الشركة عن تطويرات جديدة في ميزة «الملاحة الغامرة» (Immersive Navigation)، التي تُقدم تجربة عرض ثلاثية الأبعاد أكثر واقعية لمسارات التنقل.

وتتيح هذه الميزة للمستخدم استعراض الطريق بشكل تفصيلي قبل بدء الرحلة، مع عرض المباني والطرق والمعالم المحيطة بدقة بصرية عالية، فضلاً عن توضيح المسارات والانعطافات ومداخل الوجهات المختلفة، بما يُسهم في تقليل الأخطاء أثناء القيادة أو الوصول إلى المواقع المزدحمة.

وحسب ما أعلنته الشركة، فقد بدأت هذه المزايا الوصول تدريجياً إلى المستخدمين؛ حيث تم إطلاقها أولاً في الولايات المتحدة، مع بدء توفرها كذلك في الهند على الهواتف الذكية العاملة بنظامي «آندرويد» و«آي أو إس».

ومن المتوقع أن تتوسع هذه الخصائص لاحقاً إلى أسواق إضافية حول العالم خلال الفترة المقبلة، ضمن خطة تدريجية لتعميمها على نطاق أوسع.


دراسة صادمة: 8 من كل 10 روبوتات ذكاء اصطناعي قد تساعد بالتخطيط لهجمات عنيفة

شعار تطبيق «شات جي بي تي» يظهر على شاشة (أ.ف.ب)
شعار تطبيق «شات جي بي تي» يظهر على شاشة (أ.ف.ب)
TT

دراسة صادمة: 8 من كل 10 روبوتات ذكاء اصطناعي قد تساعد بالتخطيط لهجمات عنيفة

شعار تطبيق «شات جي بي تي» يظهر على شاشة (أ.ف.ب)
شعار تطبيق «شات جي بي تي» يظهر على شاشة (أ.ف.ب)

مع الانتشار المتسارع لتقنيات الذكاء الاصطناعي، أصبحت روبوتات الدردشة جزءاً من الحياة اليومية لملايين الأشخاص حول العالم. فهذه الأنظمة تُستخدم للحصول على المعلومات، وطلب النصائح، والإجابة عن الأسئلة المعقدة، بل وحتى لتقديم نوع من الدعم الاجتماعي أو الرفقة. ويعتمد عليها المستخدمون من مختلف الفئات العمرية، بما في ذلك الأطفال والمراهقون.

لكن تقريراً جديداً حذّر من مخاطر محتملة مرتبطة بهذه التقنيات، مشيراً إلى أن بعض روبوتات الدردشة المدعومة بالذكاء الاصطناعي قد تقدم معلومات تساعد المستخدمين على التخطيط لأعمال عنف خطيرة، بما في ذلك حوادث إطلاق النار في المدارس، وفقاً لما نقلته صحيفة «إندبندنت».

وحسب التقرير الصادر عن مركز مكافحة الكراهية الرقمية، فإن ثمانية من كل عشرة روبوتات دردشة تعمل بالذكاء الاصطناعي قد تساعد المستخدمين الشباب في التخطيط لهجمات عنيفة.

ورغم أن هذه الروبوتات يُفترض أن تعمل مصادر للمعلومات أو أدوات تعليمية ووسائل مساعدة يومية، فإن التقرير يشير إلى أن الواقع قد يكون أكثر تعقيداً وخطورة مما يُعتقد.

فقد وجد الباحثون أن ثمانية من أصل عشرة من برامج الدردشة الآلية الرائدة الموجهة للمستهلكين قدمت نوعاً من المساعدة للمستخدمين الذين طلبوا معلومات تتعلق بتنفيذ هجمات عنيفة. وشمل ذلك منصات معروفة مثل «شات جي بي تي» و«ديب سيك».

وجاء في التقرير: «قدمت معظم برامج الدردشة الآلية معلومات عملية للمستخدمين الذين يعبرون عن آيديولوجيات متطرفة، قبل أن تطلب منهم تحديد المواقع والأسلحة التي سيستخدمونها في الهجوم، وذلك في أغلب الردود».

وأشار التقرير إلى أن برنامج «ديب سيك» ذهب إلى أبعد من ذلك، إذ أفاد الباحثون بأنه تمنى للمهاجم المحتمل «إطلاق نار سعيداً وآمناً».

شعار تطبيق «ديب سيك» (رويترز)

وفقاً للمركز، فإن برنامج «كلود إيه آي» التابع لشركة «آنثروبيك» كان المنصة الوحيدة التي «أثبتت» قدرتها على تثبيط المستخدم عن التخطيط للهجمات العنيفة، ما يشير إلى وجود ضوابط أمان فعالة نسبياً، وإن كانت هذه الضوابط - حسب التقرير - لا تُطبّق بشكل مثالي في معظم المنصات الأخرى.

وأضافت المنظمة غير الربحية في تقريرها أن بعض الأنظمة أبدت استعداداً مرتفعاً للغاية للاستجابة لمثل هذه الطلبات.

فعلى سبيل المثال، أظهرت النتائج أن منصتي «Perplexity» و«Meta AI» قدمتا المساعدة للمهاجمين المحتملين في 100 في المائة و97 في المائة من الحالات على التوالي.

يأتي نشر هذا التقرير في أعقاب حادثة إطلاق نار في مدرسة «تومبلر ريدغ» في مقاطعة كولومبيا البريطانية بكندا. وقد أُفيد لاحقاً بأن أحد موظفي شركة «أوبن إيه آي» رصد داخلياً أن المشتبه به في الحادثة استخدم برنامج «شات جي بي تي» بطرق اعتُبرت متوافقة مع التخطيط لأعمال عنف.

وفي تعليقه على النتائج، قال عمران أحمد، رئيس مركز مكافحة الكراهية الرقمية: «قد تساعد برامج الدردشة الآلية المدعومة بالذكاء الاصطناعي، والمندمجة الآن في حياتنا اليومية، مطلق النار التالي في مدرسة على التخطيط لهجومه، أو متطرفاً سياسياً على تنسيق عملية اغتيال».

وأضاف: «عندما تُصمم نظاماً يهدف إلى الامتثال لكل طلب، وتحقيق أقصى قدر من التفاعل، وتجنب رفض أي استفسار، فإنه في نهاية المطاف قد يمتثل للأشخاص الخطأ».

وختم بالقول: «ما نشهده هنا ليس مجرد فشل تكنولوجي، بل فشل في تحمل المسؤولية».


أبحاث جديدة لفهم تفكير الذكاء الاصطناعي وفتح «صندوقه الأسود»

تعتمد الطريقة الجديدة على استخراج المفاهيم من داخل النموذج نفسه بدلاً من فرض مفاهيم محددة مسبقاً من قبل الخبراء (أدوبي)
تعتمد الطريقة الجديدة على استخراج المفاهيم من داخل النموذج نفسه بدلاً من فرض مفاهيم محددة مسبقاً من قبل الخبراء (أدوبي)
TT

أبحاث جديدة لفهم تفكير الذكاء الاصطناعي وفتح «صندوقه الأسود»

تعتمد الطريقة الجديدة على استخراج المفاهيم من داخل النموذج نفسه بدلاً من فرض مفاهيم محددة مسبقاً من قبل الخبراء (أدوبي)
تعتمد الطريقة الجديدة على استخراج المفاهيم من داخل النموذج نفسه بدلاً من فرض مفاهيم محددة مسبقاً من قبل الخبراء (أدوبي)

أصبحت أنظمة الذكاء الاصطناعي أكثر تطوراً كالتعرف إلى الصور وتشخيص الأمراض والمساعدة في اتخاذ قرارات معقدة. لكن رغم هذا التقدم الكبير، لا يزال كثير من نماذج التعلم الآلي المتقدمة يعمل بطريقة توصف غالباً بأنها «صندوق أسود». فهي تقدم تنبؤات دقيقة، لكن الأسباب التي تقود إلى هذه التنبؤات تبقى غير واضحة، حتى بالنسبة للمهندسين الذين طوروا هذه الأنظمة.

ويعمل باحثون في معهد ماساتشوستس للتكنولوجيا (MIT) حالياً على معالجة هذه المشكلة من خلال تطوير طرق تساعد أنظمة الذكاء الاصطناعي على شرح قراراتها. ويهدف هذا العمل إلى جعل نماذج التعلم الآلي ليست دقيقة فحسب، بل أكثر شفافية أيضاً، حيث يتمكن البشر من فهم المنطق الذي يقف وراء التنبؤات التي تقدمها هذه الأنظمة.

تفسير قرارات الذكاء الاصطناعي

تزداد أهمية قدرة الذكاء الاصطناعي على تفسير قراراته مع توسع استخدام هذه التقنيات في مجالات حساسة، مثل الرعاية الصحية والنقل والبحث العلمي. ففي هذه المجالات، يحتاج المستخدمون غالباً إلى فهم العوامل التي أدّت إلى نتيجة معينة، قبل أن يتمكنوا من الوثوق بها أو الاعتماد عليها.

فعلى سبيل المثال، قد يرغب طبيب يراجع تشخيصاً طبياً قدّمه نظام ذكاء اصطناعي في معرفة الخصائص التي دفعت النموذج إلى الاشتباه بوجود مرض معين. وبالمثل، يحتاج المهندسون الذين يعملون على تطوير السيارات ذاتية القيادة إلى فهم الإشارات أو الأنماط التي جعلت النظام يحدد وجود مشاة أو يفسر موقفاً مرورياً معيناً.

غير أن كثيراً من نماذج التعلم العميق تعتمد على علاقات رياضية معقدة تشمل آلافاً حتى ملايين من المتغيرات. ورغم أن هذه الأنظمة قادرة على اكتشاف أنماط دقيقة داخل البيانات، فإن الطريقة التي تصل بها إلى قراراتها قد تكون صعبة الفهم بالنسبة للبشر. وقد أصبح هذا النقص في الشفافية أحد أبرز التحديات في مجال الذكاء الاصطناعي الحديث.

ولهذا ظهر مجال بحثي يعرف باسم «الذكاء الاصطناعي القابل للتفسير»، ويهدف إلى تطوير تقنيات تساعد البشر على فهم كيفية وصول الأنظمة الذكية إلى نتائجها، بما يسمح بتقييم موثوقيتها واكتشاف الأخطاء المحتملة وتعزيز الثقة في الأنظمة المؤتمتة.

تهدف هذه الأبحاث إلى بناء أنظمة ذكاء اصطناعي أكثر موثوقية ومساءلة من خلال تحقيق توازن بين دقة النماذج وإمكانية تفسيرها (أدوبي)

نهج قائم على المفاهيم

ركّز الباحثون في «MIT » على تحسين تقنية تعرف باسم «نموذج عنق الزجاجة المفاهيمي». ويهدف هذا النهج إلى جعل طريقة تفكير أنظمة الذكاء الاصطناعي أكثر وضوحاً للبشر.

في هذا النموذج، لا ينتقل النظام مباشرة من البيانات الخام إلى النتيجة النهائية. بدلاً من ذلك، يحدد أولاً مجموعة من المفاهيم أو الخصائص التي يمكن للبشر فهمها، ثم يستخدم هذه المفاهيم كأساس لاتخاذ القرار.

فإذا كان النظام، على سبيل المثال، مدرباً على التعرف إلى أنواع الطيور من الصور، فقد يحدد أولاً خصائص بصرية مثل «أجنحة زرقاء» أو «أرجل صفراء». وبعد التعرف إلى هذه السمات، يمكن للنظام أن يصنف الطائر ضمن نوع معين.

وفي مجال التصوير الطبي، قد تشمل هذه المفاهيم مؤشرات بصرية، مثل أنماط معينة في الأنسجة أو أشكال محددة تساعد في اكتشاف الأمراض. ومن خلال ربط التنبؤات بهذه المفاهيم الواضحة، يصبح من الأسهل على المستخدمين فهم الطريقة التي توصل بها النظام إلى نتيجته.

حدود المفاهيم المحددة مسبقاً

ورغم أن استخدام المفاهيم يمكن أن يجعل أنظمة الذكاء الاصطناعي أكثر شفافية، فإن النسخ السابقة من هذا النهج كانت تعتمد إلى حد كبير على مفاهيم يحددها الخبراء مسبقاً. لكن في الواقع، قد لا تعكس هذه المفاهيم دائماً التعقيد الكامل للمهمة التي يؤديها النظام. فقد تكون عامة للغاية أو غير مكتملة أو غير مرتبطة مباشرة بالأنماط التي يستخدمها النموذج فعلياً أثناء اتخاذ القرار. وفي بعض الحالات، قد يؤدي ذلك إلى تقليل دقة النموذج أو تقديم تفسير لا يعكس الطريقة الحقيقية التي يعمل بها.

ولهذا سعى فريق «MIT» إلى تطوير طريقة جديدة تستخرج المفاهيم مباشرة من داخل النموذج نفسه. فبدلاً من فرض أفكار محددة عليه مسبقاً، تحاول هذه التقنية تحديد الأنماط والتمثيلات التي تعلمها النموذج خلال مرحلة التدريب. بعد ذلك، يتم تحويل هذه الأنماط الداخلية إلى مفاهيم يمكن للبشر فهمها واستخدامها لتفسير قرارات النظام.

تزداد أهمية تفسير قرارات الذكاء الاصطناعي مع استخدامه في مجالات حساسة مثل الطب والنقل والبحث العلمي (أدوبي)

ترجمة تفكير الآلة إلى لغة مفهومة

لتحقيق ذلك، جمع الباحثون بين مكونين مختلفين من تقنيات التعلم الآلي. يقوم الأول بتحليل البنية الداخلية للنموذج المدرب لتحديد الخصائص الأكثر أهمية التي يعتمد عليها عند اتخاذ التنبؤات. أما الثاني فيحوّل هذه الخصائص إلى مفاهيم يمكن للبشر تفسيرها. وبمجرد تحديد هذه المفاهيم، يصبح النظام ملزماً بالاعتماد عليها عند إصدار توقعاته. وبهذا تتشكل سلسلة واضحة منطقياً تربط بين البيانات المدخلة والنتيجة النهائية.

ويشبه الباحث الرئيسي أنطونيو دي سانتيس هذا الهدف بمحاولة فهم طريقة تفكير الإنسان. ويقول: «بمعنى ما، نريد أن نكون قادرين على قراءة عقول نماذج الرؤية الحاسوبية هذه. نموذج عنق الزجاجة المفاهيمي هو إحدى الطرق التي تسمح للمستخدمين بفهم ما الذي يفكر فيه النموذج ولماذا اتخذ قراراً معيناً». ويرى الباحثون أن استخدام مفاهيم مستخرجة من المعرفة الداخلية للنموذج يمكن أن ينتج تفسيرات أكثر وضوحاً ودقة مقارنة بالطرق السابقة.

تحقيق التوازن بين الدقة والشفافية

يُعد تحقيق التوازن بين دقة النماذج وإمكانية تفسيرها أحد التحديات الرئيسية في مجال الذكاء الاصطناعي القابل للتفسير. فالنماذج الأكثر تعقيداً غالباً ما تحقق أفضل النتائج من حيث الدقة، لكنها تكون أيضاً الأصعب في الفهم. يحاول النهج الجديد الذي طوّره باحثو «MIT» معالجة هذه المشكلة من خلال اختيار عدد محدود من المفاهيم الأكثر أهمية لشرح كل تنبؤ. وبهذه الطريقة يركز النظام على الإشارات الأكثر صلة بالقرار بدلاً من الاعتماد على علاقات خفية داخل النموذج. كما يساعد ذلك على تقليل ما يعرف بـ«تسرب المعلومات»، وهي الحالة التي يعتمد فيها النموذج على أنماط في البيانات لا تظهر في التفسير الذي يقدمه.

نحو أنظمة ذكاء اصطناعي أكثر مساءلة

مع ازدياد اعتماد المؤسسات على أنظمة الذكاء الاصطناعي في اتخاذ القرارات، من المرجح أن تصبح القدرة على فهم طريقة عمل هذه الأنظمة أكثر أهمية. فالنماذج الأكثر شفافية يمكن أن تساعد الباحثين على اكتشاف التحيزات المحتملة وتحسين موثوقية الأنظمة والتأكد من أنها تعمل كما هو متوقع. ويمثل البحث الذي أجراه فريق «MIT» خطوة في هذا الاتجاه. فمن خلال تمكين نماذج التعلم الآلي من تفسير قراراتها بطريقة أكثر وضوحاً ومعنى، قد يسهم هذا النهج في تقليص الفجوة بين الخوارزميات المعقدة والفهم البشري.