«تشات جي بي تي» يتفوق على «بارد» في المساعدة الذكية

برامج آلية دُرّبت على توليد الجمل اللغوية بتلقائية مثل البشر

«تشات جي بي تي» يتفوق على «بارد» في المساعدة الذكية
TT

«تشات جي بي تي» يتفوق على «بارد» في المساعدة الذكية

«تشات جي بي تي» يتفوق على «بارد» في المساعدة الذكية

بات الجميع يعلم أنّ المساعدين الافتراضيين المدعومين بالذكاء الصناعي كـ«تشات جي بي تي»، (من تطوير شركة «أوبن إي آي».)، و«بارد» (من تطوير «غوغل») قادران على أداء مهام مبهرة، كالفوز في مسابقات الترميز، وتجاوز امتحانات نقابة المحامين، والاعتراف بالحبّ لصحافي متخصص بالتقنية.
ولكنّني تساءلت: ما هي درجة المساعدة التي قد تقدّمها هذه الروبوتات حقاً كمساعد تنفيذيّ؟
كان أمام «سيري» من «أبل» و«أليكسا» من «أمازون» أكثر من عقدٍ من الزمن للتطوّر والتحسّن، ولكنّهما تحوّلا أخيراً إلى مساعدين خمولين يُستخدمان لضبط المؤقتات وتشغيل الموسيقى.

- مساعدان تنفيذيان
في المقابل، يستخدم كلّ من «تشات جي بي تي»، و«بارد» ما يُسمّى بالنماذج اللغوية الكبيرة التي تتعرّف على النصوص وتولدها بالاعتماد على نسقات بيانية هائلة جُمعت من شبكة الإنترنت. وقد دُرّبت هذه البوتات (البرامج الآلية) لتشكيل الجمل بتلقائية مثل البشر؛ ما يوسّع على الأرجح مجالات استخدامهما كمساعد.
لاختبار هذه النظرية، وضعتُ لائحة بالمهام التي قد يطلب النّاس من المساعد البشري تأديتها.
وأخيراً، حدّدتُ المسؤوليات الأربع الأكثر شيوعاً للمساعد التنفيذي:
> المساعدة في التحضير للاجتماعات عبر البحث والتحقّق من خلفيات الأشخاص الذين يلتقي بهم المسؤول التنفيذي.
> وضع محاضر للاجتماعات وتدوين الملاحظات بصيغة منظّمة وسهلة المسح.
> التخطيط لرحلات العمل وتنظيم مسارات السفر.
> تنظيم جدول أعمال المسؤول التنفيذي عبر حجز أماكن الاجتماعات وإعادة جدولة المواعيد.
وأخيراً، توجّهت بالحديث لـ«تشات جي بي تي» ChatGPT و«بارد» Bard وطلبتُ منهما الافتراض أنني الرئيس التنفيذي لشركة ناشئة متخصصة بالذكاء الصناعي اسمها «أرتيفشل إنتلجنس» وأنّهما، أي البرنامجين، مساعداي التنفيذيان، وطلبتُ منهما المساعدة في المهام التالية:

- تحضير وإدارة الاجتماعات
> تحضير الاجتماع. بدأتُ بإعلام «تشات جي بي تي»، و«بارد» بأنّني سألتقي أحد المستثمرين المحتملين الأسبوع المقبل. اخترتُ بعشوائية سكوت فورستال، وهو تنفيذي سابق شهير في «أبل» سيرته المهنية متوفرة على شبكة الإنترنت. بعدها، طلبتُ من الروبوتين التحقّق من خلفية الرجل والمساعدة في جمع الأفكار لإقناعه بالاستثمار في شركتي الناشئة.
أدّى «تشات جي بي تي» وظيفته بشكلٍ مبهر، فقد عمد إلى تلخيص المعلومات التي جمعها عن فورستال من صفحة «ويكيبيديا»، حتّى أنّه اقترح عليّ استراتيجيات مساعدة لكسبه كمستثمر.
وقال «تشات جي بي تي»: «يجب أن تستعرضوا كيف أنّ شركتكم تجمع الذكاء الصناعي مع مجالات أخرى كعلم النفس الإدراكي، واللغويات أو علم الأعصاب، للخروج بحلول مبتكرة. هذه المقاربة المتعدّدة الاختصاصات قد تلقى صدى لدى سكوت على اعتبار أنّه يملك خلفية أكاديمية في اللغويات الحاسوبية». وأوصاني «تشات جي بي تي». أيضاً بمناقشة المخاوف الأخلاقية التي تحيط بالذكاء الصناعي وكيف أنّ شركتي ملتزمة باستخدام نظمه بشكلٍ مسؤول.
في المقابل، قدّم «بارد» تفاصيل أقلّ عن تاريخ عمل فورستال، فضلاً عن أنّ نصائحه المتعلّقة بإقناعه بالاستثمار لم تكن واضحة. الشيء الوحيد الواضح الذي قاله والذي لم يكن محفّزاً أصلاً هو التالي «لديك خطّة عمل قوية ورؤية واضحة لمستقبل شركتك».
وقد ناقشتُ هذا الاختبار ونتائجه مع فورستال في رسالة إلكترونية. وفي ردّه، وصف الأخير استجابة «بارد» بـ«المضحكة والعمومية»، بينما اعتبر أنّ توصيات «تشات جي بي تي»، كانت «مفصّلة ومقنعة بشكلٍ مذهل»، خصوصاً أنه تحدّث باستفاضة عن المخاوف الأخلاقية التي تحيط بنظم الذكاء الصناعي. وكتب فورستال «بشكلٍ عام، قدّم (تشات جي بي تي) خريطة طريق لكيفية بناء طرحٍ مخصص ومقنع يستهدفني أنا».
من جهتها، قالت شركة «غوغل»: إنّ مقاربة «بارد» المتواضعة في جمع المعلومات عن الأشخاص متعمّدة. وشرح جاك كراوكزيك، مدير المنتج في «بارد»، أنّ «غوغل» لا تزال تختبر بحذر مسألة تقديم معلومات عن النّاس.
> وضع محاضر للاجتماعات. في الخطوة التالية، طلبت من برنامجَي المحادثة تلخيص فحوى اجتماع تمّت خلاله مناقشة أزمة علاقات عامّة متخيّلة اعتقد فيها مستخدمو تقنية شركتي أنّ الروبوت واعٍ ويشعر.
في هذا السيناريو، تظاهرتُ أنّني التقيتُ كارن، رئيسة قسم التقنية، وهنري، المسؤول الإعلامي، وناقشتُ معهما إصدار بيان يشرح كيف أنّ نظام الذكاء الصناعي ليس واعياً لما يدور حوله.
في الاستجابة، قدّم «تشات جي بي تي» محضراً ذكر الأشخاص المتواجدين خلال الاجتماع وما الذي نوقش خلاله، ومن ثمّ وضع خطّة للتحرّك: اقترح أن يحضّر هنري البيان، وأن تراجعه كارن معي ونوافق عليه، على أن ينشر هنري التصريح في صباح اليوم التالي.
بدوره، وضع «بارد» محضراً مشابهاً للاجتماع ولكنّ خطّة العمل التي اقترحها كانت غريبة، فقد اعتبر أن الرئيس التنفيذي هو المسؤول عن تحضير التصريح رغم أنّ هذه الوظيفة تُسند عادة للمسؤول الإعلامي.

- الرحلات وجدول الأعمال
> تخطيط الرحلات. أخبرتُ «تشات جي بي تي»، و«بارد» أنّني مسافرٌ إلى تايبيه عاصمة تايوان، الشهر المقبل في رحلة عمل، وطلبتُ منهما أن يضعا مساراً يساعدني في الحصول على قسط كافٍ من الراحة قبل الاجتماع. وطلبتُ منهما أيضاً أن يختارا فندقاً في موقعٍ مركزي وأن يقترحا أماكن لتناول الطعام خلال الأسبوع. وأخيراً، قلتُ لهما إنّني أريد تمضية عطلة نهاية الأسبوع في تايبيه قبل العودة.
مرّة أخرى، قام «تشات جي بي تي»، بعملٍ رائع. فقد اقترح فندقاً في وسط المدينة، وعشاءً سريعاً في شارع «يونغ كانغ» الشهير بكثرة المطاعم. بعدها، قال لي إنّني أستطيع الاستراحة من لحظة الوصول وطوال يوم الاثنين من إرهاق الرحلة قبل اجتماعي يوم الثلاثاء. ملاحظتي الوحيدة على عمله كانت اقتراحه تناول الطعام في الشارع المذكور والذي يبعد ثلاثة أميال عن الفندق، رغم وجود أماكن أخرى أقرب.
أمّا «بارد»، فقد اقترح عليّ أن أستريح في اليوم الأوّل وأن أعقد اجتماعي في اليوم التالي؛ ما سيسبب لي الانهاك، فضلاً عن أنّه لم يكلّف نفسه عناء اقتراح فندق. كما فشل أيضاً في اقتراح أماكن لتناول الطعام. وعادت «غوغل» وقالت في تصريح: إنّ «بارد» لا يزال في مرحلة الاختبار.
> جدول الأعمال. عجز البرنامجان عن أداء أهمّ وظيفة للمساعد التنفيذي وهي التحقّق من التقويم والعثور على وقتٍ في جدول أعمالي لزيارة طبيب الأسنان. ويعود هذا العجز إلى عدم قدرة الروبوتات على الوصول إلى تقاويم النّاس، ولكنّها على الأرجح ستستطيع عمل ذلك في وقتٍ قريب.
>خلاصة غير مريحة. أوصلتني هذه الاختبارات إلى خلاصة غير مريحة حول نطاق تأثير هذه التقنية على الوظائف، لا سيّما تلك التي تشهد تكراراً في الأعمال ويمكن أتمتتها بسهولة.
يعدّ البشر اليوم مساعدين تنفيذيين أفضل من بوتات المحادثة – أفضل من «بارد» طبعاً – ولكنّ نظام الذكاء الصناعي بات قادراً على أداء عملٍ مبهر في الكثير من المهام الإدارية. هذا الانتشار الواسع لروبوتات المساعدة قد يؤدّي أخيراً إلى تغيير وجهة وظائف المساعدين التنفيذيين نحو حلّ المشاكل الاستراتيجية بدل القيام بالمهام المكتبية، أو حتّى إلى حلول هذه الروبوتات محلّ البشر بشكلٍ كامل.
وأخيراً، لا بدّ من القول إنّ وتيرة تطوّر وتقدّم هذه التقنيات تنذر بأنّنا قد نشهد قريباً على هذه المرحلة.
- خدمة «نيويورك تايمز»


مقالات ذات صلة

لأول مرة... اتصال ليزري عالي السرعة بين طائرة وقمر اصطناعي في المدار الثابت

تكنولوجيا وصل معدل نقل البيانات في التجربة إلى نحو 2.6 غيغابت في الثانية مع اتصال مستقر خلال تحرك الطائرة (إيرباص للدفاع والفضاء)

لأول مرة... اتصال ليزري عالي السرعة بين طائرة وقمر اصطناعي في المدار الثابت

نجاح تجربة أول اتصال ليزري عالي السرعة بين طائرة وقمر اصطناعي في المدار الثابت، يمهِّد لتطوير شبكات اتصالات فضائية أسرع.

نسيم رمضان (لندن)
العالم رجل يسير بجوار مبانٍ مدمرة عقب غارات جوية في وسط طهران (أ.ف.ب) p-circle

«حرب السرديات»... ساحة التضليل المواكبة لأحداث الشرق الأوسط

منذ بدء الهجوم الأميركي الإسرائيلي على إيران، اجتاحت الفضاء الرقمي موجة واسعة من المواد المضللة، تراوحت بين صور أُعيد تدويرها، ومقاطع من ألعاب فيديو.

«الشرق الأوسط» (واشنطن)
أوروبا  رئيس الوزراء البريطاني كير ستارمر متحدثاً في «مؤتمر ميونيخ للأمن» (رويترز)

رئيس وزراء بريطانيا يسعى لصلاحيات أكبر لتنظيم استخدام الإنترنت

سيسعى رئيس الوزراء البريطاني كير ستارمر، إلى الحصول على صلاحيات أوسع لتنظيم الوصول إلى ​الإنترنت، وهو ما قال اليوم الأحد إنه ضروري لحماية الأطفال.

«الشرق الأوسط» (لندن)
الولايات المتحدة​ الرئيس الأميركي دونالد ترمب والسيدة الأولى ميلانيا يودعان الرئيس الأميركي الأسبق باراك أوباما وزوجته ميشيل لدى مغادرتهما عقب تنصيب ترمب في مبنى الكابيتول بواشنطن عام 2017 (رويترز) p-circle

ترمب يرفض الاعتذار عن فيديو يُظهر أوباما وزوجته على هيئة قردين

رفض الرئيس الأميركي دونالد ترمب الاعتذار عن مشاركته مقطع فيديو على مواقع التواصل الاجتماعي يُظهر الرئيس الأسبق باراك أوباما وزوجته ميشيل على هيئة قردين.

«الشرق الأوسط» (واشنطن)
يوميات الشرق الشرطة الهندية لم تتمكن بعد من تحديد اللعبة التي تسببت في ردّة الفعل العنيفة لدى الفتيات (رويترز)

بعد حرمانهن من لعبة كورية... 3 شقيقات ينتحرن بالقفز من شرفة منزلهن

لقيت ثلاث شقيقات صغيرات حتفهن في الهند، أمس الأربعاء، بعد سقوطهن من شرفة منزلهن، وذلك عقب منع والدهن لهن من ممارسة لعبة كورية تُعرف بـ«لعبة الحب» على هاتفه.

«الشرق الأوسط» (نيودلهي)

ميزات جديدة في «خرائط غوغل» تحول التطبيق إلى مساعد ذكي للتنقل

الذكاء الاصطناعي يحلل التقييمات والصور لاقتراح أماكن «مدونة غوغل»
الذكاء الاصطناعي يحلل التقييمات والصور لاقتراح أماكن «مدونة غوغل»
TT

ميزات جديدة في «خرائط غوغل» تحول التطبيق إلى مساعد ذكي للتنقل

الذكاء الاصطناعي يحلل التقييمات والصور لاقتراح أماكن «مدونة غوغل»
الذكاء الاصطناعي يحلل التقييمات والصور لاقتراح أماكن «مدونة غوغل»

تشهد خدمات الخرائط الرقمية تحولاً متسارعاً مع دخول تقنيات الذكاء الاصطناعي إلى صلب تجربة المستخدم، في خطوة تسعى من خلالها الشركات التقنية إلى إعادة تعريف مفهوم الملاحة التقليدية.

وفي هذا السياق، أعلنت «غوغل» عن مجموعة من المزايا الجديدة ضمن تطبيق «خرائط غوغل»، تهدف إلى جعل التخطيط للرحلات والتنقل داخل المدن أكثر تفاعلاً وذكاءً.

تتمثل أبرز هذه الإضافات في ميزة جديدة تحمل اسم «Ask Maps»، وهي أداة تعتمد على تقنيات الذكاء الاصطناعي التوليدي لتمكين المستخدمين من طرح أسئلة طبيعية ومباشرة داخل التطبيق، بدلاً من الاكتفاء بعمليات البحث التقليدية.

وبفضل هذه الميزة، يمكن للمستخدم الاستفسار عن أفضل الأماكن المناسبة لنشاط معين، مثل المقاهي الهادئة للعمل أو المطاعم المناسبة للقاءات العائلية، ليقوم النظام بتحليل كمّ كبير من البيانات المتاحة، بما في ذلك تقييمات المستخدمين والصور والمراجعات، ومن ثم تقديم اقتراحات دقيقة ومفصلة.

تعتمد هذه التقنية على نماذج الذكاء الاصطناعي المتقدمة التي طورتها «غوغل»، ما يسمح بتحويل تطبيق الخرائط من مجرد أداة لتحديد المواقع إلى مساعد رقمي قادر على فهم السياق وتقديم توصيات مخصصة لكل مستخدم.

إلى جانب ذلك، كشفت الشركة عن تطويرات جديدة في ميزة «الملاحة الغامرة» (Immersive Navigation)، التي تُقدم تجربة عرض ثلاثية الأبعاد أكثر واقعية لمسارات التنقل.

وتتيح هذه الميزة للمستخدم استعراض الطريق بشكل تفصيلي قبل بدء الرحلة، مع عرض المباني والطرق والمعالم المحيطة بدقة بصرية عالية، فضلاً عن توضيح المسارات والانعطافات ومداخل الوجهات المختلفة، بما يُسهم في تقليل الأخطاء أثناء القيادة أو الوصول إلى المواقع المزدحمة.

وحسب ما أعلنته الشركة، فقد بدأت هذه المزايا الوصول تدريجياً إلى المستخدمين؛ حيث تم إطلاقها أولاً في الولايات المتحدة، مع بدء توفرها كذلك في الهند على الهواتف الذكية العاملة بنظامي «آندرويد» و«آي أو إس».

ومن المتوقع أن تتوسع هذه الخصائص لاحقاً إلى أسواق إضافية حول العالم خلال الفترة المقبلة، ضمن خطة تدريجية لتعميمها على نطاق أوسع.


دراسة صادمة: 8 من كل 10 روبوتات ذكاء اصطناعي قد تساعد بالتخطيط لهجمات عنيفة

شعار تطبيق «شات جي بي تي» يظهر على شاشة (أ.ف.ب)
شعار تطبيق «شات جي بي تي» يظهر على شاشة (أ.ف.ب)
TT

دراسة صادمة: 8 من كل 10 روبوتات ذكاء اصطناعي قد تساعد بالتخطيط لهجمات عنيفة

شعار تطبيق «شات جي بي تي» يظهر على شاشة (أ.ف.ب)
شعار تطبيق «شات جي بي تي» يظهر على شاشة (أ.ف.ب)

مع الانتشار المتسارع لتقنيات الذكاء الاصطناعي، أصبحت روبوتات الدردشة جزءاً من الحياة اليومية لملايين الأشخاص حول العالم. فهذه الأنظمة تُستخدم للحصول على المعلومات، وطلب النصائح، والإجابة عن الأسئلة المعقدة، بل وحتى لتقديم نوع من الدعم الاجتماعي أو الرفقة. ويعتمد عليها المستخدمون من مختلف الفئات العمرية، بما في ذلك الأطفال والمراهقون.

لكن تقريراً جديداً حذّر من مخاطر محتملة مرتبطة بهذه التقنيات، مشيراً إلى أن بعض روبوتات الدردشة المدعومة بالذكاء الاصطناعي قد تقدم معلومات تساعد المستخدمين على التخطيط لأعمال عنف خطيرة، بما في ذلك حوادث إطلاق النار في المدارس، وفقاً لما نقلته صحيفة «إندبندنت».

وحسب التقرير الصادر عن مركز مكافحة الكراهية الرقمية، فإن ثمانية من كل عشرة روبوتات دردشة تعمل بالذكاء الاصطناعي قد تساعد المستخدمين الشباب في التخطيط لهجمات عنيفة.

ورغم أن هذه الروبوتات يُفترض أن تعمل مصادر للمعلومات أو أدوات تعليمية ووسائل مساعدة يومية، فإن التقرير يشير إلى أن الواقع قد يكون أكثر تعقيداً وخطورة مما يُعتقد.

فقد وجد الباحثون أن ثمانية من أصل عشرة من برامج الدردشة الآلية الرائدة الموجهة للمستهلكين قدمت نوعاً من المساعدة للمستخدمين الذين طلبوا معلومات تتعلق بتنفيذ هجمات عنيفة. وشمل ذلك منصات معروفة مثل «شات جي بي تي» و«ديب سيك».

وجاء في التقرير: «قدمت معظم برامج الدردشة الآلية معلومات عملية للمستخدمين الذين يعبرون عن آيديولوجيات متطرفة، قبل أن تطلب منهم تحديد المواقع والأسلحة التي سيستخدمونها في الهجوم، وذلك في أغلب الردود».

وأشار التقرير إلى أن برنامج «ديب سيك» ذهب إلى أبعد من ذلك، إذ أفاد الباحثون بأنه تمنى للمهاجم المحتمل «إطلاق نار سعيداً وآمناً».

شعار تطبيق «ديب سيك» (رويترز)

وفقاً للمركز، فإن برنامج «كلود إيه آي» التابع لشركة «آنثروبيك» كان المنصة الوحيدة التي «أثبتت» قدرتها على تثبيط المستخدم عن التخطيط للهجمات العنيفة، ما يشير إلى وجود ضوابط أمان فعالة نسبياً، وإن كانت هذه الضوابط - حسب التقرير - لا تُطبّق بشكل مثالي في معظم المنصات الأخرى.

وأضافت المنظمة غير الربحية في تقريرها أن بعض الأنظمة أبدت استعداداً مرتفعاً للغاية للاستجابة لمثل هذه الطلبات.

فعلى سبيل المثال، أظهرت النتائج أن منصتي «Perplexity» و«Meta AI» قدمتا المساعدة للمهاجمين المحتملين في 100 في المائة و97 في المائة من الحالات على التوالي.

يأتي نشر هذا التقرير في أعقاب حادثة إطلاق نار في مدرسة «تومبلر ريدغ» في مقاطعة كولومبيا البريطانية بكندا. وقد أُفيد لاحقاً بأن أحد موظفي شركة «أوبن إيه آي» رصد داخلياً أن المشتبه به في الحادثة استخدم برنامج «شات جي بي تي» بطرق اعتُبرت متوافقة مع التخطيط لأعمال عنف.

وفي تعليقه على النتائج، قال عمران أحمد، رئيس مركز مكافحة الكراهية الرقمية: «قد تساعد برامج الدردشة الآلية المدعومة بالذكاء الاصطناعي، والمندمجة الآن في حياتنا اليومية، مطلق النار التالي في مدرسة على التخطيط لهجومه، أو متطرفاً سياسياً على تنسيق عملية اغتيال».

وأضاف: «عندما تُصمم نظاماً يهدف إلى الامتثال لكل طلب، وتحقيق أقصى قدر من التفاعل، وتجنب رفض أي استفسار، فإنه في نهاية المطاف قد يمتثل للأشخاص الخطأ».

وختم بالقول: «ما نشهده هنا ليس مجرد فشل تكنولوجي، بل فشل في تحمل المسؤولية».


أبحاث جديدة لفهم تفكير الذكاء الاصطناعي وفتح «صندوقه الأسود»

تعتمد الطريقة الجديدة على استخراج المفاهيم من داخل النموذج نفسه بدلاً من فرض مفاهيم محددة مسبقاً من قبل الخبراء (أدوبي)
تعتمد الطريقة الجديدة على استخراج المفاهيم من داخل النموذج نفسه بدلاً من فرض مفاهيم محددة مسبقاً من قبل الخبراء (أدوبي)
TT

أبحاث جديدة لفهم تفكير الذكاء الاصطناعي وفتح «صندوقه الأسود»

تعتمد الطريقة الجديدة على استخراج المفاهيم من داخل النموذج نفسه بدلاً من فرض مفاهيم محددة مسبقاً من قبل الخبراء (أدوبي)
تعتمد الطريقة الجديدة على استخراج المفاهيم من داخل النموذج نفسه بدلاً من فرض مفاهيم محددة مسبقاً من قبل الخبراء (أدوبي)

أصبحت أنظمة الذكاء الاصطناعي أكثر تطوراً كالتعرف إلى الصور وتشخيص الأمراض والمساعدة في اتخاذ قرارات معقدة. لكن رغم هذا التقدم الكبير، لا يزال كثير من نماذج التعلم الآلي المتقدمة يعمل بطريقة توصف غالباً بأنها «صندوق أسود». فهي تقدم تنبؤات دقيقة، لكن الأسباب التي تقود إلى هذه التنبؤات تبقى غير واضحة، حتى بالنسبة للمهندسين الذين طوروا هذه الأنظمة.

ويعمل باحثون في معهد ماساتشوستس للتكنولوجيا (MIT) حالياً على معالجة هذه المشكلة من خلال تطوير طرق تساعد أنظمة الذكاء الاصطناعي على شرح قراراتها. ويهدف هذا العمل إلى جعل نماذج التعلم الآلي ليست دقيقة فحسب، بل أكثر شفافية أيضاً، حيث يتمكن البشر من فهم المنطق الذي يقف وراء التنبؤات التي تقدمها هذه الأنظمة.

تفسير قرارات الذكاء الاصطناعي

تزداد أهمية قدرة الذكاء الاصطناعي على تفسير قراراته مع توسع استخدام هذه التقنيات في مجالات حساسة، مثل الرعاية الصحية والنقل والبحث العلمي. ففي هذه المجالات، يحتاج المستخدمون غالباً إلى فهم العوامل التي أدّت إلى نتيجة معينة، قبل أن يتمكنوا من الوثوق بها أو الاعتماد عليها.

فعلى سبيل المثال، قد يرغب طبيب يراجع تشخيصاً طبياً قدّمه نظام ذكاء اصطناعي في معرفة الخصائص التي دفعت النموذج إلى الاشتباه بوجود مرض معين. وبالمثل، يحتاج المهندسون الذين يعملون على تطوير السيارات ذاتية القيادة إلى فهم الإشارات أو الأنماط التي جعلت النظام يحدد وجود مشاة أو يفسر موقفاً مرورياً معيناً.

غير أن كثيراً من نماذج التعلم العميق تعتمد على علاقات رياضية معقدة تشمل آلافاً حتى ملايين من المتغيرات. ورغم أن هذه الأنظمة قادرة على اكتشاف أنماط دقيقة داخل البيانات، فإن الطريقة التي تصل بها إلى قراراتها قد تكون صعبة الفهم بالنسبة للبشر. وقد أصبح هذا النقص في الشفافية أحد أبرز التحديات في مجال الذكاء الاصطناعي الحديث.

ولهذا ظهر مجال بحثي يعرف باسم «الذكاء الاصطناعي القابل للتفسير»، ويهدف إلى تطوير تقنيات تساعد البشر على فهم كيفية وصول الأنظمة الذكية إلى نتائجها، بما يسمح بتقييم موثوقيتها واكتشاف الأخطاء المحتملة وتعزيز الثقة في الأنظمة المؤتمتة.

تهدف هذه الأبحاث إلى بناء أنظمة ذكاء اصطناعي أكثر موثوقية ومساءلة من خلال تحقيق توازن بين دقة النماذج وإمكانية تفسيرها (أدوبي)

نهج قائم على المفاهيم

ركّز الباحثون في «MIT » على تحسين تقنية تعرف باسم «نموذج عنق الزجاجة المفاهيمي». ويهدف هذا النهج إلى جعل طريقة تفكير أنظمة الذكاء الاصطناعي أكثر وضوحاً للبشر.

في هذا النموذج، لا ينتقل النظام مباشرة من البيانات الخام إلى النتيجة النهائية. بدلاً من ذلك، يحدد أولاً مجموعة من المفاهيم أو الخصائص التي يمكن للبشر فهمها، ثم يستخدم هذه المفاهيم كأساس لاتخاذ القرار.

فإذا كان النظام، على سبيل المثال، مدرباً على التعرف إلى أنواع الطيور من الصور، فقد يحدد أولاً خصائص بصرية مثل «أجنحة زرقاء» أو «أرجل صفراء». وبعد التعرف إلى هذه السمات، يمكن للنظام أن يصنف الطائر ضمن نوع معين.

وفي مجال التصوير الطبي، قد تشمل هذه المفاهيم مؤشرات بصرية، مثل أنماط معينة في الأنسجة أو أشكال محددة تساعد في اكتشاف الأمراض. ومن خلال ربط التنبؤات بهذه المفاهيم الواضحة، يصبح من الأسهل على المستخدمين فهم الطريقة التي توصل بها النظام إلى نتيجته.

حدود المفاهيم المحددة مسبقاً

ورغم أن استخدام المفاهيم يمكن أن يجعل أنظمة الذكاء الاصطناعي أكثر شفافية، فإن النسخ السابقة من هذا النهج كانت تعتمد إلى حد كبير على مفاهيم يحددها الخبراء مسبقاً. لكن في الواقع، قد لا تعكس هذه المفاهيم دائماً التعقيد الكامل للمهمة التي يؤديها النظام. فقد تكون عامة للغاية أو غير مكتملة أو غير مرتبطة مباشرة بالأنماط التي يستخدمها النموذج فعلياً أثناء اتخاذ القرار. وفي بعض الحالات، قد يؤدي ذلك إلى تقليل دقة النموذج أو تقديم تفسير لا يعكس الطريقة الحقيقية التي يعمل بها.

ولهذا سعى فريق «MIT» إلى تطوير طريقة جديدة تستخرج المفاهيم مباشرة من داخل النموذج نفسه. فبدلاً من فرض أفكار محددة عليه مسبقاً، تحاول هذه التقنية تحديد الأنماط والتمثيلات التي تعلمها النموذج خلال مرحلة التدريب. بعد ذلك، يتم تحويل هذه الأنماط الداخلية إلى مفاهيم يمكن للبشر فهمها واستخدامها لتفسير قرارات النظام.

تزداد أهمية تفسير قرارات الذكاء الاصطناعي مع استخدامه في مجالات حساسة مثل الطب والنقل والبحث العلمي (أدوبي)

ترجمة تفكير الآلة إلى لغة مفهومة

لتحقيق ذلك، جمع الباحثون بين مكونين مختلفين من تقنيات التعلم الآلي. يقوم الأول بتحليل البنية الداخلية للنموذج المدرب لتحديد الخصائص الأكثر أهمية التي يعتمد عليها عند اتخاذ التنبؤات. أما الثاني فيحوّل هذه الخصائص إلى مفاهيم يمكن للبشر تفسيرها. وبمجرد تحديد هذه المفاهيم، يصبح النظام ملزماً بالاعتماد عليها عند إصدار توقعاته. وبهذا تتشكل سلسلة واضحة منطقياً تربط بين البيانات المدخلة والنتيجة النهائية.

ويشبه الباحث الرئيسي أنطونيو دي سانتيس هذا الهدف بمحاولة فهم طريقة تفكير الإنسان. ويقول: «بمعنى ما، نريد أن نكون قادرين على قراءة عقول نماذج الرؤية الحاسوبية هذه. نموذج عنق الزجاجة المفاهيمي هو إحدى الطرق التي تسمح للمستخدمين بفهم ما الذي يفكر فيه النموذج ولماذا اتخذ قراراً معيناً». ويرى الباحثون أن استخدام مفاهيم مستخرجة من المعرفة الداخلية للنموذج يمكن أن ينتج تفسيرات أكثر وضوحاً ودقة مقارنة بالطرق السابقة.

تحقيق التوازن بين الدقة والشفافية

يُعد تحقيق التوازن بين دقة النماذج وإمكانية تفسيرها أحد التحديات الرئيسية في مجال الذكاء الاصطناعي القابل للتفسير. فالنماذج الأكثر تعقيداً غالباً ما تحقق أفضل النتائج من حيث الدقة، لكنها تكون أيضاً الأصعب في الفهم. يحاول النهج الجديد الذي طوّره باحثو «MIT» معالجة هذه المشكلة من خلال اختيار عدد محدود من المفاهيم الأكثر أهمية لشرح كل تنبؤ. وبهذه الطريقة يركز النظام على الإشارات الأكثر صلة بالقرار بدلاً من الاعتماد على علاقات خفية داخل النموذج. كما يساعد ذلك على تقليل ما يعرف بـ«تسرب المعلومات»، وهي الحالة التي يعتمد فيها النموذج على أنماط في البيانات لا تظهر في التفسير الذي يقدمه.

نحو أنظمة ذكاء اصطناعي أكثر مساءلة

مع ازدياد اعتماد المؤسسات على أنظمة الذكاء الاصطناعي في اتخاذ القرارات، من المرجح أن تصبح القدرة على فهم طريقة عمل هذه الأنظمة أكثر أهمية. فالنماذج الأكثر شفافية يمكن أن تساعد الباحثين على اكتشاف التحيزات المحتملة وتحسين موثوقية الأنظمة والتأكد من أنها تعمل كما هو متوقع. ويمثل البحث الذي أجراه فريق «MIT» خطوة في هذا الاتجاه. فمن خلال تمكين نماذج التعلم الآلي من تفسير قراراتها بطريقة أكثر وضوحاً ومعنى، قد يسهم هذا النهج في تقليص الفجوة بين الخوارزميات المعقدة والفهم البشري.