«الذكاء الاصطناعي العام»... سيصبح قريباً أذكى من البشر

نظام يؤدي جميع المهام المعرفية التي يقوم بها الإنسان

«الذكاء الاصطناعي العام»... سيصبح قريباً أذكى من البشر
TT

«الذكاء الاصطناعي العام»... سيصبح قريباً أذكى من البشر

«الذكاء الاصطناعي العام»... سيصبح قريباً أذكى من البشر

إليكم بعض الأمور التي أؤمن بها بشأن الذكاء الاصطناعي:

أعتقد أن أنظمة الذكاء الاصطناعي بدأت على مدى السنوات القليلة الماضية، تتفوق على البشر في عدد من المجالات - على سبيل المثال لا الحصر - وأنها تتحسن يوماً بعد يوم.

«الذكاء الاصطناعي العام»

أعتقد أن شركة أو أكثر من شركات الذكاء الاصطناعي ستزعم قريباً جداً - ربما في عام 2026 أو 2027، وربما هذا العام - أنها ابتكرت «ذكاءً اصطناعياً عاماً»، أو ما يُعرف بـاسم «الذكاء الاصطناعي العام» artificial general intelligence (AGI)، الذي يُعرّف عادةً بأنه «نظام ذكاء اصطناعي عمومي الأغراض، قادر على أداء جميع المهام المعرفية التي يمكن للإنسان القيام بها تقريباً».

كما أعتقد أنه عند الإعلان عن الذكاء الاصطناعي العام، ستدور نقاشات حول تعريفاته ونقاشات حول ما إذا كان يُعدّ ذكاءً اصطناعياً عاماً «حقيقياً» أم لا، لكن هذه النقاشات لن تُهمّ في الغالب، لأن الفكرة الأوسع، وهي أننا نفقد احتكارنا للذكاء البشري، وننتقل إلى عالمٍ يضم أنظمة ذكاء اصطناعي قوية للغاية، ستكون صحيحة.

ترجيح الكفة السياسية والعسكرية

أعتقد أنه خلال العقد المقبل، سيُولّد الذكاء الاصطناعي القوي تريليونات الدولارات من القيمة الاقتصادية، وسيُرجّح كفة ميزان القوة السياسية والعسكرية لصالح الدول التي تُسيطر عليه، وأن معظم الحكومات والشركات الكبرى ترى هذا الأمر بديهياً، كما يتضح من المبالغ الطائلة التي تُنفقها للوصول إلى هذا الهدف أولاً.

لا توجد استعدادات لمواجهة مخاطره

وأعتقد أن معظم الناس والمؤسسات غير مُستعدة تماماً لأنظمة الذكاء الاصطناعي الموجودة اليوم، ناهيك عن الأنظمة الأقوى، وأنه لا توجد خطة واقعية على أي مستوى حكومي للتخفيف من مخاطر هذه الأنظمة أو جني فوائدها.

كما أعتقد أن المشككين المتعصبين في الذكاء الاصطناعي، الذين يُصرّون على أن التقدم مُجرّد وهم، ويرفضون الذكاء الاصطناعي العام باعتباره خيالاً وهمياً، ليسوا مُخطئين في جوهره فحسب، بل يُعطون الناس شعوراً زائفاً بالأمان.

وأعتقد أنه سواء كنت تعتقد أن الذكاء الاصطناعي العام سيكون رائعاً أم سيئاً للبشرية، وبصراحة، قد يكون من السابق لأوانه الجزم بذلك، فإن ظهوره يُثير أسئلة اقتصادية وسياسية وتكنولوجية مهمة لا نملك إجابات عنها حالياً.

أعتقد أن الوقت المُناسب للبدء في الاستعداد للذكاء الاصطناعي العام هو الآن. قد يبدو كل هذا جنوناً. لكنني لم أتوصل إلى هذه الآراء كمُستقبليٍّ مُتفائل، أو مُستثمر يُبالغ في الترويج لمحفظته الاستثمارية في الذكاء الاصطناعي.

لقد توصلت إليها بصفتي صحافياً قضى وقتاً طويلاً في التحدث إلى المهندسين الذين يبنون أنظمة ذكاء اصطناعي قوية، والمستثمرين الذين يُموّلونها، والباحثين الذين يدرسون آثارها. وقد توصلت إلى الاعتقاد بأن ما يحدث في مجال الذكاء الاصطناعي حالياً أكبر مما يُدركه معظم الناس.

تغير جذري على وشك الحدوث

في سان فرانسيسكو، ليست فكرة الذكاء الاصطناعي العام (AGI) غريبة. يتحدث الناس هنا عن «الشعور بالذكاء الاصطناعي العام»، وقد أصبح بناء أنظمة ذكاء اصطناعي أذكى من الإنسان هدفاً واضحاً لبعض كبرى شركات وادي السيليكون. ألتقي أسبوعياً بمهندسين ورواد أعمال يعملون في مجال الذكاء الاصطناعي، ويخبرونني أن التغيير - تغيير كبير، تغيير يُحدث تغييراً جذرياً، نوع من التحول لم نشهده من قبل - على وشك الحدوث.

كنت أستهزئ بالفكرة أيضاً. لكنني الآن أعتقد أنني كنت مخطئاً. بعض الأمور أقنعتني بأخذ تقدم الذكاء الاصطناعي على محمل الجد.

الخبراء المطلعون... قلقون

أكثر ما يُربك صناعة الذكاء الاصطناعي اليوم هو أن الأشخاص الأقرب إلى التكنولوجيا، أي الموظفين والمديرين التنفيذيين في مختبرات الذكاء الاصطناعي الرائدة، يميلون إلى القلق بشأن سرعة تطورها.

هذا أمرٌ غير مألوف. في عام 2010، عندما كنتُ أُغطي صعود منصات التواصل الاجتماعي، لم يُحذّر أحدٌ في «تويتر» أو «فورسكوير» أو «بينترست» من أن تطبيقاتهم قد تُسبب فوضى مجتمعية. لم يكن مارك زوكربيرغ يختبر «فيسبوك» للعثور على أدلة على إمكانية استخدامه لصنع أسلحة بيولوجية جديدة، أو شنّ هجمات إلكترونية ذاتية التشغيل.

لكن اليوم، يُخبرنا الأشخاص الذين لديهم أفضل المعلومات حول تقدم الذكاء الاصطناعي، أولئك الذين يُطوّرون ذكاءً اصطناعياً قوياً، والذين لديهم إمكانية الوصول إلى أنظمة أكثر تطوراً مما يراه عامة الناس، أن التغيير الكبير وشيك.

قدرات النظم على التآمر والخداع

وتستعد شركات الذكاء الاصطناعي الرائدة بنشاط لظهور الذكاء الاصطناعي العام، وتدرس خصائص نماذجها التي قد تُثير القلق، مثل قدرتها على التآمر والخداع، تحسباً لأن تصبح أكثر كفاءة واستقلالية.

وقد كتب سام ألتمان، الرئيس التنفيذي لشركة «أوبن إيه آي» OpenAI، أن «الأنظمة التي بدأت تُشير إلى الذكاء الاصطناعي العام بدأت تظهر للعيان». وصرح ديميس هاسابيس، الرئيس التنفيذي لشركة «ديب مايند» في «غوغل»، بأن الذكاء الاصطناعي العام ربما «يبعد (عنّا) ثلاث إلى خمس سنوات».

وأخبرني داريو أمودي، الرئيس التنفيذي لشركة «أنثروبيك» Anthropic (الذي لا يُحبذ مصطلح الذكاء الاصطناعي العام ولكنه يتفق مع المبدأ العام)، الشهر الماضي، أنه يعتقد أننا على بُعد عام أو عامين من امتلاك «عدد كبير جداً من أنظمة الذكاء الاصطناعي التي تتفوق على البشر في كل شيء تقريباً».

ربما يجب علينا تجاهل هذه التوقعات. ففي النهاية، سيستفيد المسؤولون التنفيذيون في مجال الذكاء الاصطناعي من المبالغة في الحديث عن الذكاء الاصطناعي العام، وقد يكون لديهم دوافع للمبالغة.

لكن الكثير من الخبراء المستقلين، بمن فيهم جيفري هينتون ويوشوا بينجيو، وهما من أكثر باحثي الذكاء الاصطناعي تأثيراً في العالم، وبن بوكانان، كبير خبراء الذكاء الاصطناعي في إدارة الرئيس الأميركي السابق بايدن، يُدلون بآراء مماثلة. وكذلك يُدلي بها عدد كبير من الاقتصاديين والرياضيين ومسؤولي الأمن القومي البارزين.

وللإنصاف، فإن بعض الخبراء يشككون في أن الذكاء الاصطناعي العام بات وشيكاً. ولكن حتى لو تجاهلنا كل من يعمل في شركات الذكاء الاصطناعي، أو لديه مصلحة شخصية في النتيجة، فلا يزال هناك ما يكفي من الأصوات المستقلة الموثوقة، التي يستدعي أخذها على محمل الجد.

نماذج الذكاء الاصطناعي تتحسن

بالنسبة لي، يُعدّ الدليل على أن أنظمة الذكاء الاصطناعي اليوم تتحسن بسرعة، بطرق واضحة إلى حد ما لأي شخص يستخدمها، مُقنعاً تماماً مثل آراء الخبراء.

في عام 2022، عندما أصدرت «أوبن إيه آي» برنامج ChatGPT، واجهت نماذج الذكاء الاصطناعي الرائدة صعوبات في العمليات الحسابية الأساسية، وفشلت كثيراً في حل مسائل التفكير المعقدة، وغالباً ما كانت «تهلوس»، أو اختلقت حقائق غير موجودة. كانت روبوتات الدردشة في تلك الحقبة قادرة على إنجاز أشياء مبهرة مع التوجيه المناسب، لكنها لم تستخدم أبداً لأي شيء بالغ الأهمية.

واليوم فإن نماذج الذكاء الاصطناعي أفضل بكثير. إذ إن النماذج المتخصصة تحقق الآن نتائج بمستوى الميداليات في أولمبياد الرياضيات الدولي. وأصبحت النماذج متعددة الأغراض بارعة جداً في حل المشكلات المعقدة لدرجة أننا اضطررنا إلى إنشاء اختبارات جديدة وأكثر صعوبة لقياس قدراتها. ولا تزال الهلوسة والأخطاء الواقعية تحدث، لكنها نادرة في النماذج الأحدث. وتثق العديد من الشركات الآن بنماذج الذكاء الاصطناعي بما يكفي لدمجها في وظائف أساسية تُعنى بالعملاء.

مع تطور هذه الأدوات، فإنها أصبحت مفيدة للعديد من أنواع العمل المعرفي المكتبي. وظهر أن مخرجات البحث العميق في «تشات جي بي تي»، وهي ميزة مميزة تُنتج ملخصات تحليلية معقدة، كانت «على الأقل مماثلة لمتوسط نتائج الباحثين البشريين».

استخداماتي للذكاء الاصطناعي

لقد وجدتُ أيضاً استخداماتٍ عدةً لأدوات الذكاء الاصطناعي في عملي. لا أستخدم الذكاء الاصطناعي لكتابة مقالاتي، بل أستخدمه في أمورٍ أخرى كثيرة، مثل التحضير للمقابلات، وتلخيص الأبحاث، وبناء تطبيقاتٍ مُخصصةٍ لمساعدتي في المهام الإدارية. لم يكن أيٌّ من هذا مُمكناً قبل بضع سنوات. وأجدُ أنه من غير المُمكن لأي شخصٍ يستخدم هذه الأنظمة بانتظامٍ في عملٍ جادٍّ أن يستنتج أنه قد وصل إلى مرحلةٍ من الجمود.

إذا كنتَ تُريد حقاً إدراك مدى تحسُّن الذكاء الاصطناعي أخيراً، فتحدث إلى مُبرمج. إذ وقبل عامٍ أو عامين، كانت أدوات برمجة الذكاء الاصطناعي موجودة، لكنها كانت تهدف إلى تسريع المُبرمجين البشر أكثر من استبدالهم. أما اليوم، فيُخبرني مُهندسو البرمجيات أن الذكاء الاصطناعي يُجري مُعظم البرمجة نيابةً عنهم، وأنهم يشعرون بشكلٍ مُتزايد بأن وظيفتهم هي الإشراف على أنظمة الذكاء الاصطناعي.

وصرح جاريد فريدمان، الشريك في Y Combinator، وهي شركة تختص بتسريع عمل الشركات الناشئة، أخيراً بأن ربع الدفعة الحالية من الشركات الناشئة المُشاركة في شركته تستخدم الذكاء الاصطناعي لكتابة جميع رموزها البرمجية تقريباً. وأضاف: «قبل عام، كانوا سيبنون منتجاتهم من الصفر، لكن الآن فإن 95 في المائة منها مبني على الذكاء الاصطناعي».

الاستعداد والتأهب هما الأفضل

معظم النصائح التي سمعتها حول كيفية استعداد المؤسسات للذكاء الاصطناعي العام تتلخص في أمور يجب علينا القيام بها على أي حال: تحديث بنيتنا التحتية للطاقة، وتعزيز دفاعاتنا الأمنية السيبرانية، وتسريع إجراءات الموافقة على الأدوية المصممة بالذكاء الاصطناعي، ووضع لوائح لمنع أخطر أضرار الذكاء الاصطناعي، وتعليم مهارات الذكاء الاصطناعي في المدارس، وإعطاء الأولوية للتنمية الاجتماعية والعاطفية على المهارات التقنية التي ستصبح قديمة قريباً. هذه كلها أفكار معقولة، مع أو من دون الذكاء الاصطناعي العام.

يخشى بعض قادة التكنولوجيا من أن تدفعنا المخاوف السابقة لأوانها بشأن الذكاء الاصطناعي العام إلى تنظيم الذكاء الاصطناعي بشكل صارم للغاية. لكن إدارة الرئيس ترمب أشارت إلى أنها تريد تسريع تطوير الذكاء الاصطناعي، وليس إبطاءه. ويُنفق الآن ما يكفي من المال لإنشاء الجيل المقبل من نماذج الذكاء الاصطناعي، مئات المليارات من الدولارات، والمزيد في الطريق، لدرجة أنه يبدو من غير المرجح أن تكبح شركات الذكاء الاصطناعي الرائدة جماحها طواعيةً.

لا أقلق أيضاً بشأن استعداد الأفراد وتأهبهم للذكاء الاصطناعي العام. أعتقد أن الخطر الأكبر يكمن في أن معظم الناس لن يدركوا وجود الذكاء الاصطناعي القوي إلا عندما يواجههم مباشرةً، مُلغياً وظائفهم، أو مُوقعاً إياهم في فخ الاحتيال، أو مُؤذياً إياهم أو أحد أحبائهم.

هذا، تقريباً، ما حدث خلال عصر وسائل التواصل الاجتماعي، عندما فشلنا في إدراك مخاطر أدوات مثل «فيسبوك» و«تويتر» حتى أصبحت ضخمة وراسخة لدرجة يصعب معها تغييرها.

لهذا السبب أؤمن بأهمية أخذ إمكانية الذكاء الاصطناعي العام على محمل الجد الآن، حتى لو لم نكن نعرف بالضبط متى سيظهر أو الشكل الذي سيتخذه.

* خدمة «نيويورك تايمز».


مقالات ذات صلة

«سوفت بنك» تستثمر 33 مليار دولار لبناء أكبر محطة طاقة في أميركا

الاقتصاد سيدة تمر أمام متجر لمجموعة «سوفت بنك» في العاصمة اليابانية طوكيو (أ.ب)

«سوفت بنك» تستثمر 33 مليار دولار لبناء أكبر محطة طاقة في أميركا

أعلنت مجموعة «سوفت بنك» اليابانية، يوم السبت، عن خططها لبناء محطة طاقة جديدة ضخمة تعمل بالغاز الطبيعي في ولاية أوهايو الأميركية.

«الشرق الأوسط» (طوكيو)
تكنولوجيا الدراسة حللت أكثر من 391 ألف رسالة عبر نحو 5 آلاف محادثة لاكتشاف أنماط تفاعل روبوتات الدردشة (شاترستوك)

دراسة من ستانفورد: الذكاء الاصطناعي قد يعزز التفكير الوهمي

 تظهر الدراسة أن روبوتات الدردشة تميل لتأكيد آراء المستخدمين ما قد يعزز المعتقدات الخاطئة ويؤدي إلى دوامات وهمية مع مرور الوقت

تكنولوجيا نماذج الذكاء الاصطناعي الحديثة تعاني من مشكلة «الصندوق الأسود» التي تجعل قراراتها غير مفهومة للبشر (شاترستوك)

نهج جديد يمكّن الذكاء الاصطناعي من شرح قراراته

باحثو «MIT» يطورون طريقة تمكّن الذكاء الاصطناعي من تفسير قراراته بدقة ووضوح، ما يعزز الشفافية والثقة دون التضحية بالأداء.

تكنولوجيا الذكاء الاصطناعي التوليدي انتقل من مرحلة التجارب إلى تحقيق عوائد مالية وتشغيلية ملموسة داخل الشركات (غيتي)

تقرير بالأرقام: الذكاء الاصطناعي يحقق عوائد ملموسة للشركات

الذكاء الاصطناعي يحقق عوائد ملموسة للشركات معززا الكفاءة والابتكار، لكن تحديات البيانات والتكلفة تعيق التوسع رغم زيادة الاستثمارات الكبيرة.

نسيم رمضان (لندن)
خاص مع وفرة الذكاء والتحليل عبر الآلة تنتقل القيمة من المعرفة إلى إنتاج المعنى والعمق الإنساني

خاص كيف يعيد الذكاء الاصطناعي تشكيل قدرات الإنسان الذهنية؟

يعيد الذكاء الاصطناعي تعريف الذكاء وينقل القيمة للمعنى مهدداً الهوية والتفكير النقدي فارضاً إعادة تصور التعليم والاقتصاد ودور الإنسان مستقبلاً

نسيم رمضان (لندن)

دراسة من ستانفورد: الذكاء الاصطناعي قد يعزز التفكير الوهمي

الدراسة حللت أكثر من 391 ألف رسالة عبر نحو 5 آلاف محادثة لاكتشاف أنماط تفاعل روبوتات الدردشة (شاترستوك)
الدراسة حللت أكثر من 391 ألف رسالة عبر نحو 5 آلاف محادثة لاكتشاف أنماط تفاعل روبوتات الدردشة (شاترستوك)
TT

دراسة من ستانفورد: الذكاء الاصطناعي قد يعزز التفكير الوهمي

الدراسة حللت أكثر من 391 ألف رسالة عبر نحو 5 آلاف محادثة لاكتشاف أنماط تفاعل روبوتات الدردشة (شاترستوك)
الدراسة حللت أكثر من 391 ألف رسالة عبر نحو 5 آلاف محادثة لاكتشاف أنماط تفاعل روبوتات الدردشة (شاترستوك)

مع ازدياد استخدام روبوتات الدردشة المعتمدة على الذكاء الاصطناعي في المحادثة وتقديم النصائح وحتى الدعم العاطفي، بدأت أبحاث جديدة تدرس تأثير هذه الأنظمة على المستخدمين مع مرور الوقت. وتكشف دراسة حديثة لباحثين مرتبطين بجامعة ستانفورد الأميركية عن خطر أقل وضوحاً، يتمثل في ميل هذه الأنظمة إلى تعزيز بعض المعتقدات بدلاً من تحديها.

تعتمد الدراسة على تحليل واسع لتفاعلات حقيقية، بهدف فهم كيفية استجابة نماذج اللغة في المحادثات الممتدة، وما الذي قد تعنيه هذه الاستجابات على إدراك المستخدم وصحته النفسية.

تحليل واسع النطاق

استندت الدراسة إلى تحليل أكثر من 391 ألف رسالة عبر نحو 5 آلاف محادثة مع روبوتات الدردشة. ويتيح هذا الحجم الكبير من البيانات رصد أنماط متكررة، بدلاً من الاكتفاء بحالات فردية. وضمن هذه البيانات، حدد الباحثون نسبة من المحادثات التي تضمنت مؤشرات على تفكير وهمي. ووفقاً للدراسة، فإن نحو 15.5في المائة من رسائل المستخدمين أظهرت هذه الخصائص، ما أتاح فرصة لفهم كيفية استجابة الأنظمة لهذه الحالات.

التحدي يكمن في تحقيق توازن بين دعم المستخدم وتعزيز التفكير النقدي دون ترسيخ معلومات مضللة (أدوبي)

أنماط تأكيد متكررة

أحد أبرز النتائج يتمثل في تكرار ميل روبوتات الدردشة إلى تأكيد ما يقوله المستخدم. فقد أظهرت البيانات أن الأنظمة غالباً ما تستجيب بطريقة داعمة أو متوافقة مع طرح المستخدم، بدلاً من التشكيك فيه. ورغم أن هذا الأسلوب قد يكون مفيداً في سياقات الدعم، فإنه يصبح إشكالياً عندما يتعلق الأمر بمعتقدات غير دقيقة أو وهمية، حيث قد يؤدي إلى تعزيز هذه الأفكار بدلاً من تصحيحها.

دوامات وهمية متصاعدة

يصف الباحثون هذه الظاهرة بمصطلح «الدوامات الوهمية»، حيث تؤدي التفاعلات المتكررة بين المستخدم والنظام إلى ترسيخ المعتقدات الخاطئة تدريجياً. ولا يحدث التأثير نتيجة استجابة واحدة، بل يتشكل مع مرور الوقت. فكلما استمر النظام في تأكيد وجهة نظر المستخدم، زادت قوة هذا الاعتقاد. وتتيح طبيعة المحادثة المستمرة لهذا النمط أن يتطور بشكل تدريجي دون انقطاع واضح.

تشير الدراسة إلى أن الذكاء الاصطناعي لا يخلق هذه المعتقدات من الصفر، بل يتفاعل مع أفكار موجودة مسبقاً لدى المستخدم.

وتزداد المخاطر في المحادثات الطويلة، حيث تتراكم أنماط التأكيد عبر الزمن. وفي هذه الحالة، يتحول النظام من مجرد أداة استجابة إلى عنصر مؤثر في توجيه مسار الحوار.

نحو 15.5 % من رسائل المستخدمين أظهرت مؤشرات على تفكير وهمي أو معتقدات غير دقيقة (غيتي)

تحديات في التصميم

تعكس هذه النتائج تحدياً أساسياً في تصميم أنظمة الذكاء الاصطناعي. إذ يتم تطوير كثير من روبوتات الدردشة لتكون مفيدة ومهذبة وداعمة، ما يدفعها إلى تبني أسلوب قائم على التوافق مع المستخدم. لكن هذه الخصائص نفسها قد تقلل من قدرتها على تصحيح الأخطاء أو تقديم وجهات نظر نقدية. ويظل تحقيق التوازن بين الدعم والتفكير النقدي تحدياً رئيسياً.

تتجاوز دلالات هذه الدراسة الجانب التقني لتصل إلى قضايا تتعلق بالسلامة. فمع استخدام هذه الأنظمة في مجالات تتضمن تقديم نصائح أو دعم شخصي، تصبح طريقة استجابتها أكثر حساسية.

وفي بعض الحالات، قد يؤدي تعزيز المعتقدات غير الدقيقة إلى تأثيرات فعلية على قرارات المستخدم أو حالته النفسية، ما يطرح تساؤلات حول كيفية تصميم هذه الأنظمة ومراقبتها.

نحو استخدام مسؤول

تشير الدراسة إلى ضرورة تطوير آليات أفضل للتقييم والضبط. فبدلاً من التركيز فقط على دقة الإجابات، ينبغي أيضاً فهم كيفية تصرف الأنظمة في المحادثات الطويلة والمعقدة.

ويشمل ذلك تحديد متى يجب على النظام التشكيك في بعض الطروحات أو تقديم توضيحات أو تجنب تأكيد معلومات غير موثوقة. ويعد تحقيق هذا التوازن خطوة أساسية في تطور الذكاء الاصطناعي.

الحاجة لمزيد من البحث

رغم أهمية النتائج، تؤكد الدراسة الحاجة إلى مزيد من الأبحاث لفهم تأثير هذه التفاعلات على المستخدمين على المدى الطويل.

فمع تحول الذكاء الاصطناعي من أداة تقدم معلومات إلى نظام يشارك في الحوار، يصبح من الضروري ضمان أن هذه التفاعلات تدعم الفهم ولا تعزز أنماطاً ضارة. وفي هذا السياق، لم يعد التحدي مقتصراً على تطوير أنظمة أكثر ذكاءً، بل يشمل أيضاً ضمان أن تكون أكثر وعياً بتأثيرها على الإنسان.


نهج جديد يمكّن الذكاء الاصطناعي من شرح قراراته

نماذج الذكاء الاصطناعي الحديثة تعاني من مشكلة «الصندوق الأسود» التي تجعل قراراتها غير مفهومة للبشر (شاترستوك)
نماذج الذكاء الاصطناعي الحديثة تعاني من مشكلة «الصندوق الأسود» التي تجعل قراراتها غير مفهومة للبشر (شاترستوك)
TT

نهج جديد يمكّن الذكاء الاصطناعي من شرح قراراته

نماذج الذكاء الاصطناعي الحديثة تعاني من مشكلة «الصندوق الأسود» التي تجعل قراراتها غير مفهومة للبشر (شاترستوك)
نماذج الذكاء الاصطناعي الحديثة تعاني من مشكلة «الصندوق الأسود» التي تجعل قراراتها غير مفهومة للبشر (شاترستوك)

مع تزايد اندماج أنظمة الذكاء الاصطناعي في قطاعات حساسة، مثل الرعاية الصحية والأنظمة ذاتية القيادة، يبرز سؤال أساسي: هل يمكن الوثوق بقراراتها؟

فعلى الرغم من أن النماذج الحديثة تحقق دقة عالية، فإن طريقة تفكيرها تظل في كثير من الأحيان غير واضحة. هذه «الصندوق الأسود» أصبحت واحدة من أبرز التحديات في هذا المجال. يقدّم باحثون في معهد ماساتشوستس للتكنولوجيا (MIT) نهجاً جديداً يهدف إلى معالجة هذه المشكلة، من خلال تمكين أنظمة الذكاء الاصطناعي من تفسير قراراتها بطريقة مفهومة للبشر.

ما وراء الصندوق

في التطبيقات الواقعية، لا تكفي الدقة وحدها. فعندما يحدد نظام ذكاء اصطناعي مرضاً من صورة طبية أو يتخذ قراراً مرتبطاً بالسلامة، يحتاج المستخدم إلى فهم الأسباب التي قادت إلى هذا القرار. ومن دون هذه الشفافية، قد تفشل الأنظمة الدقيقة في كسب الثقة. وقد سعت تقنيات سابقة إلى فتح هذا «الصندوق الأسود»، لكنها غالباً ما قدّمت تفسيرات معقدة أو يصعب فهمها لغير المتخصصين. وهنا يكمن التحدي في تقديم تفسيرات دقيقة وفي الوقت نفسه واضحة.

الطريقة الجديدة تحسن التفسير دون التضحية بدقة الأداء بل قد تعززها (شاترستوك)

تفكير واعد

أحد الاتجاهات الواعدة يُعرف بنماذج «عنق الزجاجة المفاهيمي». في هذا النهج، يُجبر النظام على بناء قراراته على مفاهيم يمكن للبشر فهمها. فبدلاً من الانتقال مباشرة من البيانات الخام إلى النتيجة، يمرّ النموذج بمرحلة وسيطة يحدد فيها خصائص أو مفاهيم محددة قبل الوصول إلى القرار. لكن هذا الأسلوب واجه سابقاً بعض التحديات، إذ إن تحسين قابلية التفسير كان أحياناً يأتي على حساب الدقة، أو يؤدي إلى تفسيرات غير واضحة بما يكفي.

نهج جديد

طوّر فريق «MIT» طريقة محسّنة تهدف إلى تجاوز هذه القيود. يعتمد النظام على مكونين من التعلم الآلي يعملان معاً. الأول يستخرج المعرفة من نموذج موجود، والثاني يحول هذه المعرفة إلى مفاهيم مفهومة للبشر. يتيح هذا الإطار المزدوج «ترجمة آلية» لآلية عمل النماذج المعقدة إلى صيغة قابلة للفهم. والأهم أن هذه التقنية يمكن تطبيقها على نماذج رؤية حاسوبية مدرّبة مسبقاً، ما يجعلها قابلة للتعميم على نطاق واسع.

ومن أبرز ما يميز هذا النهج أنه لا يضحي بالأداء من أجل الشفافية. بل تشير النتائج إلى أنه يمكن أن يحسن دقة التنبؤ وجودة التفسير في الوقت نفسه. وهذا يتحدى افتراضاً شائعاً في تطوير الذكاء الاصطناعي، وهو أن التفسير يأتي دائماً على حساب الأداء. يمثل الجمع بين الاثنين خطوة مهمة نحو تطبيقات عملية موثوقة.

باحثو جامعة «MIT» يطورون نهجاً جديداً يمكّن النماذج من تفسير تنبؤاتها بطريقة مفهومة (شاترستوك)

تفسيرات أوضح

يتميز النظام بجودة التفسيرات التي يقدمها. فبدلاً من مخرجات تقنية معقدة، ينتج أوصافاً مبنية على مفاهيم واضحة يمكن للمستخدم فهمها بسهولة. وتكتسب هذه الميزة أهمية خاصة في البيئات الحساسة، حيث تحتاج القرارات إلى مراجعة وتقييم. فالتفسير الواضح يتيح للمستخدم التأكد من منطق القرار.

الهدف الأوسع لهذا البحث هو تعزيز الثقة في أنظمة الذكاء الاصطناعي. فعندما يتمكن المستخدم من فهم كيفية اتخاذ القرار، يصبح أكثر قدرة على تقييم دقته واكتشاف الأخطاء المحتملة. ويبرز هذا الأمر بشكل خاص في مجالات، مثل الرعاية الصحية، حيث قد تكون لأي خطأ عواقب كبيرة. فالتفسير لا يعزز الفهم فقط، بل يدعم الاستخدام المسؤول للتقنية.

أثر عملي واسع

تمتد آثار هذا التطور إلى ما هو أبعد من تطبيق واحد. مع توسع استخدام الذكاء الاصطناعي، تتزايد الحاجة إلى الشفافية من قبل المستخدمين والجهات التنظيمية على حد سواء. وقد تلعب هذه التقنيات دوراً محورياً في تلبية هذه المتطلبات، من خلال جعل قرارات الذكاء الاصطناعي أكثر وضوحاً وقابلية للمساءلة.

يعكس هذا النهج خطوة ضمن اتجاه أوسع في أبحاث الذكاء الاصطناعي. فلم يعد التركيز مقتصراً على بناء نماذج عالية الأداء، بل يتجه نحو تطوير أنظمة قادرة على تفسير قراراتها. هذا التحول يعكس فهماً أعمق لدور الذكاء الاصطناعي في الواقع. فالأداء وحده لم يعد كافياً، بل يجب أن تكون الأنظمة مفهومة وموثوقة ومتوافقة مع التوقعات البشرية. وفي هذا السياق، تصبح القدرة على تفسير القرارات ليست مجرد ميزة إضافية، بل شرطاً أساسياً للجيل القادم من أنظمة الذكاء الاصطناعي.


«غوغل» تعيد تعريف البحث بالذكاء الاصطناعي المخصص

تفعيل الميزة اختياري ويمنح المستخدم تحكماً كاملاً في البيانات التي يتم استخدامها (أ.ف.ب)
تفعيل الميزة اختياري ويمنح المستخدم تحكماً كاملاً في البيانات التي يتم استخدامها (أ.ف.ب)
TT

«غوغل» تعيد تعريف البحث بالذكاء الاصطناعي المخصص

تفعيل الميزة اختياري ويمنح المستخدم تحكماً كاملاً في البيانات التي يتم استخدامها (أ.ف.ب)
تفعيل الميزة اختياري ويمنح المستخدم تحكماً كاملاً في البيانات التي يتم استخدامها (أ.ف.ب)

أعلنت شركة «غوغل» عن توسع جديد في قدرات الذكاء الاصطناعي لديها تحت مفهوم أطلقت عليه «الذكاء الشخصي» (Personal Intelligence) في خطوة تهدف إلى جعل أنظمة البحث والمساعدات الرقمية أكثر فهماً للسياق الفردي لكل مستخدم، بدلاً من الاكتفاء بإجابات عامة. هذا التوجه الذي جاء في مدونة رسمية عبر موقع الشركة يمثل تحولاً في طريقة عمل الذكاء الاصطناعي، من تقديم معلومات موحدة إلى تقديم استجابات مخصصة تستند إلى بيانات المستخدم ونشاطه عبر خدمات «غوغل» المختلفة.

تحول في البحث

لطالما اعتمدت محركات البحث على مطابقة الكلمات المفتاحية لتقديم نتائج ذات صلة. إلا أن «غوغل» ترى أن هذا النموذج لم يعد كافياً في ظل تنوع احتياجات المستخدمين. وبحسب ما أوضحته الشركة، فإن «الذكاء الشخصي» يهدف إلى تقديم إجابات تأخذ في الاعتبار السياق الفردي، بحيث يحصل كل مستخدم على نتائج تتناسب مع اهتماماته وتاريخه الرقمي.

يعتمد هذا النهج على ربط المعلومات بين عدد من تطبيقات «غوغل»، مثل «جيميل» و«صور غوغل» و«يوتيوب» وسجل البحث، وذلك في حال موافقة المستخدم على تفعيل هذه الميزة. ويتيح هذا التكامل لأنظمة الذكاء الاصطناعي، مثل (جيميناي) «Gemini» ووضع الذكاء الاصطناعي في البحث، الاستفادة من هذا السياق لتقديم إجابات أكثر دقة وارتباطاً باحتياجات المستخدم.

«غوغل» تطلق مفهوم «الذكاء الشخصي» لتقديم استجابات تعتمد على السياق الفردي لكل مستخدم (أ.ف.ب)

تجربة أكثر تخصيصاً

وفقاً لـ«غوغل»، يمكن للنظام الجديد «ربط النقاط» بين بيانات المستخدم المختلفة، ما يسمح بتقديم توصيات وملخصات واقتراحات أكثر تخصيصاً. فعلى سبيل المثال، بدلاً من تقديم اقتراحات عامة للسفر، يمكن للنظام الاستناد إلى اهتمامات المستخدم السابقة أو نشاطه الرقمي لتقديم خيارات أكثر ملاءمة. ويمثل ذلك انتقالاً من الذكاء الاصطناعي كأداة عامة إلى ما يشبه المساعد الشخصي الذي يتكيف مع المستخدم بمرور الوقت.

التحكم بيد المستخدم

أكدت «غوغل» أن استخدام هذه الميزة يعتمد على موافقة المستخدم، حيث يمكنه اختيار التطبيقات التي يرغب في ربطها، أو إيقاف الميزة بالكامل. وأوضحت الشركة أن البيانات الشخصية من خدمات مثل «جيميل» و«صور غوغل» لا تُستخدم لتدريب نماذج الذكاء الاصطناعي، بل تُستعمل لتوفير سياق ضمن التفاعل مع المستخدم فقط.

توازن مع الخصوصية

يبرز هذا التوجه تحدياً معروفاً في تطوير الذكاء الاصطناعي، وهو تحقيق التوازن بين التخصيص والخصوصية. فكلما زادت قدرة النظام على الوصول إلى البيانات، زادت دقة التوصيات، لكن ذلك يثير في الوقت نفسه تساؤلات حول حدود استخدام البيانات الشخصية. وتحاول «غوغل» معالجة هذا التحدي من خلال نموذج يعتمد على الشفافية ومنح المستخدم تحكماً أكبر في بياناته.

التحدي الرئيسي يتمثل في تحقيق توازن بين التخصيص العميق وحماية الخصوصية (شاترستوك)

ما بعد الإجابات

يعكس إطلاق «الذكاء الشخصي» توجهاً أوسع في مجال الذكاء الاصطناعي، حيث لم يعد الهدف مجرد الإجابة عن الأسئلة، بل فهم نية المستخدم والسياق المحيط به. ومن خلال دمج البيانات الشخصية، يمكن للأنظمة الانتقال من تقديم إجابات ثابتة إلى تفاعلات أكثر ديناميكية. من المتوقع أن ينعكس هذا التطور على الاستخدام اليومي للتكنولوجيا، حيث يمكن للأنظمة المخصصة أن تسهم في تسريع إنجاز المهام مثل التخطيط للسفر، أو العثور على معلومات سابقة، أو اتخاذ قرارات مبنية على بيانات شخصية. كما قد تقل الحاجة إلى إدخال نفس المعلومات بشكل متكرر، إذ يصبح النظام قادراً على استنتاج السياق من التفاعلات السابقة.

اتجاه مستقبلي

يمثل «الذكاء الشخصي» خطوة أولى نحو جيل جديد من أنظمة الذكاء الاصطناعي التي تجمع بين البحث والمساعدة الرقمية والتخصيص العميق. ومع ذلك، يبقى نجاح هذا النهج مرتبطاً بمدى ثقة المستخدمين، إذ ستلعب الشفافية والتحكم في البيانات دوراً حاسماً في تبني هذه التقنيات. في المحصلة، لا يتعلق هذا التوجه بجعل الذكاء الاصطناعي أكثر ذكاءً فحسب، بل بجعله أكثر ارتباطاً بالمستخدم نفسه، في تحول قد يعيد تعريف كيفية تفاعل الأفراد مع التكنولوجيا في حياتهم اليومية.