​ باحثون يحذرون: نماذج الذكاء الاصطناعي «تهلوس» وتختلق الإجابات

نماذج الذكاء الاصطناعي يمكن أن تختلق إجابات عن الأسئلة التي لا تعرف حلها (رويترز)
نماذج الذكاء الاصطناعي يمكن أن تختلق إجابات عن الأسئلة التي لا تعرف حلها (رويترز)
TT

​ باحثون يحذرون: نماذج الذكاء الاصطناعي «تهلوس» وتختلق الإجابات

نماذج الذكاء الاصطناعي يمكن أن تختلق إجابات عن الأسئلة التي لا تعرف حلها (رويترز)
نماذج الذكاء الاصطناعي يمكن أن تختلق إجابات عن الأسئلة التي لا تعرف حلها (رويترز)

حذرت مجموعة من الباحثين من أن نماذج الذكاء الاصطناعي يمكن أن «تهلوس» وتختلق إجابات عن الأسئلة التي لا تعرف حلها، مشيرين إلى أنهم ابتكروا طريقة يمكن بها رصد هذه المشكلة التي قد تسبب كوارث خطيرة، إذا ارتبطت الأسئلة بالمجالات العلمية والطبية.

وبحسب صحيفة «إندبندنت» البريطانية، فقد طور الباحثون التابعون لجامعة أكسفورد نموذجاً إحصائياً يمكنه تحديد متى من المحتمل أن تختلق روبوتات الدردشة التي تعمل بالذكاء الاصطناعي إجابات غير صحيحة عن أسئلة ما.

وأشار الفريق إلى أن نموذجهم يعتمد على الوقت الذي يقوم فيه روبوت الدردشة بالإجابة عن السؤال الموجَّه إليه، حيث يمكن للنموذج المبتكر، عن طريق حساب هذا الوقت، معرفة ما إذا كان روبوت الدردشة متأكداً من الإجابة أو قام بتأليفها واختلاقها.

وقال مؤلف الدراسة الدكتور سيباستيان فاركوهار: «إن نماذج الذكاء الاصطناعي قادرة على خداعنا عن طريق طرح إجابات تبدو مؤكدة، ويصعب الكشف عن أنها مختلَقة».

وأضاف: «مع الأساليب السابقة، لم يكن من الممكن معرفة الفرق بين النموذج الذي يكون غير متأكد بشأن إجابته، وذلك الذي يعطي إجابات صحيحة على الأسئلة الموجهة إليه. لكن طريقتنا الجديدة يمكنها رصد هذا الأمر».

وقال الباحثون في دراستهم التي نُشِرت في مجلة «الطبيعة»: «إن هلوسة نماذج الذكاء الاصطناعي التوليدي مصدر قلق رئيس، حيث إن الطبيعة المتقدمة للتكنولوجيا وقدرتها على المحادثة تعنيان أنها قادرة على تمرير معلومات مختلقة وغير صحيحة على أنها حقيقة فقط، من أجل الرد على الاستفسارات والأسئلة».

كثير من الخبراء لديهم مخاوف بشأن الذكاء الاصطناعي (رويترز)

ودعا الفريق إلى اتخاذ إجراءات قوية لمكافحة هلوسة الذكاء الاصطناعي، على وجه الخصوص عندما يتعلق الأمر بالاستفسارات الطبية أو القانونية.

والشهر الماضي، اتخذت شركة «غوغل» خطوات لتطوير محرك البحث الجديد «إيه آي أوفرفيوز» AI Overviews، المدعوم بالذكاء الاصطناعي التوليدي، بعد أن أبلغ مستخدمون عن إجابات غريبة أو أخرى تنطوي على خطورة محتملة.

ونشر أحد المدونين منشوراً بيَّن من خلاله أنه لدى السؤال حول عدد الرؤساء المسلمين في تاريخ الولايات المتحدة، رد AI Overviews بأن باراك أوباما «يعتبره البعض أول رئيس مسلم».

وتعليقاً على هذا المثال، أوضحت ناطقة باسم «غوغل» أن هذه النتيجة «انتهكت سياساتنا وعمدنا إلى إزالتها».

ونشر مستخدم آخر عبر حسابه المسمى «بيكسلباتس» PixelButts على منصة «إكس»، لقطة شاشة تعرض إجابة محرك البحث على سؤال بشأن طريقة تتيح «عدم التصاق الجبن بالبيتزا».

وبالإضافة إلى خلط الجبن مع الصلصة، اقترح محرك البحث التابع لـ«غوغل» إضافة غراء «غير سامّ» إلى الجبن.

وفي شهر يناير (كانون الثاني) الماضي، حذرت دراسة من إمكانية تدريب نماذج الذكاء الاصطناعي المتقدمة على الكذب على البشر وخداعهم بكل سهولة.

واختبر فريق الدراسة التابع لشركة «Anthropic» الناشئة للذكاء الاصطناعي ما إذا كانت روبوتات الدردشة المتطورة مثل «تشات جي بي تي» يمكن أن تتعلم الكذب من أجل خداع الناس.

ووجد الفريق أن هذه الروبوتات لا تستطيع تعلم الكذب فحسب، بل من المستحيل إعادة تدريبها بعد ذلك على قول الحقيقة والمعلومات الصحيحة باستخدام تدابير السلامة الخاصة بالذكاء الاصطناعي المتاحة في الوقت الحالي.

وحذر الباحثون من وجود «شعور زائف بالأمان» تجاه أنظمة الذكاء الاصطناعي والمعلومات المستمدة منها.

وأشار الفريق إلى خطورة برمجة المحتالين وقراصنة الإنترنت لأنظمة الذكاء الاصطناعي على الكذب وإخفاء الأضرار التي قد تنتج عن عملية شرائية معينة أو عن الدخول إلى موقع ما.


مقالات ذات صلة

السعودية تسعى لتعزيز التعاون الدولي في الأمن السيبراني

الاقتصاد جانب من أعمال المنتدى الدولي للأمن السيبراني 2023 في الرياض (الهيئة)

السعودية تسعى لتعزيز التعاون الدولي في الأمن السيبراني

في ظل التطور المتسارع والتحديات المتصاعدة التي يشهدها قطاع الأمن السيبراني عالمياً، تقدم السعودية نموذجاً استثنائياً في هذا المجال.

«الشرق الأوسط» (الرياض)
الاقتصاد يقوم عدد من مقدمي طلبات التأشيرات في مركز التأشيرات بالرياض بإكمال إجراءات طلباتهم (الشرق الأوسط)

نمو طلبات تأشيرات «شنغن» في السعودية بنسبة 23 % هذا العام

كشفت شركة «في إف إس غلوبال» عن أن الطلب على تأشيرات «شنغن» في السعودية شهد نمواً ملحوظاً بنسبة 23 في المائة هذا العام.

فتح الرحمن يوسف (الرياض)
الاقتصاد خزان تعدين في أحد المؤتمرات بالولايات المتحدة (رويترز)

إنفوغراف: ما أكبر مراكز البيانات في العالم؟

في ظل دعوة شركات الذكاء الاصطناعي الكبرى البيت الأبيض إلى بناء مراكز بيانات ضخمة بقدرة 5 غيغاواط من شأنها أن توفر عشرات الآلاف من الوظائف وتعزز الناتج المحلي.

«الشرق الأوسط» (واشنطن)
علوم صور أنشأها «نموذج الطبيعة الكبير» للذكاء الاصطناعي

أول متحف فني للذكاء الاصطناعي في العالم يتحدى العقول

مَعْلَم يلتقي فيه الخيال البشري بإبداع الآلة

جيسوس دياز (واشنطن)
الاقتصاد شعاري «أوبن إيه آي» و«تشات جي بي تي» في هذه الصورة التوضيحية (رويترز)

العقل المدبر خلف «تشات جي بي تي» تغادر «أوبن إيه آي»

أعلنت المديرة الفنية لشركة «أوبن إيه آي»، ميرا موراتي، يوم الأربعاء، استقالتها من المجموعة المتخصصة في الذكاء الاصطناعي التوليدي، لتنضم بذلك إلى قائمة المغادرين

«الشرق الأوسط» (نيويورك)

الرياضيات… هل هي الطريق إلى روبوتات الدردشة بلا هلوسة؟

فلاد تينيف (إلى اليسار) وتودور أخيم مؤسسا «هرمونيك» في مقرهما الرئيسي في بالو ألتو كاليفورنيا
فلاد تينيف (إلى اليسار) وتودور أخيم مؤسسا «هرمونيك» في مقرهما الرئيسي في بالو ألتو كاليفورنيا
TT

الرياضيات… هل هي الطريق إلى روبوتات الدردشة بلا هلوسة؟

فلاد تينيف (إلى اليسار) وتودور أخيم مؤسسا «هرمونيك» في مقرهما الرئيسي في بالو ألتو كاليفورنيا
فلاد تينيف (إلى اليسار) وتودور أخيم مؤسسا «هرمونيك» في مقرهما الرئيسي في بالو ألتو كاليفورنيا

روبوتات الدردشة مثل ChatGPT «تشات جي بي تي» تخطئ في أعمالها. لكن الباحثين يقومون ببناء أنظمة ذكاء اصطناعي جديدة يمكنها التحقق من حساباتها الخاصة - وربما أكثر.

في أحد الأيام الماضية، أعطى الباحث تيودور أخيم لغزاً لروبوت ذكاء اصطناعي يُدعى «أرسطو» Aristotle.

سؤال حسابي للذكاء الاصطناعي

وتضمن السؤال جدولاً بحجم 10 × 10 مملوءاً بمائة رقم. وسأل أخيم: إذا جمعت أصغر رقم في كل صف وأكبر رقم في كل عمود... هل يمكن أن يكون أكبر الأرقام الصغيرة أكبر من أصغر الأرقام الكبيرة؟ وأجاب الروبوت بشكل صحيح «لا».

لكن هذا لم يكن مفاجئاً، إذ قد تقدم برامج الدردشة الشائعة مثل «تشات جي بي تي» الإجابة الصحيحة أيضاً. كان الاختلاف هو أن «أرسطو» أثبت أن إجابته كانت صحيحة. إذ أنشأ الروبوت برنامج كومبيوتر مفصلاً يتحقق من أن «لا» هي الإجابة الصحيحة.

بين الكتابة والشعر... والرياضيات

يمكن لبرامج الدردشة مثل «تشات جي بي تي» و«جيمناي» الإجابة على الأسئلة، وكتابة الشعر، وتلخيص المقالات الإخبارية، وإنشاء الصور. لكنها ترتكب أيضاً أخطاء تتحدى الفطرة السليمة. إذ في بعض الأحيان تخترع أشياء –في ظاهرة تسمى الهلوسة.

إلا أن أخيم الرئيس التنفيذي والمؤسس المشارك لشركة ناشئة في وادي السيليكون تسمى «هرمونيك» Harmonic، واحد من الأشخاص الذين يمثلون جزءاً من الجهود المتنامية لبناء نوع جديد من الذكاء الاصطناعي لا يهلوس أبداً.

برنامج «ألفا بروف» الذكي

ذكاء لغوي بلا هلوسة

اليوم، تركز هذه التكنولوجيا على الرياضيات. لكن العديد من الباحثين الرائدين يعتقدون أنهم يستطيعون توسيع نفس التقنيات في برمجة الكومبيوتر، وغيرها من المجالات. نظراً لأن الرياضيات هي تخصص صارم لإثبات ما إذا كانت الإجابة صحيحة أم خاطئة، يمكن لشركات مثل «هرمونيك» بناء تقنيات الذكاء الاصطناعي التي تتحقق من إجاباتها الخاصة وتتعلم إنتاج معلومات موثوقة.

نظام «ألفا بروف»

وقد كشف مختبر بحوث الكومبيوتر في مركز الذكاء الاصطناعي العملاق للتكنولوجيا «غوغل ديب مايند»، حديثاً عن نظام يسمى «ألفا بروف» AlphaProof يعمل بهذه الطريقة. وفي إطار المنافسة في أولمبياد الرياضيات الدولي، المسابقة الأولى في الرياضيات لطلاب المدارس الثانوية، حقق النظام أداء «الميدالية الفضية»، حيث تمكن من حل أربع من أصل ست مسائل في المسابقة. وكانت هذه هي المرة الأولى التي تصل فيها آلة إلى هذا المستوى.

* خدمة «نيويورك تايمز»