60 % من نتائج بحث أدوات الذكاء الاصطناعي... غير دقيقة

معلومات خاطئة ومزيفة... لدى اختبار 8 أدوات رائدة منها

60 % من نتائج بحث أدوات الذكاء الاصطناعي... غير دقيقة
TT
20

60 % من نتائج بحث أدوات الذكاء الاصطناعي... غير دقيقة

60 % من نتائج بحث أدوات الذكاء الاصطناعي... غير دقيقة

إذا كنت تستخدم بحث الذكاء الاصطناعي في العمل، فكن حذراً. جاء هذا في دراسة جديدة تكشف عن معلوماتها «المختلقة».

قد تعرض أدوات الذكاء الاصطناعي للبحث، معلومات خاطئة تماماً. وقد سجَّلت أداة غروك Grok التابعة لإيلون ماسك أسوأ النتائج.

الذكاء الاصطناعي– محرك البحث المستقبلي

مع توجه «غوغل» بشكل أكبر نحو الاستثمار في ضخ نتائج البحث المُولَّدة بالذكاء الاصطناعي، وذلك بعد بداية متعثرة لها العام الماضي، وتجربة شركات مماثلة مثل «أوبن إيه آي» هذه التقنية المبتكرة، يبدو أن الذكاء الاصطناعي سيشكل مستقبل البحث عبر الإنترنت.

وستكون لذلك تداعيات على العاملين في أي شركة تقريباً، بغض النظر عن مجال عملها؛ لأن البحث عن المعلومات جزء أساسي من استخدامات الإنترنت.

دراسة جديدة لمشكلات الدقة

لكن دراسة جديدة من مركز «تاو» للصحافة الرقمية بجامعة كولومبيا، نُشرت في مجلة «Columbia Journalism Review»، تُسلِّط الضوء على ضرورة توخي موظفي المؤسسات والشركات الحذر الشديد، على الأقل في الوقت الحالي؛ لأن أدوات بحث الذكاء الاصطناعي من كثير من الشركات الكبرى تعاني مشكلات خطيرة في الدقة.

اختبار 8 أدوات ذكية

دققت الدراسة في عمل 8 أدوات بحث مختلفة للذكاء الاصطناعي، بما في ذلك «تشات جي بي تي» ChatGPT، و«بربليكسيتي» Perplexity، و«جيمناي» Gemini من «غوغل»، و«كوبايلوت» Copilot من «مايكروسوفت»، والأداة الصينية الرائدة «ديب سيك» DeepSeek.

وقد ركَّزت الدراسة على دقة الإجابات عندما تم اختبار كل أداة ذكاء اصطناعي حول قصة إخبارية، حسبما أفاد موقع أخبار التكنولوجيا «آرس تكنيكا».

60 % من الإجابات غير صحيحة

وكانت النتيجة الأبرز في الدراسة أن جميع أدوات الذكاء الاصطناعي أظهرت دقة سيئة بشكل مذهل، حيث أخطأت في 60 من الإجابات. ومع ذلك، لم يكن مستوى الخطأ متساوياً بين جميع الأدوات.

أظهرت أداة Perplexity معدل خطأ بلغ نحو 37 في المائة، في حين ارتفعت نسبة الأخطاء لدى ChatGPT إلى 67 في المائة. أما نموذج Grok 3، الذي طوَّره إيلون ماسك، فقد سجل أسوأ أداء، إذ كانت إجاباته خاطئة بنسبة 94 في المائة. وربما لم يكن ذلك مفاجئًا، خاصة أن ماسك روَّج للنموذج على أنه أقل تقيُّدًا بالقيود الأمنية مقارنة بمنافسيه في الذكاء الاصطناعي. (فضلًا عن أن الملياردير معروف بتوجهاته المتحررة نسبيًا فيما يتعلق بالدقة والحقائق وحرية التعبير).

والأسوأ من ذلك، لاحظ الباحثون أن الإصدارات المدفوعة من أدوات البحث هذه كانت أحياناً أسوأ من بدائلها المجانية.

أداة البحث تختلف عن أداة الدردشة

تجدر الإشارة إلى أن البحث بالذكاء الاصطناعي يختلف قليلًا عن استخدام روبوتات الدردشة التي تحاكي المحادثات البشرية. فعادةً ما يقوم البحث بالذكاء الاصطناعي بمحاكاة دور محرك البحث، حيث يجري البحث نيابة عنك بعد إدخال استعلامك، ثم يقدم ملخصًا لأهم المعلومات التي وجدها على الإنترنت، مما يغنيك عن الحاجة إلى قراءة المقال الأصلي الذي استُخلصت منه البيانات.

لكن المشكلة هنا تكمن في أن هذه النماذج، تمامًا مثل ذلك الزميل الواثق بنفسه إلى حد الإفراط، والذي يبدو دائمًا وكأنه يمتلك الحقيقة بغض النظر عن الموضوع المطروح، لا تميل إلى الاعتراف بعدم معرفتها بالإجابة على أي استعلام.

إجابات «معقولة» غير صحيحة

لاحظ مؤلفو الدراسة أنه بدلاً من قول «لا» عند عدم تمكنه من العثور على معلومات موثوقة، رداً على استفسار حول قصة إخبارية، غالباً ما قدَّم الذكاء الاصطناعي إجابات مُختلقة تبدو معقولة، ولكنها في الواقع غير صحيحة. ومن العيوب الأخرى التي اكتشفتها هذه الدراسة أنه حتى عندما قدمت أدوات بحث الذكاء الاصطناعي هذه استشهادات إلى جانب نتائج البحث (ظاهرياً حتى يتمكن المستخدمون من زيارة مواقع المصادر هذه للتحقق من أي تفاصيل، أو للتحقق من صحة البيانات)، غالباً ما أدت روابط الاستشهادات هذه إلى نسخ مُجمَّعة من المحتوى، بدلاً من نسخ الناشرين الأصليين. وفي بعض الأحيان، أدت هذه الروابط إلى عناوين ويب غير موجودة؛ فعل ذلك Gemini وGrok 3 في أكثر من نصف استشهاداتهم.

تجربة اختبارية متخصصة

كانت التجربة متخصصة بعض الشيء؛ لأنها استندت إلى مقالات إخبارية، ولم يبحث الباحثون بعمق في دقة نتائج بحث الذكاء الاصطناعي عن محتوى آخر موجود على الإنترنت. وبدلاً من ذلك، قاموا بتغذية أدوات الذكاء الاصطناعي بمقتطفات من أخبار حقيقية ثم طلبوا منها تلخيص المعلومات، بما في ذلك العنوان وتفاصيل أخرى.

يجب أن تهتم بنتائج الدراسة لسبب بسيط واحد. فنحن نعلم أن الذكاء الاصطناعي قادر على تسريع بعض مهام المكتب المملة وتعزيز كفاءة الموظفين. ويبدو أن البحث باستخدام الذكاء الاصطناعي قد يصبح هو القاعدة، ليحل محل البحث التقليدي على الإنترنت الذي قد يكون مهمة شاقة في بعض الأحيان.

محدودية الثقة بالذكاء الاصطناعي

ولكن إذا كان فريقك -على سبيل المثال- يبحث عن معلومات أساسية لإدراجها في محتوى ستنشره، أو حتى يبحث عن موارد على الإنترنت قبل بدء مشروع جديد، فعلى العاملين فيه توخي الحذر الشديد بشأن الثقة في نتائج أدوات بحث الذكاء الاصطناعي.

ويبدو بعض الإجابات وكأنه نسخة أخرى من مشكلة هلوسة الذكاء الاصطناعي المعروفة، وهي دليل إضافي على أنه إذا كنت تستخدم أدوات الذكاء الاصطناعي لتعزيز جهود شركتك، فأنت بالتأكيد بحاجة إلى أشخاص أذكياء على دراية تامة بنتائج الذكاء الاصطناعي للتحقق منها.

* «إنك»، خدمات «تريبيون ميديا».


مقالات ذات صلة

دعوى قضائية: روبوتات دردشة تدفع المراهقين لإيذاء أنفسهم أو آبائهم

تكنولوجيا روبوت الدردشة «ثيرابوت» (جامعة دارتموث)

دعوى قضائية: روبوتات دردشة تدفع المراهقين لإيذاء أنفسهم أو آبائهم

طالب اثنان من أعضاء مجلس الشيوخ الأميركي شركات الذكاء الاصطناعي بالإفصاح عن إجراءاتها بشأن سلامة المستخدمين.

«الشرق الأوسط» (نيويورك)
يوميات الشرق حوَّل الباحثون سماعات الأذن البسيطة لأداة تقيس المؤشرات الصحية (معهد كارلسروه للتكنولوجيا)

جهاز ذكي في الأذن يرصد الحالة الصحية للجسم

طوَّر باحثون من معهد كارلسروه للتكنولوجيا (KIT) في ألمانيا، منصَّة مفتوحة المصدر (OpenEarable)، يمكنها دمج العديد من المستشعرات في سمّاعات أذن لاسلكية.

«الشرق الأوسط» (القاهرة )
الولايات المتحدة​ تم اصطحاب المؤيدة للفلسطينيين ابتهال أبو سعد بعيداً من قبل أفراد الأمن أثناء مقاطعتها للرئيس التنفيذي لشركة «مايكروسوفت» للذكاء الاصطناعي مصطفى سليمان (أ.ب)

موظفة تقاطع كلمة مسؤول بـ«مايكروسوفت» بسبب غزة: أنت من تجار الحرب (فيديو)

قاطعت موظفة مؤيدة للفلسطينيين كلمة المدير التنفيذي لقطاع الذكاء الاصطناعي في شركة «مايكروسوفت» مصطفى سليمان احتجاجاً على علاقات الشركة مع إسرائيل.

«الشرق الأوسط» (واشنطن)
خاص تساهم تقنيات  الذكاء الاصطناعي وأنظمة الكاميرات المتقدمة في تحسين جودة التعلّم الهجين وتعزز التفاعل في البيئات التعليمية (غيتي)

خاص التعليم والتدريب الهجين في السعودية... كيف تصنع التكنولوجيا فرقاً؟

يتطور التعليم السعودي بالذكاء الاصطناعي والواقع الافتراضي لدعم التعلم الهجين والاقتصاد المعرفي تماشياً مع «رؤية 2030».

نسيم رمضان (الرياض)
تكنولوجيا يرى خبراء صعوبة  إجراء تحليل دقيق للعبة باستخدام الذكاء الاصطناعي إلا عندما يتداخل اللاعبون الرقميون والحقيقيون بشكل مثالي (ETH)

ثورة في التحكيم والتحليل... مشروع لخفض تكلفة الذكاء الاصطناعي في كرة القدم

تسعى جامعة «ETH» زيورخ و«فيفا» لنشر تقنيات الذكاء الاصطناعي منخفضة التكلفة في كرة القدم لتعزيز التحكيم وتحليل الأداء بشكل شامل وعادل.

نسيم رمضان (لندن)

باحثون أميركيون يسبرون أغوار «تفكير» الذكاء الاصطناعي التوليدي

باحثون أميركيون يسبرون  أغوار «تفكير» الذكاء الاصطناعي التوليدي
TT
20

باحثون أميركيون يسبرون أغوار «تفكير» الذكاء الاصطناعي التوليدي

باحثون أميركيون يسبرون  أغوار «تفكير» الذكاء الاصطناعي التوليدي

لماذا تُعد روبوتات الدردشة القائمة على الذكاء الاصطناعي ذكية للغاية، فهي قادرة على فهم الأفكار المعقدة، وصياغة قصص قصيرة رائعة بشكل مدهش، وفهم ما يقصده المستخدمون بديهياً؟ الحقيقة هي أننا لا نعرف الإجابة تماماً.

نشاط فكري غامض

تُفكر نماذج اللغة الكبيرة بطرق لا تبدو بشرية تماماً، إذ تتكون مخرجاتها من مليارات الإشارات الرياضية التي تتدفق عبر طبقات من الشبكات العصبية التي تعمل بأجهزة كمبيوتر ذات قوة وسرعة غير مسبوقتين. ويظل معظم هذا النشاط غير مرئي أو غامض بالنسبة لباحثي الذكاء الاصطناعي.

يُمثل هذا الغموض تحديات واضحة، لأن أفضل طريقة للتحكم في شيء ما، فهم كيفية عمله.

لقد كان لدى العلماء فهم راسخ للفيزياء النووية قبل بناء أول قنبلة أو محطة طاقة. ولكن لا يمكن قول الشيء نفسه عن نماذج الذكاء الاصطناعي التوليدية. ولا يزال الباحثون العاملون في مجال سلامة الذكاء الاصطناعي، وهو فرع من فروع «التفسير الآلي»، والذين يقضون أيامهم في دراسة التسلسلات المعقدة للدوال الرياضية التي تُؤدي إلى إخراج هذه النماذج للكلمة أو البكسل (عنصر الصورة) التالي، يحاولون اللحاق بالركب.

أبحاث جديدة

الخبر السار هو أنهم يُحرزون تقدماً حقيقياً. ومثال على ذلك: إصدار بحثين جديدين من شركة أنثروبيك، يُقدمان رؤى جديدة حول «التفكير» الداخلي لبرنامج الدردشة الذكي.

«مجهر» لتدقيق الذكاء الاصطناعي

وكما تعتمد المعاملات داخل الشبكات العصبية على «الخلايا العصبية» في الدماغ، استعان باحثو أنثروبيك بعلم الأعصاب لدراسة الذكاء الاصطناعي. وصرّح جوشوا باتسون، عالم الأبحاث في «أنثروبيك»، لمجلة «فاست كومباني»، بأن فريقه طوّر أداة بحثية - أشبه بـ«مجهر الذكاء الاصطناعي» - يمكنها تتبع أنماط البيانات وتدفقات المعلومات داخل البرنامج الذكي، ومراقبة كيفية ربطه للكلمات والمفاهيم في طريقه إلى الإجابة.

قبل عام، لم يكن بإمكان الباحثين سوى رؤية سمات محددة لهذه الأنماط والتدفقات، لكنهم بدأوا الآن في ملاحظة كيف تُؤدي فكرة إلى أخرى من خلال سلسلة من التفكير المنطقي. ويقول باتسون: «نحاول ربط كل ذلك معاً، ونشرح خطوة بخطوة عند وضع مُوجِّه في نموذج، لماذا يقول الكلمة التالية؟ وبما أن إجابات النموذج تأتي كلمة تلو أخرى، فإذا استطعت تحليلها والقول: حسناً، لماذا قال هذه الكلمة بدلاً من تلك؟ يمكنك حينها فهم الأمر برمته».

الذكاء الاصطناعي والرياضيات

الذكاء الاصطناعي يُفكِّر بشكل مختلف - حتى عندما يتعلق الأمر بالرياضيات البسيطة.

ويُعزِز هذا البحث فكرة أن أنظمة الذكاء الاصطناعي تُعالج المشكلات بشكل مختلف تماماً عن البشر. لا تُدرس الأنظمة مهام مثل الحساب بشكل صريح، بل تُعرَض عليها الإجابات الصحيحة، وتترك لتطوير مسارها الاحتمالي الخاص نحو هذا الاستنتاج.

درس باتسون وفريقه مثالاً بسيطاً على هذه الرياضيات - طلب من برنامج دردشة جمع العددين 36 و59 - ووجد أن «عملية» الذكاء الاصطناعي كانت مختلفة تماماً عن حسابات الإنسان العادي. فبدلاً من اتباع خطواتٍ بشرية، استخدم نموذج الاختبار نوعين من المنطق للوصول إلى الإجابة: تقريب الإجابة (هل هي في التسعينات؟) وتقدير الرقم الأخير منها. بجمع احتمالات الإجابات المختلفة، تمكن برنامج «كلود» الذي طورته شركة «أنثروبيك» من الوصول إلى المجموع الصحيح. يقول باتسون: «لقد تعلم بالتأكيد استراتيجية مختلفة في الرياضيات عن تلك التي تعلمناها في المدرسة».

التفكير بمفاهيم شمولية

درس الباحثون أيضاً ما إذا كانت برامج التعلم الآلي، التي غالباً ما تُحلل وتُنتج محتوى بلغات متعددة، تُفكّر بالضرورة بلغة الكلمات المُعطاة لها التي يوجهها المستخدم. يتساءل باتسون: «هل تستخدم الكلمات الإنجليزية فقط عند التعامل مع اللغة الإنجليزية، والأجزاء الفرنسية عند التعامل مع اللغة الفرنسية، والأجزاء الصينية عند التعامل مع اللغة الصينية؟... أم أن هناك أجزاءً من النموذج تُفكّر بالفعل بمفاهيم شمولية عالمية بغض النظر عن اللغة التي تعمل بها؟».

رموز عالمية تترجم إلى اللغات

وجد الباحثون أن برامج التعلم الآلي تقوم بكلا الأمرين. طلبوا من «كلود» ترجمة جمل بسيطة إلى لغات متعددة، وتتبعوا الرموز المتداخلة التي استخدمها أثناء المعالجة. تُمثّل هذه الرموز المُشتركة - أي مقتطفات من المعنى - أفكاراً جوهرية لا تعتمد على لغة مُحددة، مثل «الصغر» أو «التضاد». وقد أدى استخدام هذين الرمزين معاً إلى تمثيل مفهوم عالمي آخر يُمثّل «الكبر» (عكس الصغير هو الكبير). يستخدم النموذج هذه المفاهيم العالمية قبل أن يترجمها إلى لغة معينة للمستخدم.

يشير هذا إلى أن «كلود» يستطيع تعلم مفهوم مثل «الصغر» في لغة ما، ثم تطبيق هذه المعرفة عند التحدث بلغة أخرى دون أي تدريب إضافي، كما يقول باتسون. تُعدّ دراسة كيفية مشاركة النموذج لما يعرفه عبر السياقات أمراً مهماً لفهم طريقة تفكيره في الأسئلة في العديد من المجالات المختلفة.

نظم ذكية في التخطيط والارتجال

لا يفكر «كلود» فقط في الكلمة المنطقية التالية التي يجب توليدها، بل لديه أيضاً القدرة على التفكير «مستقبلاً». عندما طلب منه فريق البحث كتابة الشعر، أدرج «كلود» بالفعل أنماط القافية في أنماط معالجته. على سبيل المثال، بعد أن انتهى السطر بالعبارة الإنجليزية ـ «grab it»، اختار «كلود» كلمات في السطر التالي من شأنها أن تُهيئ بشكل جيد لاستخدام كلمة «rabbit» خاتمة.

الذكاء الاصطناعي ونَظْم القصائد الشعرية

يقول باتسون: «وجد أحد أعضاء فريقي أنه في نهاية هذا السطر، بعد (grab it)، وقبل أن يبدأ حتى في كتابة السطر التالي، كان يفكر في أرنب (rabbit)»، تدخل الباحثون بعد ذلك في تلك المرحلة تحديداً من العملية، فأدخلوا إما نظام قافية جديداً أو كلمة ختامية جديدة، وقام (كلود) بتغيير خطته وفقاً لذلك، مختاراً مساراً لفظياً جديداً للوصول إلى قافية منطقية.

يقول باتسون إن ملاحظة الشعر هي من مفضلاته لأنها تعطي نظرة واضحة نسبياً على جزء محدد من تفكير البرنامج الذكي في حل مشكلة ما، ولأنها تثبت أن أدوات الملاحظة التي استخدمها فريقه (مثل مجهر الذكاء الاصطناعي) تؤدي عملها.

تسلط دراسة الشعر الضوء على مقدار العمل الذي لا يزال يتعين القيام به.

يلتقط الباحثون في هذا الميدان لقطات سريعة، بنفس الطريقة التي قد يدرس بها عالم أعصاب الطريقة التي يحول بها إحدى مناطق «الحُصين (hippocampus)» البشري الذكريات قصيرة المدى إلى ذكريات طويلة المدى. يقول باتسون: «استكشاف هذا المجال المعقد أشبه بمغامرة في كل مرة، ولذلك كنا في الواقع نحتاج فقط إلى أدوات لفهم كيفية ترابط الأشياء وتجربة الأفكار والتنقل بينها... لذا، نمر بمرحلة التحقيق هذه بعد بناء المجهر، وننظر إلى شيء ما ونقول: حسناً، ما هذا الجزء؟ وما هذا الجزء؟ وما هذا الشيء هنا؟».

التوجيه نحو سلوك آمن

ولكن بافتراض أن شركات الذكاء الاصطناعي تواصل تمويل أبحاث قابلية التفسير الآلي وإعطائها الأولوية، فإن اللقطات ستتوسع وتبدأ في الترابط، ما يوفر فهماً أوسع لسبب ما تفعله البرامج الذكية.

إن الفهم الأفضل لهذه الأنماط يمكن أن يمنح الباحثين فهماً أفضل للمخاطر الحقيقية التي قد تشكلها هذه الأنظمة، بالإضافة إلى طرق أفضل «لتوجيه» الأنظمة نحو سلوك آمن وخير.

يشير باتسون إلى أننا قد نطور ثقة أكبر بأنظمة الذكاء الاصطناعي بمرور الوقت من خلال اكتساب المزيد من الخبرة في مخرجاتها. ومع ذلك، يضيف أنه سيكون «أكثر ارتياحاً بكثير إذا فهمنا أيضاً ما يجري (في الداخل)».

* مجلة فاست كومباني، خدمات «تريبيون ميديا».