60 % من نتائج بحث أدوات الذكاء الاصطناعي... غير دقيقة

معلومات خاطئة ومزيفة... لدى اختبار 8 أدوات رائدة منها

60 % من نتائج بحث أدوات الذكاء الاصطناعي... غير دقيقة
TT
20

60 % من نتائج بحث أدوات الذكاء الاصطناعي... غير دقيقة

60 % من نتائج بحث أدوات الذكاء الاصطناعي... غير دقيقة

إذا كنت تستخدم بحث الذكاء الاصطناعي في العمل، فكن حذراً. جاء هذا في دراسة جديدة تكشف عن معلوماتها «المختلقة».

قد تعرض أدوات الذكاء الاصطناعي للبحث، معلومات خاطئة تماماً. وقد سجَّلت أداة غروك Grok التابعة لإيلون ماسك أسوأ النتائج.

الذكاء الاصطناعي– محرك البحث المستقبلي

مع توجه «غوغل» بشكل أكبر نحو الاستثمار في ضخ نتائج البحث المُولَّدة بالذكاء الاصطناعي، وذلك بعد بداية متعثرة لها العام الماضي، وتجربة شركات مماثلة مثل «أوبن إيه آي» هذه التقنية المبتكرة، يبدو أن الذكاء الاصطناعي سيشكل مستقبل البحث عبر الإنترنت.

وستكون لذلك تداعيات على العاملين في أي شركة تقريباً، بغض النظر عن مجال عملها؛ لأن البحث عن المعلومات جزء أساسي من استخدامات الإنترنت.

دراسة جديدة لمشكلات الدقة

لكن دراسة جديدة من مركز «تاو» للصحافة الرقمية بجامعة كولومبيا، نُشرت في مجلة «Columbia Journalism Review»، تُسلِّط الضوء على ضرورة توخي موظفي المؤسسات والشركات الحذر الشديد، على الأقل في الوقت الحالي؛ لأن أدوات بحث الذكاء الاصطناعي من كثير من الشركات الكبرى تعاني مشكلات خطيرة في الدقة.

اختبار 8 أدوات ذكية

دققت الدراسة في عمل 8 أدوات بحث مختلفة للذكاء الاصطناعي، بما في ذلك «تشات جي بي تي» ChatGPT، و«بربليكسيتي» Perplexity، و«جيمناي» Gemini من «غوغل»، و«كوبايلوت» Copilot من «مايكروسوفت»، والأداة الصينية الرائدة «ديب سيك» DeepSeek.

وقد ركَّزت الدراسة على دقة الإجابات عندما تم اختبار كل أداة ذكاء اصطناعي حول قصة إخبارية، حسبما أفاد موقع أخبار التكنولوجيا «آرس تكنيكا».

60 % من الإجابات غير صحيحة

وكانت النتيجة الأبرز في الدراسة أن جميع أدوات الذكاء الاصطناعي أظهرت دقة سيئة بشكل مذهل، حيث أخطأت في 60 من الإجابات. ومع ذلك، لم يكن مستوى الخطأ متساوياً بين جميع الأدوات.

أظهرت أداة Perplexity معدل خطأ بلغ نحو 37 في المائة، في حين ارتفعت نسبة الأخطاء لدى ChatGPT إلى 67 في المائة. أما نموذج Grok 3، الذي طوَّره إيلون ماسك، فقد سجل أسوأ أداء، إذ كانت إجاباته خاطئة بنسبة 94 في المائة. وربما لم يكن ذلك مفاجئًا، خاصة أن ماسك روَّج للنموذج على أنه أقل تقيُّدًا بالقيود الأمنية مقارنة بمنافسيه في الذكاء الاصطناعي. (فضلًا عن أن الملياردير معروف بتوجهاته المتحررة نسبيًا فيما يتعلق بالدقة والحقائق وحرية التعبير).

والأسوأ من ذلك، لاحظ الباحثون أن الإصدارات المدفوعة من أدوات البحث هذه كانت أحياناً أسوأ من بدائلها المجانية.

أداة البحث تختلف عن أداة الدردشة

تجدر الإشارة إلى أن البحث بالذكاء الاصطناعي يختلف قليلًا عن استخدام روبوتات الدردشة التي تحاكي المحادثات البشرية. فعادةً ما يقوم البحث بالذكاء الاصطناعي بمحاكاة دور محرك البحث، حيث يجري البحث نيابة عنك بعد إدخال استعلامك، ثم يقدم ملخصًا لأهم المعلومات التي وجدها على الإنترنت، مما يغنيك عن الحاجة إلى قراءة المقال الأصلي الذي استُخلصت منه البيانات.

لكن المشكلة هنا تكمن في أن هذه النماذج، تمامًا مثل ذلك الزميل الواثق بنفسه إلى حد الإفراط، والذي يبدو دائمًا وكأنه يمتلك الحقيقة بغض النظر عن الموضوع المطروح، لا تميل إلى الاعتراف بعدم معرفتها بالإجابة على أي استعلام.

إجابات «معقولة» غير صحيحة

لاحظ مؤلفو الدراسة أنه بدلاً من قول «لا» عند عدم تمكنه من العثور على معلومات موثوقة، رداً على استفسار حول قصة إخبارية، غالباً ما قدَّم الذكاء الاصطناعي إجابات مُختلقة تبدو معقولة، ولكنها في الواقع غير صحيحة. ومن العيوب الأخرى التي اكتشفتها هذه الدراسة أنه حتى عندما قدمت أدوات بحث الذكاء الاصطناعي هذه استشهادات إلى جانب نتائج البحث (ظاهرياً حتى يتمكن المستخدمون من زيارة مواقع المصادر هذه للتحقق من أي تفاصيل، أو للتحقق من صحة البيانات)، غالباً ما أدت روابط الاستشهادات هذه إلى نسخ مُجمَّعة من المحتوى، بدلاً من نسخ الناشرين الأصليين. وفي بعض الأحيان، أدت هذه الروابط إلى عناوين ويب غير موجودة؛ فعل ذلك Gemini وGrok 3 في أكثر من نصف استشهاداتهم.

تجربة اختبارية متخصصة

كانت التجربة متخصصة بعض الشيء؛ لأنها استندت إلى مقالات إخبارية، ولم يبحث الباحثون بعمق في دقة نتائج بحث الذكاء الاصطناعي عن محتوى آخر موجود على الإنترنت. وبدلاً من ذلك، قاموا بتغذية أدوات الذكاء الاصطناعي بمقتطفات من أخبار حقيقية ثم طلبوا منها تلخيص المعلومات، بما في ذلك العنوان وتفاصيل أخرى.

يجب أن تهتم بنتائج الدراسة لسبب بسيط واحد. فنحن نعلم أن الذكاء الاصطناعي قادر على تسريع بعض مهام المكتب المملة وتعزيز كفاءة الموظفين. ويبدو أن البحث باستخدام الذكاء الاصطناعي قد يصبح هو القاعدة، ليحل محل البحث التقليدي على الإنترنت الذي قد يكون مهمة شاقة في بعض الأحيان.

محدودية الثقة بالذكاء الاصطناعي

ولكن إذا كان فريقك -على سبيل المثال- يبحث عن معلومات أساسية لإدراجها في محتوى ستنشره، أو حتى يبحث عن موارد على الإنترنت قبل بدء مشروع جديد، فعلى العاملين فيه توخي الحذر الشديد بشأن الثقة في نتائج أدوات بحث الذكاء الاصطناعي.

ويبدو بعض الإجابات وكأنه نسخة أخرى من مشكلة هلوسة الذكاء الاصطناعي المعروفة، وهي دليل إضافي على أنه إذا كنت تستخدم أدوات الذكاء الاصطناعي لتعزيز جهود شركتك، فأنت بالتأكيد بحاجة إلى أشخاص أذكياء على دراية تامة بنتائج الذكاء الاصطناعي للتحقق منها.

* «إنك»، خدمات «تريبيون ميديا».


مقالات ذات صلة

رجل يطلب تغريم شركة «تشات جي بي تي» بعد تعريفه بأنه مجرم وقتل طفليه

تكنولوجيا شعار «تشات جي بي تي» (رويترز)

رجل يطلب تغريم شركة «تشات جي بي تي» بعد تعريفه بأنه مجرم وقتل طفليه

تقدَّم رجل نرويجي بشكوى بعد أن أخبره برنامج «تشات جي بي تي»، بالخطأ، أنه قتل اثنين من أبنائه وسُجن لمدة 21 عاماً.

«الشرق الأوسط» (لندن)
تكنولوجيا روبوت يعمل بتقنية الذكاء الاصطناعي (أ.ف.ب)

الإنسان والحاسوب من التنافس إلى الشراكة

يتغير العالم حولنا اليوم بتسارع لم يسبق له مثيل في التاريخ. وتتطور مستجدات تكنولوجيا المعلومات والاتصالات، بحيث يصعب على المرء مجرد متابعتها.

د. حسن الشريف
علوم «نيوساينتست»: وزير التكنولوجيا البريطاني يستخدم برنامج «تشات جي بي تي» لتقديم المشورة بشأن السياسات الحكومية

وزير التكنولوجيا البريطاني يستخدم برنامج «تشات جي بي تي» لتقديم المشورة بشأن السياسات

استخدم بيتر كايل، وزير التكنولوجيا البريطاني، برنامج «تشات جي بي تي» (ChatGPT) لتقديم المشورة بشأن السياسات.

«الشرق الأوسط» (لندن)
الاقتصاد مقر شركة «سوفت بنك» في العاصمة اليابانية طوكيو (أ.ف.ب)

«سوفت بنك» تستحوذ على صانعة الرقائق «أمبير» مقابل 6.5 مليار دولار

أعلنت مجموعة «سوفت بنك» الاستثمارية اليابانية شراء شركة «أمبير كومبيوتينغ» مقابل 6.5 مليار دولار

«الشرق الأوسط» (طوكيو)
الاقتصاد جزيرة شيبارة أحد مشاريع البحر الأحمر في السعودية (الشرق الأوسط)

تقرير أممي يدعو رواد الأعمال لتوظيف الذكاء الاصطناعي في السياحة

في وقت تعمل الحكومة السعودية على الاستفادة من الذكاء الاصطناعي في قطاعها السياحي، يبرز دور شركات القطاع في مجاراة الخطوات الحكومية.

بندر مسلم (الرياض)

«نيوساينتست»: وزير التكنولوجيا البريطاني يستخدم برنامج «تشات جي بي تي» لتقديم المشورة بشأن السياسات الحكومية

«نيوساينتست»: وزير التكنولوجيا البريطاني يستخدم برنامج «تشات جي بي تي» لتقديم المشورة بشأن السياسات الحكومية
TT
20

«نيوساينتست»: وزير التكنولوجيا البريطاني يستخدم برنامج «تشات جي بي تي» لتقديم المشورة بشأن السياسات الحكومية

«نيوساينتست»: وزير التكنولوجيا البريطاني يستخدم برنامج «تشات جي بي تي» لتقديم المشورة بشأن السياسات الحكومية

كشفت مجلة «نيو ساينتست» العلمية البريطانية أن بيتر كايل، وزير التكنولوجيا البريطاني، قد استخدم برنامج «تشات جي بي تي» (ChatGPT) لتقديم المشورة بشأن السياسات، كما كتب كريس ستوكيل - ووكر (*).

وحصلت «نيو ساينتست» الآن على سجلات استخدام الوزير كايل للبرنامج الذكي، بموجب قانون حرية المعلومات (FOI)، فيما يُعتقد أنه أول اختبار عالمي لمدى خضوع تفاعلات روبوتات الدردشة لهذا القانون.

سؤال حول بطء تبني الشركات للذكاء الاصطناعي

تُظهر هذه السجلات أن كايل طلب من «تشات جي بي تي» توضيح سبب تباطؤ مجتمع الشركات الصغيرة والمتوسطة في المملكة المتحدة في تبني الذكاء الاصطناعي. وأجاب البرنامج بقائمة من 10 نقاط للأسباب المحتملة، بما في ذلك اجابات حول «الوعي والفهم المحدود»، و«المخاوف التنظيمية والأخلاقية»، و«نقص الدعم الحكومي أو المؤسسي».

صعوبات التعامل ومحدودية التمويل والحوافز

أبلغ روبوت الدردشة كايل: «في حين أطلقت حكومة المملكة المتحدة مبادرات لتشجيع تبني الذكاء الاصطناعي، فإن كثيراً من الشركات الصغيرة والمتوسطة لا تدرك أهمية هذه البرامج أو تجد صعوبة في التعامل معها. كما أن محدودية الوصول إلى التمويل أو الحوافز لتقليل مخاطر الاستثمار في الذكاء الاصطناعي يمكن أن تُعيق تبنيه».

مخاوف قانونية وتنظيمية

وأضاف البرنامج، فيما يتعلق بالمخاوف التنظيمية والأخلاقية: «الامتثال لقوانين حماية البيانات، مثل اللائحة العامة لحماية البيانات (قانون خصوصية البيانات)، قد يُشكل عقبة كبيرة. وقد تقلق الشركات الصغيرة والمتوسطة بشأن القضايا القانونية والأخلاقية المرتبطة باستخدام الذكاء الاصطناعي».

وقال متحدث باسم وزارة العلوم والابتكار والتكنولوجيا (DSIT)، التي يرأسها كايل، إن الوزير بصفته المسؤول عن الذكاء الاصطناعي يستخدم هذه التقنية، إلا أن هذا لا يُغني عن النصائح الشاملة التي يتلقاها بانتظام من المسؤولين. وأضاف: «تستخدم الحكومة الذكاء الاصطناعي كأداة لتوفير الجهد، مدعومة بتوجيهات واضحة حول كيفية استخدام هذه التقنية بسرعة وأمان».

سؤال حول استخدام البودكاست

استخدم كايل أيضاً روبوت المحادثة لجمع أفكار حول الظهور الإعلامي، متسائلاً: «أنا وزير دولة للعلوم والابتكار والتكنولوجيا في المملكة المتحدة. ما هي أفضل البودكاستات التي يُمكنني الظهور عليها للوصول إلى جمهور واسع ومناسب لمسؤولياتي الوزارية؟»

اقترح برنامج «جي بي تي» برنامجي «The Infinite Monkey Cage» و«The Naked Scientists»، بناءً على عدد مستمعيهما.

وبالإضافة إلى طلب هذه النصائح، طلب كايل من البرنامج الذكي تعريف مصطلحات مختلفة ذات صلة بوزارته: «المادة المضادة» (antimatter)، و«الشمول الرقمي» (digital inclusion)، و«الكم» (quantum).

برنامج جيد

وأعرب خبيران تحدثت إليهما مجلة «نيو ساينتست» عن دهشتهما من جودة ردود البرنامج على تعريفاته للكم. وقال بيتر نايت من «إمبريال كوليدج لندن»: «هذا جيد بشكل مدهش، في رأيي». ويقول كريستيان بوناتو من جامعة هيريوت وات في إدنبره، بالمملكة المتحدة: «أعتقد أنه ليس سيئاً على الإطلاق».

وأكد كايل أنه استخدم البرنامج «لمحاولة فهم السياق الأوسع الذي نشأ منه الابتكار، والأشخاص الذين طوّروه، والمؤسسات التي تقف وراءهم»، وأن «تشات جي بي تي» ممتاز للغاية، وعندما تجد صعوبة في فهم الأمور بعمق يمكن أن يكون مُدرّباً جيداً جداً لها.

وكانت دائرة تكنولوجيا المعلومات والاتصالات رفضت في البداية طلب «حرية المعلومات» المقدم من مجلة «نيو ساينتست»، قائلةً: «يتضمن سجل بيتر كايل في (تشات جي بي تي) طلبات وردوداً قُدّمت بصفة شخصية ورسمية». إلا أن الموافقة تمت على طلب مُحسّن، يقتصر على الطلبات والردود المقدمة بصفة رسمية فقط.

سابقة قانونية

يقول تيم تيرنر، خبير حماية البيانات المقيم في مانشستر بالمملكة المتحدة، إن مجرد تقديم البيانات يُعدّ صدمة، ويعتقد أنها قد تكون أول حالة تُنشر فيها تفاعلات (مراسلات) روبوتات الدردشة بموجب قانون حرية المعلومات. ويضيف: «أنا مندهش من حصولكم عليها. كنت أعتقد أنهم سيحرصون على تجنب سابقة قانونية».

وهذا بدوره يطرح تساؤلات على الحكومات التي لديها قوانين مماثلة لحرية المعلومات، مثل الولايات المتحدة. فعلى سبيل المثال، هل يُشبه «تشات جي بي تي» برامج رسائل البريد الإلكتروني أو محادثات «واتساب»، وكلاهما يخضع تاريخياً لقانون حرية المعلومات، أم أنه يُشبه نتائج استعلام محرك للبحث، التي كان من الأسهل على المؤسسات رفضها تقليدياً؟ يختلف الخبراء حول الإجابة.

* خدمات «تريبيون ميديا»