60 % من نتائج بحث أدوات الذكاء الاصطناعي... غير دقيقة

معلومات خاطئة ومزيفة... لدى اختبار 8 أدوات رائدة منها

60 % من نتائج بحث أدوات الذكاء الاصطناعي... غير دقيقة
TT
20

60 % من نتائج بحث أدوات الذكاء الاصطناعي... غير دقيقة

60 % من نتائج بحث أدوات الذكاء الاصطناعي... غير دقيقة

إذا كنت تستخدم بحث الذكاء الاصطناعي في العمل، فكن حذراً. جاء هذا في دراسة جديدة تكشف عن معلوماتها «المختلقة».

قد تعرض أدوات الذكاء الاصطناعي للبحث، معلومات خاطئة تماماً. وقد سجَّلت أداة غروك Grok التابعة لإيلون ماسك أسوأ النتائج.

الذكاء الاصطناعي– محرك البحث المستقبلي

مع توجه «غوغل» بشكل أكبر نحو الاستثمار في ضخ نتائج البحث المُولَّدة بالذكاء الاصطناعي، وذلك بعد بداية متعثرة لها العام الماضي، وتجربة شركات مماثلة مثل «أوبن إيه آي» هذه التقنية المبتكرة، يبدو أن الذكاء الاصطناعي سيشكل مستقبل البحث عبر الإنترنت.

وستكون لذلك تداعيات على العاملين في أي شركة تقريباً، بغض النظر عن مجال عملها؛ لأن البحث عن المعلومات جزء أساسي من استخدامات الإنترنت.

دراسة جديدة لمشكلات الدقة

لكن دراسة جديدة من مركز «تاو» للصحافة الرقمية بجامعة كولومبيا، نُشرت في مجلة «Columbia Journalism Review»، تُسلِّط الضوء على ضرورة توخي موظفي المؤسسات والشركات الحذر الشديد، على الأقل في الوقت الحالي؛ لأن أدوات بحث الذكاء الاصطناعي من كثير من الشركات الكبرى تعاني مشكلات خطيرة في الدقة.

اختبار 8 أدوات ذكية

دققت الدراسة في عمل 8 أدوات بحث مختلفة للذكاء الاصطناعي، بما في ذلك «تشات جي بي تي» ChatGPT، و«بربليكسيتي» Perplexity، و«جيمناي» Gemini من «غوغل»، و«كوبايلوت» Copilot من «مايكروسوفت»، والأداة الصينية الرائدة «ديب سيك» DeepSeek.

وقد ركَّزت الدراسة على دقة الإجابات عندما تم اختبار كل أداة ذكاء اصطناعي حول قصة إخبارية، حسبما أفاد موقع أخبار التكنولوجيا «آرس تكنيكا».

60 % من الإجابات غير صحيحة

وكانت النتيجة الأبرز في الدراسة أن جميع أدوات الذكاء الاصطناعي أظهرت دقة سيئة بشكل مذهل، حيث أخطأت في 60 من الإجابات. ومع ذلك، لم يكن مستوى الخطأ متساوياً بين جميع الأدوات.

أظهرت أداة Perplexity معدل خطأ بلغ نحو 37 في المائة، في حين ارتفعت نسبة الأخطاء لدى ChatGPT إلى 67 في المائة. أما نموذج Grok 3، الذي طوَّره إيلون ماسك، فقد سجل أسوأ أداء، إذ كانت إجاباته خاطئة بنسبة 94 في المائة. وربما لم يكن ذلك مفاجئًا، خاصة أن ماسك روَّج للنموذج على أنه أقل تقيُّدًا بالقيود الأمنية مقارنة بمنافسيه في الذكاء الاصطناعي. (فضلًا عن أن الملياردير معروف بتوجهاته المتحررة نسبيًا فيما يتعلق بالدقة والحقائق وحرية التعبير).

والأسوأ من ذلك، لاحظ الباحثون أن الإصدارات المدفوعة من أدوات البحث هذه كانت أحياناً أسوأ من بدائلها المجانية.

أداة البحث تختلف عن أداة الدردشة

تجدر الإشارة إلى أن البحث بالذكاء الاصطناعي يختلف قليلًا عن استخدام روبوتات الدردشة التي تحاكي المحادثات البشرية. فعادةً ما يقوم البحث بالذكاء الاصطناعي بمحاكاة دور محرك البحث، حيث يجري البحث نيابة عنك بعد إدخال استعلامك، ثم يقدم ملخصًا لأهم المعلومات التي وجدها على الإنترنت، مما يغنيك عن الحاجة إلى قراءة المقال الأصلي الذي استُخلصت منه البيانات.

لكن المشكلة هنا تكمن في أن هذه النماذج، تمامًا مثل ذلك الزميل الواثق بنفسه إلى حد الإفراط، والذي يبدو دائمًا وكأنه يمتلك الحقيقة بغض النظر عن الموضوع المطروح، لا تميل إلى الاعتراف بعدم معرفتها بالإجابة على أي استعلام.

إجابات «معقولة» غير صحيحة

لاحظ مؤلفو الدراسة أنه بدلاً من قول «لا» عند عدم تمكنه من العثور على معلومات موثوقة، رداً على استفسار حول قصة إخبارية، غالباً ما قدَّم الذكاء الاصطناعي إجابات مُختلقة تبدو معقولة، ولكنها في الواقع غير صحيحة. ومن العيوب الأخرى التي اكتشفتها هذه الدراسة أنه حتى عندما قدمت أدوات بحث الذكاء الاصطناعي هذه استشهادات إلى جانب نتائج البحث (ظاهرياً حتى يتمكن المستخدمون من زيارة مواقع المصادر هذه للتحقق من أي تفاصيل، أو للتحقق من صحة البيانات)، غالباً ما أدت روابط الاستشهادات هذه إلى نسخ مُجمَّعة من المحتوى، بدلاً من نسخ الناشرين الأصليين. وفي بعض الأحيان، أدت هذه الروابط إلى عناوين ويب غير موجودة؛ فعل ذلك Gemini وGrok 3 في أكثر من نصف استشهاداتهم.

تجربة اختبارية متخصصة

كانت التجربة متخصصة بعض الشيء؛ لأنها استندت إلى مقالات إخبارية، ولم يبحث الباحثون بعمق في دقة نتائج بحث الذكاء الاصطناعي عن محتوى آخر موجود على الإنترنت. وبدلاً من ذلك، قاموا بتغذية أدوات الذكاء الاصطناعي بمقتطفات من أخبار حقيقية ثم طلبوا منها تلخيص المعلومات، بما في ذلك العنوان وتفاصيل أخرى.

يجب أن تهتم بنتائج الدراسة لسبب بسيط واحد. فنحن نعلم أن الذكاء الاصطناعي قادر على تسريع بعض مهام المكتب المملة وتعزيز كفاءة الموظفين. ويبدو أن البحث باستخدام الذكاء الاصطناعي قد يصبح هو القاعدة، ليحل محل البحث التقليدي على الإنترنت الذي قد يكون مهمة شاقة في بعض الأحيان.

محدودية الثقة بالذكاء الاصطناعي

ولكن إذا كان فريقك -على سبيل المثال- يبحث عن معلومات أساسية لإدراجها في محتوى ستنشره، أو حتى يبحث عن موارد على الإنترنت قبل بدء مشروع جديد، فعلى العاملين فيه توخي الحذر الشديد بشأن الثقة في نتائج أدوات بحث الذكاء الاصطناعي.

ويبدو بعض الإجابات وكأنه نسخة أخرى من مشكلة هلوسة الذكاء الاصطناعي المعروفة، وهي دليل إضافي على أنه إذا كنت تستخدم أدوات الذكاء الاصطناعي لتعزيز جهود شركتك، فأنت بالتأكيد بحاجة إلى أشخاص أذكياء على دراية تامة بنتائج الذكاء الاصطناعي للتحقق منها.

* «إنك»، خدمات «تريبيون ميديا».


مقالات ذات صلة

مصر: أزمة إعلانية لاستعانة شركة حلويات بنجوم الزمن الجميل

يوميات الشرق فؤاد المهندس في الإعلان المثير للجدل (يوتيوب)

مصر: أزمة إعلانية لاستعانة شركة حلويات بنجوم الزمن الجميل

الإعلان المثير للجدل صُمِّم بالذكاء الاصطناعي بشكل كامل، يُظهر مجموعة من نجوم الزمن الجميل كأنهم يعملون في المحل الشهير ويقدِّمون الحلوى للزبائن...

أحمد عدلي (القاهرة)
يوميات الشرق صور مولدة بالذكاء الاصطناعي لإحدى لقطات فيلم «سمير وشهير وبهير» على غرار استديو غيبيلي (متداولة)

تفاعل «سوشيالي» مع صور من عالم «استوديو غيبلي»... ومخاوف بشأن حقوق الملكية

انتشرت في الأيام السابقة صور مُنتجة بالذكاء الاصطناعي على غرار  «استوديو غيبلي»، استوديو الرسوم المتحركة الياباني الشهير.

يسرا سلامة (القاهرة)
تحليل إخباري يُعيد الذكاء الاصطناعي تشكيل الذكاء البشري بتوسيع قدراته وتعزيز تفاعله مع الحواسيب (شاترستوك)

تحليل إخباري مستقبل العلاقة بين ذكاء الإنسان والحاسوب... تعايش أم صراع؟

يُحدث الذكاء الاصطناعي ثورة في قدرات الذكاء البشري، ما يُمكِّن من الاندماج الكامل مع الحواسيب لتعزيز القدرات الذهنية والتكنولوجية بشكل غير مسبوق.

د. حسن الشريف
خاص يعزز الذكاء الاصطناعي من كفاءة العمليات ويوفر تجارب تسوق شخصية من خلال تحسين الاتصال وتوفير تحليلات فورية (أ.ف.ب)

خاص كيف يساعد الذكاء الاصطناعي تجار التجزئة في تحليل سلوك المستهلك بدقة؟

تلعب الشبكات المدعومة بالذكاء الاصطناعي دوراً أساسياً في تخصيص تجربة التسوق فورياً مستفيدةً من بيانات تفاعلات العملاء وسجلات التصفح والرؤى القائمة على الموقع.

نسيم رمضان (لندن)
تكنولوجيا مزج الباحثون بين نماذج الذكاء الاصطناعي التوليدية لإنشاء أداة سريعة تنتج صوراً بدقة عالية (Christine Daniloff, MIT)

في جزء من الثانية... «هارت» يولد صوراً عالية الجودة عبر الذكاء الاصطناعي

«هارت» (HART) أداة جديدة لإنشاء الصور بالذكاء الاصطناعي، تتفوق على التقنيات الحالية بجودة أعلى، وسرعة أكبر بتسع مرات من النماذج الحالية!

نسيم رمضان (لندن)

لضمان الهيمنة الأميركية: شركات الذكاء الاصطناعي تتراجع عن تعهدات السلامة

لضمان الهيمنة الأميركية: شركات الذكاء الاصطناعي تتراجع عن تعهدات السلامة
TT
20

لضمان الهيمنة الأميركية: شركات الذكاء الاصطناعي تتراجع عن تعهدات السلامة

لضمان الهيمنة الأميركية: شركات الذكاء الاصطناعي تتراجع عن تعهدات السلامة

«بنت الشركات التي تتسابق للسيطرة على مستقبل الذكاء الاصطناعي تقنياتها وأعمالها من خلال تتبعك، وبياناتك، بعناية. لكنها لا تفضل أن تتابعها أنت، وتحديداً لا تفضل أن يتابع المستخدمون الطرق التي تُعدّل بها التزاماتها الأخلاقية والخصوصية الطوعية - وهي بعض الضمانات القليلة التي تهدف إلى الحفاظ على مستقبل الذكاء الاصطناعي آمناً»، كما كتبت جاكي سنو(*).

الهيمنة الأميركية تفكك حواجز السلامة

مع سعي إدارة الرئيس ترمب الدؤوب لتفكيك حواجز السلامة لتعزيز «الهيمنة الأميركية» في مجال الذكاء الاصطناعي، وتفكيك الشركات لفرق السلامة التابعة لها، وقع على عاتق منظمة غير ربحية صغيرة ذات موارد محدودة مسؤولية تتبع كيفية تعديل هذه الشركات التي تبلغ قيمتها تريليونات الدولارات لسياساتها والوفاء بالتزاماتها الأخلاقية.

مشروع يراقب 16 شركة رائدة

أصبح تايلر جونستون ومجموعته، مشروع ميداس Midas Project، بمثابة «إدارة إطفاء» رقمية تعمل بمفردها، في محاولة لرصد «غابة من الحرائق المحتملة». وأُطلق مشروع «برج مراقبة سلامة الذكاء الاصطناعي» AI Safety Watchtower التابع للمنظمة غير الربحية في منتصف عام 2024، وهو يتتبع الآن 16 شركة - بما في ذلك «أوبن إيه آي غوغل» و«أنثروبيك» - لمراقبة مئات من وثائق السياسات وصفحات الويب بحثاً عن أي تغييرات في عملها.

يقول جونستون: «لو كان لدى كل شركة ذكاء اصطناعي، سجل بالتغييرات، لما كان هذا العمل ضرورياً. بل كان سيمثل أقصى درجات الشفافية. ولكن بدلاً من ذلك، يقع على عاتق المنظمات غير الربحية والصحافيين مسؤولية مراقبة هذا الأمر، ولا أحد يمتلك المعدات الكافية لالتقاط كل شيء».

إزالة معايير سلامة ومسؤولية الذكاء الاصطناعي

تأتي مخاوف جونستون بشأن التزامات السلامة المتخلى عنها في الوقت الذي تعمل فيه إدارة ترمب بنشاط على تفكيك حواجز سلامة الذكاء الاصطناعي. في يومه الثاني في منصبه هذه الفترة، وقّع ترمب أمراً تنفيذياً يلغي أمر الرئيس السابق بايدن بشأن سلامة الذكاء الاصطناعي لعام 2023، ويستبدل به أمراً يركز على «الهيمنة الأميركية» في مجال الذكاء الاصطناعي. وفي مارس (آذار)، أصدر المعهد الوطني للمعايير والتكنولوجيا توجيهات جديدة للعلماء في معهد سلامة الذكاء الاصطناعي، حذفت فيها عبارة «سلامة الذكاء الاصطناعي، ومسؤوليته، وعدالة الذكاء الاصطناعي».

في حين اتخذت ولايات مختلفة خطوات لإقرار لوائح تنظيمية للذكاء الاصطناعي، وقُدّمت مشاريع قوانين في الكونغرس الأميركي، لا توجد حتى الآن قواعد اتحادية تُنظّم استخدام هذه التقنية تحديداً. وفي الأسابيع الأخيرة، طلب مكتب الرئيس ترمب لسياسة العلوم والتكنولوجيا تعليقات عامة من الشركات والأكاديميين وغيرهم بشأن «خطة عمل الذكاء الاصطناعي» المُرتقبة؛ ومن غير المُستغرب أن يُطالب وادي السيليكون بلمسة تنظيمية مُبسّطة.

ومع نحو 1500 مُتابع عبر حسابين على موقع «إكس»، يُدير جونستون مشروع ميداس بدوام كامل. وتُدار المجموعة بميزانية محدودة، لذا فهو يُجري الكثير من الأعمال بنفسه حالياً، بمساعدة بعض المتطوعين.

لا يُدعم جونستون بمليارات الدولارات من رأس المال الاستثماري أو التمويل الحكومي، ويعتمد فقط على العزيمة وأداة بسيطة لاستخراج بيانات الإنترنت تكتشف متى تُلغي الشركات بهدوء وعودها بعدم بناء روبوتات قاتلة أو تمكين تطوير أسلحة بيولوجية.

رصد 30 تغييراً في المعايير

حتى الآن، وثّقت منظمة «برج المراقبة» نحو 30 تغييراً مهماً، مُصنّفةً إياها حسب الوسوم: رئيس، طفيف، وغير مُعلن. أولها هو التعديل «الطفيف» الذي أجرته شركة «أوبن إيه آي» على «قيمها الأساسية» في أكتوبر (تشرين الأول) 2023 ـ إذ أزالت مبدأ مثل «التوجهات المستخلصة من التأثيرات» impact - driven الخاصة بالذكاء الاصطناعي، والتي كانت تُؤكد على أن الموظفين «يهتمون بشدة بالآثار الواقعية» (للأدوات الذكية)، واستبدلت بها قيماً مثل «التركيز على الذكاء الاصطناعي العام» AGI focus.

ورصدت منظمة برج مراقبة الذكاء الاصطناعي تغييراً «طفيفاً» آخر في السياسة من شركة «ميتا» في يونيو (حزيران) 2024، عندما أوضحت صراحةً أنها تستطيع استخدام بيانات من «فيسبوك» و«واتساب» و«إنستغرام» لتغيير نموذجها.

كما أشارت منظمة برج المراقبة إلى تغيير «كبير» أجرته «غوغل» الشهر الماضي عندما أصدرت الشركة نسخة جديدة من إطار عمل السلامة الجبهوية Frontier Safety Framework. وكشف تحليل جونستون عن تعديلات مثيرة للقلق: فقد أُزيلت مخاطر استقلالية النموذج واستُبدل بها «مخاطر التوافق» غير المحددة بوضوح، والجدير بالذكر أن الشركة أضافت صياغةً تُشير إلى أنها لن تتبع إطار عملها، إلا إذا اعتمد المنافسون تدابير مماثلة.

في بعض الأحيان، استجابت الشركات لتنبيهات جونستون. لا يزال وضع هذه الالتزامات في ظل إدارة ترمب غير واضح. كانت هذه الالتزامات وعوداً مستقلة قدمتها الشركات للبيت الأبيض في عهد بايدن وللجمهور بشأن إدارة مخاطر الذكاء الاصطناعي، مما يعني أنها لا ينبغي أن تتأثر بالأمر التنفيذي لترمب الذي يلغي سياسات بايدن المتعلقة بالذكاء الاصطناعي.

أكد العديد من الشركات، بما في ذلك «نيفيديا» وغيرها، أنها لا تزال ملتزمة بالالتزامات بعد الانتخابات، ووفقاً لموقع «FedScoop» أعادت «أنثروبيك» الإشارة إلى موقعها الإلكتروني في النهاية، لكنها أضافت إخلاء مسؤولية مثير للاهتمام: «ورغم أن هذه الالتزامات المحددة لم تعد سارية رسمياً في ظل إدارة الرئيس ترمب، فإن مؤسستنا لا تزال ملتزمة بجميع هذه المبادئ».

تراجع الشركات: الدخول إلى الميدان العسكري

إنّ التحول الأهم الذي وثّقه جونستون هو تراجع شركات الذكاء الاصطناعي عن مواقفها السابقة تجاه الدخول إلى الميدان العسكري. ووفقاً لجونستون، كان تراجع «أوبن إيه آي» محسوباً بشكل خاص -فقد صُمّم في البداية على أنه توجه للمساعدة في منع انتحار المحاربين القدامى ودعم الأمن السيبراني للبنتاغون. ووصفت الشركة النقاد بقسوة القلب لتشكيكهم في هذا العمل، ولكن بحلول نوفمبر (تشرين الثاني) 2024، كانت لشركة «OpenAI» طائرات من دون طيار ذاتية القيادة، فيما وصفه جونستون باستراتيجية تقليدية للدخول في هذا الميدان. وحذت «غوغل» حذوها في وقت سابق من هذا العام، حيث ألغت قيودها على العمل في الميدان العسكري.

يقول جونستون: «بدأ الكثير منهم يشعرون حقاً بديناميكية سباق الذكاء الاصطناعي العالمي. إنهم يقولون: حسناً، علينا القيام بذلك لأنه إذا لم نعمل مع الجيوش، فإن الجهات الفاعلة الأقل دقة (منا) ستفعل ذلك».

مواقف أخلاقية تُعاد صياغتها

يُعدّ التحوّل العسكري مثالاً واحداً فقط على كيفية إعادة شركات الذكاء الاصطناعي صياغة مواقفها الأخلاقية. نشرت شركة «أوبن إيه آي» أخيراً وثيقةً تُحدد فلسفتها بشأن سلامة الذكاء الاصطناعي، مُدّعيةً أنها تجاوزت نهج «النشر التدريجي» الأكثر حذراً الذي اتبعته مع GPT - 2 في عام 2019، عندما امتنعت في البداية عن إصداره مُتعللةً بمخاوف تتعلق بالسلامة.

نقض التعهدات

يتجاوز نمط التغييرات قواعد وسياسات الشركات نفسها. في فبراير (شباط) الماضي، أطلق فريق جونستون «متتبع سيول» «Seoul Tracker» لتقييم مدى التزام الشركات بالوعود التي قطعتها في قمة سلامة الذكاء الاصطناعي لعام 2024 في مدينة سيول. كانت النتائج مُخيبة للآمال: تجاهل الكثيرون ببساطة الموعد النهائي المحدد في فبراير لاعتماد سياسات التوسع المسؤولة، بينما طبق آخرون سياسات جوفاء بالكاد تُشبه ما وعدوا به.

باستخدام نظام تقييم قائم على الدرجات، استناداً إلى الأدلة العامة على التنفيذ في خمسة مجالات التزام رئيسة، منح «متتبع سيول» شركة «أنثروبيك» أعلى درجة، وهي B -، بينما حصلت شركات، بما في ذلك «Iآي بي إم» و«Inflection AI» و«Mistral AI»، على درجات رسوب F لعدم تقديمها أي دليل عام على وفائها بالتزاماتها.

يقول جونستون: «إنه لأمرٌ غريبٌ بالنسبة لي. كانت هذه وعوداً قطعوها ليس فقط على بعض صفحات الويب، بل لحكومتي المملكة المتحدة وكوريا الجنوبية».

اهتمامات المؤيدين والمعادين

لعل أكثر ما يُظهر تأثير عمل جونستون هو من هم الأشخاص الذين يُولون اهتماماً له. فبينما يُكافح مشروع ميداس للحصول على 500 توقيع على عرائض تُطالب شركات الذكاء الاصطناعي بأخذ الأمن على محمل الجد، ولا يزال عدد مُتابعيه مُتواضعاً نسبياً، فإن هؤلاء المُتابعين يشملون العديد من مشاهير الذكاء الاصطناعي، والجهات الرقابية، والمُبلغين عن المخالفات.

حتى أن أحد مُستشاري ترمب في البيت الأبيض لشؤون الذكاء الاصطناعي تابع الحساب أخيراً. وهذا ما دفع جونستون إلى التساؤل عمّا إذا كان المسؤولون الحكوميون ينظرون إلى هذه الانتكاسات الأخلاقية على أنها تقدّمٌ، وليست مشكلات. ويقول: «أنا قلقٌ للغاية من أنه يُتابع الأمر كما لو كان يُشجعه، ويرى التغييرات انتصاراتٍ بينما تتخلى هذه الشركات عن التزاماتها».

* مجلة «فاست كومباني» خدمات «تريبيون ميديا»