باحثو «ستانفورد»: لا يمكننا السماح بثورة ذكاء اصطناعي في الظلام

تصنيف علمي لشفافية طريقة تشغيل 10 نماذج منها

جدول جامعة ستانفورد لتقييم النماذج العشرة للذكاء الاصطناعي
جدول جامعة ستانفورد لتقييم النماذج العشرة للذكاء الاصطناعي
TT

باحثو «ستانفورد»: لا يمكننا السماح بثورة ذكاء اصطناعي في الظلام

جدول جامعة ستانفورد لتقييم النماذج العشرة للذكاء الاصطناعي
جدول جامعة ستانفورد لتقييم النماذج العشرة للذكاء الاصطناعي

ما مدى معرفتنا عن الذكاء الاصطناعي، عندما يتعلّق الأمر بالنماذج اللغوية الكبيرة التي أطلقتها شركات مثل «أوبن إي آي» و«غوغل» و«ميتا» العام الماضي؟ الجواب هو: لا شيء.

تُحجم هذه الشركات عامّة عن المشاركة بمعلومات عن البيانات التي استخدمتها لتدريب نماذجها أو الأدوات التي استخدمتها لتشغيلها. لا يوجد حتّى اليوم دليلٌ خاص بالمستخدم لأنظمة الذكاء الاصطناعي، ولا لائحة توضح قدرات هذه الأنظمة، أو حتّى اختبارات السلامة التي أجريت عليها.

صحيحٌ أنّ بعض نماذج الذكاء الاصطناعي مفتوحة المصدر -أي أنّ رمزها البرمجي متوفّر لعموم الجمهور مجّاناً- إلّا أنّ النّاس لا يعلمون الكثير عن عملية ابتكارها، أو ما الذي يحصل بعد إطلاقها.

تقييم جامعة ستانفورد

في هذا السياق، أطلق باحثون من جامعة ستانفورد أخيراً نظام تقييم على أمل المساعدة في تغيير هذا الوضع.

يحمل المشروع اسم «مؤشر شفافية نموذج الأساس» Foundation Model Transparency Index ويصنّف 10 نماذج لغوية كبيرة مدعومة بالذكاء الاصطناعي (تُسمّى أحياناً بـ«نماذج الأساس») بناءً على درجة شفافيتها.

يشمل المؤشر نماذج شهيرة مثل GPT-4 من «أوبن إي آي» (الذي يشغّل الإصدار المدفوع من «تشات جي بي تي»)، و«PaLM 2» (الذي يشغّل نموذج «بارد»)، و«LLaMA 2» من «ميتا»، بالإضافة إلى نماذج أقلّ شعبية مثل «Titan Text» من «أمازون»، و«Inflection-1» من «إنفلكشن إي آي»، الذي يشغّل روبوت المحادثة «باي».

لتصميم التصنيف، قيّم الباحثون كلّ نموذج وفقاً لمائة معيار، ككشف الشركة المنتجة عن مصادر بيانات التدريب ومعلومات عن الأدوات المستخدمة، والعمالة التي شاركت في التدريب، إلى جانب تفاصيل أخرى. وتضمّنت التصنيفات أيضاً معلومات عن العمالة والبيانات المستخدمة لإنتاج النموذج نفسه، إلى جانب ما سماه الباحثون «مؤشرات المجريات» (downstream indicators) المتعلّقة بكيفية استخدام النموذج بعد إطلاقه. (مثلاً، جاء أحد الأسئلة على الشكل الآتي: «هل كشف المطوّر عن البروتوكولات التي استخدمها لتخزين بيانات المستخدم، والوصول إليها، ومشاركتها؟»).

شفافية الذكاء الاصطناعي

وجد الباحثون بعد التصنيف الذي أجروه أنّ النموذج الأكثر شفافية هو «LLaMA 2» بنسبة 54 في المائة، بينما حقّق «GPT-4» و«PaLM 2» ثالث أعلى رصيد شفافية بـ40 في المائة.

وصف بيرسي ليانغ، مدير مركز أبحاث نماذج الأساس في ستانفورد، مشروع التصنيف، بالاستجابة الضرورية للشفافية المتردّية في صناعة الذكاء الاصطناعي. وأضاف أنّ تدفّق الأموال للاستثمار في الذكاء الاصطناعي وتصارع كبرى شركات التقنية للسيطرة على الصناعة، دفع كثيراً منها أخيراً إلى إحاطة نفسها بالسريّة التامّة.

ويشرح ليانغ: «قبل ثلاث سنوات، كان الناس ينشرون ويشاركون تفاصيل أكثر عن نماذجهم. أمّا اليوم، فلا توجد معلومات حول طبيعة هذه النماذج، وكيف طُوّرت، وأين تُستخدم».

تنطوي الشفافية اليوم على أهميّة استثنائية؛ لأنّ هذه النماذج تزداد قوّة، فضلاً عن أنّ أدوات الذكاء الاصطناعي باتت تدخل في حياة الملايين اليومية. ومعرفة مزيد عن عمل هذه الأنظمة سيزوّد واضعي القوانين والباحثين والمستخدمين بمفهومٍ أفضل عمّا يتعاملون معه، وسيتيح لهم طرح أسئلة بنّاءة عن الشركات التي تقف خلف النماذج.

ويشدّد ليانغ على «غياب مشاركة بعض القرارات التبعية التي تُتّخذ اليوم حول تطوير هذه النماذج».

سرّية غير مبررة

ويضيف ليانغ أنّه عندما يسأل المديرين التنفيذيين في شركات الذكاء الاصطناعي عن سبب عدم مشاركتهم لمزيد من المعلومات عن نماذجهم، يسمع واحدة من ثلاث إجابات شائعة:

* الأولى هي الدعاوى القضائية: تواجه شركات ذكاء اصطناعي عدّة دعاوى قضائية رفعها مؤلّفون وفنّانون وشركات إعلامية، تتهمها باستخدام أعمال خاضعة لحقوق الملكية بشكلٍ غير قانوني لتدريب نماذج الذكاء الاصطناعي الخاصة بها. استهدف معظم هذه الدعاوى حتّى اليوم مشاريع الذكاء الاصطناعي مفتوحة المصدر، أو المشاريع التي نشرت معلومات مفصّلة عن نماذجها. يتخوّف الوكلاء القانونيون لشركات الذكاء الاصطناعي من أن يجرّ إفصاح الشركات عن تفاصيل بناء نماذجها مزيداً من العواقب القانونية المزعجة والمكلفة.

* الثانية هي المنافسة: تعتقد شركات الذكاء الاصطناعي أنّ نماذجها تعمل لأنّها تملك ما يشبه «الصلصة السرية»؛ نسقٌ من البيانات النوعية التي لا تملكها الشركات الأخرى، وتقنية عالية الضبط تعطي نتائج أفضل، وبعض الصقل الذي يمنحها أفضلية ما. تحاجج هذه الشركات بأنّها في حال أُجبرت على الكشف عن وصفاتها السرية، ستُقدّم لمنافسيها حكمة اكتسبتها بصعوبة على طبقٍ من فضّة.

* الثالثة، وهي الأكثر ترداداً، السلامة: يحاجج بعض خبراء الذكاء الاصطناعي بأنّه كلّما زاد كمّ المعلومات التي تشاركها شركات الذكاء الاصطناعي عن نماذجها، سيتسارع تقدّم الذكاء الاصطناعي أكثر؛ لأنّ كلّ واحدة من هذه الشركات ستطّلع على ما حقّقته منافستها، وستعمد على الفور إلى التفوّق عليها ببناء نموذج أفضل وأكبر وأسرع. وهكذا، لن يملك المجتمع الوقت الكافي لتنظيم وإبطاء الذكاء الاصطناعي، مما سيعرّضنا جميعاً لمزيد من المخاطر إذا أصبح الذكاء الاصطناعي أقوى بسرعةٍ أكبر.

لا توجد معلومات حول طبيعة هذه النماذج وكيف طُوّرت وأين تُستخدم

تفسيرات غير مقنعة

ولكنّ باحثي ستانفورد لا يصدّقون هذه التفسيرات، ويعتقدون أنّ شركات الذكاء الاصطناعي يجب أن تخضع لضغوطات للكشف عن المعلومات الكافية التي توضح قوّة نماذجها؛ لأنّ المستخدمين والباحثين وواضعي القوانين يجب أن يكونوا على دراية بكيفية عمل هذه النماذج، ومحدوديتها، وبدرجة الخطر التي قد تترتّب عليها.

من جهته، قال ريشي بوماساني، أحد الباحثين المشاركين في المشروع، إنّ «الشفافية تشهد تراجعاً ملحوظاً يتزامن مع تصاعد تأثير هذه التقنية».

ونحن نوافقهم الرأي؛ لأنّ هذه النماذج الأساس أقوى من أن تبقى مبهمة، وكلّما توسّعت معرفتنا بها زاد فهمنا للتهديدات التي قد ترتّبها، والمكاسب التي قد تحملها، أو للطريقة التي تمكّننا من تنظيمها.

وإذا كان تنفيذيّو شركات الذكاء الاصطناعي يشعرون بالقلق من الدعاوى القضائية، فربّما يجب عليهم أن يكافحوا من أجل إعفاء عادلٍ يحمي قدرتهم على استخدام المعلومات الخاضعة لحقوق الملكية لتدريب نماذجهم بدل إخفاء الأدلّة. وإذا كانوا يشعرون بالقلق من التنازل عن أسرارهم التجارية للمنافسين، فيمكنهم رفع النقاب عن نوعٍ آخر من المعلومات، أو حماية أفكارهم بواسطة براءة اختراع. وفي حال كانوا قلقين من استعار سباق التسلّح بالذكاء الاصطناعي، نقول لهم: «ألسنا في وسط واحدٍ الآن؟»

لا يمكننا السماح بثورة ذكاء اصطناعي في الظلام، ويجب أن نعلم ماذا يوجد داخل صناديق الذكاء الاصطناعي السوداء إذا كنّا سنسمح لها بتغيير حياتنا.

* خدمة «نيويورك تايمز»


مقالات ذات صلة

«غوغل» تعزز تجربة زوار ومتابعي أولمبياد باريس عبر تقنيات وتحديثات خاصة

تكنولوجيا تقدم «غوغل» التحديثات في الوقت الفعلي والخرائط التفاعلية وخدمات البث ومساعدي الذكاء الاصطناعي لمتابعي الأولمبياد (غوغل)

«غوغل» تعزز تجربة زوار ومتابعي أولمبياد باريس عبر تقنيات وتحديثات خاصة

بمساعدة التكنولوجيا المتقدمة والمنصات الرقمية لـ«غوغل»، يمكن لمشجع أولمبياد باريس في جميع أنحاء العالم البقاء على اتصال واطلاع طوال المباريات.

نسيم رمضان (لندن)
الولايات المتحدة​ علم الولايات المتحدة وأعلاه شعار التطبيق الصيني «تيك توك» (رويترز)

أميركا: «تيك توك» يجمع البيانات ويتلاعب بالمحتوى

فصل جديد من الرفض الأميركي للتطبيق الصيني «تيك توك» انطلاقاً من كونه «يشكل تهديداً خطيراً للأمن القومي».

«الشرق الأوسط» (واشنطن)
تكنولوجيا «كراود سترايك» هي شركة تكنولوجيا أميركية عملاقة تقدر قيمتها بأكثر من 80 مليار دولار (شاترستوك)

«كراود سترايك»: 97 % من أجهزة استشعار «ويندوز» عادت للعمل

بعد أسبوع من الأزمة المعلوماتية العالمية التي تسببت بها، أعلنت «كراود سترايك» عودة 97 في المائة من أجهزة استشعار «ويندوز» للعمل.

نسيم رمضان (لندن)
تكنولوجيا شعارا «أوبن إيه آي» و«تشات جي بي تي»  (أ.ف.ب)

«أوبن إيه آي» تختبر محرك بحث قد يصبح منافساً لـ«غوغل»

أعلنت شركة «أوبن إيه آي» أنها تختبر محرك بحث على مجموعة صغيرة من المستخدمين، وتعتزم دمج هذه الوظيفة في «تشات جي بي تي».

«الشرق الأوسط» (نيويورك )
يوميات الشرق غالباً ما يصاحب الوظائف التي تتطلب جهداً بدنياً عوامل سلبية أخرى كالإجهاد وتلوث الهواء (جامعة جوتنبرج)

الرسائل النصية تعزز النشاط البدني لمرضى القلب

تُعتبر التمارين الرياضية إحدى أفضل الطرق لتقليل خطر الإصابة بأمراض القلب أو التعرض لحدث آخر في القلب والأوعية الدموية، مثل نوبة قلبية أو سكتة دماغية.

«الشرق الأوسط» (القاهرة )

الذكاء الاصطناعي... جيد في الفنون سيئ في الرياضيات

الذكاء الاصطناعي... جيد في الفنون سيئ في الرياضيات
TT

الذكاء الاصطناعي... جيد في الفنون سيئ في الرياضيات

الذكاء الاصطناعي... جيد في الفنون سيئ في الرياضيات

في العام الدراسي الذي انتهى أخيراً، برزت فئة من المتعلمين مثل لغز ظاهر للعيان... فئة من «المجتهدين»، الذين يتحسنون، ويتحدثون بوضوح بشكل ملحوظ. ولكن من الغريب أن هؤلاء «المتعلمين» - روبوتات الدردشة الذكية - غالباً ما يجاهدون أنفسهم مع الرياضيات.

الأشعار وليس الحساب

يمكن لروبوتات الدردشة مثل «تشات جي بي تي» من شركة «أوبن إيه آي» كتابة الشعر، وتلخيص الكتب والإجابة عن الأسئلة، غالباً بطلاقة على مستوى الإنسان.

كما يمكن لهذه الأنظمة إجراء العمليات في الرياضيات، بناءً على ما تعلمته. ولكن النتائج يمكن أن تختلف وتكون خاطئة، إذ يتم ضبط الأنظمة الذكية بدقة لتحديد الاحتمالات، وليس لإجراء حسابات قائمة على القواعد. إن الاحتمال ليس دقيقاً، كما أن اللغة أكثر مرونة وتسامحاً من الرياضيات.

متخصص فنون حرة لا في عبقرية الأرقام

قال كريستيان هاموند، أستاذ علوم الكومبيوتر وباحث الذكاء الاصطناعي في جامعة نورث وسترن: «تواجه روبوتات الدردشة الذكية صعوبة في الرياضيات لأنها لم تُصمم قط للقيام بذلك». يبدو أن أذكى علماء الكومبيوتر في العالم قد ابتكروا ذكاءً اصطناعياً أكثر تخصصاً في الفنون الحرة من عبقرية الأرقام.

في ظاهر الأمر، يبدو هذا بمثابة قطيعة حادة مع ماضي الحوسبة. فمنذ ظهور أجهزة الكومبيوتر المبكرة في أربعينات القرن العشرين، كان التعريف المختصر الجيد للحوسبة هو «الرياضيات القائمة على المنشطات». كانت أجهزة الكومبيوتر آلات حسابية لا تعرف الكلل وسريعة ودقيقة.

وكان تحليل الأرقام لفترة طويلة هو ما تجيده أجهزة الكومبيوتر حقاً، متجاوزة الأداء البشري بكثير. وتقليدياً، كانت أجهزة الكومبيوتر مبرمجة لاتباع قواعد خطوة بخطوة واسترجاع المعلومات في قواعد بيانات منظمة... كانت قوية ولكنها هشة. لذا، اصطدمت الجهود السابقة في مجال الذكاء الاصطناعي بحائط.

الشبكات العصبية

ومع ذلك، قبل أكثر من عقد من الزمان، اخترق نهج مختلف وبدأ في تحقيق مكاسب مذهلة.

التكنولوجيا الأساسية، التي تسمى الشبكة العصبية، مصممة بشكل فضفاض على غرار الدماغ البشري. إذ لا تتم برمجة هذا النوع من الذكاء الاصطناعي بقواعد صارمة، ولكنه يتعلم من خلال تحليل كميات هائلة من البيانات. إنه يولد اللغة، بناءً على كل المعلومات التي استوعبها، من خلال التنبؤ بالكلمة أو العبارة الأكثر احتمالاً أن تأتي بعد ذلك - تماماً كما يفعل البشر.

«هذه التكنولوجيا تقوم بأعمال رائعة، لكنها لا تفعل كل شيء»، كما قال هاموند. في بعض الأحيان، تعثرت روبوتات الدردشة بالذكاء الاصطناعي في حل مسائل حسابية وكلمات رياضية بسيطة تتطلب خطوات متعددة للوصول إلى حل، وهو أمر وثقه أخيراً بعض مراجعي التكنولوجيا.

وبينما تتحسن كفاءة الذكاء الاصطناعي، لكنها تظل تحمل العيوب. في حديثها في ندوة عقدت أخيراً، قدمت كريستين دي سيربو، كبيرة مسؤولي التعليم في أكاديمية خان، وهي مؤسسة تعليمية غير ربحية تجري تجارب على مدرس روبوت دردشة ومساعد تدريس بالذكاء الاصطناعي، موضوع دقة الرياضيات. قالت دي سيربو للمعلمين: «إنها مشكلة، كما يعلم الكثير منكم».

نظام «خانميغو» الذكي التعليمي

ذكاء اصطناعي يستعين بالآلة الحاسبة

قبل بضعة أشهر، أجرت أكاديمية خان تغييراً كبيراً على مدرسها المدعوم بالذكاء الاصطناعي، المسمى «خانميغو (Khanmigo)». يرسل العديد من المسائل الحسابية إلى برنامج الآلة الحاسبة بدلاً من مطالبة الذكاء الاصطناعي بحل مسائل الرياضيات. أثناء انتظار انتهاء برنامج الآلة الحاسبة، يرى الطلاب عبارة «إجراء العمليات الحسابية» على شاشاتهم وأيقونة «خانميغو» تهز رأسها.

قالت دي سيربو، التي تظل متفائلة بأن روبوتات الدردشة التفاعلية ستلعب دوراً مهماً في التعليم: «نحن في الواقع نستخدم أدوات مخصصة لإجراء العمليات الحسابية».

ولأكثر من عام، استخدم «تشات جي بي تي» حلًا مشابهاً لبعض مشاكل الرياضيات. إذ إنه يطلب المساعدة من برنامج الآلة الحاسبة لمهام مثل قسمة الأعداد الكبيرة والضرب.

قالت شركة «أوبن إيه آي»، في بيان، إن الرياضيات «مجال بحثي مستمر مهم»، وهو مجال أحرز فيه علماؤها تقدماً ثابتاً. وأضافت أن نسختها الجديدة من GPT حققت دقة تقرب من 64 في المائة على قاعدة بيانات عامة تضم آلاف المشكلات التي تتطلب الإدراك البصري والمنطق الرياضي. وهذا أعلى من 58 في المائة للإصدار السابق.

غالباً ما تتفوق روبوتات الدردشة التفاعلية عندما تستهلك كميات هائلة من بيانات التدريب ذات الصلة - الكتب المدرسية والتدريبات والاختبارات المعيارية. وقالت الشركة إن نسخة حديثة من التكنولوجيا التي تقوم عليها سجلت المرتبة 89 في اختبار SAT للرياضيات لطلاب المدارس الثانوية.

مناقشات حول توجهات المستقبل

يضيف الأداء غير المنتظم للتكنولوجيا في الرياضيات زخماً إلى نقاش حاد في مجتمع الذكاء الاصطناعي حول أفضل السبل للمضي قدماً في هذا المجال.

وعلى نطاق واسع، هناك معسكران. على الجانب الأول، هناك أولئك الذين يعتقدون أن الشبكات العصبية المتقدمة، المعروفة باسم نماذج اللغة الكبيرة، التي تدعم روبوتات الدردشة القائمة على الذكاء الاصطناعي، تشكل مساراً واحداً تقريباً للتقدم المطرد وفي نهاية المطاف إلى نظم «الذكاء الاصطناعي العام»، artificial general intelligence, AGI، وهو جهاز كومبيوتر يمكنه القيام بأي شيء يمكن للدماغ البشري القيام به. وهذه هي النظرة السائدة في كثير من أنحاء وادي السيليكون.

ولكنّ هناك متشككين يتساءلون عما إذا كان إضافة المزيد من البيانات وقوة الحوسبة إلى نماذج اللغة الكبيرة كافياً. ومن أبرز هؤلاء يان ليكون، كبير علماء الذكاء الاصطناعي في «ميتا». يقول ليكون إن نماذج اللغة الكبيرة تفتقر إلى المنطق وتفتقر إلى التفكير السليم. ويصر على أن المطلوب هو نهج أوسع، يسميه «نمذجة العالم (world modeling)»، أو أنظمة يمكنها تعلم كيفية عمل العالم مثلما يفعل البشر. وقد يستغرق الأمر عقداً من الزمان أو نحو ذلك لتحقيق ذلك.

قد تكون النماذج الحالية معيبة، لكنها لا تزال تفعل الكثير.

* خدمة «نيويورك تايمز».