باحثو «ستانفورد»: لا يمكننا السماح بثورة ذكاء اصطناعي في الظلام

تصنيف علمي لشفافية طريقة تشغيل 10 نماذج منها

جدول جامعة ستانفورد لتقييم النماذج العشرة للذكاء الاصطناعي
جدول جامعة ستانفورد لتقييم النماذج العشرة للذكاء الاصطناعي
TT

باحثو «ستانفورد»: لا يمكننا السماح بثورة ذكاء اصطناعي في الظلام

جدول جامعة ستانفورد لتقييم النماذج العشرة للذكاء الاصطناعي
جدول جامعة ستانفورد لتقييم النماذج العشرة للذكاء الاصطناعي

ما مدى معرفتنا عن الذكاء الاصطناعي، عندما يتعلّق الأمر بالنماذج اللغوية الكبيرة التي أطلقتها شركات مثل «أوبن إي آي» و«غوغل» و«ميتا» العام الماضي؟ الجواب هو: لا شيء.

تُحجم هذه الشركات عامّة عن المشاركة بمعلومات عن البيانات التي استخدمتها لتدريب نماذجها أو الأدوات التي استخدمتها لتشغيلها. لا يوجد حتّى اليوم دليلٌ خاص بالمستخدم لأنظمة الذكاء الاصطناعي، ولا لائحة توضح قدرات هذه الأنظمة، أو حتّى اختبارات السلامة التي أجريت عليها.

صحيحٌ أنّ بعض نماذج الذكاء الاصطناعي مفتوحة المصدر -أي أنّ رمزها البرمجي متوفّر لعموم الجمهور مجّاناً- إلّا أنّ النّاس لا يعلمون الكثير عن عملية ابتكارها، أو ما الذي يحصل بعد إطلاقها.

تقييم جامعة ستانفورد

في هذا السياق، أطلق باحثون من جامعة ستانفورد أخيراً نظام تقييم على أمل المساعدة في تغيير هذا الوضع.

يحمل المشروع اسم «مؤشر شفافية نموذج الأساس» Foundation Model Transparency Index ويصنّف 10 نماذج لغوية كبيرة مدعومة بالذكاء الاصطناعي (تُسمّى أحياناً بـ«نماذج الأساس») بناءً على درجة شفافيتها.

يشمل المؤشر نماذج شهيرة مثل GPT-4 من «أوبن إي آي» (الذي يشغّل الإصدار المدفوع من «تشات جي بي تي»)، و«PaLM 2» (الذي يشغّل نموذج «بارد»)، و«LLaMA 2» من «ميتا»، بالإضافة إلى نماذج أقلّ شعبية مثل «Titan Text» من «أمازون»، و«Inflection-1» من «إنفلكشن إي آي»، الذي يشغّل روبوت المحادثة «باي».

لتصميم التصنيف، قيّم الباحثون كلّ نموذج وفقاً لمائة معيار، ككشف الشركة المنتجة عن مصادر بيانات التدريب ومعلومات عن الأدوات المستخدمة، والعمالة التي شاركت في التدريب، إلى جانب تفاصيل أخرى. وتضمّنت التصنيفات أيضاً معلومات عن العمالة والبيانات المستخدمة لإنتاج النموذج نفسه، إلى جانب ما سماه الباحثون «مؤشرات المجريات» (downstream indicators) المتعلّقة بكيفية استخدام النموذج بعد إطلاقه. (مثلاً، جاء أحد الأسئلة على الشكل الآتي: «هل كشف المطوّر عن البروتوكولات التي استخدمها لتخزين بيانات المستخدم، والوصول إليها، ومشاركتها؟»).

شفافية الذكاء الاصطناعي

وجد الباحثون بعد التصنيف الذي أجروه أنّ النموذج الأكثر شفافية هو «LLaMA 2» بنسبة 54 في المائة، بينما حقّق «GPT-4» و«PaLM 2» ثالث أعلى رصيد شفافية بـ40 في المائة.

وصف بيرسي ليانغ، مدير مركز أبحاث نماذج الأساس في ستانفورد، مشروع التصنيف، بالاستجابة الضرورية للشفافية المتردّية في صناعة الذكاء الاصطناعي. وأضاف أنّ تدفّق الأموال للاستثمار في الذكاء الاصطناعي وتصارع كبرى شركات التقنية للسيطرة على الصناعة، دفع كثيراً منها أخيراً إلى إحاطة نفسها بالسريّة التامّة.

ويشرح ليانغ: «قبل ثلاث سنوات، كان الناس ينشرون ويشاركون تفاصيل أكثر عن نماذجهم. أمّا اليوم، فلا توجد معلومات حول طبيعة هذه النماذج، وكيف طُوّرت، وأين تُستخدم».

تنطوي الشفافية اليوم على أهميّة استثنائية؛ لأنّ هذه النماذج تزداد قوّة، فضلاً عن أنّ أدوات الذكاء الاصطناعي باتت تدخل في حياة الملايين اليومية. ومعرفة مزيد عن عمل هذه الأنظمة سيزوّد واضعي القوانين والباحثين والمستخدمين بمفهومٍ أفضل عمّا يتعاملون معه، وسيتيح لهم طرح أسئلة بنّاءة عن الشركات التي تقف خلف النماذج.

ويشدّد ليانغ على «غياب مشاركة بعض القرارات التبعية التي تُتّخذ اليوم حول تطوير هذه النماذج».

سرّية غير مبررة

ويضيف ليانغ أنّه عندما يسأل المديرين التنفيذيين في شركات الذكاء الاصطناعي عن سبب عدم مشاركتهم لمزيد من المعلومات عن نماذجهم، يسمع واحدة من ثلاث إجابات شائعة:

* الأولى هي الدعاوى القضائية: تواجه شركات ذكاء اصطناعي عدّة دعاوى قضائية رفعها مؤلّفون وفنّانون وشركات إعلامية، تتهمها باستخدام أعمال خاضعة لحقوق الملكية بشكلٍ غير قانوني لتدريب نماذج الذكاء الاصطناعي الخاصة بها. استهدف معظم هذه الدعاوى حتّى اليوم مشاريع الذكاء الاصطناعي مفتوحة المصدر، أو المشاريع التي نشرت معلومات مفصّلة عن نماذجها. يتخوّف الوكلاء القانونيون لشركات الذكاء الاصطناعي من أن يجرّ إفصاح الشركات عن تفاصيل بناء نماذجها مزيداً من العواقب القانونية المزعجة والمكلفة.

* الثانية هي المنافسة: تعتقد شركات الذكاء الاصطناعي أنّ نماذجها تعمل لأنّها تملك ما يشبه «الصلصة السرية»؛ نسقٌ من البيانات النوعية التي لا تملكها الشركات الأخرى، وتقنية عالية الضبط تعطي نتائج أفضل، وبعض الصقل الذي يمنحها أفضلية ما. تحاجج هذه الشركات بأنّها في حال أُجبرت على الكشف عن وصفاتها السرية، ستُقدّم لمنافسيها حكمة اكتسبتها بصعوبة على طبقٍ من فضّة.

* الثالثة، وهي الأكثر ترداداً، السلامة: يحاجج بعض خبراء الذكاء الاصطناعي بأنّه كلّما زاد كمّ المعلومات التي تشاركها شركات الذكاء الاصطناعي عن نماذجها، سيتسارع تقدّم الذكاء الاصطناعي أكثر؛ لأنّ كلّ واحدة من هذه الشركات ستطّلع على ما حقّقته منافستها، وستعمد على الفور إلى التفوّق عليها ببناء نموذج أفضل وأكبر وأسرع. وهكذا، لن يملك المجتمع الوقت الكافي لتنظيم وإبطاء الذكاء الاصطناعي، مما سيعرّضنا جميعاً لمزيد من المخاطر إذا أصبح الذكاء الاصطناعي أقوى بسرعةٍ أكبر.

لا توجد معلومات حول طبيعة هذه النماذج وكيف طُوّرت وأين تُستخدم

تفسيرات غير مقنعة

ولكنّ باحثي ستانفورد لا يصدّقون هذه التفسيرات، ويعتقدون أنّ شركات الذكاء الاصطناعي يجب أن تخضع لضغوطات للكشف عن المعلومات الكافية التي توضح قوّة نماذجها؛ لأنّ المستخدمين والباحثين وواضعي القوانين يجب أن يكونوا على دراية بكيفية عمل هذه النماذج، ومحدوديتها، وبدرجة الخطر التي قد تترتّب عليها.

من جهته، قال ريشي بوماساني، أحد الباحثين المشاركين في المشروع، إنّ «الشفافية تشهد تراجعاً ملحوظاً يتزامن مع تصاعد تأثير هذه التقنية».

ونحن نوافقهم الرأي؛ لأنّ هذه النماذج الأساس أقوى من أن تبقى مبهمة، وكلّما توسّعت معرفتنا بها زاد فهمنا للتهديدات التي قد ترتّبها، والمكاسب التي قد تحملها، أو للطريقة التي تمكّننا من تنظيمها.

وإذا كان تنفيذيّو شركات الذكاء الاصطناعي يشعرون بالقلق من الدعاوى القضائية، فربّما يجب عليهم أن يكافحوا من أجل إعفاء عادلٍ يحمي قدرتهم على استخدام المعلومات الخاضعة لحقوق الملكية لتدريب نماذجهم بدل إخفاء الأدلّة. وإذا كانوا يشعرون بالقلق من التنازل عن أسرارهم التجارية للمنافسين، فيمكنهم رفع النقاب عن نوعٍ آخر من المعلومات، أو حماية أفكارهم بواسطة براءة اختراع. وفي حال كانوا قلقين من استعار سباق التسلّح بالذكاء الاصطناعي، نقول لهم: «ألسنا في وسط واحدٍ الآن؟»

لا يمكننا السماح بثورة ذكاء اصطناعي في الظلام، ويجب أن نعلم ماذا يوجد داخل صناديق الذكاء الاصطناعي السوداء إذا كنّا سنسمح لها بتغيير حياتنا.

* خدمة «نيويورك تايمز»


مقالات ذات صلة

«جيميناي» يفهم الآن الملفات والصور والفيديوهات... ويتفاعل صوتياً

تكنولوجيا الميزة تتيح التحدث مباشرة مع «جيميناي» حول ما يظهر على الشاشة أو أمام الكاميرا من دون الحاجة للكتابة (شاترستوك)

«جيميناي» يفهم الآن الملفات والصور والفيديوهات... ويتفاعل صوتياً

«غوغل» تطلق ميزة «جيميناي لايف» لجميع أجهزة «آندرويد» متيحة التفاعل الصوتي مع المساعد الذكي عبر الكاميرا أو مشاركة الشاشة لفهم المحتوى مباشرة.

نسيم رمضان (لندن)
تكنولوجيا تُستخدم أدوات الذكاء الاصطناعي لإنشاء متاجر إلكترونية وهمية في دقائق ما يزيد صعوبة التمييز بينها وبين الحقيقية (شاترستوك)

«مايكروسوفت» تتصدى لـ1.6 مليون محاولة اختراق أمني في الساعة

كشفت «مايكروسوفت» عن جهودها لمكافحة الاحتيال الإلكتروني محبطة محاولات احتيال بـ4 مليارات دولار عبر تقنيات ذكاء اصطناعي وحماية مدمجة في منتجاتها.

نسيم رمضان (لندن)
يوميات الشرق استخدام التكنولوجيا الرقمية يرتبط بانخفاض خطر الإصابة بالضعف الإدراكي (رويترز)

دراسة: استخدام الهواتف الذكية يقلل خطر الإصابة بالخرف لدى كبار السن

زعم البعض أن التكنولوجيا الرقمية قد تؤثر سلباً على القدرات الإدراكية، لكن باحثين من جامعة بايلور الأميركية اكتشفوا عكس ذلك تماماً.

«الشرق الأوسط» (واشنطن)
تكنولوجيا تتيح الميزة الجديدة من «تشات جي بي تي» للمستخدمين عرض وتنظيم جميع الصور المُولّدة بالذكاء الاصطناعي في مكان واحد (شاترستوك)

«أوبن إيه آي» تطلق مكتبة صور في «تشات جي بي تي» لتعزز تجربة المستخدم

تحديث جديد في «تشات جي بي تي» يتيح عرض وتعديل جميع الصور المُولّدة بالذكاء الاصطناعي دون تكلفة إضافية.

نسيم رمضان (لندن)
تكنولوجيا يتطلب تحقيق الاستدامة نهجاً شاملاً يشمل الابتكار التكنولوجي وإطالة عمر المعدات وتعاوناً بين جميع أطراف سلسلة التوريد (شاترستوك)

تقرير جديد: 165 % زيادة متوقعة في استهلاك الطاقة بسبب الذكاء الاصطناعي عام 2030

تقرير «سيغايت» يكشف عن تصاعد الضغط على مراكز البيانات بفعل الذكاء الاصطناعي، ويدعو إلى حلول توازِن بين الكفاءة والاستدامة عبر الابتكار والمسؤولية المشتركة.

نسيم رمضان (لندن)

«أوبن إيه آي» تطلق أداة ذكاء اصطناعي جديدة للمهام الأرخص والأبطأ

شركة «أوبن إيه آي» تعمل على إنشاء منصة للتواصل الاجتماعي خاصة بها (رويترز)
شركة «أوبن إيه آي» تعمل على إنشاء منصة للتواصل الاجتماعي خاصة بها (رويترز)
TT

«أوبن إيه آي» تطلق أداة ذكاء اصطناعي جديدة للمهام الأرخص والأبطأ

شركة «أوبن إيه آي» تعمل على إنشاء منصة للتواصل الاجتماعي خاصة بها (رويترز)
شركة «أوبن إيه آي» تعمل على إنشاء منصة للتواصل الاجتماعي خاصة بها (رويترز)

في محاولة لتعزيز قدرتها على مواجهة المنافسة المتزايدة في سوق الذكاء الاصطناعي من شركات مثل «غوغل»، أطلقت «أوبن إيه آي» المطوِّرة لمنصة محادثة الذكاء الاصطناعي الشهيرة «شات جي بي تي»، أداة واجهة برمجة تطبيقات جديدة باسم «فليكس»، تتيح استخدام نماذج الذكاء الاصطناعي بتكلفة أقل مقابل زيادة زمن أداء المهام واحتمال عدم إنجازها في بعض الحالات.

وتقول شركة «أوبن إيه آي» إن أداة «فليكس» المتوفرة في الإصدار التجريبي لنماذج الذكاء الاصطناعي الاستدلالي «o3» و«o4 - ميني» التي أصدرتها الشركة مؤخراً، تهدف إلى أداء المهام ذات الأولوية المنخفضة و«غير الإنتاجية» مثل تقييمات النماذج وإثراء البيانات وأحمال العمل غير المتزامنة.

وتقلل هذه الأداء تكلفة استخدام واجهة برمجة التطبيقات بنصف التكلفة الطبيعية. وبالنسبة إلى نموذج الذكاء الاصطناعي الاستدلالي «أو 3»، سيدفع المستخدم 5 دولارات مقابل كل مليون رمز إدخال (750 ألف كلمة) و20 دولاراً مقابل كل مليون رمز إخراج، في حين تصل تكلفة هذه المعالجات من دون «فليكس» إلى 10 دولارات لكل مليون رمز إدخال، و40 دولاراً لكل مليون رمز إخراج.

وبالنسبة إلى نموذج الذكاء الاصطناعي «أو 4 - ميني» تخفض أداة «فليكس» التكلفة إلى 0.55 دولار لكل مليون رمز إدخال و2.2 دولار لكل مليون رمز إخراج من 1.10 دولار لكل مليون رمز إدخال و4.40 دولار لكل مليون رمز إخراج، وفق وكالة الأنباء الألمانية.

وأشار موقع «تك كرانش» المتخصص في موضوعات التكنولوجيا، إلى أن إطلاق أداة «فليكس» يأتي في ظل استمرار ارتفاع أسعار خدمات الذكاء الاصطناعي لشركة «أوبن إيه آي» الرائدة، وإطلاق المنافسين نماذج أرخص وأكثر كفاءة، حيث أطلقت شركة «غوغل» نموذج «جيميناي 2.5 فلاش» للذكاء الاصطناعي الاستدلالي ليضاهي ويتفوق على نموذج «آر 1» من شركة «ديب سيك» الصينية التي فاجأت العالم في بداية العام الحالي بإطلاق نموذج ذكاء اصطناعي قادر على تنفيذ أغلب المهام وبتكلفة أقل كثيراً من النماذج التي تقدمها الشركات الأميركية الرائدة مثل «أوبن إيه آي».