باحثو «ستانفورد»: لا يمكننا السماح بثورة ذكاء اصطناعي في الظلام

تصنيف علمي لشفافية طريقة تشغيل 10 نماذج منها

جدول جامعة ستانفورد لتقييم النماذج العشرة للذكاء الاصطناعي
جدول جامعة ستانفورد لتقييم النماذج العشرة للذكاء الاصطناعي
TT

باحثو «ستانفورد»: لا يمكننا السماح بثورة ذكاء اصطناعي في الظلام

جدول جامعة ستانفورد لتقييم النماذج العشرة للذكاء الاصطناعي
جدول جامعة ستانفورد لتقييم النماذج العشرة للذكاء الاصطناعي

ما مدى معرفتنا عن الذكاء الاصطناعي، عندما يتعلّق الأمر بالنماذج اللغوية الكبيرة التي أطلقتها شركات مثل «أوبن إي آي» و«غوغل» و«ميتا» العام الماضي؟ الجواب هو: لا شيء.

تُحجم هذه الشركات عامّة عن المشاركة بمعلومات عن البيانات التي استخدمتها لتدريب نماذجها أو الأدوات التي استخدمتها لتشغيلها. لا يوجد حتّى اليوم دليلٌ خاص بالمستخدم لأنظمة الذكاء الاصطناعي، ولا لائحة توضح قدرات هذه الأنظمة، أو حتّى اختبارات السلامة التي أجريت عليها.

صحيحٌ أنّ بعض نماذج الذكاء الاصطناعي مفتوحة المصدر -أي أنّ رمزها البرمجي متوفّر لعموم الجمهور مجّاناً- إلّا أنّ النّاس لا يعلمون الكثير عن عملية ابتكارها، أو ما الذي يحصل بعد إطلاقها.

تقييم جامعة ستانفورد

في هذا السياق، أطلق باحثون من جامعة ستانفورد أخيراً نظام تقييم على أمل المساعدة في تغيير هذا الوضع.

يحمل المشروع اسم «مؤشر شفافية نموذج الأساس» Foundation Model Transparency Index ويصنّف 10 نماذج لغوية كبيرة مدعومة بالذكاء الاصطناعي (تُسمّى أحياناً بـ«نماذج الأساس») بناءً على درجة شفافيتها.

يشمل المؤشر نماذج شهيرة مثل GPT-4 من «أوبن إي آي» (الذي يشغّل الإصدار المدفوع من «تشات جي بي تي»)، و«PaLM 2» (الذي يشغّل نموذج «بارد»)، و«LLaMA 2» من «ميتا»، بالإضافة إلى نماذج أقلّ شعبية مثل «Titan Text» من «أمازون»، و«Inflection-1» من «إنفلكشن إي آي»، الذي يشغّل روبوت المحادثة «باي».

لتصميم التصنيف، قيّم الباحثون كلّ نموذج وفقاً لمائة معيار، ككشف الشركة المنتجة عن مصادر بيانات التدريب ومعلومات عن الأدوات المستخدمة، والعمالة التي شاركت في التدريب، إلى جانب تفاصيل أخرى. وتضمّنت التصنيفات أيضاً معلومات عن العمالة والبيانات المستخدمة لإنتاج النموذج نفسه، إلى جانب ما سماه الباحثون «مؤشرات المجريات» (downstream indicators) المتعلّقة بكيفية استخدام النموذج بعد إطلاقه. (مثلاً، جاء أحد الأسئلة على الشكل الآتي: «هل كشف المطوّر عن البروتوكولات التي استخدمها لتخزين بيانات المستخدم، والوصول إليها، ومشاركتها؟»).

شفافية الذكاء الاصطناعي

وجد الباحثون بعد التصنيف الذي أجروه أنّ النموذج الأكثر شفافية هو «LLaMA 2» بنسبة 54 في المائة، بينما حقّق «GPT-4» و«PaLM 2» ثالث أعلى رصيد شفافية بـ40 في المائة.

وصف بيرسي ليانغ، مدير مركز أبحاث نماذج الأساس في ستانفورد، مشروع التصنيف، بالاستجابة الضرورية للشفافية المتردّية في صناعة الذكاء الاصطناعي. وأضاف أنّ تدفّق الأموال للاستثمار في الذكاء الاصطناعي وتصارع كبرى شركات التقنية للسيطرة على الصناعة، دفع كثيراً منها أخيراً إلى إحاطة نفسها بالسريّة التامّة.

ويشرح ليانغ: «قبل ثلاث سنوات، كان الناس ينشرون ويشاركون تفاصيل أكثر عن نماذجهم. أمّا اليوم، فلا توجد معلومات حول طبيعة هذه النماذج، وكيف طُوّرت، وأين تُستخدم».

تنطوي الشفافية اليوم على أهميّة استثنائية؛ لأنّ هذه النماذج تزداد قوّة، فضلاً عن أنّ أدوات الذكاء الاصطناعي باتت تدخل في حياة الملايين اليومية. ومعرفة مزيد عن عمل هذه الأنظمة سيزوّد واضعي القوانين والباحثين والمستخدمين بمفهومٍ أفضل عمّا يتعاملون معه، وسيتيح لهم طرح أسئلة بنّاءة عن الشركات التي تقف خلف النماذج.

ويشدّد ليانغ على «غياب مشاركة بعض القرارات التبعية التي تُتّخذ اليوم حول تطوير هذه النماذج».

سرّية غير مبررة

ويضيف ليانغ أنّه عندما يسأل المديرين التنفيذيين في شركات الذكاء الاصطناعي عن سبب عدم مشاركتهم لمزيد من المعلومات عن نماذجهم، يسمع واحدة من ثلاث إجابات شائعة:

* الأولى هي الدعاوى القضائية: تواجه شركات ذكاء اصطناعي عدّة دعاوى قضائية رفعها مؤلّفون وفنّانون وشركات إعلامية، تتهمها باستخدام أعمال خاضعة لحقوق الملكية بشكلٍ غير قانوني لتدريب نماذج الذكاء الاصطناعي الخاصة بها. استهدف معظم هذه الدعاوى حتّى اليوم مشاريع الذكاء الاصطناعي مفتوحة المصدر، أو المشاريع التي نشرت معلومات مفصّلة عن نماذجها. يتخوّف الوكلاء القانونيون لشركات الذكاء الاصطناعي من أن يجرّ إفصاح الشركات عن تفاصيل بناء نماذجها مزيداً من العواقب القانونية المزعجة والمكلفة.

* الثانية هي المنافسة: تعتقد شركات الذكاء الاصطناعي أنّ نماذجها تعمل لأنّها تملك ما يشبه «الصلصة السرية»؛ نسقٌ من البيانات النوعية التي لا تملكها الشركات الأخرى، وتقنية عالية الضبط تعطي نتائج أفضل، وبعض الصقل الذي يمنحها أفضلية ما. تحاجج هذه الشركات بأنّها في حال أُجبرت على الكشف عن وصفاتها السرية، ستُقدّم لمنافسيها حكمة اكتسبتها بصعوبة على طبقٍ من فضّة.

* الثالثة، وهي الأكثر ترداداً، السلامة: يحاجج بعض خبراء الذكاء الاصطناعي بأنّه كلّما زاد كمّ المعلومات التي تشاركها شركات الذكاء الاصطناعي عن نماذجها، سيتسارع تقدّم الذكاء الاصطناعي أكثر؛ لأنّ كلّ واحدة من هذه الشركات ستطّلع على ما حقّقته منافستها، وستعمد على الفور إلى التفوّق عليها ببناء نموذج أفضل وأكبر وأسرع. وهكذا، لن يملك المجتمع الوقت الكافي لتنظيم وإبطاء الذكاء الاصطناعي، مما سيعرّضنا جميعاً لمزيد من المخاطر إذا أصبح الذكاء الاصطناعي أقوى بسرعةٍ أكبر.

لا توجد معلومات حول طبيعة هذه النماذج وكيف طُوّرت وأين تُستخدم

تفسيرات غير مقنعة

ولكنّ باحثي ستانفورد لا يصدّقون هذه التفسيرات، ويعتقدون أنّ شركات الذكاء الاصطناعي يجب أن تخضع لضغوطات للكشف عن المعلومات الكافية التي توضح قوّة نماذجها؛ لأنّ المستخدمين والباحثين وواضعي القوانين يجب أن يكونوا على دراية بكيفية عمل هذه النماذج، ومحدوديتها، وبدرجة الخطر التي قد تترتّب عليها.

من جهته، قال ريشي بوماساني، أحد الباحثين المشاركين في المشروع، إنّ «الشفافية تشهد تراجعاً ملحوظاً يتزامن مع تصاعد تأثير هذه التقنية».

ونحن نوافقهم الرأي؛ لأنّ هذه النماذج الأساس أقوى من أن تبقى مبهمة، وكلّما توسّعت معرفتنا بها زاد فهمنا للتهديدات التي قد ترتّبها، والمكاسب التي قد تحملها، أو للطريقة التي تمكّننا من تنظيمها.

وإذا كان تنفيذيّو شركات الذكاء الاصطناعي يشعرون بالقلق من الدعاوى القضائية، فربّما يجب عليهم أن يكافحوا من أجل إعفاء عادلٍ يحمي قدرتهم على استخدام المعلومات الخاضعة لحقوق الملكية لتدريب نماذجهم بدل إخفاء الأدلّة. وإذا كانوا يشعرون بالقلق من التنازل عن أسرارهم التجارية للمنافسين، فيمكنهم رفع النقاب عن نوعٍ آخر من المعلومات، أو حماية أفكارهم بواسطة براءة اختراع. وفي حال كانوا قلقين من استعار سباق التسلّح بالذكاء الاصطناعي، نقول لهم: «ألسنا في وسط واحدٍ الآن؟»

لا يمكننا السماح بثورة ذكاء اصطناعي في الظلام، ويجب أن نعلم ماذا يوجد داخل صناديق الذكاء الاصطناعي السوداء إذا كنّا سنسمح لها بتغيير حياتنا.

* خدمة «نيويورك تايمز»


مقالات ذات صلة

تجميد الجثث أملاً في إحيائها مستقبلاً لم يعد يقتصر على الخيال العلمي

يوميات الشرق إميل كيندزورا أحد مؤسسي شركة «توموروو بايوستيتس» (على اليمين) داخل مركز تخزين الجثث في سويسرا (أ.ف.ب)

تجميد الجثث أملاً في إحيائها مستقبلاً لم يعد يقتصر على الخيال العلمي

قررت بيكا زيغلر البالغة 24 عاماً، تجميد جثتها في برّاد بعد وفاتها عن طريق مختبر في برلين، على أمل محدود بإعادة إحيائها مستقبلاً.

«الشرق الأوسط» (برلين)
تكنولوجيا شركات الذكاء الاصطناعي تتفق مع دور النشر بما يتيح لهذه الشركات استخدام الأعمال المنشورة لتدريب نماذجها القائمة على الذكاء الاصطناعي التوليدي (رويترز)

شركات الذكاء الاصطناعي التوليدي تلجأ إلى الكتب لتطوّر برامجها

مع ازدياد احتياجات الذكاء الاصطناعي التوليدي، بدأت أوساط قطاع النشر هي الأخرى في التفاوض مع المنصات التي توفر هذه التقنية سعياً إلى حماية حقوق المؤلفين.

«الشرق الأوسط» (باريس)
الاقتصاد شاشة تسجيل الوصول في مكتب «إنفيديا» في أوستن بتكساس (أ.ف.ب)

«إنفيديا» تتفوق على توقعات الأرباح مع ترقب المستثمرين للطلب على رقائق «بلاكويل» للذكاء الاصطناعي

أعلنت شركة «إنفيديا»، يوم الأربعاء، عن زيادة في أرباحها ومبيعاتها في الربع الثالث مع استمرار الطلب على رقائق الكمبيوتر المتخصصة.

«الشرق الأوسط» (نيويورك)
تكنولوجيا  الحكومة الأميركية تتحرك لإجبار «غوغل» على بيع متصفّحه «كروم»

 الحكومة الأميركية تتحرك لإجبار «غوغل» على بيع متصفّحه «كروم»

طلبت الحكومة الأميركية، الأربعاء، من القضاء إجبار «غوغل» على بيع متصفّحه «كروم»، في إجراء يهدف لمكافحة الممارسات الاحتكارية المتّهم بارتكابها عملاق التكنولوجيا.

«الشرق الأوسط» (واشنطن)
صحتك بهدف تكوين صورة بصرية ذات معنى لمشهد ما تقوم أعيننا بسلسلة من الحركات السريعة المنسقة (رويترز)

خلل بسيط في حركة العين قد يشير إلى إصابتك بألزهايمر

تبرز مؤخراً طريقة جديدة للكشف المبكر عن مرض ألزهايمر ترتبط بالاستماع إلى حركة عيون المرضى عبر ميكروفونات في آذانهم.

«الشرق الأوسط» (واشنطن)

شركات الذكاء الاصطناعي التوليدي تلجأ إلى الكتب لتطوّر برامجها

شركات الذكاء الاصطناعي تتفق مع دور النشر بما يتيح لهذه الشركات استخدام الأعمال المنشورة لتدريب نماذجها القائمة على الذكاء الاصطناعي التوليدي (رويترز)
شركات الذكاء الاصطناعي تتفق مع دور النشر بما يتيح لهذه الشركات استخدام الأعمال المنشورة لتدريب نماذجها القائمة على الذكاء الاصطناعي التوليدي (رويترز)
TT

شركات الذكاء الاصطناعي التوليدي تلجأ إلى الكتب لتطوّر برامجها

شركات الذكاء الاصطناعي تتفق مع دور النشر بما يتيح لهذه الشركات استخدام الأعمال المنشورة لتدريب نماذجها القائمة على الذكاء الاصطناعي التوليدي (رويترز)
شركات الذكاء الاصطناعي تتفق مع دور النشر بما يتيح لهذه الشركات استخدام الأعمال المنشورة لتدريب نماذجها القائمة على الذكاء الاصطناعي التوليدي (رويترز)

مع ازدياد احتياجات الذكاء الاصطناعي التوليدي، بدأت أوساط قطاع النشر هي الأخرى في التفاوض مع المنصات التي توفر هذه التقنية سعياً إلى حماية حقوق المؤلفين، وإبرام عقود مع الجهات المعنية بتوفير هذه الخدمات لتحقيق المداخيل من محتواها.

واقترحت دار النشر «هاربر كولينز» الأميركية الكبرى أخيراً على بعض مؤلفيها، عقداً مع إحدى شركات الذكاء الاصطناعي تبقى هويتها طي الكتمان، يتيح لهذه الشركة استخدام أعمالهم المنشورة لتدريب نماذجها القائمة على الذكاء الاصطناعي التوليدي.

وفي رسالة اطلعت عليها «وكالة الصحافة الفرنسية»، عرضت شركة الذكاء الاصطناعي 2500 دولار لكل كتاب تختاره لتدريب نموذجها اللغوي «إل إل إم» لمدة 3 سنوات.

آراء متفاوتة

ولكي تكون برامج الذكاء الاصطناعي قادرة على إنتاج مختلف أنواع المحتوى بناء على طلب بسيط بلغة يومية، تنبغي تغذيتها بكمية مزدادة من البيانات.

وبعد التواصل مع دار النشر أكدت الأخيرة الموافقة على العملية. وأشارت إلى أنّ «(هاربر كولينز) أبرمت عقداً مع إحدى شركات التكنولوجيا المتخصصة بالذكاء الاصطناعي للسماح بالاستخدام المحدود لكتب معينة (...) بهدف تدريب نماذج الذكاء الاصطناعي وتحسين أدائها».

وتوضّح دار النشر أيضاً أنّ العقد «ينظّم بشكل واضح ما تنتجه النماذج مع احترامها حقوق النشر».

ولاقى هذا العرض آراء متفاوتة في قطاع النشر، إذ رفضه كتّاب مثل الأميركي دانييل كيبلسميث الذي قال في منشور عبر منصة «بلوسكاي» للتواصل الاجتماعي: «من المحتمل أن أقبل بذلك مقابل مليار دولار، مبلغ يتيح لي التوقف عن العمل، لأن هذا هو الهدف النهائي من هذه التكنولوجيا».

هامش تفاوض محدود

ومع أنّ «هاربر كولينز» هي إحدى كبرى دور النشر التي أبرمت عقوداً من هذا النوع، فإنّها ليست الأولى. فدار «ويلي» الأميركية الناشرة للكتب العلمية أتاحت لشركة تكنولوجية كبيرة «محتوى كتب أكاديمية ومهنية منشورة لاستخدام محدد في نماذج التدريب، مقابل 23 مليون دولار»، كما قالت في مارس (آذار) عند عرض نتائجها المالية.

ويسلط هذا النوع من الاتفاقيات الضوء على المشاكل المرتبطة بتطوير الذكاء الاصطناعي التوليدي، الذي يتم تدريبه على كميات هائلة من البيانات تُجمع من الإنترنت، وهو ما قد يؤدي إلى انتهاكات لحقوق الطبع والنشر.

وترى جادا بيستيلي، رئيسة قسم الأخلاقيات لدى «هاغينغ فايس»، وهي منصة فرنسية - أميركية متخصصة بالذكاء الاصطناعي، أنّ هذا الإعلان يشكل خطوة إلى الأمام، لأنّ محتوى الكتب يدرّ أموالاً. لكنها تأسف لأنّ هامش التفاوض محدود للمؤلفين.

وتقول: «ما سنراه هو آلية لاتفاقيات ثنائية بين شركات التكنولوجيا ودور النشر أو أصحاب حقوق الطبع والنشر، في حين ينبغي أن تكون المفاوضات أوسع لتشمل أصحاب العلاقة».

ويقول المدير القانوني لاتحاد النشر الفرنسي (SNE) جوليان شوراكي: «نبدأ من مكان بعيد جداً»، مضيفاً: «إنّه تقدم، فبمجرّد وجود اتفاق يعني أن حواراً ما انعقد وثمة رغبة في تحقيق توازن فيما يخص استخدام البيانات مصدراً، التي تخضع للحقوق والتي ستولد مبالغ».

مواد جديدة

وفي ظل هذه المسائل، بدأ الناشرون الصحافيون أيضاً في تنظيم هذا الموضوع. ففي نهاية 2023، أطلقت صحيفة «نيويورك تايمز» الأميركية اليومية ملاحقات ضد شركة «أوبن إيه آي» مبتكرة برنامج «تشات جي بي تي» وضد «مايكروسوفت» المستثمر الرئيسي فيها، بتهمة انتهاك حقوق النشر. وقد أبرمت وسائل إعلام أخرى اتفاقيات مع «أوبن إيه آي».

وربما لم يعد أمام شركات التكنولوجيا أي خيار لتحسين منتجاتها سوى باعتماد خيارات تُلزمها بدفع أموال، خصوصاً مع بدء نفاد المواد الجديدة لتشغيل النماذج.

وأشارت الصحافة الأميركية أخيراً إلى أنّ النماذج الجديدة قيد التطوير تبدو كأنها وصلت إلى حدودها القصوى، لا سيما برامج «غوغل» و«أنثروبيك» و«أوبن إيه آي».

ويقول جوليان شوراكي: «يمكن على شبكة الإنترنت، جمع المحتوى القانوني وغير القانوني، وكميات كبيرة من المحتوى المقرصن، مما يشكل مشكلة قانونية. هذا من دون أن ننسى مسألة نوعية البيانات».