باحثو «ستانفورد»: لا يمكننا السماح بثورة ذكاء اصطناعي في الظلام

تصنيف علمي لشفافية طريقة تشغيل 10 نماذج منها

جدول جامعة ستانفورد لتقييم النماذج العشرة للذكاء الاصطناعي
جدول جامعة ستانفورد لتقييم النماذج العشرة للذكاء الاصطناعي
TT

باحثو «ستانفورد»: لا يمكننا السماح بثورة ذكاء اصطناعي في الظلام

جدول جامعة ستانفورد لتقييم النماذج العشرة للذكاء الاصطناعي
جدول جامعة ستانفورد لتقييم النماذج العشرة للذكاء الاصطناعي

ما مدى معرفتنا عن الذكاء الاصطناعي، عندما يتعلّق الأمر بالنماذج اللغوية الكبيرة التي أطلقتها شركات مثل «أوبن إي آي» و«غوغل» و«ميتا» العام الماضي؟ الجواب هو: لا شيء.

تُحجم هذه الشركات عامّة عن المشاركة بمعلومات عن البيانات التي استخدمتها لتدريب نماذجها أو الأدوات التي استخدمتها لتشغيلها. لا يوجد حتّى اليوم دليلٌ خاص بالمستخدم لأنظمة الذكاء الاصطناعي، ولا لائحة توضح قدرات هذه الأنظمة، أو حتّى اختبارات السلامة التي أجريت عليها.

صحيحٌ أنّ بعض نماذج الذكاء الاصطناعي مفتوحة المصدر -أي أنّ رمزها البرمجي متوفّر لعموم الجمهور مجّاناً- إلّا أنّ النّاس لا يعلمون الكثير عن عملية ابتكارها، أو ما الذي يحصل بعد إطلاقها.

تقييم جامعة ستانفورد

في هذا السياق، أطلق باحثون من جامعة ستانفورد أخيراً نظام تقييم على أمل المساعدة في تغيير هذا الوضع.

يحمل المشروع اسم «مؤشر شفافية نموذج الأساس» Foundation Model Transparency Index ويصنّف 10 نماذج لغوية كبيرة مدعومة بالذكاء الاصطناعي (تُسمّى أحياناً بـ«نماذج الأساس») بناءً على درجة شفافيتها.

يشمل المؤشر نماذج شهيرة مثل GPT-4 من «أوبن إي آي» (الذي يشغّل الإصدار المدفوع من «تشات جي بي تي»)، و«PaLM 2» (الذي يشغّل نموذج «بارد»)، و«LLaMA 2» من «ميتا»، بالإضافة إلى نماذج أقلّ شعبية مثل «Titan Text» من «أمازون»، و«Inflection-1» من «إنفلكشن إي آي»، الذي يشغّل روبوت المحادثة «باي».

لتصميم التصنيف، قيّم الباحثون كلّ نموذج وفقاً لمائة معيار، ككشف الشركة المنتجة عن مصادر بيانات التدريب ومعلومات عن الأدوات المستخدمة، والعمالة التي شاركت في التدريب، إلى جانب تفاصيل أخرى. وتضمّنت التصنيفات أيضاً معلومات عن العمالة والبيانات المستخدمة لإنتاج النموذج نفسه، إلى جانب ما سماه الباحثون «مؤشرات المجريات» (downstream indicators) المتعلّقة بكيفية استخدام النموذج بعد إطلاقه. (مثلاً، جاء أحد الأسئلة على الشكل الآتي: «هل كشف المطوّر عن البروتوكولات التي استخدمها لتخزين بيانات المستخدم، والوصول إليها، ومشاركتها؟»).

شفافية الذكاء الاصطناعي

وجد الباحثون بعد التصنيف الذي أجروه أنّ النموذج الأكثر شفافية هو «LLaMA 2» بنسبة 54 في المائة، بينما حقّق «GPT-4» و«PaLM 2» ثالث أعلى رصيد شفافية بـ40 في المائة.

وصف بيرسي ليانغ، مدير مركز أبحاث نماذج الأساس في ستانفورد، مشروع التصنيف، بالاستجابة الضرورية للشفافية المتردّية في صناعة الذكاء الاصطناعي. وأضاف أنّ تدفّق الأموال للاستثمار في الذكاء الاصطناعي وتصارع كبرى شركات التقنية للسيطرة على الصناعة، دفع كثيراً منها أخيراً إلى إحاطة نفسها بالسريّة التامّة.

ويشرح ليانغ: «قبل ثلاث سنوات، كان الناس ينشرون ويشاركون تفاصيل أكثر عن نماذجهم. أمّا اليوم، فلا توجد معلومات حول طبيعة هذه النماذج، وكيف طُوّرت، وأين تُستخدم».

تنطوي الشفافية اليوم على أهميّة استثنائية؛ لأنّ هذه النماذج تزداد قوّة، فضلاً عن أنّ أدوات الذكاء الاصطناعي باتت تدخل في حياة الملايين اليومية. ومعرفة مزيد عن عمل هذه الأنظمة سيزوّد واضعي القوانين والباحثين والمستخدمين بمفهومٍ أفضل عمّا يتعاملون معه، وسيتيح لهم طرح أسئلة بنّاءة عن الشركات التي تقف خلف النماذج.

ويشدّد ليانغ على «غياب مشاركة بعض القرارات التبعية التي تُتّخذ اليوم حول تطوير هذه النماذج».

سرّية غير مبررة

ويضيف ليانغ أنّه عندما يسأل المديرين التنفيذيين في شركات الذكاء الاصطناعي عن سبب عدم مشاركتهم لمزيد من المعلومات عن نماذجهم، يسمع واحدة من ثلاث إجابات شائعة:

* الأولى هي الدعاوى القضائية: تواجه شركات ذكاء اصطناعي عدّة دعاوى قضائية رفعها مؤلّفون وفنّانون وشركات إعلامية، تتهمها باستخدام أعمال خاضعة لحقوق الملكية بشكلٍ غير قانوني لتدريب نماذج الذكاء الاصطناعي الخاصة بها. استهدف معظم هذه الدعاوى حتّى اليوم مشاريع الذكاء الاصطناعي مفتوحة المصدر، أو المشاريع التي نشرت معلومات مفصّلة عن نماذجها. يتخوّف الوكلاء القانونيون لشركات الذكاء الاصطناعي من أن يجرّ إفصاح الشركات عن تفاصيل بناء نماذجها مزيداً من العواقب القانونية المزعجة والمكلفة.

* الثانية هي المنافسة: تعتقد شركات الذكاء الاصطناعي أنّ نماذجها تعمل لأنّها تملك ما يشبه «الصلصة السرية»؛ نسقٌ من البيانات النوعية التي لا تملكها الشركات الأخرى، وتقنية عالية الضبط تعطي نتائج أفضل، وبعض الصقل الذي يمنحها أفضلية ما. تحاجج هذه الشركات بأنّها في حال أُجبرت على الكشف عن وصفاتها السرية، ستُقدّم لمنافسيها حكمة اكتسبتها بصعوبة على طبقٍ من فضّة.

* الثالثة، وهي الأكثر ترداداً، السلامة: يحاجج بعض خبراء الذكاء الاصطناعي بأنّه كلّما زاد كمّ المعلومات التي تشاركها شركات الذكاء الاصطناعي عن نماذجها، سيتسارع تقدّم الذكاء الاصطناعي أكثر؛ لأنّ كلّ واحدة من هذه الشركات ستطّلع على ما حقّقته منافستها، وستعمد على الفور إلى التفوّق عليها ببناء نموذج أفضل وأكبر وأسرع. وهكذا، لن يملك المجتمع الوقت الكافي لتنظيم وإبطاء الذكاء الاصطناعي، مما سيعرّضنا جميعاً لمزيد من المخاطر إذا أصبح الذكاء الاصطناعي أقوى بسرعةٍ أكبر.

لا توجد معلومات حول طبيعة هذه النماذج وكيف طُوّرت وأين تُستخدم

تفسيرات غير مقنعة

ولكنّ باحثي ستانفورد لا يصدّقون هذه التفسيرات، ويعتقدون أنّ شركات الذكاء الاصطناعي يجب أن تخضع لضغوطات للكشف عن المعلومات الكافية التي توضح قوّة نماذجها؛ لأنّ المستخدمين والباحثين وواضعي القوانين يجب أن يكونوا على دراية بكيفية عمل هذه النماذج، ومحدوديتها، وبدرجة الخطر التي قد تترتّب عليها.

من جهته، قال ريشي بوماساني، أحد الباحثين المشاركين في المشروع، إنّ «الشفافية تشهد تراجعاً ملحوظاً يتزامن مع تصاعد تأثير هذه التقنية».

ونحن نوافقهم الرأي؛ لأنّ هذه النماذج الأساس أقوى من أن تبقى مبهمة، وكلّما توسّعت معرفتنا بها زاد فهمنا للتهديدات التي قد ترتّبها، والمكاسب التي قد تحملها، أو للطريقة التي تمكّننا من تنظيمها.

وإذا كان تنفيذيّو شركات الذكاء الاصطناعي يشعرون بالقلق من الدعاوى القضائية، فربّما يجب عليهم أن يكافحوا من أجل إعفاء عادلٍ يحمي قدرتهم على استخدام المعلومات الخاضعة لحقوق الملكية لتدريب نماذجهم بدل إخفاء الأدلّة. وإذا كانوا يشعرون بالقلق من التنازل عن أسرارهم التجارية للمنافسين، فيمكنهم رفع النقاب عن نوعٍ آخر من المعلومات، أو حماية أفكارهم بواسطة براءة اختراع. وفي حال كانوا قلقين من استعار سباق التسلّح بالذكاء الاصطناعي، نقول لهم: «ألسنا في وسط واحدٍ الآن؟»

لا يمكننا السماح بثورة ذكاء اصطناعي في الظلام، ويجب أن نعلم ماذا يوجد داخل صناديق الذكاء الاصطناعي السوداء إذا كنّا سنسمح لها بتغيير حياتنا.

* خدمة «نيويورك تايمز»


مقالات ذات صلة

لماذا أثار تطبيق صيني للذكاء الاصطناعي ذعراً في هوليوود؟

تكنولوجيا شعار شركة «بايت دانس» المالكة لتطبيق «تيك توك» وأعلام الصين والولايات المتحدة (رويترز)

لماذا أثار تطبيق صيني للذكاء الاصطناعي ذعراً في هوليوود؟

أحدث نموذج جديد للذكاء الاصطناعي، طوّرته «بايت دانس» الشركة الصينية المطورة لتطبيق «تيك توك»، ضجةً في هوليوود هذا الأسبوع.

«الشرق الأوسط» (لندن)
تكنولوجيا الأمين العام للأمم المتحدة أنطونيو غوتيريش يلقي خطاباً خلال قمة تأثير الذكاء الاصطناعي في نيودلهي بالهند يوم 19 فبراير 2026 (أ.ف.ب)

غوتيريش: لجنة أممية تسعى لضمان «تحكم بشري» في الذكاء الاصطناعي

دعا الأمين العام للأمم المتحدة أنطونيو غوتيريش، الجمعة، إلى «تقليل التهويل والخوف» بشأن الذكاء الاصطناعي خلال قمة في الهند.

«الشرق الأوسط» (نيودلهي)
صحتك هناك لعبة فيديو شهيرة قد تساعد في التغلب على ذكريات الصدمات النفسية (رويترز)

لعبة شهيرة تساعد في التخلص من ذكريات الصدمات النفسية

أظهرت دراسة علمية جديدة أن لعبة الفيديو الشهيرة «تتريس Tetris» قد تساعد في التغلب على ذكريات الصدمات النفسية السابقة

«الشرق الأوسط» (لندن)
الاقتصاد رئيس وزراء الهند ناريندرا مودي يمسك بالأيدي ويلتقط صوراً مع عدد من رؤساء الدول المشاركين خلال قمة الذكاء الاصطناعي (أ.ب)

وسط طموح عالمي وتحديات تنظيمية... مودي يقدِّم الهند كمركز عالمي للذكاء الاصطناعي

قدَّم رئيس الوزراء الهندي ناريندرا مودي، يوم الخميس، الهند كلاعب محوري في منظومة الذكاء الاصطناعي العالمية.

«الشرق الأوسط» (نيودلهي)
تكنولوجيا «سناب» تطلق اشتراكات مدفوعة لتمكين دخل مباشر للمبدعين (رويترز)

«سناب» تطلق اشتراكات صناع المحتوى لتعزيز الدخل المباشر

«سناب» تطلق اشتراكات مدفوعة للمبدعين لتنويع الإيرادات، وتقليل الاعتماد على الإعلانات، وتعزيز الدخل المتكرر واستقلالية صناع المحتوى.

عبد العزيز الرشيد (الرياض)

لماذا أثار تطبيق صيني للذكاء الاصطناعي ذعراً في هوليوود؟

شعار شركة «بايت دانس» المالكة لتطبيق «تيك توك» وأعلام الصين والولايات المتحدة (رويترز)
شعار شركة «بايت دانس» المالكة لتطبيق «تيك توك» وأعلام الصين والولايات المتحدة (رويترز)
TT

لماذا أثار تطبيق صيني للذكاء الاصطناعي ذعراً في هوليوود؟

شعار شركة «بايت دانس» المالكة لتطبيق «تيك توك» وأعلام الصين والولايات المتحدة (رويترز)
شعار شركة «بايت دانس» المالكة لتطبيق «تيك توك» وأعلام الصين والولايات المتحدة (رويترز)

أحدث نموذج جديد للذكاء الاصطناعي، طوّرته «بايت دانس» الشركة الصينية المطورة لتطبيق «تيك توك»، ضجةً في هوليوود هذا الأسبوع، ليس فقط بسبب قدراته، بل لما قد يُحدثه من تغيير في الصناعات الإبداعية.

ووفقاً لهيئة الإذاعة البريطانية (بي بي سي)، يستطيع تطبيق «سيدانس» إنتاج فيديوهات بجودة سينمائية، مع مؤثرات صوتية وحوارات، بمجرد إدخال بعض النصوص.

وكانت انتشرت على نطاق واسع مقاطع فيديو يُزعم أنها صُنعت باستخدام «سيدانس»، وتضم شخصيات شهيرة مثل «سبايدرمان» و«ديبول».

وسارعت استوديوهات كبرى مثل «ديزني» و«باراماونت» إلى اتهام «بايت دانس» بانتهاك حقوق الملكية الفكرية، لكن المخاوف بشأن هذه التقنية تتجاوز المسائل القانونية.

شعار شركة «بايت دانس» الصينية للتكنولوجيا (رويترز)

ما هو «سيدانس»؟ ولماذا كل هذه الضجة؟

أُطلق «سيدانس» في يونيو (حزيران) 2025 دون ضجة كبيرة، لكن النسخة الثانية التي صدرت بعد ثمانية أشهر هي التي أثارت ضجة كبيرة.

يقول يان ويليم بلوم، من استوديو «فيديو ستيت» الإبداعي: ​​«للمرة الأولى، لا أظن أن هذا يبدو جيداً للذكاء الاصطناعي، بل أظن أنه من عملية إنتاج حقيقية».

ويضيف أن نماذج الفيديو الغربية التي تعتمد على الذكاء الاصطناعي قد أحرزت تقدماً في معالجة تعليمات المستخدم لإنتاج صور مذهلة، لكن يبدو أن «سيدانس» قد جمع كل شيء معاً.

ومثل أدوات الذكاء الاصطناعي الأخرى يستطيع «سيدانس» إنشاء مقاطع فيديو من نصوص قصيرة، وفي بعض الحالات يبدو أن مجرد إدخال نص واحد ينتج مقاطع فيديو عالية الجودة.

وتقول مارغريت ميتشل، الباحثة في أخلاقيات الذكاء الاصطناعي، إن الأمر مثير للإعجاب بشكل خاص؛ لأنه يجمع بين النص والصورة والصوت في نظام واحد.

ويُقاس تأثير «سيدانس» بمعيار غير متوقع: مدى جودة إنتاجه لمقطع فيديو لويل سميث وهو يأكل معكرونة، حيث لا يقتصر دور «سيدانس» على ابتكار نسخة واقعية بشكل مذهل للنجم وهو يتناول طبقاً من المعكرونة، بل أنتج أيضاً مقاطع فيديو انتشرت كالنار في الهشيم لسميث وهو يقاتل وحشاً من المعكرونة، ويبدو كل ذلك وكأنه فيلم ضخم الإنتاج.

ويعتقد العديد من خبراء الصناعة وصنّاع الأفلام أن «سيدانس» يمثل فصلاً جديداً في تطوير تقنية توليد الفيديو.

ويقول ديفيد كوك، مدير استوديو للرسوم المتحركة في سنغافورة، إن مشاهد الحركة المعقدة التي ينتجها تبدو أكثر واقعية من منافسيه، ويضيف: «يكاد المرء يشعر وكأنه يستعين بمدير تصوير أو مصور سينمائي متخصص في أفلام الحركة».

الوعد والتحدي

واجه «سيدانس» مشاكل تتعلق بحقوق النشر، وهو تحدٍّ متزايد في عصر الذكاء الاصطناعي، ويحذر الخبراء من أن شركات الذكاء الاصطناعي تُعطي الأولوية للتكنولوجيا على حساب البشر؛ إذ تُطوّر أدوات أكثر قوة وتستخدم البيانات دون مقابل.

واشتكت كبرى شركات هوليوود من استخدام شركة «سيدانس» شخصيات محمية بحقوق الطبع والنشر مثل «سبايدرمان» و«دارث فيدر».

وأصدرت «ديزني» و«باراماونت» خطابات إنذار تطالب «سيدانس» بالتوقف عن استخدام محتواهما، كما تُجري اليابان تحقيقاً مع «بايت دانس» بتهمة انتهاكات حقوق الطبع والنشر، بعد انتشار مقاطع فيديو بتقنية الذكاء الاصطناعي لشخصيات «أنمي» شهيرة.

وقالت «بايت دانس» إنها تتخذ خطوات لـ«تعزيز الضمانات الحالية».

ولفتت «بي بي سي» إلى أن هذا ليس حكراً على الشركة الصينية. ففي عام 2023، رفعت صحيفة «نيويورك تايمز» دعوى قضائية ضد شركتَي «أوبن إيه آي» و«مايكروسوفت»، مدعيةً أنهما استخدمتا مقالاتها دون إذن لتدريب نماذج الذكاء الاصطناعي الخاصة بهما. كما رفعت «ريديت» دعوى قضائية ضد شركة «بيربلكسيتي» العام الماضي، مدعيةً أن شركة الذكاء الاصطناعي قامت بجمع منشورات المستخدمين بشكل غير قانوني. وأثارت «ديزني» مخاوف مماثلة مع «غوغل».

وتقول ميتشل إنّ وضع علامات واضحة على المحتوى لمنع التضليل وبناء ثقة الجمهور في الذكاء الاصطناعي أهم بكثير من مقاطع الفيديو «الأكثر جاذبية».

وتضيف أنّه لهذا السبب يجب على المطورين بناء أنظمة لإدارة التراخيص والمدفوعات، وتوفير آليات واضحة للأفراد للاعتراض على إساءة الاستخدام. فعلى سبيل المثال، وقّعت «ديزني» صفقة بقيمة مليار دولار (730 مليون جنيه إسترليني) مع برنامج «سورا» من «أوبن إيه آي» ليتمكن من استخدام شخصيات من أفلامها.

ويقول شانان كوهني، الباحث في مجال الحوسبة بجامعة ملبورن، إنّ مطوري «سيدانس» كانوا على الأرجح على دراية بمشاكل حقوق النشر المحتملة المتعلقة باستخدام الملكية الفكرية الغربية، ومع ذلك خاطروا.

ويضيف: «هناك مجال واسع لتجاوز القواعد استراتيجياً، وتجاهلها لفترة من الوقت، واكتساب نفوذ تسويقي».

وفي الوقت نفسه، بالنسبة للشركات الصغيرة، يُعدّ «سيدانس» أداة بالغة الأهمية لا يمكن تجاهلها.

«بايت دانس»... الشركة الأم لـ«تيك توك» (أ.ف.ب)

ويقول كوك إن الذكاء الاصطناعي بهذه الجودة سيمكّن شركات مثل شركته من إنتاج أفلام كانت تكلفتها تفوق بكثير إمكاناتها الحالية.

وأعطى مثالاً بازدهار مقاطع الفيديو القصيرة والمسلسلات الدرامية القصيرة في آسيا، والتي تُنتج عادةً بميزانيات متواضعة - نحو 140 ألف دولار أميركي لما يصل إلى 80 حلقة، لا تتجاوز مدة كل منها دقيقتين.

وقد اقتصرت هذه الإنتاجات على الأعمال الرومانسية أو الدراما العائلية لخفض التكاليف؛ نظراً لقلة حاجتها إلى المؤثرات البصرية، لكن الذكاء الاصطناعي الآن قادر على «الارتقاء بالإنتاجات منخفضة الميزانية إلى أنواع أكثر طموحاً مثل الخيال العلمي، والدراما التاريخية، والآن الحركة».


البيت الأبيض: أميركا ترفض «بشكل قاطع» حوكمة الذكاء الاصطناعي

مدير مكتب سياسات العلوم والتكنولوجيا بالبيت الأبيض مايكل كراتسيوس يحضر جلسة خلال قمة «تأثير الذكاء الاصطناعي» في نيودلهي يوم 20 فبراير 2026 (إ.ب.أ)
مدير مكتب سياسات العلوم والتكنولوجيا بالبيت الأبيض مايكل كراتسيوس يحضر جلسة خلال قمة «تأثير الذكاء الاصطناعي» في نيودلهي يوم 20 فبراير 2026 (إ.ب.أ)
TT

البيت الأبيض: أميركا ترفض «بشكل قاطع» حوكمة الذكاء الاصطناعي

مدير مكتب سياسات العلوم والتكنولوجيا بالبيت الأبيض مايكل كراتسيوس يحضر جلسة خلال قمة «تأثير الذكاء الاصطناعي» في نيودلهي يوم 20 فبراير 2026 (إ.ب.أ)
مدير مكتب سياسات العلوم والتكنولوجيا بالبيت الأبيض مايكل كراتسيوس يحضر جلسة خلال قمة «تأثير الذكاء الاصطناعي» في نيودلهي يوم 20 فبراير 2026 (إ.ب.أ)

صرَّح مستشار البيت الأبيض لشؤون التكنولوجيا مايكل كراتسيوس، الجمعة، بأن الولايات المتحدة ترفض «رفضاً قاطعاً» الحوكمة العالمية للذكاء الاصطناعي.

وجاءت تصريحات كراتسيوس، رئيس وفد بلاده إلى «مؤتمر الذكاء الاصطناعي» في نيودلهي، قبل بيان مرتقب للقادة يحدِّد رؤيةً مشتركةً لكيفية التعامل مع هذه التقنية المثيرة للجدل.

وقال في القمة التي تختتم أعمالها الجمعة: «كما صرَّحت إدارة (الرئيس الأميركي دونالد) ترمب مراراً: نرفض رفضاً قاطعاً الحوكمة العالمية للذكاء الاصطناعي».

وأضاف: «لا يمكن لاعتماد الذكاء الاصطناعي أن يُفضي إلى مستقبل أفضل إذا كان خاضعاً للبيروقراطية والسيطرة المركزية»، وفق ما نقلته «وكالة الصحافة الفرنسية».

وكان الأمين العام للأمم المتحدة أنطونيو غوتيريش قد صرَّح، صباح الجمعة، بأن لجنة خبراء جديدة شكَّلتها المنظمة الدولية تسعى إلى «جعل التحكم البشري واقعاً تقنياً».

وأعلن غوتيريش تشكيل المجموعة الاستشارية في أغسطس (آب)، والتي تسعى إلى أن تكون على غرار الهيئة الحكومية الدولية المعنية بتغيّر المناخ في مجال الاحتباس الحراري، وقد تمّ تأكيد أعضائها الأربعين.

و«مؤتمر الذكاء الاصطناعي» رابع تجمع دولي سنوي يُركّز على المخاطر والفرص التي تُتيحها قوة الحوسبة المتقدمة.

سوندار بيتشاي الرئيس التنفيذي لشركة «غوغل» يتحدث خلال قمة «تأثير الذكاء الاصطناعي» في نيودلهي يوم 20 فبراير 2026 (أ.ب)

وفي النسخة التي عُقدت العام الماضي في باريس، حذَّر نائب الرئيس الأميركي، جي دي فانس، من «الإفراط في التنظيم» الذي «قد يقضي على قطاع قادر على إحداث تحوّل».

وفي نيودلهي، قال كراتسيوس: «إن النقاش الدولي حول الذكاء الاصطناعي قد تطوّر، كما تؤكده هذه القمة نفسها»، مُشيراً إلى تغيير اسم الاجتماع من «أمان الذكاء الاصطناعي» (AI Safety) إلى «تأثير الذكاء الاصطناعي» (AI Impact).

وأضاف: «هذا تطور إيجابي دون شك... لكن كثيراً من المنتديات الدولية، مثل الحوار العالمي للأمم المتحدة حول حوكمة الذكاء الاصطناعي، لا تزال تتسم بأجواء من الخوف».

وأضاف كراتسيوس: «علينا أن نستبدل الأمل بهذا الخوف»، مؤكداً أن الذكاء الاصطناعي قادر على «الارتقاء بمستوى معيشة البشرية وتحقيق ازدهار غير مسبوق».

ورأى أن «الهوس الآيديولوجي وتركيز الاهتمام على المخاطر، مثل قضايا المناخ أو العدالة، يتحوَّل إلى مُبرِّر للبيروقراطية وزيادة المركزية».

وتابع: «باسم الأمن، تزيد هذه الهواجس من خطر استخدام هذه الأدوات لأغراض استبدادية».

وقال كراتسيوس: «إن تركيز سياسة الذكاء الاصطناعي على الأمن والمخاطر التخمينية... يُعيق بيئة تنافسية، ويُرسخ هيمنة الشركات القائمة، ويعزل الدول النامية عن المشارَكة الكاملة في اقتصاد الذكاء الاصطناعي».


غوتيريش: لجنة أممية تسعى لضمان «تحكم بشري» في الذكاء الاصطناعي

الأمين العام للأمم المتحدة أنطونيو غوتيريش يلقي خطاباً خلال قمة تأثير الذكاء الاصطناعي في نيودلهي بالهند يوم 19 فبراير 2026 (أ.ف.ب)
الأمين العام للأمم المتحدة أنطونيو غوتيريش يلقي خطاباً خلال قمة تأثير الذكاء الاصطناعي في نيودلهي بالهند يوم 19 فبراير 2026 (أ.ف.ب)
TT

غوتيريش: لجنة أممية تسعى لضمان «تحكم بشري» في الذكاء الاصطناعي

الأمين العام للأمم المتحدة أنطونيو غوتيريش يلقي خطاباً خلال قمة تأثير الذكاء الاصطناعي في نيودلهي بالهند يوم 19 فبراير 2026 (أ.ف.ب)
الأمين العام للأمم المتحدة أنطونيو غوتيريش يلقي خطاباً خلال قمة تأثير الذكاء الاصطناعي في نيودلهي بالهند يوم 19 فبراير 2026 (أ.ف.ب)

دعا الأمين العام للأمم المتحدة أنطونيو غوتيريش، الجمعة، إلى «تقليل التهويل والخوف» بشأن الذكاء الاصطناعي، مشيراً إلى تشكيل لجنة خبراء دولية جديدة تسعى إلى «جعل التحكم البشري واقعاً تقنياً».

وأوضح غوتيريش أن الجمعية العامة للأمم المتحدة صادقت على تعيين 40 عضواً في هذه المجموعة، التي أُطلق عليها «الفريق العلمي الدولي المستقل المعني بالذكاء الاصطناعي».

وقال خلال القمة حول الذكاء الاصطناعي في نيودلهي إن «الحوكمة القائمة على العلم لا تُعوق التقدم»، بل يمكن أن تجعله «أكثر أماناً وعدلاً وانتشاراً».

وأضاف: «الرسالة واضحة: تقليل التهويل والخوف، وزيادة الحقائق والأدلة»، وفق ما نقلته «وكالة الصحافة الفرنسية».

أُنشئت هذه الهيئة الاستشارية في أغسطس (آب) الماضي، وهي تسعى لأن تكون مرجعاً في مجال الذكاء الاصطناعي، على غرار الهيئة الحكومية الدولية المعنية بتغير المناخ في مجال الاحتباس الحراري.

ومن المتوقع أن تنشر تقريرها الأول بالتزامن مع انعقاد الحوار العالمي للأمم المتحدة حول حوكمة الذكاء الاصطناعي في يوليو (تموز).

وتهدف الهيئة إلى مساعدة الحكومات في وضع قواعد للذكاء الاصطناعي، في ظل ما تُثيره هذه التقنية السريعة التطور من مخاوف عالمية بشأن فقدان وظائف والمعلومات المضللة والإساءة عبر الإنترنت، وغيرها من المشكلات.

وقال غوتيريش إن «ابتكارات الذكاء الاصطناعي تتطور بسرعة فائقة، تتجاوز قدرتنا الجماعية على فهمها بشكل كامل، فضلاً عن إدارتها». وأضاف: «إننا نندفع نحو المجهول». وتابع: «عندما نفهم ما تستطيع الأنظمة فعله وما لا تستطيع، سنتمكن من الانتقال من التدابير التقريبية إلى ضوابط أكثر ذكاءً قائمة على تقييم المخاطر».

وقدّم غوتيريش هذا الشهر قائمة بأسماء خبراء اقترحهم للانضمام إلى لجنة الأمم المتحدة المعنية بالذكاء الاصطناعي، ومن بينهم الصحافية الحائزة جائزة «نوبل للسلام» ماريا ريسا من الفلبين، والرائد في مجال الذكاء الاصطناعي الكندي يوشوا بنغيو.

وقال: «هدفنا جعل التحكم البشري حقيقة تقنية، لا مجرد شعار». وأكد أن ذلك «يتطلب مساءلة واضحة، بحيث لا يُعهد بالمسؤولية أبداً إلى خوارزمية».

ومن المتوقع أن يُصدر العشرات من قادة العالم والوزراء في وقت لاحق الجمعة بياناً يحدد ملامح التعامل العالمي مع الذكاء الاصطناعي، وذلك في ختام قمة استمرت خمسة أيام، وتركزت أعمالها على هذه التكنولوجيا.