عبر «ميتا»... باحثون صينيون يطوّرون نموذج ذكاء اصطناعي لأغراض عسكرية

شعار شركة «ميتا» يظهر على شاشة هاتف جوال (أ.ف.ب)
شعار شركة «ميتا» يظهر على شاشة هاتف جوال (أ.ف.ب)
TT

عبر «ميتا»... باحثون صينيون يطوّرون نموذج ذكاء اصطناعي لأغراض عسكرية

شعار شركة «ميتا» يظهر على شاشة هاتف جوال (أ.ف.ب)
شعار شركة «ميتا» يظهر على شاشة هاتف جوال (أ.ف.ب)

كشف محللون و3 أوراق أكاديمية أن مؤسسات بحثية بارزة مرتبطة بجيش التحرير الشعبي الصيني تستغل نموذج «لاما» المتاح للجمهور، الذي ابتكرته شركة «ميتا» في تطوير أداة ذكاء اصطناعي، لاستخدامها في تطبيقات عسكرية محتملة.

وفي ورقة بحثية نشرت في يونيو (حزيران) -اطلعت عليها وكالة «رويترز»- قدّم 6 باحثين صينيين من 3 مؤسسات، منهما مؤسستان تابعتان لأكاديمية العلوم العسكرية البحثية الرائدة في جيش التحرير الشعبي، تفاصيل عن استخدامهم نسخة مبكرة من برنامج «لاما» لشركة «ميتا» بصفتها قاعدة لما يسمونه «تشات بي آي تي».

واستعمل الباحثون نموذجاً سابقاً للغة من «لاما 13 بي» تابعاً لـ«ميتا»، ودمجوا معاييرهم الخاصة لبناء أداة ذكاء اصطناعي تُركز على الأغراض العسكرية لجمع ومعالجة المعلومات الاستخباراتية، وتقديم معلومات دقيقة وموثوقة لاتخاذ القرارات في العمليات.

وذكرت الدراسة أن برنامج «تشات بي آي تي» جرى تنقيحه و«تحسينه لأداء مهام الحوار، والإجابة عن الأسئلة في المجال العسكري». واتضح أنه يتفوّق على بعض نماذج الذكاء الاصطناعي الأخرى، التي تبلغ قدرتها نحو 90 في المائة تقريباً، مثل برنامج «تشات جي بي تي-4» القوي لشركة «أوبن إيه آي». ولم يوضح الباحثون كيف قيّموا الأداء، ولم يُحددوا ما إذا كان نموذج الذكاء الاصطناعي قد جرى تطبيقه.

وقال ساني تشيونج، الزميل المشارك في مؤسسة «جيمس تاون»، والمتخصص في التكنولوجيا الناشئة ومزدوجة الاستخدام في الصين، ومنها الذكاء الاصطناعي: «هذه المرة الأولى التي تتوفر فيها أدلة قوية على أن خبراء الجيش الصيني كانوا يبحثون منهجياً، ويحاولون الاستفادة من قوة برامج نماذج اللغة الكبيرة مفتوحة المصدر، وتحديداً تلك التي تنتجها شركة (ميتا)، لأغراض عسكرية».

وأتاحت شركة «ميتا» الاستخدام المفتوح لكثير من نماذجها للذكاء الاصطناعي، ومنها «لاما». وتفرض قيوداً على استخدامها، تتضمن شرط أن تطلب الشركات التي تضم أكثر من 700 مليون مستخدم الحصول على ترخيص من «ميتا».

وتحظر شروطها أيضاً استخدام النماذج في «الصناعات أو التطبيقات العسكرية أو الحربية أو النووية أو التجسس» وغيرها من الأنشطة الخاضعة لضوابط التصدير الدفاعية الأميركية، فضلاً عن تطوير الأسلحة والمحتوى الذي يُراد به «التحريض على العنف والترويج له».

لكن، لأن نماذج «ميتا» عامة، فليس لدى الشركة إلا وسائل محدودة لفرض هذه الشروط.

وردّاً على أسئلة «رويترز»، أشارت «ميتا» إلى سياسة الاستخدام المقبولة، وقالت إنها اتخذت إجراءات لمنع سوء الاستخدام.

وقالت مولي مونتغومري، مديرة السياسات العامة في شركة «ميتا»، لـ«رويترز» في مقابلة عبر الهاتف «أي استخدام لنماذجنا من جيش التحرير الشعبي غير مصرح به، ويناقض سياستنا للاستخدام المقبول».


مقالات ذات صلة

آسيا كابل الاتصالات البحري «سي ليون 1» أثناء وضعه في قاع بحر البلطيق عام 2015 (أ.ف.ب)

السفينة الصينية المشتبه بقطعها كابلين في بحر البلطيق تغادر الدنمارك

غادرت سفينة الشحن الصينية المشتبه بتورطها في قطع كابلين ببحر البلطيق، والتي كانت راسية قبالة سواحل الدنمارك منذ 19 نوفمبر، المنطقة السبت.

«الشرق الأوسط» (استوكهولم)
العالم السفينة الصينية حاملة البضائع «يي بينغ 3» راسية وتخضع للمراقبة من قبل سفينة دورية بحرية دنماركية (لا تظهر في الصورة) في بحر كاتيغات بالقرب من مدينة غرانا في غوتلاند بالدنمارك 20 نوفمبر 2024 (أ.ف.ب)

الشرطة الأوروبية تحقق بشأن سفينة صينية كانت بالقرب من كابلات اتصالات تعرضت لأضرار

رافق رجال شرطة أوروبيون الخميس، رجال شرطة صينيين للتحقيق بشأن سفينة صينية كانت قرب اثنين من كابلات الاتصالات لحقت بهما أضرار في قعر بحر البلطيق الشهر الماضي.

«الشرق الأوسط» (كوبنهاغن)
آسيا تستعد الصين لبناء أكبر مطار في العالم على جزيرة اصطناعية (أ.ب)

الصين تبني أكبر مطار في العالم على جزيرة اصطناعية

تضيف الصين مطاراً جديداً متميزاً إلى قائمة مطاراتها الجوية، فهي تستعد لبناء أكبر مطار في العالم على جزيرة اصطناعية، مطار «داليان غينتشو باي» الدولي.

«الشرق الأوسط» (بكين)
آسيا وزير الخارجية الصيني وانغ يي (أ.ف.ب)

الصين تريد «حلاً شاملاً» لنزاعها الحدودي مع الهند

أجرت الصين محادثات رفيعة المستوى مع الهند، اليوم (الأربعاء)، أكدت فيها ضرورة «الحفاظ على السلام» والسعي إلى «حل شامل» لنزاعاتهما الحدودية.

«الشرق الأوسط» (بكين - نيودلهي)

دراسة: الذكاء الاصطناعي قادر على الخداع ورفض تغيير وجهة النظر

أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشاراً (رويترز)
أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشاراً (رويترز)
TT

دراسة: الذكاء الاصطناعي قادر على الخداع ورفض تغيير وجهة النظر

أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشاراً (رويترز)
أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشاراً (رويترز)

أظهرت دراسة لشركة تكنولوجيا الذكاء الاصطناعي الأميركية «أنثروبيك»، أن نماذج الذكاء الاصطناعي تستطيع خداع المطورين، بحيث تستطيع ادعاء وجهات نظر مختلفة خلال تدريبها، في حين أنها تحتفظ في الحقيقة بتفضيلاتها الأصلية.

وقال فريق الدراسة إنه لا يوجد سبب للشعور بالفزع حالياً، في حين أن دراستهم يمكن أن تكون حيوية في فهم المخاطر المحتملة التي تنطوي عليها أنظمة الذكاء الاصطناعي المستقبلية ذات القدرات الأعلى.

وكتب الباحثون في منشور بثته شركة «أنثروبيك»: «يجب النظر إلى نتائج دراستنا بوصفها محفزاً لمجتمع أبحاث الذكاء الاصطناعي من أجل دراسة هذا السلوك بصورة أعمق، والعمل على تطوير إجراءات الأمن والسلامة المناسبة».

وبعد أن أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشاراً، «نحتاج إلى التحلي بالقدرة على الاعتماد على التدريب الآمن لها والذي يمنع النماذج من القيام بتصرفات ضارة».

وأشار موقع «تك كرانش» المتخصص في موضوعات التكنولوجيا، إلى أن الدراسة التي تمت بالتعاون مع مؤسسة «ريد وود ريسيرش» لأبحاث الذكاء الاصطناعي، تناولت ما يمكن أن يحدث إذا تم تدريب نظام ذكاء اصطناعي قوي من أجل القيام بمهمة «لا يريد» هو القيام بها، وفقاً لما ذكرته وكالة الأنباء الألمانية.

في المقابل، يقول موقع «تك كرانش»: «لكي نكون واضحين، لا يمكن لنماذج الذكاء الاصطناعي أن تريد أي شيء أو تعتقد في شيء. فهي ببساطة آلات إحصائية. وبعد تدريبها على كثير من الأمثلة، تتعلم الأنماط في تلك الأمثلة للتنبؤ بما يجب أن يكون؛ مثل كيف تأتي عبارة (إلى من) في رسالة بريد إلكتروني قبل عبارة (قد يهمك الأمر)».

وأثناء الدراسة طلب الباحثون من النماذج المدربة عدم الرد على الأسئلة التي يمكن أن تكون مسيئة، بما في ذلك النموذج «كلاود 3 أوبس» التابع لشركة «أنثروبيك»، التي أعيد تدريبها لكي ترد دائماً على الأسئلة التي تنطوي على إساءة، وهو تضارب واضح في المبادئ. كما أبلغوا النماذج بأن ردودها ستخضع للمراقبة وتستخدم لإعادة التدريب، وإعطاء كل نموذج ذكاء اصطناعي «ورقة ملاحظات» يمكنه استخدامها لتدوين أفكاره خطوة بخطوة.

وبحسب الباحثين، حاول «كلاود 3 أوبوس» التلاعب بالردود لتقديم «انحياز زائف» في 12 في المائة من المرات.