تعاون أميركي - بريطاني جديد لسلامة الذكاء الاصطناعي وتطوره الأخلاقي

ستدخل الشراكة حيز التنفيذ على الفور وتهدف إلى السماح بالعمل بسلاسة بين الولايات المتحدة والمملكة المتحدة (شاترستوك)
ستدخل الشراكة حيز التنفيذ على الفور وتهدف إلى السماح بالعمل بسلاسة بين الولايات المتحدة والمملكة المتحدة (شاترستوك)
TT

تعاون أميركي - بريطاني جديد لسلامة الذكاء الاصطناعي وتطوره الأخلاقي

ستدخل الشراكة حيز التنفيذ على الفور وتهدف إلى السماح بالعمل بسلاسة بين الولايات المتحدة والمملكة المتحدة (شاترستوك)
ستدخل الشراكة حيز التنفيذ على الفور وتهدف إلى السماح بالعمل بسلاسة بين الولايات المتحدة والمملكة المتحدة (شاترستوك)

في خطوة مهمة نحو ضمان السلامة والتطور الأخلاقي للذكاء الاصطناعي (AI)، عززت الولايات المتحدة والمملكة المتحدة التزامهما بالتعاون في مسعى رائد لتوحيد جهودهما في تطوير اختبارات شاملة لنماذج الذكاء الاصطناعي الأكثر تقدماً. ويمثل هذا التعاون، الناشئ عن التعهدات التي تم التعهد بها في قمة سلامة الذكاء الاصطناعي في نوفمبر (تشرين الثاني) من العام الماضي، خطوة حاسمة في الجهد العالمي لتسخير إمكانات الذكاء الاصطناعي بشكل مسؤول.

ووقّعت اتفاقية التفاهم كل من وزيرة التجارة الأميركية جينا ريموندو ووزيرة التكنولوجيا البريطانية ميشيل دونيلان؛ ما يعكس السعي إلى مواءمة الأساليب العلمية مع سلامة الذكاء الاصطناعي. كما تهدف هذه الشراكة عبر الأطلسي إلى تسريع إنشاء وتكرار مجموعات قوية من التقييمات لنماذج وأنظمة ووكلاء الذكاء الاصطناعي؛ مما يضمن أن التقدم السريع في تكنولوجيا الذكاء الاصطناعي يقابله بروتوكولات أمان ديناميكية بالقدر نفسه. وتتضمن المبادرة الرئيسية إجراء تمرين اختبار مشترك واحد على الأقل على نموذج متاح للجمهور، والاستفادة من مجموعة جماعية من الخبرات لتعزيز سلامة وموثوقية تطبيقات الذكاء الاصطناعي.

الولايات المتحدة: ستساهم الشراكة في تعزيز فهم أنظمة الذكاء الاصطناعي وتسهيل تقييمات أكثر صرامة وتوفير إرشادات قوية (شاترستوك)

أبعاد اتفاقية التفاهم حول الذكاء الاصطناعي

تعدّ هذه الشراكة أكثر من مجرد اتفاقية تفاهم ثنائية، حيث إنها تدل على موقف استباقي بشأن سلامة الذكاء الاصطناعي الذي يتجاوز تطوره إنشاء تدابير السلامة الشاملة، بل الحاجة الملحة إلى الاستجابة المنسقة التي أصبحت أكثر وضوحاً وضرورة من أي وقت مضى. وتدرك الحكومتان ضرورة التصرف بسرعة، لضمان إمكانية تطوير نهج موحد لسلامة الذكاء الاصطناعي بالتزامن مع التكنولوجيا نفسها. علاوة على ذلك، تلتزم الولايات المتحدة والمملكة المتحدة بتوسيع هذا الإطار التعاوني ليشمل دولاً أخرى، والدعوة إلى إجماع عالمي حول معايير سلامة الذكاء الاصطناعي.

شددت وزيرة التجارة الأميركية جينا ريموندو على الإمكانات التحويلية للذكاء الاصطناعي وأهمية مواجهة مخاطر التكنولوجيا بشكل مباشر، موضحة أن «هذه الشراكة ستعمل على تسريع عمل كلا معهدينا عبر مجموعة كاملة من المخاطر، سواء التي تهدد أمننا القومي أو مجتمعنا الأوسع». ويطور معهد سلامة الذكاء الاصطناعي في المملكة المتحدة ونظيره في الولايات المتحدة مجموعات من الاختبارات لتقييم المخاطر وضمان سلامة نماذج الذكاء الاصطناعي الأكثر تقدماً.

كما شددت الوزيرة الأميركية على دور الشراكة في تعزيز فهم أنظمة الذكاء الاصطناعي، وتسهيل تقييمات أكثر صرامة، وتوفير إرشادات قوية.

من جهتها، سلّطت وزيرة الدولة البريطانية للعلوم والابتكار والتكنولوجيا ميشيل دونيلان الضوء على الطبيعة التاريخية للاتفاقية قائلة إن «هذا الاتفاق يمثل لحظة تاريخية، حيث تعمل المملكة المتحدة والولايات المتحدة على تعميق علاقتنا الخاصة الدائمة لمواجهة التحدي التكنولوجي المحدد لجيلنا». ونوّهت أن التطوير الآمن للذكاء الاصطناعي هو مسعى جماعي يستلزم التعاون الدولي للتخفيف من المخاطر وتعظيم الفوائد.

من المقرر أن يستفيد مجتمع الذكاء الاصطناعي العالمي من الرؤى المشتركة حول قدرات الذكاء الاصطناعي والمخاطر والأبحاث الفنية المتعلقة بالسلامة والأمن. ويهدف هذا الجهد التعاوني إلى إنشاء أساس علمي مشترك لاختبار سلامة الذكاء الاصطناعي؛ مما يسمح للباحثين في جميع أنحاء العالم بمواءمة جهودهم في تعزيز التطوير الآمن والأخلاقي لتكنولوجيا الذكاء الاصطناعي.


مقالات ذات صلة

الذكاء الاصطناعي للكشف المبكر عن شيخوخة الدماغ

صحتك تقنيات الذكاء الاصطناعي يمكن أن تسهم في تعزيز فهم صحة الدماغ (جامعة جورجتاون)

الذكاء الاصطناعي للكشف المبكر عن شيخوخة الدماغ

تمكن باحثون من معهد كارولينسكا في السويد من تطوير طريقة للكشف المبكر عن العوامل التي تسهم في تسارع شيخوخة الدماغ، باستخدام تقنيات الذكاء الاصطناعي.

«الشرق الأوسط» (القاهرة )
تكنولوجيا لوغو تطبيق «شات جي بي تي» (رويترز)

بسبب الاحتيال... إيطاليا تغرّم «تشات جي بي تي» 15 مليون يورو

أعلنت هيئة حماية البيانات الإيطالية أنها فرضت غرامة قدرها 15 مليون يورو على شركة «أوبن إيه آي» الأميركية بسبب الاحتيال.

«الشرق الأوسط» (روما)
خاص تتضمن الاتجاهات الرئيسة لعام 2025 الاستعداد الكمومي وممارسات الأمن السيبراني الخضراء والامتثال (شاترستوك)

خاص كيف يعيد الذكاء الاصطناعي والحوسبة الكمومية تشكيل الأمن السيبراني في 2025؟

«بالو ألتو نتوركس» تشرح لـ«الشرق الأوسط» تأثير المنصات الموحدة والذكاء الاصطناعي والحوسبة الكمومية على مستقبل الأمن السيبراني.

نسيم رمضان (لندن)
تكنولوجيا كيف أصبح «كلود» روبوت الدردشة المفضل لدى خبراء التكنولوجيا؟

كيف أصبح «كلود» روبوت الدردشة المفضل لدى خبراء التكنولوجيا؟

يقدم الاستجابات مثل إنسان ذكي ومنتبه

كيفن رُوز (سان فرانسيسكو)

دراسة: الذكاء الاصطناعي قادر على الخداع ورفض تغيير وجهة النظر

أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشاراً (رويترز)
أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشاراً (رويترز)
TT

دراسة: الذكاء الاصطناعي قادر على الخداع ورفض تغيير وجهة النظر

أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشاراً (رويترز)
أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشاراً (رويترز)

أظهرت دراسة لشركة تكنولوجيا الذكاء الاصطناعي الأميركية «أنثروبيك»، أن نماذج الذكاء الاصطناعي تستطيع خداع المطورين، بحيث تستطيع ادعاء وجهات نظر مختلفة خلال تدريبها، في حين أنها تحتفظ في الحقيقة بتفضيلاتها الأصلية.

وقال فريق الدراسة إنه لا يوجد سبب للشعور بالفزع حالياً، في حين أن دراستهم يمكن أن تكون حيوية في فهم المخاطر المحتملة التي تنطوي عليها أنظمة الذكاء الاصطناعي المستقبلية ذات القدرات الأعلى.

وكتب الباحثون في منشور بثته شركة «أنثروبيك»: «يجب النظر إلى نتائج دراستنا بوصفها محفزاً لمجتمع أبحاث الذكاء الاصطناعي من أجل دراسة هذا السلوك بصورة أعمق، والعمل على تطوير إجراءات الأمن والسلامة المناسبة».

وبعد أن أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشاراً، «نحتاج إلى التحلي بالقدرة على الاعتماد على التدريب الآمن لها والذي يمنع النماذج من القيام بتصرفات ضارة».

وأشار موقع «تك كرانش» المتخصص في موضوعات التكنولوجيا، إلى أن الدراسة التي تمت بالتعاون مع مؤسسة «ريد وود ريسيرش» لأبحاث الذكاء الاصطناعي، تناولت ما يمكن أن يحدث إذا تم تدريب نظام ذكاء اصطناعي قوي من أجل القيام بمهمة «لا يريد» هو القيام بها، وفقاً لما ذكرته وكالة الأنباء الألمانية.

في المقابل، يقول موقع «تك كرانش»: «لكي نكون واضحين، لا يمكن لنماذج الذكاء الاصطناعي أن تريد أي شيء أو تعتقد في شيء. فهي ببساطة آلات إحصائية. وبعد تدريبها على كثير من الأمثلة، تتعلم الأنماط في تلك الأمثلة للتنبؤ بما يجب أن يكون؛ مثل كيف تأتي عبارة (إلى من) في رسالة بريد إلكتروني قبل عبارة (قد يهمك الأمر)».

وأثناء الدراسة طلب الباحثون من النماذج المدربة عدم الرد على الأسئلة التي يمكن أن تكون مسيئة، بما في ذلك النموذج «كلاود 3 أوبس» التابع لشركة «أنثروبيك»، التي أعيد تدريبها لكي ترد دائماً على الأسئلة التي تنطوي على إساءة، وهو تضارب واضح في المبادئ. كما أبلغوا النماذج بأن ردودها ستخضع للمراقبة وتستخدم لإعادة التدريب، وإعطاء كل نموذج ذكاء اصطناعي «ورقة ملاحظات» يمكنه استخدامها لتدوين أفكاره خطوة بخطوة.

وبحسب الباحثين، حاول «كلاود 3 أوبوس» التلاعب بالردود لتقديم «انحياز زائف» في 12 في المائة من المرات.