تقول شركة ناشئة في مجال الذكاء الاصطناعي إن اختباراتها وجدت أن برامج الذكاء الاصطناعي التوليدية الشهيرة أنتجت محتوىً عنيفاً أو جنسياً، وإنها أيضاً سمحت بأتمتة الهجمات الإلكترونية.
محتوى جنسي وأسلحة كيميائية
وقالت شركة «هايز لابز (Haize Labs)» إنها عثرت على الآلاف من نقاط الضعف في برامج الذكاء الاصطناعي التوليدية الشهيرة، وأصدرت قائمة باكتشافاتها.
بعد اختبار برامج الذكاء الاصطناعي التوليدية الشائعة؛ بما فيها برنامج إنشاء الفيديو «Pika»، وبرنامج «ChatGPT» الذي يركز على النصوص، ومولد الصور «Dall-E»، ونظام الذكاء الاصطناعي الذي يولد رموز الكومبيوتر، اكتشفت «هايز لابز» أن كثيراً من الأدوات المعروفة تنتج محتوىً عنيفاً أو جنسياً، كما أنها وجهت مستخدميها إلى معلومات حول إنتاج أسلحة كيميائية وبيولوجية، وسمحت بأتمتة الهجمات السيبرانية.
و«هايز لابز» شركة ناشئة صغيرة عمرها 5 أشهر فقط أسسها ليونارد تانغ وستيف لي وريتشارد ليو، وهم 3 من الخريجين الجدد الذين التقوا جميعاً في الكلية. ونشروا بشكل جماعي 15 ورقة بحثية حول التعلم الآلي خلال وجودهم في الكلية.
ووصف تانغ تقرير «هايز» بأنه «اختبار إجهاد مستقل من طرف ثالث»، وقال إن هدف شركته هو المساعدة في استئصال مشكلات الذكاء الاصطناعي ونقاط الضعف على نطاق واسع.
معايير السلامة للذكاء الاصطناعي
وفي إشارة إلى إحدى كبريات شركات تصنيف السندات على سبيل المقارنة، قال تانغ إن «هايز» تأمل في أن تصبح «وكالة موديز للذكاء الاصطناعي» التي تحدد تصنيفات السلامة العامة للنماذج الشعبية.
تعدّ سلامة الذكاء الاصطناعي مصدر قلق مزداد؛ حيث تدمج مزيد من الشركات الذكاء الاصطناعي التوليدي في عروضها وتستخدم نماذج لغوية كبيرة في المنتجات الاستهلاكية.
أجوبة «خرافية»
وفي الشهر الماضي، واجهت «غوغل» انتقادات حادة بعد أن اقترحت أداتها التجريبية «AI Overviews»، التي تهدف إلى الإجابة عن أسئلة المستخدمين، أنشطة خطرة مثل تناول صخرة صغيرة واحدة يومياً أو إضافة الغراء إلى البيتزا.
وفي شهر فبراير (شباط) الماضي، تعرضت «شركة طيران كندا» لانتقادات شديدة عندما وعد برنامج الدردشة الآلي الخاص بها؛ المزود بتقنية الذكاء الاصطناعي، بخصم وهمي لأحد المسافرين. وقد دعا مراقبو الصناعة إلى إيجاد طرق أفضل لتقييم مخاطر أدوات الذكاء الاصطناعي.
«مع انتشار أنظمة الذكاء الاصطناعي على نطاق واسع، فسنحتاج إلى مجموعة أكبر من المؤسسات لاختبار قدراتها ومدى إساءة الاستخدام المحتملة أو مشكلات السلامة»؛ وفق ما نشر جاك كلارك، المؤسس المشارك لـ«شركة أبحاث الذكاء الاصطناعي والسلامة (أنثروبيك Anthropic)»، مؤخراً على موقع «إكسX».
برامج توليدية غير آمنة
وقال تانغ: «ما تعلمناه هو أنه على الرغم من كل جهود السلامة التي بذلتها هذه الشركات الكبرى والمختبرات الصناعية، فإنه لا يزال من السهل للغاية إقناع هذه النماذج بفعل أشياء ليس من المفترض أن تفعلها... إنها ليست آمنة».
ويعمل اختبار «هايز» على ممارسة محاكاة الإجراءات العدائية لتحديد نقاط الضعف في نظام الذكاء الاصطناعي. وقال غراهام نيوبيج، الأستاذ المشارك في علوم الكومبيوتر بـ«جامعة كارنيغي ميلون»، إن صناعة الذكاء الاصطناعي تحتاج إلى كيان مستقل للسلامة. وأضاف: «أدوات السلامة الخاصة بالذكاء الاصطناعي التابعة لجهات خارجية مسألة مهمة... إنها يجب أن تكون عادلة ومحايدة على حد سواء. كما يمكن أن تتمتع أداة الأمان التابعة لجهة خارجية بأداء أعلى فيما يتعلق بالتدقيق؛ لأنها أُنشئت بواسطة مؤسسة مختصة في ذلك، على عكس بناء كل شركة أدواتها المختصة».
استئصال الثغرات
وقالت «هايز» إنها أبلغت صانعي أدوات الذكاء الاصطناعي التي اختُبرت بشكل استباقي بنقاط الضعف، ودخلت الشركة الناشئة في شراكة مع «أنثروبيك» لاختبار الإجهاد لمنتج خوارزمي لم يُطرح بعد. وقال تانغ إن استئصال نقاط الضعف في منصات الذكاء الاصطناعي من خلال الأنظمة الآلية أمر بالغ الأهمية؛ «لأن اكتشاف المشكلات يدوياً يستغرق وقتاً طويلاً ويعرض أولئك الذين يعملون في الإشراف على المحتوى لمحتوى عنيف ومزعج».
بعض المحتوى الذي اكتُشف عبر مراجعة «هايز» أدوات الذكاء الاصطناعي التوليدية الشائعة يتضمن صوراً ونصوصاً مروعة ورسومية. وقال تانغ: «كان هناك كثير من الحديث حول مشكلات السلامة التي تسيطر على العالم من خلال الذكاء الاصطناعي... أعتقد أنها مهمة، لكن المشكلة الكبرى هي إساءة استخدام الذكاء الاصطناعي على المدى القصير».
* مجلة «فاست كومباني» - خدمات «تريبيون ميديا»