رصد آلاف الثغرات في برامج الذكاء الاصطناعي الشائعة

محتوى جنسي وعنيف وإنتاج أسلحة محرمة دولياً

رصد آلاف الثغرات في برامج الذكاء الاصطناعي الشائعة
TT

رصد آلاف الثغرات في برامج الذكاء الاصطناعي الشائعة

رصد آلاف الثغرات في برامج الذكاء الاصطناعي الشائعة

تقول شركة ناشئة في مجال الذكاء الاصطناعي إن اختباراتها وجدت أن برامج الذكاء الاصطناعي التوليدية الشهيرة أنتجت محتوىً عنيفاً أو جنسياً، وإنها أيضاً سمحت بأتمتة الهجمات الإلكترونية.

محتوى جنسي وأسلحة كيميائية

وقالت شركة «هايز لابز (Haize Labs)» إنها عثرت على الآلاف من نقاط الضعف في برامج الذكاء الاصطناعي التوليدية الشهيرة، وأصدرت قائمة باكتشافاتها.

بعد اختبار برامج الذكاء الاصطناعي التوليدية الشائعة؛ بما فيها برنامج إنشاء الفيديو «Pika»، وبرنامج «ChatGPT» الذي يركز على النصوص، ومولد الصور «Dall-E»، ونظام الذكاء الاصطناعي الذي يولد رموز الكومبيوتر، اكتشفت «هايز لابز» أن كثيراً من الأدوات المعروفة تنتج محتوىً عنيفاً أو جنسياً، كما أنها وجهت مستخدميها إلى معلومات حول إنتاج أسلحة كيميائية وبيولوجية، وسمحت بأتمتة الهجمات السيبرانية.

و«هايز لابز» شركة ناشئة صغيرة عمرها 5 أشهر فقط أسسها ليونارد تانغ وستيف لي وريتشارد ليو، وهم 3 من الخريجين الجدد الذين التقوا جميعاً في الكلية. ونشروا بشكل جماعي 15 ورقة بحثية حول التعلم الآلي خلال وجودهم في الكلية.

ووصف تانغ تقرير «هايز» بأنه «اختبار إجهاد مستقل من طرف ثالث»، وقال إن هدف شركته هو المساعدة في استئصال مشكلات الذكاء الاصطناعي ونقاط الضعف على نطاق واسع.

معايير السلامة للذكاء الاصطناعي

وفي إشارة إلى إحدى كبريات شركات تصنيف السندات على سبيل المقارنة، قال تانغ إن «هايز» تأمل في أن تصبح «وكالة موديز للذكاء الاصطناعي» التي تحدد تصنيفات السلامة العامة للنماذج الشعبية.

تعدّ سلامة الذكاء الاصطناعي مصدر قلق مزداد؛ حيث تدمج مزيد من الشركات الذكاء الاصطناعي التوليدي في عروضها وتستخدم نماذج لغوية كبيرة في المنتجات الاستهلاكية.

أجوبة «خرافية»

وفي الشهر الماضي، واجهت «غوغل» انتقادات حادة بعد أن اقترحت أداتها التجريبية «AI Overviews»، التي تهدف إلى الإجابة عن أسئلة المستخدمين، أنشطة خطرة مثل تناول صخرة صغيرة واحدة يومياً أو إضافة الغراء إلى البيتزا.

وفي شهر فبراير (شباط) الماضي، تعرضت «شركة طيران كندا» لانتقادات شديدة عندما وعد برنامج الدردشة الآلي الخاص بها؛ المزود بتقنية الذكاء الاصطناعي، بخصم وهمي لأحد المسافرين. وقد دعا مراقبو الصناعة إلى إيجاد طرق أفضل لتقييم مخاطر أدوات الذكاء الاصطناعي.

«مع انتشار أنظمة الذكاء الاصطناعي على نطاق واسع، فسنحتاج إلى مجموعة أكبر من المؤسسات لاختبار قدراتها ومدى إساءة الاستخدام المحتملة أو مشكلات السلامة»؛ وفق ما نشر جاك كلارك، المؤسس المشارك لـ«شركة أبحاث الذكاء الاصطناعي والسلامة (أنثروبيك Anthropic)»، مؤخراً على موقع «إكسX».

برامج توليدية غير آمنة

وقال تانغ: «ما تعلمناه هو أنه على الرغم من كل جهود السلامة التي بذلتها هذه الشركات الكبرى والمختبرات الصناعية، فإنه لا يزال من السهل للغاية إقناع هذه النماذج بفعل أشياء ليس من المفترض أن تفعلها... إنها ليست آمنة».

ويعمل اختبار «هايز» على ممارسة محاكاة الإجراءات العدائية لتحديد نقاط الضعف في نظام الذكاء الاصطناعي. وقال غراهام نيوبيج، الأستاذ المشارك في علوم الكومبيوتر بـ«جامعة كارنيغي ميلون»، إن صناعة الذكاء الاصطناعي تحتاج إلى كيان مستقل للسلامة. وأضاف: «أدوات السلامة الخاصة بالذكاء الاصطناعي التابعة لجهات خارجية مسألة مهمة... إنها يجب أن تكون عادلة ومحايدة على حد سواء. كما يمكن أن تتمتع أداة الأمان التابعة لجهة خارجية بأداء أعلى فيما يتعلق بالتدقيق؛ لأنها أُنشئت بواسطة مؤسسة مختصة في ذلك، على عكس بناء كل شركة أدواتها المختصة».

استئصال الثغرات

وقالت «هايز» إنها أبلغت صانعي أدوات الذكاء الاصطناعي التي اختُبرت بشكل استباقي بنقاط الضعف، ودخلت الشركة الناشئة في شراكة مع «أنثروبيك» لاختبار الإجهاد لمنتج خوارزمي لم يُطرح بعد. وقال تانغ إن استئصال نقاط الضعف في منصات الذكاء الاصطناعي من خلال الأنظمة الآلية أمر بالغ الأهمية؛ «لأن اكتشاف المشكلات يدوياً يستغرق وقتاً طويلاً ويعرض أولئك الذين يعملون في الإشراف على المحتوى لمحتوى عنيف ومزعج».

بعض المحتوى الذي اكتُشف عبر مراجعة «هايز» أدوات الذكاء الاصطناعي التوليدية الشائعة يتضمن صوراً ونصوصاً مروعة ورسومية. وقال تانغ: «كان هناك كثير من الحديث حول مشكلات السلامة التي تسيطر على العالم من خلال الذكاء الاصطناعي... أعتقد أنها مهمة، لكن المشكلة الكبرى هي إساءة استخدام الذكاء الاصطناعي على المدى القصير».

* مجلة «فاست كومباني» - خدمات «تريبيون ميديا»


مقالات ذات صلة

السعودية تسعى لتعزيز التعاون الدولي في الأمن السيبراني

الاقتصاد جانب من أعمال المنتدى الدولي للأمن السيبراني 2023 في الرياض (الهيئة)

السعودية تسعى لتعزيز التعاون الدولي في الأمن السيبراني

في ظل التطور المتسارع والتحديات المتصاعدة التي يشهدها قطاع الأمن السيبراني عالمياً، تقدم السعودية نموذجاً استثنائياً في هذا المجال.

«الشرق الأوسط» (الرياض)
الاقتصاد يقوم عدد من مقدمي طلبات التأشيرات في مركز التأشيرات بالرياض بإكمال إجراءات طلباتهم (الشرق الأوسط)

نمو طلبات تأشيرات «شنغن» في السعودية بنسبة 23 % هذا العام

كشفت شركة «في إف إس غلوبال» عن أن الطلب على تأشيرات «شنغن» في السعودية شهد نمواً ملحوظاً بنسبة 23 في المائة هذا العام.

فتح الرحمن يوسف (الرياض)
الاقتصاد خزان تعدين في أحد المؤتمرات بالولايات المتحدة (رويترز)

إنفوغراف: ما أكبر مراكز البيانات في العالم؟

في ظل دعوة شركات الذكاء الاصطناعي الكبرى البيت الأبيض إلى بناء مراكز بيانات ضخمة بقدرة 5 غيغاواط من شأنها أن توفر عشرات الآلاف من الوظائف وتعزز الناتج المحلي.

«الشرق الأوسط» (واشنطن)
علوم صور أنشأها «نموذج الطبيعة الكبير» للذكاء الاصطناعي

أول متحف فني للذكاء الاصطناعي في العالم يتحدى العقول

مَعْلَم يلتقي فيه الخيال البشري بإبداع الآلة

جيسوس دياز (واشنطن)
الاقتصاد شعاري «أوبن إيه آي» و«تشات جي بي تي» في هذه الصورة التوضيحية (رويترز)

العقل المدبر خلف «تشات جي بي تي» تغادر «أوبن إيه آي»

أعلنت المديرة الفنية لشركة «أوبن إيه آي»، ميرا موراتي، يوم الأربعاء، استقالتها من المجموعة المتخصصة في الذكاء الاصطناعي التوليدي، لتنضم بذلك إلى قائمة المغادرين

«الشرق الأوسط» (نيويورك)

آلاف الأميركيين يلجأون للنصائح الطبية من الذكاء الاصطناعي

آلاف الأميركيين يلجأون للنصائح الطبية من الذكاء الاصطناعي
TT

آلاف الأميركيين يلجأون للنصائح الطبية من الذكاء الاصطناعي

آلاف الأميركيين يلجأون للنصائح الطبية من الذكاء الاصطناعي

كتبت تيدي روزنبلوث (*) عن حالة سوزان شيريدان، التي كانت قد سمعت عن برنامج «تشات جي بي تي» (ChatGPT) لكنها لم تستخدمه مطلقاً؛ لذا كان أول سؤال وجهته إلى روبوت المحادثة بالذكاء الاصطناعي مشوشاً بعض الشيء: «ترهل وألم الوجه، وعلاج الأسنان».

أسئلة طبية وإجابات مقنعة

لقد لجأت إلى برنامج «تشات جي بي تي» في لحظة يأس، إذ كان الجانب الأيمن من وجهها مترهلاً، وكان كلماتها تتعثر أثناء الحديث، وكان رأسها يؤلمها كثيراً، لدرجة أنها لم تستطع إراحته على الوسادة.

في اليوم السابق، عندما لاحظ زوجها الترهل لأول مرة، قاد الزوجان سيارتهما لمدة 3 ساعات إلى غرفة الطوارئ، فقط ليرسلها الطبيب إلى المنزل بعد تصنيف أعراضها على أنها حميدة.

إلا أن برنامج «تشات جي بي تي» لم يوافق على ذلك، وأخبرها روبوت المحادثة بأن أحد التفسيرات المحتملة لأعراضها هو «شلل بيل» (Bell’s palsy)، الذي يحتاج إلى علاج عاجل لتجنب حدوث ضرر دائم؛ لذا فإنها قامت برحلة أخرى إلى غرفة الطوارئ؛ حيث أكد الطبيب شكوك روبوت الدردشة، وأعطاها «الستيرويدات» والأدوية المضادة للفيروسات. ونتيجة ذلك، تم شفاؤها في الغالب.

ربع الشباب يلجأون طبيّاً إلى الذكاء الاصطناعي

وقالت سوزان شيريدان، 64 عاماً، وهي المؤسسة المشاركة لمنظمة «مناصرة سلامة المرضى»: «لا أريد استبدال الأطباء، أؤمن بالعلاقة بين الطبيب والمريض، وأؤمن بنظام الرعاية الصحية... لكنها تفشل أحياناً. عندما كان الطب يخذلني، ألجأ إلى (تشات جي بي تي)».

على نحو متزايد، يلجأ أشخاص مثل سوزان شيريدان إلى روبوتات الدردشة الذكية لشرح الأعراض الجديدة، وموازنة خيارات العلاج، والتحقق من استنتاجات أطبائهم.

يستخدم نحو 1 من كل 6 بالغين -ونحو ربع البالغين الذين تقل أعمارهم عن 30 عاماً- روبوتات الدردشة للعثور على المشورة والمعلومات الطبية مرة واحدة على الأقل في الشهر، وفقاً لمسح حديث من منظمة «KFF» البحثية غير الربحية للسياسة الصحية.

ويأمل المؤيدون أن يعمل الذكاء الاصطناعي على تمكين المرضى، من خلال منحهم تفسيرات طبية أكثر شمولاً مما قد يفعله البحث البسيط على «غوغل»، الذي «يمنح إمكانية الوصول إلى المعلومات» وفق ما يقول ديف دي برونكارت، وهو مدافع عن المرضى ومدون. ويضيف أن: «الذكاء الاصطناعي يتيح الوصول إلى الفكر السريري».

رأي الأطباء

لا يعرف الباحثون سوى القليل جداً عن كيفية استخدام المرضى للذكاء الاصطناعي التوليدي للإجابة عن أسئلتهم الطبية. وقد ركزت الدراسات حول هذا الموضوع إلى حد كبير على الحالات الطبية الافتراضية.

وقال الدكتور أتيف مهروترا، باحث في الصحة العامة، وأستاذ في جامعة «براون»، الذي يدرس استخدامات المرضى لروبوتات الدردشة الذكية، إنه لا يعتقد أن الخبراء قد أدركوا عدد الأشخاص الذين يستخدمون التكنولوجيا بالفعل للإجابة عن الأسئلة الصحية.

وأضاف: «لقد اعتقدنا دائماً أن هذا شيء آتٍ، لكنه لا يستخدم بأعداد كبيرة الآن. لقد صدمت تماماً بهذا المعدل المرتفع في استطلاع (KFF)».

من جهته، قال الدكتور بنيامين تولشين، عالم أخلاقيات علم الأحياء وطبيب أعصاب في كلية الطب بجامعة «ييل»، إنه منذ أن أصبح «تشات جي بي تي» متاحاً للجمهور في عام 2022، أخبره عدد قليل من المرضى كل شهر بأنهم استخدموا روبوت الدردشة للبحث عن حالتهم.

وفي الغالب، فإنه يعتقد أن الأداة ساعدت في إعلام المرضى بحالتهم وخيارات العلاج المتاحة. لكنه رأى أيضاً عيوب برنامج الدردشة الآلية.

معلومات طبية تضفي ثقة زائفة

ويقول تولشين إن المشكلة ليست فقط أن الذكاء الاصطناعي قد يوفر معلومات طبية خاطئة أو غير كاملة، وفعلاً يواجه كثير من موظفي «غوغل» هذه المشكلة بالفعل. المشكلة كما يقول في أن برامج الدردشة الآلية تجيب عن الأسئلة بنوع من «السلطة»، ما قد يمنح المرضى ثقة زائفة في نصائحها.

ويضيف: «يمكن أن تكون الإجابات أكثر إقناعاً بكثير، وتبدو أكثر اكتمالاً للمرضى من تلك المعلومات المتقطعة التي قد يجدونها من خلال البحث على (غوغل)».

إجابات ناقصة

وعلى سبيل المثال، استخدم أحد مرضاه برنامج دردشة آلية للعثور على خيارات علاجية للنوبات التي لم تعد تستجيب للأدوية. ومن بين العلاجات المقترحة زرع الخلايا الجذعية، وهو خيار لم يفكر فيه المريض بعد. كان على تولشين أن يشرح لعائلة متفائلة أن زرع الخلايا الجذعية هو علاج تجريبي تماماً، وليس خياراً يوصي به أي طبيب أعصاب، وهو التمييز الذي لم يذكره برنامج الدردشة الآلية.

وقال: «لقد كان لديهم انطباع بأن لديهم صورة كاملة إلى حد ما لجميع خيارات العلاج المختلفة، لكنني أعتقد أنه ربما أعطى صورة مضللة إلى حد ما».

وفي دراسة «KFF»، قال أقل من 10 في المائة من المستجيبين إنهم يشعرون بـ«الثقة الشديدة» في قدرتهم على معرفة الفرق بين المعلومات الحقيقية والكاذبة التي تولدها روبوتات الدردشة الذكية. إلا أن دي برونكارت يقول إنه مثل أي أداة، هناك طريقة صحيحة لاستخدام «تشات جي بي تي» للحصول على معلومات صحية.

ويضيف إنه يجب صياغة الأسئلة بعناية، ومراجعة الإجابات بتشكك. وقال: «هذه أدوات قوية للمساعدة في تطوير تفكيرك... لا نريد أن يعتقد الناس أنها تعطي إجابات فورية حتى لا يضطروا إلى التفكير بعد الآن».

* خدمة «نيويورك تايمز».