دراسة: نماذج الذكاء الاصطناعي أكثر عنصرية من البشر

وجدت دراسة جديدة نظرت في كيفية استجابة نماذج الذكاء الاصطناعي للهجات اللغة الإنجليزية المختلفة، أن هذه النماذج أكثر عنصرية من البشر.

وبحسب شبكة «سكاي نيوز» البريطانية، فقد ركزت معظم الأبحاث السابقة حول العنصرية في الذكاء الاصطناعي على «العنصرية العلنية»، مثل كيفية استجابة روبوتات الدردشة لكلمة «أسود»، إلا أن الدراسة الجديدة بحثت في عنصرية هذه النماذج «في الخفاء» وبشكل غير واضح وغير صريح.

واستخدم الباحثون مواقف افتراضية طُلب فيها من مشاركين مختلفين تخيل أنفسهم متهمين بجرائم كبيرة، ومحاولة الدفاع عن أنفسهم كتابة أمام روبوتات دردشة تعمل بتقنية الذكاء الاصطناعي.

ووجد الفريق أن الروبوتات كانت أكثر ميلاً للتوصية بتطبيق عقوبة الإعدام على الأشخاص الذين يكتبون باللغة الإنجليزية الأميركية الأفريقية (AAE) مقارنة بالأشخاص الذين يستخدمون اللغة الإنجليزية الأميركية العادية.

وبعد ذلك، طلب المشاركون من الروبوتات اقتراح وظيفة لهم بناء على تعليمهم وخبراتهم، ليجد الباحثون أن الروبوتات كانت أكثر ميلاً لاقتراح وظائف ضعيفة وذات دخل منخفض على المتحدثين باللغة الإنجليزية الأميركية الأفريقية.

ويتم التحدث باللغة الإنجليزية الأميركية الأفريقية بشكل عام من قبل الأميركيين السود والعديد من الأشخاص في كندا.

وقال فالنتين هوفمان، أحد مؤلفي الدراسة: «إن اللغة الإنجليزية الأميركية الأفريقية كلهجة تثير العنصرية في نماذج اللغة الخاصة ببرامج الذكاء الاصطناعي، وهذه العنصرية أعمق وأكثر سلبية من أي صور نمطية بشرية عن الأميركيين من أصل أفريقي تم الإبلاغ عنها على الإطلاق».

وأضاف: «عندما تسأل روبوت الدردشة صراحةً: ما رأيك في الأميركيين من أصل أفريقي؟ فإنه سيخبرك بسمات إيجابية نسبياً مثل (ذكي) و(متحمس) وما إلى ذلك. لكن عندما تنظر في حكم هذا الروبوت على لهجات أولئك الأميركيين، فستكتشف صورة عنصرية سلبية للغاية».

وتابع: «لذا فإن ما نظهره في هذه الورقة هو أن نماذج اللغة هذه تعلمت إخفاء عنصريتها في العلن».

وتثير تقنيات الذكاء الاصطناعي قلق الكثير من العلماء والمحللين والسياسيين على مستوى العالم.

وسبق أن حذرت دراسة نشرت في شهر أكتوبر (تشرين الأول) الماضي، من أن نماذج الذكاء الاصطناعي، التي تدعم برامج الدردشة الآلية، يمكن أن تساعد في التخطيط لهجوم بسلاح بيولوجي، بينما رسم تقرير جديد، صدر الأسبوع الماضي بتكليف من وزارة الخارجية الأميركية، صورة مثيرة للقلق، للمخاطر «الكارثية»، التي قد يتسبب بها الذكاء الاصطناعي سريع التطور على البشرية والأمن العالمي، محذراً من أنه قد يتسبب في انقراض البشر.

«الكارثة تقترب»... تقرير يحذر من انقراض البشر بسبب الذكاء الاصطناعي

رسم تقرير جديد، صدر بتكليف من وزارة الخارجية الأميركية، صورة مثيرة للقلق، للمخاطر «الكارثية» التي قد يتسبب بها الذكاء الاصطناعي سريع التطور على البشرية والأمن العالمي، محذراً من أنه قد يتسبب في انقراض البشر.

ووفق شبكة «سي إن إن» الأميركية، فقد استندت النتائج إلى مقابلات مع أكثر من 200 شخص على مدار أكثر من عام، بمن في ذلك كبار المسؤولين التنفيذيين من شركات الذكاء الاصطناعي الرائدة، وباحثون في مجال الأمن السيبراني، وخبراء أسلحة الدمار الشامل، ومسؤولو الأمن القومي داخل الحكومة.

ويشير التقرير، الذي صدر هذا الأسبوع من قِبل شركة «غلادستون» للذكاء الاصطناعي، بشكل قاطع إلى أن أنظمة الذكاء الاصطناعي الأكثر تقدماً يمكن، في أسوأ الحالات، «أن تشكل تهديداً خطيراً يتعلق بانقراض الجنس البشري».

وقال التقرير إن أنظمة الذكاء الاصطناعي الأكثر تقدماً يمكن استخدامها أسلحةً لإحداث أضرار لا يمكن إصلاحها، كما أن هناك مخاوف خاصة داخل مختبرات الذكاء الاصطناعي من أن العلماء أنفسهم قد «يفقدون السيطرة» في مرحلةٍ ما على هذه الأنظمة أثناء تطويرها، الأمر الذي قد تنتج عنه «عواقب مدمّرة محتملة على الأمن العالمي».

وأضاف التقرير: «إن صعود الذكاء الاصطناعي قد يزعزع استقرار الأمن العالمي بطرق تُذكّرنا بفترة ظهور الأسلحة النووية. هناك مخاوف أيضاً من احتمالية حدوث (سباق تسلح) بالذكاء الاصطناعي، الأمر الذي قد يتسبب في حوادث مميتة وعواقب وخيمة بحجم العواقب الناتجة عن استخدام أسلحة الدمار الشامل».

ولفت التقرير إلى أن الضغوط التنافسية تدفع الشركات إلى تسريع تطوير تقنيات الذكاء الاصطناعي «على حساب السلامة والأمن»، مما يزيد احتمال «سرقة» أنظمة الذكاء الاصطناعي الأكثر تقدماً، و«استخدامها أسلحةً» ضد الولايات المتحدة.

صعود الذكاء الاصطناعي قد يزعزع استقرار الأمن العالمي (رويترز)

وأكد مسؤول بوزارة الخارجية الأميركية، لشبكة «سي إن إن» أن شركة «غلادستون» كُلفت بإعداد التقرير لأنها تقوم باستمرارٍ بتقييم مدى توافق الذكاء الاصطناعي مع هدفه المتمثل في حماية المصالح الأميركية بالداخل والخارج. ومع ذلك أكد المسؤول أن التقرير لا يمثل آراء الحكومة الأميركية.

من جهته، قال جيريمي هاريس، الرئيس التنفيذي والمؤسس المشارك لشركة «غلادستون»: «إن الذكاء الاصطناعي هو بالفعل تكنولوجيا رائعة يمكن أن تساعدنا على مكافحة بعض الأمراض، وتحقيق الاكتشافات العلمية، والتغلب على التحديات التي اعتقدنا ذات يوم أنه لا يمكن التغلب عليها، لكنه قد يجلب أيضاً مخاطر جسيمة، بما في ذلك المخاطر الكارثية، التي يجب أن نكون على دراية بها».

وأضاف: «وتشير مجموعة متزايدة من الأدلة إلى أنه فوق عتبة معينة من الإمكانات والقدرات، من المحتمل أن تصبح أنظمة الذكاء الاصطناعي خارجة عن السيطرة».

ودعا هاريس إلى اتخاذ خطوات جديدة جذرية تهدف إلى مواجهة تهديدات الذكاء الاصطناعي، بما في ذلك فرض إجراءات تنظيمية «طارئة» وقيود على مقدار قوة نماذج الذكاء الاصطناعي التي يجري تطويرها.

ومنذ ما يقرب من عام، استقال جيفري هينتون، المعروف باسم «الأب الروحي للذكاء الاصطناعي»، من وظيفته في شركة «غوغل»، وأطلق صافرة الإنذار بشأن التكنولوجيا التي ساعد في تطويرها. وقال هينتون إن هناك فرصة بنسبة 10 في المائة بأن يؤدي الذكاء الاصطناعي إلى انقراض الإنسان، خلال العقود الثلاثة المقبلة.

ووقّع هينتون وعشرات من قادة صناعة الذكاء الاصطناعي والأكاديميين وغيرهم على بيان، في يونيو (حزيران) الماضي، جاء فيه أن «التخفيف من خطر الانقراض بسبب الذكاء الاصطناعي يجب أن يكون أولوية عالمية».