هل يرث الإنسان «تحيزات» الذكاء الاصطناعي؟

مخاوف من تأثيراتها السلبية البالغة على القرارات البشرية

تستخدم العديد من المجالات الآن أدوات الذكاء الاصطناعي لدعم القرارات البشرية
تستخدم العديد من المجالات الآن أدوات الذكاء الاصطناعي لدعم القرارات البشرية
TT

هل يرث الإنسان «تحيزات» الذكاء الاصطناعي؟

تستخدم العديد من المجالات الآن أدوات الذكاء الاصطناعي لدعم القرارات البشرية
تستخدم العديد من المجالات الآن أدوات الذكاء الاصطناعي لدعم القرارات البشرية

رفعت النتائج المذهلة التي حققتها أنظمة الذكاء الاصطناعي مؤخراً، وقدرتها على الدخول في حوارات ممتدة مع البشر، من سقف توقعاتنا للأدوار التي يمكن أن تلعبها في حياتنا في المستقبل القريب. ويقوم كثير من المجالات المهنية الآن بتطبيق أدوات تعتمد على الذكاء الاصطناعي؛ لدعم عملية صنع القرار لدى المتخصصين، وتقليل الأخطاء المحتمل ارتكابها. ومع ذلك، ينبغي معرفة أن هذه التكنولوجيا لا تخلو من المخاطر؛ بسبب احتمالات «التحيز» التي بدأت تظهر ضمن نتائجها يوماً بعد آخر.

أخطاء تولِّد أخطاء

يجب الأخذ في الاعتبار أن البيانات المستخدمة لتدريب نماذج الذكاء الاصطناعي تعكس قرارات بشرية؛ فإذا كانت هذه البيانات تتضمن أنماطاً من الأخطاء المنهجية، فسوف تتعلم خوارزميات الذكاء الاصطناعي هذه الأخطاء وتعيد إنتاجها مجدداً.

ويشير كثير من الأدلة العلمية، بالفعل، إلى أن أنظمة الذكاء الاصطناعي ترث التحيزات البشرية. غير أن الجديد علميّاً هو ما توصلت إليه نتائج الدراسة المنشورة في دورية «ساينتفيك روبوتس» في 3 أكتوبر (تشرين الأول)، من أن التأثير المعاكس قد يحدث، أي أن البشر أيضاً يرثون تحيزات الذكاء الاصطناعي، وهو ما يعني أن تلك التقنيات لن ترث تحيزاتها من البيانات البشرية فحسب، بل يمكن للبشر أن يرثوا تلك التحيزات مجدداً، وبالتالي زيادة خطر الوقوع في حلقة مفرغة لا تنتهي.

وتقول الباحثة الأولى المشاركة في الدراسة، لوسيا فيسنتي، من قسم علم النفس بجامعة ديوستو الإسبانية: «هناك قلق كبير بشأن احتمال قيام الذكاء الاصطناعي بنشر تلك التحيزات في القرارات البشرية». وأضافت لـ«الشرق الأوسط»: «يمكن لمجموعات البيانات المستخدمة لتدريب هذه النماذج أن تخفي أنماطاً من الأخطاء المنهجية وأوجه عدم المساواة، بحيث يتعلم الذكاء الاصطناعي، في كثير من الأحيان، الأخطاء البشرية ويعيد إنتاجها، كما يمكن للبشر توليد تلك التحيزات حتى بعد مرور بعض الوقت على انتهاء التفاعل مع هذه النظم».

وفي سلسلة تجارب ثلاث أجراها باحثو الدراسة، أجرى متطوعون تشخيصاً طبيّاً (أظهر خطأ منهجيّاً) بمساعدة نظام ذكاء اصطناعي متحيز، في حين لم تحصل مجموعة أخرى ضابطة على أي مساعدة. لقد كانت مهمة التشخيص الطبي بواسطة الذكاء الاصطناعي وهمية. كانت الإعدادات بأكملها عبارة عن محاكاة لتجنب التدخل عند الحاجة لذلك.

وكشفت النتائج أن الأطباء ارتكبوا بمساعدة النماذج التقنية المتحيزة، الأخطاء نفسها التي ارتكبها الذكاء الاصطناعي، في حين لم ترتكب المجموعة الضابطة هذه الأخطاء، وهو ما يعني أن توصيات الذكاء الاصطناعي أثرت على قرارات الأطباء.

تحيز موروث

ومع ذلك، تبقى النتيجة الأكثر أهمية أنه بعد انتهاء عمليات التفاعل مع نظام الذكاء الاصطناعي، استمر هؤلاء الأطباء في محاكاة خطئه المنهجي، حتى عندما تحولوا إلى أداء مهمة التشخيص دون مساعدته. بمعنى آخر، إن الأطباء الذين تلقوا المساعدة أولاً من الذكاء الاصطناعي المتحيز كرروا تحيزهم في سياق آخر جديد من دون هذا الدعم، وبالتالي أظهروا ما يطلق عليه علميّاً «تحيزاً موروثاً». في حين لم تتم ملاحظة هذا التأثير بالنسبة لأطباء المجموعة الضابطة، الذين قاموا بالمهمة دون مساعدة الذكاء الاصطناعي منذ البداية.

وتقول الباحثة المشاركة في الدراسة، الدكتورة هيلينا ماتوتي، من قسم علم النفس بجامعة ديوستو الإسبانية: «توضح هذه النتائج أن المعلومات المتحيزة بواسطة نموذج الذكاء الاصطناعي يمكن أن يكون لها تأثير سلبي دائم على القرارات البشرية». وأضافت لـ«الشرق الأوسط»: «هذا يعني أن الذكاء الاصطناعي لن يرث تحيزاته من البيانات البشرية فحسب، بل يمكن للأشخاص أن يرثوا تلك التحيزات منه، وهو ما ينذر بخطر وقوع البشر في فخ حلقة خطيرة من الأخطاء الممنهجة».

ويشير اكتشاف إمكانية توريث تأثير تحيزات الذكاء الاصطناعي إلى الحاجة لمزيد من الأبحاث النفسية ودراسات متعددة التخصصات حول عمليات التفاعل بين الذكاء الاصطناعي والإنسان. علاوة على ذلك، هناك حاجة إلى التنظيم القائم على الأدلة العلمية؛ لضمان «الوصول إلى تقنيات ذكاء اصطناعي عادلة وأخلاقية»، مع الأخذ في الاعتبار الجوانب النفسية للأنشطة التي ترتكز على التعاون بينه وبين البشر، وليس الميزات التقنية له فقط.

وعن إمكانية تفادي تلك الأخطاء، قالت ماتوتي: «من الضروري تحقيق فهم أفضل لكيفية بناء نماذج الذكاء الاصطناعي للتوقعات والنتائج، والأهم من ذلك نشر المستويات الفعلية لكل من الدقة والأخطاء في تلك النماذج».

وهو ما علقت عليه فيسنتي بالقول: «يمكن لزيادة المعرفة بأخطاء الذكاء الاصطناعي أن تقلل من ثقة الناس المفرطة في تلك النماذج، وربما يمكنهم اكتشاف تحيزاته ومواجهتها مبكراً». وأضافت: «يجب أن يحصل المتخصصون الذين يتعاونون مع الذكاء الاصطناعي على التدريب والوقت اللازمين لاكتشاف أخطائه، وكذلك التقييم الصحيح للنتائج والإجراءات المتولدة عنه عندما يكونون في شك منها».

وتفضل فيسنتي بدلاً من تنبيه البشر للأخطاء المحتملة للذكاء الاصطناعي أن «يتم تنفيذ تلك المهام من قِبل البشر، مع تنبيه نظم الذكاء الاصطناعي للأخطاء المحتملة، ومن ثم تدريبه على تلافيها».



برامج للتحكّم بأسراب الطائرات من دون طيار الضخمة

برامج للتحكّم بأسراب الطائرات من دون طيار الضخمة
TT

برامج للتحكّم بأسراب الطائرات من دون طيار الضخمة

برامج للتحكّم بأسراب الطائرات من دون طيار الضخمة

أعلنت وحدة الابتكارات الدفاعية، التابعة لوزارة الدفاع الأميركية، أن ثلاث شركات ستُنتج برامج نموذجية للتحكم في أسراب الطائرات من دون طيار (الدرون) الضخمة التي تطوّرها حالياً مجموعة مبادرة «ربليكيتر» Replicator للإنتاج السريع.

تنسيق آلي لطائرات «الدرون»

وقالت الوحدة، في بيان لها، الأربعاء، إن العقود الممنوحة لشركات «Anduril Industries»، و«L3Harris Technologies»، و«Swarm Aero» هي جزء من جهودها التي تسعى إلى «التنسيق الآلي لأسراب من مئات أو آلاف الأصول غير المأهولة عبر مجالات متعددة».

وكانت نائبة مدير وحدة الابتكارات الدفاعية للاستراتيجية والسياسة والشراكات الأمنية الوطنية، أديتي كومار، قالت في وقت سابق من هذا الشهر في حديث مع «ديفنس وان» إنه في حين تحظى أجهزة «ربليكيتر» بالكثير من الاهتمام، فإن برنامجها مهم بالقدر نفسه. وأضافت أن الجدول الزمني القصير لوحدة الدفاع الجوي لاختبار منصات وبرامج تكامل الطائرات دون طيار الجديدة يشكّل تحدياً آخر.

هياكل مملوكة للحكومة

وتابعت أديتي كومار: «نحن نشتري هذه القدرة بشكل مستقل عن أنظمة الأجهزة، وبالتالي نحتاج إلى أن نكون قادرين على الحصول على هياكل مفتوحة، وهياكل مملوكة للحكومة؛ لضمان أن البرنامج الذي نحضره تجري ترقيته ثم دمجه في جميع أنواع أنظمة الأجهزة التي قد تتطلّب بعد ذلك إصلاحات الأجهزة الخاصة بها لتمكين ذلك».

اختبارات ميدانية متكاملة

وكانت منصة «لاتيس» Lattice من شركة «أندوريل» Anduril واحدة من الجهات الفائزة. وقالت الشركة، في بيان، إنها أكملت مجموعة متنوعة من الاختبارات في العالم الحقيقي مع الشركاء العسكريين:

* تمرين «مسائل المعارك المتكاملة 24.1»، Integrated Battle Problem 24.1 لأسطول المحيط الهادئ الأميركي؛ حيث استخدم مشغلو البحرية منصة «لاتيس» لدمج أكثر من اثني عشر نظاماً غير مأهول وموجزات بيانات.

* «حارس الصحراء 1.0» Desert Guardian 1.0، البرنامج التابع للقيادة المركزية الأميركية هو أيضاً من الأمثلة الأخرى؛ حيث دمجت الشركة 10 فرق استشعار مختلفة في «لاتيس»، كما دمجت تبادل البيانات في الوقت الفعلي، ونفّذت الاندماج وتعيين المهام عبر أنظمة استشعار متنوعة للكشف بشكل أسرع عن التهديدات المحمولة جواً وغيرها.

* اختبار «الحافة 23» EDGE23 للجيش، سمحت «لاتيس» لجندي واحد «بإدارة فريق متكامل من الطائرات غير المأهولة المتعددة لتحديد موقع صاروخ أرض - جو وتحديده وتدميره».

كما منحت وحدة الابتكارات الدفاعية عقوداً إلى شركات، بهدف تطوير نظم لضمان الاتصالات للطائرات دون طيار في بيئة حرب كهرومغناطيسية ثقيلة.

هل يمنع «ربليكيتر» الحرب العالمية الثالثة؟

أطلقت وزارة الدفاع «ربليكيتر» Replicator خصوصاً لردع العمل العسكري الصيني في المحيط الهادئ. وفي حدث لمؤسسة بالاس يوم الأربعاء، ناقش رئيس القيادة البحرية الأميركية في المحيط الهادئ، الأدميرال سام بابارو، الدور الذي يمكن أن تلعبه الأنظمة المستقلة في الردع؛ أي مثل الدور الذي تقدمه الطائرات من دون طيار البحرية الأوكرانية في البحر الأسود.

وقال بابارو: «لا يحتاج المرء في الواقع إلى تحقيق التفوّق الجوي والبحري الكامل على مساحة عندما يحاول الخصم الحصول عليها. ربما يحتاج المرء فقط إلى حرمان الطرف الآخر من ذلك، ويمكنه القيام بذلك بتكلفة منخفضة... لقد رأينا ذلك بالفعل في الممارسة العملية، وتعلمنا ذلك من أوكرانيا في البحر الأسود، حيث تم تدمير طرّاد (سلافا) وإغراقه -بواسطة طائرة من دون طيار بحرية أوكرانية- ومن المهم أن نتعلّم هذا الدرس من ذلك ومن البحر الأسود».

مهمات الردع والهجوم

كما أوضح بابارو كيف يمكنه استخدام مستويات مختلفة من الاستقلالية لمهام مختلفة بصفتها جزءاً من جهود الردع هذه. وقال إنه بالنسبة إلى المهام الهجومية، فإن الحفاظ على السيطرة البشرية أمر بالغ الأهمية. ولكن بالنسبة إلى الدفاع عن الأسطول، فإن مزيداً من الاستقلالية يمكن أن يساعد في تسريع وقت رد الفعل.

وأضاف: «على سبيل المثال، إذا كانت غارة من الصواريخ الباليستية تقترب من وحدتك، فهذا هو الوقت الذي قد ترغب فيه في تشغيل نظامك بالكامل، وحمل تلك الأسهم التي تُوجه نحوه من ناحية أخرى. أما إذا كنت تنفّذ هجوماً معقداً على نظام عدو، فهذه هي الحالة التي قد ترغب فيها في القيام بذلك بحذر شديد، لأنك بذلك تقتل أرواحاً».

* مجلة «ديفنس وان»: خدمات «تريبيون ميديا».