روبوتات قاتلة وأسلحة فتاكة ذاتية التشغيل... لمحة من حروب المستقبل

روبوتات تقلد تعبيرات الوجه البشرية خلال مؤتمر الروبوت العالمي في بكين (إ.ب.أ)
روبوتات تقلد تعبيرات الوجه البشرية خلال مؤتمر الروبوت العالمي في بكين (إ.ب.أ)
TT

روبوتات قاتلة وأسلحة فتاكة ذاتية التشغيل... لمحة من حروب المستقبل

روبوتات تقلد تعبيرات الوجه البشرية خلال مؤتمر الروبوت العالمي في بكين (إ.ب.أ)
روبوتات تقلد تعبيرات الوجه البشرية خلال مؤتمر الروبوت العالمي في بكين (إ.ب.أ)

بالتأكيد سمعت عن الروبوتات القاتلة، أو الإنسان الآلي القاتل في الروايات أو الأفلام، أو ما يطلق عليه رسمياً «الأسلحة الفتاكة ذاتية التشغيل».

فكرة وجود سلاح ذكي للغاية ويقتل بعشوائية ما زالت في عداد الخيال العلمي، لكن الأسلحة التي تعتمد على الذكاء الاصطناعي أصبحت معقدة للغاية، وتتسبب في نمو الشعور بالقلق والخوف لدى البعض من عدم القدرة على محاسبة المخطئين، وإمكانية وقوع أخطاء تقنية.

لقد شاهدنا بالفعل الذكاء الاصطناعي، الذي كان من المفترض أن يكون حيادياً، ينتج خوارزميات متحيزة ضد جنس بعينه، أو ينتج أنظمة مراقبة محتوى قليلة الكفاءة، وذلك وفقاً لما نشره موقع «ذا كونفرزيشن»، بسبب أن صناع أنظمة الذكاء الاصطناعي تلك لم يفهموا جيداً التكنولوجيا التي بين أيديهم. لكن في وقت الحروب، هذه الأخطاء قد تتسبب في مقتل مدنيين أو إفساد المفاوضات بين الجانبين.

على سبيل المثال، لو تم تدريب خوارزميات التعرف على الأهداف عن طريق صور من الأقمار الاصطناعية تظهر دبابات وحولها جنود، قد يخطئ الذكاء الاصطناعي، ويعد سيارة مدنية تمر عبر حاجز عسكري هدفاً مثل دبابة وحولها جنود.

هل نحتاج لأسلحة ذاتية التشغيل
عانى العديد من المدنيين في عدة دول من الطريقة التي تبني بها القوى العظمى أسلحتها المتقدمة. والكثير يرون أن هذه الأسلحة سببت ضرراً أكثر مما جلبت نفعاً، وفي الآونة الأخيرة يشيرون إلى الغزو الروسي لأوكرانيا في بداية عام 2022.
ويرى الفريق المقابل أن على كل دولة أن تكون قادرة على حماية نفسها، أي أن تواكب التكنولوجيا العسكرية التي توصلت إليها الدول الأخرى. والذكاء الاصطناعي تغلب على الإنسان في لعبتي الشطرنج والبوكر، كما أنه يفوق أداء الإنسان في الواقع أيضاً.
تقول شركة «مايكروسوفت» أن برمجية التعرف على الكلمات التابعة لها تبلغ نسبة الخطأ بها 1 في المائة مقارنة بنسبة الخطأ لدى البشر التي تبلغ 6 في المائة، لذلك ليس من الغريب أن الجيوش تسلم، ببطء، زمام المبادرة إلى الخوارزميات.

ما هي الأسلحة الفتاكة الذاتية التشغيل؟

تعرف وزارة الدفاع الأميركية الأسلحة الفتاكة ذاتية التشغيل بأنها «نظم أسلحة بمجرد تشغيلها يمكنها تحديد الأهداف والاشتباك معها بدون تدخل إنسان أو مُشغل بشري».

وينطبق هذا التعريف على العديد من نظم القتال، فأنظمة الحاسب الآلي على متن الطائرات المسيرة، وبعض الصواريخ الحديثة لديها خوارزميات تمكنها من تحديد الأهداف وإطلاق النار عليها بدقة أكبر من مشغلها البشري.

ونظام القبة الحديدية الإسرائيلي هو واحد من تلك الأنظمة الذي يمكنه الاشتباك مع الأهداف دون إشراف بشري.

ورغم أنها مصممة للحماية من الصواريخ، فإن أنظمة القبة الحديدية يمكنها قتل أشخاص بالخطأ. لكن هذه المخاطرة مقبولة لدى المجتمع السياسي الدولي، لأن القبة الحديدية يعتمد عليها في إنقاذ أرواح المدنيين.

روبوت يتم التحكم به عن بعد خلال مؤتمر دفاعي وأمني في لندن (أ.ف.ب)

الأسلحة التي تعتمد على الذكاء الاصطناعي موجودة بالفعل، مثل روبوتات الحراسة، والمسيرات الانتحارية المستخدمة في حرب أوكرانيا. إذا كنا نسعى للسيطرة على استخدام الأسلحة الفتاكة ذاتية التشغيل فيجب أن نفهم تاريخ الأسلحة الحديثة.

قواعد الحرب

إبرام اتفاقات دولية، مثل معاهدة جنيف، لتنظيم التعامل مع أسرى الحرب أو المدنيين أثناء الصراع كان واحدة من الأدوات لمحاولة السيطرة على كيفية خوض الحروب.

لكن للأسف، استخدام الولايات المتحدة لأسلحة كيماوية في فيتنام، أو استخدام روسيا لها في أفغانستان، دليل على أن هذه الإجراءات غير كافية.

في عام 1997 تضمنت معاهدة أوتاوا منعاً لاستخدام الألغام الأرضية والقنابل العنقودية، ووقعت عليها 122 دولة، لكن الولايات المتحدة وروسيا والصين لم توقع.

وتتسبب الألغام الأرضية في جرح وقتل نحو 5 آلاف جندي ومدني سنوياً منذ عام 2015، وفي 2017 وصل العدد إلى 9440 شخصاً.

ويذكر تقرير الألغام الأرضية والقنابل العنقودية لعام 2022 أن «الخسائر في ارتفاع آخر 7 سنوات بعد عقد كامل من تراجع أعداد الضحايا، وهذا الارتفاع نتيجة زيادة الصراعات واستخدام الألغام المرتجلة منذ عام 2015، ويمثل المدنيون معظم الضحايا ونصفهم من الأطفال».

وهناك أدلة على أن روسيا وأوكرانيا (وهي موقعة على معاهدة أوتاوا) تستخدمان الألغام الأرضية، بالإضافة إلى أن أوكرانيا تعتمد على الطائرات المسيرة لتوجيه ضربات المدفعية وتستخدمها في الهجمات الانتحارية على البنية التحتية الروسية.

رغم الاعتراضات، يظل منع الأسلحة الفتاكة ذاتية التشغيل غير واقعي لسببين: الأول، أن هذه الأسلحة أصبحت واقعاً بالفعل مثل الألغام. الثاني أن الفرق بين الأسلحة الفتاكة ذاتية التشغيل والروبوتات القاتلة ضبابي ما يصعب عملية التفرقة بينهما. والقادة العسكريون سيجدون طرقاً للالتفاف حول المنع، وتصنيف الروبوتات القاتلة أسلحة دفاعية آلية وإدخالها إلى الخدمة.

في المستقبل سنرى استخدام المزيد من أنظمة الأسلحة المعتمدة على الذكاء الاصطناعي، لكن هذا لا يعني أننا يجب أن نغض الطرف عنها، فهناك قيود دقيقة ستساهم في محاسبة السياسيين وعلماء البيانات والمهندسين. على سبيل المثال يجب منع مفهوم الصندوق الأسود في الذكاء الاصطناعي، وهو يشير إلى نظام لا يستطيع المستخدم رؤية المدخلات والمخرجات فيه.

وأنظمة الذكاء الاصطناعي غير الموثوق بها، هي الأنظمة التي لم تختبر جيداً قبل تشغيلها.


مقالات ذات صلة

الذكاء الاصطناعي قد يكشف سمات شخصيتك من خلال صوتك

تكنولوجيا الذكاء الاصطناعي يمكنه اكتشاف سمات شخصيتك من مقطع صوتي لك (رويترز)

الذكاء الاصطناعي قد يكشف سمات شخصيتك من خلال صوتك

توصلت دراسة جديدة إلى أن الذكاء الاصطناعي يمكنه اكتشاف سمات شخصيتك من مقطع صوتي لك مدته 90 ثانية فقط.

«الشرق الأوسط» (لندن)
خاص تقدم «APS» أدوات تحليل بيانات فورية تساعد التجار على مراقبة المعاملات واتخاذ قرارات ذكية خلال فترات الذروة (أدوبي)

خاص «أمازون» تنتهز موسم الرياض لإثبات حضورها في خدمات الدفع الإلكتروني

تعالج «أمازون لخدمات الدفع الإلكتروني» تحديات الطلب المرتفع من خلال حلول قابلة للتطوير وبنية تحتية مصممة للتعامل مع زيادات الطلب بسلاسة.

نسيم رمضان (لندن)
يوميات الشرق شعار منصة «تلغرام» (رويترز)

دراسة: خوارزميات «تلغرام» تروج للمحتوى المتطرف

كشفت دراسة جديدة أن منصة التواصل الاجتماعي «تلغرام» تستخدم خوارزمية تروج للمحتوى المتطرف.

«الشرق الأوسط» (نيويورك)
الاقتصاد الرئيس التنفيذي المكلف لـ«الهيئة العامة للطرق» متحدثاً للحضور في إحدى الجلسات الحوارية (الشرق الأوسط)

السعودية تتبنى تقنيات حديثة لاستدامة شبكات الطرق وتمكين الخدمات اللوجيستية

كشف الرئيس التنفيذي المكلف لـ«الهيئة العامة للطرق»، المهندس بدر الدلامي، عن استخدام معدات حديثة لإعادة تدوير طبقات الطرق في السعودية.

«الشرق الأوسط» (الرياض)
يوميات الشرق كلما زاد التقاط الشخص لصور «السيلفي» كان ذلك مؤشراً على أنه معرض بشكل أكبر لأن يصبح نرجسياً (رويترز)

هل جعلت التكنولوجيا الأشخاص أكثر نرجسية؟

تعد الشخصية النرجسية من أكثر الشخصيات المثيرة للجدل، حيث يتسم أصحابها بالتركيز الشديد على ذاتهم والشعور بالعظمة والاستحقاق الزائد والحاجة المفرطة للإعجاب.

«الشرق الأوسط» (استوكهولم)

الرئيس التنفيذي السابق لـ«غوغل» يحذّر من التطور السريع لأنظمة الذكاء الاصطناعي

الرئيس التنفيذي السابق لشركة «غوغل» إيريك شميت (رويترز)
الرئيس التنفيذي السابق لشركة «غوغل» إيريك شميت (رويترز)
TT

الرئيس التنفيذي السابق لـ«غوغل» يحذّر من التطور السريع لأنظمة الذكاء الاصطناعي

الرئيس التنفيذي السابق لشركة «غوغل» إيريك شميت (رويترز)
الرئيس التنفيذي السابق لشركة «غوغل» إيريك شميت (رويترز)

حذَّر الرئيس التنفيذي السابق لشركة «غوغل» إيريك شميت من التطور السريع لأنظمة الذكاء الاصطناعي قائلاً إن هذه الأنظمة إذا وصلت لمرحلة يمكنها فيها تطوير وتحسين نفسها تلقائياً، فعندها ينبغي أن يتم فصلها والاستغناء عنها.

وفي مقابلة مع شبكة «إي بي سي»، قال شميت عن الذكاء الاصطناعي: «لم أرَ أبداً ابتكاراً بهذا الحجم. إنه إنجاز بشري رائع بكل تأكيد»، لكنه حذَّر من المخاطر غير المتوقعة لهذا التطور الجامح.

وأضاف: «قريباً سيطور العلماء أجهزة كمبيوتر قادرة على تشغيل وتطوير نفسها تلقائياً دون مساعدة بشرية، والقيام بأفعال ما بمفردها تماماً».

وأكد أنه عندما يبدأ النظام في «تحسين نفسه بنفسه»، فقد يكون الوقت قد حان للنظر في «فصله» والاستغناء عنه.

هناك مخاوف من المخاطر غير المتوقعة للتطور السريع لأنظمة الذكاء الاصطناعي (رويترز)

وعندما سُئل عما إذا كان النظام قد يكون قوياً بما يكفي ليصبح قادراً على مواجهة الجهود الرامية إلى فصله وإغلاقه، قال شميت: «من الناحية النظرية، من الأفضل أن يكون لدينا شخص لديه القدرة على التحكم في هذه الأنظمة مع تطورها وزيادة قوتها».

وأضاف: «قوة هذا الذكاء تعني أن كل شخص سوف يكون لديه عالم موسوعي في جيبه. ونحن لا نعرف ماذا يعني منح هذا النوع من القوة لكل فرد».

وأخبر شميت موقع «أكسيوس» الإخباري العام الماضي أن تطوير أجهزة الكمبيوتر تتخذ قراراتها الخاصة قد يحدث خلال عامين إلى أربعة أعوام فقط.

وهناك إجماع بين خبراء التكنولوجيا على أن نماذج الذكاء الاصطناعي التوليدي الأكثر قوة «يمكن أن تعمل بذكاء طالب دكتوراه»، في أقرب وقت ممكن من العام المقبل.