إسرائيل أول من استخدمتها... «أسراب من المسيّرات» تعمل بالذكاء الاصطناعي

جندية إسرائيلية تشغّل طائرات مسيّرة (موقع الجيش الإسرائيلي)
جندية إسرائيلية تشغّل طائرات مسيّرة (موقع الجيش الإسرائيلي)
TT

إسرائيل أول من استخدمتها... «أسراب من المسيّرات» تعمل بالذكاء الاصطناعي

جندية إسرائيلية تشغّل طائرات مسيّرة (موقع الجيش الإسرائيلي)
جندية إسرائيلية تشغّل طائرات مسيّرة (موقع الجيش الإسرائيلي)

تَعاظمَ دور الطائرات المسيّرة في الحروب الحديثة حتى أصبحنا نرى «حروب المسيّرات»، التي تُستخدم فيها أنواعٌ شتى من الطائرات دون طيار بكثافة، بدءاً من ناغورنو كاراباخ، وأوكرانيا، وصولاً إلى غزة وإيران، والآن قد نكون على أعتاب مرحلة جديدة من استخدامها في الحروب الحديثة.

والمقصود بالمرحلة الأولى من حرب المسيّرات، التي بدأت تقريباً في أوائل الألفية الجديدة بعدما، طلبت وكالة الاستخبارات المركزية الأميركية (سي آي إيه) تسليح الطائرات المسيّرة التابعة للبحرية بصواريخ «هيلفاير»؛ لاستخدامها في القصف، هو وجود الإنسان (المشغل البشري) مع الآلة في كل مرحلة تقريباً؛ من المراقبة واختيار الأهداف حتى تنفيذ الهجوم.

بينما المرحلة الثانية سيكون للذكاء الاصطناعي دورٌ أكبر فيها، حيث سيقدم للمشغل البشري عديداً من الخيارات بشأن الأهداف المحتملة، ويبقى للجندي قرار تنفيذ الغارة من عدمه.

وتستخدم إسرائيل عديداً من أنظمة الذكاء الاصطناعي القوية في حربها مع «حماس»، ما يثير تساؤلات حول قانونية وأخلاقية استخدام هذه الأنظمة، وأيضاً حول تحول العلاقة بين العسكريين والآلات، وفقاً لصحيفة «الغارديان» البريطانية.

وقال 6 ضباط على صلة بنظام الذكاء الاصطناعي الإسرائيلي «لافندر» إنه أدى دوراً مركزياً في حرب غزة، عن طريق معالجة البيانات لتحديد مواقع أعضاء حركتَي «حماس» و«الجهاد الإسلامي» لاستهدافهم. وأشاروا إلى أن «لافندر» حدد، في الفترة الأولى من الحرب، نحو 37 ألف هدف على ارتباط بالحركتين.

طائرات مسيّرة روسية خلال معرض دفاعي (أ.ب)

نشر موقع «نيو أميركا» المتخصص في شؤون الدفاع أن 38 دولة لديها برامج للتسلح بالمسيّرات، بينها 11 دولة استخدمت بالفعل الطائرات المسيّرة في النزاعات العسكرية.

واتجه عديد من الدول أخيراً للعمل على تطوير مفهوم «أسراب المسيّرات»، حيث يقوم عديد من المسيّرات خلال وجودها في الجو بالتواصل فيما بينها وتبادل المعلومات بغرض تحقيق هدف مشترك.

ويعرّف موقع «نيو ساينتست» «أسراب المسيّرات» على أنها «تطير بنفسها، ويتحكم بها الذكاء الاصطناعي، ويمكنها تغطية منطقة واسعة، وتستمر في العمل حتى لو فقدت بعضاً منها»، في حين أنه في العادة تحتاج كل طائرة مسيّرة لمشغل بشري واحد.

وقال المتحدث باسم الجيش الإسرائيلي، للموقع، إن نظام الأسراب استُخدم في مناطق القتال التي كان يطلق منها كثير من الصواريخ باتجاه إسرائيل. وتابع: «على حد علمي، هذا هو الاستخدام الأول لهذه الأداة».

جندية إسرائيلية تشغّل طائرات مسيّرة (موقع الجيش الإسرائيلي)

وأكد المتحدث أن المسيّرات التي استخدمتها بمفهوم «الأسراب» من إنتاج شركة «إلبيت» الإسرائيلية للصناعات الدفاعية تسمى «ثور»، ووزنها نحو 9 كيلوغرامات، وتحلق بواسطة 4 مراوح (كواد كوبتر)، ولا يصدر عنها أي صوت، وتعمل بجوار مسيّرات أخرى قادرة على القصف. وأشار إلى أنه «يتحكم في مسيّرات السرب جميعها مشغلٌ واحدٌ فقط، بجانبه قائد لاتخاذ القرارات».

لكن انتشار هذا المفهوم قد يأخذ بعض الوقت، حيث ستحتاج هذه الدول لامتلاك المئات، وربما الآلاف من المسيّرات، وإدماجها في نظام «أسراب» واحد لتحقيق هدف بعينه قد يكون تدمير غواصات العدو، أو التصدي لإنزال جوي واسع.

يمكن للطائرات المسيّرة، نظرياً، المشاركة في المهام العسكرية جميعها، فيمكنها استهداف أنظمة الدفاع الجوي، ما يمهد لهجمه من الطيران الحربي التقليدي، أو استخدام الطائرات المسيّرة الصغيرة، ذات القدرة على المناورة في جمع المعلومات الاستخباراتية والمراقبة.

الطائرة المسيّرة «كراتوس XQ-58 فالكيري» (موقع شرك كراتوس)

ومع ذلك، كما يذكر موقع معهد الحرب الحديثة التابع لأكاديمية «وست بوينت» العسكرية الأميركية، فإنه ليست كل «أسراب المسيّرات» بسيطة وصغيرة مثل الطائرات المسيّرة التجارية رباعية المراوح، فالقوات الجوية الأميركية تطور طائرات قتالية تعاونية معقدة مثل طائرة «كراتوس XQ-58 فالكيري»، التي ترافق وتدعم مقاتلات «إف-22» و«إف-35»؛ لتحقيق السيادة الجوية.

وتتكلف الطائرات القتالية التعاونية ما بين 20 و27 مليون دولار للطائرة الواحدة، وبها أنظمة متقدمة من الذكاء الاصطناعي والأتمتة.

وتهدف القوات الجوية الأميركية إلى استخدام هذه الطائرات بمفهوم «الأسراب»، لكن استخدام هذه الطائرات الكبيرة والمكلفة ضمن هذا المفهوم سيتطلب تقنيات أكثر تعقيداً وموارد أكبر بكثير ما تتطلبه طائرات «كواد كوبتر».


مقالات ذات صلة

في القيادة الذاتية... من يتحمّل القرار الأخلاقي عند اللحظة الحاسمة؟

تكنولوجيا مع انتشار السيارات ذاتية القيادة تبرز الحاجة إلى أنظمة قادرة على اتخاذ قرارات أخلاقية في مواقف مصيرية على الطريق (غيتي)

في القيادة الذاتية... من يتحمّل القرار الأخلاقي عند اللحظة الحاسمة؟

مع اقتراب انتشار السيارات الذاتية القيادة، تبرز تساؤلات أخلاقية حول قدرتها على اتخاذ قرارات مصيرية، ومن يتحمّل المسؤولية عند وقوع الحوادث.

نسيم رمضان (لندن)
تكنولوجيا استخدم المهاجمون قواعد بيانات سحابية غير مؤمنة لجمع بيانات حساسة ما يعكس ضعفاً في إعدادات الحماية لدى المستخدمين والمؤسسات

تسريب 16 مليار بيانات دخول في أكبر خرق أمني بالتاريخ

أكبر تسريب لبيانات الدخول في التاريخ يكشف عن 16 مليار سجل، دون أن يتضمن اختراقاً مباشراً لأي شركة كبرى، ما يسلط الضوء على خطورة ضعف الوعي الأمني لدى المستخدمين.

نسيم رمضان (لندن)
تكنولوجيا يتيح النظام للمستخدمين إنشاء مقاطع مدتها حتى 21 ثانية بخيارات حركة تلقائية أو مخصصة وبتكلفة منخفضة نسبياً (شاترستوك)

«ميدجورني» تدخل عالم الفيديو... صور متحركة يولّدها الذكاء الاصطناعي

أطلقت «ميدجورني» نموذجها الأول للفيديو «V1» الذي يتيح تحريك الصور باستخدام الذكاء الاصطناعي بسهولة وتكلفة منخفضة وسط إشادة المستخدمين ومخاوف قانونية.

نسيم رمضان (لندن)
تكنولوجيا «غارتنر»: نجاح تطبيق الذكاء الاصطناعي في اتخاذ القرار يعتمد على وجود حوكمة قوية وبُنية بيانات متماسكة (غيتي)

«غارتنر»: الذكاء الاصطناعي سيتخذ نصف قرارات الأعمال بحلول 2027

بحلول 2027، سيتولى الذكاء الاصطناعي نصف قرارات الأعمال، ما يعني أن نجاح المؤسسات سيتوقف على الحوكمة وجودة البيانات ووعي القادة بقدرات التقنية وحدودها.

نسيم رمضان (لندن)
تكنولوجيا ميزة «Search Live» تتيح للمستخدمين إجراء محادثات صوتية فورية مع محرك البحث... ما يقدّم تجربة بحث أكثر ذكاءً وتفاعلاً وواقعية (غوغل)

«غوغل» تطلق تجربة بحث صوتية مدعومة بالذكاء الاصطناعي

ميزة «Search Live» تتيح للمستخدمين إجراء محادثات صوتية فورية مع محرك البحث؛ ما يقدّم تجربة بحث أكثر ذكاءً وتفاعلاً وواقعية.

نسيم رمضان (لندن)

في القيادة الذاتية... من يتحمّل القرار الأخلاقي عند اللحظة الحاسمة؟

مع انتشار السيارات ذاتية القيادة تبرز الحاجة إلى أنظمة قادرة على اتخاذ قرارات أخلاقية في مواقف مصيرية على الطريق (غيتي)
مع انتشار السيارات ذاتية القيادة تبرز الحاجة إلى أنظمة قادرة على اتخاذ قرارات أخلاقية في مواقف مصيرية على الطريق (غيتي)
TT

في القيادة الذاتية... من يتحمّل القرار الأخلاقي عند اللحظة الحاسمة؟

مع انتشار السيارات ذاتية القيادة تبرز الحاجة إلى أنظمة قادرة على اتخاذ قرارات أخلاقية في مواقف مصيرية على الطريق (غيتي)
مع انتشار السيارات ذاتية القيادة تبرز الحاجة إلى أنظمة قادرة على اتخاذ قرارات أخلاقية في مواقف مصيرية على الطريق (غيتي)

مع اقتراب السيارات ذاتية القيادة من الاندماج في حياتنا اليومية، يبرز سؤال مصيري: ماذا يحدث عندما تضطر هذه المركبات لاتخاذ قرارات فورية قد تعني حياةً أو موتاً؟ ففي الوقت الذي يعمل فيه المهندسون على تحسين أجهزة الاستشعار وأنظمة الملاحة والنماذج الذكية، تظهر تحديات أعمق.

دراسة حديثة أجراها فريق من الباحثين قدّمت تجربة جديدة تماماً لاستكشاف هذا السؤال. ولكن هذه المرة، لم يُختبر فيها المهندسون أو عامة الناس، بل تم اختيار الفلاسفة كمشاركين أساسيين. الهدف هو الاستفادة من قرون من التفكير الأخلاقي لفهم كيف يمكن ترجمة القيم إلى خوارزميات قيادة.

تطوير لمعضلة «عربة الترام»

بُنيت الدراسة على معضلة «عربة الترام» الشهيرة، وهي تجربة فكرية أخلاقية تطرح أسئلة حول الاختيار بين نتيجتين ضارتين. لكن بدلاً من تقديم سيناريوهات نظرية، ركّز الباحثون على مواقف واقعية قد تواجهها سيارات ذاتية القيادة على الطرقات. في أحد السيناريوهات، قد تضطر السيارة للاختيار بين الانحراف ودهس أحد المشاة أو الاستمرار في المسار وتعريض الركاب للخطر. وفي آخر، يجب المفاضلة بين عدد من الأشخاص الذين يعبرون الشارع بشكل غير قانوني وطفل يعبر في ممر مشاة. هذه قرارات معقدة تتطلب أكثر من استجابة تقنية، بل إنها تستدعي حكماً أخلاقياً.

تواجه أخلاقيات الذكاء الاصطناعي تحديات كبيرة مثل اختلاف القيم بين الثقافات وصعوبة اتخاذ قرارات فورية في مواقف طارئة (غيتي)

لماذا الفلاسفة؟

اختيار الفلاسفة لم يكن صدفة؛ فهم المتخصصون في معالجة المناطق الرمادية من السلوك البشري. من خلال تحليل ردود فعلهم على هذه المواقف، يأمل الباحثون استخلاص أنماط يمكن تحويلها إلى منطق برمجي. فعلى عكس الدراسات التي تعتمد على الرأي العام، تضيف هذه المقاربة طبقة من العمق؛ فهي لا تسأل فقط عما يفعله الناس، بل ما يجب عليهم فعله. إنه فارق جوهري في بناء أنظمة ذكاء اصطناعي تتصرف بشكل أخلاقي، لا فقط شعبوي.

وتهدف الدراسة إلى المساهمة في بناء «الأطر الميتا-أخلاقية»، وهي أنظمة عليا توجه سلوك الخوارزميات في المواقف المعقّدة. هذه الأطر ليست أوامر جامدة، بل مناهج مرنة تسمح للذكاء الاصطناعي باتخاذ قرارات محسوبة بناءً على السياق. هذه المعرفة قد تؤثر مستقبلاً على مجالات مثل التنظيم القانوني والتأمين والمسؤولية، والأهم ثقة الجمهور؛ فكلما شعر الناس بأن السيارة الذكية تفكر أخلاقياً، زادت احتمالات قبولهم لها.

الوعي الاجتماعي على الطريق

تشير دراسات أخرى إلى أن إدماج «الوعي الاجتماعي» في أنظمة القيادة الذاتية، يمكن أن يقلّل من الحوادث بشكل ملحوظ. فعندما يتم تدريب الأنظمة على توقع تصرفات البشر، كأن يتوقع النظام عبور طفل مفاجئاً في منطقة مدارس، تقل فرص الاصطدام وتحسن النتائج للركاب والمشاة على حد سواء. وهذا يعزز فكرة أن الأخلاق في الذكاء الاصطناعي لا تعني فقط كيفية التصرف في أسوأ السيناريوهات، بل كيفية تجنبها من الأساس.

خبراء يقولون إن نجاح القيادة الذاتية في المستقبل لن يعتمد فقط على التقنية بل على دمج التفكير الأخلاقي والتعاون بين المجتمع والتقنيين والمشرّعين (شاترستوك)

التحديات المقبلة

لكن حتى أكثر النماذج الأخلاقية تقدماً ستواجه تحديات عملية. القرارات على الطرقات تُتخذ في أجزاء من الثانية، في حين تستغرق المعايير الفلسفية وقتاً لا يتناسب مع سرعة الحياة الواقعية. كما أن التحيز الثقافي وتحديد المسؤولية القانونية وإمكانية التوحيد بين الدول... كلها مسائل لم تُحل بعد؛ فقرار تعتبره ثقافة معينة أخلاقياً، قد ترفضه أخرى. وصول السيارات ذاتية القيادة يفتح الباب لثورة في عالم التنقل، لكنها لن تنجح بالاعتماد على الأجهزة فقط. تُظهر هذه الدراسة أن برمجة المنطق الأخلاقي باتت جزءاً لا يمكن تجاهله من تصميم الأنظمة.

التحدي لم يعد تقنياً فحسب، بل أخلاقياً أيضاً، ومعالجته تتطلب تعاوناً بين المهندسين والفلاسفة وصنّاع القرار، والمجتمع ككل. ففي مستقبل قد تتخذ فيه السيارة قرارات مصيرية نيابة عن السائق، لن يكون السؤال فقط: «هل تقود السيارة جيداً؟»، بل: «هل تقود بحكمة؟».