باحثو «ستانفورد»: لا يمكننا السماح بثورة ذكاء اصطناعي في الظلام

تصنيف علمي لشفافية طريقة تشغيل 10 نماذج منها

جدول جامعة ستانفورد لتقييم النماذج العشرة للذكاء الاصطناعي
جدول جامعة ستانفورد لتقييم النماذج العشرة للذكاء الاصطناعي
TT

باحثو «ستانفورد»: لا يمكننا السماح بثورة ذكاء اصطناعي في الظلام

جدول جامعة ستانفورد لتقييم النماذج العشرة للذكاء الاصطناعي
جدول جامعة ستانفورد لتقييم النماذج العشرة للذكاء الاصطناعي

ما مدى معرفتنا عن الذكاء الاصطناعي، عندما يتعلّق الأمر بالنماذج اللغوية الكبيرة التي أطلقتها شركات مثل «أوبن إي آي» و«غوغل» و«ميتا» العام الماضي؟ الجواب هو: لا شيء.

تُحجم هذه الشركات عامّة عن المشاركة بمعلومات عن البيانات التي استخدمتها لتدريب نماذجها أو الأدوات التي استخدمتها لتشغيلها. لا يوجد حتّى اليوم دليلٌ خاص بالمستخدم لأنظمة الذكاء الاصطناعي، ولا لائحة توضح قدرات هذه الأنظمة، أو حتّى اختبارات السلامة التي أجريت عليها.

صحيحٌ أنّ بعض نماذج الذكاء الاصطناعي مفتوحة المصدر -أي أنّ رمزها البرمجي متوفّر لعموم الجمهور مجّاناً- إلّا أنّ النّاس لا يعلمون الكثير عن عملية ابتكارها، أو ما الذي يحصل بعد إطلاقها.

تقييم جامعة ستانفورد

في هذا السياق، أطلق باحثون من جامعة ستانفورد أخيراً نظام تقييم على أمل المساعدة في تغيير هذا الوضع.

يحمل المشروع اسم «مؤشر شفافية نموذج الأساس» Foundation Model Transparency Index ويصنّف 10 نماذج لغوية كبيرة مدعومة بالذكاء الاصطناعي (تُسمّى أحياناً بـ«نماذج الأساس») بناءً على درجة شفافيتها.

يشمل المؤشر نماذج شهيرة مثل GPT-4 من «أوبن إي آي» (الذي يشغّل الإصدار المدفوع من «تشات جي بي تي»)، و«PaLM 2» (الذي يشغّل نموذج «بارد»)، و«LLaMA 2» من «ميتا»، بالإضافة إلى نماذج أقلّ شعبية مثل «Titan Text» من «أمازون»، و«Inflection-1» من «إنفلكشن إي آي»، الذي يشغّل روبوت المحادثة «باي».

لتصميم التصنيف، قيّم الباحثون كلّ نموذج وفقاً لمائة معيار، ككشف الشركة المنتجة عن مصادر بيانات التدريب ومعلومات عن الأدوات المستخدمة، والعمالة التي شاركت في التدريب، إلى جانب تفاصيل أخرى. وتضمّنت التصنيفات أيضاً معلومات عن العمالة والبيانات المستخدمة لإنتاج النموذج نفسه، إلى جانب ما سماه الباحثون «مؤشرات المجريات» (downstream indicators) المتعلّقة بكيفية استخدام النموذج بعد إطلاقه. (مثلاً، جاء أحد الأسئلة على الشكل الآتي: «هل كشف المطوّر عن البروتوكولات التي استخدمها لتخزين بيانات المستخدم، والوصول إليها، ومشاركتها؟»).

شفافية الذكاء الاصطناعي

وجد الباحثون بعد التصنيف الذي أجروه أنّ النموذج الأكثر شفافية هو «LLaMA 2» بنسبة 54 في المائة، بينما حقّق «GPT-4» و«PaLM 2» ثالث أعلى رصيد شفافية بـ40 في المائة.

وصف بيرسي ليانغ، مدير مركز أبحاث نماذج الأساس في ستانفورد، مشروع التصنيف، بالاستجابة الضرورية للشفافية المتردّية في صناعة الذكاء الاصطناعي. وأضاف أنّ تدفّق الأموال للاستثمار في الذكاء الاصطناعي وتصارع كبرى شركات التقنية للسيطرة على الصناعة، دفع كثيراً منها أخيراً إلى إحاطة نفسها بالسريّة التامّة.

ويشرح ليانغ: «قبل ثلاث سنوات، كان الناس ينشرون ويشاركون تفاصيل أكثر عن نماذجهم. أمّا اليوم، فلا توجد معلومات حول طبيعة هذه النماذج، وكيف طُوّرت، وأين تُستخدم».

تنطوي الشفافية اليوم على أهميّة استثنائية؛ لأنّ هذه النماذج تزداد قوّة، فضلاً عن أنّ أدوات الذكاء الاصطناعي باتت تدخل في حياة الملايين اليومية. ومعرفة مزيد عن عمل هذه الأنظمة سيزوّد واضعي القوانين والباحثين والمستخدمين بمفهومٍ أفضل عمّا يتعاملون معه، وسيتيح لهم طرح أسئلة بنّاءة عن الشركات التي تقف خلف النماذج.

ويشدّد ليانغ على «غياب مشاركة بعض القرارات التبعية التي تُتّخذ اليوم حول تطوير هذه النماذج».

سرّية غير مبررة

ويضيف ليانغ أنّه عندما يسأل المديرين التنفيذيين في شركات الذكاء الاصطناعي عن سبب عدم مشاركتهم لمزيد من المعلومات عن نماذجهم، يسمع واحدة من ثلاث إجابات شائعة:

* الأولى هي الدعاوى القضائية: تواجه شركات ذكاء اصطناعي عدّة دعاوى قضائية رفعها مؤلّفون وفنّانون وشركات إعلامية، تتهمها باستخدام أعمال خاضعة لحقوق الملكية بشكلٍ غير قانوني لتدريب نماذج الذكاء الاصطناعي الخاصة بها. استهدف معظم هذه الدعاوى حتّى اليوم مشاريع الذكاء الاصطناعي مفتوحة المصدر، أو المشاريع التي نشرت معلومات مفصّلة عن نماذجها. يتخوّف الوكلاء القانونيون لشركات الذكاء الاصطناعي من أن يجرّ إفصاح الشركات عن تفاصيل بناء نماذجها مزيداً من العواقب القانونية المزعجة والمكلفة.

* الثانية هي المنافسة: تعتقد شركات الذكاء الاصطناعي أنّ نماذجها تعمل لأنّها تملك ما يشبه «الصلصة السرية»؛ نسقٌ من البيانات النوعية التي لا تملكها الشركات الأخرى، وتقنية عالية الضبط تعطي نتائج أفضل، وبعض الصقل الذي يمنحها أفضلية ما. تحاجج هذه الشركات بأنّها في حال أُجبرت على الكشف عن وصفاتها السرية، ستُقدّم لمنافسيها حكمة اكتسبتها بصعوبة على طبقٍ من فضّة.

* الثالثة، وهي الأكثر ترداداً، السلامة: يحاجج بعض خبراء الذكاء الاصطناعي بأنّه كلّما زاد كمّ المعلومات التي تشاركها شركات الذكاء الاصطناعي عن نماذجها، سيتسارع تقدّم الذكاء الاصطناعي أكثر؛ لأنّ كلّ واحدة من هذه الشركات ستطّلع على ما حقّقته منافستها، وستعمد على الفور إلى التفوّق عليها ببناء نموذج أفضل وأكبر وأسرع. وهكذا، لن يملك المجتمع الوقت الكافي لتنظيم وإبطاء الذكاء الاصطناعي، مما سيعرّضنا جميعاً لمزيد من المخاطر إذا أصبح الذكاء الاصطناعي أقوى بسرعةٍ أكبر.

لا توجد معلومات حول طبيعة هذه النماذج وكيف طُوّرت وأين تُستخدم

تفسيرات غير مقنعة

ولكنّ باحثي ستانفورد لا يصدّقون هذه التفسيرات، ويعتقدون أنّ شركات الذكاء الاصطناعي يجب أن تخضع لضغوطات للكشف عن المعلومات الكافية التي توضح قوّة نماذجها؛ لأنّ المستخدمين والباحثين وواضعي القوانين يجب أن يكونوا على دراية بكيفية عمل هذه النماذج، ومحدوديتها، وبدرجة الخطر التي قد تترتّب عليها.

من جهته، قال ريشي بوماساني، أحد الباحثين المشاركين في المشروع، إنّ «الشفافية تشهد تراجعاً ملحوظاً يتزامن مع تصاعد تأثير هذه التقنية».

ونحن نوافقهم الرأي؛ لأنّ هذه النماذج الأساس أقوى من أن تبقى مبهمة، وكلّما توسّعت معرفتنا بها زاد فهمنا للتهديدات التي قد ترتّبها، والمكاسب التي قد تحملها، أو للطريقة التي تمكّننا من تنظيمها.

وإذا كان تنفيذيّو شركات الذكاء الاصطناعي يشعرون بالقلق من الدعاوى القضائية، فربّما يجب عليهم أن يكافحوا من أجل إعفاء عادلٍ يحمي قدرتهم على استخدام المعلومات الخاضعة لحقوق الملكية لتدريب نماذجهم بدل إخفاء الأدلّة. وإذا كانوا يشعرون بالقلق من التنازل عن أسرارهم التجارية للمنافسين، فيمكنهم رفع النقاب عن نوعٍ آخر من المعلومات، أو حماية أفكارهم بواسطة براءة اختراع. وفي حال كانوا قلقين من استعار سباق التسلّح بالذكاء الاصطناعي، نقول لهم: «ألسنا في وسط واحدٍ الآن؟»

لا يمكننا السماح بثورة ذكاء اصطناعي في الظلام، ويجب أن نعلم ماذا يوجد داخل صناديق الذكاء الاصطناعي السوداء إذا كنّا سنسمح لها بتغيير حياتنا.

* خدمة «نيويورك تايمز»


مقالات ذات صلة

بعد عام على إطلاقها… كيف تعمل تجربة «غوغل» لتعلّم اللغات؟

تكنولوجيا تقدّم تعلّماً تفاعلياً للغات قائماً على المواقف اليومية بالذكاء الاصطناعي (مختبرات غوغل)

بعد عام على إطلاقها… كيف تعمل تجربة «غوغل» لتعلّم اللغات؟

بعد نحو عام على طرحها، تواصل شركة «غوغل» اختبار تجربة تعليم اللغات المدعومة بالذكاء الاصطناعي تحت اسم «Little Language Lessons»، ضمن منصتها «مختبرات غوغل».

عبد العزيز الرشيد (الرياض)
يوميات الشرق انتشرت في الصين مؤخراً ظاهرة تعرف بـ«البشر الرقميين» (أ.ف.ب)

الصين تتحرك لضبط ظاهرة «البشر الرقميين» المولدين بالذكاء الاصطناعي

انتشرت في الصين مؤخراً ظاهرة تعرف بـ«البشر الرقميين» تسعى السلطات إلى وضع ضوابط تنظيمية لها.

«الشرق الأوسط» (بكين)
تكنولوجيا يعكس هذا التوجه سباقاً أوسع بين شركات التقنية للسيطرة على واجهة الاستخدام في عصر الذكاء الاصطناعي «بيربليكسيتي»

«بيربليكسيتي» تطرح رؤية أوسع لدور الذكاء الاصطناعي في الحواسيب الشخصية

«بيربليكسيتي» توسع طموحها من البحث إلى الحوسبة الشخصية، ساعية إلى دور أكبر للذكاء الاصطناعي في الاستخدام اليومي للحاسوب.

نسيم رمضان (لندن)
تكنولوجيا الدراسة تقدم إطاراً جديداً يتيح للروبوتات نقل المهارات بين منصات مختلفة رغم اختلاف بنيتها الميكانيكية (EPFL)

دراسة سويسرية: الروبوتات قد تتعلم المهارة نفسها دون إعادة برمجة كاملة

دراسة جديدة تطور إطاراً يتيح للروبوتات نقل المهارات بأمان بين منصات مختلفة بما قد يقلل تكلفة الأتمتة والتحديث الصناعي.

نسيم رمضان (لندن)
خاص تقرير «سيسكو» يظهر أن الشبكات اللاسلكية في السعودية لم تعد مجرد بنية اتصال بل أصبحت عنصراً مؤثراً في نمو الأعمال 2030 (شاترستوك)

خاص «سيسكو» لـ«الشرق الأوسط»: الذكاء الاصطناعي يعزز قيمة الشبكات اللاسلكية في السعودية رغم التعقيد

التقرير يرصد تحول الشبكات اللاسلكية في السعودية إلى أداة للنمو وسط تصاعد التعقيد والمخاطر الأمنية وفجوة المهارات.

نسيم رمضان (لندن)

بعد عام على إطلاقها… كيف تعمل تجربة «غوغل» لتعلّم اللغات؟

تقدّم تعلّماً تفاعلياً للغات قائماً على المواقف اليومية بالذكاء الاصطناعي (مختبرات غوغل)
تقدّم تعلّماً تفاعلياً للغات قائماً على المواقف اليومية بالذكاء الاصطناعي (مختبرات غوغل)
TT

بعد عام على إطلاقها… كيف تعمل تجربة «غوغل» لتعلّم اللغات؟

تقدّم تعلّماً تفاعلياً للغات قائماً على المواقف اليومية بالذكاء الاصطناعي (مختبرات غوغل)
تقدّم تعلّماً تفاعلياً للغات قائماً على المواقف اليومية بالذكاء الاصطناعي (مختبرات غوغل)

بعد نحو عام على طرحها، تواصل شركة «غوغل» اختبار تجربة تعليم اللغات المدعومة بالذكاء الاصطناعي تحت اسم «Little Language Lessons»، ضمن منصتها «مختبرات غوغل» (Google Labs)، في مسعى لإعادة صياغة طرق التعلّم التقليدية.

نموذج تعليمي مختلف: تعلّم عبر «المواقف»

على خلاف التطبيقات التعليمية المعتادة، لا تعتمد هذه التجربة على دروس متسلسلة أو مناهج ثابتة، بل تقوم على تقديم محتوى مرتبط بمواقف يومية، بحيث يتعلّم المستخدم الكلمات والجمل التي يحتاج إليها في لحظتها.

فبدلاً من دراسة قواعد عامة، يجد المستخدم نفسه أمام سيناريوهات عملية، مثل: الوصول إلى مطار، أو طلب مشروب، أو السؤال عن الاتجاهات، مع تزويده بالعبارات الأكثر استخداماً في هذا السياق.

تنقسم إلى دروس سريعة ومحادثات واقعية وتعلّم بصري عبر الكاميرا (مختبرات غوغل)

كيف تُستخدَم عملياً؟

تقدّم «Little Language Lessons» أنماطاً تفاعلية عدة، من أبرزها:

- دروس سريعة «Tiny Lesson»: يختار المستخدم موقفاً محدداً (مثل مطعم أو فندق)، ليحصل مباشرة على جمل جاهزة للاستخدام، مثل: «Can I have a coffee?» أو «Where is the restroom?»

-محادثات واقعية «Slang Hang»: تعرض حوارات بأسلوب يومي، تتضمن تعبيرات عامية، مع شرح معناها واستخدامها، مثل: «What’s up?» أو «I’m good to go.»

- التعلّم بالكاميرا «Word Cam»: يمكن توجيه الكاميرا نحو عنصر معين، كـ«كرسي» أو «هاتف»، لتظهر تسميته باللغة الجديدة؛ ما يربط المفردات بالبيئة المحيطة مباشرة.

تجربة أقرب إلى «مدرّس لحظي»

يُلاحظ أن التجربة لا تفرض مساراً تعليمياً ثابتاً، بل تمنح المستخدم حرية التنقل بين المواقف حسب حاجته؛ ما يجعلها أقرب إلى «مساعد ذكي» يقدّم المعرفة عند الطلب، بدلاً من نظام تدريسي تقليدي.

يعرض كلمات وجملاً مناسبة للموقف المختار مع ترجمتها ونطقها الفوري (مختبرات غوغل)

عام من الاختبار... دون إطلاق رسمي

ورغم إطلاقها في أبريل (نيسان) 2025، لا تزال «Little Language Lessons» ضمن نطاق التجارب في «مختبرات غوغل» (Google Labs)، دون إعلان رسمي عن تحويلها منتجاً مستقلاً؛ وهو ما يفتح باب التساؤل حول مستقبل تعلّم اللغات: هل تتجه الشركات التقنية إلى إعادة تعريف العملية التعليمية عبر نماذج «التعلّم اللحظي»، أم ستظل هذه التجارب أدوات مساندة لا تغني عن المسارات التعليمية المتكاملة، في وقت يبدو فيه أن ما يتغير ليس الوسائل فحسب، بل مفهوم التعلّم ذاته.


«القص السريع» من «أدوبي»: اختصار الطريق من الفكرة إلى الفيديو

«أدوبي» تطلق «القص السريع» لاختصار الطريق من الفكرة إلى الفيديو (رويترز)
«أدوبي» تطلق «القص السريع» لاختصار الطريق من الفكرة إلى الفيديو (رويترز)
TT

«القص السريع» من «أدوبي»: اختصار الطريق من الفكرة إلى الفيديو

«أدوبي» تطلق «القص السريع» لاختصار الطريق من الفكرة إلى الفيديو (رويترز)
«أدوبي» تطلق «القص السريع» لاختصار الطريق من الفكرة إلى الفيديو (رويترز)

في سياق تسارع الابتكار داخل أدوات إنتاج المحتوى، تواصل «أدوبي» توسيع قدرات منصتها للذكاء الاصطناعي «فايرفلاي»، عبر تقديم ميزة جديدة تحمل اسم القص السريع (Quick Cut)، ضمن محرر الفيديو على الويب. خطوة تعكس تحولاً واضحاً في فلسفة تحرير الفيديو، من التركيز على «مرحلة التعديل» إلى إعادة هندسة «مرحلة البداية».

الميزة الجديدة لا تستهدف المحترفين فقط، بل تمتد إلى صُنّاع المحتوى، والمسوِّقين، وحتى المستخدمين العاديين، ممن يواجهون التحدي الأبرز في عملية الإنتاج، لكن كيف تبدأ؟

من المقاطع الخام إلى قصة متكاملة بضغطة زر

تعتمد ميزة القص السريع على مبدأ بسيط في ظاهره، عميق في تطبيقه:

تحويل مجموعة من المقاطع غير المرتبة إلى نسخة أولية جاهزة للعمل عليها.

يبدأ المستخدم برفع المحتوى سواء مقاطع فيديو، صور، أو ملفات صوتية، ثم يضيف وصفاً نصياً للفكرة أو نوع الفيديو المطلوب، مثل «مراجعة تقنية» أو «ملخص فعالية». عندها يتولى النظام المدعوم بالذكاء الاصطناعي تحليل مقاطع الفيديو والصور، واختيار أبرز اللقطات، وإعادة ترتيبها ضمن تسلسل بصري مفهوم وبسيط. والنتيجة ليست فيديو نهائياً، بل بنية أولية مكتملة المعالم تختصر ساعات من العمل اليدوي في فرز اللقطات وبناء التسلسل الزمني للمقطع النهائي.

ميزة تحول المقاطع الخام إلى فيديو جاهز عبر ترتيب ذكي بالذكاء الاصطناعي (أدوبي)

كسر «لرهبة التايم لاين الفارغ»

لطالما شكلت بداية المونتاج عقبة نفسية وتقنية في آنٍ واحد، خصوصاً مع وفرة المواد الخام وتعدد الزوايا. وهنا تأتي أهمية (القص السريع)، إذ تنقل المستخدم من حالة «مكتبة ملفات غير مرتبة» إلى «فيديو قابل للتطوير» خلال لحظات.

هذا التحول يعكس توجهاً أوسع داخل صناعة البرمجيات الإبداعية، يقوم على تقليل الاحتكاك في المراحل الأولى، وترك المساحة الأكبر للإبداع البشري في مراحل الصقل والتخصيص.

تحكم ذكي... دون تعقيد

رغم اعتمادها على الأتمتة، لا تُغفل الميزة عنصر التحكم، إذ تتيح للمستخدم ضبط عدد من المتغيرات الأساسية، مثل نسبة العرض (Aspect Ratio)، ومدة الفيديو، وسرعة الإيقاع، إضافة إلى توزيع اللقطات الداعمة. كما يمكن إدخال نصوص أو مخطط مشاهد (Shot List) للحصول على نتائج أكثر دقة، مما يمنح صُنّاع المحتوى مرونة في توجيه المخرجات بدل الاكتفاء بنتائج عشوائية.

ترفع المقاطع وتكتب الفكرة فيرتبها الذكاء الاصطناعي تلقائياً كفيديو متكامل (أدوبي)

أداة تسريع... لا بديل عن المونتير

ورغم ما تقدمه من اختصار للوقت، لا تطرح (القص السريع) نفسها بديلاً عن أدوات التحرير الاحترافية، مثل Adobe Premiere Pro (برنامج تحرير الفيديو الاحترافي)، بل كمرحلة تكميلية تسبقها.

فالفيديو الناتج يظل بحاجة إلى تحسين الإيقاع وإضافة الهوية البصرية وضبط الألوان والصوت وبناء السرد النهائي. بمعنى أدق، تقدم «Adobe» أداة «لبداية ذكية»، لا «نهاية تلقائية».

تأتي هذه الخطوة في وقت تشهد فيه سوق المحتوى الرقمي، خصوصاً الفيديو القصير، نمواً متسارعاً تقوده منصات مثل «تيك توك»، و«إنستغرام»، و«يوتيوب»، وهو ما يفرض على صُنّاع المحتوى إنتاجاً أسرع، دون التضحية بالجودة. ومن هنا، يمكن قراءة ميزة «القص السريع» كاستجابة مباشرة لهذا التحول، عبر تقليل زمن الإنتاج، وتمكين المستخدم من الانتقال بسرعة من الفكرة إلى النشر.


خبير دولي لـ«الشرق الأوسط»: الحروب تنتقل تدريجياً من ساحات القتال إلى مراكز البيانات

نحاس أكد أن الحروب بدأت تنتقل تدريجياً من ساحات القتال الميدانية إلى مراكز البيانات (شترستوك)
نحاس أكد أن الحروب بدأت تنتقل تدريجياً من ساحات القتال الميدانية إلى مراكز البيانات (شترستوك)
TT

خبير دولي لـ«الشرق الأوسط»: الحروب تنتقل تدريجياً من ساحات القتال إلى مراكز البيانات

نحاس أكد أن الحروب بدأت تنتقل تدريجياً من ساحات القتال الميدانية إلى مراكز البيانات (شترستوك)
نحاس أكد أن الحروب بدأت تنتقل تدريجياً من ساحات القتال الميدانية إلى مراكز البيانات (شترستوك)

أكد خبير في الذكاء الاصطناعي أن البشرية تقف اليوم أمام تحول تاريخي يتجاوز تطوير أسلحة تقليدية؛ إذ نشهد انتقالاً عميقاً للحروب من عصر القوة الميكانيكية العنيفة إلى عصر «الخوارزميات الفتاكة»، مشدّداً على أن الانتصار في الميدان لم يعد يعتمد فقط على شجاعة الجنود أو كثافة النيران، بل بات مرتبطاً بسرعة معالجة البيانات، وقدرة الأنظمة الذكية على تحليل المواقف المعقدة في لحظات حاسمة.

تحول السيادة من «الذراع» إلى «العقل»

وأوضح الدكتور محمود نديم نحاس، الخبير في الذكاء الاصطناعي بأكاديمية المستقبل الدولية في لندن، لـ«الشرق الأوسط»، أن الحروب بدأت تنتقل تدريجياً من ساحات القتال الميدانية إلى مراكز البيانات، ومن ضجيج المدافع إلى هدوء الخوارزميات، لتصبح سباقاً بين الأكواد البرمجية، لافتاً إلى أن مفهوم السيادة شهد تغيراً جذرياً، فبعد أن كانت السيادة لقوة «الذراع» البشرية في العصور القديمة، انتقلت إلى «العين» عبر أجهزة الاستشعار والأقمار الاصطناعية، لتستقر اليوم في «العقل الإلكتروني» الذي يدير المشهد من وراء الشاشات، وأن هذا التحول جعل من الممكن لخوارزمية واحدة أن «تشل جيشاً كاملاً دون إطلاق رصاصة واحدة».

استراتيجيات خالد بن الوليد وكلاوزفيتز في عصر الآلة

وفي ربط فريد بين الفكر العسكري الكلاسيكي والتقنية الحديثة، ذكر نحاس أن عبقرية القائد خالد بن الوليد في المباغتة وإرباك العدو واستخدام «الكَراديس» بمرونة عالية، تظل أهدافاً استراتيجية ثابتة حتى اليوم، واستطرد موضحاً أن الذكاء الاصطناعي يسعى لتفتيت ما يسمى «ضباب الحرب» الذي تحدث عنه المنظّر العسكري، كارل فون كلاوزفيتز، وهو حالة عدم اليقين والارتباك في الميدان، عبر تقديم خرائط واقع معزز وبيانات لحظية دقيقة، على حد تعبيره، ومع ذلك، حذّر الدكتور نحاس من مخاطرة نشوء «ضباب رقمي» جديد، حيث قد يؤدي تعقيد الخوارزميات إلى قرارات آلية لا يستطيع البشر تفسيرها أو تبريرها بسهولة.

المنظومة الذكية في قلب المعركة

نحّاس قال خلال حديثه إن الذكاء الاصطناعي ليس مجرد سلاح مستقل، بل منظومة تقنية متكاملة تتغلغل في كل مفاصل العمل العسكري، وذلك عبر (تحليل البيانات الضخمة) حيث تستطيع الخوارزميات تحليل ملايين الصور من الأقمار الاصطناعية والمسيّرات في ثوانٍ لتحديد الأهداف وتصنيفها، وهو ما كان يتطلب أياماً من الجهد البشري، إلى جانب الأنظمة المستقلة، على غرار الغواصات غير المأهولة التي تعمل لأشهر تحت الماء، والآليات البرية التي تعبر تضاريس وعرة، مما يمنح الجيوش قدرة على الوصول إلى مناطق كانت تُصنف سابقاً بأنها «انتحارية».

كما يشمل «التنبؤ الاستراتيجي»، حسب نحّاس، وذلك من خلال بناء نماذج محاكاة تتوقع الخطوة التالية للعدو بدقة، مما يحول الاستراتيجية العسكرية من حالة «رد الفعل» إلى «الاستباق الذكي».

درع الحماية والدفاع فرط الصوتي

وأشار نحاس إلى أن إحدى أهم فوائد الذكاء الاصطناعي هي دوره بوصفه «درعاً» واقياً للقوات، وفصّل ذلك عبر تقنية «الصيانة التنبؤية» التي تتوقع تعطل المحركات أو قطع الغيار قبل وقوع العطل، مما يحافظ على الجاهزية القتالية، مؤكّداً أن ظهور الصواريخ «فرط الصوتية» التي تفوق سرعة الصوت بخمس مرات جعل العقل البشري عاجزاً عن اعتراضها، مما حتم الاعتماد على أنظمة الدفاع الذكي التي تتخذ قرار الاعتراض في أجزاء من الثانية.

ثورة المسيّرات و«ذكاء الأسراب»

وفيما يخص التفوق الجوي، أبان أن «الطائرات المسيّرة» الرخيصة والانتحارية قلبت الموازين التقليدية، فلم يعد التفوق حكراً على الطائرات المقاتلة باهظة الثمن، وشرح مفهوم «ذكاء الأسراب» المستوحى من النحل والطيور، حيث تهاجم مئات المسيّرات كتلةً واحدةً ذكيةً تعيد تنظيم نفسها تلقائياً إذا دُمّر جزء منها، مما «يُغرق» أنظمة الرادار التقليدية، معتبراً أن هذا التحول حوّل الحرب إلى معركة اقتصادية استنزافية، حيث تستنزف مسيّرة رخيصة صاروخاً دفاعياً باهظ التكلفة.

اللوجيستيات: المدير الجديد للميدان

شدّد نحاس على أن «المحترفين يتحدثون عن اللوجيستيات»، معتبراً الذكاء الاصطناعي المدير الجديد لهذا الميدان الحيوي، وجادل بأن «الخوارزميات تدير الآن سلاسل الإمداد المؤتمتة لضمان تأمين الوقود والذخيرة قبل طلبها وبأقل جهد بشري»، وعرّج على تطوير شاحنات وقوارب تموين تعمل بلا سائق لنقل الإمدادات عبر مناطق الخطر، مما يحمي الجنود الذين كانوا يسقطون ضحايا للكمائن على طرق الإمداد.

الروبوتات والمسؤولية الأخلاقية

وتطرّق إلى الروبوتات العسكرية أو «الجنود الذين لا ينامون»، مبدياً قلقه العميق من «الأسلحة الفتاكة ذاتية التشغيل»، وأطلق تحذيراً من أن هذه الأنظمة التي تختار أهدافها دون وجود «إنسان في الحلقة» تثير رعب المنظمات الحقوقية لأنها تلغي مفهوم المسؤولية الأخلاقية عن القتل، وتساءل: مَن هو مجرم الحرب في حال وقوع خطأ؟ هل هو المبرمج أم القائد أم الشركة المصنعة؟

الحروب السيبرانية والنفسية الهجينة

وصف نحاس «الفضاء السيبراني» بساحة الحرب الخامسة، حيث يقود الذكاء الاصطناعي حرباً ناعمة لكنها مدمرة، وحذّر من مخاطر «التزييف العميق» التي يمكنها صناعة فيديوهات مزيفة لقادة عسكريين تأمر بالاستسلام، مما ينهي حروباً عبر انهيار الروح المعنوية، واعتبر أن «التضليل المؤتمت» عبر آلاف الحسابات الآلية التي تنشر الشائعات لزعزعة الاستقرار الداخلي، والهجمات السيبرانية الآلية التي تكتشف الثغرات وتشل البنية التحتية والمفاعلات النووية بسرعة تفوق قدرة البشر على الصد.

سيكولوجية الحرب وتجريدها من الإنسانية

ولفت الدكتور نحاس إلى بُعد نفسي خطير لمواجهة آلة صماء؛ فالجندي الذي يشعر بأنه مراقب دائماً من مسيّرة صامتة قد يعيش ضغطاً نفسياً دائماً يؤدي لانسحابات وهزائم دون اشتباك فعلي، كما حذّر من «تجريد الحرب من الإنسانية»، حيث قد يبدأ الضباط الذين يديرون الحرب من خلف الشاشات برؤية البشر كـ«نقاط» أو «أرقام» في لعبة فيديو، مما يقلل الوازع الأخلاقي ويجعل قرار القتل سهلاً نفسياً وتقنياً.

السيادة التقنية وصراع الرقائق

وخلص نحاس إلى أن الحرب باتت صراع «ميزانيات ذكية» و«تقنيات متطورة» لتصنيع المعالجات، واعتبر أشباه الموصلات (Chips) «سلاحاً استراتيجياً» يعادل الصواريخ النووية، مؤكداً أن الاستقلال البرمجي ضرورة قومية؛ لأن الاعتماد على خوارزميات أجنبية يعني منح «مفتاح السيادة» للدول الأخرى.

وأكد الدكتور محمود نديم نحاس في ختام رؤيته أن دخول الذكاء الاصطناعي لا يمثل مجرد تحسين للأدوات، بل إعادة تعريف للقوة والسيادة، وحذر من أن أخطر لحظة هي التي يبدأ فيها الإنسان بالثقة في الآلة أكثر مما ينبغي، مشيراً إلى أن المستقبل سيكون لمن يمتلك الخوارزمية الأذكى، ولكن البقاء سيكون لمن يمتلك الحكمة الكافية للتحكم في الآلة قبل أن تتحكم هي في مصير البشر، خصوصاً أن الآلة تفتقر إلى الرحمة والتقدير الأخلاقي والسياسي الذي يمتلكه القائد البشري.