الداتا والحرب!

مسيّرة إسرائيلية فوق قطاع غزة (أرشيفية - أ.ف.ب)
مسيّرة إسرائيلية فوق قطاع غزة (أرشيفية - أ.ف.ب)
TT

الداتا والحرب!

مسيّرة إسرائيلية فوق قطاع غزة (أرشيفية - أ.ف.ب)
مسيّرة إسرائيلية فوق قطاع غزة (أرشيفية - أ.ف.ب)

صنّف بعض الخبراء الداتا بأنها نفط القرن الـ21. من دون داتا لا تدور عجلة حياة الإنسان في الكون. لا تواصُل من دون داتا. لا تطوُّر من دون داتا. من يملك الداتا يملك القوّة. من يملك الداتا يملك القدرة على القرار، وإلا ما معنى تراكم التجارب الإنسانيّة؟ كانت الداتا، وهي الآن، وستبقى إلى الأبد. يتقدّم الطب ويتطوّر، فقط إذا توفّرت الداتا الكافية عن الحالة المرضيّة. فالأوبئة تضرب جهاز المناعة عند الإنسان، لأن هذا الجهاز المناعي لا يملك الداتا المُسبقة عن التركيبة الجينيّة عن هذا الوباء. وعندما تتوفّر الداتا عن الخريطة الجينيّة للوباء، يسعى الإنسان إلى حقن هذه الداتا في جهاز المناعة.

دورة تحويل الداتا

إن جمع الداتا لا يعني مطلقاً القدرة الفوريّة على استعمالها. فهناك مراحل لا بد للداتا من أن تمرّ بها كي تصبح مفيدة وهي: جمع الداتا، وتنقية وتحليل الداتا. بعد التحليل الذي يحوّل الداتا العمياء إلى معرفة، تُوزّع هذه المعرفة بهدف الاستعمال. وكلّما استُعملت هذه المعرفة، أنتجت مزيداً من الداتا، وهكذا دواليك.

تتطلّب الداتا وسائل لجمعها، تحليلها ومن ثَمّ توزيعها عبر وسائط معيّنة (Medium)، وهي: البرّ، والبحر، والجو، والفضاء ثم الفضاء السيبراني مع الثورة المعلوماتيّة. وكلّما كان وسيط نقل الداتا سريعاً، كان زمام المبادرة بيد من يملك هذا الوسيط. من هنا الصراع الأميركي – الصيني على تكنولوجيا الـG - 5.

هناك الداتا الصحيّة الإيجابيّة، وهناك الداتا الخبيثة. فالأمر يتعلّق بنيات المُستعمل ولأي هدف. ألا نعيش اليوم حرب المعلومات (Information Warfare) إلى جانب الحروب الدمويّة؟

تتنافس الدول على جمع وتخزين الداتا. كما تتنافس على من هو أسرع في جمعها، تحليلها ومن ثَمّ استعمالها. وقد يمكن القول حاليّاً، إن هناك سباقاً حاداً بين هذه الدول كما كان سباق التسلّح التقليدي كما النووي من قبل. خصوصاً أن هذه الداتا ستلعب دوراً حاسماً في حروب القرن الـ21. يقول الكاتب الأميركي بول شار إن الصراع بين الدول الكبرى والعظمى اليوم، يدور في أربعة مسارح للحرب للسيطرة على الداتا، والتفوّق في مجال الذكاء الاصطناعي وهي: الداتا، والحوسبة (Computing)، والموهبة، والمؤسسات التي تستوعب هذه المجالات. كما يذكر الكاتب شار أن المملكة العربية السعودية هي الرائدة في العالم في مجال العمل المؤسساتي بهدف التحضير للمستقبل.

مسيّرة إسرائيلية فوق قطاع غزة (أرشيفية - أ.ف.ب)

الحرب والداتا

توجد الداتا في كلّ مستويات الحرب الثلاثة وهي: المستوى الاستراتيجيّ، والعملاني، ومن ثمّ التكتيكيّ. تتداخل هذه المستويات بعضها مع بعض في أثناء الحرب لتتكامل. فعلى سبيل المثال، تجمع المُسيّرة الداتا عن حقل المعركة في أثناء طيرانها. تنقل هذه الداتا إلى المستوى العملاني للتحليل واتخاذ القرار العسكريّ. وعلى نتيجة هذا القرار العسكري ومساهمته في كسب الحرب، يتأثّر القرار الاستراتيجيّ.

وإذا كانت الداتا ضروريّة عن الهدف والعدو. فمن الضروري قياس النجاح بعد التنفيذ. وقياس النجاح يعني جمع الداتا عن الأضرار التي لحقت بالهدف. وعليه، ونتيجة للضرر الذي لحق بالهدف، تُقيَّم الداتا، وتُدرس، وتُحلّل بهدف إما تحسين أداء السلاح عبر تعديل مواصفاته وإما ابتكار تكتيك جديد.

خلال حرب غزة الحاليّة، دخل قائد عسكري إسرائيلي إلى مكتبه وبدأ بتمزيق الخرائط التي اعتمدها مصدراً للداتا المتعلّقة بحربه على الأنفاق. وعندما سُئل عن سبب تصرّفه هذا، أجاب: «الواقع يختلف تماماً عن هذه الخرائط». إذاً هو في عمى استعلامي واستخباراتيّ. وبسبب هذا العمى، وبهدف الخروج منه يكون الثمن عادةً بالدمّ.

في حرب غزة اليوم، تتبدّل الداتا ساعة بساعة. فكّلما تقدّم الجيش الإسرائيلي تتظهّر أمامه داتا مختلفة بسبب زئبقيّة أرض المعركة. وكلّما تراجعت «حماس»، جمعت مزيداً من الداتا عن الجيش الإسرائيليّ. ومع الوقت، وتراكم الداتا لدى الفريقين يبدأ استنتاج الأنماط، والطرق القتالية، ليغيب بذلك عامل المفاجأة.


مقالات ذات صلة

إسرائيل قدمت للوسطاء خرائط تُظهر انسحاباً جزئياً من غزة خلال الهدنة

شؤون إقليمية تصاعد الدخان جراء الغارات الإسرائيلية على قطاع غزة اليوم (أ.ف.ب)

إسرائيل قدمت للوسطاء خرائط تُظهر انسحاباً جزئياً من غزة خلال الهدنة

أفادت صحيفة «تايمز أوف إسرائيل»، الأربعاء، بأن إسرائيل قدمت مجموعة خرائط جديدة للوسطاء في الدوحة تظهر انسحاباً جزئياً للجيش من قطاع غزة خلال الهدنة المقترحة.

«الشرق الأوسط» (تل أبيب)
شؤون إقليمية تصاعد الدخان جراء الغارات الإسرائيلية قرب بيت حانون في شمال قطاع غزة (إ.ب.أ)

الجيش الإسرائيلي يعلن توسيع نطاق هجومه في بيت حانون بغزة

أعلن الجيش الإسرائيلي، الأربعاء، أنه وسع نطاق هجومه البري ضد حركة «حماس» في بيت حانون شمال قطاع غزة.

«الشرق الأوسط» (تل أبيب)
شؤون إقليمية الرئيس الأميركي دونالد ترمب وبجانبه رئيس الوزراء الإسرائيلي بنيامين نتنياهو في المكتب البيضاوي (د.ب.أ) play-circle

«هدنة غزة» محور ثاني لقاء بين ترمب ونتنياهو خلال 24 ساعة

قال رئيس الوزراء الإسرائيلي بنيامين نتنياهو، الأربعاء، إن اجتماعه مع الرئيس الأميركي دونالد ترمب ركز على جهود تحرير الرهائن المحتجزين في غزة.

«الشرق الأوسط» (واشنطن)
شؤون إقليمية تطالب «حماس» منذ فترة طويلة بإنهاء الحرب قبل الإفراج عن الرهائن المتبقين (أ.ف. ب)

مسؤولون إسرائيليون: وقف النار في غزة ممكن لكن قد يستغرق وقتاً

قال مسؤولون إسرائيليون اليوم الثلاثاء إن من الممكن سد الثغرات بين إسرائيل وحركة حماس في المحادثات الجارية في قطر بشأن وقف لإطلاق النار في غزة.

«الشرق الأوسط» (القدس)
المشرق العربي المبعوث الأميركي ستيف ويتكوف (إ.ب.أ)

ويتكوف: اتفاق غزة يشمل الإفراج عن 10 رهائن أحياء وجثامين 9 آخرين

قال ستيف ويتكوف، مبعوث الرئيس الأميركي دونالد ترمب، إن الاتفاق المقترح بين إسرائيل وحركة «حماس» يشمل أيضاً الإفراج عن جثامين 9 رهائن.

«الشرق الأوسط» (واشنطن)

أخلاقيات الذكاء الاصطناعي في مرآة قمة جنيف... وريادة سعودية

أخلاقيات الذكاء الاصطناعي في مرآة قمة جنيف... وريادة سعودية
TT

أخلاقيات الذكاء الاصطناعي في مرآة قمة جنيف... وريادة سعودية

أخلاقيات الذكاء الاصطناعي في مرآة قمة جنيف... وريادة سعودية

في ممرات قصر الأمم بجنيف؛ حيث يلتقي العلم بالدبلوماسية، يتردّد سؤال واحد بين أروقة «قمة الذكاء الاصطناعي لأجل الخير» لعام 2025: هل يمكن أن تتعلم الآلة كيف تكون عادلة، ورحيمة، وإنسانية؟

حدود الأخلاقية والمسؤولية

هنا، لا تَحتدم النقاشات حول قدرات الذكاء الاصطناعي الخارقة، بل حول حدوده الأخلاقية ومسؤوليته تجاه الإنسان. في عصر باتت فيه الخوارزميات تحسم مصير وظائف، وتعطي توصيات طبية، وتُقيّم طلبات لجوء، لم يعد كافياً أن نسأل: «ماذا يستطيع الذكاء الاصطناعي أن يفعل؟»، بل بات الأهم أن نسأل: «ما الذي ينبغي عليه ألا يفعله؟».

ومع ازدياد الاعتماد العالمي على الأنظمة الذكية، تتقدم إلى الواجهة قضايا مثل التحيز الخفي، والشفافية، والمساءلة، والعدالة الرقمية. مَن يُدرّب الخوارزميات؟ وفق أي قيم؟ ومن يضمن ألا تتحول الآلات الذكية إلى أدوات للتمييز بدلاً من المساواة؟

إطار سعودي لحوكمة الذكاء الاصطناعي

في هذا السياق، تتقدّم المملكة العربية السعودية برؤية رائدة، كونها أول دولة في الشرق الأوسط تضع إطاراً وطنياً شاملاً لحوكمة الذكاء الاصطناعي، يستند إلى مبادئ الأخلاق والعدالة والشفافية. وقد حرصت المملكة -من خلال الهيئة السعودية للبيانات والذكاء الاصطناعي (سدايا)- على أن يكون الذكاء الاصطناعي جزءاً من مشروع وطني يخدم الإنسان ويحفظ القيم.

ولا تكتفي رؤية المملكة بتبني التقنية، بل تسعى إلى قيادتها بمنظور إنساني يعكس طموحها في أن تكون مركزاً عالمياً متقدماً في مجال الذكاء الاصطناعي المسؤول.

قمة جنيف لأخلاقيات الذكاء الاصطناعي

وتأتي قمة جنيف -التي تُنظَّم هذا العام تحت رعاية الاتحاد الدولي للاتصالات (ITU)، وبالشراكة مع برنامج الأمم المتحدة للذكاء الاصطناعي لأجل التنمية- لتضع هذا الملف على رأس أولوياتها. فقد اختارت القمة شعاراً محورياً هو: «أخلاقيات الذكاء الاصطناعي»، في دعوة صريحة نحو وضع ميثاق عالمي يضمن استخداماً عادلاً، وآمناً، وشفافاً للتقنيات الذكية، وبما يُعزز العدالة الاجتماعية، ويحمي الحقوق الرقمية للبشر حول العالم.

حين تُخطئ الخوارزمية... مَن يتحمّل العواقب؟

الخوارزميات التي نُطلق عليها صفة «الذكاء» ليست سوى مرايا رقمية تعكس طبيعة البيانات التي دُرّبت عليها. وإذا كانت هذه البيانات مشوّهة أو منحازة، انعكس الانحياز بدوره في قرارات الآلة. هنا لا يعود الخطأ تقنياً فحسب، بل أخلاقياً وهيكلياً.

في تقرير مهم نُشر في عام 2024 في مجلة «Nature Machine Intelligence»، حذّر الخبراء من أن العديد من الأنظمة الذكية -بما في ذلك أدوات التوظيف الرقمية والتقييمات البنكية الآلية- قد تُكرّس أشكالاً غير مرئية من التمييز ضد النساء والأقليات، بسبب ما وصفه بـ«التحيّز البنيوي في البيانات».

في مثل هذه الحالات، لا يكفي أن نتقن كتابة الشيفرات، بل ينبغي أن نسأل: مَن يُحاسب حين تتسبب الخوارزمية في ظلم إنسان؟ ومن هنا تبرز الحاجة إلى حوكمة أخلاقية صارمة، تُلزم المطورين والمؤسسات بالمسؤولية الكاملة عن نتائج أدواتهم، لا الاكتفاء بجودة التصميم أو دقة الأداء.

السعودية أولاً... مرجعية عربية في أخلاقيات الذكاء

في قلب النقاشات العالمية حول أخلاقيات الذكاء الاصطناعي، تبرز المملكة العربية السعودية بصفتها صوتاً ريادياً في المنطقة، كونها أول دولة في الشرق الأوسط تضع سياسة وطنية شاملة لحوكمة الذكاء الاصطناعي. فقد أطلقت الهيئة السعودية للبيانات والذكاء الاصطناعي (سدايا) هذه السياسة في عام 2022، واضعةً الأسس الأخلاقية لاستخدام التقنيات الذكية بما يخدم الإنسان أولاً.

وتنصّ الوثيقة الرسمية المنشورة على موقع «سدايا» على أربعة محاور رئيسية:

* الشفافية والعدالة واحترام حقوق الإنسان.

* مساءلة المطورين والمستخدمين عن نتائج استخدام الذكاء الاصطناعي.

* وضع معايير صارمة لحماية البيانات الشخصية.

* تعزيز الثقة المجتمعية في التقنيات الذكية.

وقد حظيت هذه المبادرة باهتمام دولي متزايد، خصوصاً بعد أن استضافت الرياض القمة العالمية للذكاء الاصطناعي في نسختيها لعامي 2022 و2023، بحضور وفود من أكثر من 90 دولة، وبشراكات فاعلة مع جهات مرجعية، مثل منظمة اليونيسكو، والمنتدى الاقتصادي العالمي، ومبادرة منظمة التعاون الاقتصادي والتنمية (OECD) حول الذكاء الاصطناعي المسؤول.

إنّ ما تقدمه المملكة اليوم ليس مجرد نموذج محلي للحَوْكمة، بل مرجعية عربية طموحة تُعيد تعريف العلاقة بين التكنولوجيا والإنسان من منظور أخلاقي وإنساني متجذّر في الثقافة الإسلامية وقيم العدالة العالمية.

تسليط الضوء على الأخلاقيات

في كلمته الافتتاحية لقمة جنيف 2025، دعا الأمين العام للاتحاد الدولي للاتصالات، دورين بوغدان-مارتن، إلى «وضع إطار قانوني عالمي لاستخدام الذكاء الاصطناعي بما يحترم الكرامة الإنسانية»، محذّراً من «فجوة أخلاقية» تسبق الفجوة الرقمية بين الدول.

وتُشارك السعودية حالياً في صياغة هذا الإطار عبر عضويتها في المجلس الاستشاري الدولي لأخلاقيات الذكاء الاصطناعي، الذي أُنشئ ضمن تحالف عالمي ترعاه الأمم المتحدة، ويُشارك فيه خبراء من أكثر من 30 دولة.

نحو دستور رقمي عالمي: أبرز محاضرات القمة

من بين أبرز محاضرات قمة جنيف هذا العام، كانت الكلمة الافتتاحية للدكتورة بيغي هيكس، مديرة شؤون الانخراط في مكتب مفوضية الأمم المتحدة السامية لحقوق الإنسان، التي أكَّدت أن «الذكاء الاصطناعي ليس محايداً بطبيعته، بل يعكس خياراتنا نحن البشر». ودعت إلى وضع «دستور أخلاقي رقمي» عالمي يُنظّم استخدام الذكاء الاصطناعي، بما يحمي الكرامة الإنسانية، ويراعي الفروقات الثقافية بين الشعوب. وقد لاقت كلمتها تفاعلاً واسعاً، خصوصاً مع مشاركة ممثلين عن أكثر من 100 دولة ومنظمات دولية مثل «اليونيسكو»، ومنظمة الصحة العالمية، والمنتدى الاقتصادي العالمي في نقاش مفتوح لصياغة إطار عالمي لأخلاقيات الذكاء الاصطناعي.

الخصوصية... في مهب الريح

في عصر تتحوّل فيه البيانات الشخصية إلى سلعة رقمية، تُدق أجراس الإنذار بشأن انتهاك الخصوصية، لا سيما حين تُسخّر تقنيات الذكاء الاصطناعي في المراقبة واسعة النطاق دون ضوابط قانونية.

وفي مواجهة هذا التحدي، تتحرك الدول الواعية لوضع أطر قانونية تحمي مواطنيها، وهنا تبرز المملكة العربية السعودية مثالاً على هذا الاتجاه؛ إذ أقرت مؤخراً اللائحة العامة لحماية البيانات الشخصية، الصادرة عن الهيئة الوطنية للأمن السيبراني، لتكون بمثابة مظلة تشريعية تضمن تنظيم جمع ومعالجة وتخزين البيانات وفق معايير شفافة ومُلزِمة، بما يُعزز الثقة الرقمية، ويحفظ كرامة الأفراد في الفضاء الإلكتروني.

هل للذكاء الاصطناعي ضمير؟

في عمق المختبرات والمراكز البحثية، لا ينحصر طموح العلماء في تطوير ذكاء يحاكي قدرات الإنسان، بل يمتد نحو ما يُعرف اليوم بـ«الذكاء الأخلاقي الآلي» (Machine Moral Reasoning)، محاولة لتعليم الآلة: كيف تفرّق بين الصواب والخطأ.

من معهد ماساتشوستس للتقنية (MIT) إلى جامعة ستانفورد، وصولاً إلى جامعة الملك عبد الله للعلوم والتقنية (كاوست) في السعودية، تُجرى أبحاث متقدمة لدمج مفاهيم «الفلسفة الأخلاقية والمنطق الرياضي» داخل بنية الخوارزميات، بحيث تُصبح قرارات الذكاء الاصطناعي أكثر عدلاً وإنصافاً، خصوصاً في مجالات حساسة مثل الرعاية الصحية، والعدالة الجنائية، والتوظيف.

لكن، ورغم هذا التقدم، يبقى السؤال مفتوحاً: هل يمكن للآلة أن تمتلك «ضميراً رقمياً»؟ هل تستطيع التمييز بين الإنصاف والإجحاف... بين النية الطيبة والخداع؟

ما زال الجواب مُعلّقاً في المستقبل، لكنه بالتأكيد يبدأ من قرارات الحاضر، ومن التزام البشر بوضع القيم في قلب التكنولوجيا، لا على هامشها.