أخلاقيات الذكاء الاصطناعي... تغوُّل الآلة ومسؤولية الإنسان

ضوابط لكبح جماح البرامج والنظم

أخلاقيات الذكاء الاصطناعي... تغوُّل الآلة ومسؤولية الإنسان
TT

أخلاقيات الذكاء الاصطناعي... تغوُّل الآلة ومسؤولية الإنسان

أخلاقيات الذكاء الاصطناعي... تغوُّل الآلة ومسؤولية الإنسان

على الرغم من أن العالم بدأ التعرف على مصطلح «الذكاء الاصطناعي» خلال مؤتمر لكلية دارتموث الأميركية في خمسينات القرن الماضي؛ فإن القضية الأخلاقية بشأن تطوراته احتاجت لعقود حتى تتبلور وتتطور، إذ تناسبت طردياً -ولا تزال- مع نمو تطبيقاته وانتشارها منذ المحاولات البسيطة الأولى حتى اللحظة التي يتفاعل فيها البشر راهناً «تشات جي بي تي» ونسخه المتلاحقة.

بالنسبة إلى العاملين في قطاع التكنولوجيا سواء على مستوى الصناعة أو الابتكار فإن ثمة وجهين لقضية «الأخلاقيات»؛ فمن جهة يدعو فريق لإخضاع التطورات المرتقبة للمسألة الأخلاقية قبل تطبيقها وعدّها معياراً حاكماً إلى حد المطالبة بـ«هدنة لحوكمة التطبيقات، لضمان عدم إضرارها بالبشر»، غير أن ذلك على الوجه الآخر «قد يعطّل أو يدفع المطورين للارتداد إلى الخلف»، وفق ما يقدر فريق آخر.

وأجمع «خبراء وأكاديميون» تحدثوا إلى «الشرق الأوسط» على «أهمية وحيوية تطبيقات الذكاء الاصطناعي، ومدى الرفاهية والفائدة التي أضافتها لحياة الكثيرين»، غير أنهم يدعون مع ذلك إلى ضرورة وضع ضوابط أخلاقية «تضبط جماح البرامج التي تتصرف آلياً، ولكن من دون أن تتحول تلك المعايير إلى سيف على رقبة الذكاء الاصطناعي».

وكان صناع تكنولوجيا ومختصون في الذكاء الاصطناعي، قد وقَّعوا في مارس (آذار) الماضي عريضة تطالب بـ«وقف أبحاث تطوير الذكاء الاصطناعي ستة أشهر لإتاحة الفرصة نحو مزيد من الحوكمة لهذا النشاط، لضمان عدم تضرر البشر منه».

وأثارت تلك العريضة التي أعدها معهد «فيوتشر أوف لايف» غير الربحي، واقترب عدد الموقعين عليها من 3 آلاف عالم ورائد أعمال، مخاوف من أن «السباق الذي تخوضه مختبرات الذكاء الاصطناعي لتطوير ونشر عقول رقمية أكثر قوة، قد يخرج عن سيطرتها، بحيث لا يمكن لأحد، ولا حتى لمنشئوها، فهمها أو التحكم فيها بشكل موثوق».

توصيات أممية

ورغم ما يحققه الذكاء الاصطناعي من مزايا للبشرية، في تشخيص الأمراض والتنبؤ بتغيرات المناخ وغيرها من الفوائد، فإن تحدياته الأخلاقية، المتمثلة في بعض الخوارزميات المتحيزة جنسياً وعرقياً، والتهديد المحتمل لبعض تطبيقاته للخصوصية، دفعت منظمة الأمم المتحدة للتربية والعلوم والثقافة (يونيسكو) إلى تبني «أول اتفاق عالمي بشأن توصيات حول أخلاقيات الذكاء الاصطناعي» في نوفمبر (تشرين الثاني) من عام 2021، وتتمثل في 4 توصيات، أولاها: «حماية البيانات» بحيث تكون هناك إجراءات لحماية بيانات الأفراد وحقهم في التحكم بها. والثانية: «حظر استخدام نظم الذكاء الاصطناعي لأغراض المراقبة الجماعية» ووجوب اقتصار المسؤولية النهائية في أي مهمة على البشر بحيث لا تصبح تقنيات الذكاء الاصطناعي بحد ذاتها شخصية معنوية. أما الثالثة فتتمثل في «دعم وسائل الذكاء الاصطناعي التي تتسم بالكفاءة في استخدام البيانات والطاقة والموارد» لكي تسهم هذه الوسائل في التصدي لمعالجة القضايا البيئية. وجاءت التوصية الرابعة لتنص على أن تكون هناك «آلية لتقييم العواقب الأخلاقية للذكاء الاصطناعي».

دعوات متواصلة

المخاوف من الذكاء الاصطناعي «قديمة قدم المفهوم نفسه، ولكن روبوت الدردشة (تشات جي بي تي)، قرّبها كثيراً من نطاق الخيال العلمي إلى الواقع العملي» وفق ما يقول خوسيه ديلغادو، المتخصص في علم النفس التجريبي بجامعة غرناطة بإسبانيا، في تصريحات لـ«الشرق الأوسط».

الأدباء والمفكرون والفلاسفة وكذلك العلماء المتخصصون استشرفوا أهمية وجود أخلاقيات للذكاء الاصطناعي، إذ تحدث الروائي الأميركي فيرنور فينغ عام 1983، عن أن «الوجود المستقبلي للبشرية قد يعتمد على تنفيذ معايير أخلاقية راسخة في نظم الذكاء الاصطناعي نظراً لأن هذه النظم، في مرحلة ما، قد تتطابق أو تحل محل القدرات البشرية».

وحذّر الفيلسوف السويدي نيك بوستروم في عام 2018 من المخاطر المحتملة للتميز التكنولوجي في حالة تحوُّل الآلات الذكية ضد مبدعيها، أي البشر، وشدد على بناء «ذكاء صناعي ودود».

وتوافق العلماء مع المفكرين في التحذير من المخاوف الأخلاقية، فتحدثت عالمة الحاسوب الأميركية البارزة، روزاليند بيكار ‏في عام 1997، عن أنه «كلما زادت حرية الآلة، احتاجت إلى معايير أخلاقية أكثر».

وبالعودة إلى ديلغادو، فإنه لا يُبدي شكاً في أن روبوت الدردشة «تشات جي بي تي» سينجح في تجاوز أخطائه، بل إنه يعتقد أن «التعلم الآلي قد يقوده إلى أن يكون أذكى من الإنسان، وهنا تكمن الخطورة عند توظيف الذكاء الاصطناعي في عمل مشترك مع الإنسان».

ولذلك فإن ديلغادو ينبه بشدة إلى ضرورة أن «يكون للإنسان السيطرة الكاملة والمسؤولية عن سلوك ونتائج نظم الذكاء الاصطناعي». مرجعاً ذلك إلى أنه «عند تحليل بعض الحوادث التي وقعت في السنوات الأخيرة، وجد الباحثون أن سببها تغول الذكاء الاصطناعي، ومنها (تحطم قطار ألفيا على الطريق من مدريد إلى سانتياغو دي كومبوستيلا في إسبانيا عام 2013، وتحطم رحلة الخطوط الجوية الفرنسية 447 عام 2009، وتحطم رحلة الخطوط الجوية آسيانا 214 عام 2013)».

ويضيف: «خلص الباحثون الذين درسوا هذه الحوادث إلى أن سببها الأساسي يكمن في أن استراتيجيات التحكم باستخدام الذكاء الاصطناعي لم تكن مماثلة أو مشابهة لتلك المستخدمة من المراقبين البشريين».

وهذا التحدي الذي حدده ديلغادو في التفاعل بين البشر والذكاء الاصطناعي، خلاصته أنه «لتعزيز علاقة أخلاقية وعادلة بين البشر ونظم الذكاء الاصطناعي، من الواجب أن تستند التفاعلات إلى المبدأ الأساسي لاحترام القدرات المعرفية للبشر».

الإنسان الاستثنائي

ولا يتعارض التحدي السابق مع تحدٍّ ثانٍ، حدده أوزليم غاريباي، الأستاذ المساعد في قسم الهندسة الاصطناعية ونظم الإدارة بجامعة كاليفورنيا الأميركية، وهو «الذكاء الاصطناعي المسؤول» الذي يعني برأيه أن «يكون داعماً لرفاهية الإنسان، ولكن بطريقة تتماشى مع القيم البشرية».

ويقول غاريباي لـ«الشرق الأوسط»: «في إطار هذا التحدي، يمكن أن تقدم الروبوتات الذكية حلولاً طبية لبعض أشكال الإعاقة، لكن لا ينبغي أن يتطور الأمر إلى (تأليه التقنية) واستخدامها لبناء (الإنسان الاستثنائي أو الفائق) عبر تحسين مواصفاته وتعزيز ذاكرته مثلاً باستخدام شرائح إلكترونية».

بعُد أو تحدٍّ آخر لفت إليه مارك أنطوان ديلاك، الأستاذ المساعد المتخصص في الأخلاقيات والفلسفة السياسية في جامعة مونتريال بكندا، في مقال نشره بمجلة «رسالة اليونيسكو» التابعة للمنظمة الأممية في مارس 2018، لافتاً إلى «البرمجيات التي يتمّ تطبيقها بالفعل في الكثير من البلدان لتحديد «السلوك الإرهابي» أو «الشخصيّة الإجرامية» لدى الأفراد، باستخدام تقنية التعرّف على ملامح الوجه. وقال إن باحثَين من جامعة «ستانفورد» بالولايات المتحدة تعرضا للذعر «من هذا الانبعاث الجديد لنظرية الفراسة التي تحلل شخصية الفرد اعتماداً على معالم وجهه وتعابيره».

لكنّ الفراسة المنحازة لم تكن أمنية وقائية فقط، بل إن تطبيقات التوظيف تمارس جانباً من هذا، إذ كشفت دراسة لدورية «إم آي تي تكنولوجي ريفيو» (يُصدرها معهد «ماساتشوستس للتكنولوجيا») في فبراير (شباط) 2022 أن مواقع مثل «لينكد إن» تسعى «لإزالة بعض برمجياتها الخاصة بمقابلات العمل، والتي كانت تتحيز ضد أصحاب الهمم، والنساء المرشحات للعمل».

استخدام الأسلحة

ويقول يوشوا بنجيو، وهو عالم كندي من أبرز متخصصي الحاسوب المعاصرين، وحاصل على جائزة «تورنغ» 2018 (يُنظر إليها بوصفها موازية لجائزة «نوبل» في علوم الحاسب) لـ«الشرق الأوسط»، إنه يجب العمل على «منع تصميم نظم الذكاء الاصطناعي التي تنطوي على مخاطر عالية للغاية مثل النظم التي يمكنها استخدام الأسلحة».

ويضيف بنجيو أن «نظم الذكاء الاصطناعي يمكن أن تحقق فوائد جمّة للبشرية، كما يمكن لتطبيقاتها أن تكون مفيدة في تحقيق الرعاية الصحية، لكن من جهة أخرى يمكن تطوير نظم تستخدم الأسلحة، وهذا ما يجب العمل على حظره».

ومن التحديات الأخرى التي يجب التعامل معها الحرص على «تأمين الخصوصية»، بحيث لا تنتهكها نظم الذكاء الاصطناعي، وهو أحد الأسباب التي دعت إيطاليا إلى حظر «تشات جي بي تي»، وانضمت إليها إسبانيا وفرنسا.

وأعلن «مجلس حماية البيانات الأوروبي»، عن إنشاء فريق لتعزيز تبادل المعلومات بشأن أي إجراءات يمكن اتخاذها تجاه «تشات جي بي تي»، وأفاد المجلس في 14 أبريل (نيسان) الماضي بأنه يؤيد «التقنيات المبتكرة في الذكاء الاصطناعي»، لكنه شدد على أنها «يجب أن تكون دائماً متوافقة مع حقوق الناس وحرياتهم».

و«يَجمع تطبيق (تشات جي بي تي) البيانات الشخصية ويعالجها لتدريب خوارزمياته، وهذا انتهاك واضح للخصوصية»، كما يقول دومينيكو تاليا، أستاذ هندسة الكومبيوتر بجامعة «كالابريا» الإيطالية، لـ«الشرق الأوسط».

ويضيف تاليا: «أنا مع هذا التطبيق وما يقدمه من مزايا لحياة البشر، لكن في الوقت نفسه لا أقبل أن يتم جمع بياناتي الشخصية عند تفاعلي معه».

معاهدات دولية

التحديات السابقة التي يفرضها الذكاء الاصطناعي، يرى بنجيو، أنه «يجب التعامل معها في إطار قوانين وتشريعات ملزمة، وليس عبر التنظيم الذاتي»، ويضيف: «الأمر أشبه بالقيادة، سواء كان ذلك على الجانب الأيسر أو الأيمن، حيث يجب على الجميع القيادة بنفس الطريقة، وإلا سنكون في ورطة».

كما يلفت إلى أن «هناك مشروع قانون (بشأن الذكاء الاصطناعي) قيد الإعداد في الاتحاد الأوروبي، كما سيتم إقرار قانون قريباً في كندا، ولكنّ ذلك لا يُغني عن إصدار معاهدات دولية مماثلة لما حدث مع (المخاطر النووية)، و(الاستنساخ البشري)».

وبينما أصدرت «يونيسكو» توصياتها بشان التحديات الأخلاقية للذكاء الاصطناعي قبل أقل من عامين، فإن هناك أكثر من 40 دولة تعمل مع المنظمة لتطوير «ضوابط وتوازنات الذكاء الاصطناعي على المستوى الوطني».

ودعت المنظمة الأممية جميع البلدان للانضمام إلى الحركة التي تقودها لبناء «ذكاء صناعي أخلاقي»، مشيرةً في بيان نشرته في 30 مارس الماضي، إلى أنه «سيتم تقديم تقرير مرحلي عمّا تحقق في هذا الإطار خلال (منتدى اليونيسكو العالمي) حول أخلاقيات الذكاء الاصطناعي بسلوفينيا في ديسمبر (كانون الأول) المقبل».

مركز «ليفرهيوم»... نداء ستيفن هوكينغ لأنسنة الذكاء الاصطناعي

أسسه الفيزيائي البارز عام 2016

الفيزيائي الراحل ستيفن هوكينغ خلال حفل افتتاح «ليفرهيوم» عام 2016 (جامعة كمبردج)

«من المرجح أن يكون الذكاء الاصطناعي أفضل أو أسوأ شيء يحدث للبشرية على الإطلاق، لذلك فهناك قيمة كبيرة في تصحيحه»، عبر هذه النداء، وقبل وفاته بعامين، حاول العالم البريطاني البارز ستيفن هوكينغ (1942: 2018) تلخيص دعوته إلى «أنسنه الذكاء الاصطناعي».
وإفادة هوكينغ التي جاءت خلال افتتاح «مركز ليفرهيوم لمستقبل الذكاء الاصطناعي» بجامعة كمبردج البريطانية (عام 2016) تعكس جانباً من عمل المركز الذي يتخصص في «مستقبل الذكاء الاصطناعي»، ومع ذلك فإنه يحرص على إظهار البعد الإنساني في اهتماماته وأوراقه البحثية الصادرة عنه.
وتجمع الأبحاث التي يصدرها «ليفرهيوم» بين أكاديميين من تخصصات متنوعة؛ مثل: «التعلم الآلي، والفلسفة، والتاريخ، والهندسة، وغيرها»، وذلك بهدف «استكشاف إمكانات الذكاء الاصطناعي على المدى القصير والطويل، وضمان استخدامه لصالح البشرية»، وهو الهدف الذي حدده البروفسور هوكينغ، عند افتتاح المركز الذي تم تمويل إنشائه بمنحة 10 ملايين جنيه إسترليني.
وكذلك قال ستيفن كيف، مدير المركز في حفل افتتاحه، إننا «بحاجة إلى ذكاء صناعي يساعدنا على اتخاذ قرارات أفضل، لا أن يحل محلنا»، مضيفاً أنه يجب العمل على «ضمان أن تكون للنظم الاصطناعية الذكية أهداف تتماشى مع القيم الإنسانية، والتأكد من أن أجهزة الكومبيوتر لا تتطور تلقائياً في اتجاهات جديدة غير مرحب بها».
وخلال الأبحاث الأحدث لـ«ليفرهيوم»، سعى المتخصصون إلى «رصد التحيز الجنسي للرجل عن طريق إنشاء صورة نمطية ثقافية حول سيطرة الرجال على مجال الذكاء الصناعي»، الأمر الذي قد يؤدي، وفق تقديرهم، إلى «مزيد من النقص في عدد النساء العاملات بالمجال، فضلاً عن تسرب التحيز إلى الخوارزميات الموضوعة مثلاً لاختيار العاملين الجدد في أي مؤسسة».
وخلال الدراسة المنشورة في 13 فبراير (شباط) الماضي بدورية «Public Understanding of Science»، حصر باحثو «ليفرهيوم» 142 عملاً سينمائياً خلال قرن (1920: 2020) تطرقت للذكاء الاصطناعي، وحددوا 116 شخصية ظهرت كمحترفة بالمجال، وكان من بينهم 92 في المائة من الرجال، بينما تقدر النسبة الفعلية للرجال في القطاع بـ78 في المائة. وأبدى الباحثون مخاوفهم من أن الخيال العلمي يشكل الواقع، وقد يساعد «ترسيخ هذا الوضع عبر السينما، إلى تهميش المرأة في منتجات الذكاء الاصطناعي».
كما تمكن مشروع بحثي آخر أطلقه المركز خلال الفترة من 2018 إلى 2022 تحت عنوان «السرديات العالمية الذكاء الاصطناعي»، من رصد الروايات الخيالية للذكاء الاصطناعي وتحديد القيم والمصالح التي توجهها، وتحليل تأثيرها على الخيال العام والقبول العام، وعلى صانعي السياسات والحكومات.


مقالات ذات صلة

ما خصائص «البحث بالوقت الفعلي» في «تشات جي بي تي»؟

تكنولوجيا لدى خدمة «ChatGPT Plus» التي تعتمد على الاشتراك نحو 7.7 مليون مستخدم على مستوى العالم (أدوبي)

ما خصائص «البحث بالوقت الفعلي» في «تشات جي بي تي»؟

تشكل الخاصية الجديدة نقلة في كيفية التفاعل مع المعلومات عبر إجابات أكثر ذكاءً وسرعة مع سياق الأسئلة.

نسيم رمضان (لندن)
تكنولوجيا فهم طريقة عمل الذكاء الاصطناعي أمر مهم لكنه ليس المهارة الوحيدة اللازمة للنجاح في العمل (رويترز)

باحثون يختبرون نموذج ذكاء اصطناعي يتلقى أسئلة دينية في سويسرا

أصدر باحثون وقادة دينيون، الأربعاء، نتائج تجربة استمرت شهرين في كنيسة كاثوليكية في سويسرا، حيث كان الذكاء الاصطناعي يتلقى أسئلة الزوار الدينية.

الاقتصاد وزير الاتصالات وتقنية المعلومات السعودي عبد الله السواحه خلال كلمته في المؤتمر (الشرق الأوسط)

وزير الاتصالات السعودي في ملتقى الميزانية: تصدير التقنية في المرحلة المقبلة

قال وزير الاتصالات وتقنية المعلومات السعودي عبد الله السواحه إن المملكة تتجه في المرحلة المقبلة نحو تصدير التقنية بهدف فتح آفاق جديدة للأسواق العالمية.

«الشرق الأوسط» (الرياض)
الاقتصاد شعار شركة «أوبن إيه آي» مالكة تطبيق الذكاء الاصطناعي «تشات جي بي تي» (رويترز)

«أوبن إيه آي» تسمح لموظفيها ببيع أسهم بقيمة 1.5 مليار دولار إلى «سوفت بنك»

سمحت شركة «أوبن إيه آي» لموظفيها ببيع أسهم بقيمة 1.5 مليار دولار تقريباً، في عرض شراء جديد لمجموعة «سوفت بنك» اليابانية.

«الشرق الأوسط» (طوكيو)
تكنولوجيا متجر هواوي في شنغهاي

«هواوي» الصينية تستهدف «أبل» بأحدث هواتفها الذكية «مايت 70»

في العام الماضي، وضع الاختراق في تطوير الرقائق الإلكترونية شركة «هواوي» على قمة سوق الهواتف الذكية الصينية. والآن تطرح الشركة أحدث هواتفها، سلسلة «مايت 70» …

«الشرق الأوسط» (نيويورك)

طارق متري لـ«الشرق الأوسط»: لا بديل عن الـ1701 وإنْ بصياغة جديدة

وزير الخارجية اللبناني الأسبق طارق متري
وزير الخارجية اللبناني الأسبق طارق متري
TT

طارق متري لـ«الشرق الأوسط»: لا بديل عن الـ1701 وإنْ بصياغة جديدة

وزير الخارجية اللبناني الأسبق طارق متري
وزير الخارجية اللبناني الأسبق طارق متري

يشكّل قرار مجلس الأمن الدولي 1701 الركيزة الأساسية لأي حلّ دبلوماسي للحرب الإسرائيلية على لبنان، رغم التصدعات التي أصابته جراء الخروق المتكررة لمضامينه منذ إقراره في شهر أغسطس (آب) 2006. وعلى رغم أن الأحداث المتسارعة تجاوزته وسياسة التدمير التي تنفذها إسرائيل على كامل الأراضي اللبنانية جعلت من الصعب البناء عليه، فإن وزير الخارجية الأسبق طارق متري، تحدث عن «استحالة الاتفاق على قرار بديل عنه بفعل الانقسام الحاد داخل مجلس الأمن الدولي وامتلاك الولايات المتحدة الأميركية وروسيا حق النقض (الفيتو) لتعطيل أي قرار بديل». وشدد متري على أنه «لا بديل لهذا القرار وإن كان يحتاج إلى مقدمة جديدة وإعادة صياغة».

ثغرات تسهل الخرق

ثمة بنود ملتبسة في هذا القرار الدولي، تسببت بخرقه مراراً من إسرائيل و«حزب الله» على السواء؛ لكون كلّ منهما يفسّر هذه البنود بحسب رؤيته ومصلحته. ومتري هو أحد مهندسي الـ1701 عندما مثَّل لبنان وزيراً للخارجية بالوكالة في حكومة الرئيس فؤاد السنيورة، وأشار إلى أن «كل قرارات مجلس الأمن يشوبها بعض الغموض، ومن يقرأ 1701 بتأنٍ يتبيّن أنه ينطوي على لهجة قوية، لكن منطوقه يحمل بعض التأويل». وقال متري في حديثه لـ«الشرق الأوسط»: «مشكلة القرار 1701 الأساسية والتي كانت سبباً وراء تفسيره من نواحٍٍ مختلفة، أنه يدعو إلى وقف الأعمال العدائية وليس وقف إطلاق النار، وكذلك شابه الغموض أو عدم الوضوح، خصوصاً في الفقرة (8) التي تتحدث عن ترتيبات أمنية في المنطقة الفاصلة ما بين مجرى نهر الليطاني والخطّ الأزرق وجعلها خالية من المسلحين»، مشيراً إلى أن «هذا القرار صدر تحت الفصل السادس، لكن الالتباس الأكبر الذي شابه عندما تطرق إلى مهمة القوات الدولية (يونيفيل)؛ إذ أطلق يدها باتخاذ الإجراءات الضرورية كافة لمنع أي تواجد عسكري أو ظهور مسلّح غير شرعي كما لو أنه جاء تحت الفصل السابع». ويتابع متري قوله: «لكن للأسف هذه القوات لم تقم بدورها، وبدلاً عن أن تكون قوّة مراقبة وتدخل، باتت هي نفسها تحت المراقبة» (في إشارة إلى تعقبها من قِبل مناصري «حزب الله» واعتراضها).

ظروف صدور القرار

فرضت تطورات حرب يوليو (تموز) 2006 إصدار هذا القرار تحت النار والمجازر التي ارتكبتها إسرائيل، ولم يخفِ الوزير متري أن «القرار 1701 لم يشبع درساً، وكان همّ كلّ الأطراف الاتفاق على ما يوقف الأعمال العدائية ولو كان ملتبساً». ويقول متري إن القرار «لم يكن ليصدر لو لم تتخذ حكومة لبنان برئاسة فؤاد السنيورة قراراً بإرسال 15 ألف جندي إلى الجنوب. لكن لأسباب متعددة لم يستطع لبنان أن يفي بوعده بإرسال هذا العدد من الجنود، أولاً لعدم توفر الإمكانات وانشغال الجيش بكثير من المهمات بينها حفظ الأمن الداخلي».

صحيح أن القرار الدولي كان عرضة للخرق الدائم وهذا كان موضع تقييم دائم من مجلس الأمن الدولي الذي لطالما حذّر من تجاوزه، لكنه بقي إطاراً ضابطاً للوضع الأمني على طول الخطّ الأزرق الفاصل ما بين لبنان وفلسطين المحتلّة.

جسر دمَّرته حرب 2006 شمال بيروت (غيتي)

وذكّر متري بأن «الفترة التي فصلت إقرار القانون ووقف الأعمال العدائية في عام 2006، وبين 7 أكتوبر (2023) لم يبادر (حزب الله) إلى الاصطدام بأحد، ولم يكن سلاحه ظاهراً كما غابت نشاطاته العسكرية، واعتبر نفسه مطبّقاً للقرار 1701 على النحو المطلوب، في حين أن إسرائيل خرقت السيادة اللبنانية جوّاً آلاف المرات، حتى أنها امتنعت عن إعطاء لبنان خرائط الألغام؛ وهو ما تسبب بسقوط عشرات الضحايا من المدنيين اللبنانيين». كذلك أشار متري إلى أن «دبلوماسيين غربيين تحدثوا عما يشبه الاتفاق الضمني بأن كلّ ما هو غير ظاهر من السلاح جنوبي الليطاني ينسجم القرار مع 1701، وأن (حزب الله) لم يقم بعمليات تخرق الخطّ الأزرق، بل كانت هناك عمليات في مزارع شبعا وتلال كفرشوبا».

هل ما زال القرار قابلاً للحياة؟

يتردد طارق متري في الإجابة عن مستقبل هذا القرار؛ لأن «النوايا الفعلية لحكومة بنيامين نتنياهو غير واضحة». وسرعان ما يلفت إلى وجود تناقضات كبيرة في السياسة الدولية اليوم، ويقول: «الأميركيون يحذّرون نتنياهو من الغزو البرّي، لكنّ الأخير يزعم أنه يريد القيام بعمليات محدودة لضرب أهداف لـ(حزب الله)، وهذا غير مضمون»، مذكراً بأن «جناح اليمين المتطرف داخل الحكومة الإسرائيلية يدعو لاحتلال جزء من جنوب لبنان، لكنّ هؤلاء قلّة غير مؤثرة؛ لأن القرار في جنوب لبنان ونوعيّة الغزو البرّي تتخذه المؤسسة العسكرية»، متحدثاً عن «وجود إشارات متضاربة، إذ أنه عندما قدّم الأميركيون والفرنسيون ورقتهم لوقف النار، جاء التصعيد الإسرائيلي سريعاً في لبنان». وأضاف: «قبل الانتخابات الرئاسية يفضل الأميركيون ألا تندلع الحرب، وفي الوقت نفسه يغضون النظر عمّا تلحقه إسرائيل من أذى بحق المدنيين اللبنانيين».

سيناريو 2006

وتنطلق مخاوف وزير الخارجية السابق التجارب الإسرائيلية السابقة، قائلاً: «في عام 2006 زعمت إسرائيل أن الغاية من عملياتها في لبنان ضرب (حزب الله)، لكنها دمرت لبنان، واليوم تطبّق السيناريو نفسه، إن كانت لا تزال تحيّد مطار بيروت الدولي عن الاستهداف وتتجنّب تدمير الجسور، والفرنسيون متفهمون لذلك».

آثار القصف الإسرائيلي على بيروت خلال الحرب مع «حزب الله» عام 2006 (رويترز)

وشدد في الوقت نفسه على «مسؤولية لبنان بفتح نافذة دبلوماسية؛ إذ ليس لديه خيار سوى تطبيق القرار 1701 والاستعداد لإرسال الجيش إلى الجنوب». وتابع: «إسرائيل تعرف أن الحكومة اللبنانية ضعيفة وإذا حصلت على التزام لبناني بتطبيق القرار ستطالب بالأكثر».

وفي حين يسود اعتقاد بأن القرار 1701 لم يعد الوثيقة الدولية الصالحة لإنهاء الحرب القائمة على لبنان اليوم، استبعد طارق متري إصدار مجلس الأمن الدولي قراراً بديلاً عنه. ورأى أنه «يمكن لمجلس الأمن الدولي أن يجدد المطالبة بتنفيذه مع إعادة صياغته ووضع مقدّمة جديدة له». وتحدث عن «استحالة صدور قرار جديد لأن مجلس الأمن الدولي مشلول ولا يمكن إصدار الاتفاق على بديل، لأن الفيتو الأميركي والروسي موجودون ولا إمكانية لقرار آخر». وأكد أن «التقدم الإسرائيلي ميدانياً سيقفل الباب أمام الحلّ الدبلوماسي، أما إذا تمكن (حزب الله) من الصمود أمام التدخل الإسرائيلي فهذا قد يفتح باباً أمام الحلول السياسية».