رحيل اليونانية إيرين باباس صاحبة دور «هند» في فيلم «الرسالة»https://aawsat.com/home/article/3874816/%D8%B1%D8%AD%D9%8A%D9%84-%D8%A7%D9%84%D9%8A%D9%88%D9%86%D8%A7%D9%86%D9%8A%D8%A9-%D8%A5%D9%8A%D8%B1%D9%8A%D9%86-%D8%A8%D8%A7%D8%A8%D8%A7%D8%B3-%D8%B5%D8%A7%D8%AD%D8%A8%D8%A9-%D8%AF%D9%88%D8%B1-%C2%AB%D9%87%D9%86%D8%AF%C2%BB-%D9%81%D9%8A-%D9%81%D9%8A%D9%84%D9%85-%C2%AB%D8%A7%D9%84%D8%B1%D8%B3%D8%A7%D9%84%D8%A9%C2%BB
رحيل اليونانية إيرين باباس صاحبة دور «هند» في فيلم «الرسالة»
أثينا:«الشرق الأوسط»
TT
أثينا:«الشرق الأوسط»
TT
رحيل اليونانية إيرين باباس صاحبة دور «هند» في فيلم «الرسالة»
أُعلن في أثينا وفاة الممثلة اليونانية إيرين باباس التي نالت شهرة عالمية لأدائها أدوار البطولة في أفلام كلاسيكية في الستينات، وأيضاً لتجسيدها دور «هند بنت عتبة» في النسخة الإنجليزية العالمية من فيلم «الرسالة».
وأوضحت وكالة الأنباء اليونانية الحكومية أن باباس (المولودة باسم إيريني ليليكو) توفيت صباح أمس (الأربعاء). ولم تتوافر معلومات على الفور عن سبب وفاة باباس، لكنّ وضعها الصحي كان دقيقاً في الآونة الأخيرة. وقالت وسائل إعلام يونانية إن باباس أُصيبت بمرض ألزهايمر في السنوات الأخيرة.
وكانت باباس واحدة من أشهر الممثلات اليونانيات في الخارج إلى جانب ميلينا ميركوري، وشاركت في نحو ستين فيلماً خلال مسيرتها المهنية التي امتدت ستة عقود.
وحصلت إيرين باباس على عدد من الجوائز، من بينها جائزة أفضل ممثلة عام 1961 في مهرجان برلين السينمائي، وجائزة الأسد الذهبي في مهرجان البندقية عام 2009 عن مجمل مسيرتها الفنية. ... المزيد
ليس «سارقو الدراجات» بداية الواقعية الجديدة بل أحد تتويجاتها، فيما تكشف العودة إلى أعمال لوكينو ڤيسكونتي المبكرة عن الجذور الفعلية لهذا التيار وتحولاته اللاحقة
أبدى صُنَّاع للسينما في مصر تخوفهم من خسائر كبيرة قد تتجاوز نصف إيرادات دور العرض، مع بدء تطبيق القرار الحكومي الخاص بترشيد استهلاك الطاقة، اعتباراً من السبت.
قالت المخرجة اللبنانية رانية الرافعي إن فكرة فيلمها الوثائقي «يوم الغضب... حكايات من طرابلس» لم تبدأ من قصة محددة، وإنما انطلقت من أسئلة طويلة.
أحمد عدلي (القاهرة )
رواية «مكان اسمه كميت» لنجم والي بالألمانيةhttps://aawsat.com/%D8%AB%D9%82%D8%A7%D9%81%D8%A9-%D9%88%D9%81%D9%86%D9%88%D9%86/5256621-%D8%B1%D9%88%D8%A7%D9%8A%D8%A9-%D9%85%D9%83%D8%A7%D9%86-%D8%A7%D8%B3%D9%85%D9%87-%D9%83%D9%85%D9%8A%D8%AA-%D9%84%D9%86%D8%AC%D9%85-%D9%88%D8%A7%D9%84%D9%8A-%D8%A8%D8%A7%D9%84%D8%A3%D9%84%D9%85%D8%A7%D9%86%D9%8A%D8%A9
صدرت خلال الأيام القليلة الماضية عن دار «سيثيسيون فيرلاغ» الألمانية السويسرية المعروفة باهتمامها بنشر الأدب العالمي الحديث، ترجمة لرواية «مكان اسمه كميت» للروائي العراقي نجم والي، التي أنجزتها المترجمة الألمانية إيمكه آلف فين. الرواية التي صدرت طبعتها الأولى عن دار شرقيات القاهرة 1997 وطبعتها الثانية عن دار الرافدين في بغداد - كان بيروت عام 2018، وهي تاسع رواية تصدر له مترجمة إلى الألمانية.
وتدور أحداث الرواية في المنتصف الثاني من أعوام السبعينات.
عشية الحرب العراقية الإيرانية، في أواخر صيف عام 1980، ينفصل صالح سلطان، مدرس التاريخ والشاعر البالغ من العمر ثلاثين عاماً، عن زوجته، وهي ناشطة شيوعية سابقة، ويغادر بغداد هرباً من السجن. كان يأمل في بدء حياة جديدة في البلدة الصغيرة «كميت»، الواقعة جنوب العراق. وعندما يقع في غرام الطالبة الجميلة ماجدة، ذات التسعة عشر عاماً، التي انضم شقيقها رعد إلى صفوف الأنصار الشيوعيين، تبدأ رحلته المحفوفة بالمخاطر كخصم لعصام محمود، حاكم كميت المستبد، الذي يرغب هو الآخر في ماجدة.
الفتاة الشابة تنجذب إلى الرجلين؛ إلى صالح لكونه ضعيفاً، حساساً، مثقفاً، وكئيباً، يذكرها بأخيها الهارب رعد، وإلى عصام لأنه يمثل تحدياً مثيراً للاهتمام، وحماية لأهلها من التعرض للملاحقة.
كانت ذكريات طفولته الجميلة مع جدته، ماتينراد، التي لا تزال تعيش في كميت وتكسب رزقها من صناعة العباءات، هي ما قادت صالح سلطان إلى تلك الناحية النائية، ورغم أنه لم ينضم إلى حزب البعث، فقد وقّع على تعهدٍ بالابتعاد عن السياسة في الريف. إلا أن كميت لم تعد ملاذاً ريفياً هادئاً، كما ظن صالح، بل أصبحت أشبه بدولة بوليسية مصغرة يحكمها عصام ماهود.
وسبق أن صدرت ترجمة فرنسية للرواية نفسها عام 1999 أنجزتها المستعربة الفرنسية ماريانا، وستصدر ترجمتها إلى الانجليزية التي أنجزها المترجم وليم هيتشنيز العام المقبل.
متى يجب على الطبيب ألا يعتمد على الذكاء الاصطناعي؟https://aawsat.com/%D8%B9%D9%84%D9%88%D9%85/5256620-%D9%85%D8%AA%D9%89-%D9%8A%D8%AC%D8%A8-%D8%B9%D9%84%D9%89-%D8%A7%D9%84%D8%B7%D8%A8%D9%8A%D8%A8-%D8%A3%D9%84%D8%A7-%D9%8A%D8%B9%D8%AA%D9%85%D8%AF-%D8%B9%D9%84%D9%89-%D8%A7%D9%84%D8%B0%D9%83%D8%A7%D8%A1-%D8%A7%D9%84%D8%A7%D8%B5%D8%B7%D9%86%D8%A7%D8%B9%D9%8A%D8%9F
متى يجب على الطبيب ألا يعتمد على الذكاء الاصطناعي؟
تحيز البيانات خطر خفي في الذكاء الاصطناعي الطبي
تحوَّل الذكاء الاصطناعي خلال العقد الأخير، من أداة بحثية في مختبرات التكنولوجيا إلى عنصر متزايد الحضور في غرف التشخيص والعيادات الطبية حول العالم. فأنظمة التعلم العميق أصبحت قادرة على تحليل صور الأشعة بدقة عالية، واكتشاف الأورام في مراحل مبكرة، والتنبؤ ببعض الأمراض قبل ظهور أعراضها؛ بل وحتى اقتراح مسارات علاجية محتملة، اعتماداً على تحليل كميات هائلة من البيانات الطبية.
حدود الذكاء الاصطناعي
• حدود واضحة لتوظيف الذكاء الاصطناعي. غير أن هذا التقدم السريع يطرح سؤالاً بالغ الأهمية في الممارسة الطبية المعاصرة: متى يجب على الطبيب ألا يعتمد على الذكاء الاصطناعي؟
فمع توسع استخدام هذه التقنيات بدأت المؤسسات الصحية الدولية في وضع حدود واضحة لاستخدامها. وقد أصدرت جهات تنظيمية كبرى مثل منظمة الصحة العالمية وهيئات تنظيم الدواء في الولايات المتحدة وأوروبا وبريطانيا، إرشادات تؤكد أن الذكاء الاصطناعي يمكن أن يكون أداة قوية لدعم الرعاية الصحية، ولكنه لا ينبغي أن يتحول إلى بديل عن الحكم السريري أو المسؤولية الطبية.
ولهذا بدأت الأدبيات العلمية والتنظيمية في تحديد حالات محددة يصبح فيها استخدام الذكاء الاصطناعي غير مناسب، أو حتى غير آمن في رعاية المرضى.
• بين الأداة والسلطة: المبدأ الأساسي الذي تتفق عليه الهيئات الصحية الدولية بسيط وواضح: الذكاء الاصطناعي أداة تحليل متقدمة، ولكنه ليس سلطة طبية. فهذه الأنظمة قادرة على معالجة كميات هائلة من البيانات الطبية، واكتشاف أنماط قد يصعب على الإنسان ملاحظتها، ولكنها لا تملك القدرة على تحمل المسؤولية الطبية، أو فهم جميع أبعاد الحالة الإنسانية للمريض.
إن القرار الطبي لا يعتمد فقط على تحليل البيانات أو قراءة الصور الطبية؛ بل يشمل أيضاً الخبرة السريرية للطبيب، وفهم التاريخ الصحي للمريض، والظروف الاجتماعية والنفسية التي قد تؤثر في التشخيص والعلاج. ولهذا تؤكد الإرشادات الدولية في أخلاقيات الذكاء الاصطناعي الطبي، أن دور هذه الأنظمة يجب أن يبقى في إطار دعم القرار الطبي لا استبداله.
وفي هذا السياق، بدأت الهيئات الصحية والتنظيمية في تحديد الحالات التي ينبغي فيها استخدام الذكاء الاصطناعي بحذر، أو حتى تجنب الاعتماد عليه في رعاية المرضى.
التوصيات الدولية
تشير الإرشادات الدولية الحديثة إلى أن استخدام الذكاء الاصطناعي في الرعاية الصحية يجب أن يتم ضمن حدود واضحة، تضمن سلامة المرضى واستقلال القرار الطبي. فقد أكدت منظمة الصحة العالمية في توصياتها حول أخلاقيات الذكاء الاصطناعي في الصحة، الصادرة عام 2021، والمحدَّثة لاحقاً في تقارير الصحة الرقمية، وكذلك الجمعية الطبية الأميركية في إرشاداتها بشأن استخدام الذكاء الاصطناعي في الممارسة الطبية، أن هذه الأنظمة يمكن أن تكون أدوات قوية لدعم التشخيص والعلاج، ولكنها يجب ألا تُستخدم في جميع الحالات ولا أن تحل محل الحكم السريري للطبيب.
ولهذا بدأت الأدبيات الطبية والتنظيمية في تحديد حالات واضحة، يصبح فيها استخدام الذكاء الاصطناعي غير مناسب أو حتى غير آمن في رعاية المرضى. وفي ضوء هذه التوصيات يمكن تلخيص أبرز الحالات التي ينبغي فيها تجنب الاعتماد على الذكاء الاصطناعي في الممارسة الطبية في 10 حالات رئيسية.
• الحالة الأولى- عندما لا يكون النظام مثبَتاً علمياً: القاعدة الأساسية في الطب الحديث هي أن أي تقنية جديدة يجب أن تخضع لتقييم علمي صارم، قبل استخدامها في رعاية المرضى. وينطبق ذلك بصورة خاصة على أنظمة الذكاء الاصطناعي الطبية. فالنماذج التي لم تُختبر في دراسات علمية منشورة في مجلات محكَّمة، أو لم تُقيَّم في تجارب سريرية حقيقية، أو لم تحصل على اعتماد الجهات التنظيمية المختصة، لا ينبغي الاعتماد عليها في اتخاذ قرارات تشخيصية أو علاجية. فسلامة المرضى تتطلب أن تُثبت هذه الأنظمة دقتها وموثوقيتها قبل إدخالها إلى الممارسة الطبية.
• الحالة الثانية- عندما لا تمثل البيانات المرضى الحقيقيين: تعتمد أنظمة الذكاء الاصطناعي في عملها على البيانات التي دُرِّبت عليها. وإذا كانت هذه البيانات لا تمثل الفئات السكانية التي سيُستخدم النظام معها، فقد يؤدي ذلك إلى أخطاء تشخيصية أو تحيزات طبية خطيرة. فالنظام الذي طُوِّر اعتماداً على بيانات مرضى من منطقة أو فئة سكانية معينة، قد لا يعطي النتائج نفسها عند استخدامه مع مرضى من خلفيات جينية أو بيئية مختلفة. ولهذا يؤكد الخبراء ضرورة التأكد من أن بيانات التدريب تعكس تنوع المرضى في الواقع الطبي.
• الحالة الثالثة- عندما يصبح القرار (صندوقاً أسود): إحدى القضايا التي تثير نقاشاً واسعاً في الذكاء الاصطناعي الطبي، هي ما تُعرف بمشكلة «الصندوق الأسود». ففي بعض الأنظمة المتقدمة قد تقدم الخوارزمية نتيجة أو توصية طبية من دون أن يكون من الواضح كيف وصلت إلى هذا الاستنتاج.
وفي الممارسة الطبية، لا يكفي أن يكون القرار صحيحاً من الناحية التقنية؛ بل يجب أن يكون قابلاً للفهم والتفسير. فالأطباء يحتاجون إلى معرفة الأسس التي بُني عليها التقييم الطبي، حتى يتمكنوا من مراجعته ومقارنته بالمعطيات السريرية للمريض. ولهذا تحذِّر كثير من الإرشادات الطبية من الاعتماد على أنظمة ذكاء اصطناعي لا توفر درجة كافية من الشفافية في طريقة عملها، أو تفسير نتائجها.
القرار الطبي يبقى بيد الطبيب، لا بيد الخوارزمية
تعارض مع الحكم السريري
• الحالة الرابعة- عندما يتعارض مع الحكم السريري: قد تقدم أنظمة الذكاء الاصطناعي في بعض الحالات توصية أو تقييماً يختلف عن تقدير الطبيب السريري. وفي مثل هذه الحالات تؤكد الإرشادات الدولية أن القرار الطبي النهائي يجب أن يبقى بيد الطبيب. فالخوارزميات تعتمد على تحليل البيانات والأنماط الإحصائية، بينما يستند الحكم السريري إلى خبرة الطبيب وفهمه الكامل لحالة المريض وسياقها الطبي والإنساني. لذلك عندما يحدث تعارض بين توصية النظام الذكي وتقييم الطبيب، يجب التعامل مع مخرجات الذكاء الاصطناعي بوصفها أداة مساعدة للمراجعة، لا بديلاً عن القرار الطبي المسؤول.
• الحالة الخامسة- عندما يُستخدم النظام خارج نطاقه: تُطوَّر أنظمة الذكاء الاصطناعي في الطب عادة لأداء مهام محددة بدقة، مثل تحليل صور الأشعة أو المساعدة في تشخيص حالة معينة. وعندما يُستخدم النظام خارج المجال الذي صُمم من أجله، فقد يؤدي ذلك إلى نتائج أو توصيات غير دقيقة. ولهذا تؤكد الإرشادات التنظيمية أن استخدام أنظمة الذكاء الاصطناعي يجب أن يقتصر على الغرض الطبي الذي طُوِّرت واختُبرت من أجله؛ لأن تجاوز هذا النطاق قد يعرِّض سلامة القرار الطبي للخطر.
• الحالة السادسة- عندما يصبح النظام قديماً: مثل أي نظام تقني آخر، قد تفقد أنظمة الذكاء الاصطناعي الطبية جزءاً من دقتها مع مرور الوقت. ويحدث ذلك لأن البيانات الطبية والأنماط المرضية تتغير باستمرار، وهو ما يسميه الباحثون أحياناً «تدهور النموذج». ولهذا تؤكد الهيئات الصحية الدولية أن هذه الأنظمة يجب أن تخضع لمراقبة مستمرة وتحديثات دورية، لضمان بقائها دقيقة وآمنة. أما الاعتماد على نظام لم يُحدَّث أو لم تُراجع نتائجه منذ فترة طويلة، فقد يؤدي إلى قرارات طبية أقل دقة مما يُتوقع من التكنولوجيا نفسها.
غياب الشفافية والحوكمة الطبية
• الحالة السابعة- عندما تغيب الشفافية: تعتمد الثقة في أي نظام طبي على وضوح طريقة عمله وحدود استخدامه. فإذا لم تكشف الشركات المطورة عن مصادر البيانات التي دُرِّب عليها النظام، أو عن معدلات الخطأ المحتملة، أو عن الحالات التي قد يفشل فيها، يصبح من الصعب على الأطباء تقييم مدى موثوقية هذه التقنية. ولهذا تؤكد الإرشادات التنظيمية أن الشفافية شرط أساسي لاستخدام الذكاء الاصطناعي في الرعاية الصحية؛ لأن القرار الطبي لا يمكن أن يُبنى على نظام لا يعرف الطبيب حدوده ولا نقاط ضعفه.
• الحالة الثامنة- عندما يرفض المريض استخدامه: يُعد مبدأ الموافقة المستنيرة أحد الأسس الأخلاقية في الطب الحديث. ولذلك من حق المريض أن يعرف ما إذا كانت أنظمة الذكاء الاصطناعي تُستخدم في تشخيص حالته أو دعم قرارات علاجه. كما يحق له أيضاً أن يرفض استخدام هذه التقنيات إذا لم يشعر بالارتياح لها. وفي مثل هذه الحالات يجب احترام قرار المريض؛ لأن العلاقة الطبية تقوم في جوهرها على الثقة والشفافية بين الطبيب والمريض.
• الحالة التاسعة- عندما تغيب الحوكمة الطبية: أي عندما لا يكون هناك نظام واضح للمساءلة ولا لمتابعة أداء النظام الذكي داخل المؤسسة الصحية. فالاستخدام الآمن للذكاء الاصطناعي يتطلب وجود آليات رقابية واضحة تضمن مراجعة نتائجه وتحديد المسؤولية في حال حدوث أخطاء.
• الحالة العاشرة- عندما لا تتوفر حماية كافية للبيانات:
إذا لم يكن النظام يضمن حماية البيانات الطبية وخصوصية المرضى وفق المعايير التنظيمية المعتمدة. فالبيانات الصحية تعد من أكثر المعلومات حساسية، وأي استخدام للذكاء الاصطناعي يجب أن يلتزم بأعلى معايير الأمن الرقمي وحماية الخصوصية.
عندما تصبح الخوارزمية صندوقا أسود
بحوث حديثة... ومعايير الأخلاقيات السعودية
• ماذا تقول البحوث الحديثة؟ : تشير الدراسات العلمية الحديثة إلى أن نجاح استخدام الذكاء الاصطناعي في الطب لا يعتمد فقط على دقة الخوارزميات؛ بل أيضاً على درجة الثقة التي يضعها الأطباء والمرضى في هذه الأنظمة.
ففي دراسة علمية نُشرت في يناير (كانون الثاني) 2025 في مجلة «جورنال أوف ميديكال إنترنت ريسيرتش» (Journal of Medical Internet Research) حول العوامل المؤثرة في الثقة بأنظمة دعم القرار الطبي المعتمدة على الذكاء الاصطناعي، توصل الباحثون إلى أن الأطباء يميلون إلى استخدام هذه الأنظمة عندما تكون نتائجها قابلة للتفسير، وعندما تكون خاضعة لتقييم علمي واضح. كما أظهرت الدراسة أن الثقة بالذكاء الاصطناعي ترتبط بشكل وثيق بوجود إشراف طبي مباشر على القرار النهائي، وهو ما يعزز فكرة أن هذه التقنيات يجب أن تعمل كأدوات دعم للقرار الطبي لا كبديل عن الحكم السريري للطبيب.
المعايير الأخلاقية للذكاء الاصطناعي في السعودية:
في المملكة العربية السعودية، أصدرت «الهيئة السعودية للبيانات والذكاء الاصطناعي» (سدايا) إطاراً وطنياً لأخلاقيات الذكاء الاصطناعي، يُعد من أبرز الأطر التنظيمية في المنطقة لتنظيم استخدام هذه التقنيات في مختلف القطاعات، بما في ذلك الرعاية الصحية. ويرتكز هذا الإطار على مجموعة من المبادئ الأساسية، من بينها: العدالة، والشفافية، والمسؤولية، وحماية الخصوصية، وضمان سلامة الاستخدام.
ويؤكد هذا الإطار التنظيمي أن استخدام الذكاء الاصطناعي في المجال الصحي يجب أن يهدف إلى دعم القرار السريري للطبيب، وتعزيز جودة الرعاية الطبية، لا أن يحل محل الحكم الطبي أو المسؤولية المهنية للطبيب. ويتماشى هذا التوجه مع المعايير الدولية التي تشدد على أن الذكاء الاصطناعي أداة مساعدة لتحليل البيانات الطبية، بينما تبقى المسؤولية النهائية عن القرار العلاجي بيد الطبيب.
مصادر لـ«الشرق الأوسط»: اختطاف قائد ميداني في «القسام» من غزةhttps://aawsat.com/%D8%A7%D9%84%D8%B9%D8%A7%D9%84%D9%85-%D8%A7%D9%84%D8%B9%D8%B1%D8%A8%D9%8A/%D8%A7%D9%84%D9%85%D8%B4%D8%B1%D9%82-%D8%A7%D9%84%D8%B9%D8%B1%D8%A8%D9%8A/5256619-%D9%85%D8%B5%D8%A7%D8%AF%D8%B1-%D9%84%D9%80%D8%A7%D9%84%D8%B4%D8%B1%D9%82-%D8%A7%D9%84%D8%A3%D9%88%D8%B3%D8%B7-%D8%A7%D8%AE%D8%AA%D8%B7%D8%A7%D9%81-%D9%82%D8%A7%D8%A6%D8%AF-%D9%85%D9%8A%D8%AF%D8%A7%D9%86%D9%8A-%D9%81%D9%8A-%D8%A7%D9%84%D9%82%D8%B3%D8%A7%D9%85-%D9%85%D9%86-%D8%BA%D8%B2%D8%A9
مقاتلون من «كتائب القسام» في مدينة غزة شهر نوفمبر الماضي (إ.ب.أ)
غزة:«الشرق الأوسط»
TT
غزة:«الشرق الأوسط»
TT
مصادر لـ«الشرق الأوسط»: اختطاف قائد ميداني في «القسام» من غزة
مقاتلون من «كتائب القسام» في مدينة غزة شهر نوفمبر الماضي (إ.ب.أ)
اختطف مسلحون مجهولون، مساء الأحد، قيادياً ميدانياً في «كتائب القسام» الجناح المسلح لحركة «حماس»، في حي تل الهوى، جنوب غربي مدينة غزة.
وقالت مصادر ميدانية في «حماس» لـ«الشرق الأوسط»، إن المخطوف يتولى قيادة سرية في «القسام»، مشيرة إلى أن قوات كبيرة من الكتائب انتشرت في شوارع مدينة غزة، مساء الأحد بتوقيت فلسطين، وبدأت ملاحقة «مركبتين يشتبه بأن العناصر الخاطفة على متنها».
وسُمع إطلاق نار مكثف في مناطق متفرقة من مدينة غزة، يعتقد أنه ناتج عن ملاحق العناصر الخاطفة.
ووفقاً لأحد المصادر من «حماس»، فإنه «يُرجَّح أن قوة إسرائيلية خاصة، أو عناصر تتبع عصابة مسلحة متعاونة مع إسرائيل تقف خلف عملية الاختطاف».
وجاءت الحادثة بالتزامن مع محاولة اغتيال ضابط في أمن حكومة «حماس»، يوم الأحد، وهو أيضاً ناشط بارز في «القسام» بمنطقة الزوايدة وسط قطاع غزة، ما أدى لإصابته بجروح طفيفة، بينما اعتُقل أحد المنفذين بعد ملاحقته.
فلسطينيون وسط غزة يفحصون موقع غارة إسرائيلية استهدفت سيارة شرطة (رويترز)
وشهد قطاع غزة خلال الأسابيع الماضية محاولات تسلل متكررة لبعض من عناصر العصابات المسلحة المدعومة من إسرائيل، الأمر الذي أدى لوقوع اشتباكات في بعض الأحيان، وملاحقة متبادلة مع عناصر «كتائب القسام» الذراع العسكرية لـ«حماس»، وظهرت مُسيَّرات هاجمت عناصر «القسام»، ما أدى لمقتل وإصابة بعضهم كما جرى قبل أسبوعين تقريباً في خان يونس.
وقبل أسبوعين تقريباً، كشفت مصادر من «حماس» لـ«الشرق الأوسط» أن استجواباً أجرته لشخص تتهمه بالعمل مع العصابات المسلحة التي تنشط في مناطق السيطرة الإسرائيلية في قطاع غزة، أظهر نمواً في الدعم المقدم من قوات الاحتلال لتلك المجموعات، على المستويين العسكري والتدريبي.
ووفق المصادر، فإن الاستجواب كشف عن أن «إسرائيل تدرِّب عناصر العصابات على استخدام مُسيَّرات (درون) تحمل متفجرات، وأسلحة، ويطلقون منها النيران».
ومنذ الاتفاق على وقف إطلاق النار بين إسرائيل و«حماس» في أكتوبر (تشرين الأول) الماضي، يفصل خط افتراضي يعرف باسم «الخط الأصفر» بين مناطق تسيطر عليها الحركة (غرب الخط) وأخرى ينتشر فيها الجيش الإسرائيلي (شرق الخط) والعصابات الفلسطينية المسلحة الموالية له.
وتحدثت المصادر من «حماس» نقلاً عن الاستجواب، بأن التدريب على استخدام المُسيَّرات لم يكن قاصراً على استخدامها للهجوم؛ بل إن «عناصر تلك العصابات المسلحة، سواء في خان يونس أو شمال قطاع غزة تحديداً، تمكَّنوا مؤخراً من استخدام المُسيَّرات في حمل بعض الأسلحة، وإلقائها في مناطق نائية لصالح عناصر جنَّدتهم خلايا نائمة في عمق مناطق (حماس)».