الفيديوهات الإباحية المزيفة تستهدف النساء

تنتج ببرامج ذكاء صناعي قوية ولا يمكن تمييزها عن الحقيقية

الفيديوهات الإباحية المزيفة تستهدف النساء
TT

الفيديوهات الإباحية المزيفة تستهدف النساء

الفيديوهات الإباحية المزيفة تستهدف النساء

يعمد مبتكرو تقنية «ديب فيك» (Deepfake) إلى صناعة مقاطع فيديو تبدو حقيقية بشكل مخيف، بواسطة الكومبيوتر وصور يستخرجونها من شبكة الإنترنت. والنساء العاديات هنّ أول ضحايا هذا الخطر.
وتُعرف مقاطع الفيديو التي تظهر وجه أحدهم على جسد شخص آخر بـ«ديب فيك» (الزيف الكبير).

- مقاطع مريعة
ووفقاً لما تناقلته وسائل الإعلام الأميركية، فقد أظهر أحد مقاطع الفيديو امرأة ترتدي سترة زهرية كاشفة للكتفين، جالسة على السرير، وتعلو وجهها ابتسامة مقنعة. نعم إنّه وجهها، ولكن تمّ تركيبه بشكل مثالي، ومن دون معرفتها أو موافقتها، على جسد امرأة أخرى، هي نجمة إباحية يافعة، كانت تهمّ بخلع ملابسها لتصوير مشهد غير ملائم. وتمّت مشاركة هذا الفيديو من قبل بعض المستخدمين المجهولي الهوية في جميع أنحاء الشبكة.
شعرت المرأة المستغَلَّة بالغثيان والخزي، عندما رأت المقطع، وتساءلت: ماذا إن رآه زملاؤها في العمل؟ أفراد عائلتها أو أصدقاؤها؟ هل سيغيّرون رأيهم بها؟ وهل سيصدقون أنّه مزيف؟
تحدّثت المرأة وهي في العقد الرابع من عمرها، طالبة الحفاظ على سرية هويتها بسبب قلقها من إضرار هذا الفيديو بزواجها أو حياتها المهنية، وقالت: «أشعر بالانتهاك. إنّه النوع المقرف من الانتهاك. إنه هذا الشعور الغريب بالرغبة في انتزاع كلّ محتوى الإنترنت. ولكنّي أعرف جيداً أنّني لا أستطيع ذلك».
فتح برنامجا «إيربراشينغ» (Airbrushing) و«فوتوشوب» (Photoshop) الباب منذ زمن طويل للتلاعب السهل، واليوم، أصبحت مقاطع الفيديو معرّضة كما الصور، للتزييف الذي يبدو حقيقياً لدرجة مخيفة.

- برامج ذكاء صناعي
وبفضل برامج ذكاء صناعي قوية ومنتشرة طوّرتها «غوغل»، تكاثرت فيديوهات «ديب فيك» التي لا يمكن تمييزها عن الحقيقية، عبر الإنترنت، وقضت على الخطّ الفاصل بين الحقيقة والكذب.
ولكنّ هذه الفيديوهات تتحوّل تدريجياً إلى سلاح يستهدف النساء بشكل مؤذٍ، يمثّل وسيلة جديدة ومهينة لإذلال المرأة والتحرّش بها والإساءة إليها. تبدو هذه المقاطع مفصّلة بشكل واضح، وتنتشر على مواقع إباحية مشهورة، ويزداد رصدها صعوبة يوماً بعد يوم. ولم تختبر قانونية هذه الفيديوهات حتى اليوم في المحاكم، ولكنّ الخبراء يقولون إنها قد تكون محمية بموجب التعديل الأول في الدستور الأميركي، رغم إمكانية تصنيفها كقدح أو انتحال هوية أو احتيال.
تمّ تصميم الفيديوهات المزيفة والأقرب إلى الحقيقة، عبر استخدام وجوه لنساء من المشاهير وأخريات بعيدات عن الأضواء. وقالت الممثلة الشهيرة سكارليت جوهانسن، لصحيفة «واشنطن بوست»، إنها قلقة من أن «استهداف أي إنسان بعملية تزوير بات مسألة وقت فقط».
تعرّضت جوهانسن لتركيب وجهها على عشرات المشاهد غير الملائمة، التي انتشرت على الإنترنت خلال السنوات الماضية. سجّل أحد هذه الفيديوهات والذي وصف بأنّه فيديو «حقيقي» مسرّب، نحو مليون ونصف مشاهدة عبر قناة إباحية شهيرة. وعبّرت الممثلة الشهيرة عن قلقها من فوات الأوان بالنسبة للنساء والأطفال لحماية أنفسهم من هذه «الهاوية الافتراضية (الإلكترونية) الخارجة عن القانون».
وفي سبتمبر (أيلول)، أضافت شركة «غوغل» «الصور الإباحية المركبة لا إرادياً» على لائحة المنع الخاصة بها، سامحة لأي شخص بطلب نتائج الحجب على محرّك البحث التي تصفهم زوراً كـ«عراة أو في موقف جنسي علني». ولكنّ مشكلة صناعة هذه الفيديوهات ونشرها لن تحلّ ببساطة.

- صناعة إباحية
يستهدف عدد متزايد من فيديوهات «ديب فيك» النساء غير الشهيرات، اللواتي يعرّفهن كثير من المستخدمين المجهولي الهوية على منصات نقاش «ديب فيك» بأنهن زميلات في العمل أو الدراسة أو حتى صديقات. يقول كثير من صانعي هذه الفيديوهات المأجورين، إنّ صناعة هذه الفيديوهات بات لها سعر محدد، يبدأ بـ20 دولاراً للفيديو المزيف الواحد.
قدم الشخص الذي طلب إنتاج الفيديو الذي ظهر فيه وجه المرأة على جسد أخرى ترتدي سترة زهرية، 491 صورة لوجهها، أخذ كثيراً منها من حسابها على «فيسبوك»، وأخبر أعضاء آخرين من موقع متخصص بفيديوهات «ديب فيك» أنّه كان ينوي «دفع مبلغ أكبر مقابل العمل الجيّد». لاحقاً، وجد الخبراء الصور الأصلية بعد معالجة الصورة المركبة عبر أداة إلكترونية، تتيح البحث عن الصورة بناء على محتواها وتحديد الموقع الذي تمّت فيه مشاركة الصورة الأصلية. وتطلّب تحديد موقع الصورة الأصلية يومين، بعد التعاون مع فريق يعرّف أعضاؤه أنفسهم على أنّهم «مبدعون».
لعقود، كانت مقاطع الفيديو تعتبر وسيلة للمصادقة؛ لأنها تضمن تمييزاً واضحاً عن الصور التي يمكن تشويهها بسهولة. ولكن لطالما اعتبر الجميع باستثناء الفنانين المخضرمين واستوديوهات الأفلام، أن الفيديوهات المزيفة معقّدة تقنياً، ويصعب تمييز حقيقتها.
ولكن الاختراقات الأخيرة التي شهدتها تقنية التعلّم الآلي، والتي يوظفها المبتكرون الذين يتسابقون لتحسين فيديوهاتهم المزيفة وتنقيتها من الأخطاء، سهّلت صناعة الفيديوهات المزيفة، وجعلتها متاحة أكثر من أي وقت مضى. إنّ كلّ ما يحتاجونه لصناعة محاكاة مقنعة في غضون ساعات قليلة، هو جهاز كومبيوتر ومجموعة واضحة من الصور، كتلك التي ينشرها الملايين على مواقع التواصل الاجتماعي.

- وسائل مجانية مطورة
بدأت مقاربة الذكاء الصناعي التي أنتجت فيديوهات «ديب فيك» بفكرة بسيطة: مجموعتان متعارضتان من خوارزميات التعلّم العميق التي تبتكر، وتحسّن، وتعيد ابتكار نتيجة أفضل. قدّم هذه الفكرة عام 2014 فريق يقوده إيان غودفيلو، الذي يعمل حالياً باحثاً في «غوغل»، من خلال مقارنتها بمبارزة بين المزورين والشرطة، وعمل الطرفان على «تحسين وسائلهما حتى تصبح المقاطع المزورة غير قابلة للتمييز عن الحقيقة».
عمل النظام على أتمتة هذه المهمة المملة، التي تتطلّب وقتاً طويلاً لصناعة فيديوهات يصار فيها إلى استبدال الوجوه بشكل أقرب إلى الحقيقة، والتي كانت ترتكز على العثور على تعابير وجه متطابقة، واستبدالها دون أخطاء، وتكرار المهمة نفسها نحو 60 مرة في الثانية. إن كثيراً من أدوات «ديب فيك» التي طوّرتها مكتبة «غوغل» للذكاء الصناعي، متوفرة بشكل عام ومجانية الاستخدام.
العام الماضي، بدأ مبتكر مجهول الهوية تحت الاسم الإلكتروني «ديب فيكس» باستخدام برنامج لصناعة ونشر فيديوهات إباحية، تضمّ وجوه مستبدلة لممثلات شهيرات، مثل غال غادو، على منصة النقاش التابعة لموقع «ريديت» الشهير، فحاز على اهتمام واسع وشكّل مصدر إلهام لموجة كبيرة من المقلدين.
تختلف نوعية الفيديوهات بشكل ملحوظ، فكثير منها يحتوي على مغالطات أو شوائب واضحة. ولكن مبتكري «ديب فيك» يقولون إن التقنية تتحسّن بسرعة، ولا تعرف حدوداً على مستوى هوية الأشخاص الذين قد ينتحلون شخصيتهم.
في الوقت الذي تتطلّب فيه عملية «ديب فيك» بعض المهارات التقنية، عملت مجموعة من المبتكرين الإلكترونيين المجهولي الهوية في الأشهر الأخيرة، على إزالة كثير من العقبات للمبتدئين المهتمين بهذا المجال، عبر وضع كتيبات إرشاد تعليمية لتقديم نصائح لحلّ المشكلات التي يمكن أن تواجههم، ومساعدتهم في تنفيذ طلبات مقاطع إباحية مزيفة بمفردهم.
لتسهيل المهمة، يراكم مبدعو «ديب فيكس» غالباً، مجموعات كبيرة من صور الوجوه تعرف باسم «مجموعات الوجه» ومقاطع فيديو لمشاهد جنسية لنساء يعرّفونهن بـ«متبرعات الأجساد». ويستخدم بعض المبتكرين برنامجاً لاستخراج وجه امرأة أوتوماتيكياً من مقاطع فيديو ومنشورات على التواصل الاجتماعي، تخصّ المرأة الهدف، حتّى أنّ آخرين قد جرّبوا برنامجاً لاستنساخ الأصوات لإنتاج تسجيلات صوتية مقنعة.


مقالات ذات صلة

أبحاث جديدة لفهم تفكير الذكاء الاصطناعي وفتح «صندوقه الأسود»

تكنولوجيا تعتمد الطريقة الجديدة على استخراج المفاهيم من داخل النموذج نفسه بدلاً من فرض مفاهيم محددة مسبقاً من قبل الخبراء (أدوبي)

أبحاث جديدة لفهم تفكير الذكاء الاصطناعي وفتح «صندوقه الأسود»

أبحاث جديدة في جامعة MIT تطور تقنيات تساعد نماذج الذكاء الاصطناعي على تفسير قراراتها لتعزيز الشفافية والثقة في الأنظمة المؤتمتة.

نسيم رمضان (لندن)
خاص توسّع مفهوم المرونة الرقمية ليشمل استمرارية البرمجيات وليس الأمن السيبراني فقط (أدوبي)

خاص هل أصبحت مرونة البرمجيات شرطاً أساسياً لحماية الاقتصاد الرقمي في السعودية؟

توسّع مفهوم المرونة الرقمية ليشمل استمرارية البرمجيات ومخاطر الموردين مع بروز الحساب الضامن أداةً لحماية الخدمات الرقمية الحيوية.

نسيم رمضان (لندن)
خاص العاصمة السعودية الرياض (واس) p-circle 01:53

خاص «عام الذكاء الاصطناعي» في السعودية... دفع قوي لاقتصاد البيانات

مع تسارع السباق نحو الاقتصاد الرقمي ودخول العالم مرحلة جديدة تقودها الخوارزميات، تتجه السعودية إلى ترسيخ موقعها لاعباً مؤثراً في مستقبل التقنيات المتقدمة.

زينب علي (الرياض)
تكنولوجيا تشير الدراسة إلى أن تأثير هذه الألعاب في تطور الأطفال دون سن الخامسة لا يزال غير مفهوم بشكل كافٍ (شاترستوك)

ألعاب تتحدث وتردّ… هل يعيد الذكاء الاصطناعي تشكيل تجربة اللّعب لدى الأطفال؟

دراسة من جامعة أكسفورد تحذر من أن ألعاب الذكاء الاصطناعي للأطفال قد تسيء فهم المشاعر وتثير مخاوف بشأن التطور العاطفي والخصوصية.

نسيم رمضان (لندن)
تكنولوجيا  كاميرا "إس 1- 4 كيه إنفينيت"

كاميرا للسيارات وسماعات لاسلكية مطورة

إليكم اثنين من أحدث الأجهزة الجديدة: كاميرا للسيارات بالذكاء الاصطناعي . تعدّ كاميرا لوحة القيادة للسيارات dashcam من شركة «فيرويد»، «إس 1-4 كيه إنفينيت» …

غريغ إيلمان (واشنطن)

أبحاث جديدة لفهم تفكير الذكاء الاصطناعي وفتح «صندوقه الأسود»

تعتمد الطريقة الجديدة على استخراج المفاهيم من داخل النموذج نفسه بدلاً من فرض مفاهيم محددة مسبقاً من قبل الخبراء (أدوبي)
تعتمد الطريقة الجديدة على استخراج المفاهيم من داخل النموذج نفسه بدلاً من فرض مفاهيم محددة مسبقاً من قبل الخبراء (أدوبي)
TT

أبحاث جديدة لفهم تفكير الذكاء الاصطناعي وفتح «صندوقه الأسود»

تعتمد الطريقة الجديدة على استخراج المفاهيم من داخل النموذج نفسه بدلاً من فرض مفاهيم محددة مسبقاً من قبل الخبراء (أدوبي)
تعتمد الطريقة الجديدة على استخراج المفاهيم من داخل النموذج نفسه بدلاً من فرض مفاهيم محددة مسبقاً من قبل الخبراء (أدوبي)

أصبحت أنظمة الذكاء الاصطناعي أكثر تطوراً كالتعرف إلى الصور وتشخيص الأمراض والمساعدة في اتخاذ قرارات معقدة. لكن رغم هذا التقدم الكبير، لا يزال كثير من نماذج التعلم الآلي المتقدمة يعمل بطريقة توصف غالباً بأنها «صندوق أسود». فهي تقدم تنبؤات دقيقة، لكن الأسباب التي تقود إلى هذه التنبؤات تبقى غير واضحة، حتى بالنسبة للمهندسين الذين طوروا هذه الأنظمة.

ويعمل باحثون في معهد ماساتشوستس للتكنولوجيا (MIT) حالياً على معالجة هذه المشكلة من خلال تطوير طرق تساعد أنظمة الذكاء الاصطناعي على شرح قراراتها. ويهدف هذا العمل إلى جعل نماذج التعلم الآلي ليست دقيقة فحسب، بل أكثر شفافية أيضاً، حيث يتمكن البشر من فهم المنطق الذي يقف وراء التنبؤات التي تقدمها هذه الأنظمة.

تفسير قرارات الذكاء الاصطناعي

تزداد أهمية قدرة الذكاء الاصطناعي على تفسير قراراته مع توسع استخدام هذه التقنيات في مجالات حساسة، مثل الرعاية الصحية والنقل والبحث العلمي. ففي هذه المجالات، يحتاج المستخدمون غالباً إلى فهم العوامل التي أدّت إلى نتيجة معينة، قبل أن يتمكنوا من الوثوق بها أو الاعتماد عليها.

فعلى سبيل المثال، قد يرغب طبيب يراجع تشخيصاً طبياً قدّمه نظام ذكاء اصطناعي في معرفة الخصائص التي دفعت النموذج إلى الاشتباه بوجود مرض معين. وبالمثل، يحتاج المهندسون الذين يعملون على تطوير السيارات ذاتية القيادة إلى فهم الإشارات أو الأنماط التي جعلت النظام يحدد وجود مشاة أو يفسر موقفاً مرورياً معيناً.

غير أن كثيراً من نماذج التعلم العميق تعتمد على علاقات رياضية معقدة تشمل آلافاً حتى ملايين من المتغيرات. ورغم أن هذه الأنظمة قادرة على اكتشاف أنماط دقيقة داخل البيانات، فإن الطريقة التي تصل بها إلى قراراتها قد تكون صعبة الفهم بالنسبة للبشر. وقد أصبح هذا النقص في الشفافية أحد أبرز التحديات في مجال الذكاء الاصطناعي الحديث.

ولهذا ظهر مجال بحثي يعرف باسم «الذكاء الاصطناعي القابل للتفسير»، ويهدف إلى تطوير تقنيات تساعد البشر على فهم كيفية وصول الأنظمة الذكية إلى نتائجها، بما يسمح بتقييم موثوقيتها واكتشاف الأخطاء المحتملة وتعزيز الثقة في الأنظمة المؤتمتة.

تهدف هذه الأبحاث إلى بناء أنظمة ذكاء اصطناعي أكثر موثوقية ومساءلة من خلال تحقيق توازن بين دقة النماذج وإمكانية تفسيرها (أدوبي)

نهج قائم على المفاهيم

ركّز الباحثون في «MIT » على تحسين تقنية تعرف باسم «نموذج عنق الزجاجة المفاهيمي». ويهدف هذا النهج إلى جعل طريقة تفكير أنظمة الذكاء الاصطناعي أكثر وضوحاً للبشر.

في هذا النموذج، لا ينتقل النظام مباشرة من البيانات الخام إلى النتيجة النهائية. بدلاً من ذلك، يحدد أولاً مجموعة من المفاهيم أو الخصائص التي يمكن للبشر فهمها، ثم يستخدم هذه المفاهيم كأساس لاتخاذ القرار.

فإذا كان النظام، على سبيل المثال، مدرباً على التعرف إلى أنواع الطيور من الصور، فقد يحدد أولاً خصائص بصرية مثل «أجنحة زرقاء» أو «أرجل صفراء». وبعد التعرف إلى هذه السمات، يمكن للنظام أن يصنف الطائر ضمن نوع معين.

وفي مجال التصوير الطبي، قد تشمل هذه المفاهيم مؤشرات بصرية، مثل أنماط معينة في الأنسجة أو أشكال محددة تساعد في اكتشاف الأمراض. ومن خلال ربط التنبؤات بهذه المفاهيم الواضحة، يصبح من الأسهل على المستخدمين فهم الطريقة التي توصل بها النظام إلى نتيجته.

حدود المفاهيم المحددة مسبقاً

ورغم أن استخدام المفاهيم يمكن أن يجعل أنظمة الذكاء الاصطناعي أكثر شفافية، فإن النسخ السابقة من هذا النهج كانت تعتمد إلى حد كبير على مفاهيم يحددها الخبراء مسبقاً. لكن في الواقع، قد لا تعكس هذه المفاهيم دائماً التعقيد الكامل للمهمة التي يؤديها النظام. فقد تكون عامة للغاية أو غير مكتملة أو غير مرتبطة مباشرة بالأنماط التي يستخدمها النموذج فعلياً أثناء اتخاذ القرار. وفي بعض الحالات، قد يؤدي ذلك إلى تقليل دقة النموذج أو تقديم تفسير لا يعكس الطريقة الحقيقية التي يعمل بها.

ولهذا سعى فريق «MIT» إلى تطوير طريقة جديدة تستخرج المفاهيم مباشرة من داخل النموذج نفسه. فبدلاً من فرض أفكار محددة عليه مسبقاً، تحاول هذه التقنية تحديد الأنماط والتمثيلات التي تعلمها النموذج خلال مرحلة التدريب. بعد ذلك، يتم تحويل هذه الأنماط الداخلية إلى مفاهيم يمكن للبشر فهمها واستخدامها لتفسير قرارات النظام.

تزداد أهمية تفسير قرارات الذكاء الاصطناعي مع استخدامه في مجالات حساسة مثل الطب والنقل والبحث العلمي (أدوبي)

ترجمة تفكير الآلة إلى لغة مفهومة

لتحقيق ذلك، جمع الباحثون بين مكونين مختلفين من تقنيات التعلم الآلي. يقوم الأول بتحليل البنية الداخلية للنموذج المدرب لتحديد الخصائص الأكثر أهمية التي يعتمد عليها عند اتخاذ التنبؤات. أما الثاني فيحوّل هذه الخصائص إلى مفاهيم يمكن للبشر تفسيرها. وبمجرد تحديد هذه المفاهيم، يصبح النظام ملزماً بالاعتماد عليها عند إصدار توقعاته. وبهذا تتشكل سلسلة واضحة منطقياً تربط بين البيانات المدخلة والنتيجة النهائية.

ويشبه الباحث الرئيسي أنطونيو دي سانتيس هذا الهدف بمحاولة فهم طريقة تفكير الإنسان. ويقول: «بمعنى ما، نريد أن نكون قادرين على قراءة عقول نماذج الرؤية الحاسوبية هذه. نموذج عنق الزجاجة المفاهيمي هو إحدى الطرق التي تسمح للمستخدمين بفهم ما الذي يفكر فيه النموذج ولماذا اتخذ قراراً معيناً». ويرى الباحثون أن استخدام مفاهيم مستخرجة من المعرفة الداخلية للنموذج يمكن أن ينتج تفسيرات أكثر وضوحاً ودقة مقارنة بالطرق السابقة.

تحقيق التوازن بين الدقة والشفافية

يُعد تحقيق التوازن بين دقة النماذج وإمكانية تفسيرها أحد التحديات الرئيسية في مجال الذكاء الاصطناعي القابل للتفسير. فالنماذج الأكثر تعقيداً غالباً ما تحقق أفضل النتائج من حيث الدقة، لكنها تكون أيضاً الأصعب في الفهم. يحاول النهج الجديد الذي طوّره باحثو «MIT» معالجة هذه المشكلة من خلال اختيار عدد محدود من المفاهيم الأكثر أهمية لشرح كل تنبؤ. وبهذه الطريقة يركز النظام على الإشارات الأكثر صلة بالقرار بدلاً من الاعتماد على علاقات خفية داخل النموذج. كما يساعد ذلك على تقليل ما يعرف بـ«تسرب المعلومات»، وهي الحالة التي يعتمد فيها النموذج على أنماط في البيانات لا تظهر في التفسير الذي يقدمه.

نحو أنظمة ذكاء اصطناعي أكثر مساءلة

مع ازدياد اعتماد المؤسسات على أنظمة الذكاء الاصطناعي في اتخاذ القرارات، من المرجح أن تصبح القدرة على فهم طريقة عمل هذه الأنظمة أكثر أهمية. فالنماذج الأكثر شفافية يمكن أن تساعد الباحثين على اكتشاف التحيزات المحتملة وتحسين موثوقية الأنظمة والتأكد من أنها تعمل كما هو متوقع. ويمثل البحث الذي أجراه فريق «MIT» خطوة في هذا الاتجاه. فمن خلال تمكين نماذج التعلم الآلي من تفسير قراراتها بطريقة أكثر وضوحاً ومعنى، قد يسهم هذا النهج في تقليص الفجوة بين الخوارزميات المعقدة والفهم البشري.


هل أصبحت مرونة البرمجيات شرطاً أساسياً لحماية الاقتصاد الرقمي في السعودية؟

توسّع مفهوم المرونة الرقمية ليشمل استمرارية البرمجيات وليس الأمن السيبراني فقط (أدوبي)
توسّع مفهوم المرونة الرقمية ليشمل استمرارية البرمجيات وليس الأمن السيبراني فقط (أدوبي)
TT

هل أصبحت مرونة البرمجيات شرطاً أساسياً لحماية الاقتصاد الرقمي في السعودية؟

توسّع مفهوم المرونة الرقمية ليشمل استمرارية البرمجيات وليس الأمن السيبراني فقط (أدوبي)
توسّع مفهوم المرونة الرقمية ليشمل استمرارية البرمجيات وليس الأمن السيبراني فقط (أدوبي)

لم يعد مفهوم المرونة الرقمية مرتبطاً بضوابط الأمن السيبراني فقط، بل باتت الجهات التنظيمية تنظر إليه اليوم بصورة أوسع ليشمل ضمان استمرارية أنظمة البرمجيات الحيوية التي تقوم عليها الاقتصادات الحديثة.

يظهر هذا التحول بوضوح في المملكة العربية السعودية، حيث يشير إصدار إرشادات تنظيمية جديدة حول «الحساب الضامن للبرمجيات» إلى إدراك متزايد بأن المرونة الرقمية يجب أن تعالج أيضاً مخاطر الاعتماد التشغيلي على مزودي البرمجيات من الأطراف الثالثة.

كما أن المخاطر لم تعد تقتصر على الاختراقات أو تسرب البيانات مع اعتماد المؤسسات على منظومات برمجية أكثر تعقيداً.

يقول أليكس ماكولوك، مدير تطوير الأسواق في منطقة الشرق الأوسط لدى شركة «إيسكود» (Escode)، إن الجهات التنظيمية توسّع نطاق تركيزها لأن الاقتصاد الرقمي بات يعتمد بدرجة كبيرة على البرمجيات التي تطورها وتديرها شركات خارجية. ويشرح خلال لقاء خاص مع «الشرق الأوسط» أن المرونة التشغيلية لم تعد تقتصر على ضوابط الأمن السيبراني فقط، بل يجب أن تشمل أيضاً ضمان استمرارية البرمجيات الحيوية للأعمال. ويضيف: «مع تزايد اعتماد المؤسسات على مزودي البرمجيات من الأطراف الثالثة، تتجاوز المخاطر التهديدات السيبرانية لتشمل تعثر المورد أو عمليات الاندماج والاستحواذ أو توقف الخدمة أو الإخفاقات التشغيلية».

أليكس ماكولوك مدير تطوير الأسواق في منطقة الشرق الأوسط لدى شركة «إيسكود»

تحول تنظيمي نحو الاستمرارية التشغيلية

يرى الخبراء أن إصدار هيئة الاتصالات والفضاء والتقنية في السعودية الدليل الإرشادي للحساب الضامن للبرمجيات خطوة تمثل انتقالاً نحو إطار أكثر شمولاً لما يُعرف بـالاستمرارية التشغيلية المنظمة. وبعبارة عملية، يعني ذلك أن الجهات التنظيمية لم تعد تسأل المؤسسات فقط عن كيفية حماية أنظمتها من الهجمات، بل أيضاً عن كيفية استمرار تقديم خدماتها إذا اختفى أحد مزودي التكنولوجيا الرئيسيين فجأة.

ويصرح ماكولوك بأن هذا الدليل «يعكس تحولاً تنظيمياً أوسع من نموذج يركز على الأمن السيبراني فقط إلى نموذج أكثر شمولاً يقوم على مفهوم الاستمرارية التشغيلية المنظمة؛ إذ يتعامل مع مخاطر الاعتماد الرقمي ويضمن استمرارية أنظمة البرمجيات الحيوية».

يأتي هذا التحول في وقت تستثمر فيه المملكة بكثافة في البنية التحتية الرقمية ضمن استراتيجية التحول الاقتصادي «رؤية 2030». فقد أصبحت المنصات السحابية وأنظمة البرمجيات المؤسسية والخدمات الحكومية الرقمية تشكل العمود الفقري للاقتصاد الرقمي في البلاد. لكن مع تزايد الاعتماد على هذه الأنظمة، تتزايد أيضاً أشكال جديدة من المخاطر.

المخاطر الخفية للاعتماد على البرمجيات

في الكثير من القطاعات اليوم، يعمل مزودو البرمجيات من الأطراف الثالثة خلف الكواليس بوصفهم جزءاً أساسياً من البنية التحتية الرقمية. فالأنظمة المصرفية ومنصات الرعاية الصحية والخدمات الحكومية والعمليات المؤسسية تعتمد كثيراً على موردين خارجيين لإدارة عملياتها الرقمية الأساسية. لكن برأي الخبراء، قد يخلق هذا الاعتماد نقاط ضعف نظامية.

يلفت ماكولوك إلى أن «المخاطر النظامية كبيرة؛ لأن البرمجيات المقدمة من أطراف ثالثة تشكل العمود الفقري لقطاعات حيوية مثل الخدمات المالية والبنية التحتية العامة والأنظمة الصحية ومنصات الأعمال المؤسسية».

ورغم أن الأمن السيبراني لا يزال مصدر قلق رئيسياً، فإن الخطر الأكثر إلحاحاً في كثير من الأحيان قد يأتي من اضطرابات غير متوقعة داخل سلسلة توريد البرمجيات نفسها. فقد يؤدي إفلاس المورد أو استحواذ شركة أخرى عليه أو تغيير استراتيجي في أعماله أو حتى فشل تقني مفاجئ إلى تعطّل خدمات تعتمد عليها المؤسسات والحكومات. وهذه السيناريوهات لم تعد افتراضية خاصة في اقتصاد رقمي قائم على منصات مترابطة؛ إذ يمكن أن ينتقل تأثير تعطل مورد واحد إلى قطاعات متعددة.

يُعدّ التحقق التقني من الشفرة المصدرية ضرورياً لضمان إمكانية إعادة تشغيل البرمجيات عند الحاجة (أدوبي)

الاستعداد لتعثر الموردين

مع إدراك الجهات التنظيمية هذه المخاطر، يتزايد الاهتمام بكيفية استعداد المؤسسات لسيناريوهات تعثر الموردين. ويعدّ الحساب الضامن للبرمجيات من الآليات التي بدأت تحظى باهتمام متزايد، وهو ترتيب يتم بموجبه إيداع نسخة من الشفرة المصدرية للبرنامج والوثائق التقنية المرتبطة به لدى طرف ثالث محايد. وإذا أصبح المورد غير قادر على مواصلة دعم النظام، يمكن للمؤسسة استخدام هذا الإيداع للحفاظ على تشغيل البرنامج أو إعادة بنائه بشكل مستقل. يعدّ ماكولوك أن المؤسسات قد تواجه مخاطر مثل تعثر المورد أو الاستحواذ عليه أو توقف الخدمة أو الإخفاق التشغيلي. ويزيد أن الاستعداد لهذه السيناريوهات يتطلب إجراءات منهجية لتعزيز المرونة مثل الحساب الضامن للبرمجيات واختبار سيناريوهات تعثر المورد لضمان الجاهزية التشغيلية.

تحديد الأنظمة الحيوية

ليس كل تطبيق داخل المؤسسة في حاجة إلى هذا النوع من الحماية. فالخطوة الأولى لبناء مرونة البرمجيات هي تحديد الأنظمة التي تُعدّ بالفعل حيوية للأعمال. يقول ماكولوك إنه «ينبغي على المؤسسات إجراء تقييم داخلي لتحديد التطبيقات التي تُعدّ فعلاً حيوية للأعمال. فالأنظمة التي تدعم الخدمات المنظمة أو ترتبط مباشرة بالإيرادات أو تشكل جزءاً من البنية التحتية الوطنية أو تعتمد عليها العمليات الأساسية للعملاء تعدّ مرشحة واضحة للحماية عبر الحساب الضامن». ويساعد دمج هذه العملية ضمن أطر إدارة المخاطر المؤسسية المؤسسات على إعطاء الأولوية لأهم أصولها الرقمية وضمان تطبيق إجراءات المرونة حيث تكون الحاجة أكبر.

من التخزين إلى التحقق التقني

من المفاهيم الخاطئة الشائعة أن مجرد إيداع الشفرة المصدرية يكفي لضمان الاستمرارية. في الواقع، قد يوفر تخزين الشفرة حماية محدودة إذا لم يكن بالإمكان إعادة بناء البرنامج أو صيانته بشكل مستقل.

ينوّه ماكولوك بأن مجرد تخزين الشفرة المصدرية لا يضمن الاستمرارية. فإذا كانت الشفرة المودعة قديمة أو غير مكتملة أو لا تمكن إعادة بنائها في بيئة نظيفة، فإنها تمنح إحساساً زائفاً بالحماية.

لهذا السبب أصبح التحقق التقني جزءاً مهماً من ترتيبات الحساب الضامن الحديثة. وتشمل هذه العمليات مراجعة الشفرة المصدرية، واختبار تجميعها في بيئات خاضعة للرقابة، والتأكد من إمكانية إعادة بناء النظام فعلياً عند الحاجة.

وتحول هذه الإجراءات الحساب الضامن من ضمانة قانونية سلبية إلى آلية فعلية لتعزيز الاستمرارية التشغيلية.

إصدار إرشادات «الحساب الضامن للبرمجيات» في السعودية يعكس تحولاً تنظيمياً نحو الاستمرارية التشغيلية (أدوبي)

دمج الحساب الضامن في الحوكمة المؤسسية

يتعلق تحول مهم آخر بدمج إجراءات مرونة البرمجيات مباشرة في سياسات المشتريات وأطر الحوكمة المؤسسية. فبدلاً من إدراج ترتيبات الحساب الضامن في مراحل متأخرة من التعاقد مع الموردين، بدأت المؤسسات بدمج هذه المتطلبات في سياسات المشتريات ووثائق طلبات العروض وإجراءات اعتماد الموردين. يركز ماكولوك على أهمية «دمج متطلبات الحساب الضامن في سياسات المشتريات ووثائق طلبات العروض وإجراءات اعتماد الموردين ونماذج العقود القياسية. فهذا يضمن أن يصبح الحساب الضامن آلية منهجية للحد من المخاطر بدلاً من كونه إجراءً تعاقدياً في اللحظة الأخيرة». ففي القطاعات المنظمة مثل الخدمات المالية أو البنية التحتية الحكومية، بدأت هذه الممارسات تتحول تدريجياً إلى معيار أساسي وليس خياراً إضافياً.

التكيف مع عصر السحابة و«SaaS»

يضيف التحول نحو البرمجيات السحابية ونماذج «SaaS»، أي تقديم البرمجيات عبر الإنترنت بدلاً من تثبيتها على أجهزة المستخدم أو خوادم الشركة، تعقيدات جديدة إلى تخطيط المرونة الرقمية. فقد صُممت ترتيبات الحساب الضامن التقليدية في الأصل للأنظمة المحلية، حيث كان يمكن إعادة بناء النظام باستخدام الشفرة المصدرية وحدها.

لكن تشغيل البرمجيات في البيئات السحابية يعتمد على عناصر إضافية تتجاوز الشفرة البرمجية.

ينبّه ماكولوك خلال حديثه مع «الشرق الأوسط» إلى ضرورة أن تتجاوز استراتيجيات الحساب الضامن الحديثة مجرد مستودعات الشفرة المصدرية، لتشمل أيضاً البنى السحابية وسيناريوهات النشر وبيئات التهيئة التشغيلية والوثائق التقنية اللازمة لتشغيل الأنظمة الحديثة القائمة على «SaaS» والبنى السحابية. وتجاهل هذه العناصر قد يترك فجوات كبيرة في خطط المرونة التشغيلية.

مستقبل تنظيم مرونة البرمجيات

مع النظر إلى المستقبل، من المرجح أن تستمر المتطلبات التنظيمية المتعلقة بالمرونة الرقمية في التطور. فمع تحول الأنظمة الرقمية إلى عنصر أساسي في الخدمات الاقتصادية والعامة، أصبح يُنظر إلى البرمجيات بوصفها في الوقت نفسه محركاً أساسياً للابتكار ونقطة تركّز محتملة للمخاطر. يكشف ماكولوك عن أن المتطلبات التنظيمية تتجه نحو أطر أوسع للاستمرارية التشغيلية، تعترف بأن البرمجيات تمثل في الوقت نفسه محركاً رئيسياً للتحول الرقمي ونقطة تركّز للمخاطر.

وبالنسبة للسعودية، يمثل الدليل الجديد للحساب الضامن للبرمجيات خطوة مبكرة في هذا الاتجاه، تتماشى مع جهود المملكة لبناء اقتصاد رقمي أكثر مرونة ضمن رؤية 2030.

قد يعكس هذا التحول فهماً أعمق لطبيعة المخاطر الرقمية. فحماية البنية التحتية لم تعد تعني فقط الدفاع ضد الهجمات السيبرانية، بل تعني أيضاً ضمان استمرار عمل أنظمة البرمجيات التي تدير الاقتصادات الحديثة حتى في حال تعثر الجهات التي تطورها أو تديرها.

وبهذا المعنى، تصبح مرونة البرمجيات أحد الأعمدة الأساسية للثقة الرقمية.


فيديو: «مدرسة الروبوتات» بالصين… آلات تتعلّم الحياة اليومية بعيون البشر

مشاهدون يتابعون عرضاً للروبوتات في العاصمة الصينية بكين (رويترز)
مشاهدون يتابعون عرضاً للروبوتات في العاصمة الصينية بكين (رويترز)
TT

فيديو: «مدرسة الروبوتات» بالصين… آلات تتعلّم الحياة اليومية بعيون البشر

مشاهدون يتابعون عرضاً للروبوتات في العاصمة الصينية بكين (رويترز)
مشاهدون يتابعون عرضاً للروبوتات في العاصمة الصينية بكين (رويترز)

في مختبر متطور بمدينة Wuhan الصينية، تبدو المشاهد أقرب إلى فصل دراسي غير مألوف: صفٌّ من الروبوتات الشبيهة بالبشر يقف في انتظار التعليمات، بينما يقف أمامها مدربون بشريون يوجّهون حركاتها خطوةً خطوة. هنا، فيما يشبه «مدرسة للروبوتات»، تتعلم الآلات كيف تعيش تفاصيل الحياة اليومية كما يفعل البشر. وفقاً لموقع «يورونيوز».

يعتمد الباحثون الصينيون على تقنيات الواقع الافتراضي لتدريب هذه الروبوتات على أداء مهام متنوعة، تبدأ من إعداد فنجان قهوة، ولا تنتهي بالأعمال المنزلية البسيطة. ويرتدي المدربون نظارات الواقع الافتراضي ويمسكون بأجهزة تحكم يدوية، فتتحول حركاتهم مباشرةً إلى أوامر تنفذها الروبوتات في الوقت الفعلي.

وتشرح كو تشيونغبين، وهي مدربة روبوتات تعمل في مجال الذكاء الاصطناعي، طبيعة هذه التجربة قائلة إن المدربين «يرتدون نظارات الواقع الافتراضي ويمسكون بأجهزة تحكم في أيديهم، لتصبح اليدان اليمنى واليسرى بمثابة ذراعي الروبوت. وهكذا يتعلم الروبوت حركاتنا وأوضاعنا عبر تقليدها».

وتضيف أن البيانات الناتجة عن هذه الحركات تُرفع لاحقاً إلى السحابة الإلكترونية، حيث تُراجع وتُعتمد ضمن قاعدة بيانات، قبل أن تُحمّل مجدداً إلى الروبوت ليبدأ التعلم منها.

لكن التجربة لا تخلو من بعدٍ إنساني. تقول تشيونغبين إن أكثر ما يمنحها شعوراً بالرضا هو لحظة نجاح الروبوت في إنجاز المهمة: «الأمر ممتع للغاية. أشعر بإنجاز حقيقي عندما ينجح الروبوت في تنفيذ ما تعلمه، وكأنني أعلّم طفلي شيئاً جديداً وأراه يتطور أمامي».

ويقع هذا المشروع في منطقة تطوير التكنولوجيا الفائقة لبحيرة الشرق، المعروفة أيضاً باسم «وادي البصريات في الصين»، حيث تُنشأ بيئات تدريب تحاكي الواقع بدقة. ففي قاعات المختبر، يمكن مشاهدة غرف معيشة أو ورش عمل صناعية أُعدّت خصيصاً لتدريب الروبوتات على التعامل مع تفاصيل الحياة اليومية.

ويعتمد التدريب على التكرار المكثف؛ إذ يعيد المدربون الحركة نفسها مئات أو آلاف المرات، من أجل بناء قاعدة بيانات ضخمة تمكّن الروبوتات من تعلم المهارات تدريجياً.

ويقول يانغ شينيي، قائد المشروع في شركة «Data Fusion Technology»، إن الهدف من هذه العملية هو «إنشاء سيناريوهات واقعية تحاكي الحياة اليومية». ويضيف أن المدرب قد يضطر أحياناً إلى تكرار حركة واحدة عشرات الآلاف من المرات حتى يكتسب الروبوت القدرة على فهمها وتنفيذها بدقة.

ويؤكد الباحثون أن هذه الجهود تمثل خطوة مهمة نحو تسريع تطوير الروبوتات الشبيهة بالبشر القادرة على العمل والتفاعل داخل البيئات الواقعية، سواء في المنازل أو المصانع.

ولم يعد الأمر مقتصراً على المختبرات فحسب؛ إذ بات بإمكان الزوار في «7S Robot Store» مشاهدة بعض هذه الروبوتات عن قرب، والتفاعل معها مباشرة، حيث تستجيب للأوامر وتنفذ مهام بسيطة، في مشهدٍ يعكس ملامح عالمٍ قد تصبح فيه العلاقة بين الإنسان والآلة أكثر قرباً مما كان يُعتقد.