دليلك لرصد الفيديوهات المزيفة بالذكاء الاصطناعي

أدوات ذكية يمكن أن تنزلق من المرح إلى التخويف والتهديد

دليلك لرصد الفيديوهات المزيفة بالذكاء الاصطناعي
TT

دليلك لرصد الفيديوهات المزيفة بالذكاء الاصطناعي

دليلك لرصد الفيديوهات المزيفة بالذكاء الاصطناعي

عليك توخي الحذر تجاه أي فيديو ينتشر عبر منصات التواصل الاجتماعي هذه الأيام. وفيما يلي بعض النصائح لرصد الفيديوهات الزائفة.

لم يصبر مستخدمو الإنترنت طويلاً ليكسروا أحدث منتجات شركة «أوبن إيه آي»؛ إذ وبعد أيام قلائل من إطلاق برنامج «سورا 2» Sora 2 للذكاء الاصطناعي، حتى امتلأت قنوات «تيك توك» و«ريديت» و«يوتيوب» بدروسٍ تشرح كيفية محو العلامة المائية الصغيرة، وهي الدليل الوحيد على أن مقطع الفيديو جرى إنتاجه بالذكاء الاصطناعي.

وفي الواقع، فإن متابعة تلك الفيديوهات يحدث لحظةً بلحظة تربك العقل، خاصة وأن المستخدمين يجربون مرحلة اختفاء الخط الفاصل بين «الدهشة العظيمة» أو الفيديو «المذهل» وبين التوقف للحظة واحدة للتدقيق بأن هذا الفيديو مزيف.

فيديوهات مزيفة

* عناصر مرئية مهندسة. إليكم مثالاً رائعاً: في مقطعٍ شاهده الملايين، تنقذ قطة منزلية صغيرة طفلاً من الوقوع في مخالب دبٍّ مندفع. والحقيقة، أن هذا فيديو نموذجي لمنصات التواصل الاجتماعي، بما يحويه من دراما، براءة، حيوانات أليفة، فيديو خطرـ لأنها كلها مُهندسة لتحصد ملايين النقرات على «فيسبوك» و«إنستغرام».

المشكلة أنه مزيف بنسبة 100 في المائة ويفتقد العلامة المائية الخاصة بـ «سورا».

وحتى الرئيس دونالد ترمب نشر حديثاً «فيديو مزيفاً مليئاً بالألفاظ النابية مع إيحاءاتٍ عنصرية»، وحصد نحو 38 مليون مشاهدة على منصة «إكس»، دون أي علامة تدل على أنه غير حقيقي.

* قدرات عظيمة ومقلقة. والآن، ماذا يحدث لنا عندما لم يعُد «المشاهَد» يُصدَّق؟ هنا، تكمن القوة المُقلِقة لـ«سورا 2»، فالتطبيق المرتبط بالدعوات على «آيفون» يحوّل أوامر من عشر ثوانٍ إلى مقاطع شديدة الواقعية، يكملها الآن صوتٍ وحوارٍ متزامنَين.

هناك حتى ميزة «الظهور المفاجئ»: (Cameo) تُثبت هويتك مرة واحدة، ثم تسمح للآخرين بإدراج وجهك في فيديوهاتهم بالذكاء الاصطناعي (بموافقتك). نظرياً، جرى تصميم هذا لمنع الانتحال. أما على الصعيد العملي، فقد سمح ذلك بالفعل في طمس الهوية والملكية بطرقٍ جديدة تماماً.

إنه رهانٌ واضح لجعل الذكاء الاصطناعي اجتماعياً، وهي خطوة مسببة للإدمان، وتستهلك الوقت، وليست سوى بداية السرعة التي يمكن أن تنزلق بها هذه الأدوات من المرح إلى التخويف والتهديد.

حقيقي أم مزيف؟

والآن، كيف أميّز إن كان الفيديو حقيقياً أم مولداً بالذكاء الاصطناعي؟

توخَّ الحذر تجاه أي فيديو منتشر على وسائل التواصل هذه الأيام، خاصة إن لم تكن تعرف مصدره. إليك قائمةً مفيدة بطرقٍ سهلة لاكتشاف المقاطع الزائفة، كما أوردتها جينيفر جولي في «يو إس إيه توداي»:

- تحقّق من المصدر: إن كان حقيقياً، ستؤكده عدة منافذ موثوقة أو شهود. إذا كانت كل الروابط تعود إلى منشور «تيك توك» نفسه، فالغالب أنه غير حقيقي. ولا تتوجه بالتأكيد، إلى أي «خبيرٌ عشوائي» على «يوتيوب» للتعرف على الحقيقة.

- هل ترى بقعةً «إسفنجية»؟ كثير من مقاطع «سورا» المزوّرة يجري تحريره لمحو العلامة المائية الأصلية. دقّق قرب الزوايا أو حواف الإطار، بحثاً عن بقعةٍ ضبابية، أو ضوءٍ مطموس، أو مربعٍ ناعم - هذا غالباً مكان العلامة المائية.

- راقب الكاميرا، لا الموضوع. بوجه عام، يعتبر الذكاء الاصطناعي بارعاً في الوجوه، سيئ في تصويرها. فالفيديو الحقيقي يهتز قليلاً بيد من يمسك الهاتف، أما مقاطع الذكاء الاصطناعي فتتحرك بسلاسة كأنها تنزلق على سكك. إن بدا كتصوير من طائرة مسيّرة لا هاتف، توقّف قبل أن تُصدّق.

- افحص الجانب الفيزيائي (المادي). هل يتصرّف الضوء والظل طبيعياً؟ هل ترفرف الأكمام مع هبّة الريح؟ هل تعكس الانعكاسات ما ينبغي لها أن تعكسه؟ غالباً يقترب الذكاء الاصطناعي من الصواب ـ لكن لا يصيبه تماماً.

- أصغِ جيداً. قد تخرج الخطوات أو الأصوات عن التزامن الطبيعي، أو يبدو همس الخلفية واضحاً أكثر من اللازم - كأن شخصاً ضغط زر «كتم» للواقع.

- ادرس الحسابات. إذا جاء الفيديو من حسابٍ غامض دون سيرة، دون تاريخ، دون موقع، فاعتبره خيالاً حتى يثبت العكس.

- انتبه للتنسيق. تزدهر مقاطع «الكاميرا المعلقة بالجسم» و«كاميرات المراقبة»، لأنها تُخفي عيوب الذكاء الاصطناعي عبر حالة من الفوضى. إن بدا كأنه من كاميرا شرطي أو جرس باب - فاطرح الأسئلة.

- أبطِئ التشغيل. المشاهدة إطاراً بإطار تكشف عثراتٍ مميزة: شعار يذوب، يد تختفي، نصوص لافتاتٍ مشوَّشة أو وميض نص يتبدّل.

خلاصة سريعة

عليك أن تعتبر من الآن أن كل فيديو تراه على وسائل التواصل مزيف - إلى أن تغطيه وسائل إعلام موثوقة. ضع نصب عينيك حقيقة أنك لستَ مضطراً لاكتشاف كل مزيف - يكفي أن تُبطئ وتيرتك قليلاً لطرح أسئلة حول ما تراه. عام 2025، الشك ليس نتاجاً للتشاؤم، بل دفاعٌ عن النفس.

وتقول شركة «أوبن إيه آي» إنها تبني أنظمة وسمٍ أقوى وشراكاتٍ مع المنصات لتتبّع مقاطع «سورا» إلى مصدرها. كما تمنح الناس تحكماً في كيفية استخدام صورهم - مع أن إنفاذ حقوق النشر لا يزال يعتمد على شكاوى أصحاب الحقوق.

وقد أطلقت «غوغل» للتو نموذجها الأحدث لتوليد الفيديو بالذكاء الاصطناعي Veo 3.1، بينما تسابق «ميتا» لعرض منصتها الاجتماعية الخاصة بفيديوهات الذكاء الاصطناعي، وسيلحق آخرون قريباً.

اليوم، لا يجري السباق حول من يصنع المقاطع الأكثر واقعية فحسب؛ بل حول من يسيطر على الانتباه الذي تحصده. وعليه، أصبح التشكك بمثابة محو الأمية الجديد. انظر مرتين، وفكّر طوال الوقت، وتذكّر: حدسك هو العلامة المائية التي لا يمكنهم محوها.


مقالات ذات صلة

أبحاث جديدة لفهم تفكير الذكاء الاصطناعي وفتح «صندوقه الأسود»

تكنولوجيا تعتمد الطريقة الجديدة على استخراج المفاهيم من داخل النموذج نفسه بدلاً من فرض مفاهيم محددة مسبقاً من قبل الخبراء (أدوبي)

أبحاث جديدة لفهم تفكير الذكاء الاصطناعي وفتح «صندوقه الأسود»

أبحاث جديدة في جامعة MIT تطور تقنيات تساعد نماذج الذكاء الاصطناعي على تفسير قراراتها لتعزيز الشفافية والثقة في الأنظمة المؤتمتة.

نسيم رمضان (لندن)
خاص توسّع مفهوم المرونة الرقمية ليشمل استمرارية البرمجيات وليس الأمن السيبراني فقط (أدوبي)

خاص هل أصبحت مرونة البرمجيات شرطاً أساسياً لحماية الاقتصاد الرقمي في السعودية؟

توسّع مفهوم المرونة الرقمية ليشمل استمرارية البرمجيات ومخاطر الموردين مع بروز الحساب الضامن أداةً لحماية الخدمات الرقمية الحيوية.

نسيم رمضان (لندن)
خاص العاصمة السعودية الرياض (واس) p-circle 01:53

خاص «عام الذكاء الاصطناعي» في السعودية... دفع قوي لاقتصاد البيانات

مع تسارع السباق نحو الاقتصاد الرقمي ودخول العالم مرحلة جديدة تقودها الخوارزميات، تتجه السعودية إلى ترسيخ موقعها لاعباً مؤثراً في مستقبل التقنيات المتقدمة.

زينب علي (الرياض)
تكنولوجيا تشير الدراسة إلى أن تأثير هذه الألعاب في تطور الأطفال دون سن الخامسة لا يزال غير مفهوم بشكل كافٍ (شاترستوك)

ألعاب تتحدث وتردّ… هل يعيد الذكاء الاصطناعي تشكيل تجربة اللّعب لدى الأطفال؟

دراسة من جامعة أكسفورد تحذر من أن ألعاب الذكاء الاصطناعي للأطفال قد تسيء فهم المشاعر وتثير مخاوف بشأن التطور العاطفي والخصوصية.

نسيم رمضان (لندن)
تكنولوجيا  كاميرا "إس 1- 4 كيه إنفينيت"

كاميرا للسيارات وسماعات لاسلكية مطورة

إليكم اثنين من أحدث الأجهزة الجديدة: كاميرا للسيارات بالذكاء الاصطناعي . تعدّ كاميرا لوحة القيادة للسيارات dashcam من شركة «فيرويد»، «إس 1-4 كيه إنفينيت» …

غريغ إيلمان (واشنطن)

أبحاث جديدة لفهم تفكير الذكاء الاصطناعي وفتح «صندوقه الأسود»

تعتمد الطريقة الجديدة على استخراج المفاهيم من داخل النموذج نفسه بدلاً من فرض مفاهيم محددة مسبقاً من قبل الخبراء (أدوبي)
تعتمد الطريقة الجديدة على استخراج المفاهيم من داخل النموذج نفسه بدلاً من فرض مفاهيم محددة مسبقاً من قبل الخبراء (أدوبي)
TT

أبحاث جديدة لفهم تفكير الذكاء الاصطناعي وفتح «صندوقه الأسود»

تعتمد الطريقة الجديدة على استخراج المفاهيم من داخل النموذج نفسه بدلاً من فرض مفاهيم محددة مسبقاً من قبل الخبراء (أدوبي)
تعتمد الطريقة الجديدة على استخراج المفاهيم من داخل النموذج نفسه بدلاً من فرض مفاهيم محددة مسبقاً من قبل الخبراء (أدوبي)

أصبحت أنظمة الذكاء الاصطناعي أكثر تطوراً كالتعرف إلى الصور وتشخيص الأمراض والمساعدة في اتخاذ قرارات معقدة. لكن رغم هذا التقدم الكبير، لا يزال كثير من نماذج التعلم الآلي المتقدمة يعمل بطريقة توصف غالباً بأنها «صندوق أسود». فهي تقدم تنبؤات دقيقة، لكن الأسباب التي تقود إلى هذه التنبؤات تبقى غير واضحة، حتى بالنسبة للمهندسين الذين طوروا هذه الأنظمة.

ويعمل باحثون في معهد ماساتشوستس للتكنولوجيا (MIT) حالياً على معالجة هذه المشكلة من خلال تطوير طرق تساعد أنظمة الذكاء الاصطناعي على شرح قراراتها. ويهدف هذا العمل إلى جعل نماذج التعلم الآلي ليست دقيقة فحسب، بل أكثر شفافية أيضاً، حيث يتمكن البشر من فهم المنطق الذي يقف وراء التنبؤات التي تقدمها هذه الأنظمة.

تفسير قرارات الذكاء الاصطناعي

تزداد أهمية قدرة الذكاء الاصطناعي على تفسير قراراته مع توسع استخدام هذه التقنيات في مجالات حساسة، مثل الرعاية الصحية والنقل والبحث العلمي. ففي هذه المجالات، يحتاج المستخدمون غالباً إلى فهم العوامل التي أدّت إلى نتيجة معينة، قبل أن يتمكنوا من الوثوق بها أو الاعتماد عليها.

فعلى سبيل المثال، قد يرغب طبيب يراجع تشخيصاً طبياً قدّمه نظام ذكاء اصطناعي في معرفة الخصائص التي دفعت النموذج إلى الاشتباه بوجود مرض معين. وبالمثل، يحتاج المهندسون الذين يعملون على تطوير السيارات ذاتية القيادة إلى فهم الإشارات أو الأنماط التي جعلت النظام يحدد وجود مشاة أو يفسر موقفاً مرورياً معيناً.

غير أن كثيراً من نماذج التعلم العميق تعتمد على علاقات رياضية معقدة تشمل آلافاً حتى ملايين من المتغيرات. ورغم أن هذه الأنظمة قادرة على اكتشاف أنماط دقيقة داخل البيانات، فإن الطريقة التي تصل بها إلى قراراتها قد تكون صعبة الفهم بالنسبة للبشر. وقد أصبح هذا النقص في الشفافية أحد أبرز التحديات في مجال الذكاء الاصطناعي الحديث.

ولهذا ظهر مجال بحثي يعرف باسم «الذكاء الاصطناعي القابل للتفسير»، ويهدف إلى تطوير تقنيات تساعد البشر على فهم كيفية وصول الأنظمة الذكية إلى نتائجها، بما يسمح بتقييم موثوقيتها واكتشاف الأخطاء المحتملة وتعزيز الثقة في الأنظمة المؤتمتة.

تهدف هذه الأبحاث إلى بناء أنظمة ذكاء اصطناعي أكثر موثوقية ومساءلة من خلال تحقيق توازن بين دقة النماذج وإمكانية تفسيرها (أدوبي)

نهج قائم على المفاهيم

ركّز الباحثون في «MIT » على تحسين تقنية تعرف باسم «نموذج عنق الزجاجة المفاهيمي». ويهدف هذا النهج إلى جعل طريقة تفكير أنظمة الذكاء الاصطناعي أكثر وضوحاً للبشر.

في هذا النموذج، لا ينتقل النظام مباشرة من البيانات الخام إلى النتيجة النهائية. بدلاً من ذلك، يحدد أولاً مجموعة من المفاهيم أو الخصائص التي يمكن للبشر فهمها، ثم يستخدم هذه المفاهيم كأساس لاتخاذ القرار.

فإذا كان النظام، على سبيل المثال، مدرباً على التعرف إلى أنواع الطيور من الصور، فقد يحدد أولاً خصائص بصرية مثل «أجنحة زرقاء» أو «أرجل صفراء». وبعد التعرف إلى هذه السمات، يمكن للنظام أن يصنف الطائر ضمن نوع معين.

وفي مجال التصوير الطبي، قد تشمل هذه المفاهيم مؤشرات بصرية، مثل أنماط معينة في الأنسجة أو أشكال محددة تساعد في اكتشاف الأمراض. ومن خلال ربط التنبؤات بهذه المفاهيم الواضحة، يصبح من الأسهل على المستخدمين فهم الطريقة التي توصل بها النظام إلى نتيجته.

حدود المفاهيم المحددة مسبقاً

ورغم أن استخدام المفاهيم يمكن أن يجعل أنظمة الذكاء الاصطناعي أكثر شفافية، فإن النسخ السابقة من هذا النهج كانت تعتمد إلى حد كبير على مفاهيم يحددها الخبراء مسبقاً. لكن في الواقع، قد لا تعكس هذه المفاهيم دائماً التعقيد الكامل للمهمة التي يؤديها النظام. فقد تكون عامة للغاية أو غير مكتملة أو غير مرتبطة مباشرة بالأنماط التي يستخدمها النموذج فعلياً أثناء اتخاذ القرار. وفي بعض الحالات، قد يؤدي ذلك إلى تقليل دقة النموذج أو تقديم تفسير لا يعكس الطريقة الحقيقية التي يعمل بها.

ولهذا سعى فريق «MIT» إلى تطوير طريقة جديدة تستخرج المفاهيم مباشرة من داخل النموذج نفسه. فبدلاً من فرض أفكار محددة عليه مسبقاً، تحاول هذه التقنية تحديد الأنماط والتمثيلات التي تعلمها النموذج خلال مرحلة التدريب. بعد ذلك، يتم تحويل هذه الأنماط الداخلية إلى مفاهيم يمكن للبشر فهمها واستخدامها لتفسير قرارات النظام.

تزداد أهمية تفسير قرارات الذكاء الاصطناعي مع استخدامه في مجالات حساسة مثل الطب والنقل والبحث العلمي (أدوبي)

ترجمة تفكير الآلة إلى لغة مفهومة

لتحقيق ذلك، جمع الباحثون بين مكونين مختلفين من تقنيات التعلم الآلي. يقوم الأول بتحليل البنية الداخلية للنموذج المدرب لتحديد الخصائص الأكثر أهمية التي يعتمد عليها عند اتخاذ التنبؤات. أما الثاني فيحوّل هذه الخصائص إلى مفاهيم يمكن للبشر تفسيرها. وبمجرد تحديد هذه المفاهيم، يصبح النظام ملزماً بالاعتماد عليها عند إصدار توقعاته. وبهذا تتشكل سلسلة واضحة منطقياً تربط بين البيانات المدخلة والنتيجة النهائية.

ويشبه الباحث الرئيسي أنطونيو دي سانتيس هذا الهدف بمحاولة فهم طريقة تفكير الإنسان. ويقول: «بمعنى ما، نريد أن نكون قادرين على قراءة عقول نماذج الرؤية الحاسوبية هذه. نموذج عنق الزجاجة المفاهيمي هو إحدى الطرق التي تسمح للمستخدمين بفهم ما الذي يفكر فيه النموذج ولماذا اتخذ قراراً معيناً». ويرى الباحثون أن استخدام مفاهيم مستخرجة من المعرفة الداخلية للنموذج يمكن أن ينتج تفسيرات أكثر وضوحاً ودقة مقارنة بالطرق السابقة.

تحقيق التوازن بين الدقة والشفافية

يُعد تحقيق التوازن بين دقة النماذج وإمكانية تفسيرها أحد التحديات الرئيسية في مجال الذكاء الاصطناعي القابل للتفسير. فالنماذج الأكثر تعقيداً غالباً ما تحقق أفضل النتائج من حيث الدقة، لكنها تكون أيضاً الأصعب في الفهم. يحاول النهج الجديد الذي طوّره باحثو «MIT» معالجة هذه المشكلة من خلال اختيار عدد محدود من المفاهيم الأكثر أهمية لشرح كل تنبؤ. وبهذه الطريقة يركز النظام على الإشارات الأكثر صلة بالقرار بدلاً من الاعتماد على علاقات خفية داخل النموذج. كما يساعد ذلك على تقليل ما يعرف بـ«تسرب المعلومات»، وهي الحالة التي يعتمد فيها النموذج على أنماط في البيانات لا تظهر في التفسير الذي يقدمه.

نحو أنظمة ذكاء اصطناعي أكثر مساءلة

مع ازدياد اعتماد المؤسسات على أنظمة الذكاء الاصطناعي في اتخاذ القرارات، من المرجح أن تصبح القدرة على فهم طريقة عمل هذه الأنظمة أكثر أهمية. فالنماذج الأكثر شفافية يمكن أن تساعد الباحثين على اكتشاف التحيزات المحتملة وتحسين موثوقية الأنظمة والتأكد من أنها تعمل كما هو متوقع. ويمثل البحث الذي أجراه فريق «MIT» خطوة في هذا الاتجاه. فمن خلال تمكين نماذج التعلم الآلي من تفسير قراراتها بطريقة أكثر وضوحاً ومعنى، قد يسهم هذا النهج في تقليص الفجوة بين الخوارزميات المعقدة والفهم البشري.


هل أصبحت مرونة البرمجيات شرطاً أساسياً لحماية الاقتصاد الرقمي في السعودية؟

توسّع مفهوم المرونة الرقمية ليشمل استمرارية البرمجيات وليس الأمن السيبراني فقط (أدوبي)
توسّع مفهوم المرونة الرقمية ليشمل استمرارية البرمجيات وليس الأمن السيبراني فقط (أدوبي)
TT

هل أصبحت مرونة البرمجيات شرطاً أساسياً لحماية الاقتصاد الرقمي في السعودية؟

توسّع مفهوم المرونة الرقمية ليشمل استمرارية البرمجيات وليس الأمن السيبراني فقط (أدوبي)
توسّع مفهوم المرونة الرقمية ليشمل استمرارية البرمجيات وليس الأمن السيبراني فقط (أدوبي)

لم يعد مفهوم المرونة الرقمية مرتبطاً بضوابط الأمن السيبراني فقط، بل باتت الجهات التنظيمية تنظر إليه اليوم بصورة أوسع ليشمل ضمان استمرارية أنظمة البرمجيات الحيوية التي تقوم عليها الاقتصادات الحديثة.

يظهر هذا التحول بوضوح في المملكة العربية السعودية، حيث يشير إصدار إرشادات تنظيمية جديدة حول «الحساب الضامن للبرمجيات» إلى إدراك متزايد بأن المرونة الرقمية يجب أن تعالج أيضاً مخاطر الاعتماد التشغيلي على مزودي البرمجيات من الأطراف الثالثة.

كما أن المخاطر لم تعد تقتصر على الاختراقات أو تسرب البيانات مع اعتماد المؤسسات على منظومات برمجية أكثر تعقيداً.

يقول أليكس ماكولوك، مدير تطوير الأسواق في منطقة الشرق الأوسط لدى شركة «إيسكود» (Escode)، إن الجهات التنظيمية توسّع نطاق تركيزها لأن الاقتصاد الرقمي بات يعتمد بدرجة كبيرة على البرمجيات التي تطورها وتديرها شركات خارجية. ويشرح خلال لقاء خاص مع «الشرق الأوسط» أن المرونة التشغيلية لم تعد تقتصر على ضوابط الأمن السيبراني فقط، بل يجب أن تشمل أيضاً ضمان استمرارية البرمجيات الحيوية للأعمال. ويضيف: «مع تزايد اعتماد المؤسسات على مزودي البرمجيات من الأطراف الثالثة، تتجاوز المخاطر التهديدات السيبرانية لتشمل تعثر المورد أو عمليات الاندماج والاستحواذ أو توقف الخدمة أو الإخفاقات التشغيلية».

أليكس ماكولوك مدير تطوير الأسواق في منطقة الشرق الأوسط لدى شركة «إيسكود»

تحول تنظيمي نحو الاستمرارية التشغيلية

يرى الخبراء أن إصدار هيئة الاتصالات والفضاء والتقنية في السعودية الدليل الإرشادي للحساب الضامن للبرمجيات خطوة تمثل انتقالاً نحو إطار أكثر شمولاً لما يُعرف بـالاستمرارية التشغيلية المنظمة. وبعبارة عملية، يعني ذلك أن الجهات التنظيمية لم تعد تسأل المؤسسات فقط عن كيفية حماية أنظمتها من الهجمات، بل أيضاً عن كيفية استمرار تقديم خدماتها إذا اختفى أحد مزودي التكنولوجيا الرئيسيين فجأة.

ويصرح ماكولوك بأن هذا الدليل «يعكس تحولاً تنظيمياً أوسع من نموذج يركز على الأمن السيبراني فقط إلى نموذج أكثر شمولاً يقوم على مفهوم الاستمرارية التشغيلية المنظمة؛ إذ يتعامل مع مخاطر الاعتماد الرقمي ويضمن استمرارية أنظمة البرمجيات الحيوية».

يأتي هذا التحول في وقت تستثمر فيه المملكة بكثافة في البنية التحتية الرقمية ضمن استراتيجية التحول الاقتصادي «رؤية 2030». فقد أصبحت المنصات السحابية وأنظمة البرمجيات المؤسسية والخدمات الحكومية الرقمية تشكل العمود الفقري للاقتصاد الرقمي في البلاد. لكن مع تزايد الاعتماد على هذه الأنظمة، تتزايد أيضاً أشكال جديدة من المخاطر.

المخاطر الخفية للاعتماد على البرمجيات

في الكثير من القطاعات اليوم، يعمل مزودو البرمجيات من الأطراف الثالثة خلف الكواليس بوصفهم جزءاً أساسياً من البنية التحتية الرقمية. فالأنظمة المصرفية ومنصات الرعاية الصحية والخدمات الحكومية والعمليات المؤسسية تعتمد كثيراً على موردين خارجيين لإدارة عملياتها الرقمية الأساسية. لكن برأي الخبراء، قد يخلق هذا الاعتماد نقاط ضعف نظامية.

يلفت ماكولوك إلى أن «المخاطر النظامية كبيرة؛ لأن البرمجيات المقدمة من أطراف ثالثة تشكل العمود الفقري لقطاعات حيوية مثل الخدمات المالية والبنية التحتية العامة والأنظمة الصحية ومنصات الأعمال المؤسسية».

ورغم أن الأمن السيبراني لا يزال مصدر قلق رئيسياً، فإن الخطر الأكثر إلحاحاً في كثير من الأحيان قد يأتي من اضطرابات غير متوقعة داخل سلسلة توريد البرمجيات نفسها. فقد يؤدي إفلاس المورد أو استحواذ شركة أخرى عليه أو تغيير استراتيجي في أعماله أو حتى فشل تقني مفاجئ إلى تعطّل خدمات تعتمد عليها المؤسسات والحكومات. وهذه السيناريوهات لم تعد افتراضية خاصة في اقتصاد رقمي قائم على منصات مترابطة؛ إذ يمكن أن ينتقل تأثير تعطل مورد واحد إلى قطاعات متعددة.

يُعدّ التحقق التقني من الشفرة المصدرية ضرورياً لضمان إمكانية إعادة تشغيل البرمجيات عند الحاجة (أدوبي)

الاستعداد لتعثر الموردين

مع إدراك الجهات التنظيمية هذه المخاطر، يتزايد الاهتمام بكيفية استعداد المؤسسات لسيناريوهات تعثر الموردين. ويعدّ الحساب الضامن للبرمجيات من الآليات التي بدأت تحظى باهتمام متزايد، وهو ترتيب يتم بموجبه إيداع نسخة من الشفرة المصدرية للبرنامج والوثائق التقنية المرتبطة به لدى طرف ثالث محايد. وإذا أصبح المورد غير قادر على مواصلة دعم النظام، يمكن للمؤسسة استخدام هذا الإيداع للحفاظ على تشغيل البرنامج أو إعادة بنائه بشكل مستقل. يعدّ ماكولوك أن المؤسسات قد تواجه مخاطر مثل تعثر المورد أو الاستحواذ عليه أو توقف الخدمة أو الإخفاق التشغيلي. ويزيد أن الاستعداد لهذه السيناريوهات يتطلب إجراءات منهجية لتعزيز المرونة مثل الحساب الضامن للبرمجيات واختبار سيناريوهات تعثر المورد لضمان الجاهزية التشغيلية.

تحديد الأنظمة الحيوية

ليس كل تطبيق داخل المؤسسة في حاجة إلى هذا النوع من الحماية. فالخطوة الأولى لبناء مرونة البرمجيات هي تحديد الأنظمة التي تُعدّ بالفعل حيوية للأعمال. يقول ماكولوك إنه «ينبغي على المؤسسات إجراء تقييم داخلي لتحديد التطبيقات التي تُعدّ فعلاً حيوية للأعمال. فالأنظمة التي تدعم الخدمات المنظمة أو ترتبط مباشرة بالإيرادات أو تشكل جزءاً من البنية التحتية الوطنية أو تعتمد عليها العمليات الأساسية للعملاء تعدّ مرشحة واضحة للحماية عبر الحساب الضامن». ويساعد دمج هذه العملية ضمن أطر إدارة المخاطر المؤسسية المؤسسات على إعطاء الأولوية لأهم أصولها الرقمية وضمان تطبيق إجراءات المرونة حيث تكون الحاجة أكبر.

من التخزين إلى التحقق التقني

من المفاهيم الخاطئة الشائعة أن مجرد إيداع الشفرة المصدرية يكفي لضمان الاستمرارية. في الواقع، قد يوفر تخزين الشفرة حماية محدودة إذا لم يكن بالإمكان إعادة بناء البرنامج أو صيانته بشكل مستقل.

ينوّه ماكولوك بأن مجرد تخزين الشفرة المصدرية لا يضمن الاستمرارية. فإذا كانت الشفرة المودعة قديمة أو غير مكتملة أو لا تمكن إعادة بنائها في بيئة نظيفة، فإنها تمنح إحساساً زائفاً بالحماية.

لهذا السبب أصبح التحقق التقني جزءاً مهماً من ترتيبات الحساب الضامن الحديثة. وتشمل هذه العمليات مراجعة الشفرة المصدرية، واختبار تجميعها في بيئات خاضعة للرقابة، والتأكد من إمكانية إعادة بناء النظام فعلياً عند الحاجة.

وتحول هذه الإجراءات الحساب الضامن من ضمانة قانونية سلبية إلى آلية فعلية لتعزيز الاستمرارية التشغيلية.

إصدار إرشادات «الحساب الضامن للبرمجيات» في السعودية يعكس تحولاً تنظيمياً نحو الاستمرارية التشغيلية (أدوبي)

دمج الحساب الضامن في الحوكمة المؤسسية

يتعلق تحول مهم آخر بدمج إجراءات مرونة البرمجيات مباشرة في سياسات المشتريات وأطر الحوكمة المؤسسية. فبدلاً من إدراج ترتيبات الحساب الضامن في مراحل متأخرة من التعاقد مع الموردين، بدأت المؤسسات بدمج هذه المتطلبات في سياسات المشتريات ووثائق طلبات العروض وإجراءات اعتماد الموردين. يركز ماكولوك على أهمية «دمج متطلبات الحساب الضامن في سياسات المشتريات ووثائق طلبات العروض وإجراءات اعتماد الموردين ونماذج العقود القياسية. فهذا يضمن أن يصبح الحساب الضامن آلية منهجية للحد من المخاطر بدلاً من كونه إجراءً تعاقدياً في اللحظة الأخيرة». ففي القطاعات المنظمة مثل الخدمات المالية أو البنية التحتية الحكومية، بدأت هذه الممارسات تتحول تدريجياً إلى معيار أساسي وليس خياراً إضافياً.

التكيف مع عصر السحابة و«SaaS»

يضيف التحول نحو البرمجيات السحابية ونماذج «SaaS»، أي تقديم البرمجيات عبر الإنترنت بدلاً من تثبيتها على أجهزة المستخدم أو خوادم الشركة، تعقيدات جديدة إلى تخطيط المرونة الرقمية. فقد صُممت ترتيبات الحساب الضامن التقليدية في الأصل للأنظمة المحلية، حيث كان يمكن إعادة بناء النظام باستخدام الشفرة المصدرية وحدها.

لكن تشغيل البرمجيات في البيئات السحابية يعتمد على عناصر إضافية تتجاوز الشفرة البرمجية.

ينبّه ماكولوك خلال حديثه مع «الشرق الأوسط» إلى ضرورة أن تتجاوز استراتيجيات الحساب الضامن الحديثة مجرد مستودعات الشفرة المصدرية، لتشمل أيضاً البنى السحابية وسيناريوهات النشر وبيئات التهيئة التشغيلية والوثائق التقنية اللازمة لتشغيل الأنظمة الحديثة القائمة على «SaaS» والبنى السحابية. وتجاهل هذه العناصر قد يترك فجوات كبيرة في خطط المرونة التشغيلية.

مستقبل تنظيم مرونة البرمجيات

مع النظر إلى المستقبل، من المرجح أن تستمر المتطلبات التنظيمية المتعلقة بالمرونة الرقمية في التطور. فمع تحول الأنظمة الرقمية إلى عنصر أساسي في الخدمات الاقتصادية والعامة، أصبح يُنظر إلى البرمجيات بوصفها في الوقت نفسه محركاً أساسياً للابتكار ونقطة تركّز محتملة للمخاطر. يكشف ماكولوك عن أن المتطلبات التنظيمية تتجه نحو أطر أوسع للاستمرارية التشغيلية، تعترف بأن البرمجيات تمثل في الوقت نفسه محركاً رئيسياً للتحول الرقمي ونقطة تركّز للمخاطر.

وبالنسبة للسعودية، يمثل الدليل الجديد للحساب الضامن للبرمجيات خطوة مبكرة في هذا الاتجاه، تتماشى مع جهود المملكة لبناء اقتصاد رقمي أكثر مرونة ضمن رؤية 2030.

قد يعكس هذا التحول فهماً أعمق لطبيعة المخاطر الرقمية. فحماية البنية التحتية لم تعد تعني فقط الدفاع ضد الهجمات السيبرانية، بل تعني أيضاً ضمان استمرار عمل أنظمة البرمجيات التي تدير الاقتصادات الحديثة حتى في حال تعثر الجهات التي تطورها أو تديرها.

وبهذا المعنى، تصبح مرونة البرمجيات أحد الأعمدة الأساسية للثقة الرقمية.


فيديو: «مدرسة الروبوتات» بالصين… آلات تتعلّم الحياة اليومية بعيون البشر

مشاهدون يتابعون عرضاً للروبوتات في العاصمة الصينية بكين (رويترز)
مشاهدون يتابعون عرضاً للروبوتات في العاصمة الصينية بكين (رويترز)
TT

فيديو: «مدرسة الروبوتات» بالصين… آلات تتعلّم الحياة اليومية بعيون البشر

مشاهدون يتابعون عرضاً للروبوتات في العاصمة الصينية بكين (رويترز)
مشاهدون يتابعون عرضاً للروبوتات في العاصمة الصينية بكين (رويترز)

في مختبر متطور بمدينة Wuhan الصينية، تبدو المشاهد أقرب إلى فصل دراسي غير مألوف: صفٌّ من الروبوتات الشبيهة بالبشر يقف في انتظار التعليمات، بينما يقف أمامها مدربون بشريون يوجّهون حركاتها خطوةً خطوة. هنا، فيما يشبه «مدرسة للروبوتات»، تتعلم الآلات كيف تعيش تفاصيل الحياة اليومية كما يفعل البشر. وفقاً لموقع «يورونيوز».

يعتمد الباحثون الصينيون على تقنيات الواقع الافتراضي لتدريب هذه الروبوتات على أداء مهام متنوعة، تبدأ من إعداد فنجان قهوة، ولا تنتهي بالأعمال المنزلية البسيطة. ويرتدي المدربون نظارات الواقع الافتراضي ويمسكون بأجهزة تحكم يدوية، فتتحول حركاتهم مباشرةً إلى أوامر تنفذها الروبوتات في الوقت الفعلي.

وتشرح كو تشيونغبين، وهي مدربة روبوتات تعمل في مجال الذكاء الاصطناعي، طبيعة هذه التجربة قائلة إن المدربين «يرتدون نظارات الواقع الافتراضي ويمسكون بأجهزة تحكم في أيديهم، لتصبح اليدان اليمنى واليسرى بمثابة ذراعي الروبوت. وهكذا يتعلم الروبوت حركاتنا وأوضاعنا عبر تقليدها».

وتضيف أن البيانات الناتجة عن هذه الحركات تُرفع لاحقاً إلى السحابة الإلكترونية، حيث تُراجع وتُعتمد ضمن قاعدة بيانات، قبل أن تُحمّل مجدداً إلى الروبوت ليبدأ التعلم منها.

لكن التجربة لا تخلو من بعدٍ إنساني. تقول تشيونغبين إن أكثر ما يمنحها شعوراً بالرضا هو لحظة نجاح الروبوت في إنجاز المهمة: «الأمر ممتع للغاية. أشعر بإنجاز حقيقي عندما ينجح الروبوت في تنفيذ ما تعلمه، وكأنني أعلّم طفلي شيئاً جديداً وأراه يتطور أمامي».

ويقع هذا المشروع في منطقة تطوير التكنولوجيا الفائقة لبحيرة الشرق، المعروفة أيضاً باسم «وادي البصريات في الصين»، حيث تُنشأ بيئات تدريب تحاكي الواقع بدقة. ففي قاعات المختبر، يمكن مشاهدة غرف معيشة أو ورش عمل صناعية أُعدّت خصيصاً لتدريب الروبوتات على التعامل مع تفاصيل الحياة اليومية.

ويعتمد التدريب على التكرار المكثف؛ إذ يعيد المدربون الحركة نفسها مئات أو آلاف المرات، من أجل بناء قاعدة بيانات ضخمة تمكّن الروبوتات من تعلم المهارات تدريجياً.

ويقول يانغ شينيي، قائد المشروع في شركة «Data Fusion Technology»، إن الهدف من هذه العملية هو «إنشاء سيناريوهات واقعية تحاكي الحياة اليومية». ويضيف أن المدرب قد يضطر أحياناً إلى تكرار حركة واحدة عشرات الآلاف من المرات حتى يكتسب الروبوت القدرة على فهمها وتنفيذها بدقة.

ويؤكد الباحثون أن هذه الجهود تمثل خطوة مهمة نحو تسريع تطوير الروبوتات الشبيهة بالبشر القادرة على العمل والتفاعل داخل البيئات الواقعية، سواء في المنازل أو المصانع.

ولم يعد الأمر مقتصراً على المختبرات فحسب؛ إذ بات بإمكان الزوار في «7S Robot Store» مشاهدة بعض هذه الروبوتات عن قرب، والتفاعل معها مباشرة، حيث تستجيب للأوامر وتنفذ مهام بسيطة، في مشهدٍ يعكس ملامح عالمٍ قد تصبح فيه العلاقة بين الإنسان والآلة أكثر قرباً مما كان يُعتقد.