تطبيق «غوغل» الجديد لرقابة الأهل على الأولاد يعاني من عيوب

«فاميلي لنك» يسمح برفع الضوابط عند بلوغ 13 عاماً

تطبيق «غوغل» الجديد لرقابة الأهل على الأولاد يعاني من عيوب
TT

تطبيق «غوغل» الجديد لرقابة الأهل على الأولاد يعاني من عيوب

تطبيق «غوغل» الجديد لرقابة الأهل على الأولاد يعاني من عيوب

يتفق جميع الآباء والأمهات على مبدأ واحد يتعلق بالسن التي يجب أن يمنح فيها الأولاد الحرية الكاملة في استخدام هواتفهم الذكية.. وهو أنه لا توجد سن معينة

برنامج عائلي

ولكن استخدام «فاميلي لنك» (Family Link)، برنامج «غوغل» الجديد لرقابة الأهل والتحكم بهواتف أولادهم العاملة بنظام «أندرويد»، يعطي «غوغل» الحق في اتخاذ القرار بدلاً عنهم، إذ اعتبرت الشركة أن الأولاد في سن 13 عاماً جاهزين لما سمته «التخرج»، ورفع الضوابط، وتسلم مفاتيح مملكة الإنترنت بكل الأمور السيئة والجيدة التي قد تصحبها.
ولكن هذا القرار سيئ جداً، إذ يخيّل للناس في البداية أن «فاميلي لينك» يتمتع بجميع ميزات البرنامج الناجح: التطبيق مجاني، ومصمم ومجهز بميزات رصينة لتنظيم استخدام الأولاد للهاتف الذكي، كقدرته على مراقبة عدد المرات التي يلعب فيها الطفل اللعبة نفسها، أو كم مرة أغلق هاتفه خلال وقت نومه.
إلا أن أغلب الميزات التي يتمتع بها هذا البرنامج نُسفت بقرار «غوغل» السماح للأولاد بالتخلص من الضوابط فور بلوغهم مرحلة المراهقة.
تقول جيس واينبرغر، الخبيرة بأمن الإنترنت، وهي تحاضر للأهل وفي المدارس ومكاتب تطبيق القانون، إن حقيقة أن الأولاد يمكنهم أن «يخرّجوا» أنفسهم من مرحلة الضوابط، منافية للمنطق. وأضافت أن قرار «غوغل» هذا ينزع القوة من يد الأهل، وهو أمر مرفوض تماماً.
أدخل «غوغل» برنامج «فاميلي لينك» حيز الاختبار في مارس (آذار)، رغم أنه لا يزال في مرحلة التطوير ومتوفر للاستخدام بناء على دعوة خاصة فقط. وقبل انتشاره، اختبرتُ برنامج رقابة الأهل لأسبوع وقيمتُ ميزاته وسياساته بالتعاون مع خبراء متخصصين بأمن الإنترنت.
والخلاصة: في حال كان الأهل يفكرون بشراء جهاز «أندرويد» لأولادهم، ويريدون أن يضبطوا استخدامهم للإنترنت، سيجدون تطبيقات أفضل منه تمنحهم سيطرة أكبر، أو يمكنهم أن يبتاعوا لهم جهاز «آيفون» الذي يتميز بضوابط لا يمكن إزالتها بسهولة.

لمحة عامة

يتضمن «فاميلي لينك» ميزات كثيرة بالنسبة للأهل. للحصول عليه، يجب على المستخدم أن يطلب دعوة للبرنامج عبر صفحة «غوغل»، وأن ينتظر تلقي رسالة إلكترونية تتضمن رابطاً لتنزيل البرنامج. وتجدر الإشارة إلى أنه متوفر لأجهزة «آيفون» و«أندرويد».
داخل التطبيق، يمكن للمستخدم أن يؤسس حسابات خاصة لأولاده على «غوغل»، حيث يدون معلومات عنهم كأسمائهم وتواريخ ميلادهم. وعندما يسجل الولد دخوله إلى هاتف «أندرويد»، يطلب الجهاز فوراً من المستخدم، الأب أو الأم، أن يسجل دخوله وأن يحمل تطبيق «فاميلي لينك» على الجهاز للتمكن من مراقبته.
من هنا، يصبح استخدام التطبيق سهلاً جداً. وعلى هاتف أحد الأبوين، يجب الضغط على الملف الشخصي في حساب الولد صاحب الجهاز، وعندها ستظهر لائحة من الخيارات. يمكن للمستخدم حينها أن يتتبع موقع وجود ابنه/ ابنته، الذي من شأنه أن يكون مفيداً لأسباب تتعلق بالسلامة أو لاصطحاب الصغير من المدرسة. كما أنه يتيح للمستخدم بأن يسمح بتنزيل تطبيقات معينة، وأن يرفض تنزيل أخرى يحاول الصغير أن يحملها. بمعنى آخر، في حال كان المستخدم يشعر بالقلق من «سناب شات» أو من لعبة معينة، يمكنه ببساطة أن يحجبهما.
يتيح التطبيق للأهل أيضاً الحصول على تقرير أسبوعي يظهر لهم كم يمضي أولادهم من الوقت في استخدام تطبيق معين، بهدف التحدث مع الصغير لترشيد استخدامه لهذا التطبيق، أو حجبه مؤقتاً.

حجب المواقع

يمكن للآباء والأمهات أن يستفيدوا من «فاميلي لينك» في وضع ضوابط تقيد حرية الأولاد في تصفح المواقع أيضاً. إذ يمكنهم أن يشغلوا الفلتر المسؤول عن حجب المواقع الخاصة بالبالغين، إلا أن «غوغل» اعترفت بأن الفلتر يعاني من بعض الشوائب، ويمكن لبعض المواقع أن تخترقه. وفي حال كان المستخدم يبحث عن خيارات أكثر حزماً، يمكنه ببساطة أن يطلب من الولد الحصول على الإذن لكل موقع يزوره، وحجب تلك التي لا يوافق عليها.
«سكرين تايمscreen time « هي ميزة أخرى ستعجب الأهل، إذ يمكنهم أن يستخدموها لتحديد الوقت الذي يسمح فيه لأولادهم استعمال الهاتف. على سبيل المثال، يمكنهم أن يحددوا ثلاث ساعات من الاستخدام اليومي، وأن يضبطوا الهاتف حسب موعد نوم الأولاد، بحيث يظل مطفأً من الساعة التاسعة مساء وحتى السابعة صباحاً مثلاً. وقبل أن يُطفأ الجهاز، سيحصل الطفل على تنبيه بذلك، وحين تقفل الشاشة، سيظل بإمكان الولد أن يجيب على الاتصالات أو أن يضغط على زر الاتصالات الطارئة كرقم الشرطة.
عبرت كارولين كنور، محررة قسم الأبوة في مجلة «كومون سنس ميديا» المختصة بتقييم المحتوى والمنتجات العائلية، عن إعجابها بميزة «سكرين تايم» مشددة على صعوبة دفع الأولاد إلى ترك هواتفهم.
ولكن جميع هذه الضوابط التي تتيح للأهل التحكم بهواتف أولادهم تُبطَل يوم يتمون سن 13 عاماً. عندها، يمنح «غوغل» المراهق صاحب الهاتف حرية الخيار: إما أن يحرر نفسه من «فاميلي لينك» أو أن يبقي على ضوابطه، والأكيد أننا لن نجد مراهقاً واحداً يختار الإبقاء عليها.
قال سوراب شارما، مدير «فاميلي لينك» في «غوغل» إن سياسة التطبيق اتخذت هذا القرار، لأن «غوغل» يسمح للأشخاص منذ إتمامهم 13 سنة أن يحصلوا على حسابات خاصة بهم دون الحاجة إلى موافقة الأهل. ولفت إلى أن هذه السياسة تتوافق مع القوانين المختصة، التي تجرم الشركات في حال جمعت معلومات عن شخص لم يتم 13 عاماً دون موافقة والديه.

تطبيقات أخرى

ولكنني أرى أنه على «غوغل» أن تضع سياسة تراعي اهتمامات الأهل أكثر، كأن تسمح لهم باتخاذ قرار تحرير أولادهم من الرقابة عندما يشعرون أنهم باتوا قادرين على استخدام هواتفهم بشكل مسؤول. قد يتخذ الأهل هذا القرار حين يبلغ أولادهم سن 13 عاماً، أو 15، أو حتى 17. ولكن الأكيد هو أنه يجب عدم السماح للأولاد أبداً بالتخلص من ضوابط الرقابة فقط لأنهم أتموا 13 سنة.
على سبيل المقارنة، يتضمن هاتف «آيفون» من «آبل» ضوابط كحجب المحتويات والمواقع الخاصة بالبالغين، وتعطيل شراء التطبيقات، ومنع الأولاد من اختراق مخططات الأهل. هذه الضوابط يمكن إبطالها فقط من خلال إدخال كلمة المرور التي يضعها الأبوان، مهما كان سن الولد الذي يستخدم الجهاز.
أما بالنسبة لمستخدمي «أندرويد»، فقد نصحت «واينبرغر» الأهل بتطبيق للرقابة يعرف بـ«كاستوديو»Qustodio الذي يتيح للأهل فرصة مراقبة رسائل أولادهم النصية، وتعطيل التطبيقات في بعض الأوقات، أو حتى إطفاء الجهاز عن بعد... والأهم أن هذه الميزات لا يتم إبطالها عندما يصبح الطفل مراهقاً.
كما اعتبرت أن «فاميلي لينك» تطبيق محبط بسبب سياسة السن التي يتبعها. وختمت قائلة إن الأهل لا يمانعون أن يستخدم أولادهم الهواتف والإنترنت، إلا أنهم يريدون في الوقت نفسه أن يمسكوا بزمام السيطرة، مشددة على أن «غوغل» يجب أن تكون السبَّاقة في تقدمة تطبيق مماثل.

* خدمة «نيويورك تايمز»



أبحاث جديدة لفهم تفكير الذكاء الاصطناعي وفتح «صندوقه الأسود»

تعتمد الطريقة الجديدة على استخراج المفاهيم من داخل النموذج نفسه بدلاً من فرض مفاهيم محددة مسبقاً من قبل الخبراء (أدوبي)
تعتمد الطريقة الجديدة على استخراج المفاهيم من داخل النموذج نفسه بدلاً من فرض مفاهيم محددة مسبقاً من قبل الخبراء (أدوبي)
TT

أبحاث جديدة لفهم تفكير الذكاء الاصطناعي وفتح «صندوقه الأسود»

تعتمد الطريقة الجديدة على استخراج المفاهيم من داخل النموذج نفسه بدلاً من فرض مفاهيم محددة مسبقاً من قبل الخبراء (أدوبي)
تعتمد الطريقة الجديدة على استخراج المفاهيم من داخل النموذج نفسه بدلاً من فرض مفاهيم محددة مسبقاً من قبل الخبراء (أدوبي)

أصبحت أنظمة الذكاء الاصطناعي أكثر تطوراً كالتعرف إلى الصور وتشخيص الأمراض والمساعدة في اتخاذ قرارات معقدة. لكن رغم هذا التقدم الكبير، لا يزال كثير من نماذج التعلم الآلي المتقدمة يعمل بطريقة توصف غالباً بأنها «صندوق أسود». فهي تقدم تنبؤات دقيقة، لكن الأسباب التي تقود إلى هذه التنبؤات تبقى غير واضحة، حتى بالنسبة للمهندسين الذين طوروا هذه الأنظمة.

ويعمل باحثون في معهد ماساتشوستس للتكنولوجيا (MIT) حالياً على معالجة هذه المشكلة من خلال تطوير طرق تساعد أنظمة الذكاء الاصطناعي على شرح قراراتها. ويهدف هذا العمل إلى جعل نماذج التعلم الآلي ليست دقيقة فحسب، بل أكثر شفافية أيضاً، حيث يتمكن البشر من فهم المنطق الذي يقف وراء التنبؤات التي تقدمها هذه الأنظمة.

تفسير قرارات الذكاء الاصطناعي

تزداد أهمية قدرة الذكاء الاصطناعي على تفسير قراراته مع توسع استخدام هذه التقنيات في مجالات حساسة، مثل الرعاية الصحية والنقل والبحث العلمي. ففي هذه المجالات، يحتاج المستخدمون غالباً إلى فهم العوامل التي أدّت إلى نتيجة معينة، قبل أن يتمكنوا من الوثوق بها أو الاعتماد عليها.

فعلى سبيل المثال، قد يرغب طبيب يراجع تشخيصاً طبياً قدّمه نظام ذكاء اصطناعي في معرفة الخصائص التي دفعت النموذج إلى الاشتباه بوجود مرض معين. وبالمثل، يحتاج المهندسون الذين يعملون على تطوير السيارات ذاتية القيادة إلى فهم الإشارات أو الأنماط التي جعلت النظام يحدد وجود مشاة أو يفسر موقفاً مرورياً معيناً.

غير أن كثيراً من نماذج التعلم العميق تعتمد على علاقات رياضية معقدة تشمل آلافاً حتى ملايين من المتغيرات. ورغم أن هذه الأنظمة قادرة على اكتشاف أنماط دقيقة داخل البيانات، فإن الطريقة التي تصل بها إلى قراراتها قد تكون صعبة الفهم بالنسبة للبشر. وقد أصبح هذا النقص في الشفافية أحد أبرز التحديات في مجال الذكاء الاصطناعي الحديث.

ولهذا ظهر مجال بحثي يعرف باسم «الذكاء الاصطناعي القابل للتفسير»، ويهدف إلى تطوير تقنيات تساعد البشر على فهم كيفية وصول الأنظمة الذكية إلى نتائجها، بما يسمح بتقييم موثوقيتها واكتشاف الأخطاء المحتملة وتعزيز الثقة في الأنظمة المؤتمتة.

تهدف هذه الأبحاث إلى بناء أنظمة ذكاء اصطناعي أكثر موثوقية ومساءلة من خلال تحقيق توازن بين دقة النماذج وإمكانية تفسيرها (أدوبي)

نهج قائم على المفاهيم

ركّز الباحثون في «MIT » على تحسين تقنية تعرف باسم «نموذج عنق الزجاجة المفاهيمي». ويهدف هذا النهج إلى جعل طريقة تفكير أنظمة الذكاء الاصطناعي أكثر وضوحاً للبشر.

في هذا النموذج، لا ينتقل النظام مباشرة من البيانات الخام إلى النتيجة النهائية. بدلاً من ذلك، يحدد أولاً مجموعة من المفاهيم أو الخصائص التي يمكن للبشر فهمها، ثم يستخدم هذه المفاهيم كأساس لاتخاذ القرار.

فإذا كان النظام، على سبيل المثال، مدرباً على التعرف إلى أنواع الطيور من الصور، فقد يحدد أولاً خصائص بصرية مثل «أجنحة زرقاء» أو «أرجل صفراء». وبعد التعرف إلى هذه السمات، يمكن للنظام أن يصنف الطائر ضمن نوع معين.

وفي مجال التصوير الطبي، قد تشمل هذه المفاهيم مؤشرات بصرية، مثل أنماط معينة في الأنسجة أو أشكال محددة تساعد في اكتشاف الأمراض. ومن خلال ربط التنبؤات بهذه المفاهيم الواضحة، يصبح من الأسهل على المستخدمين فهم الطريقة التي توصل بها النظام إلى نتيجته.

حدود المفاهيم المحددة مسبقاً

ورغم أن استخدام المفاهيم يمكن أن يجعل أنظمة الذكاء الاصطناعي أكثر شفافية، فإن النسخ السابقة من هذا النهج كانت تعتمد إلى حد كبير على مفاهيم يحددها الخبراء مسبقاً. لكن في الواقع، قد لا تعكس هذه المفاهيم دائماً التعقيد الكامل للمهمة التي يؤديها النظام. فقد تكون عامة للغاية أو غير مكتملة أو غير مرتبطة مباشرة بالأنماط التي يستخدمها النموذج فعلياً أثناء اتخاذ القرار. وفي بعض الحالات، قد يؤدي ذلك إلى تقليل دقة النموذج أو تقديم تفسير لا يعكس الطريقة الحقيقية التي يعمل بها.

ولهذا سعى فريق «MIT» إلى تطوير طريقة جديدة تستخرج المفاهيم مباشرة من داخل النموذج نفسه. فبدلاً من فرض أفكار محددة عليه مسبقاً، تحاول هذه التقنية تحديد الأنماط والتمثيلات التي تعلمها النموذج خلال مرحلة التدريب. بعد ذلك، يتم تحويل هذه الأنماط الداخلية إلى مفاهيم يمكن للبشر فهمها واستخدامها لتفسير قرارات النظام.

تزداد أهمية تفسير قرارات الذكاء الاصطناعي مع استخدامه في مجالات حساسة مثل الطب والنقل والبحث العلمي (أدوبي)

ترجمة تفكير الآلة إلى لغة مفهومة

لتحقيق ذلك، جمع الباحثون بين مكونين مختلفين من تقنيات التعلم الآلي. يقوم الأول بتحليل البنية الداخلية للنموذج المدرب لتحديد الخصائص الأكثر أهمية التي يعتمد عليها عند اتخاذ التنبؤات. أما الثاني فيحوّل هذه الخصائص إلى مفاهيم يمكن للبشر تفسيرها. وبمجرد تحديد هذه المفاهيم، يصبح النظام ملزماً بالاعتماد عليها عند إصدار توقعاته. وبهذا تتشكل سلسلة واضحة منطقياً تربط بين البيانات المدخلة والنتيجة النهائية.

ويشبه الباحث الرئيسي أنطونيو دي سانتيس هذا الهدف بمحاولة فهم طريقة تفكير الإنسان. ويقول: «بمعنى ما، نريد أن نكون قادرين على قراءة عقول نماذج الرؤية الحاسوبية هذه. نموذج عنق الزجاجة المفاهيمي هو إحدى الطرق التي تسمح للمستخدمين بفهم ما الذي يفكر فيه النموذج ولماذا اتخذ قراراً معيناً». ويرى الباحثون أن استخدام مفاهيم مستخرجة من المعرفة الداخلية للنموذج يمكن أن ينتج تفسيرات أكثر وضوحاً ودقة مقارنة بالطرق السابقة.

تحقيق التوازن بين الدقة والشفافية

يُعد تحقيق التوازن بين دقة النماذج وإمكانية تفسيرها أحد التحديات الرئيسية في مجال الذكاء الاصطناعي القابل للتفسير. فالنماذج الأكثر تعقيداً غالباً ما تحقق أفضل النتائج من حيث الدقة، لكنها تكون أيضاً الأصعب في الفهم. يحاول النهج الجديد الذي طوّره باحثو «MIT» معالجة هذه المشكلة من خلال اختيار عدد محدود من المفاهيم الأكثر أهمية لشرح كل تنبؤ. وبهذه الطريقة يركز النظام على الإشارات الأكثر صلة بالقرار بدلاً من الاعتماد على علاقات خفية داخل النموذج. كما يساعد ذلك على تقليل ما يعرف بـ«تسرب المعلومات»، وهي الحالة التي يعتمد فيها النموذج على أنماط في البيانات لا تظهر في التفسير الذي يقدمه.

نحو أنظمة ذكاء اصطناعي أكثر مساءلة

مع ازدياد اعتماد المؤسسات على أنظمة الذكاء الاصطناعي في اتخاذ القرارات، من المرجح أن تصبح القدرة على فهم طريقة عمل هذه الأنظمة أكثر أهمية. فالنماذج الأكثر شفافية يمكن أن تساعد الباحثين على اكتشاف التحيزات المحتملة وتحسين موثوقية الأنظمة والتأكد من أنها تعمل كما هو متوقع. ويمثل البحث الذي أجراه فريق «MIT» خطوة في هذا الاتجاه. فمن خلال تمكين نماذج التعلم الآلي من تفسير قراراتها بطريقة أكثر وضوحاً ومعنى، قد يسهم هذا النهج في تقليص الفجوة بين الخوارزميات المعقدة والفهم البشري.


هل أصبحت مرونة البرمجيات شرطاً أساسياً لحماية الاقتصاد الرقمي في السعودية؟

توسّع مفهوم المرونة الرقمية ليشمل استمرارية البرمجيات وليس الأمن السيبراني فقط (أدوبي)
توسّع مفهوم المرونة الرقمية ليشمل استمرارية البرمجيات وليس الأمن السيبراني فقط (أدوبي)
TT

هل أصبحت مرونة البرمجيات شرطاً أساسياً لحماية الاقتصاد الرقمي في السعودية؟

توسّع مفهوم المرونة الرقمية ليشمل استمرارية البرمجيات وليس الأمن السيبراني فقط (أدوبي)
توسّع مفهوم المرونة الرقمية ليشمل استمرارية البرمجيات وليس الأمن السيبراني فقط (أدوبي)

لم يعد مفهوم المرونة الرقمية مرتبطاً بضوابط الأمن السيبراني فقط، بل باتت الجهات التنظيمية تنظر إليه اليوم بصورة أوسع ليشمل ضمان استمرارية أنظمة البرمجيات الحيوية التي تقوم عليها الاقتصادات الحديثة.

يظهر هذا التحول بوضوح في المملكة العربية السعودية، حيث يشير إصدار إرشادات تنظيمية جديدة حول «الحساب الضامن للبرمجيات» إلى إدراك متزايد بأن المرونة الرقمية يجب أن تعالج أيضاً مخاطر الاعتماد التشغيلي على مزودي البرمجيات من الأطراف الثالثة.

كما أن المخاطر لم تعد تقتصر على الاختراقات أو تسرب البيانات مع اعتماد المؤسسات على منظومات برمجية أكثر تعقيداً.

يقول أليكس ماكولوك، مدير تطوير الأسواق في منطقة الشرق الأوسط لدى شركة «إيسكود» (Escode)، إن الجهات التنظيمية توسّع نطاق تركيزها لأن الاقتصاد الرقمي بات يعتمد بدرجة كبيرة على البرمجيات التي تطورها وتديرها شركات خارجية. ويشرح خلال لقاء خاص مع «الشرق الأوسط» أن المرونة التشغيلية لم تعد تقتصر على ضوابط الأمن السيبراني فقط، بل يجب أن تشمل أيضاً ضمان استمرارية البرمجيات الحيوية للأعمال. ويضيف: «مع تزايد اعتماد المؤسسات على مزودي البرمجيات من الأطراف الثالثة، تتجاوز المخاطر التهديدات السيبرانية لتشمل تعثر المورد أو عمليات الاندماج والاستحواذ أو توقف الخدمة أو الإخفاقات التشغيلية».

أليكس ماكولوك مدير تطوير الأسواق في منطقة الشرق الأوسط لدى شركة «إيسكود»

تحول تنظيمي نحو الاستمرارية التشغيلية

يرى الخبراء أن إصدار هيئة الاتصالات والفضاء والتقنية في السعودية الدليل الإرشادي للحساب الضامن للبرمجيات خطوة تمثل انتقالاً نحو إطار أكثر شمولاً لما يُعرف بـالاستمرارية التشغيلية المنظمة. وبعبارة عملية، يعني ذلك أن الجهات التنظيمية لم تعد تسأل المؤسسات فقط عن كيفية حماية أنظمتها من الهجمات، بل أيضاً عن كيفية استمرار تقديم خدماتها إذا اختفى أحد مزودي التكنولوجيا الرئيسيين فجأة.

ويصرح ماكولوك بأن هذا الدليل «يعكس تحولاً تنظيمياً أوسع من نموذج يركز على الأمن السيبراني فقط إلى نموذج أكثر شمولاً يقوم على مفهوم الاستمرارية التشغيلية المنظمة؛ إذ يتعامل مع مخاطر الاعتماد الرقمي ويضمن استمرارية أنظمة البرمجيات الحيوية».

يأتي هذا التحول في وقت تستثمر فيه المملكة بكثافة في البنية التحتية الرقمية ضمن استراتيجية التحول الاقتصادي «رؤية 2030». فقد أصبحت المنصات السحابية وأنظمة البرمجيات المؤسسية والخدمات الحكومية الرقمية تشكل العمود الفقري للاقتصاد الرقمي في البلاد. لكن مع تزايد الاعتماد على هذه الأنظمة، تتزايد أيضاً أشكال جديدة من المخاطر.

المخاطر الخفية للاعتماد على البرمجيات

في الكثير من القطاعات اليوم، يعمل مزودو البرمجيات من الأطراف الثالثة خلف الكواليس بوصفهم جزءاً أساسياً من البنية التحتية الرقمية. فالأنظمة المصرفية ومنصات الرعاية الصحية والخدمات الحكومية والعمليات المؤسسية تعتمد كثيراً على موردين خارجيين لإدارة عملياتها الرقمية الأساسية. لكن برأي الخبراء، قد يخلق هذا الاعتماد نقاط ضعف نظامية.

يلفت ماكولوك إلى أن «المخاطر النظامية كبيرة؛ لأن البرمجيات المقدمة من أطراف ثالثة تشكل العمود الفقري لقطاعات حيوية مثل الخدمات المالية والبنية التحتية العامة والأنظمة الصحية ومنصات الأعمال المؤسسية».

ورغم أن الأمن السيبراني لا يزال مصدر قلق رئيسياً، فإن الخطر الأكثر إلحاحاً في كثير من الأحيان قد يأتي من اضطرابات غير متوقعة داخل سلسلة توريد البرمجيات نفسها. فقد يؤدي إفلاس المورد أو استحواذ شركة أخرى عليه أو تغيير استراتيجي في أعماله أو حتى فشل تقني مفاجئ إلى تعطّل خدمات تعتمد عليها المؤسسات والحكومات. وهذه السيناريوهات لم تعد افتراضية خاصة في اقتصاد رقمي قائم على منصات مترابطة؛ إذ يمكن أن ينتقل تأثير تعطل مورد واحد إلى قطاعات متعددة.

يُعدّ التحقق التقني من الشفرة المصدرية ضرورياً لضمان إمكانية إعادة تشغيل البرمجيات عند الحاجة (أدوبي)

الاستعداد لتعثر الموردين

مع إدراك الجهات التنظيمية هذه المخاطر، يتزايد الاهتمام بكيفية استعداد المؤسسات لسيناريوهات تعثر الموردين. ويعدّ الحساب الضامن للبرمجيات من الآليات التي بدأت تحظى باهتمام متزايد، وهو ترتيب يتم بموجبه إيداع نسخة من الشفرة المصدرية للبرنامج والوثائق التقنية المرتبطة به لدى طرف ثالث محايد. وإذا أصبح المورد غير قادر على مواصلة دعم النظام، يمكن للمؤسسة استخدام هذا الإيداع للحفاظ على تشغيل البرنامج أو إعادة بنائه بشكل مستقل. يعدّ ماكولوك أن المؤسسات قد تواجه مخاطر مثل تعثر المورد أو الاستحواذ عليه أو توقف الخدمة أو الإخفاق التشغيلي. ويزيد أن الاستعداد لهذه السيناريوهات يتطلب إجراءات منهجية لتعزيز المرونة مثل الحساب الضامن للبرمجيات واختبار سيناريوهات تعثر المورد لضمان الجاهزية التشغيلية.

تحديد الأنظمة الحيوية

ليس كل تطبيق داخل المؤسسة في حاجة إلى هذا النوع من الحماية. فالخطوة الأولى لبناء مرونة البرمجيات هي تحديد الأنظمة التي تُعدّ بالفعل حيوية للأعمال. يقول ماكولوك إنه «ينبغي على المؤسسات إجراء تقييم داخلي لتحديد التطبيقات التي تُعدّ فعلاً حيوية للأعمال. فالأنظمة التي تدعم الخدمات المنظمة أو ترتبط مباشرة بالإيرادات أو تشكل جزءاً من البنية التحتية الوطنية أو تعتمد عليها العمليات الأساسية للعملاء تعدّ مرشحة واضحة للحماية عبر الحساب الضامن». ويساعد دمج هذه العملية ضمن أطر إدارة المخاطر المؤسسية المؤسسات على إعطاء الأولوية لأهم أصولها الرقمية وضمان تطبيق إجراءات المرونة حيث تكون الحاجة أكبر.

من التخزين إلى التحقق التقني

من المفاهيم الخاطئة الشائعة أن مجرد إيداع الشفرة المصدرية يكفي لضمان الاستمرارية. في الواقع، قد يوفر تخزين الشفرة حماية محدودة إذا لم يكن بالإمكان إعادة بناء البرنامج أو صيانته بشكل مستقل.

ينوّه ماكولوك بأن مجرد تخزين الشفرة المصدرية لا يضمن الاستمرارية. فإذا كانت الشفرة المودعة قديمة أو غير مكتملة أو لا تمكن إعادة بنائها في بيئة نظيفة، فإنها تمنح إحساساً زائفاً بالحماية.

لهذا السبب أصبح التحقق التقني جزءاً مهماً من ترتيبات الحساب الضامن الحديثة. وتشمل هذه العمليات مراجعة الشفرة المصدرية، واختبار تجميعها في بيئات خاضعة للرقابة، والتأكد من إمكانية إعادة بناء النظام فعلياً عند الحاجة.

وتحول هذه الإجراءات الحساب الضامن من ضمانة قانونية سلبية إلى آلية فعلية لتعزيز الاستمرارية التشغيلية.

إصدار إرشادات «الحساب الضامن للبرمجيات» في السعودية يعكس تحولاً تنظيمياً نحو الاستمرارية التشغيلية (أدوبي)

دمج الحساب الضامن في الحوكمة المؤسسية

يتعلق تحول مهم آخر بدمج إجراءات مرونة البرمجيات مباشرة في سياسات المشتريات وأطر الحوكمة المؤسسية. فبدلاً من إدراج ترتيبات الحساب الضامن في مراحل متأخرة من التعاقد مع الموردين، بدأت المؤسسات بدمج هذه المتطلبات في سياسات المشتريات ووثائق طلبات العروض وإجراءات اعتماد الموردين. يركز ماكولوك على أهمية «دمج متطلبات الحساب الضامن في سياسات المشتريات ووثائق طلبات العروض وإجراءات اعتماد الموردين ونماذج العقود القياسية. فهذا يضمن أن يصبح الحساب الضامن آلية منهجية للحد من المخاطر بدلاً من كونه إجراءً تعاقدياً في اللحظة الأخيرة». ففي القطاعات المنظمة مثل الخدمات المالية أو البنية التحتية الحكومية، بدأت هذه الممارسات تتحول تدريجياً إلى معيار أساسي وليس خياراً إضافياً.

التكيف مع عصر السحابة و«SaaS»

يضيف التحول نحو البرمجيات السحابية ونماذج «SaaS»، أي تقديم البرمجيات عبر الإنترنت بدلاً من تثبيتها على أجهزة المستخدم أو خوادم الشركة، تعقيدات جديدة إلى تخطيط المرونة الرقمية. فقد صُممت ترتيبات الحساب الضامن التقليدية في الأصل للأنظمة المحلية، حيث كان يمكن إعادة بناء النظام باستخدام الشفرة المصدرية وحدها.

لكن تشغيل البرمجيات في البيئات السحابية يعتمد على عناصر إضافية تتجاوز الشفرة البرمجية.

ينبّه ماكولوك خلال حديثه مع «الشرق الأوسط» إلى ضرورة أن تتجاوز استراتيجيات الحساب الضامن الحديثة مجرد مستودعات الشفرة المصدرية، لتشمل أيضاً البنى السحابية وسيناريوهات النشر وبيئات التهيئة التشغيلية والوثائق التقنية اللازمة لتشغيل الأنظمة الحديثة القائمة على «SaaS» والبنى السحابية. وتجاهل هذه العناصر قد يترك فجوات كبيرة في خطط المرونة التشغيلية.

مستقبل تنظيم مرونة البرمجيات

مع النظر إلى المستقبل، من المرجح أن تستمر المتطلبات التنظيمية المتعلقة بالمرونة الرقمية في التطور. فمع تحول الأنظمة الرقمية إلى عنصر أساسي في الخدمات الاقتصادية والعامة، أصبح يُنظر إلى البرمجيات بوصفها في الوقت نفسه محركاً أساسياً للابتكار ونقطة تركّز محتملة للمخاطر. يكشف ماكولوك عن أن المتطلبات التنظيمية تتجه نحو أطر أوسع للاستمرارية التشغيلية، تعترف بأن البرمجيات تمثل في الوقت نفسه محركاً رئيسياً للتحول الرقمي ونقطة تركّز للمخاطر.

وبالنسبة للسعودية، يمثل الدليل الجديد للحساب الضامن للبرمجيات خطوة مبكرة في هذا الاتجاه، تتماشى مع جهود المملكة لبناء اقتصاد رقمي أكثر مرونة ضمن رؤية 2030.

قد يعكس هذا التحول فهماً أعمق لطبيعة المخاطر الرقمية. فحماية البنية التحتية لم تعد تعني فقط الدفاع ضد الهجمات السيبرانية، بل تعني أيضاً ضمان استمرار عمل أنظمة البرمجيات التي تدير الاقتصادات الحديثة حتى في حال تعثر الجهات التي تطورها أو تديرها.

وبهذا المعنى، تصبح مرونة البرمجيات أحد الأعمدة الأساسية للثقة الرقمية.


فيديو: «مدرسة الروبوتات» بالصين… آلات تتعلّم الحياة اليومية بعيون البشر

مشاهدون يتابعون عرضاً للروبوتات في العاصمة الصينية بكين (رويترز)
مشاهدون يتابعون عرضاً للروبوتات في العاصمة الصينية بكين (رويترز)
TT

فيديو: «مدرسة الروبوتات» بالصين… آلات تتعلّم الحياة اليومية بعيون البشر

مشاهدون يتابعون عرضاً للروبوتات في العاصمة الصينية بكين (رويترز)
مشاهدون يتابعون عرضاً للروبوتات في العاصمة الصينية بكين (رويترز)

في مختبر متطور بمدينة Wuhan الصينية، تبدو المشاهد أقرب إلى فصل دراسي غير مألوف: صفٌّ من الروبوتات الشبيهة بالبشر يقف في انتظار التعليمات، بينما يقف أمامها مدربون بشريون يوجّهون حركاتها خطوةً خطوة. هنا، فيما يشبه «مدرسة للروبوتات»، تتعلم الآلات كيف تعيش تفاصيل الحياة اليومية كما يفعل البشر. وفقاً لموقع «يورونيوز».

يعتمد الباحثون الصينيون على تقنيات الواقع الافتراضي لتدريب هذه الروبوتات على أداء مهام متنوعة، تبدأ من إعداد فنجان قهوة، ولا تنتهي بالأعمال المنزلية البسيطة. ويرتدي المدربون نظارات الواقع الافتراضي ويمسكون بأجهزة تحكم يدوية، فتتحول حركاتهم مباشرةً إلى أوامر تنفذها الروبوتات في الوقت الفعلي.

وتشرح كو تشيونغبين، وهي مدربة روبوتات تعمل في مجال الذكاء الاصطناعي، طبيعة هذه التجربة قائلة إن المدربين «يرتدون نظارات الواقع الافتراضي ويمسكون بأجهزة تحكم في أيديهم، لتصبح اليدان اليمنى واليسرى بمثابة ذراعي الروبوت. وهكذا يتعلم الروبوت حركاتنا وأوضاعنا عبر تقليدها».

وتضيف أن البيانات الناتجة عن هذه الحركات تُرفع لاحقاً إلى السحابة الإلكترونية، حيث تُراجع وتُعتمد ضمن قاعدة بيانات، قبل أن تُحمّل مجدداً إلى الروبوت ليبدأ التعلم منها.

لكن التجربة لا تخلو من بعدٍ إنساني. تقول تشيونغبين إن أكثر ما يمنحها شعوراً بالرضا هو لحظة نجاح الروبوت في إنجاز المهمة: «الأمر ممتع للغاية. أشعر بإنجاز حقيقي عندما ينجح الروبوت في تنفيذ ما تعلمه، وكأنني أعلّم طفلي شيئاً جديداً وأراه يتطور أمامي».

ويقع هذا المشروع في منطقة تطوير التكنولوجيا الفائقة لبحيرة الشرق، المعروفة أيضاً باسم «وادي البصريات في الصين»، حيث تُنشأ بيئات تدريب تحاكي الواقع بدقة. ففي قاعات المختبر، يمكن مشاهدة غرف معيشة أو ورش عمل صناعية أُعدّت خصيصاً لتدريب الروبوتات على التعامل مع تفاصيل الحياة اليومية.

ويعتمد التدريب على التكرار المكثف؛ إذ يعيد المدربون الحركة نفسها مئات أو آلاف المرات، من أجل بناء قاعدة بيانات ضخمة تمكّن الروبوتات من تعلم المهارات تدريجياً.

ويقول يانغ شينيي، قائد المشروع في شركة «Data Fusion Technology»، إن الهدف من هذه العملية هو «إنشاء سيناريوهات واقعية تحاكي الحياة اليومية». ويضيف أن المدرب قد يضطر أحياناً إلى تكرار حركة واحدة عشرات الآلاف من المرات حتى يكتسب الروبوت القدرة على فهمها وتنفيذها بدقة.

ويؤكد الباحثون أن هذه الجهود تمثل خطوة مهمة نحو تسريع تطوير الروبوتات الشبيهة بالبشر القادرة على العمل والتفاعل داخل البيئات الواقعية، سواء في المنازل أو المصانع.

ولم يعد الأمر مقتصراً على المختبرات فحسب؛ إذ بات بإمكان الزوار في «7S Robot Store» مشاهدة بعض هذه الروبوتات عن قرب، والتفاعل معها مباشرة، حيث تستجيب للأوامر وتنفذ مهام بسيطة، في مشهدٍ يعكس ملامح عالمٍ قد تصبح فيه العلاقة بين الإنسان والآلة أكثر قرباً مما كان يُعتقد.