لماذا يجب عليك أن تقلق بشأن محادثتك مع «شات جي بي تي»؟

شخص يكتب رسالة نصية خلال محادثته مع تطبيق «تشات جي بي تي» (د.ب.أ)
شخص يكتب رسالة نصية خلال محادثته مع تطبيق «تشات جي بي تي» (د.ب.أ)
TT

لماذا يجب عليك أن تقلق بشأن محادثتك مع «شات جي بي تي»؟

شخص يكتب رسالة نصية خلال محادثته مع تطبيق «تشات جي بي تي» (د.ب.أ)
شخص يكتب رسالة نصية خلال محادثته مع تطبيق «تشات جي بي تي» (د.ب.أ)

قد يرغب مستخدمو «شات جي بي تي» (ChatGPT) في التفكير ملياً قبل اللجوء إلى تطبيق الذكاء الاصطناعي الخاص بهم للعلاج، أو مشاركة تفاصيل حياتهم العاطفية مثلاً، وذلك بعد تصريحات الرئيس التنفيذي لشركة «OpenAI»، سام ألتمان، بأن قطاع الذكاء الاصطناعي لم يكتشف بعد كيفية حماية خصوصية المستخدمين في هذه المحادثات الأكثر حساسية، وقال إن المحادثات قد لا تكون خاصة كما يعتقد البعض، بل قد تُستخدم في إجراءات قانونية إذا تطلب الأمر، بما في ذلك المحاكم.

وخلال سلسلة من التصريحات التي أدلى بها مؤخراً، أشار ألتمان إلى أن المحادثات مع «شات جي بي تي» يمكن أن تخضع لمراجعة بشرية، وقد تُطلب قانونياً إذا تم استدعاؤها بموجب أمر قضائي صالح. وقال: «نفعل ما بوسعنا لحماية خصوصية المستخدم... لكن إذا طُلب منا قانونياً تسليم المعلومات، فعلينا الامتثال».

لم يكن «ChatGPT» موجوداً منذ فترة طويلة، ولكنه، إلى جانب روبوتات الدردشة الأخرى التي تعمل بالذكاء الاصطناعي، أحدث ثورة في طريقة تفاعل الناس مع العالم. بدءاً من مساعدتك في تنظيم وجباتك أو التخطيط لرحلتك المقبلة بميزانية محدودة، وصولاً إلى تحديد ما إذا كان تغيير مسارك المهني قراراً صائباً، يُعد الذكاء الاصطناعي أداة رائعة لكثير من الأغراض. ومع ذلك، لا ينبغي عليك استخدامه في كل شيء.

هل يجمع «ChatGPT» البيانات؟

نعم، يجمع كميات هائلة من البيانات. يعتمد برنامج نموذج اللغة الكبير (LLM) على قراءة وتحليل مليارات نقاط البيانات لأغراض التعلم الآلي.

يسجل «ChatGPT» بياناتك، بما في ذلك عنوان IP الخاص بك، ونوع المتصفح، والإعدادات، بالإضافة إلى كل ما تُدخله في الخدمة. بالإضافة إلى ذلك، يسجل بيانات استخدامك، مثل الموقع الجغرافي، والتوقيت المحلي، وحتى معلومات الجهاز الذي تستخدمه. بالإضافة إلى ذلك، يجمع ملفات تعريف الارتباط.

كيفية استخدام «ChatGPT» بأمان؟

إذا استخدمتَ تقنيات أمان إنترنت فعّالة، مثل تفعيل شبكة افتراضية خاصة (VPN) وتحديث برنامج مكافحة الفيروسات باستمرار، فيمكنك تقليل احتمالية وقوعك ضحية لسرقة بياناتك، وربما سرقة هويتك. على أقل تقدير، ستتمتع بتحكم أكبر في كيفية الحفاظ على خصوصية بياناتك على الإنترنت، وفقاً لما ذكره موقع «أول أبوت كوكيز» التكنولوجي.

وينصح الخبراء بأن أفضل خيار لك للحفاظ على أمانك أثناء استخدامه، هو استخدام مجموعة متنوعة من أساليب الأمان، لضمان تشفير بياناتك وأمانها. لقد أدرجنا بعضاً من أفضل برامج الأمن السيبراني المتاحة لمساعدتك في حمايتك على الإنترنت.

مخاطر عليك تجنبها في محادثاتك مع «شات جي بي تي»

ويحذر خبراء الأمن السيبراني والتكنولوجي من مخاطر لا بد من الحذر منها عند التعامل مع محادثات «شات جي بي تي»، وهي:

عمليات التصيد الاحتيالي المدعومة بالذكاء الاصطناعي

يجمع المخترقون البيانات الحساسة الموجودة بالفعل، ويُدخلونها في الذكاء الاصطناعي لإنشاء محاولات تصيد احتيالي مقنعة ومُخصصة، مما يُصعّب اكتشافها.

ونظراً لمستوى تعقيد رسائل التصيد الاحتيالي الإلكترونية هذه، فإن توخي الحذر والممارسات السليمة أمرٌ ضروريٌ للغاية. ومن القواعد الجيدة التي يجب الالتزام بها التحقق جيداً من المصدر ثم الرد فقط عبر الموقع الإلكتروني المُوثّق.

على سبيل المثال، إذا ذكرت خدمة البريد أن طردك يحتاج إلى معلومات إضافية ليتم تسليمه، فلا تنقر على الرابط المُرفق في البريد الإلكتروني. بدلاً من ذلك، انتقل إلى موقع البريد الرسمي وسجّل الدخول من هناك. إذا كان الطلب صحيحاً، فستجد رسالة أو تنبيهاً في انتظارك.

البرمجيات الخبيثة المدعومة بالذكاء الاصطناعي

يستطيع «ChatGPT» نسخ سيرتك الذاتية وتكييفها مع وصف وظيفي، يمكن للمخترقين استخدام الذكاء الاصطناعي لإنشاء أشكال جديدة من البرمجيات الخبيثة متعددة الأشكال. هذا يعني أنها متطورة بما يكفي لتغيير سلوكها لتجنب اكتشافها.

معلومات غير دقيقة

من أبرز الانتقادات التي وُجّهت إلى «ChatGPT» من قِبل المستخدمين الأوائل؛ المعلومات المضللة في كثير من إجاباته. اسأله عن وصفة طعام، وستحصل على الأرجح على وصفة جيدة. اسأله عن أحداث جارية، فقد تحصل على معلومات من ثلاث سنوات مضت. اطلب منه التحقق من أمر ما نيابةً عنك، وقد تحصل على إجابة عشوائية مليئة بالبيانات المجمعة غير الدقيقة تماماً.

ولهذا السبب، أجرت جامعتا ستانفورد وكاليفورنيا، بيركلي، تحليلاً في أغسطس (آب) 2023، أظهر أن دقة «ChatGPT» قد تراجعت بالفعل خلال فترة اختبار استمرت 3 أشهر.

تطبيقات وإضافات مشابهة خبيثة

«ChatGPT» بحد ذاته ليس ضاراً، ولكن هناك تطبيقات وإضافات خبيثة تدّعي أنها «ChatGPT». إذا قمتَ بتنزيل وتثبيت إحدى هذه المنصات الخبيثة عن طريق الخطأ، فإن برنامج مكافحة فيروسات وبرامج ضارة جيد يمكن أن يمنع المخترقين من تثبيت برامج ضارة على جهازك.

الامتياز القانوني

أحد أهم الجوانب التي أوضحها الرئيس التنفيذي لشركة OpenAI، سام ألتمان، أن «ChatGPT» لا يخضع لقوانين السرية التي تحكم العلاقة بين المستخدم والمعالج النفسي أو المحامي أو الطبيب. وبالتالي، فإن أي معلومات حساسة يتم الإفصاح عنها؛ سواء كانت اعترافات قانونية، أو مشكلات أسرية، أو بيانات مالية قد لا تكون في مأمن من الوصول القانوني أو المراجعة. ويثير هذا قلقاً كبيراً، لا سيما مع تنامي الاعتماد على الذكاء الاصطناعي من قبل المستخدمين في التحدث عن مشاعرهم أو مشكلاتهم الخاصة، دون إدراك للآثار القانونية المحتملة.

وعن سؤال، هل يمكن للمحكمة استدعاء بيانات محادثات «شات جي بي تي»؟ يجيب موقع «المحامي الاصطناعي» أنه من الناحية الفنية، نعم، ولكن فقط إذا كانت البيانات موجودة وذات صلة.

وهو الأمر الذي أثارته تصريحات ألتمان، إذا تم جمع محادثة بين مستخدم و«ChatGPT» ضمن سياق قانوني كأمر تفتيش أو تحقيق جنائي، فقد يتم استخدامها دليلاً في المحكمة. ورغم أن «Open AI» بوصفها شركة تقنية أميركية، لا تسلّم البيانات إلا بأوامر قضائية رسمية، فإن الواقع القانوني يختلف من دولة لأخرى. وفي بعض الدول ذات القوانين المتشددة أو الغامضة، قد تكون البيانات عرضة للاستغلال أو الطلب من الجهات الأمنية، خصوصاً إذا لم تكن هناك حماية قانونية واضحة للبيانات الرقمية.


مقالات ذات صلة

أبحاث جديدة لفهم تفكير الذكاء الاصطناعي وفتح «صندوقه الأسود»

تكنولوجيا تعتمد الطريقة الجديدة على استخراج المفاهيم من داخل النموذج نفسه بدلاً من فرض مفاهيم محددة مسبقاً من قبل الخبراء (أدوبي)

أبحاث جديدة لفهم تفكير الذكاء الاصطناعي وفتح «صندوقه الأسود»

أبحاث جديدة في جامعة MIT تطور تقنيات تساعد نماذج الذكاء الاصطناعي على تفسير قراراتها لتعزيز الشفافية والثقة في الأنظمة المؤتمتة.

نسيم رمضان (لندن)
خاص توسّع مفهوم المرونة الرقمية ليشمل استمرارية البرمجيات وليس الأمن السيبراني فقط (أدوبي)

خاص هل أصبحت مرونة البرمجيات شرطاً أساسياً لحماية الاقتصاد الرقمي في السعودية؟

توسّع مفهوم المرونة الرقمية ليشمل استمرارية البرمجيات ومخاطر الموردين مع بروز الحساب الضامن أداةً لحماية الخدمات الرقمية الحيوية.

نسيم رمضان (لندن)
الاقتصاد ضاحية الشركات التكنولوجية في مدينة شينزين الصينية (رويترز)

الصين تحذر شركاتها من برنامج «أوبن كلو» للذكاء الاصطناعي

حذرت وكالات حكومية وشركات مملوكة للدولة في الصين موظفيها خلال الأيام الماضية من تثبيت برنامج «أوبن كلو» للذكاء الاصطناعي

«الشرق الأوسط» (بكين)
خاص العاصمة السعودية الرياض (واس) p-circle 01:53

خاص «عام الذكاء الاصطناعي» في السعودية... دفع قوي لاقتصاد البيانات

مع تسارع السباق نحو الاقتصاد الرقمي ودخول العالم مرحلة جديدة تقودها الخوارزميات، تتجه السعودية إلى ترسيخ موقعها لاعباً مؤثراً في مستقبل التقنيات المتقدمة.

زينب علي (الرياض)
علوم الذكاء الاصطناعي يفك شفرة الورم

حين يقرأ الذكاء الاصطناعي خريطة الورم… قبل أن يختار الطبيب العلاج

الطب الحديث يسعى لفهم الخصائص الفردية لكل كتلة سرطانية وكل مريض

د. عميد خالد عبد الحميد (الرياض)

أبحاث جديدة لفهم تفكير الذكاء الاصطناعي وفتح «صندوقه الأسود»

تعتمد الطريقة الجديدة على استخراج المفاهيم من داخل النموذج نفسه بدلاً من فرض مفاهيم محددة مسبقاً من قبل الخبراء (أدوبي)
تعتمد الطريقة الجديدة على استخراج المفاهيم من داخل النموذج نفسه بدلاً من فرض مفاهيم محددة مسبقاً من قبل الخبراء (أدوبي)
TT

أبحاث جديدة لفهم تفكير الذكاء الاصطناعي وفتح «صندوقه الأسود»

تعتمد الطريقة الجديدة على استخراج المفاهيم من داخل النموذج نفسه بدلاً من فرض مفاهيم محددة مسبقاً من قبل الخبراء (أدوبي)
تعتمد الطريقة الجديدة على استخراج المفاهيم من داخل النموذج نفسه بدلاً من فرض مفاهيم محددة مسبقاً من قبل الخبراء (أدوبي)

أصبحت أنظمة الذكاء الاصطناعي أكثر تطوراً كالتعرف إلى الصور وتشخيص الأمراض والمساعدة في اتخاذ قرارات معقدة. لكن رغم هذا التقدم الكبير، لا يزال كثير من نماذج التعلم الآلي المتقدمة يعمل بطريقة توصف غالباً بأنها «صندوق أسود». فهي تقدم تنبؤات دقيقة، لكن الأسباب التي تقود إلى هذه التنبؤات تبقى غير واضحة، حتى بالنسبة للمهندسين الذين طوروا هذه الأنظمة.

ويعمل باحثون في معهد ماساتشوستس للتكنولوجيا (MIT) حالياً على معالجة هذه المشكلة من خلال تطوير طرق تساعد أنظمة الذكاء الاصطناعي على شرح قراراتها. ويهدف هذا العمل إلى جعل نماذج التعلم الآلي ليست دقيقة فحسب، بل أكثر شفافية أيضاً، حيث يتمكن البشر من فهم المنطق الذي يقف وراء التنبؤات التي تقدمها هذه الأنظمة.

تفسير قرارات الذكاء الاصطناعي

تزداد أهمية قدرة الذكاء الاصطناعي على تفسير قراراته مع توسع استخدام هذه التقنيات في مجالات حساسة، مثل الرعاية الصحية والنقل والبحث العلمي. ففي هذه المجالات، يحتاج المستخدمون غالباً إلى فهم العوامل التي أدّت إلى نتيجة معينة، قبل أن يتمكنوا من الوثوق بها أو الاعتماد عليها.

فعلى سبيل المثال، قد يرغب طبيب يراجع تشخيصاً طبياً قدّمه نظام ذكاء اصطناعي في معرفة الخصائص التي دفعت النموذج إلى الاشتباه بوجود مرض معين. وبالمثل، يحتاج المهندسون الذين يعملون على تطوير السيارات ذاتية القيادة إلى فهم الإشارات أو الأنماط التي جعلت النظام يحدد وجود مشاة أو يفسر موقفاً مرورياً معيناً.

غير أن كثيراً من نماذج التعلم العميق تعتمد على علاقات رياضية معقدة تشمل آلافاً حتى ملايين من المتغيرات. ورغم أن هذه الأنظمة قادرة على اكتشاف أنماط دقيقة داخل البيانات، فإن الطريقة التي تصل بها إلى قراراتها قد تكون صعبة الفهم بالنسبة للبشر. وقد أصبح هذا النقص في الشفافية أحد أبرز التحديات في مجال الذكاء الاصطناعي الحديث.

ولهذا ظهر مجال بحثي يعرف باسم «الذكاء الاصطناعي القابل للتفسير»، ويهدف إلى تطوير تقنيات تساعد البشر على فهم كيفية وصول الأنظمة الذكية إلى نتائجها، بما يسمح بتقييم موثوقيتها واكتشاف الأخطاء المحتملة وتعزيز الثقة في الأنظمة المؤتمتة.

تهدف هذه الأبحاث إلى بناء أنظمة ذكاء اصطناعي أكثر موثوقية ومساءلة من خلال تحقيق توازن بين دقة النماذج وإمكانية تفسيرها (أدوبي)

نهج قائم على المفاهيم

ركّز الباحثون في «MIT » على تحسين تقنية تعرف باسم «نموذج عنق الزجاجة المفاهيمي». ويهدف هذا النهج إلى جعل طريقة تفكير أنظمة الذكاء الاصطناعي أكثر وضوحاً للبشر.

في هذا النموذج، لا ينتقل النظام مباشرة من البيانات الخام إلى النتيجة النهائية. بدلاً من ذلك، يحدد أولاً مجموعة من المفاهيم أو الخصائص التي يمكن للبشر فهمها، ثم يستخدم هذه المفاهيم كأساس لاتخاذ القرار.

فإذا كان النظام، على سبيل المثال، مدرباً على التعرف إلى أنواع الطيور من الصور، فقد يحدد أولاً خصائص بصرية مثل «أجنحة زرقاء» أو «أرجل صفراء». وبعد التعرف إلى هذه السمات، يمكن للنظام أن يصنف الطائر ضمن نوع معين.

وفي مجال التصوير الطبي، قد تشمل هذه المفاهيم مؤشرات بصرية، مثل أنماط معينة في الأنسجة أو أشكال محددة تساعد في اكتشاف الأمراض. ومن خلال ربط التنبؤات بهذه المفاهيم الواضحة، يصبح من الأسهل على المستخدمين فهم الطريقة التي توصل بها النظام إلى نتيجته.

حدود المفاهيم المحددة مسبقاً

ورغم أن استخدام المفاهيم يمكن أن يجعل أنظمة الذكاء الاصطناعي أكثر شفافية، فإن النسخ السابقة من هذا النهج كانت تعتمد إلى حد كبير على مفاهيم يحددها الخبراء مسبقاً. لكن في الواقع، قد لا تعكس هذه المفاهيم دائماً التعقيد الكامل للمهمة التي يؤديها النظام. فقد تكون عامة للغاية أو غير مكتملة أو غير مرتبطة مباشرة بالأنماط التي يستخدمها النموذج فعلياً أثناء اتخاذ القرار. وفي بعض الحالات، قد يؤدي ذلك إلى تقليل دقة النموذج أو تقديم تفسير لا يعكس الطريقة الحقيقية التي يعمل بها.

ولهذا سعى فريق «MIT» إلى تطوير طريقة جديدة تستخرج المفاهيم مباشرة من داخل النموذج نفسه. فبدلاً من فرض أفكار محددة عليه مسبقاً، تحاول هذه التقنية تحديد الأنماط والتمثيلات التي تعلمها النموذج خلال مرحلة التدريب. بعد ذلك، يتم تحويل هذه الأنماط الداخلية إلى مفاهيم يمكن للبشر فهمها واستخدامها لتفسير قرارات النظام.

تزداد أهمية تفسير قرارات الذكاء الاصطناعي مع استخدامه في مجالات حساسة مثل الطب والنقل والبحث العلمي (أدوبي)

ترجمة تفكير الآلة إلى لغة مفهومة

لتحقيق ذلك، جمع الباحثون بين مكونين مختلفين من تقنيات التعلم الآلي. يقوم الأول بتحليل البنية الداخلية للنموذج المدرب لتحديد الخصائص الأكثر أهمية التي يعتمد عليها عند اتخاذ التنبؤات. أما الثاني فيحوّل هذه الخصائص إلى مفاهيم يمكن للبشر تفسيرها. وبمجرد تحديد هذه المفاهيم، يصبح النظام ملزماً بالاعتماد عليها عند إصدار توقعاته. وبهذا تتشكل سلسلة واضحة منطقياً تربط بين البيانات المدخلة والنتيجة النهائية.

ويشبه الباحث الرئيسي أنطونيو دي سانتيس هذا الهدف بمحاولة فهم طريقة تفكير الإنسان. ويقول: «بمعنى ما، نريد أن نكون قادرين على قراءة عقول نماذج الرؤية الحاسوبية هذه. نموذج عنق الزجاجة المفاهيمي هو إحدى الطرق التي تسمح للمستخدمين بفهم ما الذي يفكر فيه النموذج ولماذا اتخذ قراراً معيناً». ويرى الباحثون أن استخدام مفاهيم مستخرجة من المعرفة الداخلية للنموذج يمكن أن ينتج تفسيرات أكثر وضوحاً ودقة مقارنة بالطرق السابقة.

تحقيق التوازن بين الدقة والشفافية

يُعد تحقيق التوازن بين دقة النماذج وإمكانية تفسيرها أحد التحديات الرئيسية في مجال الذكاء الاصطناعي القابل للتفسير. فالنماذج الأكثر تعقيداً غالباً ما تحقق أفضل النتائج من حيث الدقة، لكنها تكون أيضاً الأصعب في الفهم. يحاول النهج الجديد الذي طوّره باحثو «MIT» معالجة هذه المشكلة من خلال اختيار عدد محدود من المفاهيم الأكثر أهمية لشرح كل تنبؤ. وبهذه الطريقة يركز النظام على الإشارات الأكثر صلة بالقرار بدلاً من الاعتماد على علاقات خفية داخل النموذج. كما يساعد ذلك على تقليل ما يعرف بـ«تسرب المعلومات»، وهي الحالة التي يعتمد فيها النموذج على أنماط في البيانات لا تظهر في التفسير الذي يقدمه.

نحو أنظمة ذكاء اصطناعي أكثر مساءلة

مع ازدياد اعتماد المؤسسات على أنظمة الذكاء الاصطناعي في اتخاذ القرارات، من المرجح أن تصبح القدرة على فهم طريقة عمل هذه الأنظمة أكثر أهمية. فالنماذج الأكثر شفافية يمكن أن تساعد الباحثين على اكتشاف التحيزات المحتملة وتحسين موثوقية الأنظمة والتأكد من أنها تعمل كما هو متوقع. ويمثل البحث الذي أجراه فريق «MIT» خطوة في هذا الاتجاه. فمن خلال تمكين نماذج التعلم الآلي من تفسير قراراتها بطريقة أكثر وضوحاً ومعنى، قد يسهم هذا النهج في تقليص الفجوة بين الخوارزميات المعقدة والفهم البشري.


هل أصبحت مرونة البرمجيات شرطاً أساسياً لحماية الاقتصاد الرقمي في السعودية؟

توسّع مفهوم المرونة الرقمية ليشمل استمرارية البرمجيات وليس الأمن السيبراني فقط (أدوبي)
توسّع مفهوم المرونة الرقمية ليشمل استمرارية البرمجيات وليس الأمن السيبراني فقط (أدوبي)
TT

هل أصبحت مرونة البرمجيات شرطاً أساسياً لحماية الاقتصاد الرقمي في السعودية؟

توسّع مفهوم المرونة الرقمية ليشمل استمرارية البرمجيات وليس الأمن السيبراني فقط (أدوبي)
توسّع مفهوم المرونة الرقمية ليشمل استمرارية البرمجيات وليس الأمن السيبراني فقط (أدوبي)

لم يعد مفهوم المرونة الرقمية مرتبطاً بضوابط الأمن السيبراني فقط، بل باتت الجهات التنظيمية تنظر إليه اليوم بصورة أوسع ليشمل ضمان استمرارية أنظمة البرمجيات الحيوية التي تقوم عليها الاقتصادات الحديثة.

يظهر هذا التحول بوضوح في المملكة العربية السعودية، حيث يشير إصدار إرشادات تنظيمية جديدة حول «الحساب الضامن للبرمجيات» إلى إدراك متزايد بأن المرونة الرقمية يجب أن تعالج أيضاً مخاطر الاعتماد التشغيلي على مزودي البرمجيات من الأطراف الثالثة.

كما أن المخاطر لم تعد تقتصر على الاختراقات أو تسرب البيانات مع اعتماد المؤسسات على منظومات برمجية أكثر تعقيداً.

يقول أليكس ماكولوك، مدير تطوير الأسواق في منطقة الشرق الأوسط لدى شركة «إيسكود» (Escode)، إن الجهات التنظيمية توسّع نطاق تركيزها لأن الاقتصاد الرقمي بات يعتمد بدرجة كبيرة على البرمجيات التي تطورها وتديرها شركات خارجية. ويشرح خلال لقاء خاص مع «الشرق الأوسط» أن المرونة التشغيلية لم تعد تقتصر على ضوابط الأمن السيبراني فقط، بل يجب أن تشمل أيضاً ضمان استمرارية البرمجيات الحيوية للأعمال. ويضيف: «مع تزايد اعتماد المؤسسات على مزودي البرمجيات من الأطراف الثالثة، تتجاوز المخاطر التهديدات السيبرانية لتشمل تعثر المورد أو عمليات الاندماج والاستحواذ أو توقف الخدمة أو الإخفاقات التشغيلية».

أليكس ماكولوك مدير تطوير الأسواق في منطقة الشرق الأوسط لدى شركة «إيسكود»

تحول تنظيمي نحو الاستمرارية التشغيلية

يرى الخبراء أن إصدار هيئة الاتصالات والفضاء والتقنية في السعودية الدليل الإرشادي للحساب الضامن للبرمجيات خطوة تمثل انتقالاً نحو إطار أكثر شمولاً لما يُعرف بـالاستمرارية التشغيلية المنظمة. وبعبارة عملية، يعني ذلك أن الجهات التنظيمية لم تعد تسأل المؤسسات فقط عن كيفية حماية أنظمتها من الهجمات، بل أيضاً عن كيفية استمرار تقديم خدماتها إذا اختفى أحد مزودي التكنولوجيا الرئيسيين فجأة.

ويصرح ماكولوك بأن هذا الدليل «يعكس تحولاً تنظيمياً أوسع من نموذج يركز على الأمن السيبراني فقط إلى نموذج أكثر شمولاً يقوم على مفهوم الاستمرارية التشغيلية المنظمة؛ إذ يتعامل مع مخاطر الاعتماد الرقمي ويضمن استمرارية أنظمة البرمجيات الحيوية».

يأتي هذا التحول في وقت تستثمر فيه المملكة بكثافة في البنية التحتية الرقمية ضمن استراتيجية التحول الاقتصادي «رؤية 2030». فقد أصبحت المنصات السحابية وأنظمة البرمجيات المؤسسية والخدمات الحكومية الرقمية تشكل العمود الفقري للاقتصاد الرقمي في البلاد. لكن مع تزايد الاعتماد على هذه الأنظمة، تتزايد أيضاً أشكال جديدة من المخاطر.

المخاطر الخفية للاعتماد على البرمجيات

في الكثير من القطاعات اليوم، يعمل مزودو البرمجيات من الأطراف الثالثة خلف الكواليس بوصفهم جزءاً أساسياً من البنية التحتية الرقمية. فالأنظمة المصرفية ومنصات الرعاية الصحية والخدمات الحكومية والعمليات المؤسسية تعتمد كثيراً على موردين خارجيين لإدارة عملياتها الرقمية الأساسية. لكن برأي الخبراء، قد يخلق هذا الاعتماد نقاط ضعف نظامية.

يلفت ماكولوك إلى أن «المخاطر النظامية كبيرة؛ لأن البرمجيات المقدمة من أطراف ثالثة تشكل العمود الفقري لقطاعات حيوية مثل الخدمات المالية والبنية التحتية العامة والأنظمة الصحية ومنصات الأعمال المؤسسية».

ورغم أن الأمن السيبراني لا يزال مصدر قلق رئيسياً، فإن الخطر الأكثر إلحاحاً في كثير من الأحيان قد يأتي من اضطرابات غير متوقعة داخل سلسلة توريد البرمجيات نفسها. فقد يؤدي إفلاس المورد أو استحواذ شركة أخرى عليه أو تغيير استراتيجي في أعماله أو حتى فشل تقني مفاجئ إلى تعطّل خدمات تعتمد عليها المؤسسات والحكومات. وهذه السيناريوهات لم تعد افتراضية خاصة في اقتصاد رقمي قائم على منصات مترابطة؛ إذ يمكن أن ينتقل تأثير تعطل مورد واحد إلى قطاعات متعددة.

يُعدّ التحقق التقني من الشفرة المصدرية ضرورياً لضمان إمكانية إعادة تشغيل البرمجيات عند الحاجة (أدوبي)

الاستعداد لتعثر الموردين

مع إدراك الجهات التنظيمية هذه المخاطر، يتزايد الاهتمام بكيفية استعداد المؤسسات لسيناريوهات تعثر الموردين. ويعدّ الحساب الضامن للبرمجيات من الآليات التي بدأت تحظى باهتمام متزايد، وهو ترتيب يتم بموجبه إيداع نسخة من الشفرة المصدرية للبرنامج والوثائق التقنية المرتبطة به لدى طرف ثالث محايد. وإذا أصبح المورد غير قادر على مواصلة دعم النظام، يمكن للمؤسسة استخدام هذا الإيداع للحفاظ على تشغيل البرنامج أو إعادة بنائه بشكل مستقل. يعدّ ماكولوك أن المؤسسات قد تواجه مخاطر مثل تعثر المورد أو الاستحواذ عليه أو توقف الخدمة أو الإخفاق التشغيلي. ويزيد أن الاستعداد لهذه السيناريوهات يتطلب إجراءات منهجية لتعزيز المرونة مثل الحساب الضامن للبرمجيات واختبار سيناريوهات تعثر المورد لضمان الجاهزية التشغيلية.

تحديد الأنظمة الحيوية

ليس كل تطبيق داخل المؤسسة في حاجة إلى هذا النوع من الحماية. فالخطوة الأولى لبناء مرونة البرمجيات هي تحديد الأنظمة التي تُعدّ بالفعل حيوية للأعمال. يقول ماكولوك إنه «ينبغي على المؤسسات إجراء تقييم داخلي لتحديد التطبيقات التي تُعدّ فعلاً حيوية للأعمال. فالأنظمة التي تدعم الخدمات المنظمة أو ترتبط مباشرة بالإيرادات أو تشكل جزءاً من البنية التحتية الوطنية أو تعتمد عليها العمليات الأساسية للعملاء تعدّ مرشحة واضحة للحماية عبر الحساب الضامن». ويساعد دمج هذه العملية ضمن أطر إدارة المخاطر المؤسسية المؤسسات على إعطاء الأولوية لأهم أصولها الرقمية وضمان تطبيق إجراءات المرونة حيث تكون الحاجة أكبر.

من التخزين إلى التحقق التقني

من المفاهيم الخاطئة الشائعة أن مجرد إيداع الشفرة المصدرية يكفي لضمان الاستمرارية. في الواقع، قد يوفر تخزين الشفرة حماية محدودة إذا لم يكن بالإمكان إعادة بناء البرنامج أو صيانته بشكل مستقل.

ينوّه ماكولوك بأن مجرد تخزين الشفرة المصدرية لا يضمن الاستمرارية. فإذا كانت الشفرة المودعة قديمة أو غير مكتملة أو لا تمكن إعادة بنائها في بيئة نظيفة، فإنها تمنح إحساساً زائفاً بالحماية.

لهذا السبب أصبح التحقق التقني جزءاً مهماً من ترتيبات الحساب الضامن الحديثة. وتشمل هذه العمليات مراجعة الشفرة المصدرية، واختبار تجميعها في بيئات خاضعة للرقابة، والتأكد من إمكانية إعادة بناء النظام فعلياً عند الحاجة.

وتحول هذه الإجراءات الحساب الضامن من ضمانة قانونية سلبية إلى آلية فعلية لتعزيز الاستمرارية التشغيلية.

إصدار إرشادات «الحساب الضامن للبرمجيات» في السعودية يعكس تحولاً تنظيمياً نحو الاستمرارية التشغيلية (أدوبي)

دمج الحساب الضامن في الحوكمة المؤسسية

يتعلق تحول مهم آخر بدمج إجراءات مرونة البرمجيات مباشرة في سياسات المشتريات وأطر الحوكمة المؤسسية. فبدلاً من إدراج ترتيبات الحساب الضامن في مراحل متأخرة من التعاقد مع الموردين، بدأت المؤسسات بدمج هذه المتطلبات في سياسات المشتريات ووثائق طلبات العروض وإجراءات اعتماد الموردين. يركز ماكولوك على أهمية «دمج متطلبات الحساب الضامن في سياسات المشتريات ووثائق طلبات العروض وإجراءات اعتماد الموردين ونماذج العقود القياسية. فهذا يضمن أن يصبح الحساب الضامن آلية منهجية للحد من المخاطر بدلاً من كونه إجراءً تعاقدياً في اللحظة الأخيرة». ففي القطاعات المنظمة مثل الخدمات المالية أو البنية التحتية الحكومية، بدأت هذه الممارسات تتحول تدريجياً إلى معيار أساسي وليس خياراً إضافياً.

التكيف مع عصر السحابة و«SaaS»

يضيف التحول نحو البرمجيات السحابية ونماذج «SaaS»، أي تقديم البرمجيات عبر الإنترنت بدلاً من تثبيتها على أجهزة المستخدم أو خوادم الشركة، تعقيدات جديدة إلى تخطيط المرونة الرقمية. فقد صُممت ترتيبات الحساب الضامن التقليدية في الأصل للأنظمة المحلية، حيث كان يمكن إعادة بناء النظام باستخدام الشفرة المصدرية وحدها.

لكن تشغيل البرمجيات في البيئات السحابية يعتمد على عناصر إضافية تتجاوز الشفرة البرمجية.

ينبّه ماكولوك خلال حديثه مع «الشرق الأوسط» إلى ضرورة أن تتجاوز استراتيجيات الحساب الضامن الحديثة مجرد مستودعات الشفرة المصدرية، لتشمل أيضاً البنى السحابية وسيناريوهات النشر وبيئات التهيئة التشغيلية والوثائق التقنية اللازمة لتشغيل الأنظمة الحديثة القائمة على «SaaS» والبنى السحابية. وتجاهل هذه العناصر قد يترك فجوات كبيرة في خطط المرونة التشغيلية.

مستقبل تنظيم مرونة البرمجيات

مع النظر إلى المستقبل، من المرجح أن تستمر المتطلبات التنظيمية المتعلقة بالمرونة الرقمية في التطور. فمع تحول الأنظمة الرقمية إلى عنصر أساسي في الخدمات الاقتصادية والعامة، أصبح يُنظر إلى البرمجيات بوصفها في الوقت نفسه محركاً أساسياً للابتكار ونقطة تركّز محتملة للمخاطر. يكشف ماكولوك عن أن المتطلبات التنظيمية تتجه نحو أطر أوسع للاستمرارية التشغيلية، تعترف بأن البرمجيات تمثل في الوقت نفسه محركاً رئيسياً للتحول الرقمي ونقطة تركّز للمخاطر.

وبالنسبة للسعودية، يمثل الدليل الجديد للحساب الضامن للبرمجيات خطوة مبكرة في هذا الاتجاه، تتماشى مع جهود المملكة لبناء اقتصاد رقمي أكثر مرونة ضمن رؤية 2030.

قد يعكس هذا التحول فهماً أعمق لطبيعة المخاطر الرقمية. فحماية البنية التحتية لم تعد تعني فقط الدفاع ضد الهجمات السيبرانية، بل تعني أيضاً ضمان استمرار عمل أنظمة البرمجيات التي تدير الاقتصادات الحديثة حتى في حال تعثر الجهات التي تطورها أو تديرها.

وبهذا المعنى، تصبح مرونة البرمجيات أحد الأعمدة الأساسية للثقة الرقمية.


فيديو: «مدرسة الروبوتات» بالصين… آلات تتعلّم الحياة اليومية بعيون البشر

مشاهدون يتابعون عرضاً للروبوتات في العاصمة الصينية بكين (رويترز)
مشاهدون يتابعون عرضاً للروبوتات في العاصمة الصينية بكين (رويترز)
TT

فيديو: «مدرسة الروبوتات» بالصين… آلات تتعلّم الحياة اليومية بعيون البشر

مشاهدون يتابعون عرضاً للروبوتات في العاصمة الصينية بكين (رويترز)
مشاهدون يتابعون عرضاً للروبوتات في العاصمة الصينية بكين (رويترز)

في مختبر متطور بمدينة Wuhan الصينية، تبدو المشاهد أقرب إلى فصل دراسي غير مألوف: صفٌّ من الروبوتات الشبيهة بالبشر يقف في انتظار التعليمات، بينما يقف أمامها مدربون بشريون يوجّهون حركاتها خطوةً خطوة. هنا، فيما يشبه «مدرسة للروبوتات»، تتعلم الآلات كيف تعيش تفاصيل الحياة اليومية كما يفعل البشر. وفقاً لموقع «يورونيوز».

يعتمد الباحثون الصينيون على تقنيات الواقع الافتراضي لتدريب هذه الروبوتات على أداء مهام متنوعة، تبدأ من إعداد فنجان قهوة، ولا تنتهي بالأعمال المنزلية البسيطة. ويرتدي المدربون نظارات الواقع الافتراضي ويمسكون بأجهزة تحكم يدوية، فتتحول حركاتهم مباشرةً إلى أوامر تنفذها الروبوتات في الوقت الفعلي.

وتشرح كو تشيونغبين، وهي مدربة روبوتات تعمل في مجال الذكاء الاصطناعي، طبيعة هذه التجربة قائلة إن المدربين «يرتدون نظارات الواقع الافتراضي ويمسكون بأجهزة تحكم في أيديهم، لتصبح اليدان اليمنى واليسرى بمثابة ذراعي الروبوت. وهكذا يتعلم الروبوت حركاتنا وأوضاعنا عبر تقليدها».

وتضيف أن البيانات الناتجة عن هذه الحركات تُرفع لاحقاً إلى السحابة الإلكترونية، حيث تُراجع وتُعتمد ضمن قاعدة بيانات، قبل أن تُحمّل مجدداً إلى الروبوت ليبدأ التعلم منها.

لكن التجربة لا تخلو من بعدٍ إنساني. تقول تشيونغبين إن أكثر ما يمنحها شعوراً بالرضا هو لحظة نجاح الروبوت في إنجاز المهمة: «الأمر ممتع للغاية. أشعر بإنجاز حقيقي عندما ينجح الروبوت في تنفيذ ما تعلمه، وكأنني أعلّم طفلي شيئاً جديداً وأراه يتطور أمامي».

ويقع هذا المشروع في منطقة تطوير التكنولوجيا الفائقة لبحيرة الشرق، المعروفة أيضاً باسم «وادي البصريات في الصين»، حيث تُنشأ بيئات تدريب تحاكي الواقع بدقة. ففي قاعات المختبر، يمكن مشاهدة غرف معيشة أو ورش عمل صناعية أُعدّت خصيصاً لتدريب الروبوتات على التعامل مع تفاصيل الحياة اليومية.

ويعتمد التدريب على التكرار المكثف؛ إذ يعيد المدربون الحركة نفسها مئات أو آلاف المرات، من أجل بناء قاعدة بيانات ضخمة تمكّن الروبوتات من تعلم المهارات تدريجياً.

ويقول يانغ شينيي، قائد المشروع في شركة «Data Fusion Technology»، إن الهدف من هذه العملية هو «إنشاء سيناريوهات واقعية تحاكي الحياة اليومية». ويضيف أن المدرب قد يضطر أحياناً إلى تكرار حركة واحدة عشرات الآلاف من المرات حتى يكتسب الروبوت القدرة على فهمها وتنفيذها بدقة.

ويؤكد الباحثون أن هذه الجهود تمثل خطوة مهمة نحو تسريع تطوير الروبوتات الشبيهة بالبشر القادرة على العمل والتفاعل داخل البيئات الواقعية، سواء في المنازل أو المصانع.

ولم يعد الأمر مقتصراً على المختبرات فحسب؛ إذ بات بإمكان الزوار في «7S Robot Store» مشاهدة بعض هذه الروبوتات عن قرب، والتفاعل معها مباشرة، حيث تستجيب للأوامر وتنفذ مهام بسيطة، في مشهدٍ يعكس ملامح عالمٍ قد تصبح فيه العلاقة بين الإنسان والآلة أكثر قرباً مما كان يُعتقد.