في اليوم العالمي لـ«خصوصية البيانات»، كيف تعيد السعودية تعريف الثقة الرقمية؟

يعيد الذكاء الاصطناعي تعريف مخاطر الخصوصية حيث أصبحت حماية البيانات مرتبطة بالسلوك البشري والثقافة المؤسسية بقدر ارتباطها بالتقنيات (شاترستوك)
يعيد الذكاء الاصطناعي تعريف مخاطر الخصوصية حيث أصبحت حماية البيانات مرتبطة بالسلوك البشري والثقافة المؤسسية بقدر ارتباطها بالتقنيات (شاترستوك)
TT

في اليوم العالمي لـ«خصوصية البيانات»، كيف تعيد السعودية تعريف الثقة الرقمية؟

يعيد الذكاء الاصطناعي تعريف مخاطر الخصوصية حيث أصبحت حماية البيانات مرتبطة بالسلوك البشري والثقافة المؤسسية بقدر ارتباطها بالتقنيات (شاترستوك)
يعيد الذكاء الاصطناعي تعريف مخاطر الخصوصية حيث أصبحت حماية البيانات مرتبطة بالسلوك البشري والثقافة المؤسسية بقدر ارتباطها بالتقنيات (شاترستوك)

مع إحياء يوم «خصوصية البيانات» عالمياً في 28 يناير (كانون الثاني)، لم يعد النقاش حول الخصوصية يدور حول السياسات والالتزام القانوني فحسب، بل بات يتمحور حول جوهر التحول الرقمي ذاته.

ففي السعودية ومنطقة الشرق الأوسط عموماً، تشهد خصوصية البيانات إعادة تعريف عميقة، لتتحول من مطلب تنظيمي إلى عنصر حاسم في استراتيجيات الذكاء الاصطناعي، والحوسبة السحابية، وبناء الثقة العامة.

الرسالة التي تتبلور اليوم واضحة: الخصوصية لم تعد مسألة تُدار على هامش الأنظمة، بل أصبحت مقياساً للحوكمة الرشيدة والمرونة المؤسسية والمصداقية في بيئة رقمية تتسم بتدفقات بيانات مستمرة.

غابرييل أوبينو نائب الرئيس لمنطقة جنوب أوروبا والشرق الأوسط في شركة «دينودو»

الخصوصية على طاولة الإدارة

في المملكة العربية السعودية، تسارع هذا التحول مع التنفيذ الكامل لنظام حماية البيانات الشخصية (PDPL) في سبتمبر (أيلول) 2024. ويشير غابرييل أوبينو، نائب الرئيس لمنطقة جنوب أوروبا والشرق الأوسط في شركة «دينودو»، إلى أن الحوار حول الخصوصية شهد نقلة نوعية.

ويقول خلال حديث خاص لـ«الشرق الأوسط»: «إن المملكة شهدت تحولاً كبيراً في مقاربة خصوصية البيانات، انتقلت فيه من الامتثال الإجرائي إلى دمج الحوكمة الاستراتيجية، حيث لم تعد الخصوصية شأناً تقنياً، بل أولوية مطروحة على طاولة مجالس الإدارات».

ويربط أوبينو هذا التحول بـ«رؤية السعودية 2030» واستراتيجية الهيئة السعودية للبيانات والذكاء الاصطناعي (سدايا)، موضحاً أن الخصوصية بات يُنظر إليها بوصفها رأس مال تنافسياً، لا عبئاً تنظيمياً.

ويوضح أن «المؤسسات لم تعد تراجع نوع البيانات التي تجمعها فقط، بل باتت تُسائل نفسها حول كيفية حمايتها، وتنظيم الوصول إليها، وإثبات إدارتها المسؤولة بشكل مستدام».

مارتن كريمر استشاري أمن المعلومات لمنطقة أوروبا والشرق الأوسط في شركة «نو بي فور»

الذكاء الاصطناعي ومعادلة الخصوصية

مع التوسع السريع في استخدام التحليلات المتقدمة والذكاء الاصطناعي التوليدي، تغيرت طبيعة المخاطر جذرياً. فالأنظمة الذكية لا تكتفي بتخزين البيانات، بل تقوم بدمجها وتحليلها واستنتاج أنماط منها عبر منصات متعددة.

يحذّر مارتن كريمر، استشاري أمن المعلومات لمنطقة أوروبا والشرق الأوسط في شركة «نو بي فور»، من أن المخاطر الجديدة تتجاوز الثغرات التقنية التقليدية.

ويشرح خلال مقابلة مع «الشرق الأوسط» أن «الذكاء الاصطناعي يتطلب كميات ضخمة من البيانات، ومن دون حدود واضحة لما يجوز مشاركته، ترتفع احتمالات تعرّض بيانات شخصية أو خاضعة للتنظيم للاستخدام غير المقصود أو التسريب».

ويضيف أن الذكاء الاصطناعي التوليدي قد يكشف معلومات حساسة بطرق غير متوقعة إذا لم يُحكم ضبطه، في وقت يستخدم فيه المهاجمون هذه التقنيات لتطوير حملات تصيد وهندسة اجتماعية أكثر إقناعاً.

ويتابع: «الأمن لم يعد مسألة بنية تحتية محصّنة فقط، بل بات مرتبطاً بسلوك الإنسان وبُعد النظر لديه».

الخصوصية كثقافة مؤسسية

خلال أسبوع «خصوصية البيانات»، يرى كريمر أن التحدي الأكبر يكمن في تغيير الذهنية المؤسسية. ويعد أنه «على المؤسسات الانتقال من التعامل مع الخصوصية كمهمة امتثال لمرة واحدة، إلى اعتبارها مسؤولية ثقافية مشتركة ومستمرة».

ويؤكد لـ«الشرق الأوسط» أن التكنولوجيا وحدها لا تكفي، وأن تمكين جميع الموظفين، وليس فرق تقنية المعلومات فقط، هو الأساس لبناء خصوصية مستدامة. ويزيد: «الخصوصية هنا لا تعني الإخفاء، بل الوعي والنية أن تعرف وأن تسأل وأن تختار بحكمة».

بدر رياض بهيان المدير في المملكة العربية السعودية لدى «فاست داتا»

إعادة تعريف سيادة البيانات

من أبرز المفاهيم التي تعيد تشكيل النقاش في المنطقة مفهوم سيادة البيانات. إلا أن السيادة اليوم لا تقتصر على مكان تخزين البيانات.

يوضح أوبينو أن «السيادة لم تعد تعني إبقاء البيانات داخل الحدود الوطنية فقط، بل الحفاظ على رقابة مستمرة على من يمكنه الوصول إليها، وتحت أي شروط ولأي غرض قانوني، حتى عندما تكون موزعة عبر سُحب متعددة».

هذا التوجه يدفع المؤسسات إلى اعتماد نماذج حوكمة قائمة على السياسات، حيث تنتقل الضوابط مع البيانات نفسها، بدل ارتباطها بأنظمة محددة.

وعندما تصبح الثقة قابلة للقياس رغم شيوع الحديث عن الثقة، فإن تحويلها إلى قيمة قابلة للتحقق لا يزال تحدياً.

ويضيف أنه «تصبح الثقة ملموسة عندما تُبنى على الأدلة، لا النوايا»، مشيراً إلى أهمية سجلات الوصول القابلة للتدقيق، وتقليل البيانات والربط الواضح بين الاستخدام والمشروعية القانونية.

من جانبه، يرى بدر رياض بهيان، المدير في المملكة العربية السعودية لدى «فاست داتا»، أن الثقة لم يعد يمكن افتراضها كما في البيئات التقليدية.

ويلفت خلال حديثه مع «الشرق الأوسط» إلى أنه «في عالم الذكاء الاصطناعي، لا يمكن الاعتماد على مراجعات دورية. يجب أن تكون الأنظمة قادرة في أي لحظة على الإجابة: من دخل إلى البيانات؟ متى؟ لماذا؟ وهل طُبّقت السياسات بشكل صحيح؟».

الثقة من وعد إلى رقم

يحذر بهيان من الاعتقاد السائد بأن الخصوصية يمكن إدارتها بمعزل عن البنية التحتية، ويقول: «لفترة طويلة، تعاملت المؤسسات مع الخصوصية كما تتعامل مع برامج مكافحة الفيروسات، شيء يُضاف بعد بناء النظام. الذكاء الاصطناعي كسر هذا النموذج».

وبسبب اعتماد الذكاء الاصطناعي على تدفقات بيانات مستمرة، تظهر الفجوات فوراً إذا كانت الاستراتيجية قائمة على نسخ البيانات أو الحوكمة اليدوية.

وينوه إلى أن «كيفية تخزين البيانات والوصول إليها ومشاركتها هي التي تحدد ما إذا كانت الخصوصية ستنجح أم لا».

عماد فهمي مدير هندسة النظم الإقليمي في شركة «نتسكاوت»

ما بعد حدود الشبكة

من منظور أمني، لم تعد النماذج القائمة على محيط الشبكة كافية. ويوضح الدكتور عماد فهمي، مدير هندسة النظم الإقليمي في شركة «نتسكاوت»، أن البيئات السحابية والهجينة ألغت الحدود التقليدية.

ويؤكد خلال حديثه مع «الشرق الأوسط» أن مبادئ «انعدام الثقة» (Zero Trust)، إلى جانب التحليل المستمر لحركة البيانات والذكاء الاستخباراتي، باتت ضرورية لحماية البيانات أينما وُجدت، دون تعطيل الابتكار أو الامتثال التنظيمي.

ويضيف الدكتور عماد فهمي أن حماية الخصوصية في البيئات الحديثة لم تعد ممكنة من دون رؤية آنية لحركة البيانات نفسها، مشيراً إلى أن فقدان هذه الرؤية في البيئات السحابية والهجينة يحوّل سياسات الخصوصية إلى افتراضات غير قابلة للتحقق.

كما يوضح أن الأمن لم يعد يقتصر على منع الهجمات، بل على اكتشاف السلوك غير الطبيعي والاستجابة له قبل تحوّله إلى خرق بيانات فعلي.

ويخلص إلى أن اعتماد مبادئ «انعدام الثقة» والتحليل المستمر يتيح للمؤسسات تحقيق توازن حقيقي بين حماية البيانات والقدرة على الابتكار بسرعة.

تتقاطع آراء الخبراء الذين تحدث إليهم «الشرق الأوسط» حول حقيقة واحدة، وهي أن الخصوصية يجب أن تكون تشغيلية ومستمرة وقابلة للقياس. فعندما تُدمج في بنية البيانات والذكاء الاصطناعي والأمن السيبراني، فإنها تمكّن المؤسسات من الابتكار بثقة لا بحذر.


مقالات ذات صلة

خبراء ينصحون بإبعاد الأطفال عن الدمى الناطقة بالذكاء الاصطناعي

تكنولوجيا شخصية «باز لايت يير» (بيكساباي)

خبراء ينصحون بإبعاد الأطفال عن الدمى الناطقة بالذكاء الاصطناعي

ينصح الخبراء بعدم وجود أي طفل دون سن الخامسة بالقرب من لعبة ذكاء اصطناعي، وأن على الآباء توخي الحذر فيما يتعلق بالأطفال الذين تتراوح أعمارهم بين 6 و12عاماً.

«الشرق الأوسط» (نيويورك)
خاص يتحوّل النقاش في عصر الذكاء الاصطناعي من التطبيقات إلى البنية التحتية ومن يملكها وكيف تُدار (أدوبي)

خاص الذكاء الاصطناعي السيادي… نهاية السحابة أم بداية نموذج مزدوج؟

يرى باحثون أن صعود الذكاء الاصطناعي السيادي يعيد تشكيل خريطة الحوسبة العالمية في ظل تحوّلٍ من نموذج السحابة المشتركة إلى سيطرة معمارية على البيانات والموارد.

نسيم رمضان (لندن)
تكنولوجيا الفجوة في المواقف لا ترتبط فقط بمستوى المعرفة بل بدرجة النفور من المخاطرة وحجم التعرّض المحتمل لاضطراب سوق العمل (شاترستوك)

النساء أم الرجال... من يرى الذكاء الاصطناعي أكثر خطورة؟

تكشف الدراسة أن النساء ينظرن إلى الذكاء الاصطناعي بوصفه أكثر خطورة من الرجال ويتراجع دعمهن له أسرع عندما تكون مكاسبه الوظيفية غير مؤكدة.

نسيم رمضان (لندن)
تكنولوجيا يوسّع الذكاء الاصطناعي نطاق عمله دون الحاجة إلى استثمارات باهظة في الروبوتات بينما يحصل البشر على فرص دخل مرنة وسريعة وشفافة (رويترز)

120 ألفاً مستعدون لمساعدته… ذكاء اصطناعي يوظّف بشراً لتنفيذ مهام يعجز عنها

تتيح منصة «RentAHuman.ai» لوكلاء الذكاء الاصطناعي استئجار أشخاص حقيقيين لتنفيذ مهام في العالم المادي لا تستطيع الأنظمة الرقمية القيام بها بمفردها حتى الآن.

«الشرق الأوسط» (بيروت)
تكنولوجيا روبوت الدردشة التابع لشركة «إكس» المدعوم بالذكاء الاصطناعي «جروك» (أ.ف.ب)

روبوت الدردشة «جروك» يواصل إنتاج محتوى فاضح رغم القيود الجديدة

خلصت وكالة «رويترز» إلى أن روبوت الدردشة التابع لشركة «إكس» والمدعوم بالذكاء الاصطناعي «جروك» يواصل توليد صور فاضحة للأشخاص.

«الشرق الأوسط» (نيويورك)

خبراء ينصحون بإبعاد الأطفال عن الدمى الناطقة بالذكاء الاصطناعي

شخصية «باز لايت يير» (بيكساباي)
شخصية «باز لايت يير» (بيكساباي)
TT

خبراء ينصحون بإبعاد الأطفال عن الدمى الناطقة بالذكاء الاصطناعي

شخصية «باز لايت يير» (بيكساباي)
شخصية «باز لايت يير» (بيكساباي)

مع أفلام مغامرات «حكاية لعبة» الشيّقة، إلى حركات «تيد» الطفولية، أصبحت فكرة الدمى والدببة المحشوة، التي تدب فيها الحياة فكرةً سينمائيةً مبتذلة.

وبينما أتاحت التطورات الحديثة في مجال الذكاء الاصطناعي إمكانية صنع ألعاب تبدو واعية، فإنها تبدو أقرب إلى شخصيات شريرة مثل المهرج في فيلم «بولترجايست» وشخصية «تشاكي» في فيلم «لعبة طفل» منها إلى شخصيتَي «وودي» و«باز لايت يير».

ووفقاً لمنظمة «كومن سينس ميديا»، الأميركية غير الحكومية المعنية بمراقبة السلع الإلكترونية الاستهلاكية، فإن الدمى وألعاب الأطفال التي تعمل بالذكاء الاصطناعي تقول كلاماً غير لائق للأطفال، وتنتهك خصوصية المنزل من خلال جمع بيانات واسعة النطاق.

يقول روبي تورني، رئيس قسم التقييمات الرقمية في «كومن سينس»: «أظهر تقييمنا للمخاطر أن دمى الذكاء الاصطناعي تشترك في مشكلات جوهرية تجعلها غير مناسبة للأطفال الصغار».

ويقول تورني: «أكثر من رُبع المنتجات تتضمَّن محتوى غير لائق، مثل الإشارة إلى إيذاء النفس، والمخدرات، والسلوكيات الخطرة»، مشيراً إلى أن هذه الأجهزة تستلزم «جمع بيانات مكثف»، وتعتمد على «نماذج اشتراك تستغل الروابط العاطفية».

ووفقاً لمنظمة «كومن سينس»، تستخدم بعض هذه الألعاب «آليات ترابط لخلق علاقات شبيهة بالصداقة»، محذِّرة من أن هذه الأجهزة في الوقت نفسه «تجمع بيانات واسعة النطاق في المساحات الخاصة بالأطفال»، بما في ذلك التسجيلات الصوتية، والنصوص المكتوبة، و«البيانات السلوكية».

وتؤكد «كومن سينس» ضرورة عدم وجود أي طفل دون سن الخامسة بالقرب من لعبة ذكاء اصطناعي، وأنَّ على الآباء توخي الحذر فيما يتعلق بالأطفال الذين تتراوح أعمارهم بين 6 و12 عاماً.

ويقول جيمس ستاير، مؤسِّس ورئيس منظمة «كومن سينس»: «ما زلنا نفتقر إلى ضمانات فعّالة لحماية الأطفال من الذكاء الاصطناعي»، مقارِناً بين غياب هذه الحماية و«الاختبارات الصارمة» للسلامة والملاءمة التي تخضع لها الألعاب الأخرى قبل الموافقة على طرحها للبيع.


بالخطأ... منصة في كوريا الجنوبية توزع «بتكوين» بقيمة 44 مليار دولار

شعار منصة تداول العملات المشفرة الكورية الجنوبية «بيثامب» (رويترز)
شعار منصة تداول العملات المشفرة الكورية الجنوبية «بيثامب» (رويترز)
TT

بالخطأ... منصة في كوريا الجنوبية توزع «بتكوين» بقيمة 44 مليار دولار

شعار منصة تداول العملات المشفرة الكورية الجنوبية «بيثامب» (رويترز)
شعار منصة تداول العملات المشفرة الكورية الجنوبية «بيثامب» (رويترز)

كشفت منصة تداول العملات المشفرة الكورية الجنوبية «بيثامب»، اليوم السبت، عن أنها وزعت عملات «بتكوين» بقيمة تتجاوز 40 مليار دولار على عملاء بوصفها مكافآت ترويجية عن طريق الخطأ، ما أدى إلى موجة بيع حادة على المنصة.

واعتذرت «‌بيثامب» عن ‌الخطأ الذي ‌وقع ⁠أمس ​الجمعة، ‌وقالت إنها استعادت 99.7 في المائة من إجمالي 620 ألف «بتكوين» بقيمة تبلغ نحو 44 مليار دولار بالأسعار الحالية. وقيدت عمليات التداول والسحب ⁠على 695 عميلاً متأثراً بالواقعة في ‌غضون 35 دقيقة ‍من التوزيع ‍الخاطئ أمس.

وأفادت تقارير إعلامية بأن ‍المنصة كانت تعتزم توزيع مكافآت نقدية صغيرة في حدود 2000 وون كوري (1.40 دولار) ​أو أكثر لكل مستخدم في إطار حدث ترويجي، لكن ⁠الفائزين حصلوا بدلاً من ذلك على ألفي «بتكوين» على الأقل لكل منهم.

وقالت «‌بيثامب» في بيان: «نود أن نوضح أن هذا لا علاقة له بقرصنة خارجية أو انتهاكات أمنية، ولا توجد مشاكل في أمن النظام ‌أو إدارة أصول العملاء».


«مدمّر ستارلينك» المحتمل... خطوة تقنية صينية تفتح الباب أمام تعطيل الأقمار الاصطناعية

صورة مركبة لنموذج قمر اصطناعي مع خلفية لكوكب الأرض (رويترز)
صورة مركبة لنموذج قمر اصطناعي مع خلفية لكوكب الأرض (رويترز)
TT

«مدمّر ستارلينك» المحتمل... خطوة تقنية صينية تفتح الباب أمام تعطيل الأقمار الاصطناعية

صورة مركبة لنموذج قمر اصطناعي مع خلفية لكوكب الأرض (رويترز)
صورة مركبة لنموذج قمر اصطناعي مع خلفية لكوكب الأرض (رويترز)

طوّر علماء صينيون مولّد طاقة فائق القوة وصغير الحجم، في خطوة تمهّد الطريق لتطوير أسلحة من الجيل القادم قد تُستخدم يوماً ما ضد أسراب الأقمار الاصطناعية، مثل كوكبة «ستارلينك» التابعة لشركة «سبيس إكس»، وذلك وفقاً لما أوردته صحيفة «إندبندنت».

وخلال السنوات الأخيرة، اكتسبت أسلحة الموجات الدقيقة عالية الطاقة اهتماماً متزايداً بوصفها بديلاً منخفض التكلفة للصواريخ والبنادق التقليدية، نظراً لقدرتها شبه غير المحدودة على إطلاق النبضات.

وفي هذا السياق، يُجري باحثون في الولايات المتحدة، وروسيا، والصين على وجه الخصوص، دراسات مكثفة حول إمكانية تطوير هذه التقنية إلى أسلحة طاقة موجهة قادرة على تعطيل الأقمار الاصطناعية.

ويُعدّ تدمير قمر اصطناعي في الفضاء مهمة بالغة التعقيد، إذ من المرجح أن تُخلّف الأسلحة التقليدية كميات كبيرة من الحطام المداري، ما قد يؤدي إلى عواقب غير متوقعة، بما في ذلك تهديد الأقمار الاصطناعية التابعة للدولة المنفذة نفسها.

ومن الناحية النظرية، يمكن لأسلحة الموجات الدقيقة تعطيل الأقمار الاصطناعية مع توليد قدر محدود من الحطام، فضلاً عن إتاحة قدر من «الإنكار المعقول»، وهو ما يمنحها ميزة استراتيجية واضحة.

وتعتمد هذه الأسلحة على مبدأ تخزين الطاقة الكهربائية ثم إطلاقها دفعة واحدة على شكل نبضة قوية، على غرار آلية عمل ملف تسلا.

وتُستخدم هذه النبضة الهائلة من الطاقة في تشغيل مولدات الموجات الدقيقة، التي تعمل بدورها على تعطيل الأنظمة، والأجهزة الإلكترونية.

شاشة تظهر إيلون ماسك وشعار شركة «ستارلينك» (رويترز)

وحتى وقت قريب، كانت غالبية النماذج الأولية لهذه المولدات النبضية ضخمة الحجم، إذ بلغ طولها 10 أمتار على الأقل، ووزنها أكثر من 10 أطنان، ما جعل دمجها في أنظمة الأسلحة الصغيرة أو المتحركة أمراً بالغ الصعوبة.

غير أنّ دراسة حديثة أجراها علماء صينيون من معهد شمال غربي الصين للتكنولوجيا النووية (NINT) أظهرت تقدماً ملحوظاً في هذا المجال، حيث استخدم الباحثون مادة عازلة سائلة خاصة تُعرف باسم «ميدل 7131»، ما أتاح تحقيق كثافة أعلى لتخزين الطاقة، وعزلاً أكثر قوة، وتقليلاً لفقدان الطاقة، وأسهم في تصميم جهاز أصغر حجماً، وأكثر كفاءة.

وكتب العلماء في الدراسة المنشورة: «من خلال استخدام مادة عازلة سائلة عالية الكثافة للطاقة تُعرف باسم (ميدل 7131)، إلى جانب خط تشكيل نبضات مزدوج العرض، تمكنت الدراسة من تصغير حجم محول تسلا المتكامل، ونظام تشكيل النبضات».

وبحسب الدراسة، يبلغ طول الجهاز الجديد أربعة أمتار فقط (13 قدماً)، ويزن خمسة أطنان، ما يجعله أول جهاز تشغيل صغير الحجم في العالم لسلاح الميكروويف عالي الطاقة.

ويُعرف هذا الجهاز باسم TPG1000Cs، وهو صغير بما يكفي ليُثبت على الشاحنات، والطائرات، بل وحتى على أقمار اصطناعية أخرى، وفقاً لما أفاد به الباحثون.

وأشار الباحثون إلى أن «النظام أظهر استقراراً في التشغيل لمدة دقيقة واحدة متواصلة، حيث جُمعت نحو 200 ألف نبضة بأداء ثابت».

ويؤكد خبراء أن سلاح ميكروويف أرضياً بقدرة تتجاوز 1 غيغاواط (GW) سيكون قادراً على تعطيل وتدمير آلية عمل أقمار «ستارلينك» الاصطناعية في مدارها بشكل كبير.

وذكر الباحثون، بحسب ما نقلته صحيفة «ساوث تشاينا مورنينغ بوست»، أن جهاز TPG1000Cs قادر على توليد نبضات كهربائية فائقة القوة تصل إلى 20 غيغاواط.

وتأتي هذه التطورات في وقت نشرت فيه الصين عدداً من الدراسات التي تشدد على ضرورة إيجاد وسائل فعالة لتعطيل أقمار «ستارلينك» الاصطناعية التابعة لرجل الأعمال إيلون ماسك.