في اليوم العالمي لـ«خصوصية البيانات»، كيف تعيد السعودية تعريف الثقة الرقمية؟

يعيد الذكاء الاصطناعي تعريف مخاطر الخصوصية حيث أصبحت حماية البيانات مرتبطة بالسلوك البشري والثقافة المؤسسية بقدر ارتباطها بالتقنيات (شاترستوك)
يعيد الذكاء الاصطناعي تعريف مخاطر الخصوصية حيث أصبحت حماية البيانات مرتبطة بالسلوك البشري والثقافة المؤسسية بقدر ارتباطها بالتقنيات (شاترستوك)
TT

في اليوم العالمي لـ«خصوصية البيانات»، كيف تعيد السعودية تعريف الثقة الرقمية؟

يعيد الذكاء الاصطناعي تعريف مخاطر الخصوصية حيث أصبحت حماية البيانات مرتبطة بالسلوك البشري والثقافة المؤسسية بقدر ارتباطها بالتقنيات (شاترستوك)
يعيد الذكاء الاصطناعي تعريف مخاطر الخصوصية حيث أصبحت حماية البيانات مرتبطة بالسلوك البشري والثقافة المؤسسية بقدر ارتباطها بالتقنيات (شاترستوك)

مع إحياء يوم «خصوصية البيانات» عالمياً في 28 يناير (كانون الثاني)، لم يعد النقاش حول الخصوصية يدور حول السياسات والالتزام القانوني فحسب، بل بات يتمحور حول جوهر التحول الرقمي ذاته.

ففي السعودية ومنطقة الشرق الأوسط عموماً، تشهد خصوصية البيانات إعادة تعريف عميقة، لتتحول من مطلب تنظيمي إلى عنصر حاسم في استراتيجيات الذكاء الاصطناعي، والحوسبة السحابية، وبناء الثقة العامة.

الرسالة التي تتبلور اليوم واضحة: الخصوصية لم تعد مسألة تُدار على هامش الأنظمة، بل أصبحت مقياساً للحوكمة الرشيدة والمرونة المؤسسية والمصداقية في بيئة رقمية تتسم بتدفقات بيانات مستمرة.

غابرييل أوبينو نائب الرئيس لمنطقة جنوب أوروبا والشرق الأوسط في شركة «دينودو»

الخصوصية على طاولة الإدارة

في المملكة العربية السعودية، تسارع هذا التحول مع التنفيذ الكامل لنظام حماية البيانات الشخصية (PDPL) في سبتمبر (أيلول) 2024. ويشير غابرييل أوبينو، نائب الرئيس لمنطقة جنوب أوروبا والشرق الأوسط في شركة «دينودو»، إلى أن الحوار حول الخصوصية شهد نقلة نوعية.

ويقول خلال حديث خاص لـ«الشرق الأوسط»: «إن المملكة شهدت تحولاً كبيراً في مقاربة خصوصية البيانات، انتقلت فيه من الامتثال الإجرائي إلى دمج الحوكمة الاستراتيجية، حيث لم تعد الخصوصية شأناً تقنياً، بل أولوية مطروحة على طاولة مجالس الإدارات».

ويربط أوبينو هذا التحول بـ«رؤية السعودية 2030» واستراتيجية الهيئة السعودية للبيانات والذكاء الاصطناعي (سدايا)، موضحاً أن الخصوصية بات يُنظر إليها بوصفها رأس مال تنافسياً، لا عبئاً تنظيمياً.

ويوضح أن «المؤسسات لم تعد تراجع نوع البيانات التي تجمعها فقط، بل باتت تُسائل نفسها حول كيفية حمايتها، وتنظيم الوصول إليها، وإثبات إدارتها المسؤولة بشكل مستدام».

مارتن كريمر استشاري أمن المعلومات لمنطقة أوروبا والشرق الأوسط في شركة «نو بي فور»

الذكاء الاصطناعي ومعادلة الخصوصية

مع التوسع السريع في استخدام التحليلات المتقدمة والذكاء الاصطناعي التوليدي، تغيرت طبيعة المخاطر جذرياً. فالأنظمة الذكية لا تكتفي بتخزين البيانات، بل تقوم بدمجها وتحليلها واستنتاج أنماط منها عبر منصات متعددة.

يحذّر مارتن كريمر، استشاري أمن المعلومات لمنطقة أوروبا والشرق الأوسط في شركة «نو بي فور»، من أن المخاطر الجديدة تتجاوز الثغرات التقنية التقليدية.

ويشرح خلال مقابلة مع «الشرق الأوسط» أن «الذكاء الاصطناعي يتطلب كميات ضخمة من البيانات، ومن دون حدود واضحة لما يجوز مشاركته، ترتفع احتمالات تعرّض بيانات شخصية أو خاضعة للتنظيم للاستخدام غير المقصود أو التسريب».

ويضيف أن الذكاء الاصطناعي التوليدي قد يكشف معلومات حساسة بطرق غير متوقعة إذا لم يُحكم ضبطه، في وقت يستخدم فيه المهاجمون هذه التقنيات لتطوير حملات تصيد وهندسة اجتماعية أكثر إقناعاً.

ويتابع: «الأمن لم يعد مسألة بنية تحتية محصّنة فقط، بل بات مرتبطاً بسلوك الإنسان وبُعد النظر لديه».

الخصوصية كثقافة مؤسسية

خلال أسبوع «خصوصية البيانات»، يرى كريمر أن التحدي الأكبر يكمن في تغيير الذهنية المؤسسية. ويعد أنه «على المؤسسات الانتقال من التعامل مع الخصوصية كمهمة امتثال لمرة واحدة، إلى اعتبارها مسؤولية ثقافية مشتركة ومستمرة».

ويؤكد لـ«الشرق الأوسط» أن التكنولوجيا وحدها لا تكفي، وأن تمكين جميع الموظفين، وليس فرق تقنية المعلومات فقط، هو الأساس لبناء خصوصية مستدامة. ويزيد: «الخصوصية هنا لا تعني الإخفاء، بل الوعي والنية أن تعرف وأن تسأل وأن تختار بحكمة».

بدر رياض بهيان المدير في المملكة العربية السعودية لدى «فاست داتا»

إعادة تعريف سيادة البيانات

من أبرز المفاهيم التي تعيد تشكيل النقاش في المنطقة مفهوم سيادة البيانات. إلا أن السيادة اليوم لا تقتصر على مكان تخزين البيانات.

يوضح أوبينو أن «السيادة لم تعد تعني إبقاء البيانات داخل الحدود الوطنية فقط، بل الحفاظ على رقابة مستمرة على من يمكنه الوصول إليها، وتحت أي شروط ولأي غرض قانوني، حتى عندما تكون موزعة عبر سُحب متعددة».

هذا التوجه يدفع المؤسسات إلى اعتماد نماذج حوكمة قائمة على السياسات، حيث تنتقل الضوابط مع البيانات نفسها، بدل ارتباطها بأنظمة محددة.

وعندما تصبح الثقة قابلة للقياس رغم شيوع الحديث عن الثقة، فإن تحويلها إلى قيمة قابلة للتحقق لا يزال تحدياً.

ويضيف أنه «تصبح الثقة ملموسة عندما تُبنى على الأدلة، لا النوايا»، مشيراً إلى أهمية سجلات الوصول القابلة للتدقيق، وتقليل البيانات والربط الواضح بين الاستخدام والمشروعية القانونية.

من جانبه، يرى بدر رياض بهيان، المدير في المملكة العربية السعودية لدى «فاست داتا»، أن الثقة لم يعد يمكن افتراضها كما في البيئات التقليدية.

ويلفت خلال حديثه مع «الشرق الأوسط» إلى أنه «في عالم الذكاء الاصطناعي، لا يمكن الاعتماد على مراجعات دورية. يجب أن تكون الأنظمة قادرة في أي لحظة على الإجابة: من دخل إلى البيانات؟ متى؟ لماذا؟ وهل طُبّقت السياسات بشكل صحيح؟».

الثقة من وعد إلى رقم

يحذر بهيان من الاعتقاد السائد بأن الخصوصية يمكن إدارتها بمعزل عن البنية التحتية، ويقول: «لفترة طويلة، تعاملت المؤسسات مع الخصوصية كما تتعامل مع برامج مكافحة الفيروسات، شيء يُضاف بعد بناء النظام. الذكاء الاصطناعي كسر هذا النموذج».

وبسبب اعتماد الذكاء الاصطناعي على تدفقات بيانات مستمرة، تظهر الفجوات فوراً إذا كانت الاستراتيجية قائمة على نسخ البيانات أو الحوكمة اليدوية.

وينوه إلى أن «كيفية تخزين البيانات والوصول إليها ومشاركتها هي التي تحدد ما إذا كانت الخصوصية ستنجح أم لا».

عماد فهمي مدير هندسة النظم الإقليمي في شركة «نتسكاوت»

ما بعد حدود الشبكة

من منظور أمني، لم تعد النماذج القائمة على محيط الشبكة كافية. ويوضح الدكتور عماد فهمي، مدير هندسة النظم الإقليمي في شركة «نتسكاوت»، أن البيئات السحابية والهجينة ألغت الحدود التقليدية.

ويؤكد خلال حديثه مع «الشرق الأوسط» أن مبادئ «انعدام الثقة» (Zero Trust)، إلى جانب التحليل المستمر لحركة البيانات والذكاء الاستخباراتي، باتت ضرورية لحماية البيانات أينما وُجدت، دون تعطيل الابتكار أو الامتثال التنظيمي.

ويضيف الدكتور عماد فهمي أن حماية الخصوصية في البيئات الحديثة لم تعد ممكنة من دون رؤية آنية لحركة البيانات نفسها، مشيراً إلى أن فقدان هذه الرؤية في البيئات السحابية والهجينة يحوّل سياسات الخصوصية إلى افتراضات غير قابلة للتحقق.

كما يوضح أن الأمن لم يعد يقتصر على منع الهجمات، بل على اكتشاف السلوك غير الطبيعي والاستجابة له قبل تحوّله إلى خرق بيانات فعلي.

ويخلص إلى أن اعتماد مبادئ «انعدام الثقة» والتحليل المستمر يتيح للمؤسسات تحقيق توازن حقيقي بين حماية البيانات والقدرة على الابتكار بسرعة.

تتقاطع آراء الخبراء الذين تحدث إليهم «الشرق الأوسط» حول حقيقة واحدة، وهي أن الخصوصية يجب أن تكون تشغيلية ومستمرة وقابلة للقياس. فعندما تُدمج في بنية البيانات والذكاء الاصطناعي والأمن السيبراني، فإنها تمكّن المؤسسات من الابتكار بثقة لا بحذر.


مقالات ذات صلة

البرلمان الأوروبي يحظر أدوات ذكاء اصطناعي «تعرّي» أشخاصاً

تكنولوجيا شعار روبوت الدردشة «غروك» يظهر على شاشتين (أ.ف.ب)

البرلمان الأوروبي يحظر أدوات ذكاء اصطناعي «تعرّي» أشخاصاً

أقرّ البرلمان الأوروبي، الخميس، قانوناً يحظّر استخدام الذكاء الاصطناعي لـ«تعرية» الأشخاص من دون موافقتهم.

«الشرق الأوسط» (بروكسل)
تكنولوجيا تجمع الشراكة بين البنية التحتية والنماذج لدى «هيوماين» وخبرة «Turing» في تطوير وتقييم أنظمة الذكاء الاصطناعي (هيوماين)

«هيوماين» و«Turing» تطلقان سوقاً عالمية لوكلاء الذكاء الاصطناعي للمؤسسات

«هيوماين» و«Turing» تطلقان سوقاً لوكلاء الذكاء الاصطناعي لتمكين المؤسسات من تشغيل مهامها عبر وكلاء أذكياء بدل البرمجيات التقليدية.

نسيم رمضان (لندن)
علوم صورة من موقع شركة «آيبر» يظهر فيها عمل النظام الروبوتي المزدوج لتنظيف المسبح من السطح إلى الجدران إلى القاع

نظام روبوتي ذكي مزدوج لتنظيف المسابح

يعمل بشكل ذاتي من السطح إلى القاع بتغطية شاملة

غريغ إيلمان (واشنطن)
تكنولوجيا تلعب طريقة عرض المعلومات وسردها دوراً أساسياً في تشكيل الفهم وليس فقط مضمونها (شاترستوك)

دراسة تبحث: هل يغيّر الذكاء الاصطناعي طريقة تفكيرنا رغم صحة المعلومات؟

دراسة تظهر أن الذكاء الاصطناعي يؤثر في الآراء عبر طريقة عرض المعلومات حتى عندما تكون الحقائق صحيحة وغير مضللة.

نسيم رمضان (لندن)
تكنولوجيا رئيس شركة «أبل» تيم كوك خلال أحد المؤتمرات السنوية للشركة (إ.ب.أ)

«أبل» في عامها الخمسين… قصة شركة أعادت تشكيل التكنولوجيا العالمية

مسيرة «أبل» خلال 50 عاماً تعكس قدرة استثنائية على الابتكار وإعادة الابتكار، من مرآب صغير إلى شركة أعادت تشكيل التكنولوجيا العالمية.

نسيم رمضان (لندن)

«أبل» تعتزم فتح «سيري» أمام خدمات الذكاء الاصطناعي المنافِسة

يظهر شعار شركة «أبل» على مبنى في حي مانهاتن بمدينة نيويورك الأميركية (د.ب.أ)
يظهر شعار شركة «أبل» على مبنى في حي مانهاتن بمدينة نيويورك الأميركية (د.ب.أ)
TT

«أبل» تعتزم فتح «سيري» أمام خدمات الذكاء الاصطناعي المنافِسة

يظهر شعار شركة «أبل» على مبنى في حي مانهاتن بمدينة نيويورك الأميركية (د.ب.أ)
يظهر شعار شركة «أبل» على مبنى في حي مانهاتن بمدينة نيويورك الأميركية (د.ب.أ)

ذكرت «بلومبيرغ نيوز»، اليوم الخميس، أن «أبل» تخطط لفتح مساعدها الصوتي «سيري» أمام خدمات ​الذكاء الاصطناعي المنافِسة، بما يتجاوز شراكتها الحالية مع «تشات جي بي تي».

وقالت الوكالة، في تقريرها الذي نقلته عن مصادر مطّلعة، إن هذه الخطوة، المتوقعة ضِمن تحديث نظام التشغيل «آي أو إس 27» من «أبل»، ستسمح لتطبيقات الذكاء الاصطناعي التابعة لجهات خارجية بالاندماج مباشرة مع «سيري»، مما يمكّن المستخدمين من توجيه الاستفسارات إلى خدمات مثل «جيميناي» التابعة لشركة «ألفابت»، أو «كلود» التابعة لشركة «أنثروبيك» من داخل المساعد.

وهذا التغيير تحول مهم في استراتيجية «أبل» للذكاء الاصطناعي، إذ تسعى الشركة إلى اللحاق بركب نظيراتها في وادي السيليكون، ووضع «آيفون» كمنصة أوسع للذكاء الاصطناعي.

و«سيري»، الذي أُطلق لأول مرة منذ أكثر من عقد، عنصر أساسي في هذا المسعى. وأفادت «بلومبيرغ نيوز» بأن «أبل» تُطور أدوات تسمح لتطبيقات روبوتات الدردشة المثبتة عبر متجر التطبيقات الخاص بها بالعمل مع «سيري» وميزات أخرى ضِمن منصة «أبل إنتليجنس». وسيتمكن المستخدمون من اختيار خدمة الذكاء الاصطناعي التي تتولى معالجة كل طلب.

وذكر التقرير أن هذا التحديث قد يساعد «أبل» أيضاً على تحقيق مزيد من الإيرادات من خلال الحصول على حصة من الاشتراكات المبيعة عبر خدمات الذكاء الاصطناعي التابعة لجهات خارجية.

ومن المتوقع أن تستعرض «أبل» ميزات البرنامج الجديدة في مؤتمر المطورين العالمي الذي تعقده في يونيو (حزيران) المقبل، غير أن الخطط قد تتغير.


البرلمان الأوروبي يحظر أدوات ذكاء اصطناعي «تعرّي» أشخاصاً

شعار روبوت الدردشة «غروك» يظهر على شاشتين (أ.ف.ب)
شعار روبوت الدردشة «غروك» يظهر على شاشتين (أ.ف.ب)
TT

البرلمان الأوروبي يحظر أدوات ذكاء اصطناعي «تعرّي» أشخاصاً

شعار روبوت الدردشة «غروك» يظهر على شاشتين (أ.ف.ب)
شعار روبوت الدردشة «غروك» يظهر على شاشتين (أ.ف.ب)

أقرّ البرلمان الأوروبي، الخميس، قانوناً يحظّر استخدام الذكاء الاصطناعي لـ«تعرية» الأشخاص من دون موافقتهم.

وتمّ تبني القرار في نصّ أُقرّ بأغلبية ساحقة (569 صوتاً مقابل 45 صوتاً معارضاً) خلال جلسة عامة للبرلمان في بروكسل، وفقاً لـ«وكالة الصحافة الفرنسية».

وأوضح بيان صادر عن البرلمان أن الأمر يتعلّق بحظر برامج «التعرية» التي «تستخدم الذكاء الاصطناعي لإنشاء أو التلاعب بصور ذات إيحاءات جنسية واضحة، أو صور في وضع حميم تشبه شخصاً حقيقياً يمكن التعرّف عليه، من دون موافقة هذا الشخص».

ولا يطبّق النص على أنظمة الذكاء الاصطناعي المزوّدة «بتدابير أمنية فعّالة» تحول دون هذه الممارسات.

وكانت دول الاتحاد الأوروبي أقرّت هذا الشهر إجراء مشابهاً. وسيتعيّن عليها الآن التفاوض مع البرلمان للتوصل إلى صياغة متقاربة، قبل أن يصبح من الممكن تطبيق الإجراء.

وتأتي هذه المبادرات خصوصاً بعد إدخال خاصية قبل بضعة أشهر في تطبيق «غروك» للذكاء الاصطناعي تتيح للمستخدمين أن يطلبوا منه تركيب صور مزيفة قريبة جداً من الواقعية (ديب فيك) لنساء وأطفال عراة، انطلاقاً من صور حقيقية.

وأثارت هذه القضية موجة استنكار في العديد من الدول ودفعت الاتحاد الأوروبي إلى فتح تحقيق.

كما وافق البرلمان في النص ذاته، على إرجاء دخول قوانين أوروبية جديدة حيّز التنفيذ بشأن أنظمة الذكاء الاصطناعي ذات المخاطر العالية، أي تلك العاملة في مجالات حساسة كالأمن أو الصحة أو الحقوق الأساسية.

وكان من المفترض أن تدخل هذه القواعد حيّز التنفيذ في أغسطس (آب) 2026. وعلى غرار الدول الأعضاء، اقترح النواب الأوروبيون تاريخين محدّدين لهذا التأجيل، في حين كانت المفوضية الأوروبية تريد منح الشركات جدولاً زمنياً أكثر مرونة.

والتاريخان هما: الثاني من ديسمبر (كانون الأول) 2027 للأنظمة المستقلة ذات المخاطر العالية، والثاني من أغسطس (آب) 2028 للأنظمة المدمجة في برامج أو منتجات أخرى.


«هيوماين» و«Turing» تطلقان سوقاً عالمية لوكلاء الذكاء الاصطناعي للمؤسسات

تجمع الشراكة بين البنية التحتية والنماذج لدى «هيوماين» وخبرة «Turing» في تطوير وتقييم أنظمة الذكاء الاصطناعي (هيوماين)
تجمع الشراكة بين البنية التحتية والنماذج لدى «هيوماين» وخبرة «Turing» في تطوير وتقييم أنظمة الذكاء الاصطناعي (هيوماين)
TT

«هيوماين» و«Turing» تطلقان سوقاً عالمية لوكلاء الذكاء الاصطناعي للمؤسسات

تجمع الشراكة بين البنية التحتية والنماذج لدى «هيوماين» وخبرة «Turing» في تطوير وتقييم أنظمة الذكاء الاصطناعي (هيوماين)
تجمع الشراكة بين البنية التحتية والنماذج لدى «هيوماين» وخبرة «Turing» في تطوير وتقييم أنظمة الذكاء الاصطناعي (هيوماين)

في خطوة تعكس تسارع الاهتمام بتطبيقات الذكاء الاصطناعي داخل المؤسسات، أعلنت «هيوماين»، التابعة لصندوق الاستثمارات العامة، عن شراكة مع شركة «Turing» المتخصصة في تطوير أنظمة الذكاء الاصطناعي، بهدف إنشاء سوق عالمية لوكلاء الذكاء الاصطناعي ضمن منصة «HUMAIN ONE».

وتتمحور الفكرة حول توفير بيئة تمكّن الشركات من اكتشاف هذه الوكلاء وتطبيقها وتوسيع استخدامها عبر وظائف مختلفة، مثل الموارد البشرية والمالية والعمليات، في محاولة لتسريع الانتقال من استخدام أدوات رقمية تقليدية إلى نماذج تشغيل أكثر اعتماداً على الأتمتة الذكية.

يفتح المشروع المجال أمام المطورين لنشر حلولهم وبناء منظومة أوسع لما يُعرف بـ«اقتصاد الوكلاء» (شاترستوك)

منصات التشغيل الذكي

الشراكة تجمع بين ما تطوره «هيوماين» من بنية تحتية ونماذج ذكاء اصطناعي، وبين خبرة «Turing» في تقييم النماذج وضبطها وتطبيقها في بيئات العمل. الهدف المعلن هو الوصول إلى وكلاء ذكاء اصطناعي يمكن استخدامها على نطاق واسع داخل المؤسسات، وليس فقط في التجارب أو النماذج الأولية.

ويُتوقع أن يشكّل هذا السوق طبقة جديدة ضمن ما يُعرف بنماذج التشغيل القائمة على الوكلاء، حيث لا تقتصر البرمجيات على دعم سير العمل، بل تبدأ في تنفيذه بشكل مباشر. وفي هذا السياق، يمكن للمؤسسات الوصول إلى وكلاء متخصصين حسب الوظيفة أو القطاع، ضمن بيئة مصممة لتكون قابلة للتوسع ومراعية لمتطلبات الأمان.

كما يفتح هذا التوجه المجال أمام المطورين وشركات التقنية لنشر حلولهم عبر المنصة، ما قد يساهم في بناء منظومة أوسع لوكلاء الذكاء الاصطناعي، تتجاوز حدود المؤسسات الفردية إلى سوق أكثر تكاملاً.

وتشير «هيوماين» إلى أن هذه الخطوة تأتي ضمن رؤية أوسع لإعادة تعريف كيفية بناء البرمجيات واستخدامها داخل المؤسسات، عبر الانتقال من نموذج «البرمجيات كخدمة» إلى بيئات تعتمد على وكلاء قادرين على تنفيذ المهام والتعلم والتفاعل بشكل مستمر.

يعكس هذا التوجه تحولاً نحو نماذج تشغيل جديدة تعتمد على وكلاء أذكياء بدلاً من البرمجيات التقليدية داخل المؤسسات

اقتصاد الوكلاء الناشئ

من جانبه، يرى طارق أمين، الرئيس التنفيذي لـ«هيوماين»، أن المرحلة المقبلة ستشهد تحولاً في طبيعة البرمجيات المستخدمة داخل المؤسسات، قائلاً إن «المؤسسات في المستقبل لن تُبنى حول تطبيقات منفصلة، بل حول وكلاء أذكياء يعملون إلى جانب الإنسان». ويضيف أن هذه الشراكة تسعى إلى تسريع بناء سوق يربط بين قدرات المطورين واحتياجات المؤسسات.

بدوره، أشار جوناثان سيدهارث، الرئيس التنفيذي والشريك المؤسس لـ«Turing»، إلى أن تحويل قدرات الذكاء الاصطناعي المتقدمة إلى تطبيقات عملية يمثل التحدي الأساسي حالياً، موضحاً أن بناء سوق قائم على الوكلاء قد يسهم في جعل هذه التقنيات أكثر ارتباطاً بالإنتاجية الفعلية داخل المؤسسات.

وتأتي هذه الشراكة أيضاً في سياق أوسع يعكس طموح السعودية لتكون لاعباً في تطوير تقنيات الذكاء الاصطناعي، ليس فقط من حيث الاستخدام، بل كمصدر للمنصات والحلول التقنية.

وبينما لا تزال فكرة «اقتصاد الوكلاء» في مراحل مبكرة، فإن الاتجاه نحو بناء منصات تجمع بين المطورين والمؤسسات يشير إلى تحول محتمل في طريقة تطوير البرمجيات وتبنيها. فبدلاً من شراء أدوات جاهزة، قد تتجه المؤسسات مستقبلاً إلى تشغيل منظومات من الوكلاء القادرين على تنفيذ مهام متكاملة عبر مختلف أقسام العمل.

في هذا الإطار، تبدو «HUMAIN ONE» محاولة لبناء هذه الطبقة التشغيلية الجديدة، حيث لا تقتصر القيمة على التكنولوجيا نفسها، بل على كيفية تنظيمها وتكاملها داخل بيئات العمل.