تحولات الذكاء الاصطناعي: مخاطر وفوائد هذه التقنية سريعة التطور

أصبح الذكاء الاصطناعي جزءاً لا يتجزأ من حياتنا اليومية، وشيئاً فشئياً، غيّر الذكاء الاصطناعي طريقة عملنا وتواصلنا مع العالم من حولنا (أ.ف.ب)
أصبح الذكاء الاصطناعي جزءاً لا يتجزأ من حياتنا اليومية، وشيئاً فشئياً، غيّر الذكاء الاصطناعي طريقة عملنا وتواصلنا مع العالم من حولنا (أ.ف.ب)
TT

تحولات الذكاء الاصطناعي: مخاطر وفوائد هذه التقنية سريعة التطور

أصبح الذكاء الاصطناعي جزءاً لا يتجزأ من حياتنا اليومية، وشيئاً فشئياً، غيّر الذكاء الاصطناعي طريقة عملنا وتواصلنا مع العالم من حولنا (أ.ف.ب)
أصبح الذكاء الاصطناعي جزءاً لا يتجزأ من حياتنا اليومية، وشيئاً فشئياً، غيّر الذكاء الاصطناعي طريقة عملنا وتواصلنا مع العالم من حولنا (أ.ف.ب)

سرعان ما أصبح الذكاء الاصطناعي جزءاً لا يتجزأ من حياتنا اليومية، وشيئاً فشئياً، غيّر الذكاء الاصطناعي طريقة عملنا وتواصلنا مع العالم من حولنا.

وتعمل تقنيات الذكاء الاصطناعي الآن بوتيرة أسرع بكثير من الإنتاج البشري، لديها القدرة على توليد مجموعة واسعة من الاستجابات الإبداعية، مثل النصوص والصور ومقاطع الفيديو التي لا يمكن تفريقها عن الحقيقية.

وفي حين أن سرعة توسع الذكاء الاصطناعي غير مسبوقة، من المفيد فهم كيف بدأ. فللذكاء الاصطناعي تاريخ طويل يمتد إلى خمسينات القرن الماضي.

ما هي أبرز التحولات التي شهدها الذكاء الاصطناعي منذ ظهوره؟

لفهم التحولات التي طرأت على الذكاء الاصطناعي، لا بد من تتبع مراحل تطوره التاريخي والتقني، من البدايات النظرية إلى التطبيقات العملية الحديثة.

بدايات الذكاء الاصطناعي: خمسينات القرن الماضي

في خمسينات القرن الماضي، كانت الآلات الحاسوبية تعمل أساساً كآلات حاسبة ضخمة. وعندما احتاجت منظمات مثل «ناسا» إلى إجابة لحسابات محددة، مثل مسار إطلاق صاروخ، لجأت بشكل متكرر إلى «أجهزة حاسوب» بشرية أو فرق من النساء مُكلَّفة بحل تلك المعادلات المعقدة.

عندما احتاجت منظمات مثل «ناسا» إلى إجابة لحسابات محددة، مثل مسار إطلاق صاروخ، لجأت بشكل متكرر إلى «أجهزة حاسوب» بشرية (رويترز)

قبل وقت طويل من تطور الآلات الحاسوبية إلى ما هي عليه اليوم، تصوَّر عالم رياضيات وعالم حاسوب إمكانية الذكاء الاصطناعي. ومن هنا بدأت أصول الذكاء الاصطناعي.

وضع الأساس: ستينات وسبعينات القرن الماضي

شهدت هذه المرحلة بدايات جادة في تطوير أنظمة محادثة أولية ومحاولات لمحاكاة الذكاء البشري على مستوى الأجهزة.

- «إليزا»

ابتكر عالم الحاسوب في معهد ماساتشوستس للتكنولوجيا، جوزيف وايزنباوم، روبوت المحادثة إليزا عام 1966، ويُعتبر على نطاق واسع أول روبوت محادثة، وكان الهدف منه محاكاة العلاج من خلال إعادة توظيف إجابات المستخدمين في أسئلة تُثير المزيد من النقاش.

- الروبوت «شايكي»

بين عامي 1966 و1972، طوّر مركز الذكاء الاصطناعي في مبادرة ستانفورد للأبحاث الروبوت شايكي، وهو نظام روبوت متحرك مزود بأجهزة استشعار وكاميرا تلفزيونية، يُستخدم للتنقل في بيئات مختلفة.

وكان الهدف من ابتكار شايكي «تطوير مفاهيم وتقنيات في الذكاء الاصطناعي تُمكّن الروبوت من العمل بشكل مستقل في بيئات واقعية»، وفقاً لورقة بحثية نشرتها مبادرة ستانفورد للأبحاث لاحقاً.

حماسة الذكاء الاصطناعي المبكرة: الثمانينات

- أول سيارة ذاتية القيادة

اخترع إرنست ديكمانس، وهو عالم يعمل في ألمانيا، أول سيارة ذاتية القيادة عام 1986. من الناحية الفنية، كانت السيارة عبارة عن شاحنة مرسيدس مزودة بنظام حاسوبي وأجهزة استشعار لقراءة البيئة، ولم تكن قادرة على السير على الطرق إلا بدون سيارات وركاب آخرين.

نمو الذكاء الاصطناعي وتطبيقاته المعاصرة: من 2000 إلى اليوم

شهدت العقود الأخيرة تسارعاً هائلاً في تطوير أنظمة ذكاء اصطناعي متقدمة وشبه مستقلة، وظهرت العديد من التطبيقات التفاعلية.

- «كيزميت»

يمكن تتبع أبحاث كيزميت، وهو «روبوت اجتماعي» قادر على تحديد ومحاكاة المشاعر البشرية إلى عام 1997، إلا أن المشروع أثمر في عام 2000. صُمم كيزميت في مختبر الذكاء الاصطناعي بمعهد ماساتشوستس للتكنولوجيا (MIT) بقيادة الدكتورة سينثيا بريزيل، وكان يحتوي على أجهزة استشعار وميكروفون وبرمجة تُحدد «عمليات المشاعر البشرية».

- مركبات ناسا الجوالة

كان المريخ يدور على مسافة أقرب بكثير من الأرض عام 2004، فاستغلت ناسا تلك المسافة الصالحة للملاحة بإرسال مركبتين جوالتين (سُميتا سبيريت وأوبورتيونيتي) إلى الكوكب الأحمر. زُوّدت كلتاهما بذكاء اصطناعي ساعدهما على اجتياز تضاريس المريخ الصخرية الصعبة.

-«سيري» و«أليكسا»

خلال عرض تقديمي لهاتف آيفون عام 2011، عرضت «أبل» ميزة جديدة: مساعدة افتراضية تدعى سيري. بعد ثلاث سنوات، أطلقت أمازون مساعدتها الافتراضية أليكسا. تتمتع كلتاهما بقدرات معالجة اللغة الطبيعية، ما يسمح لهما بفهم السؤال المنطوق والإجابة عليه. مع ذلك، لا تزال قدراتهما محدودة.

عرضت أبل مساعدة افتراضية تدعى سيري عام 2011 (رويترز)

- «صوفيا»

شهدت الروبوتات قفزة نوعية عندما ابتكرت شركة هانسون روبوتيكس الروبوت صوفيا عام 2016، وهو روبوت شبيه بالإنسان قادر على التعبير عن نفسه وإلقاء النكات والمحادثات.

أوبن «إيه آي» و«تشات جي بي تي»

قامت شركة «OpenAI» لأبحاث الذكاء الاصطناعي ببناء مُحوِّل توليدي مُدرَّب مسبقاً (GPT)، الذي تطوّر بشكل كبير وصولاً إلى GPT-3 الذي أحدث ضجة متزايدة عند إصداره عام 2020.

قامت شركة Open AI لأبحاث الذكاء الاصطناعي ببناء مُحوِّل توليدي مُدرَّب مسبقاً (GPT)، الذي تطوّر بشكل كبير وصولاً إلى GPT-3 (رويترز)

ما مخاطر استخدام الذكاء الاصطناعي؟

لكن رغم الطفرة التي حققها الذكاء الاصطناعي، فإنه أصبح يُمثل بعض المخاطر الجسيمة من فقدان الوظائف إلى المخاوف المتعلقة بالأمن والخصوصية والمعلومات المضللة. فيما يلي أكبر مخاطر الذكاء الاصطناعي بحسب مجلة «فوربز»:

1. انعدام الشفافية

يُمثل انعدام الشفافية في أنظمة الذكاء الاصطناعي، خاصةً في نماذج التعلم العميق التي قد تكون معقدة ويصعب تفسيرها، مشكلةً مُلحة. يُعيق هذا الغموض عمليات صنع القرار والمنطق الكامن وراء هذه التقنيات.

عندما لا يستطيع الناس فهم كيفية وصول نظام الذكاء الاصطناعي إلى استنتاجاته، فقد يؤدي ذلك إلى انعدام الثقة ومقاومة تبني هذه التقنيات.

2. الخصوصية

غالباً ما تجمع تقنيات الذكاء الاصطناعي كميات هائلة من البيانات الشخصية وتحللها، مما يثير تساؤلات حول خصوصية البيانات وأمنها. وللتخفيف من مخاطر الخصوصية، يجب علينا الدعوة إلى لوائح صارمة لحماية البيانات وممارسات آمنة للتعامل مع البيانات.

تجمع تقنيات الذكاء الاصطناعي كميات هائلة من البيانات الشخصية وتحللها (رويترز)

3. المعضلات الأخلاقية

يُمثل غرس القيم الأخلاقية والمعنوية في أنظمة الذكاء الاصطناعي، خاصةً في سياقات صنع القرار ذات العواقب الوخيمة، تحدياً كبيراً. يجب على الباحثين والمطورين إعطاء الأولوية للآثار الأخلاقية لتقنيات الذكاء الاصطناعي لتجنب الآثار المجتمعية السلبية.

4. المخاطر الأمنية

مع ازدياد تطور تقنيات الذكاء الاصطناعي، تزيد أيضاً المخاطر الأمنية المرتبطة باستخدامها واحتمالية إساءة استخدامها. يمكن للقراصنة والجهات الخبيثة تسخير قوة الذكاء الاصطناعي لتطوير هجمات إلكترونية أكثر تطوراً، وتجاوز التدابير الأمنية، واستغلال نقاط الضعف في الأنظمة.

كما يثير صعود الأسلحة ذاتية التشغيل التي تعمل بالذكاء الاصطناعي مخاوف بشأن مخاطر استخدام الدول المارقة أو الجهات الفاعلة غير الحكومية لهذه التقنية، خاصةً عندما نأخذ في الاعتبار احتمال فقدان السيطرة البشرية في عمليات صنع القرار الحاسمة.

للتخفيف من حدة هذه المخاطر الأمنية، يتعين على الحكومات والمنظمات تطوير أفضل الممارسات لتطوير الذكاء الاصطناعي ونشره بشكل آمن، وتعزيز التعاون الدولي لوضع معايير ولوائح عالمية تحمي من تهديدات أمن الذكاء الاصطناعي.

5. الاعتماد على الذكاء الاصطناعي

قد يؤدي الاعتماد المفرط على أنظمة الذكاء الاصطناعي إلى فقدان الإبداع ومهارات التفكير النقدي والحدس البشري. لذا، يُعد تحقيق التوازن بين اتخاذ القرارات بمساعدة الذكاء الاصطناعي والمساهمة البشرية أمراً حيوياً للحفاظ على قدراتنا المعرفية.

6. فقدان الوظائف

قد تؤدي الأتمتة المعتمدة على الذكاء الاصطناعي إلى فقدان الوظائف في مختلف القطاعات، خاصةً للعمال ذوي المهارات المحدودة، على الرغم من وجود أدلة على أن الذكاء الاصطناعي والتقنيات الناشئة الأخرى ستخلق وظائف أكثر مما ستلغيها.

مع استمرار تطور تقنيات الذكاء الاصطناعي وزيادة كفاءتها، يتعين على القوى العاملة التكيف واكتساب مهارات جديدة للحفاظ على أهميتها في ظل هذا المشهد المتغير. وينطبق هذا بشكل خاص على العمال ذوي المهارات المحدودة في القوى العاملة الحالية.

قد تؤدي الأتمتة المعتمدة على الذكاء الاصطناعي إلى فقدان الوظائف في مختلف القطاعات (أ.ف.ب)

7. فقدان التواصل الإنساني

قد يؤدي الاعتماد المتزايد على التواصل والتفاعلات القائمة على الذكاء الاصطناعي إلى تراجع التعاطف والمهارات الاجتماعية والروابط الإنسانية. وللحفاظ على جوهر طبيعتنا الاجتماعية، يجب أن نسعى جاهدين للحفاظ على التوازن بين التكنولوجيا والتفاعل الإنساني.

8. التضليل والتلاعب

يساهم المحتوى المُولّد بالذكاء الاصطناعي، مثل التزييف العميق، في نشر المعلومات الكاذبة والتلاعب بالرأي العام. وتُعدّ الجهود المبذولة للكشف عن المعلومات المضللة المُولّدة بالذكاء الاصطناعي ومكافحتها أمراً بالغ الأهمية للحفاظ على سلامة المعلومات في العصر الرقمي.

9. المخاطر الوجودية

يُثير تطوير الذكاء الاصطناعي العام (AGI) الذي يتفوق على الذكاء البشري مخاوف طويلة الأمد على البشرية. وقد يؤدي احتمال تطوير الذكاء الاصطناعي العام إلى عواقب غير مقصودة، وربما كارثية، إذ قد لا تتوافق أنظمة الذكاء الاصطناعي المتقدمة هذه مع القيم أو الأولويات الإنسانية.

كيف يمكن أن يؤثر الذكاء الاصطناعي على سوق العمل؟

لعل أكثر ما يقلق البشرية من تطور الذكاء الاصطناعي هو تأثيره على سوق العمل. وتتركز المخاوف حول احتمال تسريح أعداد كبيرة من الموظفين بسبب الأتمتة أو تخفيضات الميزانية، مما يثير تساؤلات عديدة حول مستقبل التوظيف.

لا يُمكن إنكار تأثير الذكاء الاصطناعي على التوظيف، تماماً كأي تقنية ثورية أخرى في عصره. ومع ذلك، لا تُشير هذه التغييرات بالضرورة إلى انخفاض نهائي في الوظائف أو عواقب سلبية فحسب. السؤال الأساسي هو: أين سيكون لهذه التقنية التأثير الأكبر؟

أكثر ما يقلق البشرية من تطور الذكاء الاصطناعي هو تأثيره على سوق العمل (رويترز)

تتجلى تأثيرات الذكاء الاصطناعي بشكل أوضح في الأدوار التي تنطوي على مهام متكررة تتطلب الحد الأدنى من الإبداع أو المشاركة. في الوقت نفسه، يزداد الطلب على المتخصصين القادرين على تشغيل الذكاء الاصطناعي وتسخير إمكاناته. ومع انخفاض عدد الوظائف، تظهر فرص عمل جديدة عديدة، مما يُحقق مكاسب صافية في التوظيف. علاوة على ذلك، مع نمو المعرفة بالذكاء الاصطناعي، فإنه يُمكّن من التكيف وإعادة تأهيل القوى العاملة بشكل أفضل.

غالباً ما يؤدي تطبيق الذكاء الاصطناعي إلى تحولات في أدوار الموظفين داخل المؤسسات. ويُعد تقديم الدعم من خلال التدريب والتوجيه أمراً بالغ الأهمية. فالشركات التي تستثمر في تطوير موظفيها من خلال رفع مهاراتهم تُقلل بشكل كبير من خطر الاستبعاد التكنولوجي، مما يضمن انتقالاً أكثر سلاسة نحو التحول الرقمي.

الهدف الرئيسي من دمج الذكاء الاصطناعي في الأعمال هو أتمتة المهام الروتينية المتكررة وتقليلها. من خلال زيادة الإنتاجية وتوفير وقت الموظفين، يمكن للمؤسسات التركيز على مبادرات أكثر استراتيجية وإبداعاً. وهذا أيضاً يُعزز العمليات اليومية من خلال تقليل الأخطاء وتحسين الجودة.

التخفيف من خطر الاستبعاد التكنولوجي

يُمثل الذكاء الاصطناعي أحد التحديات التي يُمثلها، لا سيما بين الموظفين ذوي الكفاءات الرقمية المحدودة أو من الأجيال الأكبر سناً، إمكانية الاستبعاد التكنولوجي. وقد يُفاقم هذا من عدم المساواة في سوق العمل من خلال زيادة الطلب على العمال ذوي المهارات العالية وتهميش الآخرين.

آليات تُساعد في تخفيف مخاطر الذكاء الاصطناعي

لمعالجة تلك المخاطر والتحديات، يجب وضع استراتيجيات محكمة تركز على الإنسان أولاً.

1. التواصل الفعال

يُعد التواصل الشفاف أمراً أساسياً لإدارة التغيير. يجب على الموظفين إدراك أن التطورات التكنولوجية تهدف إلى تبسيط العمليات، وتحسين الإنتاجية، وتحسين جودة العمل، بدلاً من إلغاء الوظائف. يجب على المؤسسات مُعالجة المخاوف مُبكراً من خلال شرح أسباب التغييرات وأهدافها قبل تنفيذها.

2. الاستراتيجية طويلة المدى

لا ينبغي اعتبار تبني الذكاء الاصطناعي مشروعاً لمرة واحدة. يجب على الشركات تقييم المجالات الرئيسية لعملياتها التي ستستفيد من الأتمتة، ووضع استراتيجية متعددة السنوات للتنفيذ.

3. تكيف القوى العاملة

يجب على المؤسسات الاستفادة من مهارات الموظفين الحالية وتوفير برامج إعادة التأهيل المهني وتطوير المهارات التقنية والمعلوماتية.


مقالات ذات صلة

الصين تمنع استحواذ «ميتا» على «مانوس» الناشئة للذكاء الاصطناعي

الاقتصاد المساعد الذكي «مانوس» على شاشة أحد الهواتف الذكية (أ.ف.ب)

الصين تمنع استحواذ «ميتا» على «مانوس» الناشئة للذكاء الاصطناعي

منعت هيئة التخطيط الحكومية الصينية، يوم الاثنين، استحواذ «ميتا» الأميركية على شركة «مانوس» الصينية الناشئة في مجال الذكاء الاصطناعي.

«الشرق الأوسط» (بكين)
الاقتصاد شعار شركة «غوغل» خلال مؤتمر الطاقة «سيرا ويك» لعام 2026 في هيوستن بتكساس يوم 24 مارس 2026 (رويترز)

شراكة بين «غوغل» وكوريا الجنوبية لتدشين مجمع متطور للذكاء الاصطناعي

أعلن المكتب الرئاسي الكوري الجنوبي أن شركة «غوغل» ستنشئ مجمعاً للذكاء الاصطناعي في كوريا الجنوبية.

«الشرق الأوسط» (سيول)
خاص توماس كوريان الرئيس التنفيذي لـ«غوغل كلاود» متحدثاً لـ«الشرق الأوسط» (الشرق الأوسط)

خاص الرئيس التنفيذي لـ«غوغل كلاود»: مراكز بياناتنا «مقاوِمَة للأزمات» ولا ترتبط بحدود

بينما تفرض التوترات الإقليمية تحديات على البنية التحتية، تعيد «غوغل» صياغة مفهوم استمرارية الأعمال عبر دمج الحصانة الرقمية بالذكاء الاصطناعي المؤسسي.

نسيم رمضان (لاس فيغاس)
الاقتصاد يسير الناس على طول أحد الشوارع أثناء زيارتهم لمدينة فنغانغ القديمة على مشارف شنغهاي (أ.ف.ب)

الأرباح الصناعية والتكنولوجيا يدفعان أسهم الصين وهونغ كونغ للارتفاع

شهدت الأسهم في الصين وهونغ كونغ ارتفاعاً طفيفاً خلال تعاملات يوم الاثنين، مدفوعة بشكل أساسي بقطاع التكنولوجيا.

«الشرق الأوسط» (هونغ كونغ)
الاقتصاد شاشة تعرض مؤشر «كوسبي» وسعر صرف العملات بين الدولار والوون  في غرفة تداول في سيول (أ.ب)

طفرة الرقائق والذكاء الاصطناعي تقود أسواق كوريا وتايوان لمستويات قياسية

سجلت أسهم كوريا الجنوبية وتايوان مستويات غير مسبوقة، الاثنين، لتمضي نحو تسجيل أفضل أداء شهري منذ أكثر من 3 عقود.

«الشرق الأوسط» (سيول)

«المراقبة الحسّية» تحوّل الحياة اليومية إلى مجموعة أدلة

«المراقبة الحسّية» تحوّل الحياة اليومية إلى مجموعة أدلة
TT

«المراقبة الحسّية» تحوّل الحياة اليومية إلى مجموعة أدلة

«المراقبة الحسّية» تحوّل الحياة اليومية إلى مجموعة أدلة

في كل مرة تفتح هاتفك الذكي أو تشغل سيارتك المتصلة بالإنترنت، فإنك تُنشئ سلسلة من الأدلة الرقمية، التي يمكن استخدامها لتتبع كل تحركاتك.

ويكشف أندرو غوثري فيرغسون أستاذ القانون في كتابه «بياناتك ستُستخدم ضدك: العمل الشرطي في عصر المراقبة الذاتية»، الصادر حديثاً عن دار نشر جامعة نيويورك، كيف تحوَّلت إنترنت الأشياء، بهدوء، إلى شبكة مراقبة واسعة، محولاً أجهزتنا الشخصية إلى أدوات استخبارات رقمية.

حوادث رصدتها أدوات الاستشعار

يتناول المقتطف الآتي من الكتاب مفهوم «المراقبة الحسية» (مراقبة أدوات الاستشعار)، مفصلاً الآليات المحددة - مثل «مخزن غوغل للاستشعار» (Google’s sensorveillance)، ومذكرات التفتيش ضمن نطاق جغرافي محدَّد، وقياس بيانات المركبات عن بُعد - التي تُمكِّن أجهزة إنفاذ القانون من إعادة توظيف التكنولوجيا الاستهلاكية، لتصبح أدوات فاعلة للتحقيق والسيطرة.

* حادثة سطو على بنك. «دخل رجلٌ إلى بنك في ميدلوثيان، بولاية فرجينيا، وكان يرتدي قبعةً سوداءَ ونظارةٍ شمسيةٍ داكنة. سلَّم ورقةً للصراف، ثمّ أشهر مسدساً، وغادر حاملاً معه 195 ألف دولار أميركي. لم يكن لدى الشرطة أيّ خيوطٍ تقودهم إلى الجاني، لكنّهم كانوا يعلمون أنّ اللص كان يحمل هاتفاً ذكياً عند دخوله البنك. وبافتراض أنّ الهاتف، مثل معظم الهواتف الذكية، كان يحتوي على خدمة من خدمات «غوغل»، أمرت الشرطة شركة «غوغل» بتسليم معلوماتٍ عن جميع الهواتف الموجودة بالقرب من البنك، في أثناء عملية السطو. واستجابةً لسلسلةٍ من أوامر التفتيش، قدّمت «غوغل» معلوماتٍ عن 19 هاتفاً كانت مُفعّلةً بالقرب من البنك وقت السرقة. وبالفعل، قاد التحقيق الشرطة إلى أوكيل شاتري، الذي وُجّهت إليه التهمة في نهاية المطاف.

> حادثة اصطدام سيارات. واجهت كاثي بيرنشتاين صعوبةً في تفسير سبب إبلاغ سيارتها عن حادثٍ للشرطة. كانت بيرنشتاين تقود سيارة فورد مُجهّزةً بنظام 911 Assist، الذي جرى تفعيله تلقائياً عندما اصطدمت بسيارةٍ أخرى. وبدلاً من البقاء لتبادل معلومات التأمين، انطلقت بيرنشتاين مسرعةً. غير أن سيارتها الذكية رصدت الاصطدام، واتصلت بمركز الشرطة. وسرعان ما أُلقي القبض عليها وحُررت لها مخالفة مغادرة مكان حادث. وجرى تقديم سيارتها دليلاً على إدانتها.

«إنترنت الأشياء»

فيما مضى، كانت أغراضنا مجرد أشياء. كانت الدراجة وسيلة للتنقل، تنقلك من مكان إلى آخر، لكنها لم تكن «تعرف» عن رحلاتك أكثر مما يعرفه أي جماد آخر. في الواقع، كانت بسيطة بطريقة مريحة، وكنا نستخدمها كما هو مُصمم لها. في المقابل، نجد اليوم أنه يمكن لأحدث الدراجات تتبع مسارك، وحساب متوسط سرعتك على طول الطريق. على سبيل المثال، بمجرد أن تستقل دراجة كهربائية من خدمة مشاركة الدراجات التجارية، ستتولى جمع بيانات رحلتك، بالإضافة إلى رحلات جميع من استخدموها في ذلك الشهر.

في مجملها، تنتمي هذه الأجهزة «الذكية» إلى ما أطلق عليه خبير التكنولوجيا كيفن أشتون اسم «إنترنت الأشياء». واقترح أشتون إضافة علامات تعريف الترددات الراديوية (RFID) وأجهزة استشعار إلى الأجهزة المستخدمة في الحياة اليومية، ما يتيح لها جمع بيانات يمكن إدخالها في أنظمة شبكية دون تدخل بشري. مثلاً، يمكن لجهاز استشعار في نهر مراقبة نظافة المياه، ويمكن لعلامة على زجاجة شامبو تتبع مسارها عبر سلسلة التوريد. وعبر إضافة عدد كافٍ من أجهزة الاستشعار إلى عدد كافٍ من الأشياء، يمكن صياغة نموذج صحة نظام بيئي كامل، أو معرفة ما إذا كنت ترسل كمية كبيرة للغاية من مخزونك إلى ماساتشوستس وكمية ضئيلة للغاية إلى تكساس.

من جهته، وضع أشتون نظريته الأولى عن إنترنت الأشياء أواخر التسعينيات. واليوم، يتجاوز إنترنت الأشياء رؤيته الأولية بكثير، ليشمل ليس فقط علامات تعريف الترددات الراديوية، بل كذلك أجهزة استشعار مزودة باتصالات «واي ـ فاي» و«بلوتوث» وشبكات خلوية ونظام تحديد المواقع العالمي (GPS). وتسجِّل هذه المستشعرات الصغيرة منخفضة التكلفة، بيانات حول الحركة والحرارة والضغط والموقع، ويمكنها إجراء اتصال ثنائي الاتجاه.

وبالطبع، يعتبر هذا النظام، بالضرورة، نظام مراقبة. اليوم، أصبحت «المراقبة الاستشعارية» - مصطلح ابتكرته لتسليط الضوء على التداخل بين أجهزة الاستشعار والمراقبة - تُعتبر الوضع الافتراضي في جميع أنحاء العالم المتقدم.

شبكات مراقبة الهواتف المحمولة

دعونا نبدأ بالهواتف؛ ربما لا تستغرب أن شركة الاتصالات الخاصة بك تتعقب موقعك؛ فهذه آلية عمل الهواتف المحمولة. تستخدم كل من الهواتف الذكية والهواتف المحمولة التقليدية أبراج الاتصالات المحلية، المملوكة لشركات الاتصالات، لربطك بأصدقائك وعائلتك، مما يعني أن هذه الشركات تعرف الأبراج الموجودة بالقرب منها في جميع الأوقات.

إذا كنت تحمل هاتفك معك طوال الوقت، فإن موقعه - المسجل كمعلومات موقع خلية الاتصال (CSLI) - يكشف عن هويتك.

في الواقع، فإن إشارات الهاتف المحمول ليست سوى غيض من فيض البيانات. فإذا كنت تملك هاتفاً ذكياً، فأنت على الأرجح تستخدم منتجاً من منتجات «غوغل». والمعروف أن «غوغل» تجني أرباحها من الإعلانات، وكلما زادت معرفة «غوغل» بالمستخدمين، تمكنت من توجيه الإعلانات إليهم بشكل أفضل. وتتوفر خدمات تحديد المواقع من «غوغل» على جميع هواتف «أندرويد»، التي تستخدم نظام تشغيل الشركة، كما تتوفر كذلك على تطبيقات «غوغل»، بما في ذلك «خرائط غوغل» و«جيميل».

لسنوات، كانت جميع معلومات الموقع تُخزَّن فيما أطلقت عليه الشركة اسم «مخزن المستشعرات». وكما يوحي الاسم، جمع «مخزن المستشعرات» بيانات من نظام تحديد المواقع العالمي و«البلوتوث» وأبراج الاتصالات وعناوين «آي بي» الإنترنتية وإشارات «واي فاي»، لإنشاء نظام تتبع قوي قادر على تحديد موقع الهاتف بدقة شديدة. وكما هو متوقع، اعتبرته الشرطة بمثابة معجزة في مجال الأدلة الرقمية. مثلاً، عام 2020، تلقت «غوغل» أكثر من 11500 طلب إذن من جهات إنفاذ القانون، للحصول على معلومات من «مخزن المستشعرات».

اللافت أن «المراقبة عبر المستشعرات» - مصطلح ابتكرته لتسليط الضوء على التداخل بين المستشعرات والمراقبة - أصبح تدريجياً السائد في جميع أنحاء العالم المتقدم.

عام 2024، أعلنت «غوغل» أنها لن تحتفظ، بعد الآن، بكل هذه البيانات في السحابة. وبدلاً من ذلك، سيجري تخزين معلومات الموقع الجغرافي على الأجهزة الفردية، ما يتطلب من الشرطة الحصول على إذن قضائي لجهاز محدد. وجاء زوال نظام «مخزن المستشعرات» نتيجةً لتغيير في سياسة الشركة، وهو تغيير قابل للتراجع. غير أنه في الوقت الراهن، على الأقل، خلقت «غوغل» صعوبة أكبر بكثير أمام الشرطة، فيما يخص الوصول إلى بياناته.

بيانات السيارات

وفي الوقت الذي كان «مخزن المستشعرات» المصدر الأكبر لأدلة تحديد الموقع الجغرافي، فإنه ليس المصدر الوحيد؛ فحتى التطبيقات التي لا علاقة لها بالخرائط أو الملاحة قد تجمع بيانات موقعك. مثلاً، في إحدى القضايا بولاية بنسلفانيا، اكتشف المدعون أن لصاً استخدم تطبيق مصباح يدوي على هاتفه الآيفون لتفتيش منزل، واستخدموا بيانات التطبيق لإثبات وجوده في المنزل وقت الاقتحام. وعليه، فإنه ربما يجري تسويق هذه التطبيقات باعتبارها «مجانية»، لكنها تنطوي على تكلفة خفية.

وتجمع السيارات، بشكل متزايد، معلوماتٍ تُقارب حجم المعلومات التي تجمعها الهواتف؛ إذ تستطيع أجهزة استخراج البيانات المحمولة جمع أدلة رقمية حول سرعة السيارة، ووقت انفتاح الوسائد الهوائية، ووقت استخدام المكابح، وموقعها وقت وقوع كل ذلك. إذا وصلت هاتفك لتشغيل «سبوتيفاي» أو قراءة رسائلك النصية، يُمكن تنزيل سجلات مكالماتك، وقوائم جهات اتصالك، وحساباتك على مواقع التواصل الاجتماعي، ومحتوى الترفيه المُختار مباشرةً من سيارتك. ونظراً لتورط السيارات في الكثير من الجرائم (سواءً كأداة للجريمة أو كوسيلة نقل)، أصبحت عمليات البحث عن هذه البيانات أكثر شيوعاً.

وحتى دون استخراج المعلومات فعلياً من السيارة، فلدى الشرطة سبل أخرى للحصول على البيانات؛ فنظام القياس عن بُعد المُدمج في السيارة يُشارك المعلومات مع جهات خارجية. وبالإضافة إلى المعلومات الشخصية المعتادة التي تُقدمها عند شراء سيارة (الاسم، العنوان، رقم الهاتف، البريد الإلكتروني، رقم الضمان الاجتماعي، رقم رخصة القيادة)، عند امتلاكك سيارة من علامة «ستيلانتيس»، تتولى الشركة جمع معلومات حول عدد مرات استخدامك للسيارة، وسرعتك، وحالات التسارع أو الكبح.

من جهتها، تؤكد شركة «نيسان» للسيارات حقها في جمع معلومات حول «النشاط الجنسي، وبيانات التشخيص الصحي، والبيانات الجينية»، بالإضافة إلى «التفضيلات، والخصائص، والاتجاهات النفسية، والاستعدادات، والسلوك، والمواقف، والذكاء، والقدرات، والكفاءات». وتحتفظ سياسة خصوصية «نيسان»، تحديداً، بحقها في تقديم هذه المعلومات إلى كلٍ من وسطاء البيانات، وجهات إنفاذ القانون.

حماية الخصوصية

بمرور الوقت، تحوَّلت المخاوف حيال كمية المعلومات الشخصية، التي قد تُكشف من خلال المراقبة طويلة الأمد عبر نظام تحديد المواقع العالمي، إلى واقع ملموس. اليوم، لم تعد الشرطة بحاجة إلى زرع جهاز لتتبع تحركاتك، بل يمكنها الاعتماد على سيارتك أو هاتفك لإنجاز ذلك.

إذا كنا لا نرغب في أن يجري تتبعنا، فيمكننا دوماً العودة إلى استخدام الخرائط الورقية وتدوين الاتجاهات يدوياً. وإذا كان قليل منا على استعداد بالفعل لفعل ذلك، فاللوم يقع علينا. غير أن الأمر ليس بهذه السهولة. وتبقى هناك خطوات تكنولوجية يمكننا اتخاذها لحماية الخصوصية؛ إذ يمكن للشركات تخزين البيانات، التي تولدها المستشعرات داخل الأجهزة نفسها، بدلاً من تخزينها في موقع مركزي، مثل «مخزن المستشعرات». وبالمثل، تبقى المعلومات التي تتيح لك فتح قفل هاتف «آبل آيفون» الخاص بك عبر خاصية التعرف على الوجه مخزنة داخل الهاتف. هذه حلول تكنولوجية إيجابية، لكن حتى البيانات المخزنة محلياً تصبح متاحة للشرطة بموجب مذكرة قضائية.

في الواقع، هذه باختصار معضلة العصر الرقمي. لا يمكننا - أو لا نرغب - في تجنب إنشاء البيانات، لكن هذه البيانات، بمجرد إنشائها، تصبح متاحة لأغراض قانونية... وموجز القول إن هذه السلطة الهائلة يمكن إساءة استخدامها، بل وسيُساء استخدامها حتماً.


الرئيس التنفيذي لـ«غوغل كلاود»: مراكز بياناتنا «مقاوِمَة للأزمات» ولا ترتبط بحدود

توماس كوريان الرئيس التنفيذي لـ«غوغل كلاود» متحدثاً لـ«الشرق الأوسط» (الشرق الأوسط)
توماس كوريان الرئيس التنفيذي لـ«غوغل كلاود» متحدثاً لـ«الشرق الأوسط» (الشرق الأوسط)
TT

الرئيس التنفيذي لـ«غوغل كلاود»: مراكز بياناتنا «مقاوِمَة للأزمات» ولا ترتبط بحدود

توماس كوريان الرئيس التنفيذي لـ«غوغل كلاود» متحدثاً لـ«الشرق الأوسط» (الشرق الأوسط)
توماس كوريان الرئيس التنفيذي لـ«غوغل كلاود» متحدثاً لـ«الشرق الأوسط» (الشرق الأوسط)

في «غوغل كلاود نيكست» في لاس فيغاس، تجاوز رد توماس كوريان، الرئيس التنفيذي لـ«غوغل كلاود»، على سؤال لـ«الشرق الأوسط» بشأن الهجمات على مراكز بيانات الحوسبة السحابية فائقة النطاق في ظل التوترات التي تشهدها المنطقة، مسألة الحماية المادية سريعاً. فالقضية، كما ألمح، لم تعد تقتصر على كيفية الدفاع عن البنية التحتية، بل أصبحت تتعلَّق بكيفية ضمان ألا يبقى العملاء عالقين في موقع واحد عندما يقع الاضطراب. وقال الرئيس التنفيذي لـ«غوغل كلاود»: «لقد تعاملنا مع عدد من حالات الصراع العالمية على مدى سنوات طويلة جداً»، مضيفاً أن «غوغل كلاود» لا تملك فقط وسائل حماية مادية، بل تمتلك أيضاً القدرة على ربط مراكز بياناتها عالمياً عبر «شبكتنا الخاصة، التي تتمتع بدرجة عالية جداً من التكرار».

وسرعان ما انتقل رد كوريان من الأمن على مستوى المنشأة إلى فكرة أوسع تتعلق بالاستمرارية الرقمية قائلاً: «لدينا القدرة على نقل عبء العمل من ذلك الموقع وإعادة نسخه عالمياً»، لأن مواقع «غوغل كلاود» مواقع «موحدة ومتناسقة باستمرار». وبالنسبة إلى العملاء، فإن الفائدة هي أنهم «غير مرتبطين بموقع مادي واحد». وقد نقل هذا الجواب النقاش من مستوى إطلاق المنتجات إلى سؤال أكثر استراتيجية: هل أصبحت معمارية السحابة نفسها جزءاً من تخطيط استمرارية الأعمال؟

من التجربة للتشغيل

يُقدِّم هذا الطرح أيضاً واحدة من أوضح الطرق لفهم رسالة «غوغل كلاود» الأوسع في «نيكست 2026». فعلى امتداد الحدث الذي حضره أكثر من 30 ألف مشارك، سعت الشركة إلى التأكيد على أن الذكاء الاصطناعي المؤسسي ينتقل من مرحلة التجربة إلى ما تسميه «المؤسسة الوكيلة». وذكرت «غوغل كلاود» أن نحو 75 في المائة من عملائها يستخدمون بالفعل منتجاتها المدعومة بالذكاء الاصطناعي، بينما عالج 330 عميلاً أكثر من تريليون رمز خلال الأشهر الـ12 الماضية، وتجاوز 35 عميلاً حاجز 10 تريليونات رمز. كما أشارت إلى أن نماذجها الطرفية الأولى تعالج الآن أكثر من 16 مليار رمز في الدقيقة، ارتفاعاً من 10 مليارات في الربع السابق. وكان الهدف من هذه الأرقام هو الإشارة إلى أن الذكاء الاصطناعي لم يعد تجربة جانبية، بل طبقة تشغيلية تريد الشركات استخدامَها عبر أعمالها.

المنافسة المقبلة لن تُحسم بالنماذج وحدها بل بقدرة الشركات على تحسين المنظومة الكاملة من الرقاقات إلى البنية التحتية والأدوات (غوغل)

التكامل والانفتاح معاً

الأكثر دلالة في جلسة الأسئلة والأجوبة الخاصة مع كوريان كان ما كشفه عن المكان الذي تنتقل إليه المنافسة. لقد أفاد بأن «غوغل كلاود» هي «شركة الحوسبة السحابية فائقة النطاق الوحيدة التي تمتلك رقاقاتها الخاصة ونماذجها الحدودية الخاصة»، بما يتيح لها «تحسين المنظومة بأكملها، من الحوسبة إلى مدى كفاءة تشغيل الوكلاء». وكانت هذه محاولة واضحة لوضع ميزة «غوغل كلاود» في الطبقات الأعمق من التطبيق، في الجمع بين الرقاقات والنماذج والبنية التحتية والأدوات. وبعبارة أخرى، تقول الشركة إن المرحلة التالية من الذكاء الاصطناعي لن تتحدد فقط بمن يملك نموذجاً قوياً، بل بمن يستطيع تصميم النظام الأوسع المحيط به بأكبر قدر من الفاعلية.

لكن كوريان قرن هذا الطرح بحجة أخرى لا تقل أهمية لعملاء المؤسسات وهي الانفتاح، مصرحاً بأنه «لا يتوقع أن تستخدم شركة ما كل شيء من (غوغل كلاود)، لقد أبقينا المعمارية مفتوحة». وأضاف أن شركته تدعم نماذج متعددة، وتدعم رقاقاتها الخاصة، لكنها أيضاً «شريك قريب جداً لـ(إنفيديا)»، كما تدعم منصات بيانات مختلفة، وتعمل مع أطراف ثالثة في الطبقة الأمنية. وتكتسب هذه النقطة أهميتها لأن المؤسسات تريد كفاءة التكامل الأعمق من دون أن تُحبس داخل بيئة مغلقة. وتحاول «غوغل كلاود» هنا الإشارة إلى أنها قادرة على تقديم منظومة متكاملة رأسياً، مع الحفاظ في الوقت نفسه على القدرة على العمل داخل بيئات تقنية مؤسسية متنوعة.

السيادة في الواجهة

برزت السيادة أيضاً بوصفها عنصراً مهماً في اللقاء. فعندما سُئل كوريان عمّا إذا كان العملاء الأوروبيون سيحصلون على المنتج كاملاً، قال إن «المنتج العام متاح اليوم في أوروبا بما يتوافق مع لوائح السيادة الأوروبية»، وإنه مستضاف للعملاء الأوروبيين عبر عدة مواقع، بينها ألمانيا وفرنسا وبلجيكا وهولندا وفنلندا والمملكة المتحدة. ورغم أن الجواب كان خاصاً بأوروبا، فإن دلالته الأوسع تتجاوز القارة حيث إن عملاء المؤسسات ومن بينها المملكة العربية السعودية يريدون بشكل متزايد خدمات ذكاء اصطناعي متقدمة من دون التخلي عن السيطرة على مكان استضافة بياناتهم ومعالجتها، وهي ليست مسألة جانبية، بل جزء من معمارية الثقة نفسها.

تحاول الشركة الجمع بين التكامل الرأسي والانفتاح المعماري عبر دعم نماذج متعددة ورقائق مختلفة وأدوات أمن من أطراف أخرى (غوغل)

الموصِّلات تصنع الفارق

تناول كوريان في الجلسة نقطة عملية أخرى تمس مباشرة أحد الاختناقات الحقيقية في الذكاء الاصطناعي المؤسسي. فعندما سُئل عمّن سيبني الروابط بين «جيميناي إنتربرايز» والتطبيقات الكثيرة التي تستخدمها المؤسسات بالفعل، قال إن «غوغل كلاود» تبنيها بنفسها. وأردف: «لدينا أكثر من 100 موصّل متاح بالفعل» تغطي مستودعات الوثائق، وتطبيقات البرمجيات كخدمة، وقواعد البيانات. وتابع أيضاً أن «غوغل كلاود» توفر إطاراً لبناء الموصلات، وتدعم معايير مثل «Bring Your Own MCP» للأنظمة المصممة خصيصاً. وتكمن أهمية هذا الجواب في أنه يصل إلى جوهر سبب تعثر كثير من مشروعات الذكاء الاصطناعي المؤسسي حيث يكون النموذج مبهراً في عزلة، لكنه لا يصبح مفيداً حقاً إلا عندما يستطيع الاتصال بالأماكن التي يجري فيها العمل فعلاً كالوثائق وتطبيقات الأعمال والسجلات وقواعد البيانات.

الذكاء الاصطناعي والدفاع

لم يكن الجزء المتعلق بالأمن السيبراني في الجلسة بدرجة أقل من الأهمية. صرح كوريان بأن «غوغل كلاود» أدركت منذ فترة أنه كلما أصبحت النماذج أفضل في فهم البرمجيات، فإن الجهات الخبيثة ستستخدمها لتحليل الشيفرة، واكتشاف الثغرات، ومهاجمة الأنظمة. وبرأيه، فإن الردَّ يجب أن يكون مدفوعاً بالذكاء الاصطناعي أيضاً. وشرح طبقة أولى تركز على تحليل الشيفرة الخاصة بالشركة نفسها وإصلاحها، مشيراً إلى نموذج جديد باسم «Code Defender» يساعد على إصلاح الشيفرة. وتركز طبقة ثانية على التهديدات الخارجية، بما في ذلك صيد التهديدات واستخبارات التهديدات. وأشار إلى «استخبارات الويب المظلم» التي أُعلن عنها في المؤتمر، قائلاً إنها «دقيقة بنسبة 90 في المائة» في ترتيب التهديدات التي ينبغي على العملاء الدفاع ضدها. كما ربط هذا المنطق باستحواذ «غوغل كلاود» على «ويز»، وشرح دور «وكيل أحمر» يهاجم الأنظمة لاكتشاف نقاط الضعف، و«فريق أزرق» يحدد الإصلاح المطلوب، وطبقة «خضراء» تقوم بإصلاح المشكلة.

إنتاجية تقاس بالجودة

خلال اللقاء، قدَّم كوريان أيضاً صورة أكثر واقعية لكيفية استخدام «غوغل كلاود» نفسها للذكاء الاصطناعي داخلياً. فعندما سُئل عن إنتاجية المهندسين، أجاب أن القضية لا تتعلق فقط بحجم الشيفرة التي يمكن للذكاء الاصطناعي توليدها، بل بـ«جودة الشيفرة». ونوه بأن «غوغل كلاود» تستخدم أدوات الذكاء الاصطناعي في عمليات الترحيل وفحص الثغرات وتوليد الاختبارات ومراجعة الأقران، حيث أصبحت النماذج تراجع الشيفرة إلى جانب المراجعين البشريين قبل اعتمادها. وقال: «مقياسنا طويل الأمد للإنتاجية لا يتعلق فقط بحجم الأشياء، بل بجودتها». وهذه النقطة مهمة لأنها تنقل النقاش حول إنتاجية الذكاء الاصطناعي بعيداً عن الأرقام اللافتة، إلى معيار مؤسسي أكثر واقعية: أنظمة أفضل اختباراً، وأفضل مراجعة، وأكثر أماناً.

أوضحت تصريحات كوريان أن «غوغل كلاود» تريد نقل النقاش حول الذكاء الاصطناعي إلى ما هو أبعد من حداثة المنتجات. فالشركة تحاول القول إن المرحلة المقبلة من الذكاء الاصطناعي المؤسسي ستعتمد على مجموعة أكثر صعوبة من الأسس. إنها بنية تحتية مرنة وقابلية نقل عبر المواقع وانفتاح عبر مكونات المنظومة، ونشر متوافق إقليمياً، واتصال مباشر بأنظمة المؤسسة، ودفاع سيبراني مؤتمت. وإذا كان الفصل الأول من طفرة الذكاء الاصطناعي قد دار حول إظهار قدرات النماذج، فإن رسالة كوريان في لاس فيغاس كانت أن الفصل التالي سيتحدد بقدرة هذه الأنظمة على الاستمرار في العمل بأمان ومرونة وعلى نطاق واسع عندما تصبح جزءاً من العمليات الواقعية اليومية.


«غوغل كلاود» لـ«الشرق الأوسط»: هدوء سيبراني «حذر» رغم التوترات الإقليمية

التوترات التي شهدها الشرق الأوسط خلال الشهرين الماضيين لم تؤدِّ إلى تصعيد سيبراني واسع وفوري بالقدر الذي كان متوقعاً (شاترستوك)
التوترات التي شهدها الشرق الأوسط خلال الشهرين الماضيين لم تؤدِّ إلى تصعيد سيبراني واسع وفوري بالقدر الذي كان متوقعاً (شاترستوك)
TT

«غوغل كلاود» لـ«الشرق الأوسط»: هدوء سيبراني «حذر» رغم التوترات الإقليمية

التوترات التي شهدها الشرق الأوسط خلال الشهرين الماضيين لم تؤدِّ إلى تصعيد سيبراني واسع وفوري بالقدر الذي كان متوقعاً (شاترستوك)
التوترات التي شهدها الشرق الأوسط خلال الشهرين الماضيين لم تؤدِّ إلى تصعيد سيبراني واسع وفوري بالقدر الذي كان متوقعاً (شاترستوك)

في «غوغل كلاود نكست 2026» في لاس فيغاس، لم يكن حديث ساندرا جويس، نائبة رئيس «غوغل ثريت إنتلجنس» (Google Threat Intelligence)، مجرد إضافة تقنية ضمن زخم الذكاء الاصطناعي الذي طغى على المؤتمر، بل قدّم قراءة أكثر هدوءاً وانضباطاً لمشهد التهديدات السيبرانية في لحظة إقليمية ودولية حساسة.

وخلال الجلسة، سألت «الشرق الأوسط» عمّا إذا كانت التوترات التي شهدها الشرق الأوسط خلال الشهرين الماضيين قد انعكست على نمط الهجمات السيبرانية، وما إذا كانت «غوغل كلاود» قد رصدت تحولاً موازياً في مستوى النشاط أو طبيعته. غير أن رد ساندرا جويس جاء على خلاف ما قد يتوقعه كثيرون قائلة إن فريقها «لم يرَ في الواقع ارتفاعاً كبيراً في النشاط السيبراني» خلال تلك الفترة، مضيفة أن ما جرى، باستثناء بعض الوقائع التي ظهرت علناً، لم يصل إلى مستوى تصعيد واسع، بل إنهم «شهدوا هدوءاً، ثم عادت المستويات تقريباً إلى ما كانت عليه سابقاً»، بخلاف ما حدث مع بداية التوترات بين روسيا وأوكرانيا.

وتكتسب هذه الملاحظة أهميتها من أنها تبتعد عن المبالغة، وتقدم صورة أكثر توازناً؛ فالتوترات الجيوسياسية لا تنعكس بالضرورة، وبصورة فورية، في موجة سيبرانية واسعة ومرئية. لكن ذلك، في حديث ساندرا جويس، لا يعني أن الخطر تراجع أو أن البيئة أصبحت أكثر أماناً.

ساندرا جويس نائبة رئيس «غوغل ثريت إنتلجنس» (Google Threat Intellegence) (غوغل)

استعداد قبل الانفجار

وعندما سُئلت عن تفسير هذا الهدوء النسبي، لم تربطه ساندرا جويس بضعف في قدرات الجهات المهاجمة أو بانحسار التهديد، بل أشارت إلى احتمالات أكثر تعقيداً؛ إذ ربما تكون هذه القدرات موزعة بشكل لامركزي، بحيث لا يؤدي استهداف موقع معين إلى تعطيلها، وربما لم يصدر القرار باستخدامها على نطاق أوسع، وربما كانت هناك اعتبارات ردع قائمة.

وفي المقابل، شرحت كيف تتعامل «غوغل كلاود» مع مثل هذه اللحظات عبر ما وصفته بآلية التعامل مع «الأحداث الكبرى»، حيث يجري العمل السريع بهدف التحرك قبل اتساع الأثر، من خلال توفير مؤشرات مبكرة عمّا قد يحدث، ثم التمييز بعد ذلك بين الضجيج والحقيقة، وبين التصورات والوقائع، حتى تتمكن المؤسسات من اتخاذ قرارات عملية تستند إلى سياق واضح. وبذلك، لا يعود دور استخبارات التهديدات مقتصراً على الإبلاغ عمّا حدث، بل يمتد إلى مساعدة المؤسسات على معرفة ما ينبغي فعله بعد ذلك.

«غوغل كلاود»: أول اختبار حقيقي لمرونة المؤسسات اليوم يبدأ من إدارة الثغرات والتحديثات الأمنية لا من الشعارات العامة حول الصمود (شاترستوك)

اختبار المرونة الحقيقي

وفي محور آخر، انتقل النقاش مع «الشرق الأوسط» إلى معنى «المرونة» أو «الصمود» داخل المؤسسات، ليس فقط من زاوية حماية المعلومات، بل أيضاً من زاوية الحفاظ على استمرارية الخدمات والعمليات والثقة العامة. وجاء جواب جويس مباشراً، مشيرة إلى أن أول ما تنظر إليه اليوم، بخلاف ما كانت قد تقوله قبل ثلاث سنوات، هو برامج إدارة الثغرات والتحديثات الأمنية؛ لأن أدوات الذكاء الاصطناعي باتت تمنح المهاجمين سرعة ونطاقاً وقدرة على إحداث أثر واسع «بشكل لم نره من قبل».

وتنقل هذه النقطة النقاش من المفهوم العام للمرونة إلى مستوى أكثر دقة وواقعية. فساندرا جويس لا تتحدث عن الصمود بوصفه مجرد خطة استجابة أو قدرة على استعادة الأنظمة بعد الهجوم، بل بوصفه قدرة استباقية على سد الثغرات قبل أن تتحول إلى منفذ لهجمات أسرع وأكثر تعقيداً. ووفق شرحها، فإن المؤسسات في 2026 تحتاج إلى التفكير في أدوات ذكاء اصطناعي تمتلك «السرعة والحجم والقدرة المتقدمة»، ويمكن أن تتجه إلى أي ثغرة في الشبكة، حتى تلك التي قد تكون المؤسسة قد صنّفتها سابقاً على أنها ثانوية أو منخفضة الأولوية. والأسوأ من ذلك، كما أوضحت، أن هذه الأدوات لا تكتفي باستغلال ثغرة واحدة، بل يمكن أن تربط بين نقاط ضعف مختلفة لتكوين مسار اختراق جديد وأكثر فاعلية.

«رذاذ قبل العاصفة»

وعندما سُئلت ساندرا جويس عمّا إذا كانت ترى بالفعل تصاعداً واسعاً في الهجمات التي تستخدم قدرات الذكاء الاصطناعي الجديدة، لم تقل إن هذه الموجة بلغت ذروتها، لكنها وصفت ما نراه اليوم بأنه أشبه «برذاذ يسبق العاصفة». وقالت بوضوح إن الاعتقاد بأن هذا الوضع سيبقى هادئاً سيكون افتراضاً خاطئاً، لأن المؤشرات تتزايد، والقدرات تتطور، ونقطة التحول تقترب.

وهنا تكمن المفارقة الأهم في حديثها؛ حيث إن العالم لم يدخل بعد مرحلة انفجار شامل في هذا النوع من الهجمات، لكنه يقترب منها بما يكفي لكي يصبح التأجيل خطأ مكلفاً. ومن هذا المنطلق، بدا حديثها أقرب إلى دعوة للاستعداد المبكر منه إلى تحذير من واقع وقع بالكامل.

المرونة السيبرانية في 2026 لم تعد تعني حماية البيانات فقط بل حماية استمرارية الخدمات والعمليات والثقة العامة أيضاً (شاترستوك)

من الرصد إلى الفعل

وفي جزء آخر من الجلسة، شرحت ساندرا جويس أن فريقها لا يقتصر دوره على مراقبة التهديدات وبناء صورة عامة عنها، بل يضم أيضاً، منذ العام الماضي، وحدة تعطيل تقود عمليات تستند إلى الاستخبارات. ووفق شرحها، تراوحت هذه العمليات بين إسقاط شبكات وكلاء سكنية بالتعاون مع الفريق القانوني، وتعطيل شبكات تجسس. والمعنى هنا أن قيمة استخبارات التهديدات لم تعد تقف عند حدود الفهم والتحليل، بل باتت تشمل استخدام هذه المعرفة نفسها لتقليص قدرة الخصوم على العمل قبل أن يتحول الخطر إلى حادث واسع.

وفي الوقت نفسه، حرصت جويس على عدم المبالغة في تصوير المشهد، مشيرة إلى أن كثيراً من الاختراقات التي لا تزال الفرق تتعامل معها اليوم تعتمد على أساليب تقليدية معروفة. لكنها حذرت من أن ذلك لا ينبغي أن يبعث على الاطمئنان، لأن ما تراه فرقها هو تسارع الابتكار لدى جهات التهديد، بما يعني أن نقطة التحول تقترب. ووصفت هذا الوضع بأنه «فرصة للتحرك الآن»، لا سبباً لتأجيل الاستعداد.

وهذه ملاحظة مهمة، لأنها تعني أن التهديد لا يكمن فقط في ظهور أدوات جديدة، بل في كيفية تطوير الأساليب القائمة ورفع كفاءتها وتوسيع أثرها. لذلك، فإن الاعتماد على أن المهاجمين سيظلون يستخدمون الأدوات والأساليب نفسها سيكون رهاناً خاطئاً.

تقول «غوغل كلاود» إن هذا الهدوء النسبي لا يعني تراجع الخطر لأن جهات التهديد قد تكون تعمل بقدرات موزعة أو تنتظر ظروفاً مختلفة للتصعيد (رويترز)

اتساع رقعة الاستهداف

كشفت الجلسة أيضاً عن أثر آخر للذكاء الاصطناعي في المشهد الأمني، وهو اتساع نطاق الاستهداف جغرافياً. فعندما سُئلت ساندرا جويس عمّا إذا كانت الحواجز اللغوية التي كانت تحدّ سابقاً من استهداف بعض الأسواق قد تراجعت، أجابت بأن ذلك يحدث بالفعل، مشيرة إلى زيادة واضحة في استهداف أسواق غير ناطقة بالإنجليزية، وذكرت على وجه الخصوص ألمانيا التي شهدت ارتفاعاً ملحوظاً في الأشهر الأخيرة، ليس فقط على مستوى الشركات الكبرى، بل أيضاً في قلب ما يشكل العمود الفقري للاقتصاد الألماني. وتحمل هذه الإشارة دلالة أوسع؛ الذكاء الاصطناعي لا يوسّع فقط قدرة المهاجمين على تطوير الأدوات، بل يوسّع أيضاً نطاق الأسواق والقطاعات التي يمكن استهدافها بكفاءة أكبر.

حاولت ساندرا جويس، خلال الجلسة، ترسيخ فكرة أن المرونة لم تعد كلمة مطمئنة في عروض الشركات، بل أصبحت اختباراً يومياً يبدأ من إدارة الثغرات والتحديثات، ويمر عبر فهم التهديدات قبل انفجارها، وينتهي بقدرة المؤسسة على التمييز بين الضجيج والحقيقة، والتصرف بسرعة وثقة. وربما كانت الرسالة الأهم التي خرجت من الجلسة هي أنه في 2026، لا يكفي أن تقول المؤسسة إنها «مرنة»؛ عليها أن تثبت أنها قادرة على إغلاق الفجوات قبل أن تتحول، بسرعة الذكاء الاصطناعي نفسه، إلى نقطة انهيار.