الذكاء الاصطناعي التوليدي والتعلم الآلي... استخدامات متنوعة

توافر عنصر الإبداع يبشّر بفتوحات علمية وتقنية وثقافية كبرى

الذكاء الاصطناعي التوليدي والتعلم الآلي... استخدامات متنوعة
TT

الذكاء الاصطناعي التوليدي والتعلم الآلي... استخدامات متنوعة

الذكاء الاصطناعي التوليدي والتعلم الآلي... استخدامات متنوعة

القدرة على نمو الخوارزميات في غياب المُدخَلات البشرية هي جوهر الذكاء الاصطناعي يستخدم كل من الذكاء الاصطناعي التوليدي Generative AI والتعلم الآلي (تعلّم الآلة) Machine learning الخوارزميات في معالجة التحديات المعقدة، ولكن الذكاء الاصطناعي التوليدي يستخدم نمذجة أكثر تطوراً وخوارزميات أكثر تقدماً لإضافة العنصر الإبداعي.

ذكاء اصطناعي وتعلّم آلي

إن الذكاء الاصطناعي التوليدي هو شكل من أشكال الذكاء الاصطناعي المصمم لإنتاج محتوى مثل النصوص، والصور، والفيديو، والموسيقى. ويستخدم نماذج لغوية كبيرة وخوارزميات لتحليل الأنماط في مجموعات البيانات ومحاكاة نمط أو بنية أنواع معينة من المحتوى.

من ناحية أخرى، يساعد التعلم الآلي أجهزة الكومبيوتر على تعلُّم المهام والإجراءات باستخدام التدريب المصمم، استناداً إلى نتائج مجموعات البيانات الكبيرة، وهو عنصر أساسي في أنظمة الذكاء الاصطناعي. وقد خصّص موقع «إي ويك» الإلكتروني موضوعاً للمقارنة بين خصائص هذين النظامين واستخداماتهما.

مخطط للمقارنة

إليكم مخططاً للمقارنة بين الذكاء الاصطناعي التوليدي (1) مقابل التعلم الآلي (2).

إن الذكاء الاصطناعي التوليدي والتعلم الآلي هما تقنيتان مرتبطتان ارتباطاً وثيقاً، كما يوضح الجدول أدناه. وفي حين أن الذكاء الاصطناعي التوليدي يتفوّق في إنشاء المحتوى، فإن التعلم الآلي موجه إلى تحليل البيانات والنماذج الإحصائية.

> التعريف:

1. إنشاء محتوى جديد.

2. تحليل البيانات لإجراء تنبؤات.

• استخدام الخوارزميات:

1. خوارزميات متقدمة ومبتكرة.

2. التعرف على نمط البيانات.

• المُخرَجات:

1. النصوص، والصور، والفيديو، والموسيقى.

2. التنبؤات والتصنيفات.

• مجالات التطبيق:

1. إنشاء المحتوى والتصميم.

2. تحليل البيانات والأمن السيبراني.

• القاعدة التقنية:

1. نماذج اللغة الكبيرة والشبكات التوليدية التنافسية.

2. النماذج الإحصائية والخوارزميات.

التاريخ والتطور

على مدى عدة عقود، كان تطور كل من الذكاء الاصطناعي التوليدي والتعلم الآلي مدفوعاً بالتطوير المستمر للخوارزميات المصممة لأداء مهام محددة.

على مدار العقد الماضي، ازداد مستوى تعقيد هذه الخوارزميات بصورة كبيرة. وفي أكثر مراحل تطورها أضحى بمقدورها أن تكتسب قدرة التأدية الوظيفية من دون استمرار المدخلات البشرية. وهذه القدرة على النمو في غياب المدخلات البشرية هي جوهر الذكاء الاصطناعي، الذي هو أساس كل من الذكاء الاصطناعي التوليدي والتعلم الآلي.

في السنوات القليلة الماضية، مكّنت التطورات في القدرة الحاسوبية وتوافر البيانات -التي صارت ممكنة من خلال منصات الحوسبة السحابية مثل «أمازون ويب سيرفيسز»، و«مايكروسوفت أزور»- من تحقيق تقدم كبير.

ظهر التعلم الآلي أولاً، مع التركيز على تحديد الأنماط واتخاذ القرارات القائمة على البيانات. وبُني الذكاء الاصطناعي التوليدي على هذه الأسس، عبر تقديم نماذج قادرة على خلق محتوى جديد وأصلي من خلال التعلم من مجموعات البيانات الواسعة.

حدث التقدم الرئيسي في مجال الذكاء الاصطناعي التوليدي في نوفمبر (تشرين الثاني) عام 2022. عندما أطلقت شركة «أوبن إيه آي» برنامج «تشات جي بي تي»، وهو تطبيق يخلق محتوى يستند إلى المطالبات النصية واستفسارات اللغة الطبيعية.

ما هو الذكاء الاصطناعي التوليدي؟

الذكاء الاصطناعي التوليدي عبارة عن تقنية ناشئة تستخدم الذكاء الاصطناعي، والخوارزميات، ونماذج اللغة الكبيرة لإنتاج عدة أنواع من المحتوى، من النصوص إلى الصور إلى الفيديو.

يستفيد التعلم الآلي من التعلم العميق وتقنيات الشبكة العصبية، لإنشاء المحتوى الذي يستند إلى الأنماط التي يلاحظها في مجموعة واسعة من المحتويات الأخرى. وعلى الرغم من أن هذا المحتوى مُصنّف على أنه أصلي فإن الذكاء الاصطناعي التوليدي في الواقع يستخدم التعلم الآلي ونماذج الذكاء الاصطناعي، لتحليل إبداعات الآخرين السابقة ثم تكرارها. إنه يستفيد من مستودعات ضخمة من المحتويات، ويستخدم تلك المعلومات لمحاكاة الإبداع البشري.

مع الذكاء الاصطناعي التوليدي يمكنك القيام بمهام مثل تحليل الأعمال الكاملة لكتاب مشهورين، مثل: تشارلز ديكنز، أو جي كيه رولينغ، أو إرنست همنغواي؛ لإنتاج رواية أصلية تسعى لمحاكاة نمط هؤلاء المؤلفين وأنماط الكتابة لديهم.

وبالتالي، فإن مشاريع الذكاء الاصطناعي التوليدي تتجاوز كثيراً مستوى التعلم الآلي التقليدي. من خلال استخدام أشكال متعددة من أنظمة التعلم الآلي، والنماذج، والخوارزميات، والشبكات العصبية، يُقدم الذكاء الاصطناعي التوليدي انطلاقة جديدة إلى عالم الإبداع.

حالات استخدام النظم الذكية

يستخدم الذكاء الاصطناعي التوليدي في تعزيز -وليس استبدال- أعمال الكتاب ومصممي الغرافيك والفنانين والموسيقيين من خلال إنتاج مواد جديدة. وهو مفيد بصورة خاصة في عالم الأعمال في مجالات مثل وصف المنتجات، ويمكن أن يخلق كثيراً من الاختلافات في التصاميم القائمة. كما يمكنه مساعدة الفنان على استكشاف المفاهيم الجديدة عبر الوسائط المختلفة.

وفيما يلي بعض حالات استخدامه، بدءاً من حالات الاستخدام المؤسساتية للذكاء الاصطناعي التوليدي إلى عمليات تنفيذ التطبيقات الأصغر نطاقاً.

> البيع بالتجزئة. يعمل الذكاء الاصطناعي التوليدي على تعزيز عمليات البيع بالتجزئة بشكل كبير من خلال أتمتة إنشاء أوصاف المنتجات، وتوليد محتوى تسويقي مخصص، وتحسين إدارة المخزون.

وبينما يركّز التعلم الآلي على تحليل البيانات لتقديم التوصيات، يأخذ الذكاء الاصطناعي التوليدي خطوة أبعد من خلال إنشاء المحتوى نفسه.

> قطاع الأعمال. يمكن رؤية الذكاء الاصطناعي التوليدي في مجال الأعمال في عمليات مثل وضع التقارير وإنجازها، وتصور البيانات، وإنشاء مواد تسويقية. يمكن للشركات إنشاء تقارير الأعمال تلقائياً عن طريق تحليل مجموعات البيانات الكبيرة واستخراج الرؤى الرئيسية، ما يقلّل من الأخطاء والوقت المستغرق لهذه المهام. وهذا يسمح لمحللي الأعمال بالتركيز على اتخاذ القرارات الاستراتيجية بدلاً من إعداد التقارير العادية.

وبالمقارنة، يُستخدم التعلم الآلي عادة لتحليل أنماط البيانات وتقديم رؤى تنبؤية، في حين يعتمد الذكاء الاصطناعي التوليدي على هذه الرؤى لإنتاج تقارير وعروض تقديمية شاملة.

> الرعاية الصحية. في مجال الرعاية الصحية، يساعد الذكاء الاصطناعي التوليدي على إنشاء بيانات طبية اصطناعية للبحث، وتطوير خطط علاجية مخصصة، وتعزيز الدقة التشخيصية. ومرة أخرى، يبني الذكاء الاصطناعي التوليدي على الأساس الذي وضعته الآلة.

وفي حين يتفوّق التعلم الآلي في تحديد الأنماط لدى البيانات الطبية، فإن الذكاء الاصطناعي التوليدي يذهب إلى أبعد من ذلك عبر توليد بيانات جديدة وسيناريوهات علاجية جديدة، يمكن أن تساعد في البحوث الطبية والتشخيصات.

• التصنيع والإنتاج. الذكاء الاصطناعي التوليدي هو تقنية مُرحب بها عندما يتعلق الأمر بالنمذجة الأولية. ويعمل على تحسين تصميم المنتجات وعمليات التصنيع من خلال إنشاء نماذج التصميم الأولية المتعددة استناداً إلى قيود ومدخلات محددة.

وبينما التعلم الآلي يُستخدم في التنبؤ باحتياجات الصيانة وتحسين جداول الإنتاج، فإن الذكاء الاصطناعي التوليدي يتيح إنشاء التصاميم والحلول المبتكرة التي يمكن تنفيذها مباشرة في التصنيع.

• الخدمات المالية. في القطاع المالي، يعمل الذكاء الاصطناعي التوليدي على تعزيز الخدمات من خلال توليد تقارير مالية مخصصة، وأتمتة الكشف عن الأنشطة الاحتيالية، وتحسين إدارة المخاطر.

وفي حين أن التعلم الآلي عادة ما يكتشف الأنماط وأشكال الشذوذ، لا يحدد الذكاء الاصطناعي التوليدي هذه المشكلات فحسب، وإنما يُنشئ أيضاً تقارير تفصيلية واستراتيجيات معينة لمعالجتها.

• دعم العملاء. يعمل الذكاء الاصطناعي التوليدي على تحسين دعم العملاء من خلال روبوتات المحادثة المتقدمة والمساعدين الافتراضيين. تعتمد الشركات روبوتات المحادثة العاملة بالذكاء الاصطناعي التوليدي، للتعامل مع مجموعة واسعة من استفسارات العملاء؛ من توصيات المنتجات إلى تتبع الطلبات. ولا تزال روبوتات المحادثة هذه تتشابه مع البشر على نحو متزايد.

يمكن للذكاء الاصطناعي التوليدي خلق استجابات مخصصة ومناسبة من حيث السياق، ما يجعل التفاعلات تبدو أكثر إنسانية وأكثر فاعلية من أساليب العمل البسيطة القائمة على التعلم الآلي.



«المراقبة الحسّية» تحوّل الحياة اليومية إلى مجموعة أدلة

«المراقبة الحسّية» تحوّل الحياة اليومية إلى مجموعة أدلة
TT

«المراقبة الحسّية» تحوّل الحياة اليومية إلى مجموعة أدلة

«المراقبة الحسّية» تحوّل الحياة اليومية إلى مجموعة أدلة

في كل مرة تفتح هاتفك الذكي أو تشغل سيارتك المتصلة بالإنترنت، فإنك تُنشئ سلسلة من الأدلة الرقمية، التي يمكن استخدامها لتتبع كل تحركاتك.

ويكشف أندرو غوثري فيرغسون أستاذ القانون في كتابه «بياناتك ستُستخدم ضدك: العمل الشرطي في عصر المراقبة الذاتية»، الصادر حديثاً عن دار نشر جامعة نيويورك، كيف تحوَّلت إنترنت الأشياء، بهدوء، إلى شبكة مراقبة واسعة، محولاً أجهزتنا الشخصية إلى أدوات استخبارات رقمية.

حوادث رصدتها أدوات الاستشعار

يتناول المقتطف الآتي من الكتاب مفهوم «المراقبة الحسية» (مراقبة أدوات الاستشعار)، مفصلاً الآليات المحددة - مثل «مخزن غوغل للاستشعار» (Google’s sensorveillance)، ومذكرات التفتيش ضمن نطاق جغرافي محدَّد، وقياس بيانات المركبات عن بُعد - التي تُمكِّن أجهزة إنفاذ القانون من إعادة توظيف التكنولوجيا الاستهلاكية، لتصبح أدوات فاعلة للتحقيق والسيطرة.

* حادثة سطو على بنك. «دخل رجلٌ إلى بنك في ميدلوثيان، بولاية فرجينيا، وكان يرتدي قبعةً سوداءَ ونظارةٍ شمسيةٍ داكنة. سلَّم ورقةً للصراف، ثمّ أشهر مسدساً، وغادر حاملاً معه 195 ألف دولار أميركي. لم يكن لدى الشرطة أيّ خيوطٍ تقودهم إلى الجاني، لكنّهم كانوا يعلمون أنّ اللص كان يحمل هاتفاً ذكياً عند دخوله البنك. وبافتراض أنّ الهاتف، مثل معظم الهواتف الذكية، كان يحتوي على خدمة من خدمات «غوغل»، أمرت الشرطة شركة «غوغل» بتسليم معلوماتٍ عن جميع الهواتف الموجودة بالقرب من البنك، في أثناء عملية السطو. واستجابةً لسلسلةٍ من أوامر التفتيش، قدّمت «غوغل» معلوماتٍ عن 19 هاتفاً كانت مُفعّلةً بالقرب من البنك وقت السرقة. وبالفعل، قاد التحقيق الشرطة إلى أوكيل شاتري، الذي وُجّهت إليه التهمة في نهاية المطاف.

> حادثة اصطدام سيارات. واجهت كاثي بيرنشتاين صعوبةً في تفسير سبب إبلاغ سيارتها عن حادثٍ للشرطة. كانت بيرنشتاين تقود سيارة فورد مُجهّزةً بنظام 911 Assist، الذي جرى تفعيله تلقائياً عندما اصطدمت بسيارةٍ أخرى. وبدلاً من البقاء لتبادل معلومات التأمين، انطلقت بيرنشتاين مسرعةً. غير أن سيارتها الذكية رصدت الاصطدام، واتصلت بمركز الشرطة. وسرعان ما أُلقي القبض عليها وحُررت لها مخالفة مغادرة مكان حادث. وجرى تقديم سيارتها دليلاً على إدانتها.

«إنترنت الأشياء»

فيما مضى، كانت أغراضنا مجرد أشياء. كانت الدراجة وسيلة للتنقل، تنقلك من مكان إلى آخر، لكنها لم تكن «تعرف» عن رحلاتك أكثر مما يعرفه أي جماد آخر. في الواقع، كانت بسيطة بطريقة مريحة، وكنا نستخدمها كما هو مُصمم لها. في المقابل، نجد اليوم أنه يمكن لأحدث الدراجات تتبع مسارك، وحساب متوسط سرعتك على طول الطريق. على سبيل المثال، بمجرد أن تستقل دراجة كهربائية من خدمة مشاركة الدراجات التجارية، ستتولى جمع بيانات رحلتك، بالإضافة إلى رحلات جميع من استخدموها في ذلك الشهر.

في مجملها، تنتمي هذه الأجهزة «الذكية» إلى ما أطلق عليه خبير التكنولوجيا كيفن أشتون اسم «إنترنت الأشياء». واقترح أشتون إضافة علامات تعريف الترددات الراديوية (RFID) وأجهزة استشعار إلى الأجهزة المستخدمة في الحياة اليومية، ما يتيح لها جمع بيانات يمكن إدخالها في أنظمة شبكية دون تدخل بشري. مثلاً، يمكن لجهاز استشعار في نهر مراقبة نظافة المياه، ويمكن لعلامة على زجاجة شامبو تتبع مسارها عبر سلسلة التوريد. وعبر إضافة عدد كافٍ من أجهزة الاستشعار إلى عدد كافٍ من الأشياء، يمكن صياغة نموذج صحة نظام بيئي كامل، أو معرفة ما إذا كنت ترسل كمية كبيرة للغاية من مخزونك إلى ماساتشوستس وكمية ضئيلة للغاية إلى تكساس.

من جهته، وضع أشتون نظريته الأولى عن إنترنت الأشياء أواخر التسعينيات. واليوم، يتجاوز إنترنت الأشياء رؤيته الأولية بكثير، ليشمل ليس فقط علامات تعريف الترددات الراديوية، بل كذلك أجهزة استشعار مزودة باتصالات «واي ـ فاي» و«بلوتوث» وشبكات خلوية ونظام تحديد المواقع العالمي (GPS). وتسجِّل هذه المستشعرات الصغيرة منخفضة التكلفة، بيانات حول الحركة والحرارة والضغط والموقع، ويمكنها إجراء اتصال ثنائي الاتجاه.

وبالطبع، يعتبر هذا النظام، بالضرورة، نظام مراقبة. اليوم، أصبحت «المراقبة الاستشعارية» - مصطلح ابتكرته لتسليط الضوء على التداخل بين أجهزة الاستشعار والمراقبة - تُعتبر الوضع الافتراضي في جميع أنحاء العالم المتقدم.

شبكات مراقبة الهواتف المحمولة

دعونا نبدأ بالهواتف؛ ربما لا تستغرب أن شركة الاتصالات الخاصة بك تتعقب موقعك؛ فهذه آلية عمل الهواتف المحمولة. تستخدم كل من الهواتف الذكية والهواتف المحمولة التقليدية أبراج الاتصالات المحلية، المملوكة لشركات الاتصالات، لربطك بأصدقائك وعائلتك، مما يعني أن هذه الشركات تعرف الأبراج الموجودة بالقرب منها في جميع الأوقات.

إذا كنت تحمل هاتفك معك طوال الوقت، فإن موقعه - المسجل كمعلومات موقع خلية الاتصال (CSLI) - يكشف عن هويتك.

في الواقع، فإن إشارات الهاتف المحمول ليست سوى غيض من فيض البيانات. فإذا كنت تملك هاتفاً ذكياً، فأنت على الأرجح تستخدم منتجاً من منتجات «غوغل». والمعروف أن «غوغل» تجني أرباحها من الإعلانات، وكلما زادت معرفة «غوغل» بالمستخدمين، تمكنت من توجيه الإعلانات إليهم بشكل أفضل. وتتوفر خدمات تحديد المواقع من «غوغل» على جميع هواتف «أندرويد»، التي تستخدم نظام تشغيل الشركة، كما تتوفر كذلك على تطبيقات «غوغل»، بما في ذلك «خرائط غوغل» و«جيميل».

لسنوات، كانت جميع معلومات الموقع تُخزَّن فيما أطلقت عليه الشركة اسم «مخزن المستشعرات». وكما يوحي الاسم، جمع «مخزن المستشعرات» بيانات من نظام تحديد المواقع العالمي و«البلوتوث» وأبراج الاتصالات وعناوين «آي بي» الإنترنتية وإشارات «واي فاي»، لإنشاء نظام تتبع قوي قادر على تحديد موقع الهاتف بدقة شديدة. وكما هو متوقع، اعتبرته الشرطة بمثابة معجزة في مجال الأدلة الرقمية. مثلاً، عام 2020، تلقت «غوغل» أكثر من 11500 طلب إذن من جهات إنفاذ القانون، للحصول على معلومات من «مخزن المستشعرات».

اللافت أن «المراقبة عبر المستشعرات» - مصطلح ابتكرته لتسليط الضوء على التداخل بين المستشعرات والمراقبة - أصبح تدريجياً السائد في جميع أنحاء العالم المتقدم.

عام 2024، أعلنت «غوغل» أنها لن تحتفظ، بعد الآن، بكل هذه البيانات في السحابة. وبدلاً من ذلك، سيجري تخزين معلومات الموقع الجغرافي على الأجهزة الفردية، ما يتطلب من الشرطة الحصول على إذن قضائي لجهاز محدد. وجاء زوال نظام «مخزن المستشعرات» نتيجةً لتغيير في سياسة الشركة، وهو تغيير قابل للتراجع. غير أنه في الوقت الراهن، على الأقل، خلقت «غوغل» صعوبة أكبر بكثير أمام الشرطة، فيما يخص الوصول إلى بياناته.

بيانات السيارات

وفي الوقت الذي كان «مخزن المستشعرات» المصدر الأكبر لأدلة تحديد الموقع الجغرافي، فإنه ليس المصدر الوحيد؛ فحتى التطبيقات التي لا علاقة لها بالخرائط أو الملاحة قد تجمع بيانات موقعك. مثلاً، في إحدى القضايا بولاية بنسلفانيا، اكتشف المدعون أن لصاً استخدم تطبيق مصباح يدوي على هاتفه الآيفون لتفتيش منزل، واستخدموا بيانات التطبيق لإثبات وجوده في المنزل وقت الاقتحام. وعليه، فإنه ربما يجري تسويق هذه التطبيقات باعتبارها «مجانية»، لكنها تنطوي على تكلفة خفية.

وتجمع السيارات، بشكل متزايد، معلوماتٍ تُقارب حجم المعلومات التي تجمعها الهواتف؛ إذ تستطيع أجهزة استخراج البيانات المحمولة جمع أدلة رقمية حول سرعة السيارة، ووقت انفتاح الوسائد الهوائية، ووقت استخدام المكابح، وموقعها وقت وقوع كل ذلك. إذا وصلت هاتفك لتشغيل «سبوتيفاي» أو قراءة رسائلك النصية، يُمكن تنزيل سجلات مكالماتك، وقوائم جهات اتصالك، وحساباتك على مواقع التواصل الاجتماعي، ومحتوى الترفيه المُختار مباشرةً من سيارتك. ونظراً لتورط السيارات في الكثير من الجرائم (سواءً كأداة للجريمة أو كوسيلة نقل)، أصبحت عمليات البحث عن هذه البيانات أكثر شيوعاً.

وحتى دون استخراج المعلومات فعلياً من السيارة، فلدى الشرطة سبل أخرى للحصول على البيانات؛ فنظام القياس عن بُعد المُدمج في السيارة يُشارك المعلومات مع جهات خارجية. وبالإضافة إلى المعلومات الشخصية المعتادة التي تُقدمها عند شراء سيارة (الاسم، العنوان، رقم الهاتف، البريد الإلكتروني، رقم الضمان الاجتماعي، رقم رخصة القيادة)، عند امتلاكك سيارة من علامة «ستيلانتيس»، تتولى الشركة جمع معلومات حول عدد مرات استخدامك للسيارة، وسرعتك، وحالات التسارع أو الكبح.

من جهتها، تؤكد شركة «نيسان» للسيارات حقها في جمع معلومات حول «النشاط الجنسي، وبيانات التشخيص الصحي، والبيانات الجينية»، بالإضافة إلى «التفضيلات، والخصائص، والاتجاهات النفسية، والاستعدادات، والسلوك، والمواقف، والذكاء، والقدرات، والكفاءات». وتحتفظ سياسة خصوصية «نيسان»، تحديداً، بحقها في تقديم هذه المعلومات إلى كلٍ من وسطاء البيانات، وجهات إنفاذ القانون.

حماية الخصوصية

بمرور الوقت، تحوَّلت المخاوف حيال كمية المعلومات الشخصية، التي قد تُكشف من خلال المراقبة طويلة الأمد عبر نظام تحديد المواقع العالمي، إلى واقع ملموس. اليوم، لم تعد الشرطة بحاجة إلى زرع جهاز لتتبع تحركاتك، بل يمكنها الاعتماد على سيارتك أو هاتفك لإنجاز ذلك.

إذا كنا لا نرغب في أن يجري تتبعنا، فيمكننا دوماً العودة إلى استخدام الخرائط الورقية وتدوين الاتجاهات يدوياً. وإذا كان قليل منا على استعداد بالفعل لفعل ذلك، فاللوم يقع علينا. غير أن الأمر ليس بهذه السهولة. وتبقى هناك خطوات تكنولوجية يمكننا اتخاذها لحماية الخصوصية؛ إذ يمكن للشركات تخزين البيانات، التي تولدها المستشعرات داخل الأجهزة نفسها، بدلاً من تخزينها في موقع مركزي، مثل «مخزن المستشعرات». وبالمثل، تبقى المعلومات التي تتيح لك فتح قفل هاتف «آبل آيفون» الخاص بك عبر خاصية التعرف على الوجه مخزنة داخل الهاتف. هذه حلول تكنولوجية إيجابية، لكن حتى البيانات المخزنة محلياً تصبح متاحة للشرطة بموجب مذكرة قضائية.

في الواقع، هذه باختصار معضلة العصر الرقمي. لا يمكننا - أو لا نرغب - في تجنب إنشاء البيانات، لكن هذه البيانات، بمجرد إنشائها، تصبح متاحة لأغراض قانونية... وموجز القول إن هذه السلطة الهائلة يمكن إساءة استخدامها، بل وسيُساء استخدامها حتماً.


الرئيس التنفيذي لـ«غوغل كلاود»: مراكز بياناتنا «مقاوِمَة للأزمات» ولا ترتبط بحدود

توماس كوريان الرئيس التنفيذي لـ«غوغل كلاود» متحدثاً لـ«الشرق الأوسط» (الشرق الأوسط)
توماس كوريان الرئيس التنفيذي لـ«غوغل كلاود» متحدثاً لـ«الشرق الأوسط» (الشرق الأوسط)
TT

الرئيس التنفيذي لـ«غوغل كلاود»: مراكز بياناتنا «مقاوِمَة للأزمات» ولا ترتبط بحدود

توماس كوريان الرئيس التنفيذي لـ«غوغل كلاود» متحدثاً لـ«الشرق الأوسط» (الشرق الأوسط)
توماس كوريان الرئيس التنفيذي لـ«غوغل كلاود» متحدثاً لـ«الشرق الأوسط» (الشرق الأوسط)

في «غوغل كلاود نيكست» في لاس فيغاس، تجاوز رد توماس كوريان، الرئيس التنفيذي لـ«غوغل كلاود»، على سؤال لـ«الشرق الأوسط» بشأن الهجمات على مراكز بيانات الحوسبة السحابية فائقة النطاق في ظل التوترات التي تشهدها المنطقة، مسألة الحماية المادية سريعاً. فالقضية، كما ألمح، لم تعد تقتصر على كيفية الدفاع عن البنية التحتية، بل أصبحت تتعلَّق بكيفية ضمان ألا يبقى العملاء عالقين في موقع واحد عندما يقع الاضطراب. وقال الرئيس التنفيذي لـ«غوغل كلاود»: «لقد تعاملنا مع عدد من حالات الصراع العالمية على مدى سنوات طويلة جداً»، مضيفاً أن «غوغل كلاود» لا تملك فقط وسائل حماية مادية، بل تمتلك أيضاً القدرة على ربط مراكز بياناتها عالمياً عبر «شبكتنا الخاصة، التي تتمتع بدرجة عالية جداً من التكرار».

وسرعان ما انتقل رد كوريان من الأمن على مستوى المنشأة إلى فكرة أوسع تتعلق بالاستمرارية الرقمية قائلاً: «لدينا القدرة على نقل عبء العمل من ذلك الموقع وإعادة نسخه عالمياً»، لأن مواقع «غوغل كلاود» مواقع «موحدة ومتناسقة باستمرار». وبالنسبة إلى العملاء، فإن الفائدة هي أنهم «غير مرتبطين بموقع مادي واحد». وقد نقل هذا الجواب النقاش من مستوى إطلاق المنتجات إلى سؤال أكثر استراتيجية: هل أصبحت معمارية السحابة نفسها جزءاً من تخطيط استمرارية الأعمال؟

من التجربة للتشغيل

يُقدِّم هذا الطرح أيضاً واحدة من أوضح الطرق لفهم رسالة «غوغل كلاود» الأوسع في «نيكست 2026». فعلى امتداد الحدث الذي حضره أكثر من 30 ألف مشارك، سعت الشركة إلى التأكيد على أن الذكاء الاصطناعي المؤسسي ينتقل من مرحلة التجربة إلى ما تسميه «المؤسسة الوكيلة». وذكرت «غوغل كلاود» أن نحو 75 في المائة من عملائها يستخدمون بالفعل منتجاتها المدعومة بالذكاء الاصطناعي، بينما عالج 330 عميلاً أكثر من تريليون رمز خلال الأشهر الـ12 الماضية، وتجاوز 35 عميلاً حاجز 10 تريليونات رمز. كما أشارت إلى أن نماذجها الطرفية الأولى تعالج الآن أكثر من 16 مليار رمز في الدقيقة، ارتفاعاً من 10 مليارات في الربع السابق. وكان الهدف من هذه الأرقام هو الإشارة إلى أن الذكاء الاصطناعي لم يعد تجربة جانبية، بل طبقة تشغيلية تريد الشركات استخدامَها عبر أعمالها.

المنافسة المقبلة لن تُحسم بالنماذج وحدها بل بقدرة الشركات على تحسين المنظومة الكاملة من الرقاقات إلى البنية التحتية والأدوات (غوغل)

التكامل والانفتاح معاً

الأكثر دلالة في جلسة الأسئلة والأجوبة الخاصة مع كوريان كان ما كشفه عن المكان الذي تنتقل إليه المنافسة. لقد أفاد بأن «غوغل كلاود» هي «شركة الحوسبة السحابية فائقة النطاق الوحيدة التي تمتلك رقاقاتها الخاصة ونماذجها الحدودية الخاصة»، بما يتيح لها «تحسين المنظومة بأكملها، من الحوسبة إلى مدى كفاءة تشغيل الوكلاء». وكانت هذه محاولة واضحة لوضع ميزة «غوغل كلاود» في الطبقات الأعمق من التطبيق، في الجمع بين الرقاقات والنماذج والبنية التحتية والأدوات. وبعبارة أخرى، تقول الشركة إن المرحلة التالية من الذكاء الاصطناعي لن تتحدد فقط بمن يملك نموذجاً قوياً، بل بمن يستطيع تصميم النظام الأوسع المحيط به بأكبر قدر من الفاعلية.

لكن كوريان قرن هذا الطرح بحجة أخرى لا تقل أهمية لعملاء المؤسسات وهي الانفتاح، مصرحاً بأنه «لا يتوقع أن تستخدم شركة ما كل شيء من (غوغل كلاود)، لقد أبقينا المعمارية مفتوحة». وأضاف أن شركته تدعم نماذج متعددة، وتدعم رقاقاتها الخاصة، لكنها أيضاً «شريك قريب جداً لـ(إنفيديا)»، كما تدعم منصات بيانات مختلفة، وتعمل مع أطراف ثالثة في الطبقة الأمنية. وتكتسب هذه النقطة أهميتها لأن المؤسسات تريد كفاءة التكامل الأعمق من دون أن تُحبس داخل بيئة مغلقة. وتحاول «غوغل كلاود» هنا الإشارة إلى أنها قادرة على تقديم منظومة متكاملة رأسياً، مع الحفاظ في الوقت نفسه على القدرة على العمل داخل بيئات تقنية مؤسسية متنوعة.

السيادة في الواجهة

برزت السيادة أيضاً بوصفها عنصراً مهماً في اللقاء. فعندما سُئل كوريان عمّا إذا كان العملاء الأوروبيون سيحصلون على المنتج كاملاً، قال إن «المنتج العام متاح اليوم في أوروبا بما يتوافق مع لوائح السيادة الأوروبية»، وإنه مستضاف للعملاء الأوروبيين عبر عدة مواقع، بينها ألمانيا وفرنسا وبلجيكا وهولندا وفنلندا والمملكة المتحدة. ورغم أن الجواب كان خاصاً بأوروبا، فإن دلالته الأوسع تتجاوز القارة حيث إن عملاء المؤسسات ومن بينها المملكة العربية السعودية يريدون بشكل متزايد خدمات ذكاء اصطناعي متقدمة من دون التخلي عن السيطرة على مكان استضافة بياناتهم ومعالجتها، وهي ليست مسألة جانبية، بل جزء من معمارية الثقة نفسها.

تحاول الشركة الجمع بين التكامل الرأسي والانفتاح المعماري عبر دعم نماذج متعددة ورقائق مختلفة وأدوات أمن من أطراف أخرى (غوغل)

الموصِّلات تصنع الفارق

تناول كوريان في الجلسة نقطة عملية أخرى تمس مباشرة أحد الاختناقات الحقيقية في الذكاء الاصطناعي المؤسسي. فعندما سُئل عمّن سيبني الروابط بين «جيميناي إنتربرايز» والتطبيقات الكثيرة التي تستخدمها المؤسسات بالفعل، قال إن «غوغل كلاود» تبنيها بنفسها. وأردف: «لدينا أكثر من 100 موصّل متاح بالفعل» تغطي مستودعات الوثائق، وتطبيقات البرمجيات كخدمة، وقواعد البيانات. وتابع أيضاً أن «غوغل كلاود» توفر إطاراً لبناء الموصلات، وتدعم معايير مثل «Bring Your Own MCP» للأنظمة المصممة خصيصاً. وتكمن أهمية هذا الجواب في أنه يصل إلى جوهر سبب تعثر كثير من مشروعات الذكاء الاصطناعي المؤسسي حيث يكون النموذج مبهراً في عزلة، لكنه لا يصبح مفيداً حقاً إلا عندما يستطيع الاتصال بالأماكن التي يجري فيها العمل فعلاً كالوثائق وتطبيقات الأعمال والسجلات وقواعد البيانات.

الذكاء الاصطناعي والدفاع

لم يكن الجزء المتعلق بالأمن السيبراني في الجلسة بدرجة أقل من الأهمية. صرح كوريان بأن «غوغل كلاود» أدركت منذ فترة أنه كلما أصبحت النماذج أفضل في فهم البرمجيات، فإن الجهات الخبيثة ستستخدمها لتحليل الشيفرة، واكتشاف الثغرات، ومهاجمة الأنظمة. وبرأيه، فإن الردَّ يجب أن يكون مدفوعاً بالذكاء الاصطناعي أيضاً. وشرح طبقة أولى تركز على تحليل الشيفرة الخاصة بالشركة نفسها وإصلاحها، مشيراً إلى نموذج جديد باسم «Code Defender» يساعد على إصلاح الشيفرة. وتركز طبقة ثانية على التهديدات الخارجية، بما في ذلك صيد التهديدات واستخبارات التهديدات. وأشار إلى «استخبارات الويب المظلم» التي أُعلن عنها في المؤتمر، قائلاً إنها «دقيقة بنسبة 90 في المائة» في ترتيب التهديدات التي ينبغي على العملاء الدفاع ضدها. كما ربط هذا المنطق باستحواذ «غوغل كلاود» على «ويز»، وشرح دور «وكيل أحمر» يهاجم الأنظمة لاكتشاف نقاط الضعف، و«فريق أزرق» يحدد الإصلاح المطلوب، وطبقة «خضراء» تقوم بإصلاح المشكلة.

إنتاجية تقاس بالجودة

خلال اللقاء، قدَّم كوريان أيضاً صورة أكثر واقعية لكيفية استخدام «غوغل كلاود» نفسها للذكاء الاصطناعي داخلياً. فعندما سُئل عن إنتاجية المهندسين، أجاب أن القضية لا تتعلق فقط بحجم الشيفرة التي يمكن للذكاء الاصطناعي توليدها، بل بـ«جودة الشيفرة». ونوه بأن «غوغل كلاود» تستخدم أدوات الذكاء الاصطناعي في عمليات الترحيل وفحص الثغرات وتوليد الاختبارات ومراجعة الأقران، حيث أصبحت النماذج تراجع الشيفرة إلى جانب المراجعين البشريين قبل اعتمادها. وقال: «مقياسنا طويل الأمد للإنتاجية لا يتعلق فقط بحجم الأشياء، بل بجودتها». وهذه النقطة مهمة لأنها تنقل النقاش حول إنتاجية الذكاء الاصطناعي بعيداً عن الأرقام اللافتة، إلى معيار مؤسسي أكثر واقعية: أنظمة أفضل اختباراً، وأفضل مراجعة، وأكثر أماناً.

أوضحت تصريحات كوريان أن «غوغل كلاود» تريد نقل النقاش حول الذكاء الاصطناعي إلى ما هو أبعد من حداثة المنتجات. فالشركة تحاول القول إن المرحلة المقبلة من الذكاء الاصطناعي المؤسسي ستعتمد على مجموعة أكثر صعوبة من الأسس. إنها بنية تحتية مرنة وقابلية نقل عبر المواقع وانفتاح عبر مكونات المنظومة، ونشر متوافق إقليمياً، واتصال مباشر بأنظمة المؤسسة، ودفاع سيبراني مؤتمت. وإذا كان الفصل الأول من طفرة الذكاء الاصطناعي قد دار حول إظهار قدرات النماذج، فإن رسالة كوريان في لاس فيغاس كانت أن الفصل التالي سيتحدد بقدرة هذه الأنظمة على الاستمرار في العمل بأمان ومرونة وعلى نطاق واسع عندما تصبح جزءاً من العمليات الواقعية اليومية.


«غوغل كلاود» لـ«الشرق الأوسط»: هدوء سيبراني «حذر» رغم التوترات الإقليمية

التوترات التي شهدها الشرق الأوسط خلال الشهرين الماضيين لم تؤدِّ إلى تصعيد سيبراني واسع وفوري بالقدر الذي كان متوقعاً (شاترستوك)
التوترات التي شهدها الشرق الأوسط خلال الشهرين الماضيين لم تؤدِّ إلى تصعيد سيبراني واسع وفوري بالقدر الذي كان متوقعاً (شاترستوك)
TT

«غوغل كلاود» لـ«الشرق الأوسط»: هدوء سيبراني «حذر» رغم التوترات الإقليمية

التوترات التي شهدها الشرق الأوسط خلال الشهرين الماضيين لم تؤدِّ إلى تصعيد سيبراني واسع وفوري بالقدر الذي كان متوقعاً (شاترستوك)
التوترات التي شهدها الشرق الأوسط خلال الشهرين الماضيين لم تؤدِّ إلى تصعيد سيبراني واسع وفوري بالقدر الذي كان متوقعاً (شاترستوك)

في «غوغل كلاود نكست 2026» في لاس فيغاس، لم يكن حديث ساندرا جويس، نائبة رئيس «غوغل ثريت إنتلجنس» (Google Threat Intelligence)، مجرد إضافة تقنية ضمن زخم الذكاء الاصطناعي الذي طغى على المؤتمر، بل قدّم قراءة أكثر هدوءاً وانضباطاً لمشهد التهديدات السيبرانية في لحظة إقليمية ودولية حساسة.

وخلال الجلسة، سألت «الشرق الأوسط» عمّا إذا كانت التوترات التي شهدها الشرق الأوسط خلال الشهرين الماضيين قد انعكست على نمط الهجمات السيبرانية، وما إذا كانت «غوغل كلاود» قد رصدت تحولاً موازياً في مستوى النشاط أو طبيعته. غير أن رد ساندرا جويس جاء على خلاف ما قد يتوقعه كثيرون قائلة إن فريقها «لم يرَ في الواقع ارتفاعاً كبيراً في النشاط السيبراني» خلال تلك الفترة، مضيفة أن ما جرى، باستثناء بعض الوقائع التي ظهرت علناً، لم يصل إلى مستوى تصعيد واسع، بل إنهم «شهدوا هدوءاً، ثم عادت المستويات تقريباً إلى ما كانت عليه سابقاً»، بخلاف ما حدث مع بداية التوترات بين روسيا وأوكرانيا.

وتكتسب هذه الملاحظة أهميتها من أنها تبتعد عن المبالغة، وتقدم صورة أكثر توازناً؛ فالتوترات الجيوسياسية لا تنعكس بالضرورة، وبصورة فورية، في موجة سيبرانية واسعة ومرئية. لكن ذلك، في حديث ساندرا جويس، لا يعني أن الخطر تراجع أو أن البيئة أصبحت أكثر أماناً.

ساندرا جويس نائبة رئيس «غوغل ثريت إنتلجنس» (Google Threat Intellegence) (غوغل)

استعداد قبل الانفجار

وعندما سُئلت عن تفسير هذا الهدوء النسبي، لم تربطه ساندرا جويس بضعف في قدرات الجهات المهاجمة أو بانحسار التهديد، بل أشارت إلى احتمالات أكثر تعقيداً؛ إذ ربما تكون هذه القدرات موزعة بشكل لامركزي، بحيث لا يؤدي استهداف موقع معين إلى تعطيلها، وربما لم يصدر القرار باستخدامها على نطاق أوسع، وربما كانت هناك اعتبارات ردع قائمة.

وفي المقابل، شرحت كيف تتعامل «غوغل كلاود» مع مثل هذه اللحظات عبر ما وصفته بآلية التعامل مع «الأحداث الكبرى»، حيث يجري العمل السريع بهدف التحرك قبل اتساع الأثر، من خلال توفير مؤشرات مبكرة عمّا قد يحدث، ثم التمييز بعد ذلك بين الضجيج والحقيقة، وبين التصورات والوقائع، حتى تتمكن المؤسسات من اتخاذ قرارات عملية تستند إلى سياق واضح. وبذلك، لا يعود دور استخبارات التهديدات مقتصراً على الإبلاغ عمّا حدث، بل يمتد إلى مساعدة المؤسسات على معرفة ما ينبغي فعله بعد ذلك.

«غوغل كلاود»: أول اختبار حقيقي لمرونة المؤسسات اليوم يبدأ من إدارة الثغرات والتحديثات الأمنية لا من الشعارات العامة حول الصمود (شاترستوك)

اختبار المرونة الحقيقي

وفي محور آخر، انتقل النقاش مع «الشرق الأوسط» إلى معنى «المرونة» أو «الصمود» داخل المؤسسات، ليس فقط من زاوية حماية المعلومات، بل أيضاً من زاوية الحفاظ على استمرارية الخدمات والعمليات والثقة العامة. وجاء جواب جويس مباشراً، مشيرة إلى أن أول ما تنظر إليه اليوم، بخلاف ما كانت قد تقوله قبل ثلاث سنوات، هو برامج إدارة الثغرات والتحديثات الأمنية؛ لأن أدوات الذكاء الاصطناعي باتت تمنح المهاجمين سرعة ونطاقاً وقدرة على إحداث أثر واسع «بشكل لم نره من قبل».

وتنقل هذه النقطة النقاش من المفهوم العام للمرونة إلى مستوى أكثر دقة وواقعية. فساندرا جويس لا تتحدث عن الصمود بوصفه مجرد خطة استجابة أو قدرة على استعادة الأنظمة بعد الهجوم، بل بوصفه قدرة استباقية على سد الثغرات قبل أن تتحول إلى منفذ لهجمات أسرع وأكثر تعقيداً. ووفق شرحها، فإن المؤسسات في 2026 تحتاج إلى التفكير في أدوات ذكاء اصطناعي تمتلك «السرعة والحجم والقدرة المتقدمة»، ويمكن أن تتجه إلى أي ثغرة في الشبكة، حتى تلك التي قد تكون المؤسسة قد صنّفتها سابقاً على أنها ثانوية أو منخفضة الأولوية. والأسوأ من ذلك، كما أوضحت، أن هذه الأدوات لا تكتفي باستغلال ثغرة واحدة، بل يمكن أن تربط بين نقاط ضعف مختلفة لتكوين مسار اختراق جديد وأكثر فاعلية.

«رذاذ قبل العاصفة»

وعندما سُئلت ساندرا جويس عمّا إذا كانت ترى بالفعل تصاعداً واسعاً في الهجمات التي تستخدم قدرات الذكاء الاصطناعي الجديدة، لم تقل إن هذه الموجة بلغت ذروتها، لكنها وصفت ما نراه اليوم بأنه أشبه «برذاذ يسبق العاصفة». وقالت بوضوح إن الاعتقاد بأن هذا الوضع سيبقى هادئاً سيكون افتراضاً خاطئاً، لأن المؤشرات تتزايد، والقدرات تتطور، ونقطة التحول تقترب.

وهنا تكمن المفارقة الأهم في حديثها؛ حيث إن العالم لم يدخل بعد مرحلة انفجار شامل في هذا النوع من الهجمات، لكنه يقترب منها بما يكفي لكي يصبح التأجيل خطأ مكلفاً. ومن هذا المنطلق، بدا حديثها أقرب إلى دعوة للاستعداد المبكر منه إلى تحذير من واقع وقع بالكامل.

المرونة السيبرانية في 2026 لم تعد تعني حماية البيانات فقط بل حماية استمرارية الخدمات والعمليات والثقة العامة أيضاً (شاترستوك)

من الرصد إلى الفعل

وفي جزء آخر من الجلسة، شرحت ساندرا جويس أن فريقها لا يقتصر دوره على مراقبة التهديدات وبناء صورة عامة عنها، بل يضم أيضاً، منذ العام الماضي، وحدة تعطيل تقود عمليات تستند إلى الاستخبارات. ووفق شرحها، تراوحت هذه العمليات بين إسقاط شبكات وكلاء سكنية بالتعاون مع الفريق القانوني، وتعطيل شبكات تجسس. والمعنى هنا أن قيمة استخبارات التهديدات لم تعد تقف عند حدود الفهم والتحليل، بل باتت تشمل استخدام هذه المعرفة نفسها لتقليص قدرة الخصوم على العمل قبل أن يتحول الخطر إلى حادث واسع.

وفي الوقت نفسه، حرصت جويس على عدم المبالغة في تصوير المشهد، مشيرة إلى أن كثيراً من الاختراقات التي لا تزال الفرق تتعامل معها اليوم تعتمد على أساليب تقليدية معروفة. لكنها حذرت من أن ذلك لا ينبغي أن يبعث على الاطمئنان، لأن ما تراه فرقها هو تسارع الابتكار لدى جهات التهديد، بما يعني أن نقطة التحول تقترب. ووصفت هذا الوضع بأنه «فرصة للتحرك الآن»، لا سبباً لتأجيل الاستعداد.

وهذه ملاحظة مهمة، لأنها تعني أن التهديد لا يكمن فقط في ظهور أدوات جديدة، بل في كيفية تطوير الأساليب القائمة ورفع كفاءتها وتوسيع أثرها. لذلك، فإن الاعتماد على أن المهاجمين سيظلون يستخدمون الأدوات والأساليب نفسها سيكون رهاناً خاطئاً.

تقول «غوغل كلاود» إن هذا الهدوء النسبي لا يعني تراجع الخطر لأن جهات التهديد قد تكون تعمل بقدرات موزعة أو تنتظر ظروفاً مختلفة للتصعيد (رويترز)

اتساع رقعة الاستهداف

كشفت الجلسة أيضاً عن أثر آخر للذكاء الاصطناعي في المشهد الأمني، وهو اتساع نطاق الاستهداف جغرافياً. فعندما سُئلت ساندرا جويس عمّا إذا كانت الحواجز اللغوية التي كانت تحدّ سابقاً من استهداف بعض الأسواق قد تراجعت، أجابت بأن ذلك يحدث بالفعل، مشيرة إلى زيادة واضحة في استهداف أسواق غير ناطقة بالإنجليزية، وذكرت على وجه الخصوص ألمانيا التي شهدت ارتفاعاً ملحوظاً في الأشهر الأخيرة، ليس فقط على مستوى الشركات الكبرى، بل أيضاً في قلب ما يشكل العمود الفقري للاقتصاد الألماني. وتحمل هذه الإشارة دلالة أوسع؛ الذكاء الاصطناعي لا يوسّع فقط قدرة المهاجمين على تطوير الأدوات، بل يوسّع أيضاً نطاق الأسواق والقطاعات التي يمكن استهدافها بكفاءة أكبر.

حاولت ساندرا جويس، خلال الجلسة، ترسيخ فكرة أن المرونة لم تعد كلمة مطمئنة في عروض الشركات، بل أصبحت اختباراً يومياً يبدأ من إدارة الثغرات والتحديثات، ويمر عبر فهم التهديدات قبل انفجارها، وينتهي بقدرة المؤسسة على التمييز بين الضجيج والحقيقة، والتصرف بسرعة وثقة. وربما كانت الرسالة الأهم التي خرجت من الجلسة هي أنه في 2026، لا يكفي أن تقول المؤسسة إنها «مرنة»؛ عليها أن تثبت أنها قادرة على إغلاق الفجوات قبل أن تتحول، بسرعة الذكاء الاصطناعي نفسه، إلى نقطة انهيار.