من لاس فيغاس... «غوغل كلاود نيكست 2026» يرسم المرحلة التالية للذكاء الاصطناعي المؤسسي

منصات ووكلاء ورقائق وبيانات وأمن... ماذا تعني لجاهزية المؤسسات في الخليج؟

تقدم «غوغل كلاود» الذكاء الاصطناعي بوصفه نموذجاً تشغيلياً متكاملاً للمؤسسات لا مجرد مجموعة أدوات منفصلة (غوغل)
تقدم «غوغل كلاود» الذكاء الاصطناعي بوصفه نموذجاً تشغيلياً متكاملاً للمؤسسات لا مجرد مجموعة أدوات منفصلة (غوغل)
TT

من لاس فيغاس... «غوغل كلاود نيكست 2026» يرسم المرحلة التالية للذكاء الاصطناعي المؤسسي

تقدم «غوغل كلاود» الذكاء الاصطناعي بوصفه نموذجاً تشغيلياً متكاملاً للمؤسسات لا مجرد مجموعة أدوات منفصلة (غوغل)
تقدم «غوغل كلاود» الذكاء الاصطناعي بوصفه نموذجاً تشغيلياً متكاملاً للمؤسسات لا مجرد مجموعة أدوات منفصلة (غوغل)

سعت «غوغل كلاود» في مؤتمرها السنوي «Google Cloud Next 2026» الذي حضره أكثر من 30 ألف مشارك، الأربعاء، في مدينة لاس فيغاس الأميركية، إلى تقديم صورة أوسع من مجرد سلسلة إعلانات تقنية جديدة. فمنذ اليوم الأول، بدا أن الشركة تريد وضع الحدث في إطار تحول أكبر في الذكاء الاصطناعي المؤسسي، عنوانه الانتقال من مرحلة الاستخدام التجريبي إلى مرحلة التشغيل الواسع داخل المؤسسات. هذا التحول صاغته «غوغل» تحت مفهوم «المؤسسة الوكيلة»، أي مؤسسة لا يقتصر فيها الذكاء الاصطناعي على المساعدة أو التلخيص، بل يمتد إلى بناء الوكلاء وتشغيلهم وربطهم بالبيانات والأنظمة وسير العمل اليومي.

توماس كوريان الرئيس التنفيذي لـ«غوغل كلاود» خلال كلمته الافتتاحية (غوغل)

حاول توماس كوريان الرئيس التنفيذي لـ«غوغل كلاود» أن يضع هذا الاتجاه في صياغة واضحة، مقدماً الكلمة الافتتاحية بوصفها «خريطة طريق للمؤسسة الوكيلة». وفي المعنى الذي خرج به اليوم الأول، فإن الرسالة لم تكن أن الذكاء الاصطناعي يدخل الشركات بوصفه أداة إضافية، بل إنه يدفعها نحو نموذج تشغيلي جديد، تصبح فيه البنية التحتية والبيانات والحوكمة والأمن وتطبيقات العمل أجزاء مترابطة في طبقة واحدة أكثر اعتماداً على الوكلاء. كما سعى الحدث إلى دعم هذا الطرح بأرقام تعكس الزخم الذي تريد الشركة إبرازه، قائلة إن نحو 75 في المائة من عملاء «غوغل كلاود» يستخدمون منتجاتها للذكاء الاصطناعي، وإن نماذجها الأساسية تعالج أكثر من 16 مليار رمز في الدقيقة عبر الاستخدام المباشر من العملاء.

ركائز التحول المؤسسي

على مستوى الإعلانات نفسها، كان المشهد موزعاً على 4 ركائز رئيسية. الأولى كانت «Gemini Enterprise Agent Platform» التي قدمتها «غوغل» بوصفها منصة لبناء الوكلاء الذكيين وتوسيعهم وحوكمتهم ومراقبتهم داخل المؤسسات. والثانية كانت البنية التحتية، مع الإعلان عن الجيل الثامن من وحدات «TPU» إلى جانب ما تصفه الشركة بمعمارية «AI Hypercomputer». أمّا الركيزة الثالثة فكانت «Agentic Data Cloud» التي تعكس محاولة لإعادة صياغة علاقة الذكاء الاصطناعي ببيانات المؤسسات. وجاءت الرابعة عبر «Agentic Defense» الذي يربط بين الذكاء الاصطناعي والأمن السيبراني وحماية التطبيقات والبيئات السحابية. كما أضافت الشركة طبقة رابعة موازية على مستوى الاستخدام اليومي، عبر توسيع دور «Gemini Enterprise» داخل بيئات العمل، وتقديم «Workspace Intelligence» بوصفها طبقة دلالية تربط بين أدوات مثل «جيميل» و«دوكس» و«درايف» و«ميت» و«شات». وباختصار، فإن الحدث لم يُبنَ حول إعلان نموذج جديد فقط، بل حول حزمة تقول إن المرحلة التالية من الذكاء الاصطناعي ستكون معركة تشغيل مؤسسي متكامل.

ركزت إعلانات الحدث على 4 طبقات رئيسية تشمل الوكلاء والبنية التحتية والبيانات والأمن السيبراني (غوغل)

جاهزية الخليج للذكاء المؤسسي

ما يمنح هذا الطرح وزناً أكبر بالنسبة إلى الخليج هو أن المنطقة نفسها باتت معنية بهذه المرحلة من تطور الذكاء الاصطناعي. فالنقاش هنا لم يعد يقتصر على أهمية الذكاء الاصطناعي أو الرغبة في استخدامه، بل يتجه بصورة متزايدة إلى كيفية تشغيله على نطاق أوسع داخل القطاعات الحساسة والمنظمة، مثل التمويل والاتصالات والرعاية الصحية والطاقة والخدمات اللوجستية والقطاع الحكومي. ومن هذه الزاوية، فإن ما قُدم في «نيكست 2026» لا يبدو مجرد إعلانات حدث سنوي، بل يعكس تحولاً أوسع في السوق من التركيز على الوصول إلى النماذج إلى التركيز على الجاهزية المؤسسية لتشغيلها.

وبالنسبة إلى السعودية تحديداً، فإن هذا يبرز اتجاهاً نحو نقاش أكثر ارتباطاً بالجوانب التشغيلية والتطبيقية. فالمسألة لم تعد مرتبطة فقط بالبنية الحاسوبية أو الشراكات أو إدخال أدوات الذكاء الاصطناعي إلى بعض الوظائف، بل أيضاً بكيفية دمج هذه التقنيات داخل الأنظمة والعمليات المؤسسية بصورة فعالة ومنظمة. ويشمل ذلك استخدام الذكاء الاصطناعي في بيئات خاضعة للامتثال، وتوظيفه في عمليات الشبكات والخدمات، والاستفادة من الوكلاء داخل المؤسسات مع الحفاظ على المتابعة والتدقيق والضبط المؤسسي.

المرحلة التالية من الذكاء الاصطناعي ستعتمد على قدرة المؤسسات على تشغيله على نطاق واسع داخل بيئات العمل الفعلية (شاترستوك)

حوكمة البنية الذكية

عندما تتحدث «غوغل» عن منصة لإدارة الوكلاء، أو عن هوية الوكيل، أو عن بوابة للتحكم في تفاعلاته، أو عن أدوات للمراقبة، فإن هذه ليست مجرد تفاصيل تقنية داخل منتج جديد، بل تعكس اتجاهاً أوسع في السوق نحو تشغيل الذكاء الاصطناعي داخل المؤسسات ضمن أطر واضحة وقابلة للمراجعة. وهذه نقطة مهمة لأن إحدى الرسائل الأكثر دلالة في الحدث الذي حضرته «الشرق الأوسط» كانت أن النقاش لم يعد يتمحور فقط حول القدرة على بناء وكيل ذكي، بل حول كيفية إدارة أعداد كبيرة منهم داخل المؤسسة الواحدة. وبالنسبة إلى السعودية والخليج، فإن هذا يبرز أهمية طبقات الحوكمة والمراقبة والهوية، خصوصاً مع توسع استخدام الذكاء الاصطناعي في القطاعات الحساسة.

والأمر نفسه ينطبق على البنية التحتية. فإعلانات مثل «TPU 8t» و«TPU 8i» و«AI Hypercomputer» لا تكتسب أهميتها فقط من سباق الرقائق أو من التنافس بين مزودي الحوسبة السحابية، بل أيضاً من دلالتها على أن المرحلة المقبلة من الذكاء الاصطناعي ستعتمد على بنية تحتية تدعم التدريب والاستدلال المستمر واسع النطاق. ومن هذه الزاوية، يبرز التركيز على كيفية توظيف هذه البنية في تطبيقات مؤسسية عملية عبر قطاعات متعددة.

تعكس وحدات «TPU» الجديدة التي أعلنتها «غوغل» تركيزاً واضحاً على بنية تحتية تخدم التدريب والاستدلال معاً (غوغل)

البيانات في الصدارة

ثم تأتي البيانات، وهي من العناصر الأساسية في المرحلة المقبلة. فطرح «Agentic Data Cloud» يعكس اتجاهاً متزايداً نحو تعزيز جاهزية البيانات وربطها بشكل أفضل داخل المؤسسات. وبالنسبة إلى السعودية، فإن هذه النقطة تكتسب أهمية خاصة مع تسارع التحول الرقمي في ظل «رؤية 2030» واتساع الحاجة إلى بيئات بيانات أكثر ترابطاً، بما يتيح للذكاء الاصطناعي العمل بسياق أعمال أدق وأكثر فاعلية.

وفي هذا السياق، لا تبدو طبقة الاستخدام اليومي التي تحدثت عنها «غوغل» أقل أهمية من طبقات الرقائق أو المنصات. فعندما توسع الشركة دور «Gemini Enterprise» داخل بيئة العمل، وتقدم «Workspace Intelligence» كطبقة سياقية موحدة عبر البريد والمستندات والاجتماعات والمحادثات والملفات، فهي لا تضيف مزايا إنتاجية فقط، بل ترسم تصوراً لبيئة يصبح فيها الذكاء الاصطناعي أقرب إلى جزء من التدفق اليومي للعمل، لا أداة منفصلة على الهامش. وهذه النقطة تهم المنطقة أيضاً، لأن نجاح الذكاء الاصطناعي في المؤسسات لن يُقاس فقط بما إذا كانت الإدارات التقنية قادرة على بنائه، بل بما إذا كان يمكن دمجه في العمل الفعلي للموظفين والفرق من دون زيادة التعقيد أو خلق طبقات تشغيلية منفصلة.

أوضح المؤتمر أن نجاح الذكاء الاصطناعي المؤسسي يتطلب حوكمة أوضح وبيانات أكثر ترابطاً وبنية تحتية تدعم الاستدلال المستمر (غوغل)

الأمن في الصميم

أما الأمن، فكان واحداً من أكثر المحاور التي كشفت أن السوق دخلت مرحلة أكثر واقعية. فعبر «Agentic Defense»، سعت «غوغل» إلى ربط الذكاء الاصطناعي مباشرة بالأمن السيبراني، ليس باعتباره طبقة منفصلة، بل جزءاً من المعمارية نفسها. هذه النقطة لها أهمية واضحة في المنطقة، لأن توسع الذكاء الاصطناعي داخل المؤسسات في قطاعات مثل الطاقة والاتصالات والقطاع المالي لا يمكن فصله عن سؤال الثقة والاستمرارية والقدرة على احتواء المخاطر. وكلما توسعت المؤسسات في استخدام الوكلاء وربطتهم ببياناتها وأنظمتها، أصبح الأمن جزءاً من الذكاء الاصطناعي ذاته، لا مجرد إضافة لاحقة إليه.

ومن بين الرسائل المهمة أيضاً في الحدث أن «غوغل» حاولت الجمع بين فكرتين تبدوان متوازيتين. إحداهما تقديم حزمة متكاملة ومحسنة رأسياً من جهة، والأخرى التأكيد على الانفتاح وتعدد النماذج والتكامل مع الشركاء من جهة أخرى. وهذه ليست مجرد نقطة تنافسية بين الشركات الكبرى، بل مسألة عملية للمؤسسات نفسها، خصوصاً في الأسواق التي تسعى إلى الموازنة بين التكامل التقني والمرونة التشغيلية على المدى الطويل. وبالنسبة إلى الخليج، فإن هذا التوازن بين التكامل والانفتاح يبرز كأحد الأسئلة المهمة في المرحلة المقبلة من الذكاء الاصطناعي المؤسسي.

ربما يكون أهم ما كشفه اليوم الأول من «Google Cloud Next 2026» بالنسبة إلى السعودية والخليج ليس منتجاً واحداً بعينه، بل طبيعة التحول الذي يعكسه. فالموجة الأولى من الذكاء الاصطناعي كانت تدور حول إثبات الفائدة. أما الموجة التالية، كما بدت في لاس فيغاس، فتدور حول إثبات الجاهزية. وهذا يعني أن المعركة المقبلة لن تُحسم فقط بمن يملك النموذج الأذكى، بل بمن يملك المؤسسة الأقدر على تشغيله، وضبطه، وتأمينه، وربطه ببياناته وعملياته، وتحويله من تجربة لافتة إلى قدرة يومية يمكن الوثوق بها. ومن هذه الزاوية، فإن الرسالة الأهم القادمة من الحدث ليست تقنية فقط، بل مؤسسية أيضاً: المرحلة المقبلة في الذكاء الاصطناعي في المنطقة ستكون معركة تنفيذ بقدر ما هي معركة ابتكار.


مقالات ذات صلة

خبراء يُحذرون: الذكاء الاصطناعي يكشف عن طرق خطيرة لتطوير أسلحة بيولوجية

تكنولوجيا مؤيدو الذكاء الاصطناعي يرون أنه يحمل إمكانات هائلة لإحداث ثورة في الطب (رويترز)

خبراء يُحذرون: الذكاء الاصطناعي يكشف عن طرق خطيرة لتطوير أسلحة بيولوجية

في وقت يتسارع فيه تطوّر تقنيات الذكاء الاصطناعي بوتيرة غير مسبوقة، تزيد المخاوف بشأن إساءة استخدام هذه الأدوات في مجالات حساسة وخطيرة.

«الشرق الأوسط» (واشنطن)
الولايات المتحدة​ مبنى البنتاغون في واشنطن كما يظهر من الطائرة الرئاسية الأميركية (أ.ب)

600 موظف في «غوغل» يطالبون برفض عقد عسكري سرّي مع «البنتاغون»

أبرمت شركة «غوغل» المملوكة لمجموعة «ألفابت» اتفاقية مع وزارة الدفاع الأميركية (البنتاغون) لاستخدام نماذج الذكاء الاصطناعي الخاصة بها في أنشطة سرية.

«الشرق الأوسط» (واشنطن)
الاقتصاد شعار شركة «غوغل» خلال مؤتمر الطاقة «سيرا ويك» لعام 2026 في هيوستن بتكساس يوم 24 مارس 2026 (رويترز)

شراكة بين «غوغل» وكوريا الجنوبية لتدشين مجمع متطور للذكاء الاصطناعي

أعلن المكتب الرئاسي الكوري الجنوبي أن شركة «غوغل» ستنشئ مجمعاً للذكاء الاصطناعي في كوريا الجنوبية.

«الشرق الأوسط» (سيول)
خاص التوترات التي شهدها الشرق الأوسط خلال الشهرين الماضيين لم تؤدِّ إلى تصعيد سيبراني واسع وفوري بالقدر الذي كان متوقعاً (شاترستوك)

خاص «غوغل كلاود» لـ«الشرق الأوسط»: هدوء سيبراني «حذر» رغم التوترات الإقليمية

تقول «غوغل كلاود» إن هدوء الهجمات لا يلغي الخطر، وإن المرونة السيبرانية تبدأ من الثغرات والاستعداد المبكر قبل التصعيد.

نسيم رمضان (لاس فيغاس)
تكنولوجيا تقدّم تعلّماً تفاعلياً للغات قائماً على المواقف اليومية بالذكاء الاصطناعي (مختبرات غوغل)

بعد عام على إطلاقها… كيف تعمل تجربة «غوغل» لتعلّم اللغات؟

بعد نحو عام على طرحها، تواصل شركة «غوغل» اختبار تجربة تعليم اللغات المدعومة بالذكاء الاصطناعي تحت اسم «Little Language Lessons»، ضمن منصتها «مختبرات غوغل».

عبد العزيز الرشيد (الرياض)

«كاسبرسكي» لـ«الشرق الأوسط»: مخاوف «أنثروبيك» تعكس تحولاً أوسع بالمخاطر السيبرانية

تكشف المخاوف المرتبطة بنموذج «أنثروبيك» عن تحول أوسع في المخاطر السيبرانية (رويترز)
تكشف المخاوف المرتبطة بنموذج «أنثروبيك» عن تحول أوسع في المخاطر السيبرانية (رويترز)
TT

«كاسبرسكي» لـ«الشرق الأوسط»: مخاوف «أنثروبيك» تعكس تحولاً أوسع بالمخاطر السيبرانية

تكشف المخاوف المرتبطة بنموذج «أنثروبيك» عن تحول أوسع في المخاطر السيبرانية (رويترز)
تكشف المخاوف المرتبطة بنموذج «أنثروبيك» عن تحول أوسع في المخاطر السيبرانية (رويترز)

لم يكن الاجتماع الطارئ الذي جمع في أبريل (نيسان) الحالي وزير الخزانة الأميركي سكوت بيسنت ورئيس مجلس الاحتياطي الفيدرالي جيروم باول مع رؤساء أكبر البنوك الأميركية مجرد رد فعل على مخاوف مرتبطة بنموذج من «أنثروبيك»، بل كان مؤشراً إلى قلق أوسع حول ما إذا كان الذكاء الاصطناعي قد يدخل مرحلة يصبح فيها قادراً على تسريع اكتشاف الثغرات واستغلالها، بما يغيّر شكل المخاطر السيبرانية التي تواجهها المؤسسات المالية.

هذا هو السياق الذي يجعل القصة أكبر من اسم شركة واحدة أو نموذج واحد. فالمخاوف التي أثيرت حول نموذج «كلود ميثوس» من «أنثروبيك» لم تأتِ من كونه مجرد نموذج قوي جديد، بل من الحديث عن قدراته على اكتشاف ثغرات خطيرة، وربط نقاط ضعف متعددة في هجمات أكثر تعقيداً، وتقليص الزمن بين اكتشاف الانكشاف الأمني واستغلاله.

ماهر يمّوت الباحث الأمني الرئيسي لمنطقة الشرق الأوسط وتركيا وأفريقيا في «كاسبرسكي»

تحول أوسع للمخاطر

وفي حديثه إلى «الشرق الأوسط»، يلفت ماهر يمّوت، الباحث الأمني الرئيسي لمنطقة الشرق الأوسط وتركيا وأفريقيا في «كاسبرسكي» إلى أن القضية «ليست عن شركة واحدة»، بل عن «تحول أوسع في المخاطر السيبرانية مدفوع بالذكاء الاصطناعي». لكنه في الوقت نفسه يتجنب المبالغة، موضحاً أن من المبكر الجزم كيف ستترجم هذه القدرات إلى مخاطر فعلية على الأرض. وهذه نقطة مهمة، لأن النقاش اليوم لا يدور حول موجة مكتملة من الهجمات الجديدة بقدر ما يدور حول تغير واضح في مستوى القدرات واتجاه التهديدات.

جوهر التحول، حسب يموت، أن الذكاء الاصطناعي لم يعد يقتصر على تسريع أساليب الهجوم المعروفة، بل قد يبدأ في التأثير على مرحلة أعمق وأكثر حساسية ترتبط باكتشاف الثغرات نفسها. ولهذا يصف التطور الجاري بأنه «تصنيع التهديدات السيبرانية». فبدلاً من أن تبقى العمليات المعقدة حكراً على عدد محدود من الجهات ذات الخبرة العالية، قد يصبح بالإمكان تنفيذ هجمات أكثر تطوراً بسرعة أكبر وعلى نطاق أوسع، وبدرجة أقل من التدخل البشري المباشر.

البنوك في الجوهر

القطاع المالي كان دائماً هدفاً مفضلاً لمجرمي الإنترنت بسبب القيمة العالية للبيانات المالية وطبيعته الرابحة. لكن التهديد اليوم لا يتعلق فقط بجاذبية هذا القطاع، بل أيضاً بكونه يعمل داخل بيئات رقمية شديدة التعقيد والترابط، من الأنظمة القديمة إلى الخدمات السحابية والتطبيقات الداخلية ومقدمي الخدمات الخارجيين. أي أن الضغط الإضافي على سرعة اكتشاف الثغرات واستغلالها قد يرفع مستوى المخاطر فيه بسرعة كبيرة. ويقول يمّوت إن «القطاع المالي كان دائماً هدفاً رئيسياً لمجرمي الإنترنت بسبب القيمة العالية للبيانات المالية وطبيعته الرابحة»، مضيفاً أن الرقمنة الكبيرة وترابط الأنظمة خلقا مزيداً من الفرص أمام المهاجمين.

تحذر «كاسبرسكي» من أن نماذج الأمن والامتثال الحالية بُنيت لبيئة أبطأ قد لا تكون كافية لملاحقة تهديدات تتطور في الزمن الحقيقي (شارستوك)

الضغط الأمني القائم

تُظهر أرقام «كاسبرسكي» أن المؤسسات المالية تدخل هذه المرحلة الجديدة من موقع انكشاف قائم بالفعل. فوفقاً لبيانات «كاسبرسكي ديجيتال فوتبرنت إنتليجنس»، جرى اختراق أكثر من مليون حساب مصرفي إلكتروني عبر أكبر 100 بنك في العالم خلال 2025 بواسطة برمجيات سرقة المعلومات، مع تداول بيانات الدخول المسروقة على نطاق واسع في الإنترنت المظلم. كما سُجل أعلى متوسط لعدد الحسابات المتأثرة لكل بنك في الهند وإسبانيا والبرازيل. أهمية هذه الأرقام لا تكمن فقط في حجمها، بل في أنها تشير إلى أن البنوك لا تبدأ من وضع مستقر تماماً، بل من بيئة تواجه فيها أصلاً ضغوطاً أمنية مرتفعة.

وما يتغير جوهرياً عندما يتمكن الذكاء الاصطناعي من تحديد الثغرات بسرعة أكبر، ليس فقط أن المهاجمين يصبحون أكثر قدرة، بل إن المدافعين يخسرون الوقت. ويقول يموت إن الذكاء الاصطناعي يمكنه «تحديد الثغرات بسرعة أكبر بكثير، ما يقلص الزمن بين اكتشافها واستغلالها، ويترك المؤسسات أمام وقت أقل للاستجابة». وهذا تحدٍ كبير للمؤسسات المالية، لأن كثيراً منها لا يستطيع التحرك بالسرعة نفسها التي تتحرك بها قدرات الهجوم الجديدة، سواء بسبب تعقيد الأنظمة، أو تعدد الطبقات التشغيلية، أو اشتراطات التغيير والامتثال.

تحول هيكلي أعمق

يشدد يمّوت على أن المسألة ليست مجرد زيادة في السرعة أو الحجم أو التعقيد، بل في «تحول هيكلي أعمق». فالتهديدات المدعومة بالذكاء الاصطناعي في مراحل سابقة كانت تضخم أساليب قائمة، جاعلة التصيد أسرع، والاحتيال أكثر كفاءة، وتوليد البرمجيات الخبيثة أسهل على نطاق أوسع. غير أنها كانت لا تزال تعتمد إلى حد كبير على ثغرات معروفة أو بيانات اعتماد مسروقة أو أخطاء بشرية. أما ما يلوح الآن فهو شيء مختلف إذ يبدأ الذكاء الاصطناعي نفسه في المساهمة في أبحاث الثغرات، وهو مجال كان يحتاج تاريخياً إلى وقت طويل وخبرة نادرة. وإذا حدث ذلك على نطاق أوسع، فإن عدد نقاط الضعف القابلة للاستغلال قد يرتفع قبل أن تتمكن المؤسسات من معالجتها.

تواجه البنوك تحولاً من موقع انكشاف قائم بالفعل في ظل ارتفاع قيمة البيانات المالية وتعقيد البيئات الرقمية وترابطها (رويترز)

القدرة الدفاعية والجاهزية

لا يقدم ماهر يمّوت هذه الصورة بوصفها قصة هجومية فقط. فواحدة من أهم نقاطه أن القدرة نفسها «مهمة على الجانب الدفاعي بالقدر نفسه، إن لم تكن أكثر». فالتحليل المدعوم بالذكاء الاصطناعي يمكن أن يساعد فرق الأمن على اكتشاف الانكشافات بسرعة وعلى نطاق واسع، وترتيب أولوياتها قبل أن يصل إليها المهاجمون. وهذه نقطة أساسية، لأنها تمنع اختزال القصة في أن الذكاء الاصطناعي يقوي المهاجمين فقط. فالحقيقة، كما يطرحها، أن هذه الأدوات تعيد تشكيل ميزان الهجوم والدفاع معاً، والسؤال الحقيقي هو من يستطيع تشغيلها بسرعة وفاعلية أكبر؟

من هنا أيضاً يظهر تساؤل آخر متعلق بمدى جاهزية هذه النماذج الأمنية والتنظيمية الحالية لهذا الواقع. يمّوت يعد أن معظم نماذج الأمن السيبراني وأطره التنظيمية بُنيت لبيئة تهديدات أبطأ، قائلاً: «كانت فيها المخاطر تتطور تدريجياً، وكان لدى المدافعين وقت أطول للرصد والاستجابة». لكن في بيئة يدفعها الذكاء الاصطناعي، تصبح هذه الافتراضات أضعف. فالامتثال يبقى دورياً، بينما يتغير التهديد في الزمن الحقيقي. وتظل آليات الحوكمة قائمة على مراجعات وتقييمات مرحلية، بينما قد تتطور قدرات الهجوم بصورة أسرع بكثير. ولهذا يدعو يمّوت المؤسسات إلى «تجاوز الامتثال» وتبني مقاربات أمنية مستمرة، تقودها الاستخبارات، وقادرة على التكيف في الوقت الفعلي مع المخاطر المتغيرة بسرعة.

النقطة العمياء الكبرى

يلفت ماهر يمّوت أيضاً إلى أن أكبر النقاط العمياء لدى المؤسسات ليست غياب الوعي بالمخاطر المرتبطة بالذكاء الاصطناعي، بل «التقليل من أثره العملي وسرعة تغيره». فكثير من المؤسسات ما زال يعتمد على نماذج تهديد تقليدية وتقييمات دورية، مع افتراض أن الضوابط الحالية ستبقى كافية. لكن الذكاء الاصطناعي، حسب تعبيره، يوسع في آن واحد سطح الهجوم وسهولة الوصول إلى تقنيات هجومية متقدمة. كما يشير إلى «فجوة حرجة» في فهم كيفية استخدام الذكاء الاصطناعي من جانب المهاجمين ومن جانب الموظفين، إلى جانب ضعف التركيز على قدرات الكشف التي تستطيع مواكبة التهديدات المؤتمتة والعالية الحجم وسريعة التغير.

تعد «كاسبرسكي» أن الذكاء الاصطناعي لا يقوي المهاجمين فقط بل يمكن أن يمنح فرق الدفاع أدوات أسرع لرصد الثغرات (شاترستوك)

من الثبات للتكيف

يشير يمّوت إلى أهمية رؤية البنوك والقطاعات الحيوية الأخرى أن الدفاعات الثابتة القائمة على المحيط الخارجي لم تعد كافية، وأن المطلوب هو «مقاربة أمنية مستمرة وقابلة للتكيف». وعملياً، يعني ذلك تعزيز قدرات الرصد والاستجابة في الزمن الحقيقي، وتشديد إدارة الهوية والصلاحيات، وتحقيق رؤية كاملة عبر البيئات الهجينة والسحابية. كما يعني استخدام الذكاء الاصطناعي داخل العمليات الأمنية نفسها من أجل «رصد الشذوذ بسرعة أكبر، وربط التهديدات على نطاق واسع، وتقليص زمن الاستجابة». ويضيف أن المؤسسات ينبغي أن تعمل مع شركاء موثوقين يفهمون التهديدات المتطورة، مع الحفاظ على قدرات قوية في الوقاية والاستجابة السريعة لاحتواء أي حادث والتعافي منه.

أهمية هذه القصة لا تكمن فقط فيما إذا كان نموذج من «أنثروبيك» قد تجاوز عتبة معينة، بل فيما إذا كانت المؤسسات المالية مستعدة لعالم قد تبدأ فيه أبحاث الثغرات وسرعة الاستغلال والقدرات الهجومية كلها بالتوسع بطرق جديدة. قد تكون «أنثروبيك» هي الشرارة التي فجرت النقاش، لكن الدرس الأوسع أكبر من ذلك: الذكاء الاصطناعي لم يعد مجرد أداة دفاع سيبراني أو طبقة لرفع الكفاءة. إنه أصبح جزءاً من بنية المخاطر السيبرانية نفسها.


خبراء يُحذرون: الذكاء الاصطناعي يكشف عن طرق خطيرة لتطوير أسلحة بيولوجية

مؤيدو الذكاء الاصطناعي يرون أنه يحمل إمكانات هائلة لإحداث ثورة في الطب (رويترز)
مؤيدو الذكاء الاصطناعي يرون أنه يحمل إمكانات هائلة لإحداث ثورة في الطب (رويترز)
TT

خبراء يُحذرون: الذكاء الاصطناعي يكشف عن طرق خطيرة لتطوير أسلحة بيولوجية

مؤيدو الذكاء الاصطناعي يرون أنه يحمل إمكانات هائلة لإحداث ثورة في الطب (رويترز)
مؤيدو الذكاء الاصطناعي يرون أنه يحمل إمكانات هائلة لإحداث ثورة في الطب (رويترز)

في وقت يتسارع فيه تطوّر تقنيات الذكاء الاصطناعي بوتيرة غير مسبوقة، تزيد المخاوف بشأن إساءة استخدام هذه الأدوات في مجالات حساسة وخطيرة. فبينما يُروَّج لهذه التقنيات بوصفها محركاً للابتكار العلمي والطبي، بدأت تظهر مؤشرات مقلقة إلى قدرتها على تقديم إرشادات قد تُستغل في تطوير أسلحة بيولوجية، ما يفتح الباب أمام تهديدات غير تقليدية يصعب احتواؤها.

تجربة صادمة لعالم في جامعة ستانفورد

في إحدى أمسيات الصيف الماضي، وجد الدكتور ديفيد ريلمان، عالم الأحياء الدقيقة وخبير الأمن البيولوجي في جامعة ستانفورد الأميركية، نفسه أمام موقف صادم أثناء اختباره أحد برامج الدردشة الآلية.

وكان ريلمان قد كُلّف من قبل شركة تعمل في مجال الذكاء الاصطناعي بتقييم منتجها قبل طرحه للجمهور. وخلال تلك التجربة، فوجئ بأن البرنامج لا يكتفي بالإجابة عن أسئلة عامة، بل قدّم شرحاً مفصلاً حول كيفية تعديل مسبب مرض خطير في المختبر ليصبح مقاوماً للعلاجات المعروفة، وفقاً لما نقلته صحيفة «نيويورك تايمز».

لم يتوقف الأمر عند هذا الحد، إذ عرض البرنامج أيضاً سيناريوهات دقيقة لكيفية نشر هذا المسبب المرضي، مشيراً إلى ثغرة أمنية في نظام نقل عام كبير. ووفقاً لريلمان، فقد تضمّن الشرح خطوات تهدف إلى زيادة عدد الضحايا إلى أقصى حد، مع تقليل فرص الكشف عن الجهة المنفذة.

وبسبب خطورة هذه المعلومات، طلب ريلمان عدم الكشف عن اسم المسبب المرضي أو تفاصيل إضافية، خشية أن تُستخدم في التحريض على هجمات حقيقية.

وقد أثارت هذه التجربة صدمة عميقة لديه، دفعته إلى مغادرة مكتبه لفترة قصيرة لاستعادة هدوئه. وقال: «لقد أجاب عن أسئلة لم تخطر ببالي، وبمستوى من الخبث والمكر أثار في نفسي شعوراً بالرعب».

ورغم أن الشركة المطوّرة أضافت بعض إجراءات السلامة بعد الاختبار، فإن ريلمان رأى أنها غير كافية للحد من هذه المخاطر.

خبراء يُحذّرون: النماذج الحالية تتجاوز مجرد المعلومات العامة

يُعدّ ريلمان واحداً من مجموعة محدودة من الخبراء الذين تستعين بهم شركات الذكاء الاصطناعي لتقييم المخاطر المحتملة لمنتجاتها. وفي الأشهر الأخيرة، شارك عدد منهم مع صحيفة «نيويورك تايمز» أكثر من 12 محادثة مع روبوتات دردشة.

وأظهرت هذه المحادثات أن النماذج المتاحة للجمهور قادرة على تقديم معلومات تتجاوز حدود المعرفة العامة، إذ شرحت بشكل مفصل كيفية شراء مواد وراثية خام، وتحويلها إلى أسلحة بيولوجية، بل حتى نشرها في أماكن عامة، مع اقتراح وسائل للتهرب من الكشف.

لطالما وضعت الحكومة الأميركية سيناريوهات لمواجهة تهديدات بيولوجية محتملة، تشمل استخدام بكتيريا أو فيروسات أو سموم فتاكة. ومنذ سبعينات القرن الماضي، شهد العالم عشرات الحوادث البيولوجية المحدودة، من أبرزها هجمات الرسائل الملوثة عام 2001، التي أودت بحياة 5 أميركيين.

ورغم أن الخبراء يرون أن احتمال وقوع كارثة بيولوجية كبرى لا يزال منخفضاً، فإن تداعياتها المحتملة قد تكون كارثية، إذ يمكن لسلاح بيولوجي فعّال أن يؤدي إلى وفاة ملايين الأشخاص.

الذكاء الاصطناعي يوسّع نطاق المخاطر

يشير عشرات الخبراء إلى أن الذكاء الاصطناعي يُعد من أبرز العوامل التي قد تزيد من هذه المخاطر، عبر توسيع دائرة الأفراد القادرين على الوصول إلى معلومات وأدوات كانت حكراً على المتخصصين.

فقد أصبحت بروتوكولات علمية متقدمة متاحة على الإنترنت، كما باتت الشركات تبيع مكونات جينية صناعية (DNA وRNA) مباشرة للمستهلكين. ويمكن للعلماء تقسيم أعمالهم الحساسة وإسنادها إلى مختبرات خاصة، في حين يمكن لروبوتات الدردشة المساعدة في إدارة هذه العمليات المعقدة.

وشارك كيفن إسفلت، مهندس الوراثة في معهد ماساتشوستس للتكنولوجيا، أمثلة لمحادثات مع برامج ذكاء اصطناعي. ففي إحدى الحالات، شرح أحد البرامج كيفية استخدام بالون طقس لنشر مواد بيولوجية فوق مدينة.

وفي مثال آخر، قام برنامج آخر بتصنيف مسببات الأمراض وفق قدرتها على الإضرار بقطاع الثروة الحيوانية. كما قدّم برنامج ثالث وصفة لسم جديد مستوحى من دواء للسرطان.

وأشار إسفلت إلى أن بعض هذه المعلومات كان بالغ الخطورة لدرجة لا يمكن نشرها علناً.

وفي تجربة أخرى، طلب عالم أميركي - فضّل عدم الكشف عن هويته - من أحد أنظمة الذكاء الاصطناعي تقديم «بروتوكول خطوة بخطوة» لإعادة تصنيع فيروس تسبب في جائحة سابقة.

وجاء الرد في شكل تعليمات مفصلة بلغ طولها نحو 8 آلاف كلمة، تتضمن كيفية الحصول على مكونات جينية وتجميعها. ورغم وجود بعض الأخطاء، فإن هذه المعلومات قد تكون مفيدة لشخص لديه نوايا ضارة.

تراجع الرقابة ومخاوف متزايدة

في سياق متصل، أُثيرت مخاوف بشأن تراجع الرقابة على هذه التقنيات، خصوصاً في ظل سياسات تهدف إلى تعزيز ريادة الولايات المتحدة في مجال الذكاء الاصطناعي. وقد شهدت المؤسسات المعنية بالأمن البيولوجي مغادرة عدد من كبار الخبراء دون تعويضهم، إلى جانب انخفاض ملحوظ في ميزانيات الدفاع البيولوجي.

في المقابل، يرى مؤيدو الذكاء الاصطناعي أنه يحمل إمكانات هائلة لإحداث ثورة في الطب، من خلال تسريع الأبحاث وتحليل البيانات الضخمة لاكتشاف علاجات جديدة.

كما يُشير بعض العلماء إلى أن المعلومات التي تقدمها هذه الأنظمة ليست جديدة بالكامل، وأن تطوير أسلحة بيولوجية فعّالة لا يزال يتطلب خبرة علمية عميقة وسنوات من العمل المختبري.

من جانبها، أكدت شركات التكنولوجيا الكبرى، مثل «أنثروبيك» و«أوبن إيه آي» و«غوغل»، أنها تعمل بشكل مستمر على تطوير أنظمتها وتحسين إجراءات الأمان، بهدف تحقيق توازن بين الفوائد المحتملة والمخاطر المصاحبة لهذه التقنيات.


«ميتا» توقع اتفاقية مع «أمازون ويب سيرفيسز» لتشغيل الذكاء الاصطناعي الوكيل عبر عشرات الملايين من المعالجات فائقة الأداء

معالج "غرافيتون5"
معالج "غرافيتون5"
TT

«ميتا» توقع اتفاقية مع «أمازون ويب سيرفيسز» لتشغيل الذكاء الاصطناعي الوكيل عبر عشرات الملايين من المعالجات فائقة الأداء

معالج "غرافيتون5"
معالج "غرافيتون5"

تعمل شركة «ميتا» على تطوير جيل جديد من تقنيات الذكاء الاصطناعي وتطوير تجارب غير مسبوقة للمستخدمين. ولتحقيق ذلك، تحتاج الشركة إلى جيل جديد من المعالجات، الأمر الذي توفره «أمازون ويب سيرفيسز (AWS)»، حيث تم توقيع اتفاقية بين الشركتين لاستخدام عشرات الملايين من معالجات «غرافيتون (AWS Graviton)»، ما يعكس تحولاً جوهرياً في كيفية بناء البنية التحتية للذكاء الاصطناعي.

معالج «غرافيتون 5»

وفي السابق، كانت «وحدات معالجة الرسومات (GPU)» أساسية لتدريب النماذج الضخمة، ولكن تطور «الذكاء الاصطناعي الوكيل (Agentic AI)» (وحدات برمجية مستقلة قادرة على التفكير والتخطيط وإنجاز المهام المعقدة وكأنها مستخدم يجلس أمام الكومبيوتر) يعني وجود حاجة متزايدة إلى طلب هائل على أحمال العمل التي تحتاج لموارد «معالجة مركزية (CPU)» مكثفة، مثل توليد النصوص البرمجية والبحث وتنسيق المهام متعددة الخطوات. وتم تصميم معالج «غرافيتون5» (Graviton5) خصيصاً لهذه المهام، ما يمنح «ميتا» قدرات الحوسبة اللازمة لتشغيلها بكفاءة وموثوقية.

معالجة أسرع للبيانات

ويتميز المعالج الجديد بتقديم 192 نواة وذاكرة تخزين مؤقتة أكبر بخمس مرات مقارنة بالجيل السابق، ما يخفض من زمن استجابة النوى بنسبة تصل إلى 33 في المائة، مما يعني معالجة أسرع للبيانات بنطاق ترددي أكبر، وهما شرطان أساسيان لنظم الذكاء الاصطناعي التي تتطلب تنفيذ مهام مستمرة ومتعددة الخطوات. وتم تصنيع المعالج بدقة 3 نانومتر للحصول على معالج بحجم أقل وكفاءة أعلى، ما ينجم عنه بنية تحتية بأداء أعلى بنسبة تصل إلى 25 في المائة مقارنة بالجيل السابق، مع الحفاظ على كفاءة فائقة باستهلاك الطاقة للحد من الأثر البيئي.

أعلى مستويات الأداء والأمان

كما صُممت المعالجات على نظام «إيه دبليو إس نايترو (AWS Nitro)» الذي يستخدم دارات إلكترونية وبرمجية مخصصة لتحقيق أعلى مستويات الأداء والتوافر والأمان. ويسمح هذا النظام بالوصول المباشر للعتاد الإلكتروني، مع توفير تقنيات متقدمة، مثل: «Elastic Network Adapter ENA» و«Amazon Elastic Block Store EBS»، لتشغيل البيئة الافتراضية الخاصة دون أي تأثير على الأداء.

كما يدعم المعالج تقنية «Elastic Fabric Adapter EFA» التي تتيح اتصالاً منخفض التأخير وعالي السعة بين البيئات الافتراضية المتعددة، وهو أمر بالغ الأهمية لتشغيل أعباء عمل الذكاء الاصطناعي الوكيل لدى «ميتا»، الذي يتطلب توزيع مهام واسعة النطاق على مجموعة متعددة من معالجات تعمل بتنسيق تام نحو تحقيق هدف واحد للمستخدم.