الشركات تراقب موظفيها لتحليل سلوكهم أثناء العمل

قد يعتمد بعضها على أنظمة تسيء تفسيره

الشركات تراقب موظفيها لتحليل سلوكهم أثناء العمل
TT

الشركات تراقب موظفيها لتحليل سلوكهم أثناء العمل

الشركات تراقب موظفيها لتحليل سلوكهم أثناء العمل

تعمد بعض الشركات الخاصّة إلى مراقبة الموظّفين بأنظمة قد ترتكز على أسسٍ غير موثوقة في علم السلوك.
هل تشكّلون «تهديداً داخلياً»؟ قد ترغب الشركة التي تعملون فيها بمعرفة ما إذا كنتم كذلك، إذ يخشى بعض أرباب العمل من احتمال تسريب الموظفين للمعلومات، أو سماحهم لآخرين بالوصول إلى ملفّات سريّة، أو التواصل مع الزبائن بشكلٍ غير لائق، أو حتّى إحضار مسدّسٍ إلى المكتب.
تقييم آلي للسلوك
ولمعالجة هذه المخاوف، تُخضع بعض الشركات الموظّفين لتقييمات شبه آلية وشبه مستمرّة تركّز على الموثوقية من خلال استخدام أدوات علم السلوك وأبرزها التحليل النفسي.
تشبه اللغة المحيطة بهذا النوع من مراقبة الموظفين، تلك اللغة المستخدمة داخل الدوائر الحكومية، حيث تعكف مؤسسات القطاع العام على تقييم الموظّفين الحاصلين على تصريحات أمنية للتعامل مع معلومات حسّاسة مرتبطة بالاستخبارات أو الأمن القومي. وتقدّم المنظّمات المنتجة لبرمجيات المراقبة والتحليل السلوكي لصالح الوكالات الفيدرالية أدوات مشابهة للشركات الخاصّة، إمّا بشكلٍ منفصل أو في حزم تضمّ أدوات سيبرانية أوسع.
يقول توم ميلر، الرئيس التنفيذي لشركة «كلير فورس” التي تبيع خدمات رصد التهديد الداخلي لزبائن من القطاع الخاص: «عندما نفكّر بالتهديد الداخلي بشكلٍ عام، يبدأ الموضوع من الدوائر الحكومية، ومن ثمّ يتوسّع ليطال القطاع الخاص والقطاع التجاري».
سلوك كومبيوتري
ترصد هذه البرمجيات السلوك الكومبيوتري المثير للشكّ وتبحث بعمق في تقارير رصيد الموظّف وسجلّه العدلي وتحديثات وضعه الاجتماعي، كما تستطيع مراقبة موظف معيّن لمعرفة ما إذا كان يحمّل كميات كبيرة من البيانات السحابية، وتُجري تحليلاً لمشاعره لتبيان ما إذا كان يزداد غضباً مع الوقت. وتدّعي الشركات التي تراقب التهديدات الداخلية أنّ تحليل هذه البيانات يسهم في رصد مشكلات محتملة في مكان العمل.
ولكنّ الاهتمام برصد التهديدات الداخلية في القطاع الخاص يثير الكثير من المسائل الأخلاقية حول درجة المراقبة التي يجب أن يخضع لها الموظفون غير الحكوميين، بالإضافة إلى مسألة مهمّة أخرى وهي الارتكاز على أسسٍ علمية غير موثوقة.
اعتمدت عملية منح التراخيص الأمنية الصادرة عن الحكومات الفيدرالية لعقود على تقنيات نشأت في منتصف القرن العشرين. ويرى إيفان ليسير، مدير موقع «كليرنس جوبز» المتخصص في نشر فرص العمل التي تتطلّب تصاريح أمنية، والأخبار والاستشارات في هذا المجال، أنّ «هذه الطريقة يدوية جداً، وأنّ القيادة والذهاب لمقابلة النّاس شخصياً وسيلة قديمة وتتطلّب الكثير من الوقت».
ولكنّ في عام 2018، اعتمدت مبادرة فيدرالية تحت عنوان «قوى العمل الموثوقة 2.0» تحليلاً شبه آلي للموظفين الفيدراليين يُجرى في الوقت الحقيقي. يتيح هذا البرنامج للحكومة استخدام الذكاء الصناعي لإخضاع الموظفين الذي يطلبون تصاريح أمنية أو حازوها، لـ«تدقيقٍ وتقييمٍ متواصلين» –أي تقييم يحصل على المعلومات بشكلٍ متواصل، ويُصدر التحذيرات، ويشمل تقارير ذاتية وتحليلٍاً بشرياً.
من جهته، تساءل كريس غريجالفا، المدير التقني الأوّل في شركة «بيراتون» التي تركّز في عملها على الطرف الحكومي في التحليل الداخلي: «هل يمكننا بناء نظام يتحقّق من شخصٍ ما ويستمرّ في التحقّق منه، ويتنبّه إلى تغيّر منصبه في الأنظمة القانونية والسجلّات العامّة بشكلٍ متواصل؟ هكذا وُلدت فكرة التقييمات المستمرّة»
ولكنّ الشركات الخاصّة تمضي في طريقها باستخدام برمجياتها المعزّزة بالمراقبة. لفتت ليندي كايزر، من شركة «كليرنس جوبز»، إلى أنّ «موظفي القطاع الخاص لا يواجهون صرامة استمارات التصاريح التي تتألّف من أكثر من 136 صفحة، ولكنّ الشركات الخاصة تساعد في تطوير تقنيات (المراقبة المستمرّة) لصالح الحكومة الفيدرالية»، لافتةً إلى «أنّ أي حلّ من هذا النوع سيشمل تطبيقات من القطاع الخاص».+
أخلاقيات المراقبة
وتابعت كايزر أنّ «القانون يمنح أرباب العمل درجة عالية من الحريّة للمراقبة، ليس فقط في مكان العمل، بل خارجه أيضاً، مع تفاوت درجة صراحة المعلومات التي يحصلون عليها من المراقبة».
من جهته، اعترف إريك شاو، عالم نفس إكلينيكي وباحث مشارك في دراسة نُشرت عام 2015، بوجود نقاط ضعف في نموذج المراقبة هذا، أبرزها غياب مجموعة تفرض سيطرة كاملة على عمله. يصف هذا النموذج عناصر الخطر ولكنه لا يقدّم تنبؤات دقيقة حول الشخص الذي يمثّل تهديداً حقيقياً.
ويتساءل الدكتور شو: «ماذا عن الحالات التي يملك فيها الموظّف كلّ مؤشرات الخطر ولكنّه لم يتحوّل إلى تهديدٍ داخلي؟».
بدوره، ساعد إدوارد ستروز، زميل الدكتور شو وعميل سابق في مكتب التحقيقات الفيدرالية (إف بي آي)، في تطبيق مبادئ دقيقة المسار لتحليل التواصل عبر النصوص كرسائل البريد الإلكتروني والرسائل النصية بين أرباب العمل. أسّس ستروز شركة التحليل الجنائي السيبراني «ستروز فرايدبيرغ» التي عمل فيها الدكتور شو سابقاً كمحلّل نفسي استشاري.
تستخدم حزمة البرمجيات اللغوية المسمّاة «سكاوت SCOUT» التي تقدّمها الشركة، التحليل النفسي اللغوي للبحث عن إشارات وأمور أخرى قد تدلّ على وجود مشاعر السخط كالإيذاء والغضب والملامة. وفي هذا الإطار، اعتبر ستروز أنّ «اللغة تتغيّر بشكلٍ دقيق لا ينتبه له النّاس».
أظهر أحدث اختبار منشور لهذه البرمجيات –شمل 50 مليون رسالة من نحو 69 ألف مرسل– أنّ 383 رسالة من 137 مرسلاً أُحيلت بعد ترشيحها للمراجعة من محلّل متدرّب. ولفت ستروز إلى أنّ هذا الرقم الصغير يدلّ على أنّ هذا النظام يحمي خصوصية الأشخاص لأنّه يحيل الرسائل المقلقة فقط للمراجعة البشرية. وأضاف أنّ «العدد الصغير للرسائل الإلكترونية المرصودة لهذه الغاية يجب أن يُشعِر الناس بالراحة».
خلال التجربة، أعطى البرنامج نتائج إيجابية خاطئة بمعدّل الثلث، أي وسم أحدهم بالخطر حتّى ولو لم يوحِ بذلك. وأخيراً، شدّد ستروز على وجود وسائل تساعد في اعتماد هذه المراقبة بشكلٍ أخلاقي –كتطبيق الشفافية، وتقديم الفكرة على مراحل، والحفاظ على سريّة التحليل إلّا في حال ظهور مشكلات.
* خدمة «نيويورك تايمز»



زوكربيرغ يُقلّص آلاف الوظائف لتمويل استثمارات الذكاء الاصطناعي

مارك زوكربيرغ مالك شركة «ميتا» (رويترز)
مارك زوكربيرغ مالك شركة «ميتا» (رويترز)
TT

زوكربيرغ يُقلّص آلاف الوظائف لتمويل استثمارات الذكاء الاصطناعي

مارك زوكربيرغ مالك شركة «ميتا» (رويترز)
مارك زوكربيرغ مالك شركة «ميتا» (رويترز)

تتصاعد وتيرة التحولات داخل كبرى شركات التكنولوجيا العالمية مع احتدام المنافسة في مجال الذكاء الاصطناعي، ما يدفع هذه الشركات إلى إعادة هيكلة مواردها البشرية والمالية بشكل جذري. وتبرز شركة «ميتا» في مقدمة هذا التوجه، إذ تسعى إلى موازنة استثماراتها الضخمة في التقنيات المستقبلية عبر إجراءات تقشفية تشمل تقليص عدد الموظفين.

وتعمل «ميتا»، المملوكة لمارك زوكربيرغ، على خفض آلاف الوظائف بهدف «تعويض» التكاليف الباهظة لاستثماراتها في مجال الذكاء الاصطناعي، التي بلغت مليارات الدولارات، حسب ما أوردته صحيفة «التليغراف».

وكانت الشركة، المالكة لمنصات «فيسبوك» و«واتساب» و«إنستغرام»، قد أعلنت يوم الخميس عن خطط لخفض نحو 10 في المائة من قوتها العاملة، في خطوة تهدف إلى تمويل توسعها الكبير في تقنيات الذكاء الاصطناعي.

ومن المتوقع أن تؤدي هذه الخطوة إلى تسريح نحو 8 آلاف موظف خلال الشهر المقبل، إضافة إلى إلغاء خطط سابقة لتوظيف ما يقارب 6 آلاف موظف جديد.

وفي مذكرة داخلية وُزّعت على موظفي الشركة واطلعت عليها وكالة «بلومبيرغ»، أوضح مسؤولون تنفيذيون أن هذه الإجراءات تأتي «في إطار الجهود المستمرة لإدارة الشركة بكفاءة أعلى، وتعويض تكاليف الاستثمارات الأخرى التي نقوم بها».

وفي الوقت ذاته، حذّرت «ميتا» مستثمريها من أن إنفاقها قد يصل إلى 169 مليار دولار (125 مليار جنيه استرليني) خلال العام الجاري، في إطار سعيها للحاق بمنافسيها، مثل «أوبن إيه آي» و«غوغل»، ضمن سباق محتدم في مجال الذكاء الاصطناعي داخل وادي السيليكون.

وتنفق الشركة مبالغ ضخمة على تطوير مراكز البيانات وتعزيز البنية التحتية اللازمة لتقنيات الذكاء الاصطناعي، كما عرض زوكربيرغ حوافز مالية كبيرة لاستقطاب الكفاءات، شملت مكافآت توقيع تصل إلى 100 مليون دولار، إلى جانب عقود متعددة السنوات قد تبلغ قيمتها نحو مليار دولار.

وتأتي هذه الخطط بعد سلسلة من عمليات التسريح الجزئية التي نفذتها «ميتا» خلال الأشهر الماضية، شملت قطاعات مختلفة، من بينها قسم مختبرات الواقع الافتراضي، حيث تم الاستغناء عن نحو 10 في المائة من الموظفين، أي ما يعادل نحو 700 عامل. ويُنظر إلى هذه الخطوات على أنها انعكاس لتراجع الرهان السابق لزوكربيرغ على «الميتافيرس» بوصفه مستقبل الشركة.

ويرى محللون أن موجة التسريحات قد لا تتوقف عند هذا الحد، إذ قد تلجأ «ميتا» إلى تقليص المزيد من الوظائف لاحقاً خلال العام، في ظل التوسع في استخدام أدوات الذكاء الاصطناعي لأتمتة العديد من المهام التي يؤديها الموظفون حالياً.


أميركا تتهم الصين بسرقة تكنولوجيا ذكاء اصطناعي

الرئيسان الأميركي دونالد ترمب والصيني شي جينبينغ (رويترز)
الرئيسان الأميركي دونالد ترمب والصيني شي جينبينغ (رويترز)
TT

أميركا تتهم الصين بسرقة تكنولوجيا ذكاء اصطناعي

الرئيسان الأميركي دونالد ترمب والصيني شي جينبينغ (رويترز)
الرئيسان الأميركي دونالد ترمب والصيني شي جينبينغ (رويترز)

اتهم البيت الأبيض الصين، اليوم الخميس، بالضلوع في سرقة الملكية الفكرية لمختبرات ذكاء اصطناعي أميركية على نطاق صناعي، وذلك في مذكرة تهدد بتوتر العلاقات قبل قمة مرتقبة بين الزعيمين الأميركي والصيني الشهر المقبل.

وكتب مايكل كراتسيوس، مدير مكتب سياسات العلوم والتكنولوجيا بالبيت الأبيض، في مذكرة جرى تداولها على وسائل التواصل الاجتماعي، وكان لصحيفة «فاينانشال تايمز» ‌السبق في ‌نشرها: «لدى الحكومة الأميركية معلومات تشير إلى ‌أن جهات أجنبية، تتمركز أساساً في الصين، منخرطة في حملات متعمدة وعلى نطاق صناعي لاستخلاص قدرات أنظمة الذكاء الاصطناعي الأميركية المتقدمة».

وأضاف: «من خلال الاستفادة من عشرات الآلاف من الحسابات الوكيلة لتفادي الرصد، واستخدام تقنيات كسر الحماية لكشف معلومات مملوكة، تقوم هذه الحملات المنسقة باستخراج القدرات بشكل منهجي من نماذج الذكاء الاصطناعي ‌الأميركية، مستغلة الخبرة ‌والابتكار الأميركيين».

وقالت السفارة الصينية في واشنطن، وفقاً لوكالة «رويترز»، إنها تعارض «الادعاءات ‌التي لا أساس لها»، مضيفة أن بكين «تولي أهمية ‌كبيرة لحماية حقوق الملكية الفكرية».

والمذكرة، التي صدرت قبل أسابيع فقط من الزيارة المرتقبة للرئيس الأميركي دونالد ترمب إلى الرئيس الصيني شي جينبينغ في بكين، تنذر ‌بزيادة التوتر في حرب تكنولوجية ممتدة بين القوتين العظميين المتنافستين، التي هدأت حدتها بفعل انفراجة تحققت أكتوبر (تشرين الأول) الماضي.

وتثير المذكرة تساؤلات أيضاً بشأن ما إذا كانت واشنطن ستسمح بشحن رقائق الذكاء الاصطناعي المتقدمة التابعة لشركة «إنفيديا» إلى الصين. وأعطت إدارة ترمب الضوء الأخضر لهذه المبيعات في يناير (كانون الثاني)، مع فرض شروط. لكن وزير التجارة الأميركي هوارد لوتنيك أشار، أمس الأربعاء، إلى أنه لم تجرِ أي شحنات حتى الآن.

وتقول المذكرة، الموجهة إلى الوكالات الحكومية، إن الإدارة «ستبحث مجموعة من الإجراءات لمساءلة الجهات الأجنبية» التي تقف وراء هذه الحملات.


من لاس فيغاس... «غوغل كلاود نيكست 2026» يرسم المرحلة التالية للذكاء الاصطناعي المؤسسي

تقدم «غوغل كلاود» الذكاء الاصطناعي بوصفه نموذجاً تشغيلياً متكاملاً للمؤسسات لا مجرد مجموعة أدوات منفصلة (غوغل)
تقدم «غوغل كلاود» الذكاء الاصطناعي بوصفه نموذجاً تشغيلياً متكاملاً للمؤسسات لا مجرد مجموعة أدوات منفصلة (غوغل)
TT

من لاس فيغاس... «غوغل كلاود نيكست 2026» يرسم المرحلة التالية للذكاء الاصطناعي المؤسسي

تقدم «غوغل كلاود» الذكاء الاصطناعي بوصفه نموذجاً تشغيلياً متكاملاً للمؤسسات لا مجرد مجموعة أدوات منفصلة (غوغل)
تقدم «غوغل كلاود» الذكاء الاصطناعي بوصفه نموذجاً تشغيلياً متكاملاً للمؤسسات لا مجرد مجموعة أدوات منفصلة (غوغل)

سعت «غوغل كلاود» في مؤتمرها السنوي «Google Cloud Next 2026» الذي حضره أكثر من 30 ألف مشارك، الأربعاء، في مدينة لاس فيغاس الأميركية، إلى تقديم صورة أوسع من مجرد سلسلة إعلانات تقنية جديدة. فمنذ اليوم الأول، بدا أن الشركة تريد وضع الحدث في إطار تحول أكبر في الذكاء الاصطناعي المؤسسي، عنوانه الانتقال من مرحلة الاستخدام التجريبي إلى مرحلة التشغيل الواسع داخل المؤسسات. هذا التحول صاغته «غوغل» تحت مفهوم «المؤسسة الوكيلة»، أي مؤسسة لا يقتصر فيها الذكاء الاصطناعي على المساعدة أو التلخيص، بل يمتد إلى بناء الوكلاء وتشغيلهم وربطهم بالبيانات والأنظمة وسير العمل اليومي.

توماس كوريان الرئيس التنفيذي لـ«غوغل كلاود» خلال كلمته الافتتاحية (غوغل)

حاول توماس كوريان الرئيس التنفيذي لـ«غوغل كلاود» أن يضع هذا الاتجاه في صياغة واضحة، مقدماً الكلمة الافتتاحية بوصفها «خريطة طريق للمؤسسة الوكيلة». وفي المعنى الذي خرج به اليوم الأول، فإن الرسالة لم تكن أن الذكاء الاصطناعي يدخل الشركات بوصفه أداة إضافية، بل إنه يدفعها نحو نموذج تشغيلي جديد، تصبح فيه البنية التحتية والبيانات والحوكمة والأمن وتطبيقات العمل أجزاء مترابطة في طبقة واحدة أكثر اعتماداً على الوكلاء. كما سعى الحدث إلى دعم هذا الطرح بأرقام تعكس الزخم الذي تريد الشركة إبرازه، قائلة إن نحو 75 في المائة من عملاء «غوغل كلاود» يستخدمون منتجاتها للذكاء الاصطناعي، وإن نماذجها الأساسية تعالج أكثر من 16 مليار رمز في الدقيقة عبر الاستخدام المباشر من العملاء.

ركائز التحول المؤسسي

على مستوى الإعلانات نفسها، كان المشهد موزعاً على 4 ركائز رئيسية. الأولى كانت «Gemini Enterprise Agent Platform» التي قدمتها «غوغل» بوصفها منصة لبناء الوكلاء الذكيين وتوسيعهم وحوكمتهم ومراقبتهم داخل المؤسسات. والثانية كانت البنية التحتية، مع الإعلان عن الجيل الثامن من وحدات «TPU» إلى جانب ما تصفه الشركة بمعمارية «AI Hypercomputer». أمّا الركيزة الثالثة فكانت «Agentic Data Cloud» التي تعكس محاولة لإعادة صياغة علاقة الذكاء الاصطناعي ببيانات المؤسسات. وجاءت الرابعة عبر «Agentic Defense» الذي يربط بين الذكاء الاصطناعي والأمن السيبراني وحماية التطبيقات والبيئات السحابية. كما أضافت الشركة طبقة رابعة موازية على مستوى الاستخدام اليومي، عبر توسيع دور «Gemini Enterprise» داخل بيئات العمل، وتقديم «Workspace Intelligence» بوصفها طبقة دلالية تربط بين أدوات مثل «جيميل» و«دوكس» و«درايف» و«ميت» و«شات». وباختصار، فإن الحدث لم يُبنَ حول إعلان نموذج جديد فقط، بل حول حزمة تقول إن المرحلة التالية من الذكاء الاصطناعي ستكون معركة تشغيل مؤسسي متكامل.

ركزت إعلانات الحدث على 4 طبقات رئيسية تشمل الوكلاء والبنية التحتية والبيانات والأمن السيبراني (غوغل)

جاهزية الخليج للذكاء المؤسسي

ما يمنح هذا الطرح وزناً أكبر بالنسبة إلى الخليج هو أن المنطقة نفسها باتت معنية بهذه المرحلة من تطور الذكاء الاصطناعي. فالنقاش هنا لم يعد يقتصر على أهمية الذكاء الاصطناعي أو الرغبة في استخدامه، بل يتجه بصورة متزايدة إلى كيفية تشغيله على نطاق أوسع داخل القطاعات الحساسة والمنظمة، مثل التمويل والاتصالات والرعاية الصحية والطاقة والخدمات اللوجستية والقطاع الحكومي. ومن هذه الزاوية، فإن ما قُدم في «نيكست 2026» لا يبدو مجرد إعلانات حدث سنوي، بل يعكس تحولاً أوسع في السوق من التركيز على الوصول إلى النماذج إلى التركيز على الجاهزية المؤسسية لتشغيلها.

وبالنسبة إلى السعودية تحديداً، فإن هذا يبرز اتجاهاً نحو نقاش أكثر ارتباطاً بالجوانب التشغيلية والتطبيقية. فالمسألة لم تعد مرتبطة فقط بالبنية الحاسوبية أو الشراكات أو إدخال أدوات الذكاء الاصطناعي إلى بعض الوظائف، بل أيضاً بكيفية دمج هذه التقنيات داخل الأنظمة والعمليات المؤسسية بصورة فعالة ومنظمة. ويشمل ذلك استخدام الذكاء الاصطناعي في بيئات خاضعة للامتثال، وتوظيفه في عمليات الشبكات والخدمات، والاستفادة من الوكلاء داخل المؤسسات مع الحفاظ على المتابعة والتدقيق والضبط المؤسسي.

المرحلة التالية من الذكاء الاصطناعي ستعتمد على قدرة المؤسسات على تشغيله على نطاق واسع داخل بيئات العمل الفعلية (شاترستوك)

حوكمة البنية الذكية

عندما تتحدث «غوغل» عن منصة لإدارة الوكلاء، أو عن هوية الوكيل، أو عن بوابة للتحكم في تفاعلاته، أو عن أدوات للمراقبة، فإن هذه ليست مجرد تفاصيل تقنية داخل منتج جديد، بل تعكس اتجاهاً أوسع في السوق نحو تشغيل الذكاء الاصطناعي داخل المؤسسات ضمن أطر واضحة وقابلة للمراجعة. وهذه نقطة مهمة لأن إحدى الرسائل الأكثر دلالة في الحدث الذي حضرته «الشرق الأوسط» كانت أن النقاش لم يعد يتمحور فقط حول القدرة على بناء وكيل ذكي، بل حول كيفية إدارة أعداد كبيرة منهم داخل المؤسسة الواحدة. وبالنسبة إلى السعودية والخليج، فإن هذا يبرز أهمية طبقات الحوكمة والمراقبة والهوية، خصوصاً مع توسع استخدام الذكاء الاصطناعي في القطاعات الحساسة.

والأمر نفسه ينطبق على البنية التحتية. فإعلانات مثل «TPU 8t» و«TPU 8i» و«AI Hypercomputer» لا تكتسب أهميتها فقط من سباق الرقائق أو من التنافس بين مزودي الحوسبة السحابية، بل أيضاً من دلالتها على أن المرحلة المقبلة من الذكاء الاصطناعي ستعتمد على بنية تحتية تدعم التدريب والاستدلال المستمر واسع النطاق. ومن هذه الزاوية، يبرز التركيز على كيفية توظيف هذه البنية في تطبيقات مؤسسية عملية عبر قطاعات متعددة.

تعكس وحدات «TPU» الجديدة التي أعلنتها «غوغل» تركيزاً واضحاً على بنية تحتية تخدم التدريب والاستدلال معاً (غوغل)

البيانات في الصدارة

ثم تأتي البيانات، وهي من العناصر الأساسية في المرحلة المقبلة. فطرح «Agentic Data Cloud» يعكس اتجاهاً متزايداً نحو تعزيز جاهزية البيانات وربطها بشكل أفضل داخل المؤسسات. وبالنسبة إلى السعودية، فإن هذه النقطة تكتسب أهمية خاصة مع تسارع التحول الرقمي في ظل «رؤية 2030» واتساع الحاجة إلى بيئات بيانات أكثر ترابطاً، بما يتيح للذكاء الاصطناعي العمل بسياق أعمال أدق وأكثر فاعلية.

وفي هذا السياق، لا تبدو طبقة الاستخدام اليومي التي تحدثت عنها «غوغل» أقل أهمية من طبقات الرقائق أو المنصات. فعندما توسع الشركة دور «Gemini Enterprise» داخل بيئة العمل، وتقدم «Workspace Intelligence» كطبقة سياقية موحدة عبر البريد والمستندات والاجتماعات والمحادثات والملفات، فهي لا تضيف مزايا إنتاجية فقط، بل ترسم تصوراً لبيئة يصبح فيها الذكاء الاصطناعي أقرب إلى جزء من التدفق اليومي للعمل، لا أداة منفصلة على الهامش. وهذه النقطة تهم المنطقة أيضاً، لأن نجاح الذكاء الاصطناعي في المؤسسات لن يُقاس فقط بما إذا كانت الإدارات التقنية قادرة على بنائه، بل بما إذا كان يمكن دمجه في العمل الفعلي للموظفين والفرق من دون زيادة التعقيد أو خلق طبقات تشغيلية منفصلة.

أوضح المؤتمر أن نجاح الذكاء الاصطناعي المؤسسي يتطلب حوكمة أوضح وبيانات أكثر ترابطاً وبنية تحتية تدعم الاستدلال المستمر (غوغل)

الأمن في الصميم

أما الأمن، فكان واحداً من أكثر المحاور التي كشفت أن السوق دخلت مرحلة أكثر واقعية. فعبر «Agentic Defense»، سعت «غوغل» إلى ربط الذكاء الاصطناعي مباشرة بالأمن السيبراني، ليس باعتباره طبقة منفصلة، بل جزءاً من المعمارية نفسها. هذه النقطة لها أهمية واضحة في المنطقة، لأن توسع الذكاء الاصطناعي داخل المؤسسات في قطاعات مثل الطاقة والاتصالات والقطاع المالي لا يمكن فصله عن سؤال الثقة والاستمرارية والقدرة على احتواء المخاطر. وكلما توسعت المؤسسات في استخدام الوكلاء وربطتهم ببياناتها وأنظمتها، أصبح الأمن جزءاً من الذكاء الاصطناعي ذاته، لا مجرد إضافة لاحقة إليه.

ومن بين الرسائل المهمة أيضاً في الحدث أن «غوغل» حاولت الجمع بين فكرتين تبدوان متوازيتين. إحداهما تقديم حزمة متكاملة ومحسنة رأسياً من جهة، والأخرى التأكيد على الانفتاح وتعدد النماذج والتكامل مع الشركاء من جهة أخرى. وهذه ليست مجرد نقطة تنافسية بين الشركات الكبرى، بل مسألة عملية للمؤسسات نفسها، خصوصاً في الأسواق التي تسعى إلى الموازنة بين التكامل التقني والمرونة التشغيلية على المدى الطويل. وبالنسبة إلى الخليج، فإن هذا التوازن بين التكامل والانفتاح يبرز كأحد الأسئلة المهمة في المرحلة المقبلة من الذكاء الاصطناعي المؤسسي.

ربما يكون أهم ما كشفه اليوم الأول من «Google Cloud Next 2026» بالنسبة إلى السعودية والخليج ليس منتجاً واحداً بعينه، بل طبيعة التحول الذي يعكسه. فالموجة الأولى من الذكاء الاصطناعي كانت تدور حول إثبات الفائدة. أما الموجة التالية، كما بدت في لاس فيغاس، فتدور حول إثبات الجاهزية. وهذا يعني أن المعركة المقبلة لن تُحسم فقط بمن يملك النموذج الأذكى، بل بمن يملك المؤسسة الأقدر على تشغيله، وضبطه، وتأمينه، وربطه ببياناته وعملياته، وتحويله من تجربة لافتة إلى قدرة يومية يمكن الوثوق بها. ومن هذه الزاوية، فإن الرسالة الأهم القادمة من الحدث ليست تقنية فقط، بل مؤسسية أيضاً: المرحلة المقبلة في الذكاء الاصطناعي في المنطقة ستكون معركة تنفيذ بقدر ما هي معركة ابتكار.