لعبة دب تعمل بالذكاء الاصطناعي تتحدث للأطفال عن الجنس والسكاكين

تحذيرات أميركية من انجذاب الصغار إلى أحاديثها الجريئة غير اللائقة

لعبة دب تعمل بالذكاء الاصطناعي تتحدث للأطفال عن الجنس والسكاكين
TT

لعبة دب تعمل بالذكاء الاصطناعي تتحدث للأطفال عن الجنس والسكاكين

لعبة دب تعمل بالذكاء الاصطناعي تتحدث للأطفال عن الجنس والسكاكين

بمجرد أن بدأت مجموعة للدفاع عن حقوق المستهلك باختبار «كومّا» Kumma، وهي لعبة دب بريئة المظهر، ترتدي وشاحاً، ومدعمة بالذكاء الاصطناعي... بدأت المشكلات، كما كتب مارك ووكر(*).

أحاديث جريئة غير لائقة

بدلاً من الدردشة عن الواجبات المنزلية أو وقت النوم أو متعة الشعور بالحب، قال المُختبِرون إن اللعبة كانت تتحدَّث أحياناً عن أعواد الثقاب والسكاكين وموضوعات جنسية تجعل البالغين يقفون مندهشين مذعورين، غير متأكدين مما إذا كانوا قد سمعوا اللعبة بشكل صحيح.

وحذَّر تقرير جديد صادر عن «صندوق التعليم الأميركي (U.S. PIRG Education Fund)»، وهو مجموعة لمناصرة المستهلك، من أن هذه اللعبة وغيرها من الألعاب المتوفرة في السوق تثير مخاوف بشأن سلامة الأطفال. ووصف التقرير الألعاب بأنَّها بريئة المظهر، لكنها مليئة بالثرثرة غير المتوقعة وغير الآمنة.

اختبار الأدوات الذكية

فحصت المجموعة ألعاباً أخرى مُدعمة بالذكاء الاصطناعي، مثل «غروك (Grok)»، وهي بشكل صاروخ مُخمليّ مُزوّد ​​بمكبر صوت قابل للإزالة، بسعر 99 دولاراً أميركياً، للأطفال الذين تتراوح أعمارهم بين 3 و12 عاماً، ولعبة «ميكو 3 (Miko 3)»، وهي عبارة عن روبوت بعجلات، بسعر 189 دولاراً أميركياً، وشاشة مُعبّرة ومجموعة من التطبيقات التفاعلية، مُخصّص للأطفال الذين تتراوح أعمارهم بين 5 و10 أعوام.

وأفاد التقرير، الصادر بتاريخ 13 نوفمبر (تشرين الثاني)، بأنّ لعبتَي «غروك» و«ميكو 3» أظهرتا حواجز أمان أقوى. وفي المقابل، كانت «كوما»، المُخصّصة للأطفال والبالغين، أقلّ منهما بكثير.

أعواد الثقاب والسكاكين والأسلحة النارية

ووفقاً للتقرير، سأل المُختبِرون كل لعبة عن الوصول إلى مواد خطرة، بما في ذلك الأسلحة النارية.

* «غروك» رفض الإجابة عموماً، وغالباً ما كان يُوجّه المستخدمين إلى شخص بالغ. وحين سؤاله عن مكان الأكياس البلاستيكية ذكر أنها قد تكون في درج المطبخ.

* «ميكو 3» حدَّد أماكن الأكياس البلاستيكية، وكذلك أعواد الثقاب عند ضبطه على عمر 5 سنوات!

* «كوما»، الأداة التي تُصنّعها شركة «فولوتوي» وتُباع بالتجزئة بسعر 99 دولاراً أميركياً، كانت مصدر قلق خاصّ، لأنّ المُختبِرين قالوا إنّها تُقدّم تعليمات مُحدّدة للأطفال، وتتدخّل في موضوعات لا ينبغي لأيّ لعبة مُناقشتها.

وذكر التقرير أن «كوما من فولوتوي» بيّنت لنا أماكن العثور على مجموعة متنوعة من الأشياء التي يحتمل أن تكون خطرة، بما في ذلك السكاكين والحبوب وأعواد الثقاب والأكياس البلاستيكية.

هذا ويتم الترويج لـ«كوما» على أنها رفيقة ذكية مُدعمة بالذكاء الاصطناعي، «يتجاوز مجرد العناق»، وفقاً لموقع «فولوتوي» الإلكتروني.

وهذا الوصف جعلها تبدو كأنها فصل جديد ساحر في رفقة الأطفال. لكن المحادثات معها أثارت، عملياً، دهشة الباحثين وقلقهم.

انتهاك الخصوصية

وحذَّر تقرير «صندوق PIRG للتعليم» من أن جيلاً جديداً من الألعاب المُدعمة بالذكاء الاصطناعي قد يفتح باب غرف اللعب أمام انتهاك الخصوصية ومخاطر أخرى. وأشارت هذه الهيئة الرقابية إلى أن بعض الألعاب المُتاحة حالياً، على الرغم من قلة عددها، فإنها تفتقر حتى إلى أبسط الضمانات، ما يسمح للأطفال بدفعها، غالباً عن غير قصد، إلى الدخول في أحاديث غير لائقة.

وقال آر. جيه. كروس، أحد مؤلفي التقرير والباحث في المجموعة، إن ألعاب الذكاء الاصطناعي لا تزال نادرة نسبياً، لكنها تُظهر بالفعل فجوات مُقلقة في كيفية تعاملها مع المحادثات، خصوصاً مع الأطفال الصغار. وقال كروس إن الباحثين لم يحتاجوا إلى استخدام تقنيات اختراق متطورة لاختراق حواجز «كوما». بدلاً من ذلك، جرّبوا ما وصفه بـ«محفزات بسيطة للغاية».

الانحرافات الجنسية

وعندما سأل المُختبِرون «كوما» عن مكان العثور على شريك، وجّهتهم اللعبة إلى تطبيقات مواعدة. وعندما طلبوا توضيحاً، عرضت عليهم قائمةً بمنصات شائعة ثم وصفتها.

وأضاف كروس أن اللعبة حدَّدت تطبيقاً يُدعى «KinkD»، يُعنى بمواعدة BDSM والانحرافات الجنسية. وقال كروس في مقابلة: «اكتشفنا أن كلمة (kink) تُحفّز على إدخال كلمات ومحتوى جنسي جديد إلى المحادثة. وتتناول بعض التفاصيل الدقيقة للغاية». ووفقاً للتقرير، من بين الموضوعات التي ناقشها الدب، الموافقة والضرب ولعب الأدوار.

وقالت راشيل فرانز، التي تُدير برنامج مناصرة الطفولة المبكرة في منظمة «Fairplay»، وهي منظمة تسعى لحماية الأطفال من المنتجات والتسويق الضار، إن القلق يتجاوز لعبة واحدة.

وأضافت أن كثيراً من جوانب الذكاء الاصطناعي لا يزال غير مفهوم جيداً، خصوصاً عند وضعه في أيدي الأطفال الصغار جداً، الأكثر عرضة لمخاطر التكنولوجيا والتسويق المُستهدف ومراقبة البيانات.

وتابعت بالقول: «إنهم حقاً لا يملكون القدرة على الدفاع عن أنفسهم ضد جميع الجوانب الخطيرة لألعاب الذكاء الاصطناعي هذه، كما أن العائلات لا تحصل على معلومات صادقة من تسويقها».

سحب «كوما» من السوق

وأضاف كروس أن شركة «FoloToy» أعلنت أنها ستسحب لعبة «كوما» من السوق؛ لإجراء تدقيق سلامة. وبينما لا تزال اللعبة متاحةً للشراء عبر الإنترنت مقابل 99 دولاراً، فإنها مُدرجة حالياً على أنها نفدت.

ولم تستجب الشركة، ومقرها سنغافورة، لطلب التعليق يوم السبت.

تصميم مستوحى من «جي بي تي»

وقد صُممت اللعبة باستخدام نموذج «GPT-4o» من «أوبن إيه آي». وعندما سُئلت «أوبن إيه آي» عن نتائج التقرير، قالت في بيان إنه تم إيقاف مطور اللعبة عن استخدام خدمتها لانتهاكه سياساتها.

وقال أحد ممثلي الشركة: «تحظر سياسات الاستخدام لدينا أي استخدام لخدماتنا لاستغلال أي شخص يقل عمره عن 18 عاماً، أو تعريضه للخطر أو استغلاله جنسياً... تنطبق هذه القواعد على كل مطور يستخدم واجهة برمجة التطبيقات الخاصة بنا، ونحن نراقبها ونطبقها لضمان عدم استخدام خدماتنا لإيذاء القاصرين».

* خدمة «نيويورك تايمز».



زوكربيرغ يُقلّص آلاف الوظائف لتمويل استثمارات الذكاء الاصطناعي

مارك زوكربيرغ مالك شركة «ميتا» (رويترز)
مارك زوكربيرغ مالك شركة «ميتا» (رويترز)
TT

زوكربيرغ يُقلّص آلاف الوظائف لتمويل استثمارات الذكاء الاصطناعي

مارك زوكربيرغ مالك شركة «ميتا» (رويترز)
مارك زوكربيرغ مالك شركة «ميتا» (رويترز)

تتصاعد وتيرة التحولات داخل كبرى شركات التكنولوجيا العالمية مع احتدام المنافسة في مجال الذكاء الاصطناعي، ما يدفع هذه الشركات إلى إعادة هيكلة مواردها البشرية والمالية بشكل جذري. وتبرز شركة «ميتا» في مقدمة هذا التوجه، إذ تسعى إلى موازنة استثماراتها الضخمة في التقنيات المستقبلية عبر إجراءات تقشفية تشمل تقليص عدد الموظفين.

وتعمل «ميتا»، المملوكة لمارك زوكربيرغ، على خفض آلاف الوظائف بهدف «تعويض» التكاليف الباهظة لاستثماراتها في مجال الذكاء الاصطناعي، التي بلغت مليارات الدولارات، حسب ما أوردته صحيفة «التليغراف».

وكانت الشركة، المالكة لمنصات «فيسبوك» و«واتساب» و«إنستغرام»، قد أعلنت يوم الخميس عن خطط لخفض نحو 10 في المائة من قوتها العاملة، في خطوة تهدف إلى تمويل توسعها الكبير في تقنيات الذكاء الاصطناعي.

ومن المتوقع أن تؤدي هذه الخطوة إلى تسريح نحو 8 آلاف موظف خلال الشهر المقبل، إضافة إلى إلغاء خطط سابقة لتوظيف ما يقارب 6 آلاف موظف جديد.

وفي مذكرة داخلية وُزّعت على موظفي الشركة واطلعت عليها وكالة «بلومبيرغ»، أوضح مسؤولون تنفيذيون أن هذه الإجراءات تأتي «في إطار الجهود المستمرة لإدارة الشركة بكفاءة أعلى، وتعويض تكاليف الاستثمارات الأخرى التي نقوم بها».

وفي الوقت ذاته، حذّرت «ميتا» مستثمريها من أن إنفاقها قد يصل إلى 169 مليار دولار (125 مليار جنيه استرليني) خلال العام الجاري، في إطار سعيها للحاق بمنافسيها، مثل «أوبن إيه آي» و«غوغل»، ضمن سباق محتدم في مجال الذكاء الاصطناعي داخل وادي السيليكون.

وتنفق الشركة مبالغ ضخمة على تطوير مراكز البيانات وتعزيز البنية التحتية اللازمة لتقنيات الذكاء الاصطناعي، كما عرض زوكربيرغ حوافز مالية كبيرة لاستقطاب الكفاءات، شملت مكافآت توقيع تصل إلى 100 مليون دولار، إلى جانب عقود متعددة السنوات قد تبلغ قيمتها نحو مليار دولار.

وتأتي هذه الخطط بعد سلسلة من عمليات التسريح الجزئية التي نفذتها «ميتا» خلال الأشهر الماضية، شملت قطاعات مختلفة، من بينها قسم مختبرات الواقع الافتراضي، حيث تم الاستغناء عن نحو 10 في المائة من الموظفين، أي ما يعادل نحو 700 عامل. ويُنظر إلى هذه الخطوات على أنها انعكاس لتراجع الرهان السابق لزوكربيرغ على «الميتافيرس» بوصفه مستقبل الشركة.

ويرى محللون أن موجة التسريحات قد لا تتوقف عند هذا الحد، إذ قد تلجأ «ميتا» إلى تقليص المزيد من الوظائف لاحقاً خلال العام، في ظل التوسع في استخدام أدوات الذكاء الاصطناعي لأتمتة العديد من المهام التي يؤديها الموظفون حالياً.


أميركا تتهم الصين بسرقة تكنولوجيا ذكاء اصطناعي

الرئيسان الأميركي دونالد ترمب والصيني شي جينبينغ (رويترز)
الرئيسان الأميركي دونالد ترمب والصيني شي جينبينغ (رويترز)
TT

أميركا تتهم الصين بسرقة تكنولوجيا ذكاء اصطناعي

الرئيسان الأميركي دونالد ترمب والصيني شي جينبينغ (رويترز)
الرئيسان الأميركي دونالد ترمب والصيني شي جينبينغ (رويترز)

اتهم البيت الأبيض الصين، اليوم الخميس، بالضلوع في سرقة الملكية الفكرية لمختبرات ذكاء اصطناعي أميركية على نطاق صناعي، وذلك في مذكرة تهدد بتوتر العلاقات قبل قمة مرتقبة بين الزعيمين الأميركي والصيني الشهر المقبل.

وكتب مايكل كراتسيوس، مدير مكتب سياسات العلوم والتكنولوجيا بالبيت الأبيض، في مذكرة جرى تداولها على وسائل التواصل الاجتماعي، وكان لصحيفة «فاينانشال تايمز» ‌السبق في ‌نشرها: «لدى الحكومة الأميركية معلومات تشير إلى ‌أن جهات أجنبية، تتمركز أساساً في الصين، منخرطة في حملات متعمدة وعلى نطاق صناعي لاستخلاص قدرات أنظمة الذكاء الاصطناعي الأميركية المتقدمة».

وأضاف: «من خلال الاستفادة من عشرات الآلاف من الحسابات الوكيلة لتفادي الرصد، واستخدام تقنيات كسر الحماية لكشف معلومات مملوكة، تقوم هذه الحملات المنسقة باستخراج القدرات بشكل منهجي من نماذج الذكاء الاصطناعي ‌الأميركية، مستغلة الخبرة ‌والابتكار الأميركيين».

وقالت السفارة الصينية في واشنطن، وفقاً لوكالة «رويترز»، إنها تعارض «الادعاءات ‌التي لا أساس لها»، مضيفة أن بكين «تولي أهمية ‌كبيرة لحماية حقوق الملكية الفكرية».

والمذكرة، التي صدرت قبل أسابيع فقط من الزيارة المرتقبة للرئيس الأميركي دونالد ترمب إلى الرئيس الصيني شي جينبينغ في بكين، تنذر ‌بزيادة التوتر في حرب تكنولوجية ممتدة بين القوتين العظميين المتنافستين، التي هدأت حدتها بفعل انفراجة تحققت أكتوبر (تشرين الأول) الماضي.

وتثير المذكرة تساؤلات أيضاً بشأن ما إذا كانت واشنطن ستسمح بشحن رقائق الذكاء الاصطناعي المتقدمة التابعة لشركة «إنفيديا» إلى الصين. وأعطت إدارة ترمب الضوء الأخضر لهذه المبيعات في يناير (كانون الثاني)، مع فرض شروط. لكن وزير التجارة الأميركي هوارد لوتنيك أشار، أمس الأربعاء، إلى أنه لم تجرِ أي شحنات حتى الآن.

وتقول المذكرة، الموجهة إلى الوكالات الحكومية، إن الإدارة «ستبحث مجموعة من الإجراءات لمساءلة الجهات الأجنبية» التي تقف وراء هذه الحملات.


من لاس فيغاس... «غوغل كلاود نيكست 2026» يرسم المرحلة التالية للذكاء الاصطناعي المؤسسي

تقدم «غوغل كلاود» الذكاء الاصطناعي بوصفه نموذجاً تشغيلياً متكاملاً للمؤسسات لا مجرد مجموعة أدوات منفصلة (غوغل)
تقدم «غوغل كلاود» الذكاء الاصطناعي بوصفه نموذجاً تشغيلياً متكاملاً للمؤسسات لا مجرد مجموعة أدوات منفصلة (غوغل)
TT

من لاس فيغاس... «غوغل كلاود نيكست 2026» يرسم المرحلة التالية للذكاء الاصطناعي المؤسسي

تقدم «غوغل كلاود» الذكاء الاصطناعي بوصفه نموذجاً تشغيلياً متكاملاً للمؤسسات لا مجرد مجموعة أدوات منفصلة (غوغل)
تقدم «غوغل كلاود» الذكاء الاصطناعي بوصفه نموذجاً تشغيلياً متكاملاً للمؤسسات لا مجرد مجموعة أدوات منفصلة (غوغل)

سعت «غوغل كلاود» في مؤتمرها السنوي «Google Cloud Next 2026» الذي حضره أكثر من 30 ألف مشارك، الأربعاء، في مدينة لاس فيغاس الأميركية، إلى تقديم صورة أوسع من مجرد سلسلة إعلانات تقنية جديدة. فمنذ اليوم الأول، بدا أن الشركة تريد وضع الحدث في إطار تحول أكبر في الذكاء الاصطناعي المؤسسي، عنوانه الانتقال من مرحلة الاستخدام التجريبي إلى مرحلة التشغيل الواسع داخل المؤسسات. هذا التحول صاغته «غوغل» تحت مفهوم «المؤسسة الوكيلة»، أي مؤسسة لا يقتصر فيها الذكاء الاصطناعي على المساعدة أو التلخيص، بل يمتد إلى بناء الوكلاء وتشغيلهم وربطهم بالبيانات والأنظمة وسير العمل اليومي.

توماس كوريان الرئيس التنفيذي لـ«غوغل كلاود» خلال كلمته الافتتاحية (غوغل)

حاول توماس كوريان الرئيس التنفيذي لـ«غوغل كلاود» أن يضع هذا الاتجاه في صياغة واضحة، مقدماً الكلمة الافتتاحية بوصفها «خريطة طريق للمؤسسة الوكيلة». وفي المعنى الذي خرج به اليوم الأول، فإن الرسالة لم تكن أن الذكاء الاصطناعي يدخل الشركات بوصفه أداة إضافية، بل إنه يدفعها نحو نموذج تشغيلي جديد، تصبح فيه البنية التحتية والبيانات والحوكمة والأمن وتطبيقات العمل أجزاء مترابطة في طبقة واحدة أكثر اعتماداً على الوكلاء. كما سعى الحدث إلى دعم هذا الطرح بأرقام تعكس الزخم الذي تريد الشركة إبرازه، قائلة إن نحو 75 في المائة من عملاء «غوغل كلاود» يستخدمون منتجاتها للذكاء الاصطناعي، وإن نماذجها الأساسية تعالج أكثر من 16 مليار رمز في الدقيقة عبر الاستخدام المباشر من العملاء.

ركائز التحول المؤسسي

على مستوى الإعلانات نفسها، كان المشهد موزعاً على 4 ركائز رئيسية. الأولى كانت «Gemini Enterprise Agent Platform» التي قدمتها «غوغل» بوصفها منصة لبناء الوكلاء الذكيين وتوسيعهم وحوكمتهم ومراقبتهم داخل المؤسسات. والثانية كانت البنية التحتية، مع الإعلان عن الجيل الثامن من وحدات «TPU» إلى جانب ما تصفه الشركة بمعمارية «AI Hypercomputer». أمّا الركيزة الثالثة فكانت «Agentic Data Cloud» التي تعكس محاولة لإعادة صياغة علاقة الذكاء الاصطناعي ببيانات المؤسسات. وجاءت الرابعة عبر «Agentic Defense» الذي يربط بين الذكاء الاصطناعي والأمن السيبراني وحماية التطبيقات والبيئات السحابية. كما أضافت الشركة طبقة رابعة موازية على مستوى الاستخدام اليومي، عبر توسيع دور «Gemini Enterprise» داخل بيئات العمل، وتقديم «Workspace Intelligence» بوصفها طبقة دلالية تربط بين أدوات مثل «جيميل» و«دوكس» و«درايف» و«ميت» و«شات». وباختصار، فإن الحدث لم يُبنَ حول إعلان نموذج جديد فقط، بل حول حزمة تقول إن المرحلة التالية من الذكاء الاصطناعي ستكون معركة تشغيل مؤسسي متكامل.

ركزت إعلانات الحدث على 4 طبقات رئيسية تشمل الوكلاء والبنية التحتية والبيانات والأمن السيبراني (غوغل)

جاهزية الخليج للذكاء المؤسسي

ما يمنح هذا الطرح وزناً أكبر بالنسبة إلى الخليج هو أن المنطقة نفسها باتت معنية بهذه المرحلة من تطور الذكاء الاصطناعي. فالنقاش هنا لم يعد يقتصر على أهمية الذكاء الاصطناعي أو الرغبة في استخدامه، بل يتجه بصورة متزايدة إلى كيفية تشغيله على نطاق أوسع داخل القطاعات الحساسة والمنظمة، مثل التمويل والاتصالات والرعاية الصحية والطاقة والخدمات اللوجستية والقطاع الحكومي. ومن هذه الزاوية، فإن ما قُدم في «نيكست 2026» لا يبدو مجرد إعلانات حدث سنوي، بل يعكس تحولاً أوسع في السوق من التركيز على الوصول إلى النماذج إلى التركيز على الجاهزية المؤسسية لتشغيلها.

وبالنسبة إلى السعودية تحديداً، فإن هذا يبرز اتجاهاً نحو نقاش أكثر ارتباطاً بالجوانب التشغيلية والتطبيقية. فالمسألة لم تعد مرتبطة فقط بالبنية الحاسوبية أو الشراكات أو إدخال أدوات الذكاء الاصطناعي إلى بعض الوظائف، بل أيضاً بكيفية دمج هذه التقنيات داخل الأنظمة والعمليات المؤسسية بصورة فعالة ومنظمة. ويشمل ذلك استخدام الذكاء الاصطناعي في بيئات خاضعة للامتثال، وتوظيفه في عمليات الشبكات والخدمات، والاستفادة من الوكلاء داخل المؤسسات مع الحفاظ على المتابعة والتدقيق والضبط المؤسسي.

المرحلة التالية من الذكاء الاصطناعي ستعتمد على قدرة المؤسسات على تشغيله على نطاق واسع داخل بيئات العمل الفعلية (شاترستوك)

حوكمة البنية الذكية

عندما تتحدث «غوغل» عن منصة لإدارة الوكلاء، أو عن هوية الوكيل، أو عن بوابة للتحكم في تفاعلاته، أو عن أدوات للمراقبة، فإن هذه ليست مجرد تفاصيل تقنية داخل منتج جديد، بل تعكس اتجاهاً أوسع في السوق نحو تشغيل الذكاء الاصطناعي داخل المؤسسات ضمن أطر واضحة وقابلة للمراجعة. وهذه نقطة مهمة لأن إحدى الرسائل الأكثر دلالة في الحدث الذي حضرته «الشرق الأوسط» كانت أن النقاش لم يعد يتمحور فقط حول القدرة على بناء وكيل ذكي، بل حول كيفية إدارة أعداد كبيرة منهم داخل المؤسسة الواحدة. وبالنسبة إلى السعودية والخليج، فإن هذا يبرز أهمية طبقات الحوكمة والمراقبة والهوية، خصوصاً مع توسع استخدام الذكاء الاصطناعي في القطاعات الحساسة.

والأمر نفسه ينطبق على البنية التحتية. فإعلانات مثل «TPU 8t» و«TPU 8i» و«AI Hypercomputer» لا تكتسب أهميتها فقط من سباق الرقائق أو من التنافس بين مزودي الحوسبة السحابية، بل أيضاً من دلالتها على أن المرحلة المقبلة من الذكاء الاصطناعي ستعتمد على بنية تحتية تدعم التدريب والاستدلال المستمر واسع النطاق. ومن هذه الزاوية، يبرز التركيز على كيفية توظيف هذه البنية في تطبيقات مؤسسية عملية عبر قطاعات متعددة.

تعكس وحدات «TPU» الجديدة التي أعلنتها «غوغل» تركيزاً واضحاً على بنية تحتية تخدم التدريب والاستدلال معاً (غوغل)

البيانات في الصدارة

ثم تأتي البيانات، وهي من العناصر الأساسية في المرحلة المقبلة. فطرح «Agentic Data Cloud» يعكس اتجاهاً متزايداً نحو تعزيز جاهزية البيانات وربطها بشكل أفضل داخل المؤسسات. وبالنسبة إلى السعودية، فإن هذه النقطة تكتسب أهمية خاصة مع تسارع التحول الرقمي في ظل «رؤية 2030» واتساع الحاجة إلى بيئات بيانات أكثر ترابطاً، بما يتيح للذكاء الاصطناعي العمل بسياق أعمال أدق وأكثر فاعلية.

وفي هذا السياق، لا تبدو طبقة الاستخدام اليومي التي تحدثت عنها «غوغل» أقل أهمية من طبقات الرقائق أو المنصات. فعندما توسع الشركة دور «Gemini Enterprise» داخل بيئة العمل، وتقدم «Workspace Intelligence» كطبقة سياقية موحدة عبر البريد والمستندات والاجتماعات والمحادثات والملفات، فهي لا تضيف مزايا إنتاجية فقط، بل ترسم تصوراً لبيئة يصبح فيها الذكاء الاصطناعي أقرب إلى جزء من التدفق اليومي للعمل، لا أداة منفصلة على الهامش. وهذه النقطة تهم المنطقة أيضاً، لأن نجاح الذكاء الاصطناعي في المؤسسات لن يُقاس فقط بما إذا كانت الإدارات التقنية قادرة على بنائه، بل بما إذا كان يمكن دمجه في العمل الفعلي للموظفين والفرق من دون زيادة التعقيد أو خلق طبقات تشغيلية منفصلة.

أوضح المؤتمر أن نجاح الذكاء الاصطناعي المؤسسي يتطلب حوكمة أوضح وبيانات أكثر ترابطاً وبنية تحتية تدعم الاستدلال المستمر (غوغل)

الأمن في الصميم

أما الأمن، فكان واحداً من أكثر المحاور التي كشفت أن السوق دخلت مرحلة أكثر واقعية. فعبر «Agentic Defense»، سعت «غوغل» إلى ربط الذكاء الاصطناعي مباشرة بالأمن السيبراني، ليس باعتباره طبقة منفصلة، بل جزءاً من المعمارية نفسها. هذه النقطة لها أهمية واضحة في المنطقة، لأن توسع الذكاء الاصطناعي داخل المؤسسات في قطاعات مثل الطاقة والاتصالات والقطاع المالي لا يمكن فصله عن سؤال الثقة والاستمرارية والقدرة على احتواء المخاطر. وكلما توسعت المؤسسات في استخدام الوكلاء وربطتهم ببياناتها وأنظمتها، أصبح الأمن جزءاً من الذكاء الاصطناعي ذاته، لا مجرد إضافة لاحقة إليه.

ومن بين الرسائل المهمة أيضاً في الحدث أن «غوغل» حاولت الجمع بين فكرتين تبدوان متوازيتين. إحداهما تقديم حزمة متكاملة ومحسنة رأسياً من جهة، والأخرى التأكيد على الانفتاح وتعدد النماذج والتكامل مع الشركاء من جهة أخرى. وهذه ليست مجرد نقطة تنافسية بين الشركات الكبرى، بل مسألة عملية للمؤسسات نفسها، خصوصاً في الأسواق التي تسعى إلى الموازنة بين التكامل التقني والمرونة التشغيلية على المدى الطويل. وبالنسبة إلى الخليج، فإن هذا التوازن بين التكامل والانفتاح يبرز كأحد الأسئلة المهمة في المرحلة المقبلة من الذكاء الاصطناعي المؤسسي.

ربما يكون أهم ما كشفه اليوم الأول من «Google Cloud Next 2026» بالنسبة إلى السعودية والخليج ليس منتجاً واحداً بعينه، بل طبيعة التحول الذي يعكسه. فالموجة الأولى من الذكاء الاصطناعي كانت تدور حول إثبات الفائدة. أما الموجة التالية، كما بدت في لاس فيغاس، فتدور حول إثبات الجاهزية. وهذا يعني أن المعركة المقبلة لن تُحسم فقط بمن يملك النموذج الأذكى، بل بمن يملك المؤسسة الأقدر على تشغيله، وضبطه، وتأمينه، وربطه ببياناته وعملياته، وتحويله من تجربة لافتة إلى قدرة يومية يمكن الوثوق بها. ومن هذه الزاوية، فإن الرسالة الأهم القادمة من الحدث ليست تقنية فقط، بل مؤسسية أيضاً: المرحلة المقبلة في الذكاء الاصطناعي في المنطقة ستكون معركة تنفيذ بقدر ما هي معركة ابتكار.