هل بياناتك في خطر؟... إليك تصنيف أكثر أدوات الذكاء الاصطناعي انتهاكاً للخصوصية

تقرير يكشف أين تذهب بياناتك ومن يقرأها!

التصنيف اعتمد على 3 محاور رئيسة هي استخدام بيانات التدريب والشفافية وجمع البيانات ومشاركتها مع أطراف ثالثة (غيتي)
التصنيف اعتمد على 3 محاور رئيسة هي استخدام بيانات التدريب والشفافية وجمع البيانات ومشاركتها مع أطراف ثالثة (غيتي)
TT

هل بياناتك في خطر؟... إليك تصنيف أكثر أدوات الذكاء الاصطناعي انتهاكاً للخصوصية

التصنيف اعتمد على 3 محاور رئيسة هي استخدام بيانات التدريب والشفافية وجمع البيانات ومشاركتها مع أطراف ثالثة (غيتي)
التصنيف اعتمد على 3 محاور رئيسة هي استخدام بيانات التدريب والشفافية وجمع البيانات ومشاركتها مع أطراف ثالثة (غيتي)

في الوقت الذي تُحدث فيه تقنيات الذكاء الاصطناعي ثورة في طريقة عملنا وتعلمنا وتواصلنا، تزداد وتيرة الاعتماد على نماذج اللغة الكبيرة (LLMs) والأدوات التوليدية، مثل «تشات جي بي تي» وأمثاله. هذه الأدوات توفر للمستخدمين راحة وكفاءة غير مسبوقتين، ولكن تأتي هذه الراحة على حساب الخصوصية أحياناً.

تقرير جديد صادر عن «إنكوغني» (Incogni) يلقي الضوء على كيفية تعامل أبرز منصات الذكاء الاصطناعي مع بيانات المستخدمين، كاشفاً عن فروق كبيرة في مدى احترام الخصوصية والشفافية.

بين الابتكار والانتهاك

مع تسارع انتشار أدوات الذكاء الاصطناعي، نادراً ما يسأل المستخدمون: من يرى ما أكتبه؟ وما مصير تلك البيانات؟ تعتمد هذه النماذج في تدريبها وتحسين أدائها على البيانات بما فيها ما يدخله المستخدمون بأنفسهم. لكن طريقة استخدام تلك البيانات تختلف بشكل كبير من منصة إلى أخرى.

قامت«إنكوغني» بتحليل تسع منصات رائدة باستخدام 11 معياراً متعلقاً بالخصوصية، لتقييم مدى التزامها بحماية معلومات المستخدمين.

تقرير «إنكوغني» 2025 يصنّف أبرز منصات الذكاء الاصطناعي بحسب مدى احترامها لخصوصية المستخدمين بناءً على 11 معياراً دقيقاً (غيتي)

منصات تجمع بين الأداء والخصوصية

1. Le Chat (Mistral AI)

جاءت هذه المنصة في المرتبة الأولى، بفضل جمعها المحدود للبيانات، وإتاحة خيار عدم مشاركة بيانات المستخدم مع النموذج. رغم أن الشفافية ليست مثالية، فإنها تُعدّ الأكثر احتراماً للخصوصية.

2. ChatGPT (OpenAI)

حلّت «ChatGPT» في المرتبة الثانية، بفضل سياسات واضحة تتيح للمستخدمين إلغاء مشاركة المحادثات مع النظام، إلى جانب توفير وثائق خصوصية سهلة الوصول والفهم.

3. Grok (xAI)

نموذج «غروك» من شركة «xAI» احتل المركز الثالث. وتبين أنه يتمتع بأداء جيد فيما يتعلق بالخصوصية، لكنه متأخر نسبياً في مجالات الشفافية ومشاركة البيانات.

كما جاءت نماذج «Claude» من شركة «Anthropic» في مرتبة قريبة، وإن كانت هناك بعض المخاوف حول كيفية تفاعلها مع بيانات المستخدم.

من جاء في قاع التصنيف؟

احتلت الشركات التقنية الكبرى المراتب الأدنى في التصنيف. جاءت «ميتا إيه آي» (Meta AI) في ذيل القائمة، تليها «جيمناي» (Gemini) من «غوغل» و«كوبايلوت» من «مايكروسوفت». وُجد أن هذه المنصات لا تتيح للمستخدمين خيار إلغاء استخدام محادثاتهم لأغراض التدريب. كما أنها تشارك البيانات داخلياً، وأحياناً مع جهات خارجية. وأيضاً تستخدم سياسات خصوصية عامة وغامضة لا تفصل كيفية تعاملها مع بيانات الذكاء الاصطناعي تحديداً.

يشكل التقرير أداة مهمة لتوعية المستخدمين ودفع الشركات نحو الشفافية ودعم الجهات التنظيمية في وضع تشريعات رقمية عادلة (أدوبي)

المعايير المتبعة

اعتمدت «إنكوغني» في تصنيفها لمدى احترام منصات الذكاء الاصطناعي للخصوصية على ثلاث فئات رئيسة من المعايير، تشكل مجتمعة صورة شاملة لكيفية تعامل كل منصة مع بيانات المستخدم.

المعيار الأول يتمثل في استخدام بيانات التدريب، ويقيس ما إذا كانت المنصات تستخدم محادثات المستخدمين في تدريب نماذجها، وما إذا كان بإمكان المستخدم إلغاء هذا الاستخدام. أظهرت النتائج أن منصات مثل OpenAI وMicrosoft وMistral وxAI تتيح للمستخدمين خيار الانسحاب من عملية استخدام بياناتهم لأغراض التدريب، وهو ما يُعدُّ خطوة مهمة نحو تعزيز التحكم الشخصي. في المقابل، لا توفر منصات مثل Google وMeta وDeepSeek وPi AI هذا الخيار؛ ما يثير تساؤلات حول مدى التزامها بمنح المستخدمين حرية الاختيار. من جهة أخرى، تميزت نماذج «كلود» (Claude) التابعة لشركة «أنثروبيك» (Anthropic) بعدم استخدامها بيانات المستخدمين في التدريب على الإطلاق.

أما المعيار الثاني، فهو الشفافية، والذي يقيّم مدى وضوح المنصة في شرح سياساتها المتعلقة بجمع البيانات واستخدامها. في هذا المجال، حصلت OpenAI وAnthropic وMistral وxAI على أعلى التقييمات، بفضل وثائقها الواضحة وسهولة الوصول. في المقابل، جاءت «مايكروسوفت» و«ميتا» في مرتبة أقل نظراً لصعوبة الوصول إلى التفاصيل الدقيقة في وثائقهما، بينما لجأت «غوغل» و«ديب سيك» و«باي إيه آي» و«Pi AI» إلى دفن المعلومات المهمة داخل سياسات خصوصية مطوّلة يصعب على المستخدم العادي تتبعها أو فهمها.

أما الفئة الثالثة والأخيرة، فهي جمع البيانات ومشاركتها، حيث ركّز التقييم على نوعية البيانات التي تجمعها التطبيقات، وما إذا كانت تشارك هذه البيانات مع أطراف خارجية. برزت منصتا «Le Chat» و«Pi AI» أكثر الأدوات احتراماً لخصوصية المستخدم في هذا الجانب؛ إذ جمعتا الحد الأدنى من بيانات الهاتف المحمول. على النقيض، كشفت الدراسة عن أن «Meta AI» و«Gemini» و«Grok» تجمع كميات كبيرة من البيانات الحساسة مثل الموقع الجغرافي، الصور، وأرقام الهواتف، بل وتقوم أحياناً بمشاركتها مع جهات خارجية؛ وهو ما يشكل مصدر قلق حقيقي فيما يخص أمن المعلومات الشخصية.

تطبيقات الهواتف المحمولة

نظراً لأن عدداً كبيراً من المستخدمين يتفاعلون مع أدوات الذكاء الاصطناعي من خلال تطبيقات الهواتف الذكية، شمل تقرير «إنكوغني» أيضاً تحليلاً دقيقاً لإصدارات «آي أو إس» (iOS) و«أندرويد» (Android) الخاصة بهذه المنصات؛ بهدف تقييم مستوى الأمان والخصوصية في بيئة الهاتف المحمول.

وقد أظهر التحليل تبايناً واضحاً في مستويات جمع البيانات بين التطبيقات. في المقدمة، جاء تطبيقا «Le Chat» و«Pi AI» أكثر التطبيقات التزاماً بالخصوصية، حيث اقتصر جمع البيانات فيهما على الحد الأدنى؛ ما جعلهما من بين الخيارات الأكثر أماناً للمستخدمين على الهاتف.

أما تطبيق «تشات جي بي تي» فصُنّف في فئة المخاطر المتوسطة؛ إذ يجمع بعض البيانات، لكنها لا تُقارن من حيث الكم أو النوع مع المنصات الأخرى الأقل احتراماً للخصوصية.

في المقابل، احتلت تطبيقات «Grok» و«Claude» و«Gemini» و«DeepSeek» مرتبة عالية في مستوى جمع البيانات، في حين جاءت «Meta AI» في ذيل القائمة بوصفها الأسوأ من حيث الخصوصية. فقد تبين أنها تجمع مجموعة كبيرة من البيانات الحساسة مثل الاسم والموقع الجغرافي والبريد الإلكتروني، بل وتقوم بمشاركة هذه المعلومات أحياناً مع أطراف خارجية؛ ما يُثير قلقاً كبيراً بشأن حماية معلومات المستخدمين الشخصية في بيئة الهاتف المحمول.

كشف تحليل إصدارات تطبيقات الهواتف عن أن جمع البيانات على الأجهزة المحمولة قد يكون أكثر تدخلاً وخطورة من استخدام المنصة على الويب (أدوبي)

ما أهمية التصنيف؟

تبرز أهمية هذا التصنيف في كونه أكثر من مجرد ترتيب تقني؛ فهو يمثل أداة توعوية وتنظيمية في آنٍ واحد، تخدم المستخدمين وصناع القرار والشركات على حد سواء.

أولاً، على مستوى الأفراد، يسهم التصنيف في توعية المستخدمين؛ إذ يسلط الضوء على كيفية تعامل كل منصة مع البيانات الشخصية، وهو أمر لا يعرفه الكثير من المستخدمين عند استخدام أدوات الذكاء الاصطناعي. ومن خلال هذا التقييم، يصبح بإمكانهم اتخاذ قرارات مبنية على وعي ومعرفة، واختيار المنصات التي تحترم خصوصيتهم فعلياً.

ثانياً، يلعب التصنيف دوراً تحفيزياً في دفع المنصات نحو مزيد من الشفافية، حيث يشكّل الضغط المجتمعي أداة فعالة لإجبار الشركات على تحسين سياساتها وتقديم خيارات أكثر وضوحاً وتحكماً للمستخدم فيما يتعلق بالبيانات التي يتم جمعها أو استخدامها.

وأخيراً، يُعدّ هذا التصنيف مفيداً أيضاً على صعيد السياسات العامة؛ إذ يساهم في تمكين الجهات التنظيمية من خلال توفير بيانات موثوقة، ومبنية على تحليل دقيق؛ ما يساعد في صياغة تشريعات رقمية أكثر توازناً وحداثة تستجيب للتطورات المتسارعة في عالم الذكاء الاصطناعي.

الخيارات أمام المستخدم

أما بالنسبة للمستخدم، فإن التقرير يقدم مجموعة من الخيارات العملية التي يمكن اتخاذها لتعزيز الخصوصية الرقمية عند استخدام أدوات الذكاء الاصطناعي.

في البداية، يُنصح باختيار منصات مثل «Le Chat» و«ChatGPT» و«Grok»؛ كونها من الأدوات التي توفر مستوى جيداً من الشفافية وتتيح للمستخدمين التحكم الفعلي في كيفية استخدام بياناتهم، بما في ذلك إمكانية إلغاء مشاركة المحادثات في تدريب النماذج.

كما يُعدّ تعديل إعدادات الخصوصية خطوة ضرورية، حيث ينبغي على المستخدمين التأكد من تفعيل خيار الانسحاب من استخدام المحادثات في التدريب إن توفر، والاطلاع على خيارات مشاركة البيانات المتاحة في إعدادات الحساب.

أخيراً، وقبل تثبيت أي تطبيق ذكاء اصطناعي على الهاتف، من المهم مراجعة أذونات التطبيق بعناية خصوصاً تلك المتعلقة بجمع البيانات مثل الموقع الجغرافي أو جهات الاتصال أو الصور، ومعرفة ما إذا كانت تُشارك مع جهات خارجية؛ لضمان تقليل المخاطر على الخصوصية الشخصية إلى أدنى حد ممكن.

التوازن هو الحل

تستمر أدوات الذكاء الاصطناعي في دفع حدود الابتكار، ولكن كما أظهر «تصنيف خصوصية» عام 2025، ليست كل المنصات سواءً في احترام بياناتك. الدرس واضح: اختر أدوات تُصمم بخصوصيتك في الاعتبار، وادعم السياسات التي تحاسب المنصات، وساهم في بناء مستقبل رقمي لا يُضحّي بالحقوق من أجل الراحة.


مقالات ذات صلة

من لاس فيغاس... «غوغل كلاود نيكست 2026» يرسم المرحلة التالية للذكاء الاصطناعي المؤسسي

خاص تقدم «غوغل كلاود» الذكاء الاصطناعي بوصفه نموذجاً تشغيلياً متكاملاً للمؤسسات لا مجرد مجموعة أدوات منفصلة (غوغل)

من لاس فيغاس... «غوغل كلاود نيكست 2026» يرسم المرحلة التالية للذكاء الاصطناعي المؤسسي

تقدم «غوغل كلاود» في «نيكست 2026» الذكاء الاصطناعي كاختبار لجاهزية المؤسسات في البنية والبيانات والحوكمة والأمن والتشغيل.

نسيم رمضان (لاس فيغاس)
الاقتصاد جانب من ملتقى «حكومة الرقمية 2025» (الهيئة)

الحكومة السعودية تواصل تقدمها في استخدام التقنيات الناشئة لتتجاوز 76 %

أعلنت هيئة الحكومة الرقمية السعودية تقرير «مؤشر جاهزية تبنّي التقنيات الناشئة»، الذي يؤكد التطور المتسارع في جاهزية الجهات الحكومية لتبنّي التقنيات الناشئة.

«الشرق الأوسط» (الرياض)
تكنولوجيا يرى معظم الطلاب أن التقنيات المتطورة والذكاء الاصطناعي يقدمان دعماً حقيقياً للإبداع وتدوين الملاحظات والتلخيص وتوليد الأفكار (شاترستوك)

دراسة من «لينوفو»: 98 % من طلاب الجيل زد يستخدمون الذكاء الاصطناعي مسانداً يومياً

دراسة «لينوفو» تكشف اعتماد طلاب الجيل زد على الأجهزة اللوحية، والذكاء الاصطناعي للدراسة، والإبداع، والتنظيم اليومي مع أولوية للأمان، والاستدامة.

نسيم رمضان (لاس فيغاس)
خاص مراكز البيانات المدارية قد تكون مفيدة عندما تكون البيانات مولودة في الفضاء أو متسامحة مع التأخير (شاترستوك)

خاص مراكز البيانات المدارية... هل تخفف اختناق الذكاء الاصطناعي أم تبقى حلاً متخصصاً؟

تبرز مراكز البيانات المدارية كخيار ناشئ لتخفيف اختناقات طاقة الذكاء الاصطناعي، لكنها تبدو أقرب إلى حل متخصص، لا بديل شامل.

نسيم رمضان (لاس فيغاس)
تكنولوجيا إطلاق «إيمجز 2.0»: صور أدق ودعم أفضل للعربية (أ.ب)

«أوبن إيه آي» تطلق نموذجها الجديد لتوليد الصور «Images 2.0»

أعلنت شركة «أوبن إيه آي» (OpenAI) عن إطلاق نموذجها الجديد لتوليد الصور تحت اسم «Images 2.0».

عبد العزيز الرشيد (الرياض)

زوكربيرغ يُقلّص آلاف الوظائف لتمويل استثمارات الذكاء الاصطناعي

مارك زوكربيرغ مالك شركة «ميتا» (رويترز)
مارك زوكربيرغ مالك شركة «ميتا» (رويترز)
TT

زوكربيرغ يُقلّص آلاف الوظائف لتمويل استثمارات الذكاء الاصطناعي

مارك زوكربيرغ مالك شركة «ميتا» (رويترز)
مارك زوكربيرغ مالك شركة «ميتا» (رويترز)

تتصاعد وتيرة التحولات داخل كبرى شركات التكنولوجيا العالمية مع احتدام المنافسة في مجال الذكاء الاصطناعي، ما يدفع هذه الشركات إلى إعادة هيكلة مواردها البشرية والمالية بشكل جذري. وتبرز شركة «ميتا» في مقدمة هذا التوجه، إذ تسعى إلى موازنة استثماراتها الضخمة في التقنيات المستقبلية عبر إجراءات تقشفية تشمل تقليص عدد الموظفين.

وتعمل «ميتا»، المملوكة لمارك زوكربيرغ، على خفض آلاف الوظائف بهدف «تعويض» التكاليف الباهظة لاستثماراتها في مجال الذكاء الاصطناعي، التي بلغت مليارات الدولارات، حسب ما أوردته صحيفة «التليغراف».

وكانت الشركة، المالكة لمنصات «فيسبوك» و«واتساب» و«إنستغرام»، قد أعلنت يوم الخميس عن خطط لخفض نحو 10 في المائة من قوتها العاملة، في خطوة تهدف إلى تمويل توسعها الكبير في تقنيات الذكاء الاصطناعي.

ومن المتوقع أن تؤدي هذه الخطوة إلى تسريح نحو 8 آلاف موظف خلال الشهر المقبل، إضافة إلى إلغاء خطط سابقة لتوظيف ما يقارب 6 آلاف موظف جديد.

وفي مذكرة داخلية وُزّعت على موظفي الشركة واطلعت عليها وكالة «بلومبيرغ»، أوضح مسؤولون تنفيذيون أن هذه الإجراءات تأتي «في إطار الجهود المستمرة لإدارة الشركة بكفاءة أعلى، وتعويض تكاليف الاستثمارات الأخرى التي نقوم بها».

وفي الوقت ذاته، حذّرت «ميتا» مستثمريها من أن إنفاقها قد يصل إلى 169 مليار دولار (125 مليار جنيه استرليني) خلال العام الجاري، في إطار سعيها للحاق بمنافسيها، مثل «أوبن إيه آي» و«غوغل»، ضمن سباق محتدم في مجال الذكاء الاصطناعي داخل وادي السيليكون.

وتنفق الشركة مبالغ ضخمة على تطوير مراكز البيانات وتعزيز البنية التحتية اللازمة لتقنيات الذكاء الاصطناعي، كما عرض زوكربيرغ حوافز مالية كبيرة لاستقطاب الكفاءات، شملت مكافآت توقيع تصل إلى 100 مليون دولار، إلى جانب عقود متعددة السنوات قد تبلغ قيمتها نحو مليار دولار.

وتأتي هذه الخطط بعد سلسلة من عمليات التسريح الجزئية التي نفذتها «ميتا» خلال الأشهر الماضية، شملت قطاعات مختلفة، من بينها قسم مختبرات الواقع الافتراضي، حيث تم الاستغناء عن نحو 10 في المائة من الموظفين، أي ما يعادل نحو 700 عامل. ويُنظر إلى هذه الخطوات على أنها انعكاس لتراجع الرهان السابق لزوكربيرغ على «الميتافيرس» بوصفه مستقبل الشركة.

ويرى محللون أن موجة التسريحات قد لا تتوقف عند هذا الحد، إذ قد تلجأ «ميتا» إلى تقليص المزيد من الوظائف لاحقاً خلال العام، في ظل التوسع في استخدام أدوات الذكاء الاصطناعي لأتمتة العديد من المهام التي يؤديها الموظفون حالياً.


أميركا تتهم الصين بسرقة تكنولوجيا ذكاء اصطناعي

الرئيسان الأميركي دونالد ترمب والصيني شي جينبينغ (رويترز)
الرئيسان الأميركي دونالد ترمب والصيني شي جينبينغ (رويترز)
TT

أميركا تتهم الصين بسرقة تكنولوجيا ذكاء اصطناعي

الرئيسان الأميركي دونالد ترمب والصيني شي جينبينغ (رويترز)
الرئيسان الأميركي دونالد ترمب والصيني شي جينبينغ (رويترز)

اتهم البيت الأبيض الصين، اليوم الخميس، بالضلوع في سرقة الملكية الفكرية لمختبرات ذكاء اصطناعي أميركية على نطاق صناعي، وذلك في مذكرة تهدد بتوتر العلاقات قبل قمة مرتقبة بين الزعيمين الأميركي والصيني الشهر المقبل.

وكتب مايكل كراتسيوس، مدير مكتب سياسات العلوم والتكنولوجيا بالبيت الأبيض، في مذكرة جرى تداولها على وسائل التواصل الاجتماعي، وكان لصحيفة «فاينانشال تايمز» ‌السبق في ‌نشرها: «لدى الحكومة الأميركية معلومات تشير إلى ‌أن جهات أجنبية، تتمركز أساساً في الصين، منخرطة في حملات متعمدة وعلى نطاق صناعي لاستخلاص قدرات أنظمة الذكاء الاصطناعي الأميركية المتقدمة».

وأضاف: «من خلال الاستفادة من عشرات الآلاف من الحسابات الوكيلة لتفادي الرصد، واستخدام تقنيات كسر الحماية لكشف معلومات مملوكة، تقوم هذه الحملات المنسقة باستخراج القدرات بشكل منهجي من نماذج الذكاء الاصطناعي ‌الأميركية، مستغلة الخبرة ‌والابتكار الأميركيين».

وقالت السفارة الصينية في واشنطن، وفقاً لوكالة «رويترز»، إنها تعارض «الادعاءات ‌التي لا أساس لها»، مضيفة أن بكين «تولي أهمية ‌كبيرة لحماية حقوق الملكية الفكرية».

والمذكرة، التي صدرت قبل أسابيع فقط من الزيارة المرتقبة للرئيس الأميركي دونالد ترمب إلى الرئيس الصيني شي جينبينغ في بكين، تنذر ‌بزيادة التوتر في حرب تكنولوجية ممتدة بين القوتين العظميين المتنافستين، التي هدأت حدتها بفعل انفراجة تحققت أكتوبر (تشرين الأول) الماضي.

وتثير المذكرة تساؤلات أيضاً بشأن ما إذا كانت واشنطن ستسمح بشحن رقائق الذكاء الاصطناعي المتقدمة التابعة لشركة «إنفيديا» إلى الصين. وأعطت إدارة ترمب الضوء الأخضر لهذه المبيعات في يناير (كانون الثاني)، مع فرض شروط. لكن وزير التجارة الأميركي هوارد لوتنيك أشار، أمس الأربعاء، إلى أنه لم تجرِ أي شحنات حتى الآن.

وتقول المذكرة، الموجهة إلى الوكالات الحكومية، إن الإدارة «ستبحث مجموعة من الإجراءات لمساءلة الجهات الأجنبية» التي تقف وراء هذه الحملات.


من لاس فيغاس... «غوغل كلاود نيكست 2026» يرسم المرحلة التالية للذكاء الاصطناعي المؤسسي

تقدم «غوغل كلاود» الذكاء الاصطناعي بوصفه نموذجاً تشغيلياً متكاملاً للمؤسسات لا مجرد مجموعة أدوات منفصلة (غوغل)
تقدم «غوغل كلاود» الذكاء الاصطناعي بوصفه نموذجاً تشغيلياً متكاملاً للمؤسسات لا مجرد مجموعة أدوات منفصلة (غوغل)
TT

من لاس فيغاس... «غوغل كلاود نيكست 2026» يرسم المرحلة التالية للذكاء الاصطناعي المؤسسي

تقدم «غوغل كلاود» الذكاء الاصطناعي بوصفه نموذجاً تشغيلياً متكاملاً للمؤسسات لا مجرد مجموعة أدوات منفصلة (غوغل)
تقدم «غوغل كلاود» الذكاء الاصطناعي بوصفه نموذجاً تشغيلياً متكاملاً للمؤسسات لا مجرد مجموعة أدوات منفصلة (غوغل)

سعت «غوغل كلاود» في مؤتمرها السنوي «Google Cloud Next 2026» الذي حضره أكثر من 30 ألف مشارك، الأربعاء، في مدينة لاس فيغاس الأميركية، إلى تقديم صورة أوسع من مجرد سلسلة إعلانات تقنية جديدة. فمنذ اليوم الأول، بدا أن الشركة تريد وضع الحدث في إطار تحول أكبر في الذكاء الاصطناعي المؤسسي، عنوانه الانتقال من مرحلة الاستخدام التجريبي إلى مرحلة التشغيل الواسع داخل المؤسسات. هذا التحول صاغته «غوغل» تحت مفهوم «المؤسسة الوكيلة»، أي مؤسسة لا يقتصر فيها الذكاء الاصطناعي على المساعدة أو التلخيص، بل يمتد إلى بناء الوكلاء وتشغيلهم وربطهم بالبيانات والأنظمة وسير العمل اليومي.

توماس كوريان الرئيس التنفيذي لـ«غوغل كلاود» خلال كلمته الافتتاحية (غوغل)

حاول توماس كوريان الرئيس التنفيذي لـ«غوغل كلاود» أن يضع هذا الاتجاه في صياغة واضحة، مقدماً الكلمة الافتتاحية بوصفها «خريطة طريق للمؤسسة الوكيلة». وفي المعنى الذي خرج به اليوم الأول، فإن الرسالة لم تكن أن الذكاء الاصطناعي يدخل الشركات بوصفه أداة إضافية، بل إنه يدفعها نحو نموذج تشغيلي جديد، تصبح فيه البنية التحتية والبيانات والحوكمة والأمن وتطبيقات العمل أجزاء مترابطة في طبقة واحدة أكثر اعتماداً على الوكلاء. كما سعى الحدث إلى دعم هذا الطرح بأرقام تعكس الزخم الذي تريد الشركة إبرازه، قائلة إن نحو 75 في المائة من عملاء «غوغل كلاود» يستخدمون منتجاتها للذكاء الاصطناعي، وإن نماذجها الأساسية تعالج أكثر من 16 مليار رمز في الدقيقة عبر الاستخدام المباشر من العملاء.

ركائز التحول المؤسسي

على مستوى الإعلانات نفسها، كان المشهد موزعاً على 4 ركائز رئيسية. الأولى كانت «Gemini Enterprise Agent Platform» التي قدمتها «غوغل» بوصفها منصة لبناء الوكلاء الذكيين وتوسيعهم وحوكمتهم ومراقبتهم داخل المؤسسات. والثانية كانت البنية التحتية، مع الإعلان عن الجيل الثامن من وحدات «TPU» إلى جانب ما تصفه الشركة بمعمارية «AI Hypercomputer». أمّا الركيزة الثالثة فكانت «Agentic Data Cloud» التي تعكس محاولة لإعادة صياغة علاقة الذكاء الاصطناعي ببيانات المؤسسات. وجاءت الرابعة عبر «Agentic Defense» الذي يربط بين الذكاء الاصطناعي والأمن السيبراني وحماية التطبيقات والبيئات السحابية. كما أضافت الشركة طبقة رابعة موازية على مستوى الاستخدام اليومي، عبر توسيع دور «Gemini Enterprise» داخل بيئات العمل، وتقديم «Workspace Intelligence» بوصفها طبقة دلالية تربط بين أدوات مثل «جيميل» و«دوكس» و«درايف» و«ميت» و«شات». وباختصار، فإن الحدث لم يُبنَ حول إعلان نموذج جديد فقط، بل حول حزمة تقول إن المرحلة التالية من الذكاء الاصطناعي ستكون معركة تشغيل مؤسسي متكامل.

ركزت إعلانات الحدث على 4 طبقات رئيسية تشمل الوكلاء والبنية التحتية والبيانات والأمن السيبراني (غوغل)

جاهزية الخليج للذكاء المؤسسي

ما يمنح هذا الطرح وزناً أكبر بالنسبة إلى الخليج هو أن المنطقة نفسها باتت معنية بهذه المرحلة من تطور الذكاء الاصطناعي. فالنقاش هنا لم يعد يقتصر على أهمية الذكاء الاصطناعي أو الرغبة في استخدامه، بل يتجه بصورة متزايدة إلى كيفية تشغيله على نطاق أوسع داخل القطاعات الحساسة والمنظمة، مثل التمويل والاتصالات والرعاية الصحية والطاقة والخدمات اللوجستية والقطاع الحكومي. ومن هذه الزاوية، فإن ما قُدم في «نيكست 2026» لا يبدو مجرد إعلانات حدث سنوي، بل يعكس تحولاً أوسع في السوق من التركيز على الوصول إلى النماذج إلى التركيز على الجاهزية المؤسسية لتشغيلها.

وبالنسبة إلى السعودية تحديداً، فإن هذا يبرز اتجاهاً نحو نقاش أكثر ارتباطاً بالجوانب التشغيلية والتطبيقية. فالمسألة لم تعد مرتبطة فقط بالبنية الحاسوبية أو الشراكات أو إدخال أدوات الذكاء الاصطناعي إلى بعض الوظائف، بل أيضاً بكيفية دمج هذه التقنيات داخل الأنظمة والعمليات المؤسسية بصورة فعالة ومنظمة. ويشمل ذلك استخدام الذكاء الاصطناعي في بيئات خاضعة للامتثال، وتوظيفه في عمليات الشبكات والخدمات، والاستفادة من الوكلاء داخل المؤسسات مع الحفاظ على المتابعة والتدقيق والضبط المؤسسي.

المرحلة التالية من الذكاء الاصطناعي ستعتمد على قدرة المؤسسات على تشغيله على نطاق واسع داخل بيئات العمل الفعلية (شاترستوك)

حوكمة البنية الذكية

عندما تتحدث «غوغل» عن منصة لإدارة الوكلاء، أو عن هوية الوكيل، أو عن بوابة للتحكم في تفاعلاته، أو عن أدوات للمراقبة، فإن هذه ليست مجرد تفاصيل تقنية داخل منتج جديد، بل تعكس اتجاهاً أوسع في السوق نحو تشغيل الذكاء الاصطناعي داخل المؤسسات ضمن أطر واضحة وقابلة للمراجعة. وهذه نقطة مهمة لأن إحدى الرسائل الأكثر دلالة في الحدث الذي حضرته «الشرق الأوسط» كانت أن النقاش لم يعد يتمحور فقط حول القدرة على بناء وكيل ذكي، بل حول كيفية إدارة أعداد كبيرة منهم داخل المؤسسة الواحدة. وبالنسبة إلى السعودية والخليج، فإن هذا يبرز أهمية طبقات الحوكمة والمراقبة والهوية، خصوصاً مع توسع استخدام الذكاء الاصطناعي في القطاعات الحساسة.

والأمر نفسه ينطبق على البنية التحتية. فإعلانات مثل «TPU 8t» و«TPU 8i» و«AI Hypercomputer» لا تكتسب أهميتها فقط من سباق الرقائق أو من التنافس بين مزودي الحوسبة السحابية، بل أيضاً من دلالتها على أن المرحلة المقبلة من الذكاء الاصطناعي ستعتمد على بنية تحتية تدعم التدريب والاستدلال المستمر واسع النطاق. ومن هذه الزاوية، يبرز التركيز على كيفية توظيف هذه البنية في تطبيقات مؤسسية عملية عبر قطاعات متعددة.

تعكس وحدات «TPU» الجديدة التي أعلنتها «غوغل» تركيزاً واضحاً على بنية تحتية تخدم التدريب والاستدلال معاً (غوغل)

البيانات في الصدارة

ثم تأتي البيانات، وهي من العناصر الأساسية في المرحلة المقبلة. فطرح «Agentic Data Cloud» يعكس اتجاهاً متزايداً نحو تعزيز جاهزية البيانات وربطها بشكل أفضل داخل المؤسسات. وبالنسبة إلى السعودية، فإن هذه النقطة تكتسب أهمية خاصة مع تسارع التحول الرقمي في ظل «رؤية 2030» واتساع الحاجة إلى بيئات بيانات أكثر ترابطاً، بما يتيح للذكاء الاصطناعي العمل بسياق أعمال أدق وأكثر فاعلية.

وفي هذا السياق، لا تبدو طبقة الاستخدام اليومي التي تحدثت عنها «غوغل» أقل أهمية من طبقات الرقائق أو المنصات. فعندما توسع الشركة دور «Gemini Enterprise» داخل بيئة العمل، وتقدم «Workspace Intelligence» كطبقة سياقية موحدة عبر البريد والمستندات والاجتماعات والمحادثات والملفات، فهي لا تضيف مزايا إنتاجية فقط، بل ترسم تصوراً لبيئة يصبح فيها الذكاء الاصطناعي أقرب إلى جزء من التدفق اليومي للعمل، لا أداة منفصلة على الهامش. وهذه النقطة تهم المنطقة أيضاً، لأن نجاح الذكاء الاصطناعي في المؤسسات لن يُقاس فقط بما إذا كانت الإدارات التقنية قادرة على بنائه، بل بما إذا كان يمكن دمجه في العمل الفعلي للموظفين والفرق من دون زيادة التعقيد أو خلق طبقات تشغيلية منفصلة.

أوضح المؤتمر أن نجاح الذكاء الاصطناعي المؤسسي يتطلب حوكمة أوضح وبيانات أكثر ترابطاً وبنية تحتية تدعم الاستدلال المستمر (غوغل)

الأمن في الصميم

أما الأمن، فكان واحداً من أكثر المحاور التي كشفت أن السوق دخلت مرحلة أكثر واقعية. فعبر «Agentic Defense»، سعت «غوغل» إلى ربط الذكاء الاصطناعي مباشرة بالأمن السيبراني، ليس باعتباره طبقة منفصلة، بل جزءاً من المعمارية نفسها. هذه النقطة لها أهمية واضحة في المنطقة، لأن توسع الذكاء الاصطناعي داخل المؤسسات في قطاعات مثل الطاقة والاتصالات والقطاع المالي لا يمكن فصله عن سؤال الثقة والاستمرارية والقدرة على احتواء المخاطر. وكلما توسعت المؤسسات في استخدام الوكلاء وربطتهم ببياناتها وأنظمتها، أصبح الأمن جزءاً من الذكاء الاصطناعي ذاته، لا مجرد إضافة لاحقة إليه.

ومن بين الرسائل المهمة أيضاً في الحدث أن «غوغل» حاولت الجمع بين فكرتين تبدوان متوازيتين. إحداهما تقديم حزمة متكاملة ومحسنة رأسياً من جهة، والأخرى التأكيد على الانفتاح وتعدد النماذج والتكامل مع الشركاء من جهة أخرى. وهذه ليست مجرد نقطة تنافسية بين الشركات الكبرى، بل مسألة عملية للمؤسسات نفسها، خصوصاً في الأسواق التي تسعى إلى الموازنة بين التكامل التقني والمرونة التشغيلية على المدى الطويل. وبالنسبة إلى الخليج، فإن هذا التوازن بين التكامل والانفتاح يبرز كأحد الأسئلة المهمة في المرحلة المقبلة من الذكاء الاصطناعي المؤسسي.

ربما يكون أهم ما كشفه اليوم الأول من «Google Cloud Next 2026» بالنسبة إلى السعودية والخليج ليس منتجاً واحداً بعينه، بل طبيعة التحول الذي يعكسه. فالموجة الأولى من الذكاء الاصطناعي كانت تدور حول إثبات الفائدة. أما الموجة التالية، كما بدت في لاس فيغاس، فتدور حول إثبات الجاهزية. وهذا يعني أن المعركة المقبلة لن تُحسم فقط بمن يملك النموذج الأذكى، بل بمن يملك المؤسسة الأقدر على تشغيله، وضبطه، وتأمينه، وربطه ببياناته وعملياته، وتحويله من تجربة لافتة إلى قدرة يومية يمكن الوثوق بها. ومن هذه الزاوية، فإن الرسالة الأهم القادمة من الحدث ليست تقنية فقط، بل مؤسسية أيضاً: المرحلة المقبلة في الذكاء الاصطناعي في المنطقة ستكون معركة تنفيذ بقدر ما هي معركة ابتكار.