«المنع المظلّل» خدعة إلكترونية للحد من نشاطات مستخدمي الإنترنت

وسيلة صامتة تمارسها منصّات التواصل الاجتماعي

«المنع المظلّل» خدعة إلكترونية للحد من نشاطات مستخدمي الإنترنت
TT

«المنع المظلّل» خدعة إلكترونية للحد من نشاطات مستخدمي الإنترنت

«المنع المظلّل» خدعة إلكترونية للحد من نشاطات مستخدمي الإنترنت

يبدو أن إيلون ماسك محقّ في قوله: على منصات التواصل الاجتماعي أن تخبركم عندما تتعرّضون للمنع المظلّل.
والمنع المظلل (أو الخفي) Shadowbanning هو خدعة حديثة مستخدمة في عالم التواصل الإلكتروني، وتتم بحظر مستخدمٍ ما ومنع وصوله إلى مجتمع إلكتروني معين مثل مواقع التواصل الاجتماعي، والتظليل على ذلك المستخدم بطريقة لا يعلم بها أنه محظور أو ممنوع.
يورد جيفري فولر خبير التقنية في واشنطن مثال أستاذة الفنون جنيفر بلومر التي استخدمت «إنستغرام» للتشارك بالأعمال الفنيّة والإعلان عن الصفوف على مدى ثماني سنوات، ولكنّ دعايتها الفنية الإلكترونية توقّفت فجأة عن العمل الخريف الماضي أثناء محاولتها الإعلان عن صفّ بعنوان «تربية أولاد مناهضين للعنصرية عبر الفنّ». لم يتوقّف حسابها عن العمل ولكنّها بدأت تلاحظ أنّ عدد الإعجابات والأشخاص الذين يشاهدون منشوراتها قد تراجع بنسبة 90 في المائة بحسب لوحة عدّادات «إنستغرام».

تبيّن لاحقًا أنّ بلومر تعرّضت للمنع المظلّل، وهو نوعٌ من الرقابة الإلكترونية التي يُسمح بموجبها للمستخدم بالاستمرار في التعبير ولكن دون أن يسمعه أحد، والأسوأ من ذلك، أنّ لا أحد يُعلمه بهذا المنع. تقول بلومر (42 عاماً)، التي عانى «استوديو راديسي» الذي تملكه في بيركلي، كاليفورنيا، من صعوبة في التواصل مع الطلاب عبر «إنستغرام»: «شعرتُ وكأنّني معاقبة. هل ينزعج (إنستغرام) من كلمة مناهض للعنصرية؟».
لم تحصل الأستاذة على أجوبة، والأمر نفسه حصل مع كثرٍ غيرها ممن تعرّضوا للمنع المظلّل على «إنستغرام»، و«فيسبوك»، و«تيك توك»، و«يوتيوب» وغيرها من منصّات التواصل الاجتماعي.
المنع المظلل
تصدّرت هذه الممارسة عناوين وسائل الإعلام الشهر الماضي عندما نشر إيلون ماسك، مالك «تويتر»، دليلاً تعمّد من خلاله فضح المنع المظلّل الذي يُستخدم لقمع أصحاب الآراء المحافظة.
وقد اتضح اليوم، بعد عقدين على ثورة التواصل الاجتماعي، أنّ اعتدال المحتوى ضروري للحفاظ على سلامة النّاس والحديث المهذب. ولكنّ المستخدمين يريدون من مساحاتنا الرقمية العامّة أن تستخدم تقنيات الاعتدال الشفّافة التي تمنحنا فرصة عادلة لإسماع صوتنا.
هنا، يبرز سؤال جوهري: كيف يمكن لهذا الأمر أن يحصل في عصرٍ باتت فيه خوارزميات غير مرئية تقررّ أياً من الأصوات تعلو أو تنخفض؟
أولاً، يجب أن نتّفق على أنّ المنع المظلّل موجود لدرجة أنّ ضحاياه باتوا يعانون من التشكيك المفرط بالذات ويتساءلون: كيف يمكننا أن نعرف إذا ما كان المنشور لا يُشارك... لأنّه تحت المنع المظلّل أو لأنّه غير جيّد؟ عندما اتّهم ناشطو حركة «حياة السود مهمّة» منصّة «تيك توك» بإخضاعهم للمنع المظلّل خلال المظاهرات التي نشبت في أعقاب اغتيال جورج فلويد، ردّت المنصّة بأنّ الأمر مرتبط بخلل تقني. وفي عام 2020. قال رئيس منصّة «إنستغرام»، آدم موسيري إنّ المنع المظلّل «غير موجود» على شبكته الاجتماعية رغم استخدامه لتعريفٍ تاريخي لعملية اختيار الحسابات وإسكاتها.
المنع المظلّل حقيقة: قد يكون التعبير غير دقيق أو يُساء استخدامه أحياناً، ولكنّ معظم شركات التواصل الاجتماعي تستخدم تقنيات اعتدال تضبط نشاط النّاس التعبيري دون إعلامهم وفقاً لما ما تسمّيه هذه الشركات «حدود» المحتوى.
وقد أظهر استطلاعٌ أخيرٌ للرأي أجراه مركز الديمقراطية والتقنية أنّ واحداً من كلّ عشرة أميركيين على التواصل الاجتماعي يشتبه بأنّه يعيش في المنع المظلّل. عندما سألنا عن هذا الموضوع على «إنستغرام»، جاءت الإجابات من أشخاص يشعرون أنّهم يعيشون أو يعملون على هوامش المجتمع كأصحاب البشرة السوداء، والمدرّسين المتخصصين بتعليم الجنس، والمدافعين عن السمنة.
بدورها، بدأت شركات التواصل الاجتماعي بالاعتراف بالمنع المظلّل ولو أنّها تفضّل استخدام تعبير «تخفيف التأثير» deamplification و«تقليل الوصول» reducing reach. فقد كشفت شركة «إنستغرام» في 7 ديسمبر (كانون الأول) الماضي عن ميزة جديدة اسمها «وضع الحساب» تتيح للمستخدمين المحترفين معرفة متى يُصنّف محتواهم على أنّه «غير جدير» بالتوصية لمستخدمين آخرين. تعليقاً على الميزة الجديدة، قالت كلير ليرنر، متحدثة باسم شركة «ميتا» المالكة لـ«فيسبوك» و«إنستغرام»: «نريد أن يعي النّاس درجة الوصول التي يحقّقها محتواهم».
ومع أنّها خطوة جيّدة جداً بالاتجاه الصحيح، إلّا أنّها أتت متأخّرة.
اختزال صامت
يختبر ضحايا المنع المظلّل نوعاً من الضبط المعتدل الذي قد نطلق عليه اسم «الاختزال الصامت»، الذي ابتدعه تارليتون غيّسبي، صاحب كتاب «خدّام الإنترنت». يقول الكاتب: «عندما يقول النّاس (منع مظلّل) أو (رقابة) أو (سحب المقابض)، يحاولون التعبير بالكلمات عن شعورهم بمشكلة قوية ما يعجزون عن تحديد شكلها من الخارج وعن قلّة حيلتهم في القيام بأي شيء حيالها. لهذا السبب تكون اللغة غير دقيقة وغاضبة، ولكن غير خاطئة».
يحصل الاختزال في الجزء الأقلّ فهماً من التواصل الاجتماعي، أي التوصيات. هذه الخوارزميات التي تغوص في بحار الصور والفيديوهات والتعليقات لاصطفاء ما يظهر في صفحاتكم. يؤدّي قسم «لكم» المخصّص في منصّة «تيك توك» عملاً رائعة في اختيار المواضيع الصحيحة في هذا المجال.
ويحصل الاختزال أيضاً عندما يحدّد تطبيقٌ ما، بعض المواضيع أو الأشخاص الذين يجب أن يظهروا أقلّ على التواصل الاجتماعي.
بدورها، تقول ليرنر، المتحدّثة باسم «ميتا»، إنّ «السبب الوحيد والأكبر لتراجع وصول محتوى أحدهم للنّاس هو مستوى اهتمام الآخرين فيما ينشره - وكلّ ما زاد عدد الأشخاص الذين ينشرون المزيد من المحتوى، اشتدّت المنافسة على المواضيع التي يراها الآخرون مثيرة للاهتمام. نحن نعمل على تحجيم بعض المنشورات التي نتوقّع أنّها قد تنتهك سياساتنا».
بدأ الاختزال كجهدٍ لإخماد الرسائل الإلكترونية المزعجة ولكنّه توسّع ليطال المحتوى الذي يكاد ينتهك القواعد، من العلاجات الإعجازية إلى الادعاءات المزيّفة عن اعتداءات الحادي عشر من سبتمبر (أيلول) والمقالب الخطيرة. وكانت مستندات من «فيسبوك» نشرتها كاشفة الفساد فرانسيس هوغن، قد كشفت عن نظام معقّد لتصنيف المحتوى بواسطة خوارزميات تقيّم المنشور بناءً على عوامل كمخاطرة المحتملة على الصحة المجتمعية أو قدرته على التضليل، ومن ثمّ تخفيف ظهوره في محتوى «فيسبوك».
بدورها، فضحت «ملفات تويتر» التي نشرها ماسك تفاصيل جديدة عن أنظمة «تويتر» للاختزال والتي تُسمّى «الترشيح البصري» داخل الشركة.
في سياق متّصل، وحّدت «ميتا» ومنصّة «يوتيوب» التابعة لـ«غوغل» جهودهما لتخفيف انتشار المحتوى الإشكالي في إطار ما أسموه «الحدود». يحاجج مارك زوكربيرغ، الرئيس التنفيذي لشركة «ميتا»، بأنّه من الضروري الحدّ من وصول المحتوى الذي يصطدم بهذه «الحدود» لأنّ تطرّفه قد يزيد احتمال انتشاره.
قد لا نتفق مع زوكربيرغ على ما يعتبره «الحدود»، ولكن منصات التواصل الاجتماعي بوصفها شركات خاصة، تستطيع ممارسة حكمها التحريري الخاص. ولكنّ المشكلة هي كيف يمكن لهذه الشركات أن تستعرض خياراتها بوضوحٍ كافٍ يجعلنا نثق بها؟
شفافية التعامل
إنّ ما يحتاج للتغيير هو كيفية استعراض منصّات التواصل الاجتماعي لقواها. يقول أحد مسؤولي مركز الديمقراطية والتقنية إنّ «تخفيف ظهور المحتوى دون إبلاغ المستخدمين أصبح المعيار، ولكنّه يجب ألّا يكون كذلك».
ويضيف أنّ البداية يجب أن تكون باعتراف منصات التواصل الاجتماعي بممارستها لاختزال المحتوى من دون تنبيه كي «لا يشكّك» النّاس بأنفسهم. تستطيع هذه الشركات ببساطة الإفصاح عن بيانات مهمّة عن عدد الحسابات والمنشورات التي تضبطها بهدف الاعتدال وعن الأسباب التي دفعتها لذلك.
تمنح صفحة «وضع الحساب» الجديدة في «إنستغرام» والمتوفرة في قسم «الإعدادات» و«حسابات»، المستخدمين الذين يملكون حسابات مهنية، المزيد من المعلومات عمّا إذا كانت حساباتهم قد انتهكت القوانين وكيف انتهكتها، وما الذي منعها من الظهور في توصيات المستخدمين الآخرين.
قد تكون لائحة خيارات «وضع الحساب» الجديدة من «إنستغرام» نسختنا الفعّالة الأقرب إلى شفافية المنع المظلّل، إلّا أنّها محصورة بأصحاب الحسابات المهنية، فضلاً عن أنّها تتطلّب جهداً إضافياً للوصول إليها. ولا يزال علينا أيضاً أن نحدّد مدى صراحتها، حيث كشفت بلومر أنّ التقرير الذي تلقّته من «إنستغرام» يقول: «لم تنشروا أي شيء يؤثّر على وضع الحساب». أخيراً وليس آخراً، نحتاج نحن المستخدمون إلى قوّة المواجهة عندما تسيء الخوارزميات فهمنا أو تصدر بحقّنا حكماً خاطئاً.



زوكربيرغ يُقلّص آلاف الوظائف لتمويل استثمارات الذكاء الاصطناعي

مارك زوكربيرغ مالك شركة «ميتا» (رويترز)
مارك زوكربيرغ مالك شركة «ميتا» (رويترز)
TT

زوكربيرغ يُقلّص آلاف الوظائف لتمويل استثمارات الذكاء الاصطناعي

مارك زوكربيرغ مالك شركة «ميتا» (رويترز)
مارك زوكربيرغ مالك شركة «ميتا» (رويترز)

تتصاعد وتيرة التحولات داخل كبرى شركات التكنولوجيا العالمية مع احتدام المنافسة في مجال الذكاء الاصطناعي، ما يدفع هذه الشركات إلى إعادة هيكلة مواردها البشرية والمالية بشكل جذري. وتبرز شركة «ميتا» في مقدمة هذا التوجه، إذ تسعى إلى موازنة استثماراتها الضخمة في التقنيات المستقبلية عبر إجراءات تقشفية تشمل تقليص عدد الموظفين.

وتعمل «ميتا»، المملوكة لمارك زوكربيرغ، على خفض آلاف الوظائف بهدف «تعويض» التكاليف الباهظة لاستثماراتها في مجال الذكاء الاصطناعي، التي بلغت مليارات الدولارات، حسب ما أوردته صحيفة «التليغراف».

وكانت الشركة، المالكة لمنصات «فيسبوك» و«واتساب» و«إنستغرام»، قد أعلنت يوم الخميس عن خطط لخفض نحو 10 في المائة من قوتها العاملة، في خطوة تهدف إلى تمويل توسعها الكبير في تقنيات الذكاء الاصطناعي.

ومن المتوقع أن تؤدي هذه الخطوة إلى تسريح نحو 8 آلاف موظف خلال الشهر المقبل، إضافة إلى إلغاء خطط سابقة لتوظيف ما يقارب 6 آلاف موظف جديد.

وفي مذكرة داخلية وُزّعت على موظفي الشركة واطلعت عليها وكالة «بلومبيرغ»، أوضح مسؤولون تنفيذيون أن هذه الإجراءات تأتي «في إطار الجهود المستمرة لإدارة الشركة بكفاءة أعلى، وتعويض تكاليف الاستثمارات الأخرى التي نقوم بها».

وفي الوقت ذاته، حذّرت «ميتا» مستثمريها من أن إنفاقها قد يصل إلى 169 مليار دولار (125 مليار جنيه استرليني) خلال العام الجاري، في إطار سعيها للحاق بمنافسيها، مثل «أوبن إيه آي» و«غوغل»، ضمن سباق محتدم في مجال الذكاء الاصطناعي داخل وادي السيليكون.

وتنفق الشركة مبالغ ضخمة على تطوير مراكز البيانات وتعزيز البنية التحتية اللازمة لتقنيات الذكاء الاصطناعي، كما عرض زوكربيرغ حوافز مالية كبيرة لاستقطاب الكفاءات، شملت مكافآت توقيع تصل إلى 100 مليون دولار، إلى جانب عقود متعددة السنوات قد تبلغ قيمتها نحو مليار دولار.

وتأتي هذه الخطط بعد سلسلة من عمليات التسريح الجزئية التي نفذتها «ميتا» خلال الأشهر الماضية، شملت قطاعات مختلفة، من بينها قسم مختبرات الواقع الافتراضي، حيث تم الاستغناء عن نحو 10 في المائة من الموظفين، أي ما يعادل نحو 700 عامل. ويُنظر إلى هذه الخطوات على أنها انعكاس لتراجع الرهان السابق لزوكربيرغ على «الميتافيرس» بوصفه مستقبل الشركة.

ويرى محللون أن موجة التسريحات قد لا تتوقف عند هذا الحد، إذ قد تلجأ «ميتا» إلى تقليص المزيد من الوظائف لاحقاً خلال العام، في ظل التوسع في استخدام أدوات الذكاء الاصطناعي لأتمتة العديد من المهام التي يؤديها الموظفون حالياً.


أميركا تتهم الصين بسرقة تكنولوجيا ذكاء اصطناعي

الرئيسان الأميركي دونالد ترمب والصيني شي جينبينغ (رويترز)
الرئيسان الأميركي دونالد ترمب والصيني شي جينبينغ (رويترز)
TT

أميركا تتهم الصين بسرقة تكنولوجيا ذكاء اصطناعي

الرئيسان الأميركي دونالد ترمب والصيني شي جينبينغ (رويترز)
الرئيسان الأميركي دونالد ترمب والصيني شي جينبينغ (رويترز)

اتهم البيت الأبيض الصين، اليوم الخميس، بالضلوع في سرقة الملكية الفكرية لمختبرات ذكاء اصطناعي أميركية على نطاق صناعي، وذلك في مذكرة تهدد بتوتر العلاقات قبل قمة مرتقبة بين الزعيمين الأميركي والصيني الشهر المقبل.

وكتب مايكل كراتسيوس، مدير مكتب سياسات العلوم والتكنولوجيا بالبيت الأبيض، في مذكرة جرى تداولها على وسائل التواصل الاجتماعي، وكان لصحيفة «فاينانشال تايمز» ‌السبق في ‌نشرها: «لدى الحكومة الأميركية معلومات تشير إلى ‌أن جهات أجنبية، تتمركز أساساً في الصين، منخرطة في حملات متعمدة وعلى نطاق صناعي لاستخلاص قدرات أنظمة الذكاء الاصطناعي الأميركية المتقدمة».

وأضاف: «من خلال الاستفادة من عشرات الآلاف من الحسابات الوكيلة لتفادي الرصد، واستخدام تقنيات كسر الحماية لكشف معلومات مملوكة، تقوم هذه الحملات المنسقة باستخراج القدرات بشكل منهجي من نماذج الذكاء الاصطناعي ‌الأميركية، مستغلة الخبرة ‌والابتكار الأميركيين».

وقالت السفارة الصينية في واشنطن، وفقاً لوكالة «رويترز»، إنها تعارض «الادعاءات ‌التي لا أساس لها»، مضيفة أن بكين «تولي أهمية ‌كبيرة لحماية حقوق الملكية الفكرية».

والمذكرة، التي صدرت قبل أسابيع فقط من الزيارة المرتقبة للرئيس الأميركي دونالد ترمب إلى الرئيس الصيني شي جينبينغ في بكين، تنذر ‌بزيادة التوتر في حرب تكنولوجية ممتدة بين القوتين العظميين المتنافستين، التي هدأت حدتها بفعل انفراجة تحققت أكتوبر (تشرين الأول) الماضي.

وتثير المذكرة تساؤلات أيضاً بشأن ما إذا كانت واشنطن ستسمح بشحن رقائق الذكاء الاصطناعي المتقدمة التابعة لشركة «إنفيديا» إلى الصين. وأعطت إدارة ترمب الضوء الأخضر لهذه المبيعات في يناير (كانون الثاني)، مع فرض شروط. لكن وزير التجارة الأميركي هوارد لوتنيك أشار، أمس الأربعاء، إلى أنه لم تجرِ أي شحنات حتى الآن.

وتقول المذكرة، الموجهة إلى الوكالات الحكومية، إن الإدارة «ستبحث مجموعة من الإجراءات لمساءلة الجهات الأجنبية» التي تقف وراء هذه الحملات.


من لاس فيغاس... «غوغل كلاود نيكست 2026» يرسم المرحلة التالية للذكاء الاصطناعي المؤسسي

تقدم «غوغل كلاود» الذكاء الاصطناعي بوصفه نموذجاً تشغيلياً متكاملاً للمؤسسات لا مجرد مجموعة أدوات منفصلة (غوغل)
تقدم «غوغل كلاود» الذكاء الاصطناعي بوصفه نموذجاً تشغيلياً متكاملاً للمؤسسات لا مجرد مجموعة أدوات منفصلة (غوغل)
TT

من لاس فيغاس... «غوغل كلاود نيكست 2026» يرسم المرحلة التالية للذكاء الاصطناعي المؤسسي

تقدم «غوغل كلاود» الذكاء الاصطناعي بوصفه نموذجاً تشغيلياً متكاملاً للمؤسسات لا مجرد مجموعة أدوات منفصلة (غوغل)
تقدم «غوغل كلاود» الذكاء الاصطناعي بوصفه نموذجاً تشغيلياً متكاملاً للمؤسسات لا مجرد مجموعة أدوات منفصلة (غوغل)

سعت «غوغل كلاود» في مؤتمرها السنوي «Google Cloud Next 2026» الذي حضره أكثر من 30 ألف مشارك، الأربعاء، في مدينة لاس فيغاس الأميركية، إلى تقديم صورة أوسع من مجرد سلسلة إعلانات تقنية جديدة. فمنذ اليوم الأول، بدا أن الشركة تريد وضع الحدث في إطار تحول أكبر في الذكاء الاصطناعي المؤسسي، عنوانه الانتقال من مرحلة الاستخدام التجريبي إلى مرحلة التشغيل الواسع داخل المؤسسات. هذا التحول صاغته «غوغل» تحت مفهوم «المؤسسة الوكيلة»، أي مؤسسة لا يقتصر فيها الذكاء الاصطناعي على المساعدة أو التلخيص، بل يمتد إلى بناء الوكلاء وتشغيلهم وربطهم بالبيانات والأنظمة وسير العمل اليومي.

توماس كوريان الرئيس التنفيذي لـ«غوغل كلاود» خلال كلمته الافتتاحية (غوغل)

حاول توماس كوريان الرئيس التنفيذي لـ«غوغل كلاود» أن يضع هذا الاتجاه في صياغة واضحة، مقدماً الكلمة الافتتاحية بوصفها «خريطة طريق للمؤسسة الوكيلة». وفي المعنى الذي خرج به اليوم الأول، فإن الرسالة لم تكن أن الذكاء الاصطناعي يدخل الشركات بوصفه أداة إضافية، بل إنه يدفعها نحو نموذج تشغيلي جديد، تصبح فيه البنية التحتية والبيانات والحوكمة والأمن وتطبيقات العمل أجزاء مترابطة في طبقة واحدة أكثر اعتماداً على الوكلاء. كما سعى الحدث إلى دعم هذا الطرح بأرقام تعكس الزخم الذي تريد الشركة إبرازه، قائلة إن نحو 75 في المائة من عملاء «غوغل كلاود» يستخدمون منتجاتها للذكاء الاصطناعي، وإن نماذجها الأساسية تعالج أكثر من 16 مليار رمز في الدقيقة عبر الاستخدام المباشر من العملاء.

ركائز التحول المؤسسي

على مستوى الإعلانات نفسها، كان المشهد موزعاً على 4 ركائز رئيسية. الأولى كانت «Gemini Enterprise Agent Platform» التي قدمتها «غوغل» بوصفها منصة لبناء الوكلاء الذكيين وتوسيعهم وحوكمتهم ومراقبتهم داخل المؤسسات. والثانية كانت البنية التحتية، مع الإعلان عن الجيل الثامن من وحدات «TPU» إلى جانب ما تصفه الشركة بمعمارية «AI Hypercomputer». أمّا الركيزة الثالثة فكانت «Agentic Data Cloud» التي تعكس محاولة لإعادة صياغة علاقة الذكاء الاصطناعي ببيانات المؤسسات. وجاءت الرابعة عبر «Agentic Defense» الذي يربط بين الذكاء الاصطناعي والأمن السيبراني وحماية التطبيقات والبيئات السحابية. كما أضافت الشركة طبقة رابعة موازية على مستوى الاستخدام اليومي، عبر توسيع دور «Gemini Enterprise» داخل بيئات العمل، وتقديم «Workspace Intelligence» بوصفها طبقة دلالية تربط بين أدوات مثل «جيميل» و«دوكس» و«درايف» و«ميت» و«شات». وباختصار، فإن الحدث لم يُبنَ حول إعلان نموذج جديد فقط، بل حول حزمة تقول إن المرحلة التالية من الذكاء الاصطناعي ستكون معركة تشغيل مؤسسي متكامل.

ركزت إعلانات الحدث على 4 طبقات رئيسية تشمل الوكلاء والبنية التحتية والبيانات والأمن السيبراني (غوغل)

جاهزية الخليج للذكاء المؤسسي

ما يمنح هذا الطرح وزناً أكبر بالنسبة إلى الخليج هو أن المنطقة نفسها باتت معنية بهذه المرحلة من تطور الذكاء الاصطناعي. فالنقاش هنا لم يعد يقتصر على أهمية الذكاء الاصطناعي أو الرغبة في استخدامه، بل يتجه بصورة متزايدة إلى كيفية تشغيله على نطاق أوسع داخل القطاعات الحساسة والمنظمة، مثل التمويل والاتصالات والرعاية الصحية والطاقة والخدمات اللوجستية والقطاع الحكومي. ومن هذه الزاوية، فإن ما قُدم في «نيكست 2026» لا يبدو مجرد إعلانات حدث سنوي، بل يعكس تحولاً أوسع في السوق من التركيز على الوصول إلى النماذج إلى التركيز على الجاهزية المؤسسية لتشغيلها.

وبالنسبة إلى السعودية تحديداً، فإن هذا يبرز اتجاهاً نحو نقاش أكثر ارتباطاً بالجوانب التشغيلية والتطبيقية. فالمسألة لم تعد مرتبطة فقط بالبنية الحاسوبية أو الشراكات أو إدخال أدوات الذكاء الاصطناعي إلى بعض الوظائف، بل أيضاً بكيفية دمج هذه التقنيات داخل الأنظمة والعمليات المؤسسية بصورة فعالة ومنظمة. ويشمل ذلك استخدام الذكاء الاصطناعي في بيئات خاضعة للامتثال، وتوظيفه في عمليات الشبكات والخدمات، والاستفادة من الوكلاء داخل المؤسسات مع الحفاظ على المتابعة والتدقيق والضبط المؤسسي.

المرحلة التالية من الذكاء الاصطناعي ستعتمد على قدرة المؤسسات على تشغيله على نطاق واسع داخل بيئات العمل الفعلية (شاترستوك)

حوكمة البنية الذكية

عندما تتحدث «غوغل» عن منصة لإدارة الوكلاء، أو عن هوية الوكيل، أو عن بوابة للتحكم في تفاعلاته، أو عن أدوات للمراقبة، فإن هذه ليست مجرد تفاصيل تقنية داخل منتج جديد، بل تعكس اتجاهاً أوسع في السوق نحو تشغيل الذكاء الاصطناعي داخل المؤسسات ضمن أطر واضحة وقابلة للمراجعة. وهذه نقطة مهمة لأن إحدى الرسائل الأكثر دلالة في الحدث الذي حضرته «الشرق الأوسط» كانت أن النقاش لم يعد يتمحور فقط حول القدرة على بناء وكيل ذكي، بل حول كيفية إدارة أعداد كبيرة منهم داخل المؤسسة الواحدة. وبالنسبة إلى السعودية والخليج، فإن هذا يبرز أهمية طبقات الحوكمة والمراقبة والهوية، خصوصاً مع توسع استخدام الذكاء الاصطناعي في القطاعات الحساسة.

والأمر نفسه ينطبق على البنية التحتية. فإعلانات مثل «TPU 8t» و«TPU 8i» و«AI Hypercomputer» لا تكتسب أهميتها فقط من سباق الرقائق أو من التنافس بين مزودي الحوسبة السحابية، بل أيضاً من دلالتها على أن المرحلة المقبلة من الذكاء الاصطناعي ستعتمد على بنية تحتية تدعم التدريب والاستدلال المستمر واسع النطاق. ومن هذه الزاوية، يبرز التركيز على كيفية توظيف هذه البنية في تطبيقات مؤسسية عملية عبر قطاعات متعددة.

تعكس وحدات «TPU» الجديدة التي أعلنتها «غوغل» تركيزاً واضحاً على بنية تحتية تخدم التدريب والاستدلال معاً (غوغل)

البيانات في الصدارة

ثم تأتي البيانات، وهي من العناصر الأساسية في المرحلة المقبلة. فطرح «Agentic Data Cloud» يعكس اتجاهاً متزايداً نحو تعزيز جاهزية البيانات وربطها بشكل أفضل داخل المؤسسات. وبالنسبة إلى السعودية، فإن هذه النقطة تكتسب أهمية خاصة مع تسارع التحول الرقمي في ظل «رؤية 2030» واتساع الحاجة إلى بيئات بيانات أكثر ترابطاً، بما يتيح للذكاء الاصطناعي العمل بسياق أعمال أدق وأكثر فاعلية.

وفي هذا السياق، لا تبدو طبقة الاستخدام اليومي التي تحدثت عنها «غوغل» أقل أهمية من طبقات الرقائق أو المنصات. فعندما توسع الشركة دور «Gemini Enterprise» داخل بيئة العمل، وتقدم «Workspace Intelligence» كطبقة سياقية موحدة عبر البريد والمستندات والاجتماعات والمحادثات والملفات، فهي لا تضيف مزايا إنتاجية فقط، بل ترسم تصوراً لبيئة يصبح فيها الذكاء الاصطناعي أقرب إلى جزء من التدفق اليومي للعمل، لا أداة منفصلة على الهامش. وهذه النقطة تهم المنطقة أيضاً، لأن نجاح الذكاء الاصطناعي في المؤسسات لن يُقاس فقط بما إذا كانت الإدارات التقنية قادرة على بنائه، بل بما إذا كان يمكن دمجه في العمل الفعلي للموظفين والفرق من دون زيادة التعقيد أو خلق طبقات تشغيلية منفصلة.

أوضح المؤتمر أن نجاح الذكاء الاصطناعي المؤسسي يتطلب حوكمة أوضح وبيانات أكثر ترابطاً وبنية تحتية تدعم الاستدلال المستمر (غوغل)

الأمن في الصميم

أما الأمن، فكان واحداً من أكثر المحاور التي كشفت أن السوق دخلت مرحلة أكثر واقعية. فعبر «Agentic Defense»، سعت «غوغل» إلى ربط الذكاء الاصطناعي مباشرة بالأمن السيبراني، ليس باعتباره طبقة منفصلة، بل جزءاً من المعمارية نفسها. هذه النقطة لها أهمية واضحة في المنطقة، لأن توسع الذكاء الاصطناعي داخل المؤسسات في قطاعات مثل الطاقة والاتصالات والقطاع المالي لا يمكن فصله عن سؤال الثقة والاستمرارية والقدرة على احتواء المخاطر. وكلما توسعت المؤسسات في استخدام الوكلاء وربطتهم ببياناتها وأنظمتها، أصبح الأمن جزءاً من الذكاء الاصطناعي ذاته، لا مجرد إضافة لاحقة إليه.

ومن بين الرسائل المهمة أيضاً في الحدث أن «غوغل» حاولت الجمع بين فكرتين تبدوان متوازيتين. إحداهما تقديم حزمة متكاملة ومحسنة رأسياً من جهة، والأخرى التأكيد على الانفتاح وتعدد النماذج والتكامل مع الشركاء من جهة أخرى. وهذه ليست مجرد نقطة تنافسية بين الشركات الكبرى، بل مسألة عملية للمؤسسات نفسها، خصوصاً في الأسواق التي تسعى إلى الموازنة بين التكامل التقني والمرونة التشغيلية على المدى الطويل. وبالنسبة إلى الخليج، فإن هذا التوازن بين التكامل والانفتاح يبرز كأحد الأسئلة المهمة في المرحلة المقبلة من الذكاء الاصطناعي المؤسسي.

ربما يكون أهم ما كشفه اليوم الأول من «Google Cloud Next 2026» بالنسبة إلى السعودية والخليج ليس منتجاً واحداً بعينه، بل طبيعة التحول الذي يعكسه. فالموجة الأولى من الذكاء الاصطناعي كانت تدور حول إثبات الفائدة. أما الموجة التالية، كما بدت في لاس فيغاس، فتدور حول إثبات الجاهزية. وهذا يعني أن المعركة المقبلة لن تُحسم فقط بمن يملك النموذج الأذكى، بل بمن يملك المؤسسة الأقدر على تشغيله، وضبطه، وتأمينه، وربطه ببياناته وعملياته، وتحويله من تجربة لافتة إلى قدرة يومية يمكن الوثوق بها. ومن هذه الزاوية، فإن الرسالة الأهم القادمة من الحدث ليست تقنية فقط، بل مؤسسية أيضاً: المرحلة المقبلة في الذكاء الاصطناعي في المنطقة ستكون معركة تنفيذ بقدر ما هي معركة ابتكار.