«بيم آيز»... محرك بحث عن الوجوه للجميع وبدقة «مقلقة»

مجموعة الحقوق الأوروبية الرقمية تصفه بأنه «برنامج مصمم للتجسس»

«بيم آيز»... محرك بحث عن الوجوه للجميع وبدقة «مقلقة»
TT

«بيم آيز»... محرك بحث عن الوجوه للجميع وبدقة «مقلقة»

«بيم آيز»... محرك بحث عن الوجوه للجميع وبدقة «مقلقة»

«بيم آيز» خدمة مدفوعة تبحث في شبكة الإنترنت عن صور لأحدهم... حتى لو كان الشخص لا يحبها أو لا يعرف بوجودها. وعن خدمته، يقول مالكها: «نحن فقط مزودون لهذه الأداة».
يقدم موقع «بيم آيز» PimEyes، مقابل 29.99 دولار في الشهر، للمستخدمين قوة خارقة وخطيرة من عالم الخيال العلمي: القدرة على البحث عن وجه، والعثور على صور مزعجة ربما كانت لتبقى آمنة لولا دخوله إلى الكومة الرقمية الهائلة الموزعة في أرجاء شبكة الإنترنت.
- صور الوجوه
يتطلب البحث بواسطة هذا الموقع بضع ثوانٍ. إذ يحمل المستخدم صورة وجه وينقر على مربع يوافق فيه على شروط الخدمة، ومن ثم يحصل على مجموعة من صور الوجوه الشبيهة بالوجه الذي حمله، مع روابط تشير إلى مواقع ظهور الوجوه على الشبكة. وقد استخدمت صحيفة نيويورك تايمز موقع «بيم آيز» للبحث عن صور 12 من صحافييها بعد الحصول على موافقتهم بهدف اختباره.
نجح الموقع في العثور على صور كل واحد منهم والبعض منها لم يرها الصحافيون من قبل، حتى أنه وجد أولئك الذين كانوا يرتدون نظارة شمسية أو قناعا، أو كانت وجوههم شائحة عن الكاميرا في الصورة التي استخدمت للبحث.
وجد «بيم آيز» مثلاً صورة لصحافية وهي ترقص في مناسبة في معرض للفنون قبل عشر سنوات، وأخرى تبكي فيها بعد تلقي عرض زواج، وصورة لم تحبها ولكن مصورها اختارها للترويج لصفحته على موقع «يلب Yelp». ووجد موقع البحث أيضاً صورة لأحد الصحافيين في شبابه بين الجموع في مهرجان كوتشيلا عام 2011، وظهر مراسل أجنبي في صور كثيرة من حفلات زفاف واحتفالات صاخبة بالإضافة إلى صورة بخلفية غير واضحة التقطها له أحدهم في مطار يوناني عام 2019. وأيضاً، كشفت صور البحث الحياة السابقة لصحافي في فرقة موسيقية، والملاذ المفضل لآخر في أحد المخيمات الصيفية.
وعلى عكس «كلير فيو إي.آي.»، أداة التعرف على الوجه المتوفرة لقوات إنفاذ القانون حصراً، لا يقدم عمل «بيم آيز» نتائج من مواقع التواصل الاجتماعي. جاءت بعض نتائج «بيم آيز» المفاجئة من مقالات إخبارية وصفحات تصوير الأعراس ومواقع تقييم ومدونات ومواقع إباحية، وكان معظمها مطابقاً لوجوه الصحافيين المشاركين. وجاء معظم الصور النسائية الخاطئة من المواقع الإباحية ما أثار بعض البلبلة والقلق من فكرة نسب الصور لهن (ولكنها لم تكن كذلك).
- رصد الأشخاص
في هذا السياق، قال مسؤول تنفيذي تقني طلب عدم الكشف عن هويته إنه يستخدم «بيم آيز» بشكل منتظم لتحديد هوية الأشخاص الذين يضايقونه على تويتر ويستعملون صورهم الحقيقية في حساباتهم وليس أسماءهم الحقيقية. وكشف مستخدم آخر، طلب أيضاً عدم الكشف عن هويته، أنه يستخدم الأداة لتحديد الهوية الحقيقية لممثلات الأفلام الإباحية، وللبحث عن صور واضحة لأصدقائه على فيسبوك.
وصرح الأكاديمي جيورجي غوبرونايدز (34 عاماً)، مالك «بيم آيز»، أن الاعتداءات السيبرانية الروسية على بلده الأم، جورجيا، أشعلت اهتمامه بالتقنية المتقدمة. وقال إنه يعتقد أن «بيم آيز» يمكن أن يستخدم للخير ومساعدة الناس على مراقبة سمعتهم الإلكترونية. وقد منحت هذه الأداة مثلاً الصحافية التي لم تحب صورتها التي استخدمها المصور فرصةً لتطلب منه إزالتها عن صفحته على «يلب».
ويلفت غوبرونايدز إلى أنه يفترض بالمستخدمين الاستعانة بموقعه للبحث عن وجوههم فقط أو عن وجوه أشخاص حصلوا على موافقتهم، مضيفاً إلى أنه يعول على أن يتصرف الناس «بشكل أخلاقي» لحماية قدرة التقنية على الحفاظ على الخصوصية من التآكل على المدى الطويل.
ولا يتضمن «بيم آيز» أي ضوابط تمنع المستخدم من البحث عن وجه أحد غيره، فضلاً عن أنه يقترح على المستخدم دفع رسوم لمنع الصور المزعجة من ملاحقته للأبد. ولذلك وصفت إيلا جاكوبووسكا، مستشارة السياسات في مجموعة «الحقوق الأوروبية الرقمية» المعنية بحماية الخصوصية، هذه الأداة «ببرنامج صمم للتجسس مهما قال صانعوه».
- وسيلة ابتزاز
قبل بضعة أشهر، جربت مهندسة الكومبيوتر شير سكارليت موقع «بيم آيز» لأول مرة، فاصطدمت بفصل من حياتها حاولت جاهدةً أن تنساه. ففي عام 2005، كانت شير فتاةً مفلسة في التاسعة عشرة من عمرها، وفكرت بالعمل بالمحتوى الإباحي، وسافرت إلى نيويورك لتجربة أداء حيث تعرضت للكثير من الإهانة والإساءة، ما دفعها للعدول عن الفكرة.
ولكن «بيم آيز» حفر عميقاً واستخرج هذه الصدمة التي مضى عليها عقود من الزمن مع روابط توضح مكان توفر الصور المزعجة على الشبكة. جمعت نتائج الموقع هذه الصور المزعجة مع بعض من الصور الحديثة لسكارليت التي تعمل اليوم في الدفاع عن حقوق العمال وتصدرت التغطية الإعلامية لثورة عمالية مؤثرة قادتها في شركة آبل.
تعليقاً على تجربتها للموقع، قالت سكارليت إنها «لم تكن تملك أدنى فكرة أن هذه الصور متوفرة على شبكة الإنترنت حتى استخدمت هذه الأداة».
شعرت المهندسة بالقلق من رد فعل الناس على هذه الصور، فسارعت إلى البحث عن طريقة لإزالتها عن الإنترنت، وشاركت هذه التجربة في مقابلة مع موقع «ميديوم» وشبكة سي. إن. إن. عندما نقرت على إحدى الصور المحرجة على «بيم آيز»، ظهرت أمامها لائحة خيارات تعرض رابطاً للصورة ورابطاً للموقع الذي ظهرت فيه مع خيار «استبعاد من النتائج العامة» على الموقع.
ولكنها اكتشفت أن خيار الاستبعاد متوفر فقط للمشتركين بخطط «بروتكت» التي تتراوح كلفتها بين 89.99 و299.99 دولار في الشهر. ووصفت سكارليت الأمر «بالابتزاز» لا سيما وأنها اضطرت في النهاية للاشتراك بأغلى خطة للحصول على ما تريده. إلا أن يورجي غوبرونايدز رفض هذا التوصيف وشدد على وجود أداة مجانية لحذف النتائج من مؤشر «بيم آيز» ولكنها لا تحصل على التسويق الكافي على الموقع. وعمد المالك إلى إبراز إيصال يثبت أن الموقع أعاد مبلغ 299.99 دولار للسيدة سكارليت ثمن الخطة التي اشتركت بها الشهر الفائت. وكشف غوبرونايدز أن «بيم آيز» يضم مئات آلاف المشتركين وأن معظم زواره من الولايات المتحدة وأوروبا. يجني الموقع معظم أرباحه من مشتركي خدمة «بروتكت» التي تقدم مساعدة من فريق الدعم في الموقع لإزالة الصور عن مواقع خارجية.
- إزالة البيانات
يقدم «بيم آيز» خيار «سحب» مجاني أيضاً يتيح للأشخاص إزالة البيانات التي تخصهم عن الموقع ومنها صور البحث عن وجوههم. وبهدف السحب، حملت سكارليت صورة لها من أيام المراهقة، مع مسح ضوئي لبطاقة هويتها الرسمية، وحصلت في بداية أبريل (نيسان) الماضي على تأكيد قبول طلب السحب.
وورد في الرسالة الإلكترونية التي تلقتها من الشركة أن «النتائج المحتملة التي تضم صوراً وبيانات لوجهك أزيلت عن موقعنا». ولكن عندما أجرت صحيفة التايمز بحثاً على موقع «بيم آيز» عن وجه السيدة سكارليت بموافقتها بعد شهر من الرد الذي تلقته، وجدت أكثر من 100 نتيجة ومنها الصور المزعجة.
وصف غوبرونايدز هذا الأمر بالـ«مؤسف» واعتبر أن طلب السحب لم يحجب وجه السيدة عن عمليات البحث. ولكنه في المقابل، حجب نتائج البحث لأي صور تحتوي على وجوه «شديدة الشبه» لها، ما يعني أنه على الأشخاص تسجيل السحب بشكل متكرر وباستخدام عدة صور لأنفسهم إذا كانوا يأملون البقاء خارج أبحاث «بيم آيز».
- خدمة «نيويورك تايمز»


مقالات ذات صلة

الرئيس التنفيذي لـ«غوغل كلاود»: مراكز بياناتنا «مقاوِمَة للأزمات» ولا ترتبط بحدود

خاص توماس كوريان الرئيس التنفيذي لـ«غوغل كلاود» متحدثاً لـ«الشرق الأوسط» (الشرق الأوسط)

الرئيس التنفيذي لـ«غوغل كلاود»: مراكز بياناتنا «مقاوِمَة للأزمات» ولا ترتبط بحدود

بينما تفرض التوترات الإقليمية تحديات على البنية التحتية، تعيد «غوغل» صياغة مفهوم استمرارية الأعمال عبر دمج الحصانة الرقمية بالذكاء الاصطناعي المؤسسي.

نسيم رمضان (لاس فيغاس)
علوم المفاعل الجديد قادر على إعادة تدوير أنواع مختلفة من النفايات البلاستيكية وتحويلها إلى وقود نظيف ومواد كيميائية قيمة (جامعة كمبريدج)

طاقة نظيفة من النفايات

ينتج العالم نحو 400 مليون طن من نفايات البلاستيك سنوياً، كما تتكدس ملايين البطاريات المستهلكة، ورغم ذلك فإن نسبة إعادة تدوير تلك النفايات لا تتجاوز 18 في المائة

محمد السيد علي (القاهرة)
الاقتصاد «رؤية 2030»: حكاية التحول من الإدارة التقليدية إلى الريادة الرقمية العالمية

«رؤية 2030»: حكاية التحول من الإدارة التقليدية إلى الريادة الرقمية العالمية

انطلقت السعودية في مسار التحوُّل الرقمي والاقتصاد المعرفي، مستندةً إلى بنية تحتية رقمية مُتقدِّمة وبناء معرفي تراكم عبر سنوات طويلة، ما عزز قدرتها على المنافسة.

عبير حمدي (الرياض)
الاقتصاد ميناء جدة الإسلامي (الهيئة العامة للموانئ)

«رؤية 2030» تحوّل السعودية إلى منصة لوجستية عالمية

في مشهد عالمي تتقاذفه اضطرابات سلاسل الإمداد، وتقلبات الجغرافيا السياسية، برزت السعودية بوصفها ركيزة استقرار لا غنى عنها في خريطة اللوجستيات الدولية.

ساره بن شمران (الرياض)
خاص التوترات التي شهدها الشرق الأوسط خلال الشهرين الماضيين لم تؤدِّ إلى تصعيد سيبراني واسع وفوري بالقدر الذي كان متوقعاً (شاترستوك)

خاص «غوغل كلاود» لـ«الشرق الأوسط»: هدوء سيبراني «حذر» رغم التوترات الإقليمية

تقول «غوغل كلاود» إن هدوء الهجمات لا يلغي الخطر، وإن المرونة السيبرانية تبدأ من الثغرات والاستعداد المبكر قبل التصعيد.

نسيم رمضان (لاس فيغاس)

الرئيس التنفيذي لـ«غوغل كلاود»: مراكز بياناتنا «مقاوِمَة للأزمات» ولا ترتبط بحدود

توماس كوريان الرئيس التنفيذي لـ«غوغل كلاود» متحدثاً لـ«الشرق الأوسط» (الشرق الأوسط)
توماس كوريان الرئيس التنفيذي لـ«غوغل كلاود» متحدثاً لـ«الشرق الأوسط» (الشرق الأوسط)
TT

الرئيس التنفيذي لـ«غوغل كلاود»: مراكز بياناتنا «مقاوِمَة للأزمات» ولا ترتبط بحدود

توماس كوريان الرئيس التنفيذي لـ«غوغل كلاود» متحدثاً لـ«الشرق الأوسط» (الشرق الأوسط)
توماس كوريان الرئيس التنفيذي لـ«غوغل كلاود» متحدثاً لـ«الشرق الأوسط» (الشرق الأوسط)

في «غوغل كلاود نيكست» في لاس فيغاس، تجاوز رد توماس كوريان، الرئيس التنفيذي لـ«غوغل كلاود»، على سؤال لـ«الشرق الأوسط» بشأن الهجمات على مراكز بيانات الحوسبة السحابية فائقة النطاق في ظل التوترات التي تشهدها المنطقة، مسألة الحماية المادية سريعاً. فالقضية، كما ألمح، لم تعد تقتصر على كيفية الدفاع عن البنية التحتية، بل أصبحت تتعلَّق بكيفية ضمان ألا يبقى العملاء عالقين في موقع واحد عندما يقع الاضطراب. وقال الرئيس التنفيذي لـ«غوغل كلاود»: «لقد تعاملنا مع عدد من حالات الصراع العالمية على مدى سنوات طويلة جداً»، مضيفاً أن «غوغل كلاود» لا تملك فقط وسائل حماية مادية، بل تمتلك أيضاً القدرة على ربط مراكز بياناتها عالمياً عبر «شبكتنا الخاصة، التي تتمتع بدرجة عالية جداً من التكرار».

وسرعان ما انتقل رد كوريان من الأمن على مستوى المنشأة إلى فكرة أوسع تتعلق بالاستمرارية الرقمية قائلاً: «لدينا القدرة على نقل عبء العمل من ذلك الموقع وإعادة نسخه عالمياً»، لأن مواقع «غوغل كلاود» مواقع «موحدة ومتناسقة باستمرار». وبالنسبة إلى العملاء، فإن الفائدة هي أنهم «غير مرتبطين بموقع مادي واحد». وقد نقل هذا الجواب النقاش من مستوى إطلاق المنتجات إلى سؤال أكثر استراتيجية: هل أصبحت معمارية السحابة نفسها جزءاً من تخطيط استمرارية الأعمال؟

من التجربة للتشغيل

يُقدِّم هذا الطرح أيضاً واحدة من أوضح الطرق لفهم رسالة «غوغل كلاود» الأوسع في «نيكست 2026». فعلى امتداد الحدث الذي حضره أكثر من 30 ألف مشارك، سعت الشركة إلى التأكيد على أن الذكاء الاصطناعي المؤسسي ينتقل من مرحلة التجربة إلى ما تسميه «المؤسسة الوكيلة». وذكرت «غوغل كلاود» أن نحو 75 في المائة من عملائها يستخدمون بالفعل منتجاتها المدعومة بالذكاء الاصطناعي، بينما عالج 330 عميلاً أكثر من تريليون رمز خلال الأشهر الـ12 الماضية، وتجاوز 35 عميلاً حاجز 10 تريليونات رمز. كما أشارت إلى أن نماذجها الطرفية الأولى تعالج الآن أكثر من 16 مليار رمز في الدقيقة، ارتفاعاً من 10 مليارات في الربع السابق. وكان الهدف من هذه الأرقام هو الإشارة إلى أن الذكاء الاصطناعي لم يعد تجربة جانبية، بل طبقة تشغيلية تريد الشركات استخدامَها عبر أعمالها.

المنافسة المقبلة لن تُحسم بالنماذج وحدها بل بقدرة الشركات على تحسين المنظومة الكاملة من الرقاقات إلى البنية التحتية والأدوات (غوغل)

التكامل والانفتاح معاً

الأكثر دلالة في جلسة الأسئلة والأجوبة الخاصة مع كوريان كان ما كشفه عن المكان الذي تنتقل إليه المنافسة. لقد أفاد بأن «غوغل كلاود» هي «شركة الحوسبة السحابية فائقة النطاق الوحيدة التي تمتلك رقاقاتها الخاصة ونماذجها الحدودية الخاصة»، بما يتيح لها «تحسين المنظومة بأكملها، من الحوسبة إلى مدى كفاءة تشغيل الوكلاء». وكانت هذه محاولة واضحة لوضع ميزة «غوغل كلاود» في الطبقات الأعمق من التطبيق، في الجمع بين الرقاقات والنماذج والبنية التحتية والأدوات. وبعبارة أخرى، تقول الشركة إن المرحلة التالية من الذكاء الاصطناعي لن تتحدد فقط بمن يملك نموذجاً قوياً، بل بمن يستطيع تصميم النظام الأوسع المحيط به بأكبر قدر من الفاعلية.

لكن كوريان قرن هذا الطرح بحجة أخرى لا تقل أهمية لعملاء المؤسسات وهي الانفتاح، مصرحاً بأنه «لا يتوقع أن تستخدم شركة ما كل شيء من (غوغل كلاود)، لقد أبقينا المعمارية مفتوحة». وأضاف أن شركته تدعم نماذج متعددة، وتدعم رقاقاتها الخاصة، لكنها أيضاً «شريك قريب جداً لـ(إنفيديا)»، كما تدعم منصات بيانات مختلفة، وتعمل مع أطراف ثالثة في الطبقة الأمنية. وتكتسب هذه النقطة أهميتها لأن المؤسسات تريد كفاءة التكامل الأعمق من دون أن تُحبس داخل بيئة مغلقة. وتحاول «غوغل كلاود» هنا الإشارة إلى أنها قادرة على تقديم منظومة متكاملة رأسياً، مع الحفاظ في الوقت نفسه على القدرة على العمل داخل بيئات تقنية مؤسسية متنوعة.

السيادة في الواجهة

برزت السيادة أيضاً بوصفها عنصراً مهماً في اللقاء. فعندما سُئل كوريان عمّا إذا كان العملاء الأوروبيون سيحصلون على المنتج كاملاً، قال إن «المنتج العام متاح اليوم في أوروبا بما يتوافق مع لوائح السيادة الأوروبية»، وإنه مستضاف للعملاء الأوروبيين عبر عدة مواقع، بينها ألمانيا وفرنسا وبلجيكا وهولندا وفنلندا والمملكة المتحدة. ورغم أن الجواب كان خاصاً بأوروبا، فإن دلالته الأوسع تتجاوز القارة حيث إن عملاء المؤسسات ومن بينها المملكة العربية السعودية يريدون بشكل متزايد خدمات ذكاء اصطناعي متقدمة من دون التخلي عن السيطرة على مكان استضافة بياناتهم ومعالجتها، وهي ليست مسألة جانبية، بل جزء من معمارية الثقة نفسها.

تحاول الشركة الجمع بين التكامل الرأسي والانفتاح المعماري عبر دعم نماذج متعددة ورقائق مختلفة وأدوات أمن من أطراف أخرى (غوغل)

الموصِّلات تصنع الفارق

تناول كوريان في الجلسة نقطة عملية أخرى تمس مباشرة أحد الاختناقات الحقيقية في الذكاء الاصطناعي المؤسسي. فعندما سُئل عمّن سيبني الروابط بين «جيميناي إنتربرايز» والتطبيقات الكثيرة التي تستخدمها المؤسسات بالفعل، قال إن «غوغل كلاود» تبنيها بنفسها. وأردف: «لدينا أكثر من 100 موصّل متاح بالفعل» تغطي مستودعات الوثائق، وتطبيقات البرمجيات كخدمة، وقواعد البيانات. وتابع أيضاً أن «غوغل كلاود» توفر إطاراً لبناء الموصلات، وتدعم معايير مثل «Bring Your Own MCP» للأنظمة المصممة خصيصاً. وتكمن أهمية هذا الجواب في أنه يصل إلى جوهر سبب تعثر كثير من مشروعات الذكاء الاصطناعي المؤسسي حيث يكون النموذج مبهراً في عزلة، لكنه لا يصبح مفيداً حقاً إلا عندما يستطيع الاتصال بالأماكن التي يجري فيها العمل فعلاً كالوثائق وتطبيقات الأعمال والسجلات وقواعد البيانات.

الذكاء الاصطناعي والدفاع

لم يكن الجزء المتعلق بالأمن السيبراني في الجلسة بدرجة أقل من الأهمية. صرح كوريان بأن «غوغل كلاود» أدركت منذ فترة أنه كلما أصبحت النماذج أفضل في فهم البرمجيات، فإن الجهات الخبيثة ستستخدمها لتحليل الشيفرة، واكتشاف الثغرات، ومهاجمة الأنظمة. وبرأيه، فإن الردَّ يجب أن يكون مدفوعاً بالذكاء الاصطناعي أيضاً. وشرح طبقة أولى تركز على تحليل الشيفرة الخاصة بالشركة نفسها وإصلاحها، مشيراً إلى نموذج جديد باسم «Code Defender» يساعد على إصلاح الشيفرة. وتركز طبقة ثانية على التهديدات الخارجية، بما في ذلك صيد التهديدات واستخبارات التهديدات. وأشار إلى «استخبارات الويب المظلم» التي أُعلن عنها في المؤتمر، قائلاً إنها «دقيقة بنسبة 90 في المائة» في ترتيب التهديدات التي ينبغي على العملاء الدفاع ضدها. كما ربط هذا المنطق باستحواذ «غوغل كلاود» على «ويز»، وشرح دور «وكيل أحمر» يهاجم الأنظمة لاكتشاف نقاط الضعف، و«فريق أزرق» يحدد الإصلاح المطلوب، وطبقة «خضراء» تقوم بإصلاح المشكلة.

إنتاجية تقاس بالجودة

خلال اللقاء، قدَّم كوريان أيضاً صورة أكثر واقعية لكيفية استخدام «غوغل كلاود» نفسها للذكاء الاصطناعي داخلياً. فعندما سُئل عن إنتاجية المهندسين، أجاب أن القضية لا تتعلق فقط بحجم الشيفرة التي يمكن للذكاء الاصطناعي توليدها، بل بـ«جودة الشيفرة». ونوه بأن «غوغل كلاود» تستخدم أدوات الذكاء الاصطناعي في عمليات الترحيل وفحص الثغرات وتوليد الاختبارات ومراجعة الأقران، حيث أصبحت النماذج تراجع الشيفرة إلى جانب المراجعين البشريين قبل اعتمادها. وقال: «مقياسنا طويل الأمد للإنتاجية لا يتعلق فقط بحجم الأشياء، بل بجودتها». وهذه النقطة مهمة لأنها تنقل النقاش حول إنتاجية الذكاء الاصطناعي بعيداً عن الأرقام اللافتة، إلى معيار مؤسسي أكثر واقعية: أنظمة أفضل اختباراً، وأفضل مراجعة، وأكثر أماناً.

أوضحت تصريحات كوريان أن «غوغل كلاود» تريد نقل النقاش حول الذكاء الاصطناعي إلى ما هو أبعد من حداثة المنتجات. فالشركة تحاول القول إن المرحلة المقبلة من الذكاء الاصطناعي المؤسسي ستعتمد على مجموعة أكثر صعوبة من الأسس. إنها بنية تحتية مرنة وقابلية نقل عبر المواقع وانفتاح عبر مكونات المنظومة، ونشر متوافق إقليمياً، واتصال مباشر بأنظمة المؤسسة، ودفاع سيبراني مؤتمت. وإذا كان الفصل الأول من طفرة الذكاء الاصطناعي قد دار حول إظهار قدرات النماذج، فإن رسالة كوريان في لاس فيغاس كانت أن الفصل التالي سيتحدد بقدرة هذه الأنظمة على الاستمرار في العمل بأمان ومرونة وعلى نطاق واسع عندما تصبح جزءاً من العمليات الواقعية اليومية.


«غوغل كلاود» لـ«الشرق الأوسط»: هدوء سيبراني «حذر» رغم التوترات الإقليمية

التوترات التي شهدها الشرق الأوسط خلال الشهرين الماضيين لم تؤدِّ إلى تصعيد سيبراني واسع وفوري بالقدر الذي كان متوقعاً (شاترستوك)
التوترات التي شهدها الشرق الأوسط خلال الشهرين الماضيين لم تؤدِّ إلى تصعيد سيبراني واسع وفوري بالقدر الذي كان متوقعاً (شاترستوك)
TT

«غوغل كلاود» لـ«الشرق الأوسط»: هدوء سيبراني «حذر» رغم التوترات الإقليمية

التوترات التي شهدها الشرق الأوسط خلال الشهرين الماضيين لم تؤدِّ إلى تصعيد سيبراني واسع وفوري بالقدر الذي كان متوقعاً (شاترستوك)
التوترات التي شهدها الشرق الأوسط خلال الشهرين الماضيين لم تؤدِّ إلى تصعيد سيبراني واسع وفوري بالقدر الذي كان متوقعاً (شاترستوك)

في «غوغل كلاود نكست 2026» في لاس فيغاس، لم يكن حديث ساندرا جويس، نائبة رئيس «غوغل ثريت إنتلجنس» (Google Threat Intelligence)، مجرد إضافة تقنية ضمن زخم الذكاء الاصطناعي الذي طغى على المؤتمر، بل قدّم قراءة أكثر هدوءاً وانضباطاً لمشهد التهديدات السيبرانية في لحظة إقليمية ودولية حساسة.

وخلال الجلسة، سألت «الشرق الأوسط» عمّا إذا كانت التوترات التي شهدها الشرق الأوسط خلال الشهرين الماضيين قد انعكست على نمط الهجمات السيبرانية، وما إذا كانت «غوغل كلاود» قد رصدت تحولاً موازياً في مستوى النشاط أو طبيعته. غير أن رد ساندرا جويس جاء على خلاف ما قد يتوقعه كثيرون قائلة إن فريقها «لم يرَ في الواقع ارتفاعاً كبيراً في النشاط السيبراني» خلال تلك الفترة، مضيفة أن ما جرى، باستثناء بعض الوقائع التي ظهرت علناً، لم يصل إلى مستوى تصعيد واسع، بل إنهم «شهدوا هدوءاً، ثم عادت المستويات تقريباً إلى ما كانت عليه سابقاً»، بخلاف ما حدث مع بداية التوترات بين روسيا وأوكرانيا.

وتكتسب هذه الملاحظة أهميتها من أنها تبتعد عن المبالغة، وتقدم صورة أكثر توازناً؛ فالتوترات الجيوسياسية لا تنعكس بالضرورة، وبصورة فورية، في موجة سيبرانية واسعة ومرئية. لكن ذلك، في حديث ساندرا جويس، لا يعني أن الخطر تراجع أو أن البيئة أصبحت أكثر أماناً.

ساندرا جويس نائبة رئيس «غوغل ثريت إنتلجنس» (Google Threat Intellegence) (غوغل)

استعداد قبل الانفجار

وعندما سُئلت عن تفسير هذا الهدوء النسبي، لم تربطه ساندرا جويس بضعف في قدرات الجهات المهاجمة أو بانحسار التهديد، بل أشارت إلى احتمالات أكثر تعقيداً؛ إذ ربما تكون هذه القدرات موزعة بشكل لامركزي، بحيث لا يؤدي استهداف موقع معين إلى تعطيلها، وربما لم يصدر القرار باستخدامها على نطاق أوسع، وربما كانت هناك اعتبارات ردع قائمة.

وفي المقابل، شرحت كيف تتعامل «غوغل كلاود» مع مثل هذه اللحظات عبر ما وصفته بآلية التعامل مع «الأحداث الكبرى»، حيث يجري العمل السريع بهدف التحرك قبل اتساع الأثر، من خلال توفير مؤشرات مبكرة عمّا قد يحدث، ثم التمييز بعد ذلك بين الضجيج والحقيقة، وبين التصورات والوقائع، حتى تتمكن المؤسسات من اتخاذ قرارات عملية تستند إلى سياق واضح. وبذلك، لا يعود دور استخبارات التهديدات مقتصراً على الإبلاغ عمّا حدث، بل يمتد إلى مساعدة المؤسسات على معرفة ما ينبغي فعله بعد ذلك.

«غوغل كلاود»: أول اختبار حقيقي لمرونة المؤسسات اليوم يبدأ من إدارة الثغرات والتحديثات الأمنية لا من الشعارات العامة حول الصمود (شاترستوك)

اختبار المرونة الحقيقي

وفي محور آخر، انتقل النقاش مع «الشرق الأوسط» إلى معنى «المرونة» أو «الصمود» داخل المؤسسات، ليس فقط من زاوية حماية المعلومات، بل أيضاً من زاوية الحفاظ على استمرارية الخدمات والعمليات والثقة العامة. وجاء جواب جويس مباشراً، مشيرة إلى أن أول ما تنظر إليه اليوم، بخلاف ما كانت قد تقوله قبل ثلاث سنوات، هو برامج إدارة الثغرات والتحديثات الأمنية؛ لأن أدوات الذكاء الاصطناعي باتت تمنح المهاجمين سرعة ونطاقاً وقدرة على إحداث أثر واسع «بشكل لم نره من قبل».

وتنقل هذه النقطة النقاش من المفهوم العام للمرونة إلى مستوى أكثر دقة وواقعية. فساندرا جويس لا تتحدث عن الصمود بوصفه مجرد خطة استجابة أو قدرة على استعادة الأنظمة بعد الهجوم، بل بوصفه قدرة استباقية على سد الثغرات قبل أن تتحول إلى منفذ لهجمات أسرع وأكثر تعقيداً. ووفق شرحها، فإن المؤسسات في 2026 تحتاج إلى التفكير في أدوات ذكاء اصطناعي تمتلك «السرعة والحجم والقدرة المتقدمة»، ويمكن أن تتجه إلى أي ثغرة في الشبكة، حتى تلك التي قد تكون المؤسسة قد صنّفتها سابقاً على أنها ثانوية أو منخفضة الأولوية. والأسوأ من ذلك، كما أوضحت، أن هذه الأدوات لا تكتفي باستغلال ثغرة واحدة، بل يمكن أن تربط بين نقاط ضعف مختلفة لتكوين مسار اختراق جديد وأكثر فاعلية.

«رذاذ قبل العاصفة»

وعندما سُئلت ساندرا جويس عمّا إذا كانت ترى بالفعل تصاعداً واسعاً في الهجمات التي تستخدم قدرات الذكاء الاصطناعي الجديدة، لم تقل إن هذه الموجة بلغت ذروتها، لكنها وصفت ما نراه اليوم بأنه أشبه «برذاذ يسبق العاصفة». وقالت بوضوح إن الاعتقاد بأن هذا الوضع سيبقى هادئاً سيكون افتراضاً خاطئاً، لأن المؤشرات تتزايد، والقدرات تتطور، ونقطة التحول تقترب.

وهنا تكمن المفارقة الأهم في حديثها؛ حيث إن العالم لم يدخل بعد مرحلة انفجار شامل في هذا النوع من الهجمات، لكنه يقترب منها بما يكفي لكي يصبح التأجيل خطأ مكلفاً. ومن هذا المنطلق، بدا حديثها أقرب إلى دعوة للاستعداد المبكر منه إلى تحذير من واقع وقع بالكامل.

المرونة السيبرانية في 2026 لم تعد تعني حماية البيانات فقط بل حماية استمرارية الخدمات والعمليات والثقة العامة أيضاً (شاترستوك)

من الرصد إلى الفعل

وفي جزء آخر من الجلسة، شرحت ساندرا جويس أن فريقها لا يقتصر دوره على مراقبة التهديدات وبناء صورة عامة عنها، بل يضم أيضاً، منذ العام الماضي، وحدة تعطيل تقود عمليات تستند إلى الاستخبارات. ووفق شرحها، تراوحت هذه العمليات بين إسقاط شبكات وكلاء سكنية بالتعاون مع الفريق القانوني، وتعطيل شبكات تجسس. والمعنى هنا أن قيمة استخبارات التهديدات لم تعد تقف عند حدود الفهم والتحليل، بل باتت تشمل استخدام هذه المعرفة نفسها لتقليص قدرة الخصوم على العمل قبل أن يتحول الخطر إلى حادث واسع.

وفي الوقت نفسه، حرصت جويس على عدم المبالغة في تصوير المشهد، مشيرة إلى أن كثيراً من الاختراقات التي لا تزال الفرق تتعامل معها اليوم تعتمد على أساليب تقليدية معروفة. لكنها حذرت من أن ذلك لا ينبغي أن يبعث على الاطمئنان، لأن ما تراه فرقها هو تسارع الابتكار لدى جهات التهديد، بما يعني أن نقطة التحول تقترب. ووصفت هذا الوضع بأنه «فرصة للتحرك الآن»، لا سبباً لتأجيل الاستعداد.

وهذه ملاحظة مهمة، لأنها تعني أن التهديد لا يكمن فقط في ظهور أدوات جديدة، بل في كيفية تطوير الأساليب القائمة ورفع كفاءتها وتوسيع أثرها. لذلك، فإن الاعتماد على أن المهاجمين سيظلون يستخدمون الأدوات والأساليب نفسها سيكون رهاناً خاطئاً.

تقول «غوغل كلاود» إن هذا الهدوء النسبي لا يعني تراجع الخطر لأن جهات التهديد قد تكون تعمل بقدرات موزعة أو تنتظر ظروفاً مختلفة للتصعيد (رويترز)

اتساع رقعة الاستهداف

كشفت الجلسة أيضاً عن أثر آخر للذكاء الاصطناعي في المشهد الأمني، وهو اتساع نطاق الاستهداف جغرافياً. فعندما سُئلت ساندرا جويس عمّا إذا كانت الحواجز اللغوية التي كانت تحدّ سابقاً من استهداف بعض الأسواق قد تراجعت، أجابت بأن ذلك يحدث بالفعل، مشيرة إلى زيادة واضحة في استهداف أسواق غير ناطقة بالإنجليزية، وذكرت على وجه الخصوص ألمانيا التي شهدت ارتفاعاً ملحوظاً في الأشهر الأخيرة، ليس فقط على مستوى الشركات الكبرى، بل أيضاً في قلب ما يشكل العمود الفقري للاقتصاد الألماني. وتحمل هذه الإشارة دلالة أوسع؛ الذكاء الاصطناعي لا يوسّع فقط قدرة المهاجمين على تطوير الأدوات، بل يوسّع أيضاً نطاق الأسواق والقطاعات التي يمكن استهدافها بكفاءة أكبر.

حاولت ساندرا جويس، خلال الجلسة، ترسيخ فكرة أن المرونة لم تعد كلمة مطمئنة في عروض الشركات، بل أصبحت اختباراً يومياً يبدأ من إدارة الثغرات والتحديثات، ويمر عبر فهم التهديدات قبل انفجارها، وينتهي بقدرة المؤسسة على التمييز بين الضجيج والحقيقة، والتصرف بسرعة وثقة. وربما كانت الرسالة الأهم التي خرجت من الجلسة هي أنه في 2026، لا يكفي أن تقول المؤسسة إنها «مرنة»؛ عليها أن تثبت أنها قادرة على إغلاق الفجوات قبل أن تتحول، بسرعة الذكاء الاصطناعي نفسه، إلى نقطة انهيار.


زوكربيرغ يُقلّص آلاف الوظائف لتمويل استثمارات الذكاء الاصطناعي

مارك زوكربيرغ مالك شركة «ميتا» (رويترز)
مارك زوكربيرغ مالك شركة «ميتا» (رويترز)
TT

زوكربيرغ يُقلّص آلاف الوظائف لتمويل استثمارات الذكاء الاصطناعي

مارك زوكربيرغ مالك شركة «ميتا» (رويترز)
مارك زوكربيرغ مالك شركة «ميتا» (رويترز)

تتصاعد وتيرة التحولات داخل كبرى شركات التكنولوجيا العالمية مع احتدام المنافسة في مجال الذكاء الاصطناعي، ما يدفع هذه الشركات إلى إعادة هيكلة مواردها البشرية والمالية بشكل جذري. وتبرز شركة «ميتا» في مقدمة هذا التوجه، إذ تسعى إلى موازنة استثماراتها الضخمة في التقنيات المستقبلية عبر إجراءات تقشفية تشمل تقليص عدد الموظفين.

وتعمل «ميتا»، المملوكة لمارك زوكربيرغ، على خفض آلاف الوظائف بهدف «تعويض» التكاليف الباهظة لاستثماراتها في مجال الذكاء الاصطناعي، التي بلغت مليارات الدولارات، حسب ما أوردته صحيفة «التليغراف».

وكانت الشركة، المالكة لمنصات «فيسبوك» و«واتساب» و«إنستغرام»، قد أعلنت يوم الخميس عن خطط لخفض نحو 10 في المائة من قوتها العاملة، في خطوة تهدف إلى تمويل توسعها الكبير في تقنيات الذكاء الاصطناعي.

ومن المتوقع أن تؤدي هذه الخطوة إلى تسريح نحو 8 آلاف موظف خلال الشهر المقبل، إضافة إلى إلغاء خطط سابقة لتوظيف ما يقارب 6 آلاف موظف جديد.

وفي مذكرة داخلية وُزّعت على موظفي الشركة واطلعت عليها وكالة «بلومبيرغ»، أوضح مسؤولون تنفيذيون أن هذه الإجراءات تأتي «في إطار الجهود المستمرة لإدارة الشركة بكفاءة أعلى، وتعويض تكاليف الاستثمارات الأخرى التي نقوم بها».

وفي الوقت ذاته، حذّرت «ميتا» مستثمريها من أن إنفاقها قد يصل إلى 169 مليار دولار (125 مليار جنيه استرليني) خلال العام الجاري، في إطار سعيها للحاق بمنافسيها، مثل «أوبن إيه آي» و«غوغل»، ضمن سباق محتدم في مجال الذكاء الاصطناعي داخل وادي السيليكون.

وتنفق الشركة مبالغ ضخمة على تطوير مراكز البيانات وتعزيز البنية التحتية اللازمة لتقنيات الذكاء الاصطناعي، كما عرض زوكربيرغ حوافز مالية كبيرة لاستقطاب الكفاءات، شملت مكافآت توقيع تصل إلى 100 مليون دولار، إلى جانب عقود متعددة السنوات قد تبلغ قيمتها نحو مليار دولار.

وتأتي هذه الخطط بعد سلسلة من عمليات التسريح الجزئية التي نفذتها «ميتا» خلال الأشهر الماضية، شملت قطاعات مختلفة، من بينها قسم مختبرات الواقع الافتراضي، حيث تم الاستغناء عن نحو 10 في المائة من الموظفين، أي ما يعادل نحو 700 عامل. ويُنظر إلى هذه الخطوات على أنها انعكاس لتراجع الرهان السابق لزوكربيرغ على «الميتافيرس» بوصفه مستقبل الشركة.

ويرى محللون أن موجة التسريحات قد لا تتوقف عند هذا الحد، إذ قد تلجأ «ميتا» إلى تقليص المزيد من الوظائف لاحقاً خلال العام، في ظل التوسع في استخدام أدوات الذكاء الاصطناعي لأتمتة العديد من المهام التي يؤديها الموظفون حالياً.