من السحابة إلى وكلاء الذكاء الاصطناعي… كيف يتغير مشهد الأمن السيبراني في الشرق الأوسط؟

«بروف بوينت»: «مساحة العمل الوكيلة» ليست «موضة ذكاء اصطناعي عابرة»

خبراء: «رؤية 2030» وسياسات حماية البيانات تجعل السعودية جاهزة لتجربة موسعة تجمع الإنسان والآلة رغم التهديدات السيبرانية (شاترستوك)
خبراء: «رؤية 2030» وسياسات حماية البيانات تجعل السعودية جاهزة لتجربة موسعة تجمع الإنسان والآلة رغم التهديدات السيبرانية (شاترستوك)
TT

من السحابة إلى وكلاء الذكاء الاصطناعي… كيف يتغير مشهد الأمن السيبراني في الشرق الأوسط؟

خبراء: «رؤية 2030» وسياسات حماية البيانات تجعل السعودية جاهزة لتجربة موسعة تجمع الإنسان والآلة رغم التهديدات السيبرانية (شاترستوك)
خبراء: «رؤية 2030» وسياسات حماية البيانات تجعل السعودية جاهزة لتجربة موسعة تجمع الإنسان والآلة رغم التهديدات السيبرانية (شاترستوك)

من التحوّل الرقمي إلى «مساحة العمل الوكيلة»، يدخل الخليج مرحلة تعاون بين البشر ووكلاء الذكاء الاصطناعي، وسط تصاعد التهديدات السيبرانية وسعي لحلول أمنية متقدمة.

تواصل حكومات وشركات منطقة الخليج رحلتها في التحوّل الرقمي، من نقل الخدمات إلى السحابة وبناء مراكز بيانات سيادية وأتمتة قطاعات كاملة. واليوم، يبرز أفق جديد قد يتجاوز تلك القفزات، إنه «مساحة العمل الوكيلة (Agentic AI Workspace)»، حيث يعمل البشر ووكلاء الذكاء الاصطناعي جنباً إلى جنب لإنجاز المهام.

وقد تجلّى هذا المستقبل في قمة «Proofpoint Protect 2025» في مدينة ناشفيل الأميركية، وحضرتها «الشرق الأوسط»، حيث كشفت الشركة عن ابتكارات لحماية هذه البيئة.

وبالنسبة للخليج؛ خصوصاً السعودية، التي تضع الذكاء الاصطناعي في صميم «رؤية 2030». يمثل هذا الإعلان خطوة أبعد من مجرد تحديث تقني. إنه دليل على السرعة التي يتحول فيها «الوكلاء» الرقميون إلى واقع ملموس.

يؤكد الرئيس التنفيذي لـ«بروف بوينت» أن «مساحة العمل الوكيلة» تحوّل حقيقي وليس مجرد موضة ذكاء اصطناعي (بروف بوينت)

أهمية هذا التحوّل للمنطقة

الشرق الأوسط طموح في مشاريعه التقنية، لكنه في الوقت نفسه عرضة لمخاطر سيبرانية متزايدة. أظهر تقرير «IBM X - Force» أن المنطقة جاءت رابعة عالمياً في الهجمات السيبرانية لعام 2024. بنسبة 10 في المائة من إجمالي الحوادث مقارنة بـ7 في المائة، في 2023. وتصدرت قطاعات المالية والتأمين نسبة 61 في المائة من الهجمات، تلتها الطاقة بنسبة 17 في المائة، وهي القطاعات ذاتها التي تعتمد أسرع تدفقات عمل مدعومة بالذكاء الاصطناعي.

وفي معرض «GISEC 2025»، صنّف مجلس الأمن السيبراني الإماراتي هجمات «حقن الأوامر»، حيث تُزرع تعليمات خفية لخداع وكلاء النماذج اللغوية الكبيرة كأولوية وطنية. وفي السعودية، أصدرت هيئة «سدايا» إرشادات دقيقة للاستخدام المسؤول لتقنيات الذكاء الاصطناعي التوليدي، محدِّدة متطلبات واضحة للأنظمة الوكيلة. هذه المؤشرات جميعها تؤكد أن تهديدات الذكاء الاصطناعي ليست مستقبلية بل آنية.

وشدّد سوميت دواهان، الرئيس التنفيذي لشركة «بروف بوينت (Proofpoint)»، في حديثه مع «الشرق الأوسط» على أن هذا التوجُّه عالمي، قائلاً: «نرى اعتماد المساعدين القائمين على الذكاء الاصطناعي يتسع حول العالم». ويضيف: «كنتُ في السعودية والإمارات قبل أربعة أشهر، وإنه موجود بالفعل. قطاعات مثل المالية والتأمين والرعاية الصحية، وحتى أجزاء من التجزئة بدأت (تطبيقات وكيلة) بالفعل. بعض المناطق تقفز إلى الأمام متجاوزة مراحل التطور المعتادة».

تُعد قطاعات المالية والتأمين والطاقة الأكثر تعرضاً للهجمات والأسرع في تبني بيئات العمل المدعومة بالذكاء الاصطناعي

ماذا تعني «مساحة العمل الوكيلة»؟

إذا كانت الحوسبة السحابية قد رقمنت عمل المؤسسات، فإن «مساحة العمل الوكيلة» تضيف عنصر الفعل الذاتي؛ فمساعدو الذكاء الاصطناعي لا يكتفون بالاقتراح بل ينفذون، يشاركون ويجدوِلون ويحللون ويتواصلون مع بعضهم. ويصف مسؤولو «بروف بوينت» هؤلاء الوكلاء بأنهم «مصممون للتصرف كبشر»، ما يجعلهم عرضة للخداع أو الاختراق كما يُخدع الإنسان.

هذا الاتساع في سطح الهجوم يمثل جوهر التحدي؛ فالبريد الاحتيالي قد يحمل أوامر خفية تستهدف أدوات مثل «مايكروسوفت كوبايلوت» (Microsoft Copilot) أو «غوغل جيميناي» (Google Gemini)، ويمكن لتعليمات خبيثة أن تُسرّب بيانات حساسة أو تتجاوز الضوابط الداخلية. ومع إنشاء المؤسسات لوكلاء ذكاء اصطناعي خاصين بها، يتضاعف حجم حركة البيانات بين الآلات.

دفاع بأربع ركائز

لمواجهة هذه التهديدات، طرحت «بروف بوينت» منظومة دفاع متكاملة تقوم على 4 ركائز مترابطة. تبدأ المنظومة باكتشاف استغلالات الذكاء الاصطناعي في البريد، عبر قدرات جديدة في منصة «Prime Threat Protection» التي تعيق الأوامر الخبيثة قبل وصولها إلى المستخدمين. وتليها منصة «Data Security Complete»مع حوكمة بيانات الذكاء الاصطناعي؛ حيث تُكتشف البيانات الحساسة وتُصنَّف عبر الأجهزة والبريد والسحابة، مع تطبيق سياسات تلقائية لمنع أي تسرب. ثم تأتي بوابة Secure Agent Gateway المبنية على بروتوكول «Model Context» لمراقبة وصول وكلاء العملاء إلى المعلومات والتحكم بها، بما في ذلك منع أو حجب البيانات قبل مشاركتها. وتتكامل هذه المكوّنات مع وكلاء «Satori™» الذين يؤتْمِتُون مهام الأمن، مثل محاكاة التصيّد وفرز التنبيهات؛ ما يضاعف قدرات مراكز العمليات الأمنية بسرعة تفوق العمل البشري. وتجمع هذه المنظومة بين الحماية الاستباقية وإدارة البيانات والرقابة الدقيقة، لتوفّر ما وصفه الرئيس التنفيذي للشركة بأنه «الجيل التالي من الأمن المتمحور حول الإنسان، من حماية البشر إلى حماية الوكلاء الذين يعملون معهم».

سوميت دواهان الرئيس التنفيذي لشركة «بروف بوينت» متحدثاً إلى «الشرق الأوسط» (بروف بوينت)

جاهزية سعودية متسارعة

يبني الخليج، وفي مقدمته المملكة العربية السعودية، المواهب والبنية التحتية لتطبيق بيئات العمل الوكيلة على نطاق واسع؛ فقد دخلت المملكة ضمن أعلى 20 دولة عالمياً في مواهب الذكاء الاصطناعي عام 2025. وتوسّع مبادرات النماذج اللغوية الضخمة مثل مشروع «علّام» (HUMAIN ALLAM) يعكس هذا التوجه، إلى جانب نمو الحوسبة السحابية السيادية. وأعلنت «بروف بوينت» عن مركز بيانات محلي يوفّر حلولها الأمنية المتمحورة حول الإنسان، بما يتوافق مع متطلبات الهيئة الوطنية للأمن السيبراني (NCA).

ويؤكد الرئيس التنفيذي سوميت دواهان في حديثه لـ«الشرق الأوسط» أن «تسليم حلولنا عبر مركز بيانات محلي يبرز استثمارنا المستمر في هذه المنطقة المحورية، ويؤكد التزامنا بمواكبة التحوّل الرقمي السريع في المملكة ضمن رؤية 2030».

الإنسان والآلة... هدف واحد

هذا التوسُّع يتقاطع مع بروز جبهة جديدة للهجمات السيبرانية؛ حيث تصبح الثقة سطح الهجوم الجديد. فالتقنيات التوليدية تمكّن المهاجمين من إنشاء رسائل تصيّد دقيقة وصفحات تسجيل دخول مزيفة على نطاق واسع، فيما يتيح «حقن الأوامر» تمرير تعليمات خفية إلى المحادثات لينفذها المساعد الذكي بصمت. وقدّمت «بروف بوينت» خريطة «Threat Interaction Map» التي تتيح لفرق الأمن تصوِّر هذه الهجمات متعددة القنوات، إلى جانب أداة «SSO Password Guard» التي تمنع إدخال بيانات الاعتماد في تطبيقات غير مصرَّح بها، لسد ثغرات لا تغطيها الدفاعات البشرية وحدها.

عقدت قمة «Proofpoint Protect 2025» في مدينة ناشفيل الأميركية بحضور مئات المختصين في الأمن السيبراني (بروف بوينت)

تحوّل جوهري يتجاوز موضة الذكاء الاصطناعي

يؤكد دواهان أن «مساحة العمل الوكيلة» تمثل تحولاً حقيقياً «لا مجرد موجة عابرة». ويشرح في حديثه مع «الشرق الأوسط» أن «أكبر تغيير يقدمه الذكاء الاصطناعي هو طريقة عمل البشر جنباً إلى جنب مع الوكلاء الذكيين؛ ما يمنحنا الحق في توسيع دورنا من حماية الأفراد إلى حماية البشر والوكلاء معاً». ويضيف: «مع التقنيات التوليدية والعملات الرقمية، لم تعد اللغة أو الجغرافيا أو العملة عائقاً أمام المهاجمين. يمكنهم الآن شن هجمات متطورة على نطاق واسع، وهو ما دفعنا للتوسع عالمياً، وجعل أعمالنا الدولية تنمو بمعدل يقارب ضعف أعمالنا في الولايات المتحدة».

أعطت قمة «Proofpoint Protect 2025» انطباعاً بأنها نقطة تحول شبيهة بدخول الخليج عالم الحوسبة السحابية قبل عقد من الزمن، حين سارعت الشركات إلى تحديث بنيتها الرقمية. واليوم، تستعد المنطقة لمرحلة جديدة تسمح للذكاء الاصطناعي بالمشاركة الفعلية في إنجاز العمل. ومع سياسات صارمة لحماية البيانات، واستثمارات ضخمة في الذكاء الاصطناعي، وقوى عاملة شابة تتبنى التقنيات بسرعة، تبدو «رؤية 2030» أرضاً مثالية لتجربة هذا المستقبل.


مقالات ذات صلة

ما الاختراق القادم في مجال الذكاء الاصطناعي الذي يتوقعه رئيس «أوبن إيه آي»؟

تكنولوجيا سام ألتمان رئيس شركة «أوبن إيه آي» (رويترز)

ما الاختراق القادم في مجال الذكاء الاصطناعي الذي يتوقعه رئيس «أوبن إيه آي»؟

توقع سام ألتمان، رئيس شركة «أوبن إيه آي»، أن يكون الإنجاز الكبير التالي نحو تحقيق ذكاء اصطناعي فائق القدرة هو اكتساب هذه الأنظمة «ذاكرة لا نهائية، ومثالية».

«الشرق الأوسط» (واشنطن)
تكنولوجيا صورة مركبة عن الذكاء الاصطناعي (رويترز)

خبراء يحذرون: الذكاء الاصطناعي قد ينفذ هجمات إلكترونية بمفرده

حذرت مجموعة من الخبراء من قيام نماذج الذكاء الاصطناعي بتحسين مهاراتها في الاختراق، مشيرين إلى أن تنفيذها هجمات إلكترونية بمفردها يبدو أنه «أمر لا مفر منه».

«الشرق الأوسط» (نيويورك)
تكنولوجيا ستبقى شركة «أوبن إيه آي» اليافعة من سان فرانسيسكو بالولايات المتحدة رمزاً للعبقرية التي أطلقت الذكاء الاصطناعي التوليدي وأتاحته على أوسع نطاق (رويترز)

هيمنة شركة «أوبن إيه آي» على سوق الذكاء الاصطناعي تهتز بعد 3 سنوات صدارة

بعد ثلاث سنوات من الصدارة، باتت منصة شركة «أوبن إيه آي» للذكاء الاصطناعي - تطبيق «تشات جي بي تي» - مهددة بفعل اشتداد المنافسة.

«الشرق الأوسط» (نيويورك)
شهدت الدورة الحالية للمسابقة تقديم أكثر من 10 آلاف مشروع مبتكر تعتمد كلها على تقنيات الذكاء الاصطناعي (الشرق الأوسط)

السعودية تتوّج بالمركز الأول في أضخم مسابقة دولية في الذكاء الاصطناعي

تُوِّجت السعودية بالمركز الأول عالمياً في مسابقة الذكاء الاصطناعي العالمية للشباب (WAICY 2025)، بعد تحقيقها 26 جائزة في المسابقة.

«الشرق الأوسط» (الرياض)
الخليج المهندس أحمد الصويان وأنطونيو غوتيريش يبحثان الموضوعات المشتركة وسُبل التعاون (هيئة الحكومة الرقمية)

غوتيريش يشيد بتقدم السعودية النوعي في الحكومة الرقمية

أشاد أنطونيو غوتيريش، أمين عام الأمم المتحدة، بما حققته السعودية من تقدم نوعي في مجال الحكومة الرقمية، عادّاً ما وصلت إليه نموذجاً دولياً رائداً.

«الشرق الأوسط» (الرياض)

ما الاختراق القادم في مجال الذكاء الاصطناعي الذي يتوقعه رئيس «أوبن إيه آي»؟

سام ألتمان رئيس شركة «أوبن إيه آي» (رويترز)
سام ألتمان رئيس شركة «أوبن إيه آي» (رويترز)
TT

ما الاختراق القادم في مجال الذكاء الاصطناعي الذي يتوقعه رئيس «أوبن إيه آي»؟

سام ألتمان رئيس شركة «أوبن إيه آي» (رويترز)
سام ألتمان رئيس شركة «أوبن إيه آي» (رويترز)

توقع سام ألتمان، رئيس شركة «أوبن إيه آي»، أن يكون الإنجاز الكبير التالي نحو تحقيق ذكاء اصطناعي فائق القدرة هو اكتساب هذه الأنظمة «ذاكرة لا نهائية، ومثالية».

وقد ركزت التطورات الأخيرة التي حققها مبتكر «تشات جي بي تي»، بالإضافة إلى منافسيه، على تحسين قدرات الذكاء الاصطناعي على الاستدلال، وفقاً لصحيفة «إندبندنت».

لكن في حديثه ضمن بودكاست، قال ألتمان إن التطور الذي يتطلع إليه بشدة هو قدرة الذكاء الاصطناعي على تذكر «كل تفاصيل حياتك»، وأن شركته تعمل على الوصول إلى هذه المرحلة بحلول عام 2026.

شرح ألتمان: «حتى لو كان لديك أفضل مساعد شخصي في العالم... فلن يستطيع تذكر كل كلمة نطقت بها في حياتك».

وأضاف: «لا يمكنه قراءة كل وثيقة كتبتها. ولا يمكنه الاطلاع على جميع أعمالك يومياً، وتذكر كل تفصيل صغير. ولا يمكنه أن يكون جزءاً من حياتك إلى هذا الحد. ولا يوجد إنسان يمتلك ذاكرة مثالية لا متناهية».

وأشار ألتمان إلى أنه «بالتأكيد، سيتمكن الذكاء الاصطناعي من فعل ذلك. نتحدث كثيراً عن هذا الأمر، لكن الذاكرة لا تزال في مراحلها الأولى جداً».

تأتي تصريحاته بعد أسابيع قليلة من إعلانه حالة طوارئ قصوى في شركته عقب إطلاق «غوغل» لأحدث طراز من برنامج «جيميناي».

وصفت «غوغل» برنامج «جيميناي 3» بأنه «عهد جديد من الذكاء» عند إطلاقها تطبيق الذكاء الاصطناعي المُحدّث في نوفمبر (تشرين الثاني)، حيث حقق النموذج نتائج قياسية في العديد من اختبارات الأداء المعيارية في هذا المجال.

قلّل ألتمان من خطورة التهديد الذي يمثله مشروع «جيميناي 3»، مدعياً ​​أن ردّ شركة «أوبن إيه آي» الحازم على المنافسة الجديدة ليس بالأمر غير المألوف.

وقال: «أعتقد أنه من الجيد توخي الحذر، والتحرك بسرعة عند ظهور أي تهديد تنافسي محتمل».

وتابع: «حدث الشيء نفسه لنا في الماضي، حدث ذلك في وقت سابق من هذا العام مع (ديب سيك)... لم يكن لـ(جيميناي 3) التأثير الذي كنا نخشى أن يحدث، ولكنه حدد بعض نقاط الضعف في منتجاتنا واستراتيجيتنا، ونحن نعمل على معالجتها بسرعة كبيرة».

يبلغ عدد مستخدمي «تشات جي بي تي» حالياً نحو 800 مليون، وفقاً لبيانات «أوبن إيه آي»، وهو ما يمثل نحو 71 في المائة من حصة سوق تطبيقات الذكاء الاصطناعي. ويقارن هذا الرقم بنسبة 87 في المائة في الفترة نفسها من العام الماضي.


5 طرق مُدهشة لاستخدام الذكاء الاصطناعي

5 طرق مُدهشة لاستخدام الذكاء الاصطناعي
TT

5 طرق مُدهشة لاستخدام الذكاء الاصطناعي

5 طرق مُدهشة لاستخدام الذكاء الاصطناعي

أُحبّذ دفع الذكاء الاصطناعي نحو مزيد من التميّز. فعندما تكون مساعدات الذكاء الاصطناعي أقل رتابة وأكثر جرأة، فإنها تُحفّزني على إعادة التفكير وتُشجّعني على إعادة النظر في أفكاري.

أساليب غير تقليدية

لذا، طلبتُ من ألكسندرا صموئيل، إحدى أكثر مُجرّبات الذكاء الاصطناعي جرأةً التي أعرفها، أن تُشاركني نصائحها وأساليبها غير التقليدية خلال زيارتها الأخيرة لنيويورك قادمةً من فانكوفر.

ألكسندرا، التي تكتب عن الذكاء الاصطناعي في صحيفة «وول ستريت جورنال» ومجلة «هارفارد بزنس ريفيو»، فاجأتني بحجم جهودها في هذا المجال. فقد وصفت كيف أنشأت أكثر من 200 برنامج أتمتة، وكيف بنت قاعدة بيانات شخصية للأفكار تُساعدها على صياغة رسائل البريد الإلكتروني التسويقية.

أما أغرب أساليبها؟ فهو استخدام تطبيق «سونو» لتوليد أغانٍ لشرح المفاهيم المُعقّدة. ويستكشف بودكاستها الجديد المفعم بالحيوية «أنا + فيف Me + Viv»، علاقتها غير المألوفة مع مساعد ذكاء اصطناعي درّبته ليكون بمنزلة مدربها وشريكها. وهي تُجري مقابلات مع مُشكّكين في الذكاء الاصطناعي.

نصائح لتوظيف الذكاء الاصطناعي

وإليكم خمس نصائح من ألكسندرا:

1. استخدم «سونو Suno» لتحويل الكلمات إلى موسيقى جذابة.

* ما «سونو»؟ منصة لتوليد الموسيقى بالذكاء الاصطناعي لإنشاء أغانٍ مخصصة. تستخدم أليكس «سونو» بكثرة لإنشاء أغانٍ لبودكاستها عن الذكاء الاصطناعي، وتعده أداةً لسرد القصص أكثر من كونه مجرد أداة لإنشاء الموسيقى. وتقول: «أشبه بقرد يلعب بآلة قمار. من المعتاد أن أُنشئ الأغنية نفسها 50 أو 100 مرة، وربما حتى 200 مرة».

تساعدها هذه العملية التكرارية على الوصول إلى النسخة المثالية. وتقول إن «سونو» يواجه صعوبة في التبديل بين الأصوات الذكورية والأنثوية، أو الأنماط الموسيقية، أو اللغات في أثناء غناء الأغنية. وتقترح أليكس استخدام كلماتك الخاصة مع «سونو» للحصول على نتائج أفضل من الاعتماد على خاصية توليد الكلمات المدمجة.

جرّبه في: تحويل المقالات أو الإعلانات إلى أغانٍ ترويجية قصيرة؛ أو إنشاء شروحات موسيقية جذابة؛ أو إنشاء أغنية للاشتراك في النشرة الإخبارية.

* بديلٌ آخر توصي به: العمل بشكل تكراري مع مساعد ذكاء اصطناعي مثل«كلود» Claude لتطوير كلمات الأغاني التي تستوردها بعد ذلك إلى «سونو».

* بدائل اخرى: Udio، ElevenLabs Music.

مركز مرن وسهل للإنتاجية

2. «كودا» Coda. أنشئ مركز إنتاجيتك الخاص.

* ما «كودا Coda»؟ أداة برمجية لإنشاء مستندات وقواعد بيانات مخصصة. لقد كتبتُ سابقاً عن مدى التقليل من شأن Coda كبديل لأدوات مفيدة أخرى مثل Notion وAirtable.

تصف أليكس «كودا» بأنه مركز شامل يمكنك من خلاله بناء أدواتك الخاصة. وتجعله ميزات الذكاء الاصطناعي الجديدة أسهل استخداماً وأكثر مرونة. استخدمت أليكس «كودا» لتصميم «آلة عرض الأفكار» الخاصة بها، وهي نظام متطور لتتبع القصص.

لديها جدول واحد في آلة عرض الأفكار يحتوي على جميع أفكار قصصها. وجدول آخر في «كودا» يحتوي على جميع المنشورات التي تكتب هي لها، مع أسماء المحررين ومعلومات الاتصال بهم.

بضغطة زر في «كودا»، يمكنها دمج عدة أفكار قصص في مسودة واحدة على جي ميل مع تحديث حقول التتبع وتواريخ المتابعة تلقائياً. استغرق الإعداد بعض الوقت، لكنه يوفر لها الآن الكثير من الوقت.

لمن صُمم «كودا»؟ توصي أليكس باستعماله للمستخدمين المتقدمين الذين يستمتعون بالتجربة التقنية.

* جرّبه في: تتبع أفكار المشاريع والحملات، وإدارة قاعدة بيانات العملاء، أو إنشاء رسائل البريد الإلكتروني أو رسائل «سلاك» تلقائياً.

* بدائل اخرى: Notion, Airtable, Google Workspace, Obsidian.

إنشاء فيديوهات اجتماعية

3. «كاب كات». CapCut إنشاء فيديوهات اجتماعية بمساعدة الذكاء الاصطناعي.

* ما «كاب كات»؟ منصة لتحرير الفيديو مزودة بميزات الذكاء الاصطناعي.

تستخدم أليكس «كاب كات»، بالإضافة إلى نصوص Python مخصصة، لإنشاء فيديوهات موسيقية لمنصات «إنستغرام» و«يوتيوب» و«تيك توك». وتقول إن لديها مشاعر مختلطة تجاه «كاب كات» بسبب ملكية TikTok/ByteDance له، لكنها تعتمد عليه حالياً. وهي تعمل على نظام لمزامنة ظهور الترجمة على الشاشة مع لحظة سماع كلمات الأغنية.

* جرّبه في: إنشاء فيديوهات أنيقة مع ترجمة مكتوبة لوسائل التواصل الاجتماعي، أو لتحويل ملفات البودكاست إلى فيديوهات.

* بدائل اخرى: Captions, Descript، أو Kapwing.

الوثائق والمستندات

4. «كلاود + بروتوكول سياق النموذج إم سي بي» Claude + MCP... ربط الذكاء الاصطناعي بمستنداتك.

* ما «كلاود+ بروتوكول سياق النموذج إم سي بي»؟ هو مساعد ذكاء اصطناعي متصل بقواعد بيانات وأدوات خارجية عبر بروتوكول سياق النموذج Model Context Protocol (MCP).

تتيح خوادم MCP ربط المواقع والتطبيقات بمنصات الذكاء الاصطناعي. وهكذا ربطت أليكس حسابها على منصة «كودا» ببرنامج «كلاود».

والآن بعد الربط، تستطيع أليكس طرح أسئلة بسيطة على «كلاود»، الذي يمكنه بدوره البحث عن معلومات في مستنداتها على «كودا».

تقول ألكسندرا: «بإمكاني ببساطة إجراء محادثة مع (كلاود)، مثلاً: مرحباً (كلاود)، لقد تحدثتُ للتو مع محرر. يبحث عن مقالات حول خصوصية البيانات. هل يمكنك الاطلاع على مستندي على (كودا) ومعرفة أفكار القصص التي قد تكون ذات صلة؟». وتؤكد ألكسندرا أهمية الاعتبارات الأمنية: يجب على الصحافيين الذين يغطون مواضيع حساسة تجنب هذا النوع من سير العمل التجريبي إذا كانوا يحمون معلومات من مصادر مجهولة.

تؤكد ألكسندرا أهمية مراعاة الجوانب الأمنية: يجب على الصحافيين الذين يغطون مواضيع حساسة تجنب هذا النوع من سير العمل التجريبي إذا كانوا يحمون معلومات من مصادر مجهولة.

* جرّبه في: الاستعلام عن قواعد البيانات المعقدة، والعثور على أعمال سابقة ذات صلة بالمشاريع الجديدة، وتحليل الأنماط في مستنداتك، ودمج مصادر بيانات متعددة لاستخلاص رؤى قيّمة.

* بدائل أخرى: موصل Google Drive في Claude أو ChatGPT؛ أو إعداد مخصص لـ NotebookLM.

إنجاز المهمات بسرعة

5. «كلاود كود Claude Code»: قلّل من العمل المتكرر.

* ما «كلاود كود»؟ مساعد برمجة مدعوم بالذكاء الاصطناعي يعمل محلياً على جهاز الكمبيوتر الخاص بك، ويساعد المطورين على كتابة التعليمات البرمجية بشكل أسرع، كما يساعد غير المبرمجين على إنجاز المهام التقنية باستخدام توجيهات اللغة الطبيعية. يمكنك استخدامه لتنظيم الملفات على حاسوبك المحمول، أو إنشاء برامج Python النصية، أو تصميم تطبيقات أو ألعاب تفاعلية صغيرة.

على الرغم من تدريبه المحدود في البرمجة، فقد كتبت الكسندرا نحو 200 برنامج Python نصي باستخدام «كلاود كود». وقد ساعدت نصوص ألكسندرا البرمجية في دمج ملفات PDF وإنشاء ترجمات مُرمّزة زمنياً للفيديوهات. كما استخدمت «كلاود كود». لإنشاء إضافة خاصة بها لمتصفح «فايرفوكس» لتطبيق تتبع مالي.

* جرّبه في: معالجة الملفات دفعة واحدة، أو تحويل البيانات، أو إنشاء إضافات للمتصفح لحل مشكلاتك الخاصة.

- مجلة «فاست كومباني»، خدمات «تريبيون ميديا».

Your Premium trial has ended


فيديوهات الذكاء الاصطناعي المُضللة تغمر مواقع التواصل الاجتماعي

فيديوهات الذكاء الاصطناعي المُضللة تغمر مواقع التواصل الاجتماعي
TT

فيديوهات الذكاء الاصطناعي المُضللة تغمر مواقع التواصل الاجتماعي

فيديوهات الذكاء الاصطناعي المُضللة تغمر مواقع التواصل الاجتماعي

انتشر، في أكتوبر (تشرين الأول) الماضي، مقطع فيديو على تطبيق «تيك توك» يُظهر امرأة تُجري مقابلة مع مراسلة تلفزيونية حول بيع قسائم الطعام (التي تمنح في أميركا لضعيفي الدخل)، كما كتب ستيفن لي مايرز وستيوارت إيه طومسون(*).

لم تكن المرأة حقيقية، ولم يحدث هذا الحوار أصلاً؛ فقد تم توليد الفيديو بواسطة الذكاء الاصطناعي. ومع ذلك، بدا أن الناس يعتقدون أن هذا حوار حقيقي حول بيع قسائم الطعام مقابل المال، وهو ما يُعد جريمة.

وقد انخدعت قناة «فوكس نيوز» بفيديو مزيف مماثل، معتبرة إياه مثالاً على الغضب الشعبي إزاء إساءة استخدام قسائم الطعام، وذلك في مقال تم حذفه لاحقاً من موقعها الإلكتروني.

تُظهر مقاطع الفيديو، مثل المقابلة المُفبركة التي تم إنشاؤها باستخدام تطبيق «سورا» الجديد من «أوبن إيه آي»، مدى سهولة التلاعب بالرأي العام، بواسطة أدوات قادرة على خلق واقع بديل، من خلال سلسلة من التوجيهات البسيطة.

وفي الشهرين الماضيين منذ إطلاق «سورا»، انتشرت مقاطع الفيديو المُضللة بشكل كبير على منصات «تيك توك»، و«إكس»، و«يوتيوب»، و«فيسبوك»، و«إنستغرام»، وفقاً لخبراء مُختصين في رصدها. وقد أثار هذا الانتشار الواسع مخاوف بشأن جيل جديد من المعلومات المُضللة والأخبار الكاذبة.

عدم كفاية وسائل ضبط التضليل

تتبنى معظم شركات التواصل الاجتماعي الكبرى سياسات تُلزم بالإفصاح عن استخدام الذكاء الاصطناعي، وتحظر بشكل عام المحتوى الذي يهدف إلى التضليل. إلا أن هذه الضوابط أثبتت عدم كفايتها بشكل كبير، لمواكبة التطورات التكنولوجية الهائلة التي تُمثلها أدوات «أوبن إيه آي».

وبينما يُقدم العديد من مقاطع الفيديو صوراً ساخرة أو صوراً مُفبركة لأطفال وحيوانات أليفة؛ فإن بعضها الآخر يهدف إلى تأجيج الكراهية التي غالباً ما تُهيمن على النقاشات السياسية على الإنترنت. وقد استخدمت هذه المقاطع بالفعل في عمليات التأثير الأجنبي.

مسؤوليات الشركات

وقال باحثون تتبعوا الاستخدامات الخادعة إن المسؤولية تقع الآن على عاتق الشركات لبذل المزيد من الجهد لضمان معرفة الناس بالحقيقي والمزيف.

وتساءل سام غريغوري، المدير التنفيذي لمنظمة «ويتنس Witness» (الشاهد) المعنية بحقوق الإنسان التي تركز على مخاطر التكنولوجيا: «هل بإمكانهم تحسين إدارة المحتوى ومكافحة المعلومات المضللة والمغلوطة؟ من الواضح أنهم لا يفعلون ذلك. هل بإمكانهم بذل المزيد من الجهد في البحث الاستباقي عن المعلومات المولدة بواسطة الذكاء الاصطناعي وتصنيفها بأنفسهم؟ الإجابة هي: (نعم) أيضاً - أي أنهم لا يفعلون ذلك».

ولم تستخدم الفيديوهات المُفبركة للسخرية من الفقراء فقط، بل من الرئيس ترمب أيضاً.

وحتى الآن، اعتمدت هذه المنصات بشكل كبير على مُنشئي المحتوى للكشف عن أن المحتوى الذي ينشرونه غير حقيقي، لكن هؤلاء لا يفعلون ذلك دائماً. ورغم وجود طرق تُمكّن منصات، مثل «يوتيوب» و«تيك توك» وغيرهما، من اكتشاف أن الفيديو مُفبرك باستخدام الذكاء الاصطناعي، إلا أنها لا تُنبّه المشاهدين دائماً على الفور.

وقالت نبيهة سيد، المديرة التنفيذية لمؤسسة «موزيلا»، وهي مؤسسة غير ربحية تُعنى بسلامة التكنولوجيا وتدعم متصفح «فايرفوكس»، مُعلقة على شركات التواصل الاجتماعي: «كان ينبغي عليهم أن يكونوا مُستعدين».

علامات رصد التزييف

تؤكد الشركات المطورة لأدوات الذكاء الاصطناعي أنها تسعى لتوضيح طبيعة المحتوى المُنشأ بواسطة الكومبيوترات، للمستخدمين. وتقوم كل من «سورا» والأداة المنافسة «فيو» التي تقدمها «غوغل»، بوضع علامة مائية مرئية على مقاطع الفيديو التي تنتجها. فعلى سبيل المثال، تضع «سورا» علامة «سورا» على كل فيديو. كما تُضيف الشركتان بيانات وصفية غير مرئية، يمكن قراءتها بواسطة الحاسوب، لتحديد مصدر كل فيديو مزيف.

وتتمثل الفكرة في إعلام المستخدمين بأن ما يشاهدونه ليس حقيقياً، وتزويد المنصات التي تعرض هذه الفيديوهات بالإشارات الرقمية اللازمة لكشفها تلقائياً.

تستخدم بعض المنصات هذه التقنية؛ فقد أعلنت منصة «تيك توك»، استجابة على ما يبدو للمخاوف بشأن مدى إقناع الفيديوهات المزيفة، الأسبوع الماضي، أنها ستشدد قواعدها المتعلقة بالإفصاح عن استخدام الذكاء الاصطناعي. كما وعدت بأدوات جديدة تُمكّن المستخدمين من تحديد مقدار المحتوى المُصطنع - مقارنة بالمحتوى الحقيقي - الذي يرغبون بمشاهدته.

ويستخدم «يوتيوب» العلامة المائية غير المرئية لتقنية «سورا» لإضافة ملصق صغير يُشير إلى أن فيديوهات الذكاء الاصطناعي «مُعدّلة أو مُصطنعة».

وقال جاك مالون، المتحدث باسم «يوتيوب»: «يرغب المشاهدون بشكل متزايد في مزيد من الشفافية حول ما إذا كان المحتوى الذي يشاهدونه مُعدّلاً أم مُصطنعاً».

سهولة التحايل

مع ذلك، قد تظهر الملصقات أحياناً بعد أن يشاهد الفيديوهات آلاف أو حتى ملايين الأشخاص. وفي بعض الأحيان، لا تظهر على الإطلاق.

وقد اكتشف أصحاب النيات الخبيثة سهولة التحايل على قواعد الإفصاح. فبعضهم يتجاهلها ببساطة، بينما يقوم آخرون بالتلاعب بالفيديوهات لإزالة العلامات المائية التعريفية. ووجدت صحيفة «نيويورك تايمز» عشرات الأمثلة على فيديوهات «سورا» التي تظهر على «يوتيوب» من دون العلامة الآلية.

وقد ظهرت عدة شركات تقدم خدمات إزالة الشعارات والعلامات المائية. كما أن تعديل الفيديوهات أو مشاركتها قد يؤديان إلى إزالة البيانات الوصفية المضمنة في الفيديو الأصلي، التي تشير إلى أنه تم إنشاؤه باستخدام الذكاء الاصطناعي.

وحتى عندما تبقى الشعارات ظاهرة، قد لا يلاحظها المستخدمون أثناء التصفح السريع على هواتفهم.

انخداع المشاهدين

ووفقاً لتحليل التعليقات الذي أجرته صحيفة «نيويورك تايمز»، الذي استخدم أدوات الذكاء الاصطناعي للمساعدة في تصنيف محتوى التعليقات، فإن ما يقرب من الثلثين، من ضمن أكثر من 3000 مستخدم علّقوا على فيديو «تيك توك» حول قسائم الطعام، تعاملوا معه كما لو كان حقيقياً.

وفي بيان لها، قالت «أوبن إيه آي» إنها تحظر الاستخدامات الخادعة أو المضللة لـ«سورا»، وتتخذ إجراءات ضد منتهكي سياساتها. وأضافت الشركة أن تطبيقها ليس سوى واحد من بين عشرات الأدوات المماثلة القادرة على إنشاء فيديوهات واقعية بشكل متزايد لا يطبق العديد منها أي ضمانات أو قيود على الاستخدام.

وأضافت الشركة: «تُنشأ مقاطع الفيديو المُولّدة بواسطة الذكاء الاصطناعي، وتُشارك عبر العديد من الأدوات المختلفة، لذا فإنّ معالجة المحتوى المُضلّل تتطلّب جهداً شاملاً من جميع الأطراف المعنية».

من جهته قال متحدث باسم شركة «ميتا»، المالكة لـ«فيسبوك» و«إنستغرام»، إنّه ليس من الممكن دائماً تصنيف جميع مقاطع الفيديو المُولّدة بواسطة الذكاء الاصطناعي، لا سيما مع التطور السريع لهذه التقنية. وأضاف أنّ الشركة تعمل على تحسين أنظمة تصنيف المحتوى.

ولم تستجب منصتا «إكس» و«تيك توك» لطلبات التعليق على انتشار مقاطع الفيديو المُزيّفة المُولّدة بواسطة الذكاء الاصطناعي.

لا يوجد حافز مالي لتقييد نشر الفيديوهات

وقال ألون يامين، الرئيس التنفيذي لشركة «Copyleaks»، وهي شركة تُعنى بكشف محتوى الذكاء الاصطناعي، إنّ منصات التواصل الاجتماعي لا تملك أي حافز مالي لتقييد انتشار مقاطع الفيديو طالما استمرّ المستخدمون في النقر عليها.

وأضاف: «على المدى البعيد، عندما يُصبح 90 في المائة من حركة المرور على المحتوى في منصّتك مُولّداً بواسطة الذكاء الاصطناعي، فإنّ ذلك يُثير تساؤلات حول جودة المنصّة والمحتوى.. لذا ربما على المدى الطويل، قد تكون هناك حوافز مالية أكبر لضبط محتوى الذكاء الاصطناعي فعلياً. لكن على المدى القصير، لا يمثل ذلك أولوية رئيسية».

* خدمة «نيويورك تايمز»