هل يصبح «الذكاء الاصطناعي المظلم» التهديد الأخطر القادم للأمن السيبراني؟

«كاسبرسكي»: المعركة المقبلة بين «ذكاءين اصطناعيين»

تشير تحليلات أمنية إلى أن نماذج الذكاء الاصطناعي المظلم تُستخدم في حملات تصيد وهجمات فدية (شاترستوك)
تشير تحليلات أمنية إلى أن نماذج الذكاء الاصطناعي المظلم تُستخدم في حملات تصيد وهجمات فدية (شاترستوك)
TT

هل يصبح «الذكاء الاصطناعي المظلم» التهديد الأخطر القادم للأمن السيبراني؟

تشير تحليلات أمنية إلى أن نماذج الذكاء الاصطناعي المظلم تُستخدم في حملات تصيد وهجمات فدية (شاترستوك)
تشير تحليلات أمنية إلى أن نماذج الذكاء الاصطناعي المظلم تُستخدم في حملات تصيد وهجمات فدية (شاترستوك)

عند تقاطع الذكاء الاصطناعي والأمن السيبراني، تبرز ساحة معركة جديدة تتسارع فيها وتيرة المخاطر: ما يُعرف بـ«الذكاء الاصطناعي المظلم». فمع ازدياد قوة أدوات الذكاء الاصطناعي وسهولة الوصول إليها، لم تعد هذه التقنيات حكراً على المطورين أو الباحثين، بل أصبحت في متناول مجرمي الإنترنت الذين باتوا يستخدمونها لأتمتة الهجمات، وتوسيع نطاقها، وتخصيصها بدقة غير مسبوقة.

هذا التحوّل كان في صميم تحذيرات خبراء شركة «كاسبرسكي»، خلال مشاركتهم في مؤتمر «Cyber Security Weekend 2025» الذي عُقد مؤخراً في جزيرة بوكيت التايلاندية، حيث ناقشوا مع «الشرق الأوسط» ملامح المرحلة المقبلة من التهديدات السيبرانية المدفوعة بالذكاء الاصطناعي.

أليكسي أنتونوف قائد فريق مركز أبحاث تقنيات الذكاء الاصطناعي لدى «كاسبرسكي» متحدثاً خلال المؤتمر (كاسبرسكي)

من الابتكار إلى الاستغلال

لطالما مثّل الذكاء الاصطناعي وعداً بتحولات جذرية في مختلف القطاعات من الرعاية الصحية والتعليم، إلى عالم التمويل والخدمات اللوجستية. لكن كأي أداة قوية، يبقى استخدامه مرهوناً بالنيات: فقد يكون محفزاً للابتكار، أو وسيلة فعالة في أيدي من يسعى للإضرار.

يقول أليكسي أنتونوف، قائد فريق مركز أبحاث تقنيات الذكاء الاصطناعي في «كاسبرسكي»، إن المهاجمين المحترفين بدأوا بالفعل تسخير الذكاء الاصطناعي لتعزيز أدواتهم. لكنه يحذر من المرحلة المقبلة: «الخطر الحقيقي سيظهر عندما يتمكن غير المحترفين من استخدام هذه النماذج بسهولة».

ويشاركه الرأي سيرغي لوجكين، رئيس فريق البحث والتحليل العالمي (GReAT) في «كاسبرسكي»، موضحاً أن «الذكاء الاصطناعي في الوقت الراهن لا يزال بحاجة إلى تدخل بشري لصياغة برمجيات خبيثة فعالة، لكن هذا الوضع لن يستمر طويلاً».

ويفصّل أنتونوف المشهد التقني الحالي، قائلاً إن النماذج الذكية اليوم يمكنها إنتاج شيفرات خبيثة، لكنها لا تزال تحتاج إلى تعديل يدوي لتجاوز أنظمة الحماية. فيما يؤكد لوجكين أن «الكود» الناتج يحتاج عادة إلى «تصحيح وتحسين بشري ليحقق أهدافه»، إلا أن كلا الخبيرين يتفقان على أن المستقبل القريب سيشهد بروز نماذج قادرة على إنتاج برمجيات خبيثة متقدمة بشكل تلقائي، دون تدخل بشري يُذكر.

سيرغي لوجكين، رئيس فريق البحث والتحليل العالمي (GReAT) في «كاسبرسكي» متحدثاً خلال المؤتمر (كاسبرسكي)

ولادة «الذكاء الاصطناعي المظلم»

قدّم كل من أنتونوف ولوجكين مفهوماً مقلقاً لما يُعرف بـ«الذكاء الاصطناعي المظلم»، وهي نماذج لغوية ضخمة يتم تطويرها أو تعديلها على يد مجرمي الإنترنت، بعيداً عن أي قيود أخلاقية أو ضوابط أمنية. يصف أنتونوف هذه النماذج بأنها «صُممت من مجرمين... لمجرمين». أما لوجكين فيُفصّل الأمر بقوله: «إذا حاولت استخدام نموذج ذكاء اصطناعي شرعي لإنشاء برمجية خبيثة، فسيرفض. أما الذكاء الاصطناعي المظلم، فلن يضع أي حدود، وسينفذ كل ما تطلبه من رسائل تصيّد مقنعة إلى نسخ مزيّفة من مواقع إلكترونية شهيرة».

سلاح الذكاء الاصطناعي الحقيقي

ورغم أن التركيز الإعلامي غالباً ما ينصب على القدرات الإبداعية للذكاء الاصطناعي، فإن التهديد الحقيقي يكمن في سرعته وقابليته للتوسع. ففي السابق، كان على المهاجمين إعادة كتابة الشيفرات يدوياً لتجاوز أنظمة الحماية بعد اكتشافها. أما اليوم، فيكفي أن يُدخل المهاجم أمراً بسيطاً مثل «اجعلها غير قابلة للكشف»، ليقوم الذكاء الاصطناعي بالباقي.

يشرح لوجكين أن هذا التطور يُسرّع بشكل كبير من دورات إنتاج البرمجيات الخبيثة، حيث يمكن للذكاء الاصطناعي تعديل البنى البرمجية القائمة وإضافة وظائف جديدة خلال وقت قصير، مع الحاجة إلى تدخل بشري محدود. هذه السرعة تمنح المهاجمين المحترفين وغير المحترفين ميزة واضحة، وتوسّع دائرة التهديد بشكل غير مسبوق.

ويستشهد لوجكين بمجموعة «فانكسيك» (FunkSec) التي ظهرت عام 2024 كنموذج لهذا التحول؛ إذ استخدمت شيفرات مكتوبة بالكامل بالذكاء الاصطناعي، مصحوبة بتعليقات برمجية عالية الجودة، لتنفيذ هجمات فدية مزدوجة. وتميزت هذه المجموعة باتباع نموذج «منخفض الكلفة وعالي الحجم»، معتمدة على أدوات الذكاء الاصطناعي لزيادة الكفاءة وتقليل التكاليف وهو تحول نوعي في أسلوب عمل مجرمي الإنترنت.

تحذر تقارير بأن الهجمات السيبرانية المدعومة بالذكاء الاصطناعي تزداد تعقيداً وسرعةً ما يجعل التصدي لها أكثر صعوبة (شاترستوك)

التحول والتكيف

من بين أبرز المخاوف المتصاعدة، استخدام الذكاء الاصطناعي في تطوير برمجيات خبيثة متحورة قادرة على تغيير شكلها باستمرار لتفادي أنظمة الكشف التقليدية. يوضح لوجكين: «كل عينة جديدة من البرمجية نفسها قد تبدو مختلفة»، مشيراً إلى أن النماذج الذكية أصبحت قادرة على توليد هذه المتغيرات بشكل تلقائي.

وخلال حديثه مع «الشرق الأوسط»، يضيف لوجكين أن المهاجمين بات بإمكانهم كذلك استخدام الذكاء الاصطناعي لتوليد وحدات خبيثة جديدة مثل أدوات تسجيل المفاتيح أو اعتراض الكاميرات بناءً على قوالب برمجية جاهزة، ما يجعل تطوير الهجمات أسرع وأقل تكلفة من أي وقت مضى.

ومع تصاعد هذا التهديد، يؤكد كل من أنتونوف ولوجكين أن المدافعين لا يزالون يملكون الفرصة للتفوق، بشرط تغيير طريقة التعامل مع التهديدات. ويشدد أنتونوف على أن «المدافع لا يحارب الذكاء الاصطناعي نفسه، بل يحارب ناتجه»، مشيراً إلى ضرورة تطوير أدوات استخباراتية ترصد البصمات الرقمية للهجمات، وتحديد مصادر أدوات التصيّد المتقدمة المنتشرة في الشبكات المظلمة.

كلا الخبيرين أشار أيضاً إلى مجموعة «لازاروس» سيئة السمعة كمثال بارز على الجرائم السيبرانية المدعومة بالذكاء الاصطناعي، حيث قامت المجموعة بإنشاء صفحات تصيّد وملفات تعريف مزيفة عبر منصات احترافية باستخدام أدوات توليد المحتوى الذكي. ويرجّح لوجكين، استناداً إلى تقارير غير مؤكدة، أن بعض الشيفرات المستخدمة من قبل المجموعة كُتبت جزئياً عبر نماذج ذكاء اصطناعي متقدمة.

محمد هاشم المدير العام للسعودية والبحرين لدى شركة «كاسبرسكي» (كاسبرسكي)

الشرق الأوسط... ساحة نشطة للتهديدات

تُعد منطقة الشرق الأوسط اليوم إحدى أكثر الساحات حساسية في مشهد التهديدات السيبرانية العالمية، حيث يتقاطع التحول الرقمي المتسارع مع تصاعد الهجمات المدعومة بالذكاء الاصطناعي. ويرى أليكسي أنتونوف أن هذا ليس بالأمر الجديد، إذ لطالما شكّلت المنطقة محور اهتمام استراتيجي للقوى الجيوسياسية، بفضل مكانتها كمركز مالي وتجاري آخذ في التوسع والنمو.

وتُظهر بيانات «كاسبرسكي» أن حدة هجمات الفدية في الشرق الأوسط ارتفعت لتبلغ 0.72في المائة في عام 2025، متجاوزة بذلك أفريقيا وتركيا. ويُعزى هذا الارتفاع إلى تسارع تبنّي التقنيات الرقمية في المنطقة، إلى جانب تفاوت مستويات النضج الأمني السيبراني بين القطاعات والدول. ومع ازدياد استخدام أدوات الذكاء الاصطناعي في تطوير البرمجيات الخبيثة، تصبح هذه التهديدات أكثر خفاءً وفاعلية من ذي قبل.

وفي سياق متصل، يؤكد محمد هاشم، المدير العام لشركة «كاسبرسكي» في السعودية والبحرين، أن المملكة تسير في طليعة الدول التي تستثمر في الذكاء الاصطناعي على مستوى المنطقة. لكنه يحذّر من أن هذه الطفرة التقنية لا تخلو من تحديات أمنية عميقة. ويقول في حديثه مع «الشرق الأوسط»: «السعودية تقود جهود التحول الرقمي في المنطقة باستثمارات ضخمة، لكن لا بد من مواجهة التحديات الأمنية المصاحبة لتقنيات الذكاء الاصطناعي منذ مراحلها الأولى».

ويشدد هاشم على أهمية دمج الأمن السيبراني ضمن دورة حياة تطوير الذكاء الاصطناعي، بدءاً من التصميم وحتى التنفيذ، مؤكداً أن ذلك هو السبيل لضمان الجاهزية المستقبلية. كما يسلّط الضوء على دور مؤسسات وطنية مثل الهيئة السعودية للبيانات والذكاء الاصطناعي (سدايا) ومكتب إدارة البيانات الوطني في بناء منظومة ذكاء اصطناعي آمنة وقادرة على الصمود. ويضيف أن هذه الجهود تصبح أكثر أهمية في القطاعات الحساسة، مثل المدن الذكية والرعاية الصحية والقطاع المالي، التي تشكّل محاور أساسية في «رؤية السعودية 2030».

تفيد تقارير بأن استخدام الذكاء الاصطناعي يساهم في تسريع تطوير البرمجيات الخبيثة ويقلل الحاجز التقني أمام المهاجمين الأقل خبرة (شاترستوك)

ذكاء اصطناعي ضد ذكاء اصطناعي

يتوقع خبراء «كاسبرسكي» أن يشهد المستقبل القريب تحولاً نوعياً في طبيعة المواجهات الرقمية، حيث تتحول المعركة من «البشر باستخدام الذكاء الاصطناعي» إلى صراع مباشر بين «أنظمة ذكاء اصطناعي» نفسها.

ويرى كل من أنتونوف ولوجكين أن هذه النقلة ليست بعيدة، مشيرين إلى أننا نعيش حالياً مرحلة انتقالية، لكن المؤشرات تدل على أن الذكاء الاصطناعي قد يصبح في وقت قريب اللاعب الوحيد على جانبي الهجوم والدفاع. ويعزّز محمد هاشم هذا الطرح، مؤكداً أن الشراكات العالمية ستكون مفتاحاً لحماية التقدم التقني من مخاطره المحتملة، ويقول: «من الضروري أن يترافق الابتكار في الذكاء الاصطناعي مع حماية سيبرانية بمستوى عالمي. فمواجهة التهديدات الناشئة مثل التزييف العميق والتصيّد المؤتمت تتطلب تنسيقاً دولياً وتبادلاً مستمراً للمعرفة والدفاعات».

من جهة أخرى، بات الذكاء الاصطناعي يشكّل اليوم العنصر المشترك في معظم التهديدات السيبرانية الحديثة من تطوير البرمجيات الخبيثة، إلى تنفيذ حملات تصيّد متقدمة، ووصولاً إلى مراقبة الأفراد عبر الأجهزة المحمولة. ومع ذلك، يُذكّر خبراء «كاسبرسكي» أن الذكاء الاصطناعي لا يزال أداة، وقيمة هذه الأداة تُحدَّد بطريقة استخدامها.

وفي وقت يقف فيه العالم الرقمي أمام مفترق طرق مصيري، لم يعد السؤال المطروح ما إذا كان الذكاء الاصطناعي سيغيّر شكل الصراع السيبراني، بل إلى أي مدى نحن مستعدون لتوجيه هذا التحوّل بدلاً من أن نُفاجَأ به.


مقالات ذات صلة

تحذير لمستخدمي «ChatGPT»: دعوات مزيفة عبر «أوبن إيه آي»

تكنولوجيا يستغل المحتالون ميزات الدعوات الرسمية في «OpenAI» لإرسال رسائل احتيالية تبدو موثوقة تقنياً (شاترستوك)

تحذير لمستخدمي «ChatGPT»: دعوات مزيفة عبر «أوبن إيه آي»

يحذّر خبراء «كاسبرسكي» من أسلوب احتيالي جديد يستغل دعوات «أوبن إيه آي» الرسمية لخداع مستخدمي «ChatGPT» ودفعهم إلى الروابط والمكالمات الوهمية.

نسيم رمضان (لندن)
تكنولوجيا تُظهر بيانات عام 2025 أن الغالبية العظمى من هجمات التصيد الاحتيالي تستهدف سرقة بيانات تسجيل الدخول للحسابات الإلكترونية (شاترستوك)

47 مليون رابط تصيد احتيالي استهدف مستخدمي الشرق الأوسط خلال عام

تكشف «كاسبرسكي» تصاعد التصيد الاحتيالي في الشرق الأوسط حيث تُسرق بيانات الدخول ويُعاد بيعها، ما يحول الهجمات الفردية إلى مخاطر سيبرانية طويلة الأمد.

نسيم رمضان (لندن)
أوروبا أوضح وزير الداخلية الفرنسي أن الخرق الأمني جرى بسبب ضعف إجراءات «السلامة الرقمية» (رويترز)

سرقة ملفات «حساسة» في هجوم سيبراني على الداخلية الفرنسية

أعلنت الحكومة الفرنسية، الأربعاء، أنه تم «استخراج... بضع عشرات» من السجلات السرية خلال هجوم سيبراني على وزارة الداخلية الفرنسية استمر عدة أيام.

«الشرق الأوسط» (باريس)
شؤون إقليمية رئيس الوزراء الإسرائيلي نفتالي بينيت يتحدث خلال مؤتمر صحافي في القدس يوم 6 يوليو 2021 (رويترز) p-circle 01:59

«عملية الأخطبوط»… قراصنة إيرانيون يزعمون اختراق هاتف رئيس وزراء إسرائيلي سابق

زعمَت مجموعة قرصنة إيرانية تُدعى «حنظلة» (Handala)، يوم الأربعاء، أنها نجحت في اختراق الهاتف المحمول لرئيس الوزراء الإسرائيلي الأسبق نفتالي بينيت.

«الشرق الأوسط» (تل أبيب)
تكنولوجيا معرض «بلاك هات» أفسح مساحة كبيرة للطلاب ضمن فعالياته (تصوير: تركي العقيلي) p-circle

ما الذي يدفع «ناشئين» سعوديين للالتحاق بقطاع الأمن السيبراني؟

أظهر تقرير حديث للهيئة الوطنية للأمن السيبراني في السعودية، أن حجم القوى العاملة في قطاع الأمن السيبراني بالمملكة؛ بلغ أكثر من 21 ألف مختص خلال عام 2024.

غازي الحارثي (الرياض)

الذكاء الاصطناعي السيادي… نهاية السحابة أم بداية نموذج مزدوج؟

يتحوّل النقاش في عصر الذكاء الاصطناعي من التطبيقات إلى البنية التحتية ومن يملكها وكيف تُدار (أدوبي)
يتحوّل النقاش في عصر الذكاء الاصطناعي من التطبيقات إلى البنية التحتية ومن يملكها وكيف تُدار (أدوبي)
TT

الذكاء الاصطناعي السيادي… نهاية السحابة أم بداية نموذج مزدوج؟

يتحوّل النقاش في عصر الذكاء الاصطناعي من التطبيقات إلى البنية التحتية ومن يملكها وكيف تُدار (أدوبي)
يتحوّل النقاش في عصر الذكاء الاصطناعي من التطبيقات إلى البنية التحتية ومن يملكها وكيف تُدار (أدوبي)

لم يعد الذكاء الاصطناعي مجرّد قصة برمجيات. فمع تسارع الحكومات في تنفيذ استراتيجياتها الرقمية، واندماج تقنيات الذكاء الاصطناعي التوليدي في صلب العمليات المؤسسية، يتحوّل النقاش من التطبيقات إلى البنية التحتية، تحديداً من يملكها وأين تُدار وكيف تُبنى. فالمفهوم الذي يتصدر هذا الجدل اليوم هو «السيادة».

غير أن السيادة في سياق الذكاء الاصطناعي ليست مجرد شعار جيوسياسي، بل تعكس تحوّلاً بنيوياً في فهم الدول والشركات لمخاطر المرحلة الجديدة، خصوصاً في عصر النماذج اللغوية الكبرى.

فالحوسبة السحابية التقليدية أثارت مخاوف تتعلق بالخصوصية والأمن السيبراني. أما الذكاء الاصطناعي التوليدي فقد أضاف بُعداً مختلفاً. إذاً ماذا يحدث عندما تتعلّم النماذج من بيانات حساسة بطرق يصعب عكسها؟

يجيب سامي عيسى، الرئيس التنفيذي لشركة «غلوبال إيه آي»، بأنه «لا يوجد في عالم الذكاء الاصطناعي ما يُسمى بالحق في النسيان. إذا تعلّم نموذج لغوي أسرار نموذج عملي التجاري، فمن شبه المستحيل إقناعه بإلغاء ما تعلّمه». ويشير خلال لقاء خاص مع «الشرق الأوسط» إلى أن الفارق بين تخزين البيانات وترميزها داخل أوزان النموذج «هو ما يدفع باتجاه مفهوم الذكاء الاصطناعي السيادي».

سامي عيسى الرئيس التنفيذي لشركة «غلوبال إيه آي»

السيادة بالهندسة المعمارية

يمكن النظر إلى السيادة من زاويتين؛ الأولى قائمة على التشريعات والضوابط التعاقدية، والثانية قائمة على البنية الهندسية ذاتها. السيادة بالسياسة تعتمد على القوانين والاتفاقات، لكن تنفيذ تلك الضوابط يصبح معقّداً حين يكون «التسرّب» غير قابل للاسترجاع. ويقول عيسى إن «التسرّب لا يمكن استعادته ولا يمكنك أن تطلب من النموذج أن ينسى».

وهنا تظهر فكرة «السيادة بالهندسة المعمارية»، أي بناء بيئات حوسبة معزولة ومخصصة بالكامل لجهة واحدة، بحيث لا تكون مشتركة مع أطراف أخرى. وفي هذا النموذج، تكون البنية التحتية «مفصولة مادياً» (air-gapped)، ولا يشاركها أي عميل آخر.

المنطق واضح، فإذا كانت النماذج التوليدية تستمد قيمتها من بيانات حساسة كالنماذج التجارية أو الشيفرات الجينية أو البنى المالية، فإن التحكم المعماري يصبح أداًة استراتيجيةً لحماية هذه القيمة. فالسيادة هنا ليست انعزالاً، بل إدارة واعية للمخاطر طويلة الأمد.

الحوسبة السحابية والذكاء الاصطناعي

على مدى عقدين تقريباً، أعادت الحوسبة السحابية تشكيل البنية الرقمية للشركات. لكن حتى اليوم، لم تنتقل غالبية بيانات المؤسسات بالكامل إلى السحابة العامة. ومع صعود الذكاء الاصطناعي التوليدي، بدأ البعض يعيد النظر.

يرى عيسى أنه «بعد 15 أو 20 عاماً من الحوسبة السحابية، لم تنتقل نسبة كبيرة من بيانات المؤسسات إلى السحابة. أما الآن، في عصر الذكاء الاصطناعي، نرى بعضهم ينسحب». ويُرجع عيسى السبب ليس إلى أساس عاطفي بل بنيوي، ويقول: «في الحوسبة التقليدية، يمكن فصل البيانات، أما في النماذج اللغوية، فإن المعرفة تصبح جزءاً من تكوين النموذج نفسه. لكن هل يعني ذلك أن الحوسبة السحابية والسيادة في مسار تصادمي؟».

يرد عيسى قائلاً: «أعتقد أن الأمر كذلك، فالذكاء الاصطناعي سرّع هذا الاتجاه»، موضحاً أن المقصود ليس نهاية الحوسبة السحابية، بل ظهور بنى مزدوجة. إنها بيئات سحابية مشتركة للأعمال العامة وبيئات سيادية مخصصة للتطبيقات الاستراتيجية.

النماذج اللغوية تجعل مسألة «السيادة» أكثر إلحاحاً لأن المعرفة التي تتعلّمها لا يمكن استرجاعها أو محوها بسهولة (غيتي)

مخاطر البطء أكبر من مخاطر الإسراف

بينما يتخوف بعض صناع القرار من الإفراط في الإنفاق على البنية التحتية للذكاء الاصطناعي، يرى عيسى أن الخطر الأكبر هو التردد، ويشرح أن «مخاطر التقليل في الاستثمار أكبر من مخاطر الإفراط فيه»، وأن الذكاء الاصطناعي ليس مجرد تطور تدريجي في السرعة أو السعة، بل يعيد تعريف نماذج الإنتاجية والخدمات. ويصف عيسى ما يحدث بأنه «ليس مجرد قفزة تقنية بل طريقة مختلفة تماماً في التفكير بالأعمال وخلق القيمة». ويشدد على أنه بالنسبة للدول التي تسعى إلى التحول لمراكز للذكاء الاصطناعي، «فإن التأخير قد يعني خسارة سباق استقطاب المواهب».

البنية التحتية وحدها لا تكفي

الاستثمار في مراكز البيانات لا يحل المشكلة بالكامل، فالموهبة هي العامل الحاسم. ويفيد عيسى خلال حديثه مع «الشرق الأوسط» بأن «الموهبة تحتاج إلى وقت، وأن التحول نحو الذكاء الاصطناعي يتطلب طيفاً واسعاً من الكفاءات؛ مهندسي كهرباء ومختصي طاقة وخبراء مراكز بيانات ومطوري برمجيات وباحثي تعلم آلي وغيرهم». ويلفت عيسى إلى أن «أي تقنية تعزز الإنتاجية تؤثر في سوق العمل لكنها تخلق أيضاً وظائف جديدة»، ويضرب مثالاً توضيحياً كنجاح وادي السيليكون «الذي لم يكن نتيجة بنية تحتية فقط، بل نتيجة منظومة تعليمية ومؤسسية بُنيت على مدى عقود»، ويضيف: «إذا أردت أن تصبح مركزاً للذكاء الاصطناعي، فإن أهم قرار معماري هو أن تبدأ الآن».

تتجه بعض المؤسسات إلى نماذج سيادية معمارية مخصّصة بدل الاعتماد الكامل على الحوسبة السحابية المشتركة (غيتي)

السيادة... لكن مع ترابط عالمي

ألا تعني السيادة الاستقلال الكامل؟ يرد عيسى قائلاً إن «السيادة الكاملة دون أي ترابط هي خيال. فإنتاج الشرائح المتقدمة، على سبيل المثال، لا يزال يعتمد إلى حد كبير على مصانع خارجية... لذلك، السيادة مفهوم نسبي»، ويزيد: «هناك درجات من السيادة يمكن تحقيقها...لكن 100 في المائة سيادة؟ حتى العالم بأكمله لا يستطيع ذلك».

بالنسبة للدول ذات الطموحات الكبيرة والموارد المحدودة، يظل السؤال قائماً: كيف تلحق بالركب؟ يحذر عيسى من أن «هذه ليست ثورة تكنولوجية يمكن أن تتأخر عنها ولا يمكنك أيضاً أن تنتظر عشر سنوات بينما تستمتع الدول المجاورة بمكاسب الإنتاجية». الذكاء الاصطناعي لا يعيد تشكيل قطاع واحد، بل قطاعات بأكملها.

في النهاية، قد لا يكون الجدل حول السيادة مجرد صراع جيوسياسي، بل تحوّل اقتصادي عميق. فالتحكم في بيئات تدريب النماذج قد يصبح عاملاً استراتيجياً يعادل أهمية الموارد الطبيعية في مراحل سابقة. لكن، كما يختتم عيسى، فإن الاستثمار الحقيقي لا يقتصر على العتاد «حيث إن بناء الموهبة يحتاج إلى وقت واستثمار طويل الأمد».


النساء أم الرجال... من يرى الذكاء الاصطناعي أكثر خطورة؟

الفجوة في المواقف لا ترتبط فقط بمستوى المعرفة بل بدرجة النفور من المخاطرة وحجم التعرّض المحتمل لاضطراب سوق العمل (شاترستوك)
الفجوة في المواقف لا ترتبط فقط بمستوى المعرفة بل بدرجة النفور من المخاطرة وحجم التعرّض المحتمل لاضطراب سوق العمل (شاترستوك)
TT

النساء أم الرجال... من يرى الذكاء الاصطناعي أكثر خطورة؟

الفجوة في المواقف لا ترتبط فقط بمستوى المعرفة بل بدرجة النفور من المخاطرة وحجم التعرّض المحتمل لاضطراب سوق العمل (شاترستوك)
الفجوة في المواقف لا ترتبط فقط بمستوى المعرفة بل بدرجة النفور من المخاطرة وحجم التعرّض المحتمل لاضطراب سوق العمل (شاترستوك)

غالباً ما يُقدَّم الذكاء الاصطناعي بوصفه ثورة في الإنتاجية قادرة على رفع الناتج الاقتصادي، وتسريع الابتكار، وإعادة تشكيل طريقة إنجاز العمل. لكن دراسة جديدة تشير إلى أن الجمهور لا ينظر إلى وعود الذكاء الاصطناعي بالطريقة نفسها، وأن المواقف تجاه هذه التقنية تتأثر بقوة بعامل النوع الاجتماعي، لا سيما عندما تكون آثارها على الوظائف غير مؤكدة.

وتخلص الدراسة إلى أن النساء مقارنة بالرجال ينظرن إلى الذكاء الاصطناعي باعتباره أكثر خطورة، وأن دعمهن لاعتماد هذه التقنيات يتراجع بوتيرة أشد عندما تنخفض احتمالات أن تؤدي إلى مكاسب صافية في الوظائف. ويحذر الباحثون من أنه إذا لم تُؤخذ المخاوف الخاصة بالنساء في الاعتبار ضمن سياسات الذكاء الاصطناعي، وخاصة ما يتعلق باضطراب سوق العمل، وتفاوت فرص الاستفادة، فقد يؤدي ذلك إلى تعميق الفجوة القائمة بين الجنسين، وربما إلى رد فعل سياسي مضاد للتكنولوجيا.

فجوة لا ترتبط بالمعرفة فقط

تنطلق الدراسة من فكرة بسيطة هي أن فوائد الذكاء الاصطناعي وتكاليفه لن تتوزع بالتساوي على الجميع. فمع انتشار الذكاء الاصطناعي في الاقتصاد، قد تُعزَّز بعض الوظائف وتُعاد صياغة أخرى، بينما قد تختفي وظائف بعينها، أو تتراجع أهميتها. وتشير الدراسة إلى أن النساء ممثلات بنسبة أعلى في وظائف إدارية وكتابية وخدمية يُحتمل أن تكون أكثر عرضة للتأثر بالتقنيات الآلية. وفي المقابل، لا تزال النساء أقل تمثيلاً في مسارات العلوم والتقنية والهندسة والرياضيات، وفي مواقع القيادة التي تمنح عادةً فرصاً أفضل للوصول إلى وظائف الذكاء الاصطناعي الأعلى أجراً، وهو ما قد يوسّع فجوة الأجور بين الجنسين مع مرور الوقت.

وترى الدراسة أن هذه الاختلافات الواقعية في التعرض للمخاطر، وفي فرص الوصول إلى المنافع، تنعكس على اختلافات في المواقف. فبحسب أبحاث سابقة، تميل النساء بالفعل إلى مزيد من الشك مقارنة بالرجال تجاه موجات الأتمتة السابقة.

لكن ما لم يكن واضحاً بما يكفي هو: لماذا تستمر هذه الفجوة؟ هنا يأتي طرح الباحثين عامل «المخاطر» في طريقة التعامل معها، وفي مقدار التعرض لها يقدّم تفسيراً إضافياً.

تجاهل المخاوف الجندرية في سياسات الذكاء الاصطناعي قد يعمّق عدم المساواة ويؤدي إلى ردود فعل سياسية وتنظيمية مضادة للتكنولوجيا (شاترستوك)

الميل للمخاطرة والتعرّض للمخاطر

تركّز الدراسة على عنصرين: الأول يتعلق بالتوجه نحو المخاطرة (Risk orientation)، أي مدى استعداد الفرد عموماً لتحمل عدم اليقين والمفاضلات ذات النتائج غير المضمونة. والآخر هو التعرّض للمخاطر (Risk exposure)، واحتمال أن يترتب على اعتماد الذكاء الاصطناعي تكلفة مباشرة، أو منفعة مباشرة للفرد، تبعاً لموقعه في سوق العمل، وغيرها من العوامل.

ويفترض الباحثون أن النساء ينظرن إلى الذكاء الاصطناعي باعتباره أكثر خطورة، لأنهن في المتوسط أكثر نفوراً من المخاطرة، ولأنهن أيضاً أكثر تعرضاً لاضطراب الوظائف الناتج عن الذكاء الاصطناعي. وتؤكد الدراسة أن هذه الأنماط لا تُقدَّم بوصفها «سمات فطرية»، بل بوصفها نتاجاً لأعراف اجتماعية، وتعلم اجتماعي، وبُنى وظيفية مترسخة منذ عقود.

تجربة واقعية

لاختبار هذا الطرح، أجرى الباحثون استطلاعاً عبر الإنترنت في نوفمبر (تشرين الثاني) 2023 باستخدام لوحة «YouGov». وبلغت العينة الكاملة 6056 مشاركاً، لكن التحليل في هذه الدراسة يركز على 3049 مشاركاً وُجهت إليهم أسئلة حول الذكاء الاصطناعي التوليدي (بينما وُجهت المجموعة الأخرى إلى أسئلة مقارنة عن التجارة). وشملت العينة مشاركين من الولايات المتحدة وكندا، وهما دولتان يصفهما الباحثون بأنهما متقاربتان من حيث الأسس المؤسسية وبنية سوق العمل، رغم اختلاف تفاصيل تبني الذكاء الاصطناعي وتنظيمه.

قاس الباحثون «تصور خطورة الذكاء الاصطناعي» عبر سؤالين على مقياس من 11 نقطة. سُئل المشاركون عن مدى رؤيتهم حول هل مخاطر الذكاء الاصطناعي التوليدي تفوق فوائده بالنسبة لك شخصياً؟ وهل تفوق فوائده بالنسبة لمجتمعك؟ ثم جرى دمج الإجابتين في مؤشر واحد.

ولقياس التوجه نحو المخاطرة استخدمت الدراسة سؤالاً شائعاً في أبحاث المخاطر: هل تفضّل ربحاً مضموناً قدره 1000 دولار؟ أم احتمالاً بنسبة 50 في المائة لربح 2000 دولار؟ ويفترض أن اختيار الألف المضمونة يشير إلى نفور أعلى من المخاطرة.

أما قياس التعرض للمخاطر فكان أكثر تعقيداً لأن آثار الذكاء الاصطناعي التوليدي على سوق العمل لا تزال غير محسومة. لذلك استخدمت الدراسة التعليم بوصفه مؤشراً عاماً على مدى الاستعداد للاستفادة من التحولات التقنية، مع اختبارات إضافية لمقاييس مرتبطة بالتعرض المهني للأتمتة والذكاء الاصطناعي على عينات فرعية من العاملين.

كما تضمن الاستطلاع تجربة مسحيّة مُسجَّلة مسبقاً تغير مستوى المخاطرة الاقتصادية في سيناريو تبني الشركة للذكاء الاصطناعي. قرأ المشاركون حالة عن شركة تتبنى أدوات ذكاء اصطناعي توليدي، ثم قُدِّمت لهم احتمالات مختلفة (تعيين عشوائي) بأن يؤدي ذلك إلى مكاسب صافية في التوظيف. تراوحت الاحتمالات بين 100 في المائة (مكاسب مؤكدة) و70 في المائة و50 في المائة و30 في المائة (مستوى مخاطرة مرتفع)، ثم طلب منهم تأكيد أو رفض قرار الشركة.

الدراسة: دعم النساء لاعتماد الذكاء الاصطناعي يتراجع بوتيرة أسرع من الرجال كلما انخفضت احتمالات المكاسب الصافية في التوظيف (شاترستوك)

ما النتيجة الأبرز؟

أظهرت النتائج أن النساء أكثر ميلاً من الرجال للقول إن مخاطر الذكاء الاصطناعي تفوق فوائده. وتشير الدراسة إلى أن نسبة من ترى المخاطر أعلى من الفوائد تزيد لدى النساء بنحو 11في المائة مقارنة بالرجال، وهي فجوة تقارب حجم الفجوة المعروفة في مواقف الجنسين تجاه التجارة، وهي قضية تؤثر تاريخياً على النقاشات السياسية، والقرارات التنظيمية.

وعند التعمق، يظهر أن هذه الفجوة ترتبط بقوة بالتوجه نحو المخاطرة. فبين المشاركين الأكثر ميلاً لتحمل المخاطرة، تتراجع الفجوة بين النساء والرجال بشكل كبير، أو تتلاشى. بينما تكون الفجوة الأوضح بين من يفضّلون اليقين. يعني هذا أن النفور العام من المخاطرة يضاعف الحذر من تقنية ذات نتائج اقتصادية غير مؤكدة.

كما تشير النتائج إلى دور التعرض للمخاطر، حيث مالت النساء إلى رؤية الذكاء الاصطناعي أكثر خطورة من الرجال في كل من فئات التعليم الجامعي وغير الجامعي، وهو ما ينسجم مع كونهن أكثر تمركزاً في وظائف قد تكون أكثر عرضة للأتمتة، وأقل وصولاً لمسارات العمل الأعلى ربحاً في مجالات الذكاء الاصطناعي.

دليل تجريبي

تظهر التجربة المسحيّة أن كلا من الرجال والنساء يقللون دعمهم لاعتماد الذكاء الاصطناعي عندما تنخفض احتمالات المكاسب الصافية في الوظائف. لكن دعم النساء يتراجع بسرعة أكبر عندما يصبح السيناريو أكثر خطورة. فعند مستوى المخاطرة الأعلى حيث تكون احتمالية المكاسب الصافية في الوظائف 30 في المائة فقط يكون دعم النساء أقل بشكل واضح من دعم الرجال. أما عندما تكون المكاسب مؤكدة بنسبة 100 في المائة، فتتقلص الفجوة بين الجنسين ولا تعود ذات دلالة إحصائية بحسب ما تذكر الدراسة. بمعنى آخر: النساء لسن «ضد الذكاء الاصطناعي» بالمطلق، لكن دعمهن يبدو أكثر ارتباطاً بمدى وضوح الفائدة الاقتصادية، وتأكدها.

من يعرف أكثر؟

حللت الدراسة أيضاً إجابات مفتوحة حول أكبر فوائد الذكاء الاصطناعي ومخاطره باستخدام نمذجة موضوعات نصية. وظهرت فروق نوعية، إذ عبّرت إجابات النساء بدرجة أكبر عن عدم اليقين («لا أعرف») وعن الشك في وجود فوائد اقتصادية واضحة. في المقابل، ركّزت إجابات الرجال أكثر على الإنتاجية والكفاءة، وتحسين العمليات الاقتصادية.

أما بشأن المخاطر، فقد ركّزت إجابات النساء أكثر على فقدان الوظائف والبطالة، بينما ركّزت إجابات الرجال أكثر على الاستخدامات الخبيثة، والمخاطر المجتمعية الأوسع. ويعزز ذلك استنتاج الدراسة بأن النساء في المتوسط يضعن الوزن الأكبر للمخاطر الاقتصادية، ويعبّرن عن قدر أعلى من عدم اليقين بشأن مكاسب الذكاء الاصطناعي.

أهمية البحث

ترى الدراسة أن هذه الفروق ليست اجتماعية فقط، بل سياسية أيضاً. فإذا انعكس انخفاض دعم النساء لاعتماد الذكاء الاصطناعي على انخفاض استخدامهن لأدواته في العمل، فقد يتراجع حضور النساء في مسار تطوير هذه التقنيات وحوكمتها في وقت تتوسع فيه تطبيقات الذكاء الاصطناعي داخل المؤسسات. وهذا يعني أن مخاوف النساء قد لا تُدمج بالقدر الكافي في التصميم، والضمانات وقرارات النشر والتشغيل.

كما تشير الدراسة إلى أن المواقف من الذكاء الاصطناعي قد تصبح أكثر تسييساً. فإذا كانت النساء أكثر دعماً للتدخل الحكومي لإبطاء التبني تحت سيناريوهات فقدان الوظائف، فإن ذلك قد يفتح فرصاً سياسية: قد يتبنى بعض السياسيين سياسات حماية وتنظيم لجذب أصوات النساء، أو قد تُستخدم مشاعر الحذر تجاه الذكاء الاصطناعي أداة تعبئة انتخابية.

لا تقول الدراسة إن النساء يرفضن التقنية لكونها «تقنية»، بل تشير إلى أنهن يستجبن لمشهد مخاطر تكون فيه الرهانات غير متساوية، حيث تختلط وعود الذكاء الاصطناعي بآثار وظيفية غير مؤكدة، وبفرص استفادة غير متكافئة. وبالنسبة للحكومات والمؤسسات التي تدفع نحو تبنٍ سريع، فإن الرسالة تبدو واضحة، وهي أن سياسات الذكاء الاصطناعي التي تتجاهل التعرض غير المتساوي لفقدان الوظائف، وتفاوت الوصول إلى فرص العمل عالية القيمة، واختلاف إدراك المخاطر، قد تعمّق عدم المساواة، وتضعف الثقة العامة. ومن ثمّ، فإن معالجة هذه المخاوف عبر حماية القوى العاملة، ومسارات إعادة التأهيل، وتقليل التحيز في الأنظمة، وحوكمة شاملة قد تكون ضرورية ليس فقط للعدالة، بل للحفاظ على شرعية التحول مع إعادة تشكيل الذكاء الاصطناعي للاقتصاد.


120 ألفاً مستعدون لمساعدته… ذكاء اصطناعي يوظّف بشراً لتنفيذ مهام يعجز عنها

يوسّع الذكاء الاصطناعي نطاق عمله دون الحاجة إلى استثمارات باهظة في الروبوتات بينما يحصل البشر على فرص دخل مرنة وسريعة وشفافة (رويترز)
يوسّع الذكاء الاصطناعي نطاق عمله دون الحاجة إلى استثمارات باهظة في الروبوتات بينما يحصل البشر على فرص دخل مرنة وسريعة وشفافة (رويترز)
TT

120 ألفاً مستعدون لمساعدته… ذكاء اصطناعي يوظّف بشراً لتنفيذ مهام يعجز عنها

يوسّع الذكاء الاصطناعي نطاق عمله دون الحاجة إلى استثمارات باهظة في الروبوتات بينما يحصل البشر على فرص دخل مرنة وسريعة وشفافة (رويترز)
يوسّع الذكاء الاصطناعي نطاق عمله دون الحاجة إلى استثمارات باهظة في الروبوتات بينما يحصل البشر على فرص دخل مرنة وسريعة وشفافة (رويترز)

في خطوة غير تقليدية تقلب سردية الأتمتة السائدة، تبرز منصة «رانت إي هيومان» RentAHuman.ai (أي استأجر إنساناً) نموذجاً جديداً للتكامل بين الذكاء الاصطناعي والإنسان، حيث تتيح لوكلاء الذكاء الاصطناعي استئجار أشخاص حقيقيين لتنفيذ مهام في العالم المادي لا تستطيع الأنظمة الرقمية القيام بها بمفردها حتى الآن.

تعمل المنصة بصفتها سوقاً متخصصة تربط بين وكلاء ذكيين يحتاجون إلى «تدخُّل بشري» وبين أفراد قادرين على تنفيذ مهام تتطلب حضوراً فعلياً، مثل التحقق الميداني، وحضور الاجتماعات، وتوصيل الطرود، والتقاط الصور، أو تنفيذ مهام بسيطة لكنها خارج نطاق العالم الرقمي. وبهذا، يُجسِّر هذا الموقع الفجوة بين قدرات الذكاء الاصطناعي المتقدمة وحدود الواقع الفيزيائي.

آلية بسيطة

آلية العمل بسيطة نسبياً: ينشئ الأفراد ملفات تعريفية تتضمن موقعهم الجغرافي، ومهاراتهم، وأوقات التفرغ، والأجر المطلوب. في المقابل، يستطيع وكلاء الذكاء الاصطناعي البحث آلياً عن الشخص المناسب، وتفويضه بالمهمة، وتحديد التفاصيل الزمنية والتنفيذية بدقة. تجري المدفوعات بشكل فوري عبر العملات الرقمية أو المستقرة، ما يُلغي التأخير المعتاد في منصات العمل الحر التقليدية.

تكمن أهمية النموذج في فائدته للطرفين، فالذكاء الاصطناعي يوسّع نطاق عمله دون الحاجة إلى استثمارات باهظة في الروبوتات، بينما يحصل البشر على فرص دخل مرنة وسريعة وشفافة. ومع التوسع المتوقع في استخدام الوكلاء المستقلين، قد تتحول هذه المنصات إلى بنية تحتية أساسية لاقتصاد هجين جديد يقوم على الشراكة لا الاستبدال، ويُبقي الإنسان عنصراً لا غنى عنه في عصر الأتمتة.

ينشئ الأفراد ملفات تعريفية بموقعهم الجغرافي ومهاراتهم وأوقات التفرغ والأجر المطلوب وفي المقابل يستطيع وكلاء الذكاء الاصطناعي البحث آلياً عن الشخص المناسب وتفويضه بالمهمة وتحديد التفاصيل الزمنية والتنفيذية بدقة (رويترز)

استجابة مجتمعية سريعة

منذ إطلاقها مؤخراً، شهدت منصة «RentAHuman.ai» إقبالاً سريعاً، حيث سجّل مئات الأشخاص أسماءهم فيها في غضون أيام. وبلغ عدد الأشخاص الذين سجّلوا أسماءهم للقيام بمهمات يطلبها منهم الذكاء الاصطناعي على هذه المنصة، 120 ألف شخص.

وشمل المشاركون الأوائل متخصصين من مختلف القطاعات، ما يعكس فضولاً واسع النطاق حول هذه الديناميكية المعكوسة، حيث يسعى الذكاء الاصطناعي إلى الحصول على مساعدة بشرية.

تؤدي هذه المنصة بدورها تغييراً مبتكراً في الأدوار، حيث يعتمد الذكاء الاصطناعي، الآن، على البشر للتفاعل الجسدي. ويرى كثيرون في ذلك حلاً عملياً للقيود الحالية للذكاء الاصطناعي، مع خلق فرص اقتصادية جديدة.