تتدرب عبر الإنترنت؟ إليك نصائح لحماية بياناتك وصورك

يشهد التدريب الشخصي عبر الإنترنت نمواً سريعاً ويتوقع أن ترتفع قيمته بمعدل 29.6 في المائة سنوياً حتى عام 2033 (غيتي)
يشهد التدريب الشخصي عبر الإنترنت نمواً سريعاً ويتوقع أن ترتفع قيمته بمعدل 29.6 في المائة سنوياً حتى عام 2033 (غيتي)
TT

تتدرب عبر الإنترنت؟ إليك نصائح لحماية بياناتك وصورك

يشهد التدريب الشخصي عبر الإنترنت نمواً سريعاً ويتوقع أن ترتفع قيمته بمعدل 29.6 في المائة سنوياً حتى عام 2033 (غيتي)
يشهد التدريب الشخصي عبر الإنترنت نمواً سريعاً ويتوقع أن ترتفع قيمته بمعدل 29.6 في المائة سنوياً حتى عام 2033 (غيتي)

يتجه كثير من الناس إلى حلول رقمية أكثر مرونة، أبرزها التدريب الشخصي عبر الإنترنت. وقد ساهمت منصات مثل «إنستغرام» و«تيك توك» في تعزيز هذا التوجه، إذ لم تعد مقاطع التمارين والنصائح الغذائية حكراً على صالات الرياضة، بل أصبحت متاحة على مدار الساعة للجميع، يقودها مؤثرون ومدربون بنوا شهرتهم عبر المحتوى المرئي والمباشر.

لكن يغفل كثير من المستخدمين جانباً مهماً من هذه التجربة، أمن البيانات والخصوصية. فبينما تركز البرامج التدريبية على الوصول للأهداف الجسدية، قد تتعرض المعلومات الشخصية لمخاطر لا تقل ضرراً عن أي إصابة عضلية، بل ربما أشد.

صعود المدربين الرقميين

بحسب التقديرات، من المتوقع أن تنمو سوق التدريب الشخصي عبر الإنترنت بنسبة 29.6 في المائة سنوياً حتى عام 2033، وهي نسبة تعكس الثقة المتزايدة في هذا النوع من الخدمات. لكن الاشتراك في هذه البرامج يتطلب غالباً مشاركة معلومات حساسة، من تفاصيل الدفع، إلى البيانات الصحية، مروراً بصور «قبل وبعد» التي توثق التقدم البدني. وغالباً ما تُرسل هذه البيانات من دون وجود عقود واضحة، أو ضمانات حول كيفية استخدامها وحمايتها.

أين بياناتك؟

يعتمد المدربون الرقميون على مجموعة أدوات من أطراف ثالثة لإدارة برامجهم، تشمل تطبيقات جدولة وأنظمة دفع وخدمات تواصل. لكن ليست كل هذه الأدوات مصممة بمستويات أمان عالية. في حال تعرض أحد هذه الأنظمة للاختراق أو لم يكن يمتثل للوائح حماية البيانات، قد تصبح البيانات بما في ذلك الصور والموقع وتفاصيل البطاقات الائتمانية معرضة للخطر.

وقد لا يكون الخطر واضحاً للمستخدم، إذ من النادر أن يدرك العميل عدد المنصات المتداخلة التي تُستخدم لمعالجة تجربته التدريبية. في هذا النظام المعقّد، يمكن لأي نقطة ضعف، مثل استخدام كلمة مرور مكررة أو تطبيق غير محدث، أن تتحول إلى ثغرة يستغلها المخترقون.

صورك قد تُستغل

من الشائع أن يطلب المدربون صوراً للمتدرب قبل بدء البرنامج وبعده، لمتابعة التحول الجسدي. لكن هذه الصور، التي تكون أحياناً حساسة أو خاصة، تُرسل غالباً عبر تطبيقات غير مشفرة أو من دون اتفاق واضح على كيفية تخزينها أو استخدامها. وفي حال تعرض الأجهزة أو المنصات للاختراق، قد تُسرّب الصور أو تُستخدم في انتهاكات مثل التحرش وسرقة الهوية حتى الانتحال. ينصح الخبراء هنا بوضع اتفاق مكتوب حول طريقة التعامل مع هذه الصور، والتأكد من أنها تُرسل عبر قنوات آمنة، من دون بيانات تعريفية كالأسماء أو المواقع الجغرافية.

صور التقدم البدني قد تُستغل في حال تسريبها أو سرقتها ما يعرّض المتدربين لانتهاكات مثل التحرش أو انتحال الهوية (غيتي)

انتحال هوية المدرب

الشعبية الكبيرة التي يتمتع بها بعض المدربين على مواقع التواصل قد تجعلهم هدفاً للمخترقين. وإذا تم الاستيلاء على حساب أحدهم، يمكن للمخترقين التظاهر بأنهم المدرب نفسه، والبدء في إرسال رسائل احتيالية للعملاء، تطلب معلومات شخصية أو تحويل أموال مقابل «برامج خاصة» أو «استشارات حصرية». هذا النوع من الخداع يبدو واقعياً جداً لأنه يصدر من حساب معروف، ما يزيد من احتمالات وقوع الضحايا في الفخ.

كيف تحمي نفسك؟

توضح آنا لاركينا، خبيرة الخصوصية في شركة «كاسبرسكي» الأمر، قائلة: «هذه المخاطر حقيقية، لكنها لا تعني بالضرورة التخلي عن التدريب عبر الإنترنت. تماماً كما تُحمّي عضلاتك قبل التمرين، عليك أن تحمي بياناتك قبل الانخراط في أي برنامج رقمي».

ولضمان تجربة تدريب آمنة وفعّالة، تنصح «كاسبرسكي» باتباع مجموعة من الإجراءات الاحترازية:

- تحقق من هوية المدرب وتأكد من شهاداته وتقييماته وتوثيق حسابه الرسمي.

- تجنب الروابط المشبوهة ولا تضغط على روابط غير معروفة تصل عبر الرسائل أو البريد الإلكتروني.

- ابحث عن الاتصال الآمن وتأكد من أن الموقع الإلكتروني الذي تستخدمه يبدأ بـ«HTTPS».

- شارك الحد الأدنى من البيانات ولا تقدم معلومات أكثر من اللازم، وكن حذراً عند إرسال صور أو مستندات.

- استخدم برنامجاً أمنياً موثوقاً مثل برامج «Kaspersky Premium» التي توفّر حماية شاملة ضد المواقع الخبيثة ومحاولات التصيد وسرقة البيانات.

تذكّر أن التدريب الشخصي عبر الإنترنت يمكن أن يكون وسيلة فعّالة لتحسين صحتك ولياقتك، لكنه يتطلب منك أيضاً الوعي والاحتياط، لتجنب التهديدات الرقمية التي قد تأتيك وأنت تركض نحو أهدافك.


مقالات ذات صلة

تحذير لمستخدمي «ChatGPT»: دعوات مزيفة عبر «أوبن إيه آي»

تكنولوجيا يستغل المحتالون ميزات الدعوات الرسمية في «OpenAI» لإرسال رسائل احتيالية تبدو موثوقة تقنياً (شاترستوك)

تحذير لمستخدمي «ChatGPT»: دعوات مزيفة عبر «أوبن إيه آي»

يحذّر خبراء «كاسبرسكي» من أسلوب احتيالي جديد يستغل دعوات «أوبن إيه آي» الرسمية لخداع مستخدمي «ChatGPT» ودفعهم إلى الروابط والمكالمات الوهمية.

نسيم رمضان (لندن)
تكنولوجيا تُظهر بيانات عام 2025 أن الغالبية العظمى من هجمات التصيد الاحتيالي تستهدف سرقة بيانات تسجيل الدخول للحسابات الإلكترونية (شاترستوك)

47 مليون رابط تصيد احتيالي استهدف مستخدمي الشرق الأوسط خلال عام

تكشف «كاسبرسكي» تصاعد التصيد الاحتيالي في الشرق الأوسط حيث تُسرق بيانات الدخول ويُعاد بيعها، ما يحول الهجمات الفردية إلى مخاطر سيبرانية طويلة الأمد.

نسيم رمضان (لندن)
أوروبا أوضح وزير الداخلية الفرنسي أن الخرق الأمني جرى بسبب ضعف إجراءات «السلامة الرقمية» (رويترز)

سرقة ملفات «حساسة» في هجوم سيبراني على الداخلية الفرنسية

أعلنت الحكومة الفرنسية، الأربعاء، أنه تم «استخراج... بضع عشرات» من السجلات السرية خلال هجوم سيبراني على وزارة الداخلية الفرنسية استمر عدة أيام.

«الشرق الأوسط» (باريس)
شؤون إقليمية رئيس الوزراء الإسرائيلي نفتالي بينيت يتحدث خلال مؤتمر صحافي في القدس يوم 6 يوليو 2021 (رويترز) p-circle 01:59

«عملية الأخطبوط»… قراصنة إيرانيون يزعمون اختراق هاتف رئيس وزراء إسرائيلي سابق

زعمَت مجموعة قرصنة إيرانية تُدعى «حنظلة» (Handala)، يوم الأربعاء، أنها نجحت في اختراق الهاتف المحمول لرئيس الوزراء الإسرائيلي الأسبق نفتالي بينيت.

«الشرق الأوسط» (تل أبيب)
تكنولوجيا معرض «بلاك هات» أفسح مساحة كبيرة للطلاب ضمن فعالياته (تصوير: تركي العقيلي) p-circle

ما الذي يدفع «ناشئين» سعوديين للالتحاق بقطاع الأمن السيبراني؟

أظهر تقرير حديث للهيئة الوطنية للأمن السيبراني في السعودية، أن حجم القوى العاملة في قطاع الأمن السيبراني بالمملكة؛ بلغ أكثر من 21 ألف مختص خلال عام 2024.

غازي الحارثي (الرياض)

الذكاء الاصطناعي السيادي… نهاية السحابة أم بداية نموذج مزدوج؟

يتحوّل النقاش في عصر الذكاء الاصطناعي من التطبيقات إلى البنية التحتية ومن يملكها وكيف تُدار (أدوبي)
يتحوّل النقاش في عصر الذكاء الاصطناعي من التطبيقات إلى البنية التحتية ومن يملكها وكيف تُدار (أدوبي)
TT

الذكاء الاصطناعي السيادي… نهاية السحابة أم بداية نموذج مزدوج؟

يتحوّل النقاش في عصر الذكاء الاصطناعي من التطبيقات إلى البنية التحتية ومن يملكها وكيف تُدار (أدوبي)
يتحوّل النقاش في عصر الذكاء الاصطناعي من التطبيقات إلى البنية التحتية ومن يملكها وكيف تُدار (أدوبي)

لم يعد الذكاء الاصطناعي مجرّد قصة برمجيات. فمع تسارع الحكومات في تنفيذ استراتيجياتها الرقمية، واندماج تقنيات الذكاء الاصطناعي التوليدي في صلب العمليات المؤسسية، يتحوّل النقاش من التطبيقات إلى البنية التحتية، تحديداً من يملكها وأين تُدار وكيف تُبنى. فالمفهوم الذي يتصدر هذا الجدل اليوم هو «السيادة».

غير أن السيادة في سياق الذكاء الاصطناعي ليست مجرد شعار جيوسياسي، بل تعكس تحوّلاً بنيوياً في فهم الدول والشركات لمخاطر المرحلة الجديدة، خصوصاً في عصر النماذج اللغوية الكبرى.

فالحوسبة السحابية التقليدية أثارت مخاوف تتعلق بالخصوصية والأمن السيبراني. أما الذكاء الاصطناعي التوليدي فقد أضاف بُعداً مختلفاً. إذاً ماذا يحدث عندما تتعلّم النماذج من بيانات حساسة بطرق يصعب عكسها؟

يجيب سامي عيسى، الرئيس التنفيذي لشركة «غلوبال إيه آي»، بأنه «لا يوجد في عالم الذكاء الاصطناعي ما يُسمى بالحق في النسيان. إذا تعلّم نموذج لغوي أسرار نموذج عملي التجاري، فمن شبه المستحيل إقناعه بإلغاء ما تعلّمه». ويشير خلال لقاء خاص مع «الشرق الأوسط» إلى أن الفارق بين تخزين البيانات وترميزها داخل أوزان النموذج «هو ما يدفع باتجاه مفهوم الذكاء الاصطناعي السيادي».

سامي عيسى الرئيس التنفيذي لشركة «غلوبال إيه آي»

السيادة بالهندسة المعمارية

يمكن النظر إلى السيادة من زاويتين؛ الأولى قائمة على التشريعات والضوابط التعاقدية، والثانية قائمة على البنية الهندسية ذاتها. السيادة بالسياسة تعتمد على القوانين والاتفاقات، لكن تنفيذ تلك الضوابط يصبح معقّداً حين يكون «التسرّب» غير قابل للاسترجاع. ويقول عيسى إن «التسرّب لا يمكن استعادته ولا يمكنك أن تطلب من النموذج أن ينسى».

وهنا تظهر فكرة «السيادة بالهندسة المعمارية»، أي بناء بيئات حوسبة معزولة ومخصصة بالكامل لجهة واحدة، بحيث لا تكون مشتركة مع أطراف أخرى. وفي هذا النموذج، تكون البنية التحتية «مفصولة مادياً» (air-gapped)، ولا يشاركها أي عميل آخر.

المنطق واضح، فإذا كانت النماذج التوليدية تستمد قيمتها من بيانات حساسة كالنماذج التجارية أو الشيفرات الجينية أو البنى المالية، فإن التحكم المعماري يصبح أداًة استراتيجيةً لحماية هذه القيمة. فالسيادة هنا ليست انعزالاً، بل إدارة واعية للمخاطر طويلة الأمد.

الحوسبة السحابية والذكاء الاصطناعي

على مدى عقدين تقريباً، أعادت الحوسبة السحابية تشكيل البنية الرقمية للشركات. لكن حتى اليوم، لم تنتقل غالبية بيانات المؤسسات بالكامل إلى السحابة العامة. ومع صعود الذكاء الاصطناعي التوليدي، بدأ البعض يعيد النظر.

يرى عيسى أنه «بعد 15 أو 20 عاماً من الحوسبة السحابية، لم تنتقل نسبة كبيرة من بيانات المؤسسات إلى السحابة. أما الآن، في عصر الذكاء الاصطناعي، نرى بعضهم ينسحب». ويُرجع عيسى السبب ليس إلى أساس عاطفي بل بنيوي، ويقول: «في الحوسبة التقليدية، يمكن فصل البيانات، أما في النماذج اللغوية، فإن المعرفة تصبح جزءاً من تكوين النموذج نفسه. لكن هل يعني ذلك أن الحوسبة السحابية والسيادة في مسار تصادمي؟».

يرد عيسى قائلاً: «أعتقد أن الأمر كذلك، فالذكاء الاصطناعي سرّع هذا الاتجاه»، موضحاً أن المقصود ليس نهاية الحوسبة السحابية، بل ظهور بنى مزدوجة. إنها بيئات سحابية مشتركة للأعمال العامة وبيئات سيادية مخصصة للتطبيقات الاستراتيجية.

النماذج اللغوية تجعل مسألة «السيادة» أكثر إلحاحاً لأن المعرفة التي تتعلّمها لا يمكن استرجاعها أو محوها بسهولة (غيتي)

مخاطر البطء أكبر من مخاطر الإسراف

بينما يتخوف بعض صناع القرار من الإفراط في الإنفاق على البنية التحتية للذكاء الاصطناعي، يرى عيسى أن الخطر الأكبر هو التردد، ويشرح أن «مخاطر التقليل في الاستثمار أكبر من مخاطر الإفراط فيه»، وأن الذكاء الاصطناعي ليس مجرد تطور تدريجي في السرعة أو السعة، بل يعيد تعريف نماذج الإنتاجية والخدمات. ويصف عيسى ما يحدث بأنه «ليس مجرد قفزة تقنية بل طريقة مختلفة تماماً في التفكير بالأعمال وخلق القيمة». ويشدد على أنه بالنسبة للدول التي تسعى إلى التحول لمراكز للذكاء الاصطناعي، «فإن التأخير قد يعني خسارة سباق استقطاب المواهب».

البنية التحتية وحدها لا تكفي

الاستثمار في مراكز البيانات لا يحل المشكلة بالكامل، فالموهبة هي العامل الحاسم. ويفيد عيسى خلال حديثه مع «الشرق الأوسط» بأن «الموهبة تحتاج إلى وقت، وأن التحول نحو الذكاء الاصطناعي يتطلب طيفاً واسعاً من الكفاءات؛ مهندسي كهرباء ومختصي طاقة وخبراء مراكز بيانات ومطوري برمجيات وباحثي تعلم آلي وغيرهم». ويلفت عيسى إلى أن «أي تقنية تعزز الإنتاجية تؤثر في سوق العمل لكنها تخلق أيضاً وظائف جديدة»، ويضرب مثالاً توضيحياً كنجاح وادي السيليكون «الذي لم يكن نتيجة بنية تحتية فقط، بل نتيجة منظومة تعليمية ومؤسسية بُنيت على مدى عقود»، ويضيف: «إذا أردت أن تصبح مركزاً للذكاء الاصطناعي، فإن أهم قرار معماري هو أن تبدأ الآن».

تتجه بعض المؤسسات إلى نماذج سيادية معمارية مخصّصة بدل الاعتماد الكامل على الحوسبة السحابية المشتركة (غيتي)

السيادة... لكن مع ترابط عالمي

ألا تعني السيادة الاستقلال الكامل؟ يرد عيسى قائلاً إن «السيادة الكاملة دون أي ترابط هي خيال. فإنتاج الشرائح المتقدمة، على سبيل المثال، لا يزال يعتمد إلى حد كبير على مصانع خارجية... لذلك، السيادة مفهوم نسبي»، ويزيد: «هناك درجات من السيادة يمكن تحقيقها...لكن 100 في المائة سيادة؟ حتى العالم بأكمله لا يستطيع ذلك».

بالنسبة للدول ذات الطموحات الكبيرة والموارد المحدودة، يظل السؤال قائماً: كيف تلحق بالركب؟ يحذر عيسى من أن «هذه ليست ثورة تكنولوجية يمكن أن تتأخر عنها ولا يمكنك أيضاً أن تنتظر عشر سنوات بينما تستمتع الدول المجاورة بمكاسب الإنتاجية». الذكاء الاصطناعي لا يعيد تشكيل قطاع واحد، بل قطاعات بأكملها.

في النهاية، قد لا يكون الجدل حول السيادة مجرد صراع جيوسياسي، بل تحوّل اقتصادي عميق. فالتحكم في بيئات تدريب النماذج قد يصبح عاملاً استراتيجياً يعادل أهمية الموارد الطبيعية في مراحل سابقة. لكن، كما يختتم عيسى، فإن الاستثمار الحقيقي لا يقتصر على العتاد «حيث إن بناء الموهبة يحتاج إلى وقت واستثمار طويل الأمد».


النساء أم الرجال... من يرى الذكاء الاصطناعي أكثر خطورة؟

الفجوة في المواقف لا ترتبط فقط بمستوى المعرفة بل بدرجة النفور من المخاطرة وحجم التعرّض المحتمل لاضطراب سوق العمل (شاترستوك)
الفجوة في المواقف لا ترتبط فقط بمستوى المعرفة بل بدرجة النفور من المخاطرة وحجم التعرّض المحتمل لاضطراب سوق العمل (شاترستوك)
TT

النساء أم الرجال... من يرى الذكاء الاصطناعي أكثر خطورة؟

الفجوة في المواقف لا ترتبط فقط بمستوى المعرفة بل بدرجة النفور من المخاطرة وحجم التعرّض المحتمل لاضطراب سوق العمل (شاترستوك)
الفجوة في المواقف لا ترتبط فقط بمستوى المعرفة بل بدرجة النفور من المخاطرة وحجم التعرّض المحتمل لاضطراب سوق العمل (شاترستوك)

غالباً ما يُقدَّم الذكاء الاصطناعي بوصفه ثورة في الإنتاجية قادرة على رفع الناتج الاقتصادي، وتسريع الابتكار، وإعادة تشكيل طريقة إنجاز العمل. لكن دراسة جديدة تشير إلى أن الجمهور لا ينظر إلى وعود الذكاء الاصطناعي بالطريقة نفسها، وأن المواقف تجاه هذه التقنية تتأثر بقوة بعامل النوع الاجتماعي، لا سيما عندما تكون آثارها على الوظائف غير مؤكدة.

وتخلص الدراسة إلى أن النساء مقارنة بالرجال ينظرن إلى الذكاء الاصطناعي باعتباره أكثر خطورة، وأن دعمهن لاعتماد هذه التقنيات يتراجع بوتيرة أشد عندما تنخفض احتمالات أن تؤدي إلى مكاسب صافية في الوظائف. ويحذر الباحثون من أنه إذا لم تُؤخذ المخاوف الخاصة بالنساء في الاعتبار ضمن سياسات الذكاء الاصطناعي، وخاصة ما يتعلق باضطراب سوق العمل، وتفاوت فرص الاستفادة، فقد يؤدي ذلك إلى تعميق الفجوة القائمة بين الجنسين، وربما إلى رد فعل سياسي مضاد للتكنولوجيا.

فجوة لا ترتبط بالمعرفة فقط

تنطلق الدراسة من فكرة بسيطة هي أن فوائد الذكاء الاصطناعي وتكاليفه لن تتوزع بالتساوي على الجميع. فمع انتشار الذكاء الاصطناعي في الاقتصاد، قد تُعزَّز بعض الوظائف وتُعاد صياغة أخرى، بينما قد تختفي وظائف بعينها، أو تتراجع أهميتها. وتشير الدراسة إلى أن النساء ممثلات بنسبة أعلى في وظائف إدارية وكتابية وخدمية يُحتمل أن تكون أكثر عرضة للتأثر بالتقنيات الآلية. وفي المقابل، لا تزال النساء أقل تمثيلاً في مسارات العلوم والتقنية والهندسة والرياضيات، وفي مواقع القيادة التي تمنح عادةً فرصاً أفضل للوصول إلى وظائف الذكاء الاصطناعي الأعلى أجراً، وهو ما قد يوسّع فجوة الأجور بين الجنسين مع مرور الوقت.

وترى الدراسة أن هذه الاختلافات الواقعية في التعرض للمخاطر، وفي فرص الوصول إلى المنافع، تنعكس على اختلافات في المواقف. فبحسب أبحاث سابقة، تميل النساء بالفعل إلى مزيد من الشك مقارنة بالرجال تجاه موجات الأتمتة السابقة.

لكن ما لم يكن واضحاً بما يكفي هو: لماذا تستمر هذه الفجوة؟ هنا يأتي طرح الباحثين عامل «المخاطر» في طريقة التعامل معها، وفي مقدار التعرض لها يقدّم تفسيراً إضافياً.

تجاهل المخاوف الجندرية في سياسات الذكاء الاصطناعي قد يعمّق عدم المساواة ويؤدي إلى ردود فعل سياسية وتنظيمية مضادة للتكنولوجيا (شاترستوك)

الميل للمخاطرة والتعرّض للمخاطر

تركّز الدراسة على عنصرين: الأول يتعلق بالتوجه نحو المخاطرة (Risk orientation)، أي مدى استعداد الفرد عموماً لتحمل عدم اليقين والمفاضلات ذات النتائج غير المضمونة. والآخر هو التعرّض للمخاطر (Risk exposure)، واحتمال أن يترتب على اعتماد الذكاء الاصطناعي تكلفة مباشرة، أو منفعة مباشرة للفرد، تبعاً لموقعه في سوق العمل، وغيرها من العوامل.

ويفترض الباحثون أن النساء ينظرن إلى الذكاء الاصطناعي باعتباره أكثر خطورة، لأنهن في المتوسط أكثر نفوراً من المخاطرة، ولأنهن أيضاً أكثر تعرضاً لاضطراب الوظائف الناتج عن الذكاء الاصطناعي. وتؤكد الدراسة أن هذه الأنماط لا تُقدَّم بوصفها «سمات فطرية»، بل بوصفها نتاجاً لأعراف اجتماعية، وتعلم اجتماعي، وبُنى وظيفية مترسخة منذ عقود.

تجربة واقعية

لاختبار هذا الطرح، أجرى الباحثون استطلاعاً عبر الإنترنت في نوفمبر (تشرين الثاني) 2023 باستخدام لوحة «YouGov». وبلغت العينة الكاملة 6056 مشاركاً، لكن التحليل في هذه الدراسة يركز على 3049 مشاركاً وُجهت إليهم أسئلة حول الذكاء الاصطناعي التوليدي (بينما وُجهت المجموعة الأخرى إلى أسئلة مقارنة عن التجارة). وشملت العينة مشاركين من الولايات المتحدة وكندا، وهما دولتان يصفهما الباحثون بأنهما متقاربتان من حيث الأسس المؤسسية وبنية سوق العمل، رغم اختلاف تفاصيل تبني الذكاء الاصطناعي وتنظيمه.

قاس الباحثون «تصور خطورة الذكاء الاصطناعي» عبر سؤالين على مقياس من 11 نقطة. سُئل المشاركون عن مدى رؤيتهم حول هل مخاطر الذكاء الاصطناعي التوليدي تفوق فوائده بالنسبة لك شخصياً؟ وهل تفوق فوائده بالنسبة لمجتمعك؟ ثم جرى دمج الإجابتين في مؤشر واحد.

ولقياس التوجه نحو المخاطرة استخدمت الدراسة سؤالاً شائعاً في أبحاث المخاطر: هل تفضّل ربحاً مضموناً قدره 1000 دولار؟ أم احتمالاً بنسبة 50 في المائة لربح 2000 دولار؟ ويفترض أن اختيار الألف المضمونة يشير إلى نفور أعلى من المخاطرة.

أما قياس التعرض للمخاطر فكان أكثر تعقيداً لأن آثار الذكاء الاصطناعي التوليدي على سوق العمل لا تزال غير محسومة. لذلك استخدمت الدراسة التعليم بوصفه مؤشراً عاماً على مدى الاستعداد للاستفادة من التحولات التقنية، مع اختبارات إضافية لمقاييس مرتبطة بالتعرض المهني للأتمتة والذكاء الاصطناعي على عينات فرعية من العاملين.

كما تضمن الاستطلاع تجربة مسحيّة مُسجَّلة مسبقاً تغير مستوى المخاطرة الاقتصادية في سيناريو تبني الشركة للذكاء الاصطناعي. قرأ المشاركون حالة عن شركة تتبنى أدوات ذكاء اصطناعي توليدي، ثم قُدِّمت لهم احتمالات مختلفة (تعيين عشوائي) بأن يؤدي ذلك إلى مكاسب صافية في التوظيف. تراوحت الاحتمالات بين 100 في المائة (مكاسب مؤكدة) و70 في المائة و50 في المائة و30 في المائة (مستوى مخاطرة مرتفع)، ثم طلب منهم تأكيد أو رفض قرار الشركة.

الدراسة: دعم النساء لاعتماد الذكاء الاصطناعي يتراجع بوتيرة أسرع من الرجال كلما انخفضت احتمالات المكاسب الصافية في التوظيف (شاترستوك)

ما النتيجة الأبرز؟

أظهرت النتائج أن النساء أكثر ميلاً من الرجال للقول إن مخاطر الذكاء الاصطناعي تفوق فوائده. وتشير الدراسة إلى أن نسبة من ترى المخاطر أعلى من الفوائد تزيد لدى النساء بنحو 11في المائة مقارنة بالرجال، وهي فجوة تقارب حجم الفجوة المعروفة في مواقف الجنسين تجاه التجارة، وهي قضية تؤثر تاريخياً على النقاشات السياسية، والقرارات التنظيمية.

وعند التعمق، يظهر أن هذه الفجوة ترتبط بقوة بالتوجه نحو المخاطرة. فبين المشاركين الأكثر ميلاً لتحمل المخاطرة، تتراجع الفجوة بين النساء والرجال بشكل كبير، أو تتلاشى. بينما تكون الفجوة الأوضح بين من يفضّلون اليقين. يعني هذا أن النفور العام من المخاطرة يضاعف الحذر من تقنية ذات نتائج اقتصادية غير مؤكدة.

كما تشير النتائج إلى دور التعرض للمخاطر، حيث مالت النساء إلى رؤية الذكاء الاصطناعي أكثر خطورة من الرجال في كل من فئات التعليم الجامعي وغير الجامعي، وهو ما ينسجم مع كونهن أكثر تمركزاً في وظائف قد تكون أكثر عرضة للأتمتة، وأقل وصولاً لمسارات العمل الأعلى ربحاً في مجالات الذكاء الاصطناعي.

دليل تجريبي

تظهر التجربة المسحيّة أن كلا من الرجال والنساء يقللون دعمهم لاعتماد الذكاء الاصطناعي عندما تنخفض احتمالات المكاسب الصافية في الوظائف. لكن دعم النساء يتراجع بسرعة أكبر عندما يصبح السيناريو أكثر خطورة. فعند مستوى المخاطرة الأعلى حيث تكون احتمالية المكاسب الصافية في الوظائف 30 في المائة فقط يكون دعم النساء أقل بشكل واضح من دعم الرجال. أما عندما تكون المكاسب مؤكدة بنسبة 100 في المائة، فتتقلص الفجوة بين الجنسين ولا تعود ذات دلالة إحصائية بحسب ما تذكر الدراسة. بمعنى آخر: النساء لسن «ضد الذكاء الاصطناعي» بالمطلق، لكن دعمهن يبدو أكثر ارتباطاً بمدى وضوح الفائدة الاقتصادية، وتأكدها.

من يعرف أكثر؟

حللت الدراسة أيضاً إجابات مفتوحة حول أكبر فوائد الذكاء الاصطناعي ومخاطره باستخدام نمذجة موضوعات نصية. وظهرت فروق نوعية، إذ عبّرت إجابات النساء بدرجة أكبر عن عدم اليقين («لا أعرف») وعن الشك في وجود فوائد اقتصادية واضحة. في المقابل، ركّزت إجابات الرجال أكثر على الإنتاجية والكفاءة، وتحسين العمليات الاقتصادية.

أما بشأن المخاطر، فقد ركّزت إجابات النساء أكثر على فقدان الوظائف والبطالة، بينما ركّزت إجابات الرجال أكثر على الاستخدامات الخبيثة، والمخاطر المجتمعية الأوسع. ويعزز ذلك استنتاج الدراسة بأن النساء في المتوسط يضعن الوزن الأكبر للمخاطر الاقتصادية، ويعبّرن عن قدر أعلى من عدم اليقين بشأن مكاسب الذكاء الاصطناعي.

أهمية البحث

ترى الدراسة أن هذه الفروق ليست اجتماعية فقط، بل سياسية أيضاً. فإذا انعكس انخفاض دعم النساء لاعتماد الذكاء الاصطناعي على انخفاض استخدامهن لأدواته في العمل، فقد يتراجع حضور النساء في مسار تطوير هذه التقنيات وحوكمتها في وقت تتوسع فيه تطبيقات الذكاء الاصطناعي داخل المؤسسات. وهذا يعني أن مخاوف النساء قد لا تُدمج بالقدر الكافي في التصميم، والضمانات وقرارات النشر والتشغيل.

كما تشير الدراسة إلى أن المواقف من الذكاء الاصطناعي قد تصبح أكثر تسييساً. فإذا كانت النساء أكثر دعماً للتدخل الحكومي لإبطاء التبني تحت سيناريوهات فقدان الوظائف، فإن ذلك قد يفتح فرصاً سياسية: قد يتبنى بعض السياسيين سياسات حماية وتنظيم لجذب أصوات النساء، أو قد تُستخدم مشاعر الحذر تجاه الذكاء الاصطناعي أداة تعبئة انتخابية.

لا تقول الدراسة إن النساء يرفضن التقنية لكونها «تقنية»، بل تشير إلى أنهن يستجبن لمشهد مخاطر تكون فيه الرهانات غير متساوية، حيث تختلط وعود الذكاء الاصطناعي بآثار وظيفية غير مؤكدة، وبفرص استفادة غير متكافئة. وبالنسبة للحكومات والمؤسسات التي تدفع نحو تبنٍ سريع، فإن الرسالة تبدو واضحة، وهي أن سياسات الذكاء الاصطناعي التي تتجاهل التعرض غير المتساوي لفقدان الوظائف، وتفاوت الوصول إلى فرص العمل عالية القيمة، واختلاف إدراك المخاطر، قد تعمّق عدم المساواة، وتضعف الثقة العامة. ومن ثمّ، فإن معالجة هذه المخاوف عبر حماية القوى العاملة، ومسارات إعادة التأهيل، وتقليل التحيز في الأنظمة، وحوكمة شاملة قد تكون ضرورية ليس فقط للعدالة، بل للحفاظ على شرعية التحول مع إعادة تشكيل الذكاء الاصطناعي للاقتصاد.


120 ألفاً مستعدون لمساعدته… ذكاء اصطناعي يوظّف بشراً لتنفيذ مهام يعجز عنها

يوسّع الذكاء الاصطناعي نطاق عمله دون الحاجة إلى استثمارات باهظة في الروبوتات بينما يحصل البشر على فرص دخل مرنة وسريعة وشفافة (رويترز)
يوسّع الذكاء الاصطناعي نطاق عمله دون الحاجة إلى استثمارات باهظة في الروبوتات بينما يحصل البشر على فرص دخل مرنة وسريعة وشفافة (رويترز)
TT

120 ألفاً مستعدون لمساعدته… ذكاء اصطناعي يوظّف بشراً لتنفيذ مهام يعجز عنها

يوسّع الذكاء الاصطناعي نطاق عمله دون الحاجة إلى استثمارات باهظة في الروبوتات بينما يحصل البشر على فرص دخل مرنة وسريعة وشفافة (رويترز)
يوسّع الذكاء الاصطناعي نطاق عمله دون الحاجة إلى استثمارات باهظة في الروبوتات بينما يحصل البشر على فرص دخل مرنة وسريعة وشفافة (رويترز)

في خطوة غير تقليدية تقلب سردية الأتمتة السائدة، تبرز منصة «رانت إي هيومان» RentAHuman.ai (أي استأجر إنساناً) نموذجاً جديداً للتكامل بين الذكاء الاصطناعي والإنسان، حيث تتيح لوكلاء الذكاء الاصطناعي استئجار أشخاص حقيقيين لتنفيذ مهام في العالم المادي لا تستطيع الأنظمة الرقمية القيام بها بمفردها حتى الآن.

تعمل المنصة بصفتها سوقاً متخصصة تربط بين وكلاء ذكيين يحتاجون إلى «تدخُّل بشري» وبين أفراد قادرين على تنفيذ مهام تتطلب حضوراً فعلياً، مثل التحقق الميداني، وحضور الاجتماعات، وتوصيل الطرود، والتقاط الصور، أو تنفيذ مهام بسيطة لكنها خارج نطاق العالم الرقمي. وبهذا، يُجسِّر هذا الموقع الفجوة بين قدرات الذكاء الاصطناعي المتقدمة وحدود الواقع الفيزيائي.

آلية بسيطة

آلية العمل بسيطة نسبياً: ينشئ الأفراد ملفات تعريفية تتضمن موقعهم الجغرافي، ومهاراتهم، وأوقات التفرغ، والأجر المطلوب. في المقابل، يستطيع وكلاء الذكاء الاصطناعي البحث آلياً عن الشخص المناسب، وتفويضه بالمهمة، وتحديد التفاصيل الزمنية والتنفيذية بدقة. تجري المدفوعات بشكل فوري عبر العملات الرقمية أو المستقرة، ما يُلغي التأخير المعتاد في منصات العمل الحر التقليدية.

تكمن أهمية النموذج في فائدته للطرفين، فالذكاء الاصطناعي يوسّع نطاق عمله دون الحاجة إلى استثمارات باهظة في الروبوتات، بينما يحصل البشر على فرص دخل مرنة وسريعة وشفافة. ومع التوسع المتوقع في استخدام الوكلاء المستقلين، قد تتحول هذه المنصات إلى بنية تحتية أساسية لاقتصاد هجين جديد يقوم على الشراكة لا الاستبدال، ويُبقي الإنسان عنصراً لا غنى عنه في عصر الأتمتة.

ينشئ الأفراد ملفات تعريفية بموقعهم الجغرافي ومهاراتهم وأوقات التفرغ والأجر المطلوب وفي المقابل يستطيع وكلاء الذكاء الاصطناعي البحث آلياً عن الشخص المناسب وتفويضه بالمهمة وتحديد التفاصيل الزمنية والتنفيذية بدقة (رويترز)

استجابة مجتمعية سريعة

منذ إطلاقها مؤخراً، شهدت منصة «RentAHuman.ai» إقبالاً سريعاً، حيث سجّل مئات الأشخاص أسماءهم فيها في غضون أيام. وبلغ عدد الأشخاص الذين سجّلوا أسماءهم للقيام بمهمات يطلبها منهم الذكاء الاصطناعي على هذه المنصة، 120 ألف شخص.

وشمل المشاركون الأوائل متخصصين من مختلف القطاعات، ما يعكس فضولاً واسع النطاق حول هذه الديناميكية المعكوسة، حيث يسعى الذكاء الاصطناعي إلى الحصول على مساعدة بشرية.

تؤدي هذه المنصة بدورها تغييراً مبتكراً في الأدوار، حيث يعتمد الذكاء الاصطناعي، الآن، على البشر للتفاعل الجسدي. ويرى كثيرون في ذلك حلاً عملياً للقيود الحالية للذكاء الاصطناعي، مع خلق فرص اقتصادية جديدة.