طبقات أمان إضافية لهاتفك أو جهازك اللوحي

في نظامي تشغيل «آي أو إس» و«أندرويد»

المساحة الخاصة في أندرويد
المساحة الخاصة في أندرويد
TT

طبقات أمان إضافية لهاتفك أو جهازك اللوحي

المساحة الخاصة في أندرويد
المساحة الخاصة في أندرويد

يمكن أن يكون فقدان هاتف ذكي أو جهاز لوحي مليء بتفاصيل حياتك كابوساً، ولكن قد تكون خصوصيتك أيضاً في خطر في مواقف أقل وضوحاً -مثل ترك هاتفك مفتوحاً من دون مراقبة أو معرفة الأطفال رمز مرور جهازك اللوحي.

ورغم أن التطبيقات الخاصة بالشؤون المالية أو الطبية تتطلب عادةً كلمات مرور خاصة بها (كما يمكن لتطبيقات صور «أبل» وصور «غوغل» إخفاء صور معينة)، فإن أحدث إصدارات أنظمة «آي أو إس» و«أندرويد» توفر أدوات جديدة لحماية المحتوى الحساس على جهازك. فيما يلي نظرة عامة سريعة.

تأمين تطبيقات «آي أو إس»

يتضمن نظام «آي أو إس 18» الذي صدر من «أبل» في سبتمبر(أيلول) الماضي، القدرة على قفل التطبيقات التي لا تتطلب بالفعل رمز مرور أو «فيس آي دي» Face ID أو «تاتش آي دي» Touch ID لفتحها. تلاحظ «أبل» أن الأشقاء والأطفال المتشابهين يمكنهم تجاوز «فيس آي دي»، لذا استخدم رمز مرور سرياً إذا كان ذلك مصدر قلق.

لقفل تطبيق ما، ابحث عنه على الشاشة الرئيسية لجهاز آيفون أو آيباد (أو في مكتبة التطبيقات) واضغط بإصبعك على أيقونته. في القائمة المنبثقة، حدد «مطلوب فيس آي دي» أو طريقة الأمان التي تستخدمها عادةً.

اضغط على «مطلوب فيس آي دي» مرة أخرى عند المطالبة. لفتح هذا التطبيق في المستقبل، ستحتاج إلى فتح قفله.

لإزالة القفل من تطبيق ما، اضغط على أيقونته وحدد «لا يتطلب فيس آي دي» من القائمة. وإذا لم يكن القفل كافياً، يمكنك الآن أيضاً إخفاء تطبيقات معينة (وليس فقط صفحات الشاشة الرئيسية بأكملها).

في حين لا يمكن إخفاء تطبيقات «آي أو إس» الافتراضية من «أبل»، يمكنك وضع عباءة الإخفاء على التطبيقات التي قمت بتنزيلها من متجر التطبيقات. فقط اضغط بإصبعك على أيقونة التطبيق، واختر «مطلوب فيس آي دي» ثم اضغط على «إخفاء وطلب فيس آي دي» من القائمة.

لن تظهر التطبيقات المخفية في عمليات البحث ولن تقدم إشعارات. تظهر كأيقونات فارغة في مجلد في الجزء السفلي من شاشة مكتبة التطبيقات. اضغط على المجلد المخفيّ للمصادقة عليه وفتحه حتى تتمكن من استخدام التطبيقات. (بدلاً من ذلك، افتح الإعدادات، وحدد التطبيقات، وانتقل إلى أسفل لرؤية قائمة التطبيقات المخفية).

لجعل تطبيق مخفي مرئياً مرة أخرى، ابحث عن أيقونته في أحد هذه الأماكن، واضغط عليه واختر «لا يتطلب فيس آي دي». قد تحتاج إلى إضافته يدوياً مرة أخرى إلى الشاشة الرئيسية من القائمة المنبثقة للأيقونة.

التحقق من الهوية في "آي أو إس"

تأمين تطبيقات «أندرويد»

تختلف الأدوات المضمَّنة في هواتف «أندرويد» بناءً على إصدار النظام، والشركة المصنِّعة للجهاز، وشركة الاتصالات اللاسلكية. يمكن للكثير من هذه المجموعات إخفاء التطبيقات وقفلها، لذا تحقَّقْ من إعداداتك للحصول على الخيارات.

على سبيل المثال، يحتوي كثير من أجهزة «سامسونغ غالاكسي» على خيار «إخفاء التطبيقات على الشاشة الرئيسية وشاشة التطبيقات» Hide apps on Home and Apps screens. ويمكن لمعظم طُرز «غالاكسي» قفل التطبيقات الحساسة في المجلد الآمن، الذي يمكن العثور عليه في إعدادات الأمان. بمجرد اتباع الخطوات لتمكين المجلد الآمن، ستحتاج إلى إدخال رمز مرور أو مفتاح رقمي آخر للوصول إلى العناصر المخزَّنة فيه.

في نظام «أندرويد 15» الذي أُصدر الشهر الماضي، أضافت «غوغل» ميزة «المساحة الخاصة» private space ، التي تتيح لك تثبيت التطبيقات في خزانة رقمية تتطلب كلمة مرور أو مصادقة أخرى لفتحها. بمجرد إعدادها، يمكنك التبديل بين استخدام التطبيقات في مساحتك الخاصة وتلك الموجودة في مجموعتك العادية.

يحتوي موقع مساعدة «أندرويد» من «غوغل» على دليل طويل لإعداد واستخدام المساحة الخاصة. ولكن للبدء، انتقل إلى تطبيق الإعدادات، وانقر على «الأمان والخصوصية»، واذهب لأسفل وحدِّد «المساحة الخاصة».

لتتمكن من المتابعة، يجب عليك فتح قفل جهازك باستخدام طريقة المصادقة الخاصة بك. انقر على زر «الإعداد» Settings لتوجيهك خلال خطوات تكوين المساحة الخاصة، التي تتضمن إنشاء (أو تسجيل الدخول إلى) حساب «غوغل» منفصل وتثبيت التطبيقات فيه. يعمل هذا الإجراء على عزل هذه التطبيقات عن بقية الجهاز -ويمنع مزامنة هذه البيانات مع حسابك الرئيسي على «غوغل».

يجب عليك اختيار طريقة لفتح المساحة الخاصة (مثل التعرف على بصمة الإصبع أو رقم التعريف الشخصي)، التي يمكن أن تختلف عن قفل جهازك الرئيسي. ضعْ في اعتبارك أن التطبيقات تتوقف عن التشغيل عند قفل المساحة الخاصة. تنصح «غوغل» بأن التطبيقات التي تستخدم مستشعرات الهاتف لتتبع المعلومات (مثل البيانات الطبية) أو التي تعمل في الخلفية، ليست مناسبة للإخفاء في مساحة خاصة.

بمجرد إنشاء مساحتك الخاصة، يمكنك العثور عليها بالتمرير لأسفل تماماً إلى أسفل شاشة جميع التطبيقات. انقر على رمز القفل لفتح أو إغلاق المساحة الخاصة. إذا كنت تريد حقاً إخفاءها، انقر على رمز الترس واختر خيار إخفاء المساحة الخاصة عندما تكون مقفلة. للعثور عليها بنفسك، أدخل «المساحة الخاصة» في شريط بحث «أندرويد».

* خدمة «نيويورك تايمز»



«مدمّر ستارلينك» المحتمل... خطوة تقنية صينية تفتح الباب أمام تعطيل الأقمار الاصطناعية

صورة مركبة لنموذج قمر اصطناعي مع خلفية لكوكب الأرض (رويترز)
صورة مركبة لنموذج قمر اصطناعي مع خلفية لكوكب الأرض (رويترز)
TT

«مدمّر ستارلينك» المحتمل... خطوة تقنية صينية تفتح الباب أمام تعطيل الأقمار الاصطناعية

صورة مركبة لنموذج قمر اصطناعي مع خلفية لكوكب الأرض (رويترز)
صورة مركبة لنموذج قمر اصطناعي مع خلفية لكوكب الأرض (رويترز)

طوّر علماء صينيون مولّد طاقة فائق القوة وصغير الحجم، في خطوة تمهّد الطريق لتطوير أسلحة من الجيل القادم قد تُستخدم يوماً ما ضد أسراب الأقمار الاصطناعية، مثل كوكبة «ستارلينك» التابعة لشركة «سبيس إكس»، وذلك وفقاً لما أوردته صحيفة «إندبندنت».

وخلال السنوات الأخيرة، اكتسبت أسلحة الموجات الدقيقة عالية الطاقة اهتماماً متزايداً بوصفها بديلاً منخفض التكلفة للصواريخ والبنادق التقليدية، نظراً لقدرتها شبه غير المحدودة على إطلاق النبضات.

وفي هذا السياق، يُجري باحثون في الولايات المتحدة، وروسيا، والصين على وجه الخصوص، دراسات مكثفة حول إمكانية تطوير هذه التقنية إلى أسلحة طاقة موجهة قادرة على تعطيل الأقمار الاصطناعية.

ويُعدّ تدمير قمر اصطناعي في الفضاء مهمة بالغة التعقيد، إذ من المرجح أن تُخلّف الأسلحة التقليدية كميات كبيرة من الحطام المداري، ما قد يؤدي إلى عواقب غير متوقعة، بما في ذلك تهديد الأقمار الاصطناعية التابعة للدولة المنفذة نفسها.

ومن الناحية النظرية، يمكن لأسلحة الموجات الدقيقة تعطيل الأقمار الاصطناعية مع توليد قدر محدود من الحطام، فضلاً عن إتاحة قدر من «الإنكار المعقول»، وهو ما يمنحها ميزة استراتيجية واضحة.

وتعتمد هذه الأسلحة على مبدأ تخزين الطاقة الكهربائية ثم إطلاقها دفعة واحدة على شكل نبضة قوية، على غرار آلية عمل ملف تسلا.

وتُستخدم هذه النبضة الهائلة من الطاقة في تشغيل مولدات الموجات الدقيقة، التي تعمل بدورها على تعطيل الأنظمة، والأجهزة الإلكترونية.

شاشة تظهر إيلون ماسك وشعار شركة «ستارلينك» (رويترز)

وحتى وقت قريب، كانت غالبية النماذج الأولية لهذه المولدات النبضية ضخمة الحجم، إذ بلغ طولها 10 أمتار على الأقل، ووزنها أكثر من 10 أطنان، ما جعل دمجها في أنظمة الأسلحة الصغيرة أو المتحركة أمراً بالغ الصعوبة.

غير أنّ دراسة حديثة أجراها علماء صينيون من معهد شمال غربي الصين للتكنولوجيا النووية (NINT) أظهرت تقدماً ملحوظاً في هذا المجال، حيث استخدم الباحثون مادة عازلة سائلة خاصة تُعرف باسم «ميدل 7131»، ما أتاح تحقيق كثافة أعلى لتخزين الطاقة، وعزلاً أكثر قوة، وتقليلاً لفقدان الطاقة، وأسهم في تصميم جهاز أصغر حجماً، وأكثر كفاءة.

وكتب العلماء في الدراسة المنشورة: «من خلال استخدام مادة عازلة سائلة عالية الكثافة للطاقة تُعرف باسم (ميدل 7131)، إلى جانب خط تشكيل نبضات مزدوج العرض، تمكنت الدراسة من تصغير حجم محول تسلا المتكامل، ونظام تشكيل النبضات».

وبحسب الدراسة، يبلغ طول الجهاز الجديد أربعة أمتار فقط (13 قدماً)، ويزن خمسة أطنان، ما يجعله أول جهاز تشغيل صغير الحجم في العالم لسلاح الميكروويف عالي الطاقة.

ويُعرف هذا الجهاز باسم TPG1000Cs، وهو صغير بما يكفي ليُثبت على الشاحنات، والطائرات، بل وحتى على أقمار اصطناعية أخرى، وفقاً لما أفاد به الباحثون.

وأشار الباحثون إلى أن «النظام أظهر استقراراً في التشغيل لمدة دقيقة واحدة متواصلة، حيث جُمعت نحو 200 ألف نبضة بأداء ثابت».

ويؤكد خبراء أن سلاح ميكروويف أرضياً بقدرة تتجاوز 1 غيغاواط (GW) سيكون قادراً على تعطيل وتدمير آلية عمل أقمار «ستارلينك» الاصطناعية في مدارها بشكل كبير.

وذكر الباحثون، بحسب ما نقلته صحيفة «ساوث تشاينا مورنينغ بوست»، أن جهاز TPG1000Cs قادر على توليد نبضات كهربائية فائقة القوة تصل إلى 20 غيغاواط.

وتأتي هذه التطورات في وقت نشرت فيه الصين عدداً من الدراسات التي تشدد على ضرورة إيجاد وسائل فعالة لتعطيل أقمار «ستارلينك» الاصطناعية التابعة لرجل الأعمال إيلون ماسك.


الذكاء الاصطناعي السيادي… نهاية السحابة أم بداية نموذج مزدوج؟

يتحوّل النقاش في عصر الذكاء الاصطناعي من التطبيقات إلى البنية التحتية ومن يملكها وكيف تُدار (أدوبي)
يتحوّل النقاش في عصر الذكاء الاصطناعي من التطبيقات إلى البنية التحتية ومن يملكها وكيف تُدار (أدوبي)
TT

الذكاء الاصطناعي السيادي… نهاية السحابة أم بداية نموذج مزدوج؟

يتحوّل النقاش في عصر الذكاء الاصطناعي من التطبيقات إلى البنية التحتية ومن يملكها وكيف تُدار (أدوبي)
يتحوّل النقاش في عصر الذكاء الاصطناعي من التطبيقات إلى البنية التحتية ومن يملكها وكيف تُدار (أدوبي)

لم يعد الذكاء الاصطناعي مجرّد قصة برمجيات. فمع تسارع الحكومات في تنفيذ استراتيجياتها الرقمية، واندماج تقنيات الذكاء الاصطناعي التوليدي في صلب العمليات المؤسسية، يتحوّل النقاش من التطبيقات إلى البنية التحتية، تحديداً من يملكها وأين تُدار وكيف تُبنى. فالمفهوم الذي يتصدر هذا الجدل اليوم هو «السيادة».

غير أن السيادة في سياق الذكاء الاصطناعي ليست مجرد شعار جيوسياسي، بل تعكس تحوّلاً بنيوياً في فهم الدول والشركات لمخاطر المرحلة الجديدة، خصوصاً في عصر النماذج اللغوية الكبرى.

فالحوسبة السحابية التقليدية أثارت مخاوف تتعلق بالخصوصية والأمن السيبراني. أما الذكاء الاصطناعي التوليدي فقد أضاف بُعداً مختلفاً. إذاً ماذا يحدث عندما تتعلّم النماذج من بيانات حساسة بطرق يصعب عكسها؟

يجيب سامي عيسى، الرئيس التنفيذي لشركة «غلوبال إيه آي»، بأنه «لا يوجد في عالم الذكاء الاصطناعي ما يُسمى بالحق في النسيان. إذا تعلّم نموذج لغوي أسرار نموذج عملي التجاري، فمن شبه المستحيل إقناعه بإلغاء ما تعلّمه». ويشير خلال لقاء خاص مع «الشرق الأوسط» إلى أن الفارق بين تخزين البيانات وترميزها داخل أوزان النموذج «هو ما يدفع باتجاه مفهوم الذكاء الاصطناعي السيادي».

سامي عيسى الرئيس التنفيذي لشركة «غلوبال إيه آي»

السيادة بالهندسة المعمارية

يمكن النظر إلى السيادة من زاويتين؛ الأولى قائمة على التشريعات والضوابط التعاقدية، والثانية قائمة على البنية الهندسية ذاتها. السيادة بالسياسة تعتمد على القوانين والاتفاقات، لكن تنفيذ تلك الضوابط يصبح معقّداً حين يكون «التسرّب» غير قابل للاسترجاع. ويقول عيسى إن «التسرّب لا يمكن استعادته ولا يمكنك أن تطلب من النموذج أن ينسى».

وهنا تظهر فكرة «السيادة بالهندسة المعمارية»، أي بناء بيئات حوسبة معزولة ومخصصة بالكامل لجهة واحدة، بحيث لا تكون مشتركة مع أطراف أخرى. وفي هذا النموذج، تكون البنية التحتية «مفصولة مادياً» (air-gapped)، ولا يشاركها أي عميل آخر.

المنطق واضح، فإذا كانت النماذج التوليدية تستمد قيمتها من بيانات حساسة كالنماذج التجارية أو الشيفرات الجينية أو البنى المالية، فإن التحكم المعماري يصبح أداًة استراتيجيةً لحماية هذه القيمة. فالسيادة هنا ليست انعزالاً، بل إدارة واعية للمخاطر طويلة الأمد.

الحوسبة السحابية والذكاء الاصطناعي

على مدى عقدين تقريباً، أعادت الحوسبة السحابية تشكيل البنية الرقمية للشركات. لكن حتى اليوم، لم تنتقل غالبية بيانات المؤسسات بالكامل إلى السحابة العامة. ومع صعود الذكاء الاصطناعي التوليدي، بدأ البعض يعيد النظر.

يرى عيسى أنه «بعد 15 أو 20 عاماً من الحوسبة السحابية، لم تنتقل نسبة كبيرة من بيانات المؤسسات إلى السحابة. أما الآن، في عصر الذكاء الاصطناعي، نرى بعضهم ينسحب». ويُرجع عيسى السبب ليس إلى أساس عاطفي بل بنيوي، ويقول: «في الحوسبة التقليدية، يمكن فصل البيانات، أما في النماذج اللغوية، فإن المعرفة تصبح جزءاً من تكوين النموذج نفسه. لكن هل يعني ذلك أن الحوسبة السحابية والسيادة في مسار تصادمي؟».

يرد عيسى قائلاً: «أعتقد أن الأمر كذلك، فالذكاء الاصطناعي سرّع هذا الاتجاه»، موضحاً أن المقصود ليس نهاية الحوسبة السحابية، بل ظهور بنى مزدوجة. إنها بيئات سحابية مشتركة للأعمال العامة وبيئات سيادية مخصصة للتطبيقات الاستراتيجية.

النماذج اللغوية تجعل مسألة «السيادة» أكثر إلحاحاً لأن المعرفة التي تتعلّمها لا يمكن استرجاعها أو محوها بسهولة (غيتي)

مخاطر البطء أكبر من مخاطر الإسراف

بينما يتخوف بعض صناع القرار من الإفراط في الإنفاق على البنية التحتية للذكاء الاصطناعي، يرى عيسى أن الخطر الأكبر هو التردد، ويشرح أن «مخاطر التقليل في الاستثمار أكبر من مخاطر الإفراط فيه»، وأن الذكاء الاصطناعي ليس مجرد تطور تدريجي في السرعة أو السعة، بل يعيد تعريف نماذج الإنتاجية والخدمات. ويصف عيسى ما يحدث بأنه «ليس مجرد قفزة تقنية بل طريقة مختلفة تماماً في التفكير بالأعمال وخلق القيمة». ويشدد على أنه بالنسبة للدول التي تسعى إلى التحول لمراكز للذكاء الاصطناعي، «فإن التأخير قد يعني خسارة سباق استقطاب المواهب».

البنية التحتية وحدها لا تكفي

الاستثمار في مراكز البيانات لا يحل المشكلة بالكامل، فالموهبة هي العامل الحاسم. ويفيد عيسى خلال حديثه مع «الشرق الأوسط» بأن «الموهبة تحتاج إلى وقت، وأن التحول نحو الذكاء الاصطناعي يتطلب طيفاً واسعاً من الكفاءات؛ مهندسي كهرباء ومختصي طاقة وخبراء مراكز بيانات ومطوري برمجيات وباحثي تعلم آلي وغيرهم». ويلفت عيسى إلى أن «أي تقنية تعزز الإنتاجية تؤثر في سوق العمل لكنها تخلق أيضاً وظائف جديدة»، ويضرب مثالاً توضيحياً كنجاح وادي السيليكون «الذي لم يكن نتيجة بنية تحتية فقط، بل نتيجة منظومة تعليمية ومؤسسية بُنيت على مدى عقود»، ويضيف: «إذا أردت أن تصبح مركزاً للذكاء الاصطناعي، فإن أهم قرار معماري هو أن تبدأ الآن».

تتجه بعض المؤسسات إلى نماذج سيادية معمارية مخصّصة بدل الاعتماد الكامل على الحوسبة السحابية المشتركة (غيتي)

السيادة... لكن مع ترابط عالمي

ألا تعني السيادة الاستقلال الكامل؟ يرد عيسى قائلاً إن «السيادة الكاملة دون أي ترابط هي خيال. فإنتاج الشرائح المتقدمة، على سبيل المثال، لا يزال يعتمد إلى حد كبير على مصانع خارجية... لذلك، السيادة مفهوم نسبي»، ويزيد: «هناك درجات من السيادة يمكن تحقيقها...لكن 100 في المائة سيادة؟ حتى العالم بأكمله لا يستطيع ذلك».

بالنسبة للدول ذات الطموحات الكبيرة والموارد المحدودة، يظل السؤال قائماً: كيف تلحق بالركب؟ يحذر عيسى من أن «هذه ليست ثورة تكنولوجية يمكن أن تتأخر عنها ولا يمكنك أيضاً أن تنتظر عشر سنوات بينما تستمتع الدول المجاورة بمكاسب الإنتاجية». الذكاء الاصطناعي لا يعيد تشكيل قطاع واحد، بل قطاعات بأكملها.

في النهاية، قد لا يكون الجدل حول السيادة مجرد صراع جيوسياسي، بل تحوّل اقتصادي عميق. فالتحكم في بيئات تدريب النماذج قد يصبح عاملاً استراتيجياً يعادل أهمية الموارد الطبيعية في مراحل سابقة. لكن، كما يختتم عيسى، فإن الاستثمار الحقيقي لا يقتصر على العتاد «حيث إن بناء الموهبة يحتاج إلى وقت واستثمار طويل الأمد».


النساء أم الرجال... من يرى الذكاء الاصطناعي أكثر خطورة؟

الفجوة في المواقف لا ترتبط فقط بمستوى المعرفة بل بدرجة النفور من المخاطرة وحجم التعرّض المحتمل لاضطراب سوق العمل (شاترستوك)
الفجوة في المواقف لا ترتبط فقط بمستوى المعرفة بل بدرجة النفور من المخاطرة وحجم التعرّض المحتمل لاضطراب سوق العمل (شاترستوك)
TT

النساء أم الرجال... من يرى الذكاء الاصطناعي أكثر خطورة؟

الفجوة في المواقف لا ترتبط فقط بمستوى المعرفة بل بدرجة النفور من المخاطرة وحجم التعرّض المحتمل لاضطراب سوق العمل (شاترستوك)
الفجوة في المواقف لا ترتبط فقط بمستوى المعرفة بل بدرجة النفور من المخاطرة وحجم التعرّض المحتمل لاضطراب سوق العمل (شاترستوك)

غالباً ما يُقدَّم الذكاء الاصطناعي بوصفه ثورة في الإنتاجية قادرة على رفع الناتج الاقتصادي، وتسريع الابتكار، وإعادة تشكيل طريقة إنجاز العمل. لكن دراسة جديدة تشير إلى أن الجمهور لا ينظر إلى وعود الذكاء الاصطناعي بالطريقة نفسها، وأن المواقف تجاه هذه التقنية تتأثر بقوة بعامل النوع الاجتماعي، لا سيما عندما تكون آثارها على الوظائف غير مؤكدة.

وتخلص الدراسة إلى أن النساء مقارنة بالرجال ينظرن إلى الذكاء الاصطناعي باعتباره أكثر خطورة، وأن دعمهن لاعتماد هذه التقنيات يتراجع بوتيرة أشد عندما تنخفض احتمالات أن تؤدي إلى مكاسب صافية في الوظائف. ويحذر الباحثون من أنه إذا لم تُؤخذ المخاوف الخاصة بالنساء في الاعتبار ضمن سياسات الذكاء الاصطناعي، وخاصة ما يتعلق باضطراب سوق العمل، وتفاوت فرص الاستفادة، فقد يؤدي ذلك إلى تعميق الفجوة القائمة بين الجنسين، وربما إلى رد فعل سياسي مضاد للتكنولوجيا.

فجوة لا ترتبط بالمعرفة فقط

تنطلق الدراسة من فكرة بسيطة هي أن فوائد الذكاء الاصطناعي وتكاليفه لن تتوزع بالتساوي على الجميع. فمع انتشار الذكاء الاصطناعي في الاقتصاد، قد تُعزَّز بعض الوظائف وتُعاد صياغة أخرى، بينما قد تختفي وظائف بعينها، أو تتراجع أهميتها. وتشير الدراسة إلى أن النساء ممثلات بنسبة أعلى في وظائف إدارية وكتابية وخدمية يُحتمل أن تكون أكثر عرضة للتأثر بالتقنيات الآلية. وفي المقابل، لا تزال النساء أقل تمثيلاً في مسارات العلوم والتقنية والهندسة والرياضيات، وفي مواقع القيادة التي تمنح عادةً فرصاً أفضل للوصول إلى وظائف الذكاء الاصطناعي الأعلى أجراً، وهو ما قد يوسّع فجوة الأجور بين الجنسين مع مرور الوقت.

وترى الدراسة أن هذه الاختلافات الواقعية في التعرض للمخاطر، وفي فرص الوصول إلى المنافع، تنعكس على اختلافات في المواقف. فبحسب أبحاث سابقة، تميل النساء بالفعل إلى مزيد من الشك مقارنة بالرجال تجاه موجات الأتمتة السابقة.

لكن ما لم يكن واضحاً بما يكفي هو: لماذا تستمر هذه الفجوة؟ هنا يأتي طرح الباحثين عامل «المخاطر» في طريقة التعامل معها، وفي مقدار التعرض لها يقدّم تفسيراً إضافياً.

تجاهل المخاوف الجندرية في سياسات الذكاء الاصطناعي قد يعمّق عدم المساواة ويؤدي إلى ردود فعل سياسية وتنظيمية مضادة للتكنولوجيا (شاترستوك)

الميل للمخاطرة والتعرّض للمخاطر

تركّز الدراسة على عنصرين: الأول يتعلق بالتوجه نحو المخاطرة (Risk orientation)، أي مدى استعداد الفرد عموماً لتحمل عدم اليقين والمفاضلات ذات النتائج غير المضمونة. والآخر هو التعرّض للمخاطر (Risk exposure)، واحتمال أن يترتب على اعتماد الذكاء الاصطناعي تكلفة مباشرة، أو منفعة مباشرة للفرد، تبعاً لموقعه في سوق العمل، وغيرها من العوامل.

ويفترض الباحثون أن النساء ينظرن إلى الذكاء الاصطناعي باعتباره أكثر خطورة، لأنهن في المتوسط أكثر نفوراً من المخاطرة، ولأنهن أيضاً أكثر تعرضاً لاضطراب الوظائف الناتج عن الذكاء الاصطناعي. وتؤكد الدراسة أن هذه الأنماط لا تُقدَّم بوصفها «سمات فطرية»، بل بوصفها نتاجاً لأعراف اجتماعية، وتعلم اجتماعي، وبُنى وظيفية مترسخة منذ عقود.

تجربة واقعية

لاختبار هذا الطرح، أجرى الباحثون استطلاعاً عبر الإنترنت في نوفمبر (تشرين الثاني) 2023 باستخدام لوحة «YouGov». وبلغت العينة الكاملة 6056 مشاركاً، لكن التحليل في هذه الدراسة يركز على 3049 مشاركاً وُجهت إليهم أسئلة حول الذكاء الاصطناعي التوليدي (بينما وُجهت المجموعة الأخرى إلى أسئلة مقارنة عن التجارة). وشملت العينة مشاركين من الولايات المتحدة وكندا، وهما دولتان يصفهما الباحثون بأنهما متقاربتان من حيث الأسس المؤسسية وبنية سوق العمل، رغم اختلاف تفاصيل تبني الذكاء الاصطناعي وتنظيمه.

قاس الباحثون «تصور خطورة الذكاء الاصطناعي» عبر سؤالين على مقياس من 11 نقطة. سُئل المشاركون عن مدى رؤيتهم حول هل مخاطر الذكاء الاصطناعي التوليدي تفوق فوائده بالنسبة لك شخصياً؟ وهل تفوق فوائده بالنسبة لمجتمعك؟ ثم جرى دمج الإجابتين في مؤشر واحد.

ولقياس التوجه نحو المخاطرة استخدمت الدراسة سؤالاً شائعاً في أبحاث المخاطر: هل تفضّل ربحاً مضموناً قدره 1000 دولار؟ أم احتمالاً بنسبة 50 في المائة لربح 2000 دولار؟ ويفترض أن اختيار الألف المضمونة يشير إلى نفور أعلى من المخاطرة.

أما قياس التعرض للمخاطر فكان أكثر تعقيداً لأن آثار الذكاء الاصطناعي التوليدي على سوق العمل لا تزال غير محسومة. لذلك استخدمت الدراسة التعليم بوصفه مؤشراً عاماً على مدى الاستعداد للاستفادة من التحولات التقنية، مع اختبارات إضافية لمقاييس مرتبطة بالتعرض المهني للأتمتة والذكاء الاصطناعي على عينات فرعية من العاملين.

كما تضمن الاستطلاع تجربة مسحيّة مُسجَّلة مسبقاً تغير مستوى المخاطرة الاقتصادية في سيناريو تبني الشركة للذكاء الاصطناعي. قرأ المشاركون حالة عن شركة تتبنى أدوات ذكاء اصطناعي توليدي، ثم قُدِّمت لهم احتمالات مختلفة (تعيين عشوائي) بأن يؤدي ذلك إلى مكاسب صافية في التوظيف. تراوحت الاحتمالات بين 100 في المائة (مكاسب مؤكدة) و70 في المائة و50 في المائة و30 في المائة (مستوى مخاطرة مرتفع)، ثم طلب منهم تأكيد أو رفض قرار الشركة.

الدراسة: دعم النساء لاعتماد الذكاء الاصطناعي يتراجع بوتيرة أسرع من الرجال كلما انخفضت احتمالات المكاسب الصافية في التوظيف (شاترستوك)

ما النتيجة الأبرز؟

أظهرت النتائج أن النساء أكثر ميلاً من الرجال للقول إن مخاطر الذكاء الاصطناعي تفوق فوائده. وتشير الدراسة إلى أن نسبة من ترى المخاطر أعلى من الفوائد تزيد لدى النساء بنحو 11في المائة مقارنة بالرجال، وهي فجوة تقارب حجم الفجوة المعروفة في مواقف الجنسين تجاه التجارة، وهي قضية تؤثر تاريخياً على النقاشات السياسية، والقرارات التنظيمية.

وعند التعمق، يظهر أن هذه الفجوة ترتبط بقوة بالتوجه نحو المخاطرة. فبين المشاركين الأكثر ميلاً لتحمل المخاطرة، تتراجع الفجوة بين النساء والرجال بشكل كبير، أو تتلاشى. بينما تكون الفجوة الأوضح بين من يفضّلون اليقين. يعني هذا أن النفور العام من المخاطرة يضاعف الحذر من تقنية ذات نتائج اقتصادية غير مؤكدة.

كما تشير النتائج إلى دور التعرض للمخاطر، حيث مالت النساء إلى رؤية الذكاء الاصطناعي أكثر خطورة من الرجال في كل من فئات التعليم الجامعي وغير الجامعي، وهو ما ينسجم مع كونهن أكثر تمركزاً في وظائف قد تكون أكثر عرضة للأتمتة، وأقل وصولاً لمسارات العمل الأعلى ربحاً في مجالات الذكاء الاصطناعي.

دليل تجريبي

تظهر التجربة المسحيّة أن كلا من الرجال والنساء يقللون دعمهم لاعتماد الذكاء الاصطناعي عندما تنخفض احتمالات المكاسب الصافية في الوظائف. لكن دعم النساء يتراجع بسرعة أكبر عندما يصبح السيناريو أكثر خطورة. فعند مستوى المخاطرة الأعلى حيث تكون احتمالية المكاسب الصافية في الوظائف 30 في المائة فقط يكون دعم النساء أقل بشكل واضح من دعم الرجال. أما عندما تكون المكاسب مؤكدة بنسبة 100 في المائة، فتتقلص الفجوة بين الجنسين ولا تعود ذات دلالة إحصائية بحسب ما تذكر الدراسة. بمعنى آخر: النساء لسن «ضد الذكاء الاصطناعي» بالمطلق، لكن دعمهن يبدو أكثر ارتباطاً بمدى وضوح الفائدة الاقتصادية، وتأكدها.

من يعرف أكثر؟

حللت الدراسة أيضاً إجابات مفتوحة حول أكبر فوائد الذكاء الاصطناعي ومخاطره باستخدام نمذجة موضوعات نصية. وظهرت فروق نوعية، إذ عبّرت إجابات النساء بدرجة أكبر عن عدم اليقين («لا أعرف») وعن الشك في وجود فوائد اقتصادية واضحة. في المقابل، ركّزت إجابات الرجال أكثر على الإنتاجية والكفاءة، وتحسين العمليات الاقتصادية.

أما بشأن المخاطر، فقد ركّزت إجابات النساء أكثر على فقدان الوظائف والبطالة، بينما ركّزت إجابات الرجال أكثر على الاستخدامات الخبيثة، والمخاطر المجتمعية الأوسع. ويعزز ذلك استنتاج الدراسة بأن النساء في المتوسط يضعن الوزن الأكبر للمخاطر الاقتصادية، ويعبّرن عن قدر أعلى من عدم اليقين بشأن مكاسب الذكاء الاصطناعي.

أهمية البحث

ترى الدراسة أن هذه الفروق ليست اجتماعية فقط، بل سياسية أيضاً. فإذا انعكس انخفاض دعم النساء لاعتماد الذكاء الاصطناعي على انخفاض استخدامهن لأدواته في العمل، فقد يتراجع حضور النساء في مسار تطوير هذه التقنيات وحوكمتها في وقت تتوسع فيه تطبيقات الذكاء الاصطناعي داخل المؤسسات. وهذا يعني أن مخاوف النساء قد لا تُدمج بالقدر الكافي في التصميم، والضمانات وقرارات النشر والتشغيل.

كما تشير الدراسة إلى أن المواقف من الذكاء الاصطناعي قد تصبح أكثر تسييساً. فإذا كانت النساء أكثر دعماً للتدخل الحكومي لإبطاء التبني تحت سيناريوهات فقدان الوظائف، فإن ذلك قد يفتح فرصاً سياسية: قد يتبنى بعض السياسيين سياسات حماية وتنظيم لجذب أصوات النساء، أو قد تُستخدم مشاعر الحذر تجاه الذكاء الاصطناعي أداة تعبئة انتخابية.

لا تقول الدراسة إن النساء يرفضن التقنية لكونها «تقنية»، بل تشير إلى أنهن يستجبن لمشهد مخاطر تكون فيه الرهانات غير متساوية، حيث تختلط وعود الذكاء الاصطناعي بآثار وظيفية غير مؤكدة، وبفرص استفادة غير متكافئة. وبالنسبة للحكومات والمؤسسات التي تدفع نحو تبنٍ سريع، فإن الرسالة تبدو واضحة، وهي أن سياسات الذكاء الاصطناعي التي تتجاهل التعرض غير المتساوي لفقدان الوظائف، وتفاوت الوصول إلى فرص العمل عالية القيمة، واختلاف إدراك المخاطر، قد تعمّق عدم المساواة، وتضعف الثقة العامة. ومن ثمّ، فإن معالجة هذه المخاوف عبر حماية القوى العاملة، ومسارات إعادة التأهيل، وتقليل التحيز في الأنظمة، وحوكمة شاملة قد تكون ضرورية ليس فقط للعدالة، بل للحفاظ على شرعية التحول مع إعادة تشكيل الذكاء الاصطناعي للاقتصاد.