كانت التحذيرات مخيفة في مؤتمر «بلاك هات» Black Hat للأمن الرقمي بعد كشف شركة صغيرة عن ثغرة في ملايين الهواتف الذكية قد تسمح للبرمجيات الخبيثة بالتخفي وكأنها تطبيقات صحيحة وتستولي على الهاتف. وليس من المفاجئ عدم سماعنا شيئا بعد ذلك عن هذا الموضوع، نظرا لأن البرمجيات الخبيثة الخاصة بالأجهزة الجوالة لم تؤثر بشكل كبير على الأفراد بعد.
وذكر تقرير تابع لشركة «مكافي» McAfee لأمن المعلومات أن نسبة ازدياد البرمجيات الخبيئة على الأجهزة الجوالة من عام 2012 إلى 2013 وصلت إلى 197 في المائة. ولكن عدد الهواتف الذكية التي تأثرت ببرنامج ضار يقفل الهاتف ولا يسمح بإعادة تشغيله إلا بعد دفع فدية تتراوح بين 20 و40 ألف هاتف في الولايات المتحدة الأميركية، الرقم الذي يعد ضئيلا مقارنة بإصابة متجر «هوم ديبو» التي تأثر بها أكثر من 56 مليون مستخدم لبطاقة ائتمان. وأظهرت تقارير حديثة أن الحكومة الصينية مشتبه في استخدامها برمجيات خبيثة تستهدف الأجهزة الجوالة للمتظاهرين في «هونغ كونغ».
* تغلغل في «آندرويد»
تستهدف غالبية البرمجيات الخبيثة الأجهزة التي تعمل بنظام التشغيل «آندرويد»، إلا أن «غوغل» تقول إن الإصابات الفعلية قليلة، خصوصا في الولايات المتحدة وأوروبا اللتين تعملان بنظم تشغيل رسمية ومتاجر تطبيقات مرخصة. ومثالا على ذلك، فقد قدر خبراء بأن ثغرة «ماستر كي» Master Key التي كُشف عنها النقاب في مؤتمر «بلاك هات» العام الماضي ستصيب نحو 99 في المائة من مستخدمي «آندرويد»، بينما أكد ممثلو «غوغل» أن تطبيق «فيك آي دي» Fake ID استغل هذه الثغرة، ولكنه لم يصب أعدادا كبيرة من المستخدمين (نحو واحد أو اثنين من كل مليون عملية تثبيت للتطبيق الخبيث).
وتقول «غوغل» إن النسبة الأكبر للأجهزة التي تتعرض لإصابات جدية تكون في روسيا وفيتنام، وذلك بسبب تحميل التطبيقات من متاجر غير رسمية لا تدعمها «غوغل» أو شركة الاتصالات المزودة للخدمة. وأضافت «غوغل» حديثا نظاما يفحص التطبيقات الموجودة في هاتف المستخدم ليتأكد من أنها تتصرف بالشكل المفترض، اسمه «فيريفاي آبس» Verify Apps، وهو يعمل تلقائيا بمجرد تغيير خصائص النظام للسماح بتثبيت التطبيقات من متاجر غير رسمية على جهاز المستخدم. وسُيشعر النظام المستخدم بوجود تطبيقات تتصرف بطرق مشتبه فيها أو خطيرة، وقد يوقفها عن العمل.
وتثبت بعض الشركات المزودة لخدمات الاتصالات في الولايات المتحدة برامج وقائية ضد الفيروسات في الأجهزة المبيعة، مثل تطبيق «لوكآوت موبايل سيكيوريتي» Lookout Mobile Security المجاني الذي يقول ممثلوه إن نحو 4 في المائة من مستخدميه في الولايات المتحدة قد واجهوا تطبيقا خبيثا أو أكثر في العام، بينما تصل تلك النسبة إلى 63 في المائة في روسيا، و28 في المائة في الصين، وهي أقل من نسب إصابة الكومبيوترات الشخصية بالبرمجيات الضارة. وتؤكد شركات الأمن الرقمي المختلفة، مثل «مكافي»، على أن أعداد البرمجيات الخبيثة على الأجهزة الجوالة في ازدياد وقد تصبح خطرا حقيقيا في المستقبل، الأمر الذي ينعكس حاليا على كيفية تعامل المستخدمين مع ثغرات الأجهزة الجوالة باستخفاف مقارنة بثغرات الكومبيوترات الشخصية.
* أمن الهواتف
وتزداد أهمية هذا الأمر في بيئة العمل التي يجلب فيها الموظفون أجهزتهم الشخصية الجوالة ويتصلون بالشبكات اللاسلكية لأداء الأعمال المختلفة. وتقدم شركات الأمن الرقمي تطبيقات خاصة بالأجهزة التي تعمل بنظامي التشغيل «آي أو إس» و«آندرويد» لفحص التطبيقات الأخرى الموجودة في الجهاز التي قد تشكل تهديدا أمنيا، وتحذر المستخدم إن كان تطبيق ما يحاول طلب مزيد من الصلاحيات من جهازه الجوال، مثل طلب تطبيق وظيفته تشغيل ضوء «فلاش» الهاتف للحصول على بيانات دفتر عناوين المستخدم وتسجيل محادثاته.
ويستطيع المستخدم الابتعاد عن أثر البرمجيات الضارة بسهولة بعدم تحميل التطبيقات إلا من المتاجر الرقمية الرسمية، واستخدام كلمات سر مختلفة للبريد الإلكتروني والمواقع العديدة الأخرى، وعدم النقر على الإعلانات التي قد تتسبب بتحميل برمجيات ضارة مختلفة، وتجنب استخدام شبكات «واي فاي» غير المحمية التي تسمح للقراصنة بالدخول إلى الهاتف وسرقة البيانات التي يبحثون عنها.
وينصح بتوخي الحذر لدى تحميل التطبيقات من المتاجر المختلفة، والتأكد من تقييم المستخدمين الآخرين للتطبيق ومدة وجوده في المتجر الرسمي، بالإضافة إلى استخدام كلمة سر مختلفة عن الكلمات الأخرى لقفل الجهاز في حال فقدانه أو سرقته، وذلك لحماية بيانات المستخدم من العبث وأعين المتطفلين. وينصح كذلك بعدم النقر على الروابط التي قد تصل للمستخدم على شكل رسالة من مصرفه تطلب منه إدخال كلمة السر الخاصة بحسابه، وينصح أيضا بالتحدث مباشرة مع المصرف وسؤالهم عن صحة تلك الرسالة.
الذكاء الاصطناعي السيادي… نهاية السحابة أم بداية نموذج مزدوج؟https://aawsat.com/%D8%AA%D9%83%D9%86%D9%88%D9%84%D9%88%D8%AC%D9%8A%D8%A7/5237791-%D8%A7%D9%84%D8%B0%D9%83%D8%A7%D8%A1-%D8%A7%D9%84%D8%A7%D8%B5%D8%B7%D9%86%D8%A7%D8%B9%D9%8A-%D8%A7%D9%84%D8%B3%D9%8A%D8%A7%D8%AF%D9%8A%E2%80%A6-%D9%86%D9%87%D8%A7%D9%8A%D8%A9-%D8%A7%D9%84%D8%B3%D8%AD%D8%A7%D8%A8%D8%A9-%D8%A3%D9%85-%D8%A8%D8%AF%D8%A7%D9%8A%D8%A9-%D9%86%D9%85%D9%88%D8%B0%D8%AC-%D9%85%D8%B2%D8%AF%D9%88%D8%AC%D8%9F
الذكاء الاصطناعي السيادي… نهاية السحابة أم بداية نموذج مزدوج؟
يتحوّل النقاش في عصر الذكاء الاصطناعي من التطبيقات إلى البنية التحتية ومن يملكها وكيف تُدار (أدوبي)
لم يعد الذكاء الاصطناعي مجرّد قصة برمجيات. فمع تسارع الحكومات في تنفيذ استراتيجياتها الرقمية، واندماج تقنيات الذكاء الاصطناعي التوليدي في صلب العمليات المؤسسية، يتحوّل النقاش من التطبيقات إلى البنية التحتية، تحديداً من يملكها وأين تُدار وكيف تُبنى. فالمفهوم الذي يتصدر هذا الجدل اليوم هو «السيادة».
غير أن السيادة في سياق الذكاء الاصطناعي ليست مجرد شعار جيوسياسي، بل تعكس تحوّلاً بنيوياً في فهم الدول والشركات لمخاطر المرحلة الجديدة، خصوصاً في عصر النماذج اللغوية الكبرى.
فالحوسبة السحابية التقليدية أثارت مخاوف تتعلق بالخصوصية والأمن السيبراني. أما الذكاء الاصطناعي التوليدي فقد أضاف بُعداً مختلفاً. إذاً ماذا يحدث عندما تتعلّم النماذج من بيانات حساسة بطرق يصعب عكسها؟
يجيب سامي عيسى، الرئيس التنفيذي لشركة «غلوبال إيه آي»، بأنه «لا يوجد في عالم الذكاء الاصطناعي ما يُسمى بالحق في النسيان. إذا تعلّم نموذج لغوي أسرار نموذج عملي التجاري، فمن شبه المستحيل إقناعه بإلغاء ما تعلّمه». ويشير خلال لقاء خاص مع «الشرق الأوسط» إلى أن الفارق بين تخزين البيانات وترميزها داخل أوزان النموذج «هو ما يدفع باتجاه مفهوم الذكاء الاصطناعي السيادي».
سامي عيسى الرئيس التنفيذي لشركة «غلوبال إيه آي»
السيادة بالهندسة المعمارية
يمكن النظر إلى السيادة من زاويتين؛ الأولى قائمة على التشريعات والضوابط التعاقدية، والثانية قائمة على البنية الهندسية ذاتها. السيادة بالسياسة تعتمد على القوانين والاتفاقات، لكن تنفيذ تلك الضوابط يصبح معقّداً حين يكون «التسرّب» غير قابل للاسترجاع. ويقول عيسى إن «التسرّب لا يمكن استعادته ولا يمكنك أن تطلب من النموذج أن ينسى».
وهنا تظهر فكرة «السيادة بالهندسة المعمارية»، أي بناء بيئات حوسبة معزولة ومخصصة بالكامل لجهة واحدة، بحيث لا تكون مشتركة مع أطراف أخرى. وفي هذا النموذج، تكون البنية التحتية «مفصولة مادياً» (air-gapped)، ولا يشاركها أي عميل آخر.
المنطق واضح، فإذا كانت النماذج التوليدية تستمد قيمتها من بيانات حساسة كالنماذج التجارية أو الشيفرات الجينية أو البنى المالية، فإن التحكم المعماري يصبح أداًة استراتيجيةً لحماية هذه القيمة. فالسيادة هنا ليست انعزالاً، بل إدارة واعية للمخاطر طويلة الأمد.
الحوسبة السحابية والذكاء الاصطناعي
على مدى عقدين تقريباً، أعادت الحوسبة السحابية تشكيل البنية الرقمية للشركات. لكن حتى اليوم، لم تنتقل غالبية بيانات المؤسسات بالكامل إلى السحابة العامة. ومع صعود الذكاء الاصطناعي التوليدي، بدأ البعض يعيد النظر.
يرى عيسى أنه «بعد 15 أو 20 عاماً من الحوسبة السحابية، لم تنتقل نسبة كبيرة من بيانات المؤسسات إلى السحابة. أما الآن، في عصر الذكاء الاصطناعي، نرى بعضهم ينسحب». ويُرجع عيسى السبب ليس إلى أساس عاطفي بل بنيوي، ويقول: «في الحوسبة التقليدية، يمكن فصل البيانات، أما في النماذج اللغوية، فإن المعرفة تصبح جزءاً من تكوين النموذج نفسه. لكن هل يعني ذلك أن الحوسبة السحابية والسيادة في مسار تصادمي؟».
يرد عيسى قائلاً: «أعتقد أن الأمر كذلك، فالذكاء الاصطناعي سرّع هذا الاتجاه»، موضحاً أن المقصود ليس نهاية الحوسبة السحابية، بل ظهور بنى مزدوجة. إنها بيئات سحابية مشتركة للأعمال العامة وبيئات سيادية مخصصة للتطبيقات الاستراتيجية.
النماذج اللغوية تجعل مسألة «السيادة» أكثر إلحاحاً لأن المعرفة التي تتعلّمها لا يمكن استرجاعها أو محوها بسهولة (غيتي)
مخاطر البطء أكبر من مخاطر الإسراف
بينما يتخوف بعض صناع القرار من الإفراط في الإنفاق على البنية التحتية للذكاء الاصطناعي، يرى عيسى أن الخطر الأكبر هو التردد، ويشرح أن «مخاطر التقليل في الاستثمار أكبر من مخاطر الإفراط فيه»، وأن الذكاء الاصطناعي ليس مجرد تطور تدريجي في السرعة أو السعة، بل يعيد تعريف نماذج الإنتاجية والخدمات. ويصف عيسى ما يحدث بأنه «ليس مجرد قفزة تقنية بل طريقة مختلفة تماماً في التفكير بالأعمال وخلق القيمة». ويشدد على أنه بالنسبة للدول التي تسعى إلى التحول لمراكز للذكاء الاصطناعي، «فإن التأخير قد يعني خسارة سباق استقطاب المواهب».
البنية التحتية وحدها لا تكفي
الاستثمار في مراكز البيانات لا يحل المشكلة بالكامل، فالموهبة هي العامل الحاسم. ويفيد عيسى خلال حديثه مع «الشرق الأوسط» بأن «الموهبة تحتاج إلى وقت، وأن التحول نحو الذكاء الاصطناعي يتطلب طيفاً واسعاً من الكفاءات؛ مهندسي كهرباء ومختصي طاقة وخبراء مراكز بيانات ومطوري برمجيات وباحثي تعلم آلي وغيرهم». ويلفت عيسى إلى أن «أي تقنية تعزز الإنتاجية تؤثر في سوق العمل لكنها تخلق أيضاً وظائف جديدة»، ويضرب مثالاً توضيحياً كنجاح وادي السيليكون «الذي لم يكن نتيجة بنية تحتية فقط، بل نتيجة منظومة تعليمية ومؤسسية بُنيت على مدى عقود»، ويضيف: «إذا أردت أن تصبح مركزاً للذكاء الاصطناعي، فإن أهم قرار معماري هو أن تبدأ الآن».
تتجه بعض المؤسسات إلى نماذج سيادية معمارية مخصّصة بدل الاعتماد الكامل على الحوسبة السحابية المشتركة (غيتي)
السيادة... لكن مع ترابط عالمي
ألا تعني السيادة الاستقلال الكامل؟ يرد عيسى قائلاً إن «السيادة الكاملة دون أي ترابط هي خيال. فإنتاج الشرائح المتقدمة، على سبيل المثال، لا يزال يعتمد إلى حد كبير على مصانع خارجية... لذلك، السيادة مفهوم نسبي»، ويزيد: «هناك درجات من السيادة يمكن تحقيقها...لكن 100 في المائة سيادة؟ حتى العالم بأكمله لا يستطيع ذلك».
بالنسبة للدول ذات الطموحات الكبيرة والموارد المحدودة، يظل السؤال قائماً: كيف تلحق بالركب؟ يحذر عيسى من أن «هذه ليست ثورة تكنولوجية يمكن أن تتأخر عنها ولا يمكنك أيضاً أن تنتظر عشر سنوات بينما تستمتع الدول المجاورة بمكاسب الإنتاجية». الذكاء الاصطناعي لا يعيد تشكيل قطاع واحد، بل قطاعات بأكملها.
في النهاية، قد لا يكون الجدل حول السيادة مجرد صراع جيوسياسي، بل تحوّل اقتصادي عميق. فالتحكم في بيئات تدريب النماذج قد يصبح عاملاً استراتيجياً يعادل أهمية الموارد الطبيعية في مراحل سابقة. لكن، كما يختتم عيسى، فإن الاستثمار الحقيقي لا يقتصر على العتاد «حيث إن بناء الموهبة يحتاج إلى وقت واستثمار طويل الأمد».
النساء أم الرجال... من يرى الذكاء الاصطناعي أكثر خطورة؟https://aawsat.com/%D8%AA%D9%83%D9%86%D9%88%D9%84%D9%88%D8%AC%D9%8A%D8%A7/5237616-%D8%A7%D9%84%D9%86%D8%B3%D8%A7%D8%A1-%D8%A3%D9%85-%D8%A7%D9%84%D8%B1%D8%AC%D8%A7%D9%84-%D9%85%D9%86-%D9%8A%D8%B1%D9%89-%D8%A7%D9%84%D8%B0%D9%83%D8%A7%D8%A1-%D8%A7%D9%84%D8%A7%D8%B5%D8%B7%D9%86%D8%A7%D8%B9%D9%8A-%D8%A3%D9%83%D8%AB%D8%B1-%D8%AE%D8%B7%D9%88%D8%B1%D8%A9%D8%9F
النساء أم الرجال... من يرى الذكاء الاصطناعي أكثر خطورة؟
الفجوة في المواقف لا ترتبط فقط بمستوى المعرفة بل بدرجة النفور من المخاطرة وحجم التعرّض المحتمل لاضطراب سوق العمل (شاترستوك)
غالباً ما يُقدَّم الذكاء الاصطناعي بوصفه ثورة في الإنتاجية قادرة على رفع الناتج الاقتصادي، وتسريع الابتكار، وإعادة تشكيل طريقة إنجاز العمل. لكن دراسة جديدة تشير إلى أن الجمهور لا ينظر إلى وعود الذكاء الاصطناعي بالطريقة نفسها، وأن المواقف تجاه هذه التقنية تتأثر بقوة بعامل النوع الاجتماعي، لا سيما عندما تكون آثارها على الوظائف غير مؤكدة.
وتخلص الدراسة إلى أن النساء مقارنة بالرجال ينظرن إلى الذكاء الاصطناعي باعتباره أكثر خطورة، وأن دعمهن لاعتماد هذه التقنيات يتراجع بوتيرة أشد عندما تنخفض احتمالات أن تؤدي إلى مكاسب صافية في الوظائف. ويحذر الباحثون من أنه إذا لم تُؤخذ المخاوف الخاصة بالنساء في الاعتبار ضمن سياسات الذكاء الاصطناعي، وخاصة ما يتعلق باضطراب سوق العمل، وتفاوت فرص الاستفادة، فقد يؤدي ذلك إلى تعميق الفجوة القائمة بين الجنسين، وربما إلى رد فعل سياسي مضاد للتكنولوجيا.
فجوة لا ترتبط بالمعرفة فقط
تنطلق الدراسة من فكرة بسيطة هي أن فوائد الذكاء الاصطناعي وتكاليفه لن تتوزع بالتساوي على الجميع. فمع انتشار الذكاء الاصطناعي في الاقتصاد، قد تُعزَّز بعض الوظائف وتُعاد صياغة أخرى، بينما قد تختفي وظائف بعينها، أو تتراجع أهميتها. وتشير الدراسة إلى أن النساء ممثلات بنسبة أعلى في وظائف إدارية وكتابية وخدمية يُحتمل أن تكون أكثر عرضة للتأثر بالتقنيات الآلية. وفي المقابل، لا تزال النساء أقل تمثيلاً في مسارات العلوم والتقنية والهندسة والرياضيات، وفي مواقع القيادة التي تمنح عادةً فرصاً أفضل للوصول إلى وظائف الذكاء الاصطناعي الأعلى أجراً، وهو ما قد يوسّع فجوة الأجور بين الجنسين مع مرور الوقت.
وترى الدراسة أن هذه الاختلافات الواقعية في التعرض للمخاطر، وفي فرص الوصول إلى المنافع، تنعكس على اختلافات في المواقف. فبحسب أبحاث سابقة، تميل النساء بالفعل إلى مزيد من الشك مقارنة بالرجال تجاه موجات الأتمتة السابقة.
لكن ما لم يكن واضحاً بما يكفي هو: لماذا تستمر هذه الفجوة؟ هنا يأتي طرح الباحثين عامل «المخاطر» في طريقة التعامل معها، وفي مقدار التعرض لها يقدّم تفسيراً إضافياً.
تجاهل المخاوف الجندرية في سياسات الذكاء الاصطناعي قد يعمّق عدم المساواة ويؤدي إلى ردود فعل سياسية وتنظيمية مضادة للتكنولوجيا (شاترستوك)
الميل للمخاطرة والتعرّض للمخاطر
تركّز الدراسة على عنصرين: الأول يتعلق بالتوجه نحو المخاطرة (Risk orientation)، أي مدى استعداد الفرد عموماً لتحمل عدم اليقين والمفاضلات ذات النتائج غير المضمونة. والآخر هو التعرّض للمخاطر (Risk exposure)، واحتمال أن يترتب على اعتماد الذكاء الاصطناعي تكلفة مباشرة، أو منفعة مباشرة للفرد، تبعاً لموقعه في سوق العمل، وغيرها من العوامل.
ويفترض الباحثون أن النساء ينظرن إلى الذكاء الاصطناعي باعتباره أكثر خطورة، لأنهن في المتوسط أكثر نفوراً من المخاطرة، ولأنهن أيضاً أكثر تعرضاً لاضطراب الوظائف الناتج عن الذكاء الاصطناعي. وتؤكد الدراسة أن هذه الأنماط لا تُقدَّم بوصفها «سمات فطرية»، بل بوصفها نتاجاً لأعراف اجتماعية، وتعلم اجتماعي، وبُنى وظيفية مترسخة منذ عقود.
تجربة واقعية
لاختبار هذا الطرح، أجرى الباحثون استطلاعاً عبر الإنترنت في نوفمبر (تشرين الثاني) 2023 باستخدام لوحة «YouGov». وبلغت العينة الكاملة 6056 مشاركاً، لكن التحليل في هذه الدراسة يركز على 3049 مشاركاً وُجهت إليهم أسئلة حول الذكاء الاصطناعي التوليدي (بينما وُجهت المجموعة الأخرى إلى أسئلة مقارنة عن التجارة). وشملت العينة مشاركين من الولايات المتحدة وكندا، وهما دولتان يصفهما الباحثون بأنهما متقاربتان من حيث الأسس المؤسسية وبنية سوق العمل، رغم اختلاف تفاصيل تبني الذكاء الاصطناعي وتنظيمه.
قاس الباحثون «تصور خطورة الذكاء الاصطناعي» عبر سؤالين على مقياس من 11 نقطة. سُئل المشاركون عن مدى رؤيتهم حول هل مخاطر الذكاء الاصطناعي التوليدي تفوق فوائده بالنسبة لك شخصياً؟ وهل تفوق فوائده بالنسبة لمجتمعك؟ ثم جرى دمج الإجابتين في مؤشر واحد.
ولقياس التوجه نحو المخاطرة استخدمت الدراسة سؤالاً شائعاً في أبحاث المخاطر: هل تفضّل ربحاً مضموناً قدره 1000 دولار؟ أم احتمالاً بنسبة 50 في المائة لربح 2000 دولار؟ ويفترض أن اختيار الألف المضمونة يشير إلى نفور أعلى من المخاطرة.
أما قياس التعرض للمخاطر فكان أكثر تعقيداً لأن آثار الذكاء الاصطناعي التوليدي على سوق العمل لا تزال غير محسومة. لذلك استخدمت الدراسة التعليم بوصفه مؤشراً عاماً على مدى الاستعداد للاستفادة من التحولات التقنية، مع اختبارات إضافية لمقاييس مرتبطة بالتعرض المهني للأتمتة والذكاء الاصطناعي على عينات فرعية من العاملين.
كما تضمن الاستطلاع تجربة مسحيّة مُسجَّلة مسبقاً تغير مستوى المخاطرة الاقتصادية في سيناريو تبني الشركة للذكاء الاصطناعي. قرأ المشاركون حالة عن شركة تتبنى أدوات ذكاء اصطناعي توليدي، ثم قُدِّمت لهم احتمالات مختلفة (تعيين عشوائي) بأن يؤدي ذلك إلى مكاسب صافية في التوظيف. تراوحت الاحتمالات بين 100 في المائة (مكاسب مؤكدة) و70 في المائة و50 في المائة و30 في المائة (مستوى مخاطرة مرتفع)، ثم طلب منهم تأكيد أو رفض قرار الشركة.
الدراسة: دعم النساء لاعتماد الذكاء الاصطناعي يتراجع بوتيرة أسرع من الرجال كلما انخفضت احتمالات المكاسب الصافية في التوظيف (شاترستوك)
ما النتيجة الأبرز؟
أظهرت النتائج أن النساء أكثر ميلاً من الرجال للقول إن مخاطر الذكاء الاصطناعي تفوق فوائده. وتشير الدراسة إلى أن نسبة من ترى المخاطر أعلى من الفوائد تزيد لدى النساء بنحو 11في المائة مقارنة بالرجال، وهي فجوة تقارب حجم الفجوة المعروفة في مواقف الجنسين تجاه التجارة، وهي قضية تؤثر تاريخياً على النقاشات السياسية، والقرارات التنظيمية.
وعند التعمق، يظهر أن هذه الفجوة ترتبط بقوة بالتوجه نحو المخاطرة. فبين المشاركين الأكثر ميلاً لتحمل المخاطرة، تتراجع الفجوة بين النساء والرجال بشكل كبير، أو تتلاشى. بينما تكون الفجوة الأوضح بين من يفضّلون اليقين. يعني هذا أن النفور العام من المخاطرة يضاعف الحذر من تقنية ذات نتائج اقتصادية غير مؤكدة.
كما تشير النتائج إلى دور التعرض للمخاطر، حيث مالت النساء إلى رؤية الذكاء الاصطناعي أكثر خطورة من الرجال في كل من فئات التعليم الجامعي وغير الجامعي، وهو ما ينسجم مع كونهن أكثر تمركزاً في وظائف قد تكون أكثر عرضة للأتمتة، وأقل وصولاً لمسارات العمل الأعلى ربحاً في مجالات الذكاء الاصطناعي.
دليل تجريبي
تظهر التجربة المسحيّة أن كلا من الرجال والنساء يقللون دعمهم لاعتماد الذكاء الاصطناعي عندما تنخفض احتمالات المكاسب الصافية في الوظائف. لكن دعم النساء يتراجع بسرعة أكبر عندما يصبح السيناريو أكثر خطورة. فعند مستوى المخاطرة الأعلى حيث تكون احتمالية المكاسب الصافية في الوظائف 30 في المائة فقط يكون دعم النساء أقل بشكل واضح من دعم الرجال. أما عندما تكون المكاسب مؤكدة بنسبة 100 في المائة، فتتقلص الفجوة بين الجنسين ولا تعود ذات دلالة إحصائية بحسب ما تذكر الدراسة. بمعنى آخر: النساء لسن «ضد الذكاء الاصطناعي» بالمطلق، لكن دعمهن يبدو أكثر ارتباطاً بمدى وضوح الفائدة الاقتصادية، وتأكدها.
من يعرف أكثر؟
حللت الدراسة أيضاً إجابات مفتوحة حول أكبر فوائد الذكاء الاصطناعي ومخاطره باستخدام نمذجة موضوعات نصية. وظهرت فروق نوعية، إذ عبّرت إجابات النساء بدرجة أكبر عن عدم اليقين («لا أعرف») وعن الشك في وجود فوائد اقتصادية واضحة. في المقابل، ركّزت إجابات الرجال أكثر على الإنتاجية والكفاءة، وتحسين العمليات الاقتصادية.
أما بشأن المخاطر، فقد ركّزت إجابات النساء أكثر على فقدان الوظائف والبطالة، بينما ركّزت إجابات الرجال أكثر على الاستخدامات الخبيثة، والمخاطر المجتمعية الأوسع. ويعزز ذلك استنتاج الدراسة بأن النساء في المتوسط يضعن الوزن الأكبر للمخاطر الاقتصادية، ويعبّرن عن قدر أعلى من عدم اليقين بشأن مكاسب الذكاء الاصطناعي.
أهمية البحث
ترى الدراسة أن هذه الفروق ليست اجتماعية فقط، بل سياسية أيضاً. فإذا انعكس انخفاض دعم النساء لاعتماد الذكاء الاصطناعي على انخفاض استخدامهن لأدواته في العمل، فقد يتراجع حضور النساء في مسار تطوير هذه التقنيات وحوكمتها في وقت تتوسع فيه تطبيقات الذكاء الاصطناعي داخل المؤسسات. وهذا يعني أن مخاوف النساء قد لا تُدمج بالقدر الكافي في التصميم، والضمانات وقرارات النشر والتشغيل.
كما تشير الدراسة إلى أن المواقف من الذكاء الاصطناعي قد تصبح أكثر تسييساً. فإذا كانت النساء أكثر دعماً للتدخل الحكومي لإبطاء التبني تحت سيناريوهات فقدان الوظائف، فإن ذلك قد يفتح فرصاً سياسية: قد يتبنى بعض السياسيين سياسات حماية وتنظيم لجذب أصوات النساء، أو قد تُستخدم مشاعر الحذر تجاه الذكاء الاصطناعي أداة تعبئة انتخابية.
لا تقول الدراسة إن النساء يرفضن التقنية لكونها «تقنية»، بل تشير إلى أنهن يستجبن لمشهد مخاطر تكون فيه الرهانات غير متساوية، حيث تختلط وعود الذكاء الاصطناعي بآثار وظيفية غير مؤكدة، وبفرص استفادة غير متكافئة. وبالنسبة للحكومات والمؤسسات التي تدفع نحو تبنٍ سريع، فإن الرسالة تبدو واضحة، وهي أن سياسات الذكاء الاصطناعي التي تتجاهل التعرض غير المتساوي لفقدان الوظائف، وتفاوت الوصول إلى فرص العمل عالية القيمة، واختلاف إدراك المخاطر، قد تعمّق عدم المساواة، وتضعف الثقة العامة. ومن ثمّ، فإن معالجة هذه المخاوف عبر حماية القوى العاملة، ومسارات إعادة التأهيل، وتقليل التحيز في الأنظمة، وحوكمة شاملة قد تكون ضرورية ليس فقط للعدالة، بل للحفاظ على شرعية التحول مع إعادة تشكيل الذكاء الاصطناعي للاقتصاد.
يوسّع الذكاء الاصطناعي نطاق عمله دون الحاجة إلى استثمارات باهظة في الروبوتات بينما يحصل البشر على فرص دخل مرنة وسريعة وشفافة (رويترز)
في خطوة غير تقليدية تقلب سردية الأتمتة السائدة، تبرز منصة «رانت إي هيومان» RentAHuman.ai (أي استأجر إنساناً) نموذجاً جديداً للتكامل بين الذكاء الاصطناعي والإنسان، حيث تتيح لوكلاء الذكاء الاصطناعي استئجار أشخاص حقيقيين لتنفيذ مهام في العالم المادي لا تستطيع الأنظمة الرقمية القيام بها بمفردها حتى الآن.
تعمل المنصة بصفتها سوقاً متخصصة تربط بين وكلاء ذكيين يحتاجون إلى «تدخُّل بشري» وبين أفراد قادرين على تنفيذ مهام تتطلب حضوراً فعلياً، مثل التحقق الميداني، وحضور الاجتماعات، وتوصيل الطرود، والتقاط الصور، أو تنفيذ مهام بسيطة لكنها خارج نطاق العالم الرقمي. وبهذا، يُجسِّر هذا الموقع الفجوة بين قدرات الذكاء الاصطناعي المتقدمة وحدود الواقع الفيزيائي.
آلية بسيطة
آلية العمل بسيطة نسبياً: ينشئ الأفراد ملفات تعريفية تتضمن موقعهم الجغرافي، ومهاراتهم، وأوقات التفرغ، والأجر المطلوب. في المقابل، يستطيع وكلاء الذكاء الاصطناعي البحث آلياً عن الشخص المناسب، وتفويضه بالمهمة، وتحديد التفاصيل الزمنية والتنفيذية بدقة. تجري المدفوعات بشكل فوري عبر العملات الرقمية أو المستقرة، ما يُلغي التأخير المعتاد في منصات العمل الحر التقليدية.
تكمن أهمية النموذج في فائدته للطرفين، فالذكاء الاصطناعي يوسّع نطاق عمله دون الحاجة إلى استثمارات باهظة في الروبوتات، بينما يحصل البشر على فرص دخل مرنة وسريعة وشفافة. ومع التوسع المتوقع في استخدام الوكلاء المستقلين، قد تتحول هذه المنصات إلى بنية تحتية أساسية لاقتصاد هجين جديد يقوم على الشراكة لا الاستبدال، ويُبقي الإنسان عنصراً لا غنى عنه في عصر الأتمتة.
ينشئ الأفراد ملفات تعريفية بموقعهم الجغرافي ومهاراتهم وأوقات التفرغ والأجر المطلوب وفي المقابل يستطيع وكلاء الذكاء الاصطناعي البحث آلياً عن الشخص المناسب وتفويضه بالمهمة وتحديد التفاصيل الزمنية والتنفيذية بدقة (رويترز)
استجابة مجتمعية سريعة
منذ إطلاقها مؤخراً، شهدت منصة «RentAHuman.ai» إقبالاً سريعاً، حيث سجّل مئات الأشخاص أسماءهم فيها في غضون أيام. وبلغ عدد الأشخاص الذين سجّلوا أسماءهم للقيام بمهمات يطلبها منهم الذكاء الاصطناعي على هذه المنصة، 120 ألف شخص.
وشمل المشاركون الأوائل متخصصين من مختلف القطاعات، ما يعكس فضولاً واسع النطاق حول هذه الديناميكية المعكوسة، حيث يسعى الذكاء الاصطناعي إلى الحصول على مساعدة بشرية.
تؤدي هذه المنصة بدورها تغييراً مبتكراً في الأدوار، حيث يعتمد الذكاء الاصطناعي، الآن، على البشر للتفاعل الجسدي. ويرى كثيرون في ذلك حلاً عملياً للقيود الحالية للذكاء الاصطناعي، مع خلق فرص اقتصادية جديدة.