في القيادة الذاتية... من يتحمّل القرار الأخلاقي عند اللحظة الحاسمة؟

دراسة تترجم التفكير الأخلاقي إلى خوارزميات قيادة

مع انتشار السيارات ذاتية القيادة تبرز الحاجة إلى أنظمة قادرة على اتخاذ قرارات أخلاقية في مواقف مصيرية على الطريق (غيتي)
مع انتشار السيارات ذاتية القيادة تبرز الحاجة إلى أنظمة قادرة على اتخاذ قرارات أخلاقية في مواقف مصيرية على الطريق (غيتي)
TT

في القيادة الذاتية... من يتحمّل القرار الأخلاقي عند اللحظة الحاسمة؟

مع انتشار السيارات ذاتية القيادة تبرز الحاجة إلى أنظمة قادرة على اتخاذ قرارات أخلاقية في مواقف مصيرية على الطريق (غيتي)
مع انتشار السيارات ذاتية القيادة تبرز الحاجة إلى أنظمة قادرة على اتخاذ قرارات أخلاقية في مواقف مصيرية على الطريق (غيتي)

مع اقتراب السيارات ذاتية القيادة من الاندماج في حياتنا اليومية، يبرز سؤال مصيري: ماذا يحدث عندما تضطر هذه المركبات لاتخاذ قرارات فورية قد تعني حياةً أو موتاً؟ ففي الوقت الذي يعمل فيه المهندسون على تحسين أجهزة الاستشعار وأنظمة الملاحة والنماذج الذكية، تظهر تحديات أعمق.

دراسة حديثة أجراها فريق من الباحثين قدّمت تجربة جديدة تماماً لاستكشاف هذا السؤال. ولكن هذه المرة، لم يُختبر فيها المهندسون أو عامة الناس، بل تم اختيار الفلاسفة كمشاركين أساسيين. الهدف هو الاستفادة من قرون من التفكير الأخلاقي لفهم كيف يمكن ترجمة القيم إلى خوارزميات قيادة.

تطوير لمعضلة «عربة الترام»

بُنيت الدراسة على معضلة «عربة الترام» الشهيرة، وهي تجربة فكرية أخلاقية تطرح أسئلة حول الاختيار بين نتيجتين ضارتين. لكن بدلاً من تقديم سيناريوهات نظرية، ركّز الباحثون على مواقف واقعية قد تواجهها سيارات ذاتية القيادة على الطرقات. في أحد السيناريوهات، قد تضطر السيارة للاختيار بين الانحراف ودهس أحد المشاة أو الاستمرار في المسار وتعريض الركاب للخطر. وفي آخر، يجب المفاضلة بين عدد من الأشخاص الذين يعبرون الشارع بشكل غير قانوني وطفل يعبر في ممر مشاة. هذه قرارات معقدة تتطلب أكثر من استجابة تقنية، بل إنها تستدعي حكماً أخلاقياً.

تواجه أخلاقيات الذكاء الاصطناعي تحديات كبيرة مثل اختلاف القيم بين الثقافات وصعوبة اتخاذ قرارات فورية في مواقف طارئة (غيتي)

لماذا الفلاسفة؟

اختيار الفلاسفة لم يكن صدفة؛ فهم المتخصصون في معالجة المناطق الرمادية من السلوك البشري. من خلال تحليل ردود فعلهم على هذه المواقف، يأمل الباحثون استخلاص أنماط يمكن تحويلها إلى منطق برمجي. فعلى عكس الدراسات التي تعتمد على الرأي العام، تضيف هذه المقاربة طبقة من العمق؛ فهي لا تسأل فقط عما يفعله الناس، بل ما يجب عليهم فعله. إنه فارق جوهري في بناء أنظمة ذكاء اصطناعي تتصرف بشكل أخلاقي، لا فقط شعبوي.

وتهدف الدراسة إلى المساهمة في بناء «الأطر الميتا-أخلاقية»، وهي أنظمة عليا توجه سلوك الخوارزميات في المواقف المعقّدة. هذه الأطر ليست أوامر جامدة، بل مناهج مرنة تسمح للذكاء الاصطناعي باتخاذ قرارات محسوبة بناءً على السياق. هذه المعرفة قد تؤثر مستقبلاً على مجالات مثل التنظيم القانوني والتأمين والمسؤولية، والأهم ثقة الجمهور؛ فكلما شعر الناس بأن السيارة الذكية تفكر أخلاقياً، زادت احتمالات قبولهم لها.

الوعي الاجتماعي على الطريق

تشير دراسات أخرى إلى أن إدماج «الوعي الاجتماعي» في أنظمة القيادة الذاتية، يمكن أن يقلّل من الحوادث بشكل ملحوظ. فعندما يتم تدريب الأنظمة على توقع تصرفات البشر، كأن يتوقع النظام عبور طفل مفاجئاً في منطقة مدارس، تقل فرص الاصطدام وتحسن النتائج للركاب والمشاة على حد سواء. وهذا يعزز فكرة أن الأخلاق في الذكاء الاصطناعي لا تعني فقط كيفية التصرف في أسوأ السيناريوهات، بل كيفية تجنبها من الأساس.

خبراء يقولون إن نجاح القيادة الذاتية في المستقبل لن يعتمد فقط على التقنية بل على دمج التفكير الأخلاقي والتعاون بين المجتمع والتقنيين والمشرّعين (شاترستوك)

التحديات المقبلة

لكن حتى أكثر النماذج الأخلاقية تقدماً ستواجه تحديات عملية. القرارات على الطرقات تُتخذ في أجزاء من الثانية، في حين تستغرق المعايير الفلسفية وقتاً لا يتناسب مع سرعة الحياة الواقعية. كما أن التحيز الثقافي وتحديد المسؤولية القانونية وإمكانية التوحيد بين الدول... كلها مسائل لم تُحل بعد؛ فقرار تعتبره ثقافة معينة أخلاقياً، قد ترفضه أخرى. وصول السيارات ذاتية القيادة يفتح الباب لثورة في عالم التنقل، لكنها لن تنجح بالاعتماد على الأجهزة فقط. تُظهر هذه الدراسة أن برمجة المنطق الأخلاقي باتت جزءاً لا يمكن تجاهله من تصميم الأنظمة.

التحدي لم يعد تقنياً فحسب، بل أخلاقياً أيضاً، ومعالجته تتطلب تعاوناً بين المهندسين والفلاسفة وصنّاع القرار، والمجتمع ككل. ففي مستقبل قد تتخذ فيه السيارة قرارات مصيرية نيابة عن السائق، لن يكون السؤال فقط: «هل تقود السيارة جيداً؟»، بل: «هل تقود بحكمة؟».


مقالات ذات صلة

السعودية و«بي واي دي» تبحثان آليات نقل التقنية والتصنيع المحلي

الاقتصاد جانب من اجتماع الخريّف مع مؤسس ورئيس مجلس إدارة شركة «بي واي دي» وانغ شوان فو مع عدد من المسؤولين (الشرق الأوسط)

السعودية و«بي واي دي» تبحثان آليات نقل التقنية والتصنيع المحلي

عقد وزير الصناعة والثروة المعدنية، بندر الخريّف، اجتماعاً مع مؤسس ورئيس مجلس إدارة شركة «بي واي دي» الصينية، وانغ شوان فو، بحث الفرص المشتركة لتصنيع السيارات.

«الشرق الأوسط» (الرياض)
الاقتصاد سفن عملاقة وآلاف الحاويات في ميناء «يانتيان» بمدينة شينزن الصينية (رويترز)

الصين تعلن اتفاقاً مع أوروبا لحل نزاع «السيارات الكهربائية»

أعلنت الصين، يوم الاثنين، توصلها إلى اتفاق مع الاتحاد الأوروبي بشأن صادرات السيارات الكهربائية الصينية إلى دول التكتل.

«الشرق الأوسط» (بكين - بروكسل)
علوم البطارية الجديدة ركبت في هذه الدراجة النارية الكهربائية

بطارية جديدة مبتكرة للدراجات النارية الكهربائية تُشحن في 5 دقائق فقط

يمكن وضعها في مراكز البيانات، ومحطات شحن السيارات الكهربائية، ومنشآت الطاقة الشمسية

أديل بيترز (واشنطن)
تكنولوجيا عرض حي في «CES 2026» يوضح كيف أصبحت الأوامر الصوتية أكثر سلاسة وواقعية داخل سيارات «بي إم دبليو» (بي إم دبليو)

«أليكسا +» يصل إلى «بي إم دبليو iX3» في أول تعاون من نوعه مع «أمازون»

في معرض «CES 2026» تكشف «بي إم دبليو» عن «iX3» الجديدة كأول سيارة تعتمد «Alexa+» مقدّمة تجربة تفاعل صوتي، معززة بالذكاء الاصطناعي وترفيه متقدم.

نسيم رمضان (لاس فيغاس)
خاص استوديو شركة «لوسد» بالمنطقة الشرقية في السعودية (الشرق الأوسط)

خاص «لوسد»: السعودية محور استراتيجيتنا للتصنيع والبحث والتصدير عالمياً

شدّد مارك وينترهوف، الرئيس التنفيذي لشركة «لوسد» للسيارات بالإنابة، على أن السعودية باتت في قلب استراتيجية الشركة للنمو والتوسع عالمياً.

مساعد الزياني (الرياض)

كيف يمكن أن يؤثر الذكاء الاصطناعي على البطالة والتوظيف في 2026؟

يرى البعض أن الذكاء الاصطناعي يهدد ملايين الوظائف التقليدية (رويترز)
يرى البعض أن الذكاء الاصطناعي يهدد ملايين الوظائف التقليدية (رويترز)
TT

كيف يمكن أن يؤثر الذكاء الاصطناعي على البطالة والتوظيف في 2026؟

يرى البعض أن الذكاء الاصطناعي يهدد ملايين الوظائف التقليدية (رويترز)
يرى البعض أن الذكاء الاصطناعي يهدد ملايين الوظائف التقليدية (رويترز)

مع التسارع غير المسبوق في تطور تقنيات الذكاء الاصطناعي، تتزايد التساؤلات حول تأثير هذه الثورة التكنولوجية على سوق العمل العالمي.

فبينما يرى البعض أن الذكاء الاصطناعي يهدد ملايين الوظائف التقليدية، يؤكد آخرون أنه سيفتح الباب أمام فرص عمل جديدة لم تكن موجودة من قبل.

ومع دخول عام 2026، يقف العالم أمام مرحلة حاسمة لإعادة تشكيل مفهوم التوظيف، حيث لم يعد السؤال يدور حول ما إذا كان الذكاء الاصطناعي سيؤثر على الوظائف، بل حول كيف وبأي حجم سيعيد رسم خريطة البطالة والعمل في السنوات القليلة المقبلة.

وفي هذا السياق، تحدثت ستيفاني روث، كبيرة الاقتصاديين في مؤسسة وولف للأبحاث، إلى شبكة «فوكس نيوز» الأميركية عن توقعاتها بشأن تأثير الذكاء الاصطناعي على البطالة والتوظيف في 2026.

وترى روث أن المخاوف من تسبب الذكاء الاصطناعي في موجة بطالة واسعة لا تزال مبالغاً فيها حتى الآن، مؤكدة أن هذه التقنيات تُستخدم حالياً لتعزيز الكفاءة والإنتاجية أكثر من كونها أداة لاستبدال العمالة البشرية بشكل واسع.

وأوضحت روث أن التأثير الفعلي لهذه التكنولوجيا على سوق العمل ما زال محدوداً، مشيرة إلى أن نصف التباطؤ في التوظيف يعود للذكاء الاصطناعي في حين يعود النصف الآخر لعوامل اقتصادية أوسع، مثل حالة عدم اليقين الاقتصادي حول العالم.

وتابعت قائلة: «ومع توقعنا لحدوث بعض الانتعاش في الاقتصاد هذا العام، فإن هذا يعني حدوث تحسن طفيف في التوظيف وانخفاض في معدلات البطالة».

وسبق أن ذكر تقرير وُضع بمساعدة «تشات جي بي تي»، ونُشر في أكتوبر (تشرين الأول) الماضي، بأن الذكاء الاصطناعي قد يقضي على ما يقرب من 100 مليون وظيفة خلال العقد المقبل.

ومن جهة أخرى، أعلنت شركة التأمين الألمانية العملاقة «آليانز»، في تقرير صدر اليوم، أن الذكاء الاصطناعي أصبح أكبر التهديدات التي تواجهها الشركات في العالم.

وحسب التقرير، فقد قفز الذكاء الاصطناعي من المركز العاشر إلى المركز الثاني بعد الجرائم الإلكترونية التي تسبب فيها خلال العام الحالي.


وسط الانتقادات بسبب الصور الجنسية... أميركا تعلن دمج «غروك» في شبكات البنتاغون

وزير الحرب الأميركي بيت هيغسيث (أ.ب)
وزير الحرب الأميركي بيت هيغسيث (أ.ب)
TT

وسط الانتقادات بسبب الصور الجنسية... أميركا تعلن دمج «غروك» في شبكات البنتاغون

وزير الحرب الأميركي بيت هيغسيث (أ.ب)
وزير الحرب الأميركي بيت هيغسيث (أ.ب)

أعلن وزير الحرب الأميركي بيت هيغسيث أن الجيش سيبدأ دمج أداة الذكاء الاصطناعي «غروك»، التابعة لإيلون ماسك، في شبكات البنتاغون، خلال وقت لاحق من هذا الشهر، في ظل تعرضها لانتقادات بسبب صور جنسية.

ووفقاً لصحيفة «غارديان» البريطانية، قال هيغسيث، خلال زيارة لمقر شركة «سبيس إكس» في تكساس، مساء الاثنين، إن دمج «غروك» في الأنظمة العسكرية سيبدأ العمل به في وقت لاحق من هذا الشهر. وأضاف: «قريباً جداً، سيكون لدينا نماذج الذكاء الاصطناعي الرائدة في العالم على جميع الشبكات في وزارتنا».

وكشف أيضاً عن «استراتيجية تسريع الذكاء الاصطناعي» جديدة في الوزارة، والتي قال إنها «ستُطلق العنان للتجارب، وتُزيل الحواجز البيروقراطية، وتركز على الاستثمارات، وتوضح نهج التنفيذ اللازم لضمان ريادتنا في مجال الذكاء الاصطناعي العسكري، وأن يصبح أكثر هيمنة في المستقبل».

أداة الذكاء الاصطناعي غروك (إ.ب.أ)

ولفتت «غارديان» إلى أن «البنتاغون» أعلنت، في ديسمبر (كانون الثاني) الماضي، اختيار «جيميناي» من «غوغل»، وهو نموذج آخر للذكاء الاصطناعي، لتشغيل منصة الذكاء الاصطناعي الداخلية الجديدة للجيش، والمعروفة باسم «GenAI.mil».

وكجزء من إعلان يوم الاثنين، قال هيغسيث أيضاً إنه بتوجيهاته، سيقوم مكتب كبير مسؤولي الشؤون الرقمية والذكاء الاصطناعي في الوزارة «بممارسة سلطته الكاملة لإتاحة جميع البيانات المناسبة عبر أنظمة تكنولوجيا المعلومات الموحدة لاستخدامها في تطبيقات الذكاء الاصطناعي».

وقال: «الذكاء الاصطناعي لا يكون جيداً إلا بقدر جودة البيانات التي يتلقاها، وسنتأكد من توفرها».

يأتي دمج الجيش «غروك» بعد إعلان، العام الماضي، منح الوزارة عقوداً تصل إلى 200 مليون دولار لشركات «غوغل» و«أوبن إيه آي» و«إكس إيه آي»، «لتطوير سير عمل الذكاء الاصطناعي عبر مجموعة متنوعة من مجالات المهام».

وتعرضت «غروك»، المُدمجة في منصة «إكس»، لانتقادات لاذعة، في الأسابيع الأخيرة، بسبب السماح للمستخدمين بإنشاء صور ذات محتوى جنسي وعنيف، وقام، منذ ذلك الحين، بتقييد بعض وظائف إنشاء الصور لتقتصر على المشتركين مدفوعي الأجر، لكن ردود الفعل السلبية لا تزال مستمرة، فقد حظرت إندونيسيا مؤقتاً الوصول إلى «غروك»، يوم السبت، وسرعان ما حَذَت ماليزيا حذوها.

وفي بريطانيا، فتحت هيئة تنظيم الإعلام «أوفكوم» تحقيقاً رسمياً بشأن استخدام «غروك» للتلاعب بصور النساء والأطفال.

ولا تُعدّ الصور الجنسية المنتشرة على نطاق واسع هي المشكلة الوحيدة التي تواجه «غروك». فقبل الإعلان عن عقد «البنتاغون»، البالغة قيمته 200 مليون دولار، وصفت الأداة نفسها بأنها «نازية متطرفة»، ونشرت منشورات مُعادية للسامية وعنصرية.


47 مليون رابط تصيد احتيالي استهدف مستخدمي الشرق الأوسط خلال عام

تُظهر بيانات عام 2025 أن الغالبية العظمى من هجمات التصيد الاحتيالي تستهدف سرقة بيانات تسجيل الدخول للحسابات الإلكترونية (شاترستوك)
تُظهر بيانات عام 2025 أن الغالبية العظمى من هجمات التصيد الاحتيالي تستهدف سرقة بيانات تسجيل الدخول للحسابات الإلكترونية (شاترستوك)
TT

47 مليون رابط تصيد احتيالي استهدف مستخدمي الشرق الأوسط خلال عام

تُظهر بيانات عام 2025 أن الغالبية العظمى من هجمات التصيد الاحتيالي تستهدف سرقة بيانات تسجيل الدخول للحسابات الإلكترونية (شاترستوك)
تُظهر بيانات عام 2025 أن الغالبية العظمى من هجمات التصيد الاحتيالي تستهدف سرقة بيانات تسجيل الدخول للحسابات الإلكترونية (شاترستوك)

أظهر تحليل أجرته «كاسبرسكي» لحملات التصيد الاحتيالي التي جرى رصدها بين يناير (كانون الثاني) وسبتمبر (أيلول) 2025 أن الغالبية العظمى من هذه الهجمات كانت تهدف إلى سرقة بيانات تسجيل الدخول للحسابات الإلكترونية.

ووفقاً للنتائج، استهدفت 88.5 في المائة من الهجمات بيانات الدخول، فيما ركزت 9.5 في المائة على جمع بيانات شخصية مثل الأسماء والعناوين وتواريخ الميلاد، بينما سعت 2 في المائة إلى الحصول على تفاصيل بطاقات مصرفية.

وفي منطقة الشرق الأوسط، تشير بيانات الشركة إلى أن المستخدمين نقروا على أكثر من 47 مليون رابط تصيد احتيالي خلال عام واحد، من نوفمبر (تشرين الثاني) 2024 إلى أكتوبر (تشرين الأول) 2025.

ورغم أن الحلول الأمنية تمكنت من اكتشاف هذه الروابط وحظرها، فإن التصيد الاحتيالي ما يزال من أكثر التهديدات السيبرانية انتشاراً، خاصة في ظل عدم اعتماد جميع المستخدمين على أدوات حماية رقمية.

ويعتمد هذا النوع من الهجمات على خداع الضحايا ودفعهم إلى إدخال بياناتهم في مواقع مزيفة، ما يؤدي إلى تسريب بيانات تسجيل الدخول أو المعلومات الشخصية أو تفاصيل الدفع دون علمهم.

وتوضح أبحاث «كاسبرسكي» أن صفحات التصيد الاحتيالي تنقل البيانات المسروقة بوسائل مختلفة، تشمل البريد الإلكتروني أو قنوات آلية مثل بوتات «تلغرام»، أو عبر لوحات تحكم يديرها المهاجمون، قبل أن تُعرض لاحقاً للبيع في قنوات غير مشروعة.

تُجمع بيانات التصيد المسروقة من حملات متعددة ويُعاد بيعها في أسواق الويب المظلم بأسعار متفاوتة حسب نوع الحساب وقيمته (شاترستوك)

إعادة تدوير البيانات

ولا تُستخدم البيانات المسروقة في العادة مرة واحدة فقط؛ إذ تُجمع بيانات تسجيل الدخول الناتجة عن حملات متعددة في قواعد بيانات ضخمة تُباع في أسواق الويب المظلم بأسعار منخفضة نسبياً.

وقد لا يتجاوز سعر بعض هذه الحزم 50 دولاراً أميركياً، قبل أن يعمد المشترون إلى فرزها والتحقق من صلاحيتها وإمكانية إعادة استخدامها عبر منصات وخدمات مختلفة.

ووفقاً لبيانات استخبارات البصمة الرقمية لدى «كاسبرسكي»، تراوحت متوسطات الأسعار خلال عام 2025 بين 0.90 دولار أميركي لبيانات تسجيل الدخول إلى بوابات الإنترنت العامة، و105 دولارات لبيانات منصات العملات المشفرة، و350 دولاراً لبيانات الخدمات المصرفية الإلكترونية.

أما الوثائق الشخصية، مثل جوازات السفر أو بطاقات الهوية، فبلغ متوسط سعرها نحو 15 دولاراً، مع تفاوت القيمة تبعاً لعوامل مثل عمر الحساب، ورصيده، وطرق الدفع المرتبطة به، ومستوى إعدادات الأمان.

ومع قيام المهاجمين بدمج هذه البيانات مع معلومات إضافية وحديثة، يمكن تكوين ملفات رقمية دقيقة تُستخدم لاحقاً في استهداف فئات محددة، مثل المديرين التنفيذيين، وموظفي الشؤون المالية، ومسؤولي تقنية المعلومات، أو الأفراد الذين يمتلكون أصولاً أو وثائق حساسة.

لا يزال التصيد الاحتيالي من أكثر التهديدات السيبرانية انتشاراً في الشرق الأوسط رغم الجهود الأمنية لرصد الروابط الخبيثة وحظرها (شاترستوك)

تراكم المخاطر الرقمية

تقول أولغا ألتوخوفا، خبيرة تحليل محتوى الويب في «كاسبرسكي»، إن التحليل يُظهر أن نحو 90 في المائة من هجمات التصيد الاحتيالي تركز على بيانات تسجيل الدخول.

وتتابع أنه «بعد جمع كلمات المرور وأرقام الهواتف والبيانات الشخصية، تخضع هذه المعلومات للفحص وتُباع حتى بعد سنوات من سرقتها. وعند دمجها ببيانات أحدث، يمكن استخدامها للاستيلاء على الحسابات وشن هجمات تستهدف الأفراد والمؤسسات».

ويستفيد المهاجمون من مصادر مفتوحة وبيانات اختراقات سابقة لتطوير عمليات احتيال مخصصة، ما يحوّل الضحايا من حالات فردية إلى أهداف طويلة الأمد لسرقة الهوية أو الابتزاز أو الاحتيال المالي.

وفي ضوء استمرار هذا النوع من التهديدات، يشدد مختصون في الأمن السيبراني على أهمية توخي الحذر عند التعامل مع الروابط والمرفقات، والتحقق من مصداقية المواقع الإلكترونية قبل إدخال أي معلومات حساسة، إضافة إلى مراقبة الحسابات المصرفية بانتظام، وتغيير كلمات المرور فور الاشتباه بأي اختراق، واستخدام كلمات مرور مختلفة لكل خدمة، إلى جانب تفعيل المصادقة متعددة العوامل ومراجعة سجل تسجيلات الدخول بشكل دوري.