في القيادة الذاتية... من يتحمّل القرار الأخلاقي عند اللحظة الحاسمة؟

دراسة تترجم التفكير الأخلاقي إلى خوارزميات قيادة

مع انتشار السيارات ذاتية القيادة تبرز الحاجة إلى أنظمة قادرة على اتخاذ قرارات أخلاقية في مواقف مصيرية على الطريق (غيتي)
مع انتشار السيارات ذاتية القيادة تبرز الحاجة إلى أنظمة قادرة على اتخاذ قرارات أخلاقية في مواقف مصيرية على الطريق (غيتي)
TT

في القيادة الذاتية... من يتحمّل القرار الأخلاقي عند اللحظة الحاسمة؟

مع انتشار السيارات ذاتية القيادة تبرز الحاجة إلى أنظمة قادرة على اتخاذ قرارات أخلاقية في مواقف مصيرية على الطريق (غيتي)
مع انتشار السيارات ذاتية القيادة تبرز الحاجة إلى أنظمة قادرة على اتخاذ قرارات أخلاقية في مواقف مصيرية على الطريق (غيتي)

مع اقتراب السيارات ذاتية القيادة من الاندماج في حياتنا اليومية، يبرز سؤال مصيري: ماذا يحدث عندما تضطر هذه المركبات لاتخاذ قرارات فورية قد تعني حياةً أو موتاً؟ ففي الوقت الذي يعمل فيه المهندسون على تحسين أجهزة الاستشعار وأنظمة الملاحة والنماذج الذكية، تظهر تحديات أعمق.

دراسة حديثة أجراها فريق من الباحثين قدّمت تجربة جديدة تماماً لاستكشاف هذا السؤال. ولكن هذه المرة، لم يُختبر فيها المهندسون أو عامة الناس، بل تم اختيار الفلاسفة كمشاركين أساسيين. الهدف هو الاستفادة من قرون من التفكير الأخلاقي لفهم كيف يمكن ترجمة القيم إلى خوارزميات قيادة.

تطوير لمعضلة «عربة الترام»

بُنيت الدراسة على معضلة «عربة الترام» الشهيرة، وهي تجربة فكرية أخلاقية تطرح أسئلة حول الاختيار بين نتيجتين ضارتين. لكن بدلاً من تقديم سيناريوهات نظرية، ركّز الباحثون على مواقف واقعية قد تواجهها سيارات ذاتية القيادة على الطرقات. في أحد السيناريوهات، قد تضطر السيارة للاختيار بين الانحراف ودهس أحد المشاة أو الاستمرار في المسار وتعريض الركاب للخطر. وفي آخر، يجب المفاضلة بين عدد من الأشخاص الذين يعبرون الشارع بشكل غير قانوني وطفل يعبر في ممر مشاة. هذه قرارات معقدة تتطلب أكثر من استجابة تقنية، بل إنها تستدعي حكماً أخلاقياً.

تواجه أخلاقيات الذكاء الاصطناعي تحديات كبيرة مثل اختلاف القيم بين الثقافات وصعوبة اتخاذ قرارات فورية في مواقف طارئة (غيتي)

لماذا الفلاسفة؟

اختيار الفلاسفة لم يكن صدفة؛ فهم المتخصصون في معالجة المناطق الرمادية من السلوك البشري. من خلال تحليل ردود فعلهم على هذه المواقف، يأمل الباحثون استخلاص أنماط يمكن تحويلها إلى منطق برمجي. فعلى عكس الدراسات التي تعتمد على الرأي العام، تضيف هذه المقاربة طبقة من العمق؛ فهي لا تسأل فقط عما يفعله الناس، بل ما يجب عليهم فعله. إنه فارق جوهري في بناء أنظمة ذكاء اصطناعي تتصرف بشكل أخلاقي، لا فقط شعبوي.

وتهدف الدراسة إلى المساهمة في بناء «الأطر الميتا-أخلاقية»، وهي أنظمة عليا توجه سلوك الخوارزميات في المواقف المعقّدة. هذه الأطر ليست أوامر جامدة، بل مناهج مرنة تسمح للذكاء الاصطناعي باتخاذ قرارات محسوبة بناءً على السياق. هذه المعرفة قد تؤثر مستقبلاً على مجالات مثل التنظيم القانوني والتأمين والمسؤولية، والأهم ثقة الجمهور؛ فكلما شعر الناس بأن السيارة الذكية تفكر أخلاقياً، زادت احتمالات قبولهم لها.

الوعي الاجتماعي على الطريق

تشير دراسات أخرى إلى أن إدماج «الوعي الاجتماعي» في أنظمة القيادة الذاتية، يمكن أن يقلّل من الحوادث بشكل ملحوظ. فعندما يتم تدريب الأنظمة على توقع تصرفات البشر، كأن يتوقع النظام عبور طفل مفاجئاً في منطقة مدارس، تقل فرص الاصطدام وتحسن النتائج للركاب والمشاة على حد سواء. وهذا يعزز فكرة أن الأخلاق في الذكاء الاصطناعي لا تعني فقط كيفية التصرف في أسوأ السيناريوهات، بل كيفية تجنبها من الأساس.

خبراء يقولون إن نجاح القيادة الذاتية في المستقبل لن يعتمد فقط على التقنية بل على دمج التفكير الأخلاقي والتعاون بين المجتمع والتقنيين والمشرّعين (شاترستوك)

التحديات المقبلة

لكن حتى أكثر النماذج الأخلاقية تقدماً ستواجه تحديات عملية. القرارات على الطرقات تُتخذ في أجزاء من الثانية، في حين تستغرق المعايير الفلسفية وقتاً لا يتناسب مع سرعة الحياة الواقعية. كما أن التحيز الثقافي وتحديد المسؤولية القانونية وإمكانية التوحيد بين الدول... كلها مسائل لم تُحل بعد؛ فقرار تعتبره ثقافة معينة أخلاقياً، قد ترفضه أخرى. وصول السيارات ذاتية القيادة يفتح الباب لثورة في عالم التنقل، لكنها لن تنجح بالاعتماد على الأجهزة فقط. تُظهر هذه الدراسة أن برمجة المنطق الأخلاقي باتت جزءاً لا يمكن تجاهله من تصميم الأنظمة.

التحدي لم يعد تقنياً فحسب، بل أخلاقياً أيضاً، ومعالجته تتطلب تعاوناً بين المهندسين والفلاسفة وصنّاع القرار، والمجتمع ككل. ففي مستقبل قد تتخذ فيه السيارة قرارات مصيرية نيابة عن السائق، لن يكون السؤال فقط: «هل تقود السيارة جيداً؟»، بل: «هل تقود بحكمة؟».


مقالات ذات صلة

السيارات ذاتية القيادة… هل تجعل التنقل أسهل أم المدن أكثر ازدحاماً؟

تكنولوجيا قد تعيد السيارات ذاتية القيادة تشكيل أنماط التنقل اليومية من حيث التوقيت والمكان وطريقة الاستخدام (شاترستوك)

السيارات ذاتية القيادة… هل تجعل التنقل أسهل أم المدن أكثر ازدحاماً؟

تكشف دراسة أن السيارات ذاتية القيادة قد تسهّل التنقل الفردي وتقلل الحاجة للمواقف، لكنها قد تزيد الازدحام وتغيّر سلوك التنقل وتخطيط المدن مستقبلاً.

نسيم رمضان (لندن)
عالم الاعمال مبيعات «فورد» ترتفع 10 % في الشرق الأوسط وشمال أفريقيا خلال 2025

مبيعات «فورد» ترتفع 10 % في الشرق الأوسط وشمال أفريقيا خلال 2025

سجّلت شركة «فورد» الشرق الأوسط وشمال أفريقيا أعلى أداء لمبيعاتها خلال عقد من الزمن، بعدما حققت نمواً سنوياً بنسبة 10 % في عام 2025 مقارنة بالعام السابق.

«الشرق الأوسط» (الرياض)
يوميات الشرق التكنولوجيا تتقدّم لكنَّ انتباه الإنسان ليس آلة (رويترز)

تحذير: القيادة الذاتية تتجاوز قدرة البشر

السيارات ذاتية القيادة «تفرض متطلّبات نفسية غير مسبوقة على السائقين، وهي متطلّبات لسنا مستعدّين لها حالياً على الإطلاق».

«الشرق الأوسط» (لندن)
خاص الرئيس التنفيذي لشركة «نيسان» إيفان إسبينوسا (الشرق الأوسط) p-circle 01:35

خاص رئيس «نيسان»: السعودية «جوهرة ذهبية» تقود نمونا في المنطقة

شدد الرئيس التنفيذي لشركة «نيسان» للسيارات، إيفان إسبينوسا، أن منطقة الشرق الأوسط، والسعودية تحديداً، تمثل إحدى أهم الركائز الاستراتيجية في خطط الشركة العالمية.

مساعد الزياني (جدة)
الاقتصاد المقر الرئيسي لشركة نيسان في مدينة يوكوهاما اليابانية (الشرق الأوسط)

«نيسان» العالمية تعلن عودتها إلى السوق السورية

أعلنت شركة نيسان العالمية للسيارات عودتها إلى السوق السورية، في خطوة قالت فيها إنها تعكس توجهاً لإعادة بناء حضور منظم ومستدام ضمن استراتيجيتها للنمو الإقليمي.

«الشرق الأوسط» (الرياض)

النمسا تعتزم حظر استخدام وسائل التواصل الاجتماعي للأطفال تحت سن 14 عاماً

استخدام وسائل التواصل الاجتماعي بكثرة قد يؤثر على الحياة اليومية (رويترز)
استخدام وسائل التواصل الاجتماعي بكثرة قد يؤثر على الحياة اليومية (رويترز)
TT

النمسا تعتزم حظر استخدام وسائل التواصل الاجتماعي للأطفال تحت سن 14 عاماً

استخدام وسائل التواصل الاجتماعي بكثرة قد يؤثر على الحياة اليومية (رويترز)
استخدام وسائل التواصل الاجتماعي بكثرة قد يؤثر على الحياة اليومية (رويترز)

أعلن الائتلاف الحاكم في النمسا، اليوم الجمعة، عن خطط لحظر استخدام وسائل التواصل الاجتماعي للأطفال تحت سن 14 عاماً، لتنضم إلى سلسلة من الدول الأخرى في فرض مثل هذه القيود على الصغار.

وقال ألكسندر برول، مسؤول شؤون الرقمنة في مكتب المستشار النمساوي كريستيان شتوكر، إنه سوف يتم طرح مشروع قانون بهذا الشأن بحلول نهاية يونيو (حزيران) المقبل.

وأضاف أن «الأساليب الحديثة تقنياً للتحقق من العمر سوف تطبق للسماح بالتحقق من أعمار المستخدمين مع احترام خصوصيتهم».

ولم يتضح على الفور الموعد الذي ربما تدخل فيه الخطة لتحديد الحد الأدنى للعمر حيز التنفيذ والتي ستحتاج إلى موافقة برلمانية.

العديد من الدول تعتزم حظر وصول الأطفال دون سن الـ16 لوسائل التواصل الاجتماعي (رويترز)

يشار إلى أن أستراليا أخذت بزمام المبادرة في هذا الصدد عام 2024، لتصبح أول دولة تحظر استخدام الأطفال تحت سن 16 عاماً وسائل التواصل الاجتماعي بغرض حمايتهم من المحتوى الضار والإفراط في استخدام الشاشات، ومن المقرر سريان حظر مماثل في إندونيسيا غداً السبت.


«أبل» تعتزم فتح «سيري» أمام خدمات الذكاء الاصطناعي المنافِسة

يظهر شعار شركة «أبل» على مبنى في حي مانهاتن بمدينة نيويورك الأميركية (د.ب.أ)
يظهر شعار شركة «أبل» على مبنى في حي مانهاتن بمدينة نيويورك الأميركية (د.ب.أ)
TT

«أبل» تعتزم فتح «سيري» أمام خدمات الذكاء الاصطناعي المنافِسة

يظهر شعار شركة «أبل» على مبنى في حي مانهاتن بمدينة نيويورك الأميركية (د.ب.أ)
يظهر شعار شركة «أبل» على مبنى في حي مانهاتن بمدينة نيويورك الأميركية (د.ب.أ)

ذكرت «بلومبيرغ نيوز»، اليوم الخميس، أن «أبل» تخطط لفتح مساعدها الصوتي «سيري» أمام خدمات ​الذكاء الاصطناعي المنافِسة، بما يتجاوز شراكتها الحالية مع «تشات جي بي تي».

وقالت الوكالة، في تقريرها الذي نقلته عن مصادر مطّلعة، إن هذه الخطوة، المتوقعة ضِمن تحديث نظام التشغيل «آي أو إس 27» من «أبل»، ستسمح لتطبيقات الذكاء الاصطناعي التابعة لجهات خارجية بالاندماج مباشرة مع «سيري»، مما يمكّن المستخدمين من توجيه الاستفسارات إلى خدمات مثل «جيميناي» التابعة لشركة «ألفابت»، أو «كلود» التابعة لشركة «أنثروبيك» من داخل المساعد.

وهذا التغيير تحول مهم في استراتيجية «أبل» للذكاء الاصطناعي، إذ تسعى الشركة إلى اللحاق بركب نظيراتها في وادي السيليكون، ووضع «آيفون» كمنصة أوسع للذكاء الاصطناعي.

و«سيري»، الذي أُطلق لأول مرة منذ أكثر من عقد، عنصر أساسي في هذا المسعى. وأفادت «بلومبيرغ نيوز» بأن «أبل» تُطور أدوات تسمح لتطبيقات روبوتات الدردشة المثبتة عبر متجر التطبيقات الخاص بها بالعمل مع «سيري» وميزات أخرى ضِمن منصة «أبل إنتليجنس». وسيتمكن المستخدمون من اختيار خدمة الذكاء الاصطناعي التي تتولى معالجة كل طلب.

وذكر التقرير أن هذا التحديث قد يساعد «أبل» أيضاً على تحقيق مزيد من الإيرادات من خلال الحصول على حصة من الاشتراكات المبيعة عبر خدمات الذكاء الاصطناعي التابعة لجهات خارجية.

ومن المتوقع أن تستعرض «أبل» ميزات البرنامج الجديدة في مؤتمر المطورين العالمي الذي تعقده في يونيو (حزيران) المقبل، غير أن الخطط قد تتغير.


البرلمان الأوروبي يحظر أدوات ذكاء اصطناعي «تعرّي» أشخاصاً

شعار روبوت الدردشة «غروك» يظهر على شاشتين (أ.ف.ب)
شعار روبوت الدردشة «غروك» يظهر على شاشتين (أ.ف.ب)
TT

البرلمان الأوروبي يحظر أدوات ذكاء اصطناعي «تعرّي» أشخاصاً

شعار روبوت الدردشة «غروك» يظهر على شاشتين (أ.ف.ب)
شعار روبوت الدردشة «غروك» يظهر على شاشتين (أ.ف.ب)

أقرّ البرلمان الأوروبي، الخميس، قانوناً يحظّر استخدام الذكاء الاصطناعي لـ«تعرية» الأشخاص من دون موافقتهم.

وتمّ تبني القرار في نصّ أُقرّ بأغلبية ساحقة (569 صوتاً مقابل 45 صوتاً معارضاً) خلال جلسة عامة للبرلمان في بروكسل، وفقاً لـ«وكالة الصحافة الفرنسية».

وأوضح بيان صادر عن البرلمان أن الأمر يتعلّق بحظر برامج «التعرية» التي «تستخدم الذكاء الاصطناعي لإنشاء أو التلاعب بصور ذات إيحاءات جنسية واضحة، أو صور في وضع حميم تشبه شخصاً حقيقياً يمكن التعرّف عليه، من دون موافقة هذا الشخص».

ولا يطبّق النص على أنظمة الذكاء الاصطناعي المزوّدة «بتدابير أمنية فعّالة» تحول دون هذه الممارسات.

وكانت دول الاتحاد الأوروبي أقرّت هذا الشهر إجراء مشابهاً. وسيتعيّن عليها الآن التفاوض مع البرلمان للتوصل إلى صياغة متقاربة، قبل أن يصبح من الممكن تطبيق الإجراء.

وتأتي هذه المبادرات خصوصاً بعد إدخال خاصية قبل بضعة أشهر في تطبيق «غروك» للذكاء الاصطناعي تتيح للمستخدمين أن يطلبوا منه تركيب صور مزيفة قريبة جداً من الواقعية (ديب فيك) لنساء وأطفال عراة، انطلاقاً من صور حقيقية.

وأثارت هذه القضية موجة استنكار في العديد من الدول ودفعت الاتحاد الأوروبي إلى فتح تحقيق.

كما وافق البرلمان في النص ذاته، على إرجاء دخول قوانين أوروبية جديدة حيّز التنفيذ بشأن أنظمة الذكاء الاصطناعي ذات المخاطر العالية، أي تلك العاملة في مجالات حساسة كالأمن أو الصحة أو الحقوق الأساسية.

وكان من المفترض أن تدخل هذه القواعد حيّز التنفيذ في أغسطس (آب) 2026. وعلى غرار الدول الأعضاء، اقترح النواب الأوروبيون تاريخين محدّدين لهذا التأجيل، في حين كانت المفوضية الأوروبية تريد منح الشركات جدولاً زمنياً أكثر مرونة.

والتاريخان هما: الثاني من ديسمبر (كانون الأول) 2027 للأنظمة المستقلة ذات المخاطر العالية، والثاني من أغسطس (آب) 2028 للأنظمة المدمجة في برامج أو منتجات أخرى.