عندما ينحدر كريس جيرتس بدراجته الهوائية من أعلى التلال التي تحيط بمدينة سان فرانسيسكو الأميركية، فإنه كثيراً ما يفكر بشأن أجهزة الكومبيوتر التي تتولى قيادة السيارات، أو بعبارة أخرى، فإنه يفكر في السيارات ذاتية القيادة. وفي إحدى هذه المرات أخيراً، طرأت على ذهن الأستاذ المتخصص في مجال الهندسة الميكانيكية فكرة لامعة.
فبينما كانت السيارات تمر بجانبه، فإنها كانت تتجاوز الخط المزدوج الذي يفصل الطريق من المنتصف إلى اتجاهين متقابلين، في مخالفة لقواعد المرور المعمول بها في ولاية كاليفورنيا، وهنا سأل جيرتس نفسه حول ما إذا كانت سيارة ذاتية القيادة سوف ترتكب الفعلة ذاتها.
ويقول جيرتس الذي يعمل في جامعة ستانفورد الأميركية: «لقد اكتسبنا السلوك البشري المقبول لدى المجتمع بشأن إفساح الطريق للدراجات الهوائية، رغم أن هذا السلوك ليس قانونياً بشكل حازم».
وتساءل قائلاً: «كيف نعلم سيارة ذاتية القيادة كيفية مخالفة القواعد بالطريقة ذاتها؟ وهل ينطوي الخط المرسوم في منتصف الطريق بين الاتجاهات المتقابلة على أي معنى بالنسبة لسيارة يتحكم فيها روبوت؟».
ويفترض جيرتس أن السيارة ذاتية القيادة سوف تقيم الوضع أفضل من أي شخص، وأنها لن تتخطى الدراجة الهوائية إلا إذا لم تكن هناك سيارة أخرى مقبلة من الاتجاه المعاكس.
ويجري جيرتس أبحاثه في وادي السليكون بمساعدة مجموعة من الخريجين، ويتعلق البحث الذي يعكف عليه في الوقت الحالي بـ«شيلي»، وهي سيارة معدلة من طراز «أودي» يجري وضعها في مواقف غير متوقعة، مثل أن يعبر أحد المشاة على سبيل المثال الطريق أمامها بشكل مفاجئ من خلف سيارة متوقفة.
ويقول جيرتس: «لا يمكننا أبداً أن نصنع منظومة مثالية، ولكننا نحاول أن نجعلها آمنة قدر المستطاع».
وتلقى جيرتس أخيراً رسالة إلكترونية من باتريك لين وهو أستاذ فلسفة من مدينة سان لويس أوبيسبو، التي تقع في منتصف المسافة بين سان فرانسيسكو ولوس أنجليس، وتساءل لين في رسالته قائلاً: «هل تفكر بشأن كل الأسئلة الأخلاقية التي سوف تثيرها السيارات ذاتية القيادة؟».
ويعمل الأكاديميان الآن بشكل تكاملي، حيث يختلق أستاذ الفلسفة سيناريو ما في ذهنه، ويحاول أستاذ الهندسة إيجاد الحل لهذا السيناريو.
فعلى سبيل المثال افترض أن السيارة اضطرت للانحراف بشكل مفاجئ، فإذا ما اتجهت ناحية اليسار فسوف تصدم بجَدّة في الثمانين من عمرها، أما إذا اتجهت ناحية اليمين، فسوف تدهس طفلة في الثامنة، فأي اتجاه يجب أن تسلكه السيارة؟!
ولا تشعر شركات تصنيع السيارات بالارتياح حيال مثل هذه النوعية من الأسئلة، وتؤكد أن سياراتها ليس مصممة للمفاضلة بين الضحايا الذين تدهسهم، بل إنها تحاول أن تتفادى دهس الضحايا تماماً، لا سيما في حالات المشاة والدراجين.
كما أنهم واثقون من شيء واحد، وهو أن السيارات ذاتية القيادة سوف تتعرض لحوادث أقل من المعدلات الحالية.
ولكن أستاذ الفلسفة لين يدعو على الرغم من ذلك إلى إجراء حوار عام بشأن أخلاقيات السيارات ذاتية القيادة، ويتساءل: «كيف يتوصل المبرمجون إلى اختياراتهم؟ وهل يفكرون في عواقب هذه الاختيارات؟!».
وأصدر لين توصية بشأن ضرورة أن يناقش قطاع السيارات مثل هذه القضايا الأخلاقية بشكل منفتح قبل أن يمتلئ الفراغ بالتكهنات والمخاوف التي لا أساس لها.
وأثار أول حادث مميت «لسيارة ذاتية القيادة» بين سيارة من طراز «تيسلا» وشاحنة في ولاية فلوريدا الأميركية في مايو (أيار) عام 2016 عاصفة إعلامية، حيث أكدت الشركة المصنعة أن السيارة لم تكن ذاتية القيادة بشكل كامل، بل كان يتم قيادتها في وضعية القيادة الآلية.
وبعد التحقيق في الحادث الذي راح ضحيته سائق السيارة بينما كان يشاهد أحد أفلام سلسلة «هاري بوتر»، خلصت الهيئة الوطنية للسلامة المرورية على الطرق السريعة إلى أن النظام كان يعمل بالشكل المستهدف، ولكن كان لا بد على السائق ألا يعتمد على النظام إلى هذا الحد الذي فعله.
وتتصدر مثل هذه النوعية من الحوادث عناوين الصحف بشكل فوري، ولكن التوقعات هي أن هذه المرحلة سوف تنتهي عندما تصبح هذه البدعة الجديدة شيئاً مألوفاً وتتحسن تقنية السيارات ذاتية القيادة، وإن كانت استطلاعات الرأي تشير إلى أن قادة السيارات ما زالوا متشككين في تكنولوجيات القيادة الذاتية.
وبدأت شركة «غوغل» العملاقة لخدمات الإنترنت في عام 2009 اختبار سيارات ذاتية القيادة على الطرق، وأرغمت كبرى شركات السيارات إلى أن تحذو حذوها. وتختبر شركات السيارات الألمانية هذه التقنية أيضاً في وادي السليكون بالولايات المتحدة، وتعتزم شركة «بي إم دبليو» الألمانية للسيارات الفارهة تصنيع سيارة ذاتية القيادة بالكامل بالتعاون مع شركة إنتل للإلكترونيات بحلول عام 2021.
ويقول ديرك فيسلمان مسؤول القضايا الأخلاقية في شركة «بي إم دبليو» إن المعادلات الخوارزمية القائمة على فكرة «الطفل يأتي في الأهمية قبل المرأة العجوز» لن تتم برمجتها مطلقاً، موضحاً أنها «تخالف الدستور الألماني، والإجابة الوحيدة التي يمكن تقديمها هي أن التلفيات المادية أفضل من الإصابات البشرية».
وبالنظر إلى السرعات التي تمت برمجة هذه السيارات للسير بها، يرى فيسلمان أنها لا تنطوي على خطورة كبيرة بالنسبة للمشاة.
ويتساءل قائلاً: «بسرعة ثلاثين كيلومتراً في الساعة، فإن المسافة التي تحتاج إليها السيارة للتوقف تبلغ نحو أربعة أمتار، وفي مثل هذه السرعة، من الممكن أن تنحرف السيارة لمسافة خمسين سنتيمتراً تقريباً جهة اليمين أو اليسار. وبالتالي ما مدى واقعية مثل هذا السيناريو الدرامي؟».
والشيء الوحيد المؤكد لدى جيرتس هو أن إبطال وضعية القيادة الذاتية للسيارة في حالات الطوارئ، وتفعيل القيادة البشرية، ليس هو الحل لمواجهة تلك السيناريوهات غير المتوقعة.
ويقول جيرتس: «تقع معظم الحوادث في هذه الآونة لأن الأشخاص يتصرفون بشكل خاطئ في حالة حدوث موقف غير متوقع»، في إشارة إلى إمكانية وضع مفتاح طوارئ لتحويل السيارة من القيادة الذاتية إلى القيادة البشرية في أسوأ الحالات. وأضاف جيرتس: «كلا... يجب أن تكون السيارة قادرة على اتخاذ قراراتها».
السيارات ذاتية القيادة تثير تساؤلات أخلاقية
تراجع الثقة بمعدلات الأمان عندما يتولى الكومبيوتر قيادة السيارة
السيارات ذاتية القيادة تثير تساؤلات أخلاقية
لم تشترك بعد
انشئ حساباً خاصاً بك لتحصل على أخبار مخصصة لك ولتتمتع بخاصية حفظ المقالات وتتلقى نشراتنا البريدية المتنوعة