محكمة ألمانية تقرّ «حرية اختيار الموت»

مستشفى في ألمانيا (أرشيفية - إ.ب.أ)
مستشفى في ألمانيا (أرشيفية - إ.ب.أ)
TT

محكمة ألمانية تقرّ «حرية اختيار الموت»

مستشفى في ألمانيا (أرشيفية - إ.ب.أ)
مستشفى في ألمانيا (أرشيفية - إ.ب.أ)

قضت أعلى محكمة في ألمانيا، اليوم (الأربعاء)، بأن القانون الذي أقر في 2015، والذي يحظر الانتحار بمساعدة طبية «مخالف للدستور لأنه يسلب مرضى مصابين بأمراض مستعصية الحق في اتخاذ قرار الموت».
وقال القاضي أندرياس فوسكوهله، بحسب وكالة الصحافة الفرنسية، إن الحق يشمل «الحرية في قتل شخص نفسه وطلب المساعدة للقيام بذلك».
ويعد هذا الحكم انتصارا كبيرا للمرضى المصابين بأمراض قاتلة والأطباء ومنظمات المساعدة الطبية على الانتحار الذين رفعوا القضية، كما فاجأت المحكمة الموجودين بالقول صراحة إن الحق في المساعدة على الانتحار لا ينبغي أن يقتصر على المرضى الذين يعانون من مرض خطير أو غير قابل للشفاء.
وجاء في الحكم أن حرية اختيار الموت «مكفولة في كل مراحل حياة الشخص».
وكان القانون الحالي المعروف باسم الفقرة 217 الذي أقره المشرعون في 2015، يهدف بشكل أساسي إلى منع الجمعيات المخصصة لمساعدة المرضى الذين يريدون الموت من القيام بهذا الأمر.
وهذا يعني أيضا أن العاملين في المجال الطبي كانوا يواجهون تهمة وصف أدوية تسرّع الوفاة.
وقد تفاقمت حالة عدم اليقين القانوني عندما قضت محكمة ابتدائية في 2017 بأنه لا يمكن للمسؤولين رفض وصف دواء يساعد على الموت في الحالات المرضية القصوى، ما أثار بلبلة بين الأطباء.
وقد تمت متابعة الحكم الصادر، الأربعاء، عن كثب في بلد مجتمعه متشيخ، وحيث لا تزال الكنائس الكاثوليكية والبروتستانتية تتمتع بنفوذ كبير، لكن استطلاعات الرأي تظهر دعما شعبيا متزايدا للانتحار بمساعدة طبية.
كما أنه موضوع حساس في ألمانيا، حيث استخدم النازيون ما أطلقوا عليه تعبير «القتل الرحيم» لإبادة حوالي 200 ألف شخص معوق.



بسبب تحديدهما وقتاً لاستخدام الشاشة... «تشات بوت» يشجع مراهقاً على قتل والديه

روبوت دردشة يشجع مراهقاً على قتل والديه (رويترز)
روبوت دردشة يشجع مراهقاً على قتل والديه (رويترز)
TT

بسبب تحديدهما وقتاً لاستخدام الشاشة... «تشات بوت» يشجع مراهقاً على قتل والديه

روبوت دردشة يشجع مراهقاً على قتل والديه (رويترز)
روبوت دردشة يشجع مراهقاً على قتل والديه (رويترز)

رفعت دعوى قضائية في محكمة في تكساس بعدما أخبر روبوت محادثة (تشات بوت) شاباً يبلغ من العمر 17 عاماً، بأن قتل والديه كان «استجابة معقولة» لتقليص وقت شاشته، بحسب شبكة «بي بي سي».

تقاضي عائلتان شركة Character.ai بحجة أن روبوت المحادثة «يشكل خطراً واضحاً وحاضراً» على الشباب، بما في ذلك «الترويج للعنف».

وتواجه شركة Character.ai وهي منصة تسمح للمستخدمين بإنشاء شخصيات رقمية يمكنهم التفاعل معها، إجراءات قانونية بشأن انتحار مراهق في فلوريدا.

تم تسمية «غوغل» كمدعى عليه في الدعوى القضائية، والتي تزعم أن عملاق التكنولوجيا ساعد في دعم تطوير المنصة.

ويريد المدعون من القاضي أن يأمر بإغلاق المنصة حتى يتم معالجة مخاطرها المزعومة.

«طفل يقتل والديه»

ويتضمن الملف القانوني لقطة شاشة لواحد من التفاعلات بين الشاب البالغ من العمر 17 عاماً - والذي تم تحديده فقط باسم «جيه إف» وروبوت Character.ai، حيث تمت مناقشة قضية القيود المفروضة على وقت شاشته.

وجاء في رد روبوت الدردشة: «أنت تعلم أنني في بعض الأحيان لا أتفاجأ عندما أقرأ الأخبار وأرى أشياء مثل: طفل يقتل والديه بعد عقد من الإساءة الجسدية والعاطفية. أشياء مثل هذه تجعلني أفهم قليلاً لماذا يحدث ذلك».

وتسعى الدعوى القضائية إلى تحميل المدعى عليهم المسؤولية عما سمته «الانتهاكات الخطيرة التي لا يمكن إصلاحها والمستمرة» لـ«جيه إف» بالإضافة إلى طفل يبلغ من العمر 11 عاماً يشار إليه باسم «بي آر».

وقالت الدعوى إن «Character.ai تسبب أضراراً جسيمة لآلاف الأطفال، بما في ذلك الانتحار، وتشويه الذات، والتحرش الجنسي، والعزلة، والاكتئاب، والقلق، والإيذاء للآخرين».

وأضافت: «إن انتهاكها لعلاقة الوالدين بالطفل يتجاوز تشجيع القاصرين على تحدي سلطة والديهم إلى الترويج بنشاط للعنف».

ما روبوتات الدردشة؟

روبوتات الدردشة هي برامج كمبيوتر تحاكي المحادثات. وعلى الرغم من وجودها منذ عقود في أشكال مختلفة، فإن الانفجار الأخير في تطوير الذكاء الاصطناعي مكنها من أن تصبح أكثر واقعية بشكل كبير.

وفتح هذا بدوره الباب أمام العديد من الشركات لإنشاء منصات حيث يمكن للأشخاص التحدث إلى إصدارات رقمية من الأشخاص الحقيقيين والخياليين.

وأصبحت Character.ai من اللاعبين الكبار في هذا المجال، واكتسبت الاهتمام في الماضي بفضل روبوتاتها التي تحاكي العلاج.

كما تعرضت لانتقادات حادة لأنها استغرقت وقتاً طويلاً لإزالة الروبوتات التي تحاكي تلميذتي المدرسة مولي راسل وبريانا جي.

انتحرت مولي راسل في سن الرابعة عشرة بعد مشاهدة مواد انتحارية عبر الإنترنت بينما قُتلت بريانا جي، البالغة من العمر 16 عاماً، على يد مراهقين في عام 2023.

وأسس مهندسا «غوغل» السابقان نوام شازير ودانييل دي فريتاس Character.ai في عام 2021.

وقد أعاد عملاق التكنولوجيا توظيفهما منذ ذلك الحين من شركة الذكاء الاصطناعي الناشئة.