يكرّر الخبراء وبصوتٍ عالٍ: الذكاء الصناعي لا يشعر. إلا إن بوتات (نسبة إلى بوت (bot) وهو تطبيق أو برنامج إنترنتي للمحادثة الذكية مع الزبائن في المواقع الإلكترونية - تمييزاً عن الروبوت وهو جهاز آلي ذكي)، أو برامج المحادثة الذكية، أثارت كثيراً من الضجيج في الأشهر الأخيرة، وتسبب حدثان مستجدّان على الأقلّ في زرع فكرة «البوتات» الواعية والحسّاسة في مخيّلتنا.
تطبيقات ذكية واعية
كان أحد موظفي شركة «غوغل» أثار العام الماضي بعض المخاوف عندما تحدّث عمّا سماه دليلاً على وجود الإحساس لدى الذكاء الصناعي. بعدها، في فبراير (شباط)، انتشرت على وسائل التواصل الاجتماعي محادثة بين «روبوت المحادثة» الخاص بـ«مايكروسوفت» وزميلي كيفن روز عن الحبّ ورغبة الأوّل في التحوّل إلى كائن بشري، مما أثار هلع النّاس.
في المقابل، يذكّر الخبراء والصحافيون النّاس بشكلٍ متكرّر بأنّ بوتات المحادثة المدعومة بالذكاء الصناعي ليست واعية، وبأنّها حتى لو بدت بشرية بدرجة مريبة، فهذا الأمر يعود إلى تعلّمها كيف تشبه البشر... من كميات هائلة من النصوص الإلكترونية التي تشمل كلّ شيء؛ من مدوّنات الطعام إلى منشورات «فيسبوك» وصفحات «ويكيبيديا».
يوافق قادّة الصناعة على هذا التقييم حتّى الآن في الأقلّ، ولكنّ كثيرين يصرّون على أنّ الذكاء الصناعي سيصبح يوماً ما قادراً على عمل أي شيء يستطيع الدماغ البشري فعله.
يتحضّر نيك بوستروم (Nick Bostrom)، الفيلسوف ومدير «معهد مستقبل البشرية» في جامعة أكسفورد ومعدّ كتاب «الذكاء الخارق»، منذ عقودٍ لهذا اليوم. يعكف بوستروم على تخيّل المستقبل، ويحدّد المخاطر، ويضع أسساً متخيّلة لكيفية التعامل معها، ويتركّز اهتمامه الأكبر على كيفية إدارة عالم مليءٍ بالعقول الرقمية خارقة الذكاء.
نيك بوستروم
حوار علمي
تحدّثنا مع بوستروم عن احتمال تمتّع الذكاء الصناعي بالأحاسيس وكيف يمكن لهذا الأمر أن يعيد تشكيل افتراضاتنا الأساسية حول أنفسنا ومجتمعاتنا.
س: يصرّ كثير من الخبراء على أنّ بوتات المحادثة «ليست حسّاسة» و«لا واعية»، مستخدمين هذين التعبيرين اللذين يصفان الوعي بالعالم المحيط بنا. هل توافق على التقييم الذي يصف البوتات بالمُدخلات التي يُعاد إخراجها؟
ج: الوعي حالة فضفاضة ومعقّدة، متعدّدة الأبعاد، ويصعب تحديدها أو تعريفها. طوّر علماء أعصاب وفلاسفة فرضيات عدّة عن الوعي على مرّ السنوات، ولكن لا يوجد بعدُ توافق على واحدة منها. يمكن للباحثين مثلاً أن يحاولوا تطبيق هذه الفرضيات المختلفة لاختبار حسيّة أنظمة الذكاء الصناعي.
ولكنّني شخصياً أرى أنّ الإحساس مسألة متدرّجة، وكنتُ أودّ لو أستطيع أن أنسب درجة طفيفة من الإحساس لمجموعة واسعة من الأنظمة كالحيوانات. وإذا كان النّاس مستعدّين للاعتراف بأن مسألة الإحساس ليست «كلّ شيء أو لا شيء»، فعندها لن نبالغ إذا قلنا إنّ بعض هذه البوتات أو الأنظمة قد تملك بعض درجات الإحساس.
في البداية، في مسألة النماذج اللغوية الكبيرة، أعتقد أنّه ليس من الإنصاف أن نصفها بالنصوص المدخلة والمُعاد إخراجها؛ لأنّها ببساطة تُظهر ملامح لافتة من الإبداع والتفكير والفهم، حتّى إنّها قد توحي بمستويات بدائية من المنطق. قريباً، قد تطوّر هذه الأنواع من الذكاء الصناعي مفهوماً ثابتاً للذات، وتبدي مراعاة لبعض الرغبات، وتتفاعل مع المجتمع، وتبني علاقات مع البشر.
أحاسيس الذكاء الصناعي
س: ما الذي قد يحدث إذا أصرّ الذكاء الصناعي، ولو قليلاً، على أن يكون حساساً؟
ج: إذا أظهر الذكاء الصناعي نوعاً من الإحساس، إذن فسيكون لديه أيضاً مستوى معيّناً من الأخلاق، مما يعني أنه سيكون من الخطأ التعامل معه بأساليب معيّنة تشبه ركل أحدهم كلباً، أو إجراء الجرّاحين عملية جراحية على فأر من دون تخديره.
تعتمد التداعيات الأخلاقية على نوع ودرجة الأخلاق التي نتحدّث عنها. في الحدّ الأدنى منها، قد يعني الأمر ألا نتسبب له في الألم والمعاناة، وفي الحدّ الأقصى، قد يعني أن نراعي تفضيلاته وأن نحصل على موافقته قبل القيام ببعض الأمور. أعمل في مسألة أخلاقيات العقول الرقمية وأحاول تخيّل عالم مستقبلي توجد فيه عقول بشرية ورقمية من جميع الأنواع ودرجات التعقيد، ودائماً ما أتساءل: كيف نتعايش بطريقة منسجمة؟ الأمر صعب بسبب الافتراضات الكثيرة في الحالة البشرية والتي تحتاج إلى إعادة تفكير.
س: ما بعض هذه الافتراضات التي تحتاج لإعادة تخيّل أو تطوير لاستيعاب البشرية الذكاء الصناعي؟
ج: إليكم 3 جوانب؛ أولاً: البشر إمّا أحياء وإما أموات، بينما تختلف الحال مع العقول الرقمية؛ لأنّها قابلة للتوقيف المؤقّت وإعادة التشغيل لاحقاً.
ثانياً: الفردانية: عند البشر، الاختلاف موجود حتّى بين التوائم المتطابقة، في حين أنّ العقول الرقمية يمكن أن تكون نسخاً متطابقة.
ثالثُا: حاجتنا للعمل: الأعمال التي تحتاج البشر لإتمامها كثيرة في يومنا هذا، الأمر الذي قد ينتفي في حال تحقيق الأتمتة التامّة.
س: هل يمكنكم إعطاء مثال على كيف يمكن لهذه الافتراضات أن تختبرنا، أي تخضعنا للاختبار، على المستوى الاجتماعي؟
ج: مثالٌ واضحٌ آخر هو الديمقراطية؛ ففي الدول الديمقراطية، نتفاخر بأنّنا نعيش في ظلّ حكومة تضمن حريّة التعبير للجميع، ويكون الأمر عادة بصوتٍ واحد لشخصٍ واحد. فكّروا مثلاً في مستقبل تكون فيه العقول مطابقة للعقول البشرية باستثناء أنّها منفّذة على جهاز كومبيوتر. كيف يمكن توسيع الحوكمة الديمقراطية لتشملها؟ ربّما يمكننا إعطاء صوت واحد لكلّ ذكاء صناعي، ومن ثمّ صوت واحد لكلّ إنسان، ولكنّ الأمر ليس بهذه السهولة؛ إذ ما الذي قد يحدث إذا كان البرنامج الرقمي قابلاً للنسخ؟
قبل يومٍ من الانتخابات، يمكن صناعة 10 آلاف نسخة من ذكاء صناعي معيّن والحصول على 10 آلاف صوتٍ إضافي؛ أو ما الذي قد يحدث إذا كان مطوّرو الذكاء الصناعي يستطيعون اختيار القيم والتفضيلات السياسية لهذا الذكاء؟ وإذا كنتم من أصحاب الثروات، فيمكنكم بناء كثير من مشروعات الذكاء الصناعي للحصول على تأثير يوازي حجم ثروتكم.
مخاطر على البشرية
س: عمد أكثر من ألف قائد وباحث من صناعة التقنية، ومنهم إيلون ماسك، أخيراً إلى توجيه رسالة تحذّر من التطوير غير المراقب للذكاء الصناعي؛ لأنّه «يرتّب مخاطر كبيرة على المجتمع والإنسانية». ما مدى مصداقية التهديد الوجودي للذكاء الصناعي؟
ج: لطالما اعتقدتُ أنّ الانتقال إلى تفوّق الذكاء الآلي سيكون مصحوباً بمخاطر كبيرة وبعضها وجودي، وهذا الأمر لم يتغيّر، وأعتقد أيضاً أنّ المدة التي تفصلنا عن هذه المرحلة باتت أقصر من الماضي. يجدر بنا اليوم أن نحضّر أنفسنا لهذا التحدّي. مهّدت العقود الثلاثة الماضية لهذا الأمر، ولكنّنا للأسف كنّا نعيش حالة من الاسترخاء والاكتفاء بمشاهدة ما يحدث بدل التفكير في ما يجب علينا فعله في مجال أخلاقيات وحوكمة الذكاء الخارق المحتمل، وهذا الوقت الضائع لن يعود أبداً.
س: هل يمكنكم التوسّع أكثر في الحديث عن هذه التحديات؟ ما المسائل الأكثر إلحاحاً التي يجب أن يفكّر فيها الباحثون، وصناعة التقنية، وصانعو السياسات؟
ج: أولاً: يجب أن نفكّر في الاصطفاف. كيف نضمن أنّ أنظمة الذكاء الصناعي ذات القدرات المتزايدة التي نبنيها تسير في الاتجاه نفسه الذي يريد مطوّروها أن تسير فيه؟ إنها مشكلة تقنية. وتوجد أيضاً مشكلة الحوكمة. لعلّ المسألة الأهمّ بالنسبة لي هي محاولة مقاربة هذا الأمر بطريقة تعاونية؛ لأنّ الأمر أكبر من أي أحد منّا، أو أي شركة، أو حتّى أي دولة.
ويجب أيضاً أن نتجنّب تصميم نظم ذكاء صناعي يصعّب على الباحثين تحديد ما إذا كانت فعلاً تملك درجة من الأخلاق، كتدريبها مثلاً على رفض فكرة أنّها واعية أو أنّها تملك أخلاقاً في الأساس. صحيحٌ أنّنا لا نستطيع الحكم على المخرجات الشفهية الصادرة عن أنظمة الذكاء الصناعي اليوم، ولكنّنا يجب أن نبحث دائماً - دون محاولة القمع أو الإلغاء - عن إشارات واضحة على أنّ هذه الأنظمة نمّت فعلاً درجة من الإحساس أو الأخلاق.
* خدمة «نيويورك تايمز»