نظم الذكاء الصناعي «الحساسة»... تحديات تواجه البشرية

حوار مع مدير «معهد مستقبل البشرية» في جامعة أكسفورد

نظم الذكاء الصناعي «الحساسة»... تحديات تواجه البشرية
TT

نظم الذكاء الصناعي «الحساسة»... تحديات تواجه البشرية

نظم الذكاء الصناعي «الحساسة»... تحديات تواجه البشرية

يكرّر الخبراء وبصوتٍ عالٍ: الذكاء الصناعي لا يشعر. إلا إن بوتات (نسبة إلى بوت (bot) وهو تطبيق أو برنامج إنترنتي للمحادثة الذكية مع الزبائن في المواقع الإلكترونية - تمييزاً عن الروبوت وهو جهاز آلي ذكي)، أو برامج المحادثة الذكية، أثارت كثيراً من الضجيج في الأشهر الأخيرة، وتسبب حدثان مستجدّان على الأقلّ في زرع فكرة «البوتات» الواعية والحسّاسة في مخيّلتنا.

تطبيقات ذكية واعية

كان أحد موظفي شركة «غوغل» أثار العام الماضي بعض المخاوف عندما تحدّث عمّا سماه دليلاً على وجود الإحساس لدى الذكاء الصناعي. بعدها، في فبراير (شباط)، انتشرت على وسائل التواصل الاجتماعي محادثة بين «روبوت المحادثة» الخاص بـ«مايكروسوفت» وزميلي كيفن روز عن الحبّ ورغبة الأوّل في التحوّل إلى كائن بشري، مما أثار هلع النّاس.
في المقابل، يذكّر الخبراء والصحافيون النّاس بشكلٍ متكرّر بأنّ بوتات المحادثة المدعومة بالذكاء الصناعي ليست واعية، وبأنّها حتى لو بدت بشرية بدرجة مريبة، فهذا الأمر يعود إلى تعلّمها كيف تشبه البشر... من كميات هائلة من النصوص الإلكترونية التي تشمل كلّ شيء؛ من مدوّنات الطعام إلى منشورات «فيسبوك» وصفحات «ويكيبيديا».
يوافق قادّة الصناعة على هذا التقييم حتّى الآن في الأقلّ، ولكنّ كثيرين يصرّون على أنّ الذكاء الصناعي سيصبح يوماً ما قادراً على عمل أي شيء يستطيع الدماغ البشري فعله.
يتحضّر نيك بوستروم (Nick Bostrom)، الفيلسوف ومدير «معهد مستقبل البشرية» في جامعة أكسفورد ومعدّ كتاب «الذكاء الخارق»، منذ عقودٍ لهذا اليوم. يعكف بوستروم على تخيّل المستقبل، ويحدّد المخاطر، ويضع أسساً متخيّلة لكيفية التعامل معها، ويتركّز اهتمامه الأكبر على كيفية إدارة عالم مليءٍ بالعقول الرقمية خارقة الذكاء.

نيك بوستروم

حوار علمي

تحدّثنا مع بوستروم عن احتمال تمتّع الذكاء الصناعي بالأحاسيس وكيف يمكن لهذا الأمر أن يعيد تشكيل افتراضاتنا الأساسية حول أنفسنا ومجتمعاتنا.
س: يصرّ كثير من الخبراء على أنّ بوتات المحادثة «ليست حسّاسة» و«لا واعية»، مستخدمين هذين التعبيرين اللذين يصفان الوعي بالعالم المحيط بنا. هل توافق على التقييم الذي يصف البوتات بالمُدخلات التي يُعاد إخراجها؟
ج: الوعي حالة فضفاضة ومعقّدة، متعدّدة الأبعاد، ويصعب تحديدها أو تعريفها. طوّر علماء أعصاب وفلاسفة فرضيات عدّة عن الوعي على مرّ السنوات، ولكن لا يوجد بعدُ توافق على واحدة منها. يمكن للباحثين مثلاً أن يحاولوا تطبيق هذه الفرضيات المختلفة لاختبار حسيّة أنظمة الذكاء الصناعي.
ولكنّني شخصياً أرى أنّ الإحساس مسألة متدرّجة، وكنتُ أودّ لو أستطيع أن أنسب درجة طفيفة من الإحساس لمجموعة واسعة من الأنظمة كالحيوانات. وإذا كان النّاس مستعدّين للاعتراف بأن مسألة الإحساس ليست «كلّ شيء أو لا شيء»، فعندها لن نبالغ إذا قلنا إنّ بعض هذه البوتات أو الأنظمة قد تملك بعض درجات الإحساس.
في البداية، في مسألة النماذج اللغوية الكبيرة، أعتقد أنّه ليس من الإنصاف أن نصفها بالنصوص المدخلة والمُعاد إخراجها؛ لأنّها ببساطة تُظهر ملامح لافتة من الإبداع والتفكير والفهم، حتّى إنّها قد توحي بمستويات بدائية من المنطق. قريباً، قد تطوّر هذه الأنواع من الذكاء الصناعي مفهوماً ثابتاً للذات، وتبدي مراعاة لبعض الرغبات، وتتفاعل مع المجتمع، وتبني علاقات مع البشر.

أحاسيس الذكاء الصناعي

س: ما الذي قد يحدث إذا أصرّ الذكاء الصناعي، ولو قليلاً، على أن يكون حساساً؟
ج: إذا أظهر الذكاء الصناعي نوعاً من الإحساس، إذن فسيكون لديه أيضاً مستوى معيّناً من الأخلاق، مما يعني أنه سيكون من الخطأ التعامل معه بأساليب معيّنة تشبه ركل أحدهم كلباً، أو إجراء الجرّاحين عملية جراحية على فأر من دون تخديره.
تعتمد التداعيات الأخلاقية على نوع ودرجة الأخلاق التي نتحدّث عنها. في الحدّ الأدنى منها، قد يعني الأمر ألا نتسبب له في الألم والمعاناة، وفي الحدّ الأقصى، قد يعني أن نراعي تفضيلاته وأن نحصل على موافقته قبل القيام ببعض الأمور. أعمل في مسألة أخلاقيات العقول الرقمية وأحاول تخيّل عالم مستقبلي توجد فيه عقول بشرية ورقمية من جميع الأنواع ودرجات التعقيد، ودائماً ما أتساءل: كيف نتعايش بطريقة منسجمة؟ الأمر صعب بسبب الافتراضات الكثيرة في الحالة البشرية والتي تحتاج إلى إعادة تفكير.
س: ما بعض هذه الافتراضات التي تحتاج لإعادة تخيّل أو تطوير لاستيعاب البشرية الذكاء الصناعي؟
ج: إليكم 3 جوانب؛ أولاً: البشر إمّا أحياء وإما أموات، بينما تختلف الحال مع العقول الرقمية؛ لأنّها قابلة للتوقيف المؤقّت وإعادة التشغيل لاحقاً.
ثانياً: الفردانية: عند البشر، الاختلاف موجود حتّى بين التوائم المتطابقة، في حين أنّ العقول الرقمية يمكن أن تكون نسخاً متطابقة.
ثالثُا: حاجتنا للعمل: الأعمال التي تحتاج البشر لإتمامها كثيرة في يومنا هذا، الأمر الذي قد ينتفي في حال تحقيق الأتمتة التامّة.
س: هل يمكنكم إعطاء مثال على كيف يمكن لهذه الافتراضات أن تختبرنا، أي تخضعنا للاختبار، على المستوى الاجتماعي؟
ج: مثالٌ واضحٌ آخر هو الديمقراطية؛ ففي الدول الديمقراطية، نتفاخر بأنّنا نعيش في ظلّ حكومة تضمن حريّة التعبير للجميع، ويكون الأمر عادة بصوتٍ واحد لشخصٍ واحد. فكّروا مثلاً في مستقبل تكون فيه العقول مطابقة للعقول البشرية باستثناء أنّها منفّذة على جهاز كومبيوتر. كيف يمكن توسيع الحوكمة الديمقراطية لتشملها؟ ربّما يمكننا إعطاء صوت واحد لكلّ ذكاء صناعي، ومن ثمّ صوت واحد لكلّ إنسان، ولكنّ الأمر ليس بهذه السهولة؛ إذ ما الذي قد يحدث إذا كان البرنامج الرقمي قابلاً للنسخ؟
قبل يومٍ من الانتخابات، يمكن صناعة 10 آلاف نسخة من ذكاء صناعي معيّن والحصول على 10 آلاف صوتٍ إضافي؛ أو ما الذي قد يحدث إذا كان مطوّرو الذكاء الصناعي يستطيعون اختيار القيم والتفضيلات السياسية لهذا الذكاء؟ وإذا كنتم من أصحاب الثروات، فيمكنكم بناء كثير من مشروعات الذكاء الصناعي للحصول على تأثير يوازي حجم ثروتكم.

مخاطر على البشرية

س: عمد أكثر من ألف قائد وباحث من صناعة التقنية، ومنهم إيلون ماسك، أخيراً إلى توجيه رسالة تحذّر من التطوير غير المراقب للذكاء الصناعي؛ لأنّه «يرتّب مخاطر كبيرة على المجتمع والإنسانية». ما مدى مصداقية التهديد الوجودي للذكاء الصناعي؟
ج: لطالما اعتقدتُ أنّ الانتقال إلى تفوّق الذكاء الآلي سيكون مصحوباً بمخاطر كبيرة وبعضها وجودي، وهذا الأمر لم يتغيّر، وأعتقد أيضاً أنّ المدة التي تفصلنا عن هذه المرحلة باتت أقصر من الماضي. يجدر بنا اليوم أن نحضّر أنفسنا لهذا التحدّي. مهّدت العقود الثلاثة الماضية لهذا الأمر، ولكنّنا للأسف كنّا نعيش حالة من الاسترخاء والاكتفاء بمشاهدة ما يحدث بدل التفكير في ما يجب علينا فعله في مجال أخلاقيات وحوكمة الذكاء الخارق المحتمل، وهذا الوقت الضائع لن يعود أبداً.
س: هل يمكنكم التوسّع أكثر في الحديث عن هذه التحديات؟ ما المسائل الأكثر إلحاحاً التي يجب أن يفكّر فيها الباحثون، وصناعة التقنية، وصانعو السياسات؟
ج: أولاً: يجب أن نفكّر في الاصطفاف. كيف نضمن أنّ أنظمة الذكاء الصناعي ذات القدرات المتزايدة التي نبنيها تسير في الاتجاه نفسه الذي يريد مطوّروها أن تسير فيه؟ إنها مشكلة تقنية. وتوجد أيضاً مشكلة الحوكمة. لعلّ المسألة الأهمّ بالنسبة لي هي محاولة مقاربة هذا الأمر بطريقة تعاونية؛ لأنّ الأمر أكبر من أي أحد منّا، أو أي شركة، أو حتّى أي دولة.
ويجب أيضاً أن نتجنّب تصميم نظم ذكاء صناعي يصعّب على الباحثين تحديد ما إذا كانت فعلاً تملك درجة من الأخلاق، كتدريبها مثلاً على رفض فكرة أنّها واعية أو أنّها تملك أخلاقاً في الأساس. صحيحٌ أنّنا لا نستطيع الحكم على المخرجات الشفهية الصادرة عن أنظمة الذكاء الصناعي اليوم، ولكنّنا يجب أن نبحث دائماً - دون محاولة القمع أو الإلغاء - عن إشارات واضحة على أنّ هذه الأنظمة نمّت فعلاً درجة من الإحساس أو الأخلاق.
* خدمة «نيويورك تايمز»


مقالات ذات صلة

رئيس «أبل» للمطورين الشباب في المنطقة: احتضنوا العملية... وابحثوا عن المتعة في الرحلة

تكنولوجيا تيم كوك في صورة جماعية مع طالبات أكاديمية «أبل» في العاصمة السعودية الرياض (الشرق الأوسط)

رئيس «أبل» للمطورين الشباب في المنطقة: احتضنوا العملية... وابحثوا عن المتعة في الرحلة

نصح تيم كوك، الرئيس التنفيذي لشركة «أبل»، مطوري التطبيقات في المنطقة باحتضان العملية بدلاً من التركيز على النتائج.

مساعد الزياني (دبي)
تكنولوجيا خوارزمية «تيك توك» تُحدث ثورة في تجربة المستخدم مقدمة محتوى مخصصاً بدقة عالية بفضل الذكاء الاصطناعي (أ.ف.ب)

خوارزمية «تيك توك» سر نجاح التطبيق وتحدياته المستقبلية

بينما تواجه «تيك توك» (TikTok) معركة قانونية مع الحكومة الأميركية، يظل العنصر الأبرز الذي ساهم في نجاح التطبيق عالمياً هو خوارزميته العبقرية. هذه الخوارزمية…

عبد العزيز الرشيد (الرياض)
خاص تم تحسين هذه النماذج لمحاكاة سيناريوهات المناخ مثل توقع مسارات الأعاصير مما يسهم في تعزيز الاستعداد للكوارث (شاترستوك)

خاص «آي بي إم» و«ناسا» تسخّران نماذج الذكاء الاصطناعي لمواجهة التحديات المناخية

«الشرق الأوسط» تزور مختبرات أبحاث «IBM» في زيوريخ وتطلع على أحدث نماذج الذكاء الاصطناعي لفهم ديناميكيات المناخ والتنبؤ به.

نسيم رمضان (زيوريخ)
خاص يمثل تحول الترميز الطبي في السعودية خطوة حاسمة نحو تحسين كفاءة النظام الصحي ودقته (شاترستوك)

خاص ما دور «الترميز الطبي» في تحقيق «رؤية 2030» لنظام صحي مستدام؟

من معالجة اللغة الطبيعية إلى التطبيب عن بُعد، يشكل «الترميز الطبي» عامل تغيير مهماً نحو قطاع طبي متطور ومستدام في السعودية.

نسيم رمضان (لندن)
خاص من خلال الاستثمارات الاستراتيجية والشراكات وتطوير البنية التحتية ترسم السعودية مساراً نحو أن تصبح قائداً عالمياً في التكنولوجيا (شاترستوك)

خاص كيف يحقق «الاستقلال في الذكاء الاصطناعي» رؤية السعودية للمستقبل؟

يُعد «استقلال الذكاء الاصطناعي» ركيزة أساسية في استراتيجية المملكة مستفيدة من قوتها الاقتصادية والمبادرات المستقبلية لتوطين إنتاج رقائق الذكاء الاصطناعي.

نسيم رمضان (لندن)

«مرايا» الذكاء الاصطناعي تعكس دواخلها «مع كل التحيزات»

«بوابة السحاب» مرآة تعكس الحياة وتشوهاتها
«بوابة السحاب» مرآة تعكس الحياة وتشوهاتها
TT

«مرايا» الذكاء الاصطناعي تعكس دواخلها «مع كل التحيزات»

«بوابة السحاب» مرآة تعكس الحياة وتشوهاتها
«بوابة السحاب» مرآة تعكس الحياة وتشوهاتها

قبل بضع سنوات، وجدت شانون فالور نفسها أمام تمثال «بوابة السحاب (Cloud Gate)»، الضخم المُصمَّم على شكل قطرة زئبقية من تصميم أنيش كابور، في حديقة الألفية في شيكاغو. وبينما كانت تحدق في سطحه اللامع المرآتي، لاحظت شيئاً، كما كتب أليكس باستيرناك (*).

وتتذكر قائلة: «كنت أرى كيف أنه لا يعكس أشكال الأفراد فحسب، بل والحشود الكبيرة، وحتى الهياكل البشرية الأكبر مثل أفق شيكاغو... ولكن أيضاً كانت هذه الهياكل مشوَّهة؛ بعضها مُكبَّر، وبعضها الآخر منكمش أو ملتوٍ».

الفيلسوفة البريطانية شانون فالور

تشويهات التعلم الآلي

بالنسبة لفالور، أستاذة الفلسفة في جامعة أدنبره، كان هذا يذكِّرنا بالتعلم الآلي، «الذي يعكس الأنماط الموجودة في بياناتنا، ولكن بطرق ليست محايدة أو موضوعية أبداً»، كما تقول. أصبحت الاستعارة جزءاً شائعاً من محاضراتها، ومع ظهور نماذج اللغة الكبيرة (والأدوات الكثيرة للذكاء الاصطناعي التي تعمل بها)، اكتسبت مزيداً من القوة.

مرايا الذكاء الاصطناعي مثل البشر

تبدو «مرايا» الذكاء الاصطناعي مثلنا كثيراً؛ لأنها تعكس مدخلاتها وبيانات التدريب، مع كل التحيزات والخصائص التي يستلزمها ذلك. وبينما قد تنقل القياسات الأخرى للذكاء الاصطناعي شعوراً بالذكاء الحي، فإن «المرآة» تعبير أكثر ملاءمة، كما تقول فالور: «الذكاء الاصطناعي ليس واعياً، بل مجرد سطح مسطح خامل، يأسرنا بأوهامه المرحة بالعمق».

غلاف كتاب «مرايا الذكاء الاصطناعي»

النرجسية تبحث عن صورتها

كتابها الأخير «مرآة الذكاء الاصطناعي (The AI Mirror)»، هو نقد حاد وذكي يحطِّم عدداً من الأوهام السائدة التي لدينا حول الآلات «الذكية». يوجه بعض الاهتمام الثمين إلينا نحن البشر. في الحكايات عن لقاءاتنا المبكرة مع برامج الدردشة الآلية، تسمع أصداء نرجس، الصياد في الأساطير اليونانية الذي وقع في حب الوجه الجميل الذي رآه عندما نظر في بركة من الماء، معتقداً بأنه شخص آخر. تقول فالور، مثله، «إن إنسانيتنا مُعرَّضة للتضحية من أجل هذا الانعكاس».

تقول الفيلسوفة إنها ليست ضد الذكاء الاصطناعي، لكي نكون واضحين. وسواء بشكل فردي، أو بصفتها المديرة المشارِكة لمنظمة «BRAID»، غير الربحية في جميع أنحاء المملكة المتحدة المكرسة لدمج التكنولوجيا والعلوم الإنسانية، قدَّمت فالور المشورة لشركات وادي السيليكون بشأن الذكاء الاصطناعي المسؤول.

نماذج «مسؤولة» ومختبرة

وهي ترى بعض القيمة في «نماذج الذكاء الاصطناعي المستهدفة بشكل ضيق والآمنة والمختبرة جيداً والمبررة أخلاقياً وبيئياً» لمعالجة المشكلات الصحية والبيئية الصعبة. ولكن بينما كانت تراقب صعود الخوارزميات، من وسائل التواصل الاجتماعي إلى رفاق الذكاء الاصطناعي، تعترف بأن ارتباطها بالتكنولوجيا كان مؤخراً «أشبه بالوجود في علاقة تحوَّلت ببطء إلى علاقة سيئة. أنك لا تملك خيار الانفصال».

فضائل وقيم إنسانية

بالنسبة لفالور، إحدى الطرق للتنقل وإرشاد علاقاتنا المتزايدة عدم اليقين بالتكنولوجيا الرقمية، هي الاستفادة من فضائلنا وقيمنا، مثل العدالة والحكمة العملية. وتشير إلى أن الفضيلة لا تتعلق بمَن نحن، بل بما نفعله، وهذا جزء من «صراع» صنع الذات، بينما نختبر العالم، في علاقة مع أشخاص آخرين. من ناحية أخرى، قد تعكس أنظمة الذكاء الاصطناعي صورة للسلوك أو القيم البشرية، ولكن كما كتبت في كتابها، فإنها «لا تعرف عن التجربة الحية للتفكير والشعور أكثر مما تعرف مرايا غرف نومنا آلامنا وأوجاعنا الداخلية».

الخوارزميات والعنصرية وعدم المساواة

في الوقت نفسه تعمل الخوارزميات المدربة على البيانات التاريخية، بهدوء، على تقييد مستقبلنا بالتفكير نفسه الذي ترك العالم «مليئاً بالعنصرية والفقر، وعدم المساواة، والتمييز، وكارثة المناخ».

«كيف سنتعامل مع تلك المشكلات الناشئة التي ليست لها سابقة؟»، تتساءل فالور، وتشير: «مرايانا الرقمية الجديدة تشير إلى الوراء».

الاعتماد على السمات البشرية المفيدة

مع اعتمادنا بشكل أكبر على الآلات، وتحسينها وفقاً لمعايير معينة مثل الكفاءة والربح، تخشى فالور أننا نخاطر بإضعاف عضلاتنا الأخلاقية أيضاً، وفقدان المسار للقيم التي تجعل الحياة تستحق العناء.

مع اكتشافنا لما يمكن أن يفعله الذكاء الاصطناعي، سنحتاج إلى التركيز على الاستفادة من السمات البشرية الفريدة أيضاً، مثل التفكير القائم على السياق والحكم الأخلاقي، وعلى تنمية قدراتنا البشرية المتميزة. كما تعلمون. وهي تقول: «لسنا بحاجة إلى هزيمة الذكاء الاصطناعي. نحن بحاجة إلى عدم هزيمة أنفسنا».

* مجلة «فاست كومباني» - خدمات «تريبيون ميديا»

اقرأ أيضاً