في مراجعة شاملة تلقي الضوء على مجال الذكاء الاصطناعي الناشئ، يرفع د. رومان فـ. يامبولسكي، الخبير الرائد في أمن الذكاء الاصطناعي بجامعة لويزفيل الأميركية، الصوت مشكّكاً بقدرة البشرية على السيطرة على هذه التقنية.
الذكاء الاصطناعي يهيكل المجتمعات
في كتابه المقبل «الذكاء الاصطناعي: غير القابل للشرح والتنبؤ والسيطرة»، يغوص الخبير في أشكال إعادة هيكلة الذكاء الاصطناعي لمجتمعاتنا والتي لن تكون دائماً للأفضل. وتوصلت تحقيقاته في الأدب العلمي المحيط بالذكاء الاصطناعي إلى خلاصة صاعقة: لا يوجد حالياً دليلٌ يرجّح إمكانية السيطرة على الذكاء الاصطناعي.
يشير بحث الدكتور يامبولسكي إلى خطرٍ وجودي محتمل تمثله هذه التقنية، ويقول: «نحن نواجه حدثاً قادراً على التسبّب بكارثة وجودية». يسلّط هذا التحذير الصارخ الضوء على سيفٍ ذي حدّين لتطوّر الذكاء الاصطناعي: الوعد بالازدهار غير المسبوق، يقابله خطر الانقراض.
طرائق الذكاء لا يمكن فهمها
يرى الخبير استهانة هائلة في تحدّي السيطرة على الذكاء الاصطناعي؛ إذ على الرغم من مكاسبه المحتملة، فإن قدرة الذكاء الاصطناعي على التعلّم، والتكيّف، والتصرّف بشكلّ شبه مستقلّ في الأوضاع المستجدّة، تضعنا أمام عددٍ لا يُعدّ ولا يُحصى من المشاكل المرتبطة بالسلامة. يكمن أصل هذه المسألة في طبيعة أنظمة الذكاء الاصطناعي التي تُشبه «الصندوق الأسود»، حيث تُتخذ القرارات بطرائق لا يستطيع البشر فهمها أو توقّعها تلقائياً.
في عالم الذكاء الخارق، تتضاءل القدرة على الحفاظ على السيطرة في ظلّ تصاعد استقلالية الذكاء الاصطناعي. ويحاجج الدكتور يامبولسكي بأنّ العناصر الأقلّ ذكاءً، كالبشر، لا يستطيعون السيطرة إلى الأبد على العناصر الأكثر ذكاءً، كالذكاء الاصطناعي، شارحاً أنّ المسألة هنا ليس تحدياً تقنياً، بل وضعاً مستحيلاً نظراً لطبيعة الذكاء الخارق.
اصطفاف أم معادة للقيم الإنسانية؟
علاوةً على ذلك، تضعنا المطالبة بذكاء اصطناعي منحاز للأخلاق والقيم أمام مفارقة. فبينما يُرى اصطفاف الذكاء الاصطناعي إلى جانب القيم الإنسانية بوصفه وسيلة لضمان السلامة، لا تزال هذه التقنية تحمل في طيّاتها الكثير من الانحياز الذي لا يفضي دوماً إلى نتائج أخلاقية أو إيجابية حتى ولو كان مناصراً للبشر.
يدعم يامبولسكي مقاربة متوازنة لتطوير الذكاء الاصطناعي، يُصار فيها إلى قياس المكاسب المحتملة مقابل المخاطر.
الذكاء الاصطناعي يَعِد بالازدهار غير المسبوق يقابله خطر الانقراض
تصميم لمراعاة الفهم البشري
ويقترح الخبير أن يُعمد إلى تصميم أنظمة ذكاء اصطناعي تراعي قابلية التعديل، والشفافية، والفهم البشري. ويدعو أيضاً إلى المزيد من الجهود والتمويل للأبحاث التي تدرس أمن الذكاء الاصطناعي، مشيراً إلى أنّ الذكاء الاصطناعي الآمن بالكامل ليس قابلاً للتحقيق، ولكن إجراء تحسينات وازنة قد يساعد في تقليل المخاطر.
تتسم نتائج أبحاث الدكتور يامبولسكي بالعمق، وتحثّ على إعادة تقييم مسيرة تطوير الذكاء الاصطناعي. فمن دون الضوابط المناسبة، يضع دمج الذكاء الاصطناعي في مجالات حساسة كالعناية الصحية، والموارد المالية، والأمن، البشرية أمام مخاطر كبيرة على المستويين الأخلاقي والأمني. يكمن التحدّي الأكبر في إيجاد طريقة لتسخير مكاسب الذكاء الاصطناعي وضمان انحيازه للقيم الإنسانية والسيطرة عليه، هذه المهمّة التي يشدّد الخبير على أهميتها العظيمة لمستقبل البشرية.
مع استمرار تطوّر الذكاء الاصطناعي، سيبقى الجدل حول سلامته، والسيطرة عليه، وتبعاته الأخلاقية في مقدّمة الخطابين العلمي والشعبي. وحسب موقع «سبايس وور» الإلكتروني، فإن الدكتور يامبولسكي يسلط الضوء على الحاجة الملحّة لجهود عالمية متضافرة تواجه المخاطر المحتملة للذكاء الاصطناعي غير الخاضع للسيطرة.
طريق المستقبل غامض، ولكنّ الدعوة إلى التحرّك واضحة: السير في طريق تطوير الذكاء الاصطناعي بحذر وحكمة، والتزام عميق بحماية مستقبل البشرية.