حذر خبير رفيع المستوى في أنظمة الذكاء الصناعي من إمكانية تسبب هذه الأنظمة في موت جميع البشر، مؤكداً أن حظر تطويرها ومعاقبة من ينتهك هذا الحظر بقسوة هما الطريقة الوحيدة لإنقاذ البشرية من الانقراض.
وكتب إليعازر يودكوسكي، المؤسس المشارك لمعهد أبحاث ذكاء الآلة (MIRI)، مقال رأي لمجلة «تايم»، أوضح فيه سبب عدم توقيعه على عريضة تدعو «جميع مختبرات الذكاء الصناعي إلى التوقف فوراً لمدة 6 أشهر على الأقل عن تدريب أنظمة الذكاء الصناعي الأكثر قوة من نظام (جي بي تي - 4)، الذي أصدرته شركة (OpenAI) في وقت سابق من هذا الشهر».
وقال يودكوسكي إن العريضة، التي وقعها 1377 من علماء الكومبيوتر البارزين، وغيرهم من كبار صناع التكنولوجيا، ومن بينهم مالك شركة «تسلا» للسيارات الكهربائية، إيلون ماسك، والمؤسس المشارك لشركة «آبل» ستيف وزنياك، كانت «تطالب بحلول ضعيفة جداً» للمشكلة التي يتسبب فيها التطور السريع وغير المنضبط للذكاء الصناعي.
وكتب يودكوسكي: «النتيجة الأكثر ترجيحاً لتطوير أنظمة ذكاء صناعي خارقة هي أن كل شخص على وجه الأرض سيموت حرفياً».
https://twitter.com/aawsat_News/status/1641427807468425218?s=20
وجادل بأن النجاة من مواجهة مع نظام كومبيوتر «لا يهتم بالبشر بشكل عام» تتطلب «الدقة والإعداد والرؤى العلمية الجديدة» التي تفتقر إليها البشرية في الوقت الحالي، ومن غير المرجح أن تحصل عليها في المستقبل المنظور.
وحذر يودكوسكي من أن «الذكاء الصناعي لن يظل مقيداً داخل أجهزة الكومبيوتر لفترة طويلة، بل من الممكن بالفعل أن يقوم بإرسال سلاسل الحمض النووي بالبريد الإلكتروني إلى المعامل لإنتاج بروتينات ستسمح له بتطوير حياة صناعية والخروج إلى العالم».
ووفقاً للباحث، يجب على الفور فرض حظر عالمي وغير محدود على الدورات التدريبية الرئيسية الجديدة في مجال الذكاء الصناعي.
وأضاف أن التهديد من الذكاء الصناعي كبير لدرجة أنه يجب أن يكون «واضحاً في الدبلوماسية الدولية بأن منع سيناريوهات انقراض البشرية بسبب الذكاء الصناعي يعد أولوية فوق منع التبادل النووي الكامل».
خبير يحذر: الذكاء الصناعي قد يتسبب في فناء البشرية
خبير يحذر: الذكاء الصناعي قد يتسبب في فناء البشرية
لم تشترك بعد
انشئ حساباً خاصاً بك لتحصل على أخبار مخصصة لك ولتتمتع بخاصية حفظ المقالات وتتلقى نشراتنا البريدية المتنوعة