بارمي أولسون
TT

أباطرة الذكاء الصناعي بحاجة لإعادة تفكير

يعاين مجال الذكاء الصناعي تطوراً سريعاً للغاية لدرجة أنه حتى العلماء يجدون صعوبة في مواكبته. العام الماضي، بدأت خوارزميات التعلم الآلي في إنتاج أفلام بدائية وصور مزيفة مذهلة، بل وبدأت في كتابة شَفرات. في المستقبل، من المحتمل أن ننظر إلى الوراء لعام 2022 باعتباره العام الذي شهد تحول الذكاء الصناعي من معالجة المعلومات إلى صناعة المحتوى وكذلك الكثير من البشر.
ومع ذلك، ماذا لو نظرنا إلى عام 2022 باعتباره كذلك العام الذي اتخذ فيه الذكاء الصناعي خطوة نحو تدمير الجنس البشري؟ رغم أن الأصوات المحذرة من هذا الأمر مبالغ فيها ومثيرة للسخرية، أعربت شخصيات عامة على رأسها بيل غيتس وإيلون ماسك وستيفن هوكينغ، وكذلك آلان تورينغ فيما مضى، عن مخاوفهم بشأن مصير البشر في عالم تتفوق فيه عليهم الآلات في الذكاء، الأمر الذي دفع ماسك للتحذير من أن الذكاء الصناعي أصبح أشد خطورة من الرؤوس الحربية النووية.
كما حذر عالم الكومبيوتر الأسطوري مارفن مينسكي ذات يوم بأنه بالنظر إلى أن البشر لا يتعاملون مع الأنواع الأقل ذكاءً على نحو جيد، ما الذي يضمن أن الكومبيوترات المدربة على معالجة البيانات التي تعكس جميع جوانب السلوك البشري، لن «تولي أهدافها الخاصة أولوية قبل أهدافنا»؟!
إلا أنه لحسن الحظ، تظل هناك بعض الأخبار الجيدة، ذلك أن المزيد من العلماء يسعون إلى جعل أنظمة التعلم العميق أكثر شفافية وقابلية للقياس. ويجب ألا يتوقف هذا الزخم. ونظراً لأن هذه البرامج أصبحت أكثر تأثيراً في الأسواق المالية ووسائل التواصل الاجتماعي وسلاسل التوريد، ستحتاج شركات التكنولوجيا إلى البدء في إعطاء الأولوية فيما يخص الذكاء الصناعي للسلامة، وليس القدرة.
العام الماضي، وعبر مختبرات الذكاء الصناعي الكبرى في العالم، ركز ما يقرب من 100 باحث يعملون بدوام كامل على بناء أنظمة آمنة، تبعاً لتقرير حالة الذكاء الصناعي لعام 2021 الذي يصدره سنوياً المستثمران في مجال رأس المال المخاطر في لندن، إيان هوغارث وناثان بينايش. وخلص تقريرهما لهذا العام إلى أنه لا يزال هناك حوالي 300 باحث فقط يعملون بدوام كامل على ضمان سلامة الذكاء الصناعي.
وخلال مناقشة دارت بيننا عبر «تويتر سبيسيز»، مؤخراً، حول التهديدات المستقبلية الصادرة عن الذكاء الصناعي، قال هوغارث: «هذا رقم ضئيل للغاية». وأضاف: «الأمر لا يقتصر على الضآلة الشديدة في إعداد الباحثين على مسألة جعل الأنظمة متوافقة، وإنما كذلك أن المجال برمته يفتقر إلى التنظيم بدرجة ما».
كان هوغارث يشير إلى كيف جرى، العام الماضي، إنتاج موجة من أدوات وأبحاث الذكاء الصناعي من قبل مجموعات مفتوحة المصدر، تقول إن الآلات الفائقة الذكاء لا ينبغي أن يتحكم فيها عدد قليل من الشركات الكبيرة وتصنعها سراً.
على سبيل المثال، في أغسطس (آب) 2021، طورت مؤسسة «إلوثر إيه آي» نسخة عامة من أداة قوية بإمكانها كتابة تعليقات ومقالات واقعية حول تقريباً أي موضوع، وأطلقت عليها الشركة اسم «جي بي تي - نيو». كانت الأداة الأصلية، وتحمل اسم «جي بي تي - 3» قد جرى تطويرها من جانب «أوبِن إيه آي»، شركة شارك إيلون ماسك في تأسيسها وتتلقى الجزء الأكبر من تمويلها من «مايكروسوفت كورب»، التي لا توفر سوى إمكانية محدودة للاطلاع على أنظمتها القوية.
وبعد ذلك، شهدنا هذا العام وبعد عدة أشهر من إثارة «أوبِن إيه آي» إعجاب مجتمع الذكاء الصناعي بابتكارها نظاماً ثورياً جديداً لتخليق الصور أطلقت عليه «دال - إي 2»، أصدرت شركة مفتوحة المصدر تدعى «ستيبل ديفيوجن» نسختها الخاصة من هذه الأداة أمام الجمهور مجاناً.
وتتمثل إحدى فوائد البرامج مفتوحة المصدر في أنه من خلال الظهور في العلن، يتولى عدد أكبر من الأشخاص التحري عن البرنامج باستمرار، بحثاً عن أوجه القصور. ويعد هذا السبب في أن «لينوكس» كان تاريخياً أحد أكثر أنظمة التشغيل المتاحة للجمهور أماناً.
إلا أنه في الوقت ذاته فإن طرح أنظمة ذكاء صناعي قوية في العلن يزيد من خطر إساءة استخدامها. وإذا كان الذكاء الصناعي يحمل ضرراً محتملاً مثل فيروس أو تلوث نووي، فربما يكون من المنطقي إضفاء طابع المركزية على جهود تطويره. المعروف أنه يجري فحص الفيروسات في مختبرات للسلامة الحيوية، ويجري تخصيب اليورانيوم في بيئات مقيدة بعناية. كما تخضع الأبحاث المتعلقة بالفيروسات والطاقة النووية للإشراف التنظيمي. ومع ذلك، وفي ظل تأخر الحكومات عن مواكبة الوتيرة السريعة للذكاء الصناعي، لا توجد حتى الآن إرشادات واضحة لجهود التطوير في هذا المجال.
وعن ذلك، قال هوغارث: «لقد حصلنا تقريباً على أسوأ ما في العالمين». ينطوي الذكاء الصناعي على مخاطرة التعرض لإساءة الاستخدام حال بنائه في العراء، لكن أحداً لا يتولى الإشراف على ما يجري عندما يجري تصنيعه خلف الأبواب المغلقة أيضاً.
في الوقت الراهن على الأقل، من المشجع أن نرى تسليط مزيد من الضوء على مشكلة التحكم في الذكاء الصناعي، حيث يعد مجالاً متنامياً يرمي إلى تصميم أنظمة ذكاء صناعي «متوافقة» مع الأهداف البشرية. وتمتلك شركات الذكاء الصناعي الرائدة، مثل «ديب مايند» و«أوبِن إيه آي»، التابعة لشركة «ألفابيت إنك»، فرقاً متعددة تعمل على محاذاة الذكاء الصناعي، وشرع الكثير من الباحثين من هذه الشركات نحو إطلاق شركات ناشئة خاصة بهم، يركز بعضها على جعل الذكاء الصناعي آمناً.
من بين هذه الشركات «أنثروبيك»، ومقرها سان فرانسيسكو، التي غادر الفريق المؤسس لها أعمالهم في «أوبِن إيه آي»، ونجحوا في جمع 580 مليون دولار من مستثمرين في وقت سابق من هذا العام، وكذلك شركة «كونجكتشر» ومقرها لندن، التي جرى دعمها في وقت قريب من جانب مؤسسي «غيتهوب إنك» و«سترايب إنك» و«إف تي إكس تريدينغ ليميتد».
وتعمل «كونجكتشر» بناءً على افتراض أن الذكاء الصناعي سيصبح مكافئاً للذكاء البشري في غضون السنوات الخمس المقبلة، وأن المسار الحالي ينذر بكارثة على الجنس البشري.
إلا أنه عندما استفسرت من الرئيس التنفيذي لشركة «كونجكتشر»، كونور ليهي، عن السبب وراء احتمالية إضرار الذكاء الصناعي بالبشر في المقام الأول، أعطاني إجابة واقعية. وقال: «تخيل أن البشر يريدون إغراق وادٍ لبناء سد لتوليد الطاقة الكهرومائية، وهناك نمل يعيش في الوادي. هذا لن يمنع البشر من بناء السد، وسوف تغمر المياه مساكن النمل على الفور. لم يفكر أي إنسان في أي وقت في إيذاء النمل. لقد أرادوا فقط المزيد من الطاقة، وكانت هذه الطريقة الأكثر فاعلية لتحقيق هذا الهدف. وبالمثل، سيحتاج الذكاء الصناعي المستقل إلى مزيد من الطاقة وتواصل أسرع ومزيد من الذكاء لتحقيق أهدافهم».
ويرى ليهي أنه لمنع هذا المستقبل المظلم، يحتاج العالم إلى «مجموعة من الرهانات»، بما في ذلك التدقيق في خوارزميات التعلم العميق لفهم كيفية اتخاذ القرارات بشكل أفضل، ومحاولة منح الذكاء الصناعي المزيد من التفكير المنطقي الشبيه بما يحظى به الإنسان.
حتى لو بدت مخاوف ليهي مبالغاً فيها، من الواضح أن الذكاء الصناعي ليس على مسار يتماشى تماماً مع المصالح البشرية. وليس عليك للتأكد من ذلك سوى النظر إلى الجهود الحديثة لبناء «روبوتات الدردشة». من جهتها، تخلت «مايكروسوفت» عن برنامج الروبوت «تاي» الذي أطلقته عام 2016 والذي تعلم من التفاعل مع مستخدمي «تويتر»، بعدما نشر رسائل عنصرية ومشحونة جنسياً في غضون ساعات من إطلاقه. وفي أغسطس (آب) من هذا العام، أطلقت شركة «ميتا بلاتفورمز إنك» برنامج دردشة ادعى أن الرئيس السابق دونالد ترمب لا يزال رئيساً، بعد أن تدرب على الرسائل النصية العامة عبر الإنترنت.
لا أحد يعرف ما إذا كان الذكاء الصناعي سيحدث دماراً في الأسواق المالية أو ينسف سلسلة التوريد الغذائي يوماً ما، لكن بمقدوره تحريض البشر ضد بعضهم البعض من خلال وسائل التواصل الاجتماعي، وهو أمر يمكن القول إنه يحدث بالفعل.

* بالاتفاق مع «بلومبرغ»