قبل نحو شهر حذر خبراء استعانت بهم شركة «أوبن إيه إي» لتقييم تطبيق «تشات جي بي تي 4» قبل إصداره، من أن التطبيق يمكن استخدامه للمساعدة على إنتاج سلاح كيميائي، واليوم يؤكد خبراء «الإرهاب» هذه التحذيرات، مشيرين إلى إمكانية استخدام روبوتات الدردشة في «تجنيد إرهابيين».
وأعرب خبراء عن قلقهم من أن برامج الدردشة الإلكترونية التي تعمل بالذكاء الاصطناعي «يمكن أن تكون أداة لإقناع الأفراد الضعفاء أو المختلفين في الآراء والأفكار بتنفيذ هجمات (إرهابية)»، وهو القلق الذي غذته قضية الشاب ماثيو كينغ، ابن الـ19 عاما، المقيم في بريطانيا، والذي صدر بحقه يوم الجمعة الماضي حكم بالسجن مدى الحياة بتهمة التخطيط لهجوم «إرهابي»، وذلك بعد مشاهدة مواد «متطرفة» على الإنترنت، بحسب تقرير نشرته صحيفة «الغارديان» البريطانية (الأحد).
وأشار خبراء إلى أن «السرعة التي تحول بها هذا الشاب إلى التطرف كانت بواسطة برامج الدردشة الإلكترونية التي تعمل بالذكاء الاصطناعي، حيث يتضح بشكل متزايد خطورة تجنيد الأفراد الضعفاء من غرف نومهم بواسطة هذه الأدوات».
ونقلت «الغارديان»، عن جوناثان هول كيه سي، من هيئة مراقبة «الإرهاب»، والذي يتمثل دوره في مراجعة مدى كفاية تشريعات «الإرهاب»، قوله إن «ما يقلقني هو إمكانية الإيحاء لدى البشر عندما يكونون منغمسين في هذا العالم وليس أمامهم سوى الكومبيوتر، حيث يجدون برامج الدردشة البارعة في استخدام اللغة التي تقنعهم بفعل الأشياء».
وبينما يركز مبتكرو الذكاء الاصطناعي على الحديث عن إيجابياته التي ستغير وجه العالم إلى الأفضل، يرى هول كيه سي، أنهم بحاجة إلى التخلي عن عقلية «اليوتوبيا التكنولوجية»، وسط مخاوف من إمكانية استخدام التكنولوجيا الجديدة لتجنيد الإرهابيين.
وتابع أن «تهديد الأمن القومي بواسطة الذكاء الاصطناعي أصبح أكثر وضوحا من أي وقت مضى، وأن مبتكري التكنولوجيا بحاجة إلى وضع نوايا (الإرهابيين) في الاعتبار عند تصميمها».
ومع تزايد الدعوات إلى تنظيم التكنولوجيا بعد تحذيرات رواد الذكاء الاصطناعي من أنها قد تهدد بقاء الجنس البشري، من المتوقع أن يثير رئيس الوزراء، ريشي سوناك، القضية عندما يسافر إلى الولايات المتحدة يوم الأربعاء المقبل، للقاء الرئيس بايدن وكبار الشخصيات في الكونغرس.
ويتسق هذا التحرك مع جهود تبذلها المملكة المتحدة لمواجهة تحديات الأمن القومي التي يفرضها الذكاء الاصطناعي بالشراكة بين وكالة الاستخبارات والأمن المحلية في المملكة المتحدة، والمعروفة باسم (MI5) ومعهد آلان تورينج، الهيئة الوطنية لعلوم البيانات والذكاء الاصطناعي.
ويقول ألكسندر بلانشارد، الباحث في الأخلاقيات الرقمية في برنامج الدفاع والأمن التابع للمعهد، إن «عمله مع خدمات الأمن يشير إلى أن المملكة المتحدة تتعامل مع التحديات الأمنية التي يطرحها الذكاء الاصطناعي على محمل الجد، حيث يوجد استعداد كبير بين صانعي السياسة الدفاعية والأمنية لفهم ما يحدث، وكيف يمكن للجهات الفاعلة أن تستخدم الذكاء الاصطناعي، وما هي التهديدات».
ويضيف أن «هناك حقا شعورا بالحاجة إلى مواكبة ما يحدث، ويتم العمل على فهم ما هي المخاطر الحالية، وما هي المخاطر طويلة الأجل وما هي مخاطر تكنولوجيا الجيل التالي».
ومع الإدراك البريطاني للتحديات الأمنية التي يفرضها الذكاء الاصطناعي، فإن سوناك قال، الأسبوع الماضي، إن «بريطانيا تريد أن تصبح مركزا عالميا للذكاء الاصطناعي وتنظيمه»، وأصر على أنه يمكن أن تقدم «فوائد هائلة للاقتصاد والمجتمع».
ويقول كل من بلانشارد وهول كي سي، إن القضية المركزية هي كيف يمكن للبشر السيطرة على الذكاء الاصطناعي، بحيث يتم تعظيم فوائده وتجنب أضراره.
ومع ضرورة الوعي بالتحديات الأمنية والعمل على مواجهتها، يخشى يورغن شميدهوبر، مدير مبادرة الذكاء الاصطناعي بجامعة الملك عبد الله للعلوم والتكنولوجيا بالسعودية «كاوست»، من أن «تصدير الحديث عن السلبيات، قد يوحي بأن (الذكاء الاصطناعي شر محض)، وهذا ليس صحيحا، حيث تفوق إيجابيات الذكاء الاصطناعي سلبياته إلى حد بعيد».
وقال شميدهوبر، والمعروف في الأوساط العلمية والأكاديمية بأنه «أحد آباء الذكاء الاصطناعي القدامى» في تصريحات سابقة لـ«الشرق الأوسط» إن «حديث الأخطار والسلبيات دائماً ما يجذب الاهتمام الجماهيري، بشكل يفوق حديث الإيجابيات، وهذا هو السبب في أن أفلام (أرنولد شوارزنيغر) عن الروبوتات القاتلة، تحظى بشعبية أكبر من الأفلام الوثائقية حول فوائد التطبيقات الطبية للذكاء الاصطناعي».
ويقول مصطفى العطار، الباحث في مجال الذكاء الاصطناعي بجامعة النيل الأهلية بمصر لـ«الشرق الأوسط»، إن «تجميد قدرة روبوتات الدردشة على التعلم الذاتي يمكن أن يحد كثيرا من أخطارها، وهذا ما يجب أن تتم المطالبة به، لضمان عدم إساءة استخدامها».
ويضيف أن «هذا التجميد يعني أن روبوت الدردشة لن يستعين بأي مصادر جديدة غير المصادر التي تم إدخالها إليه عند برمجته، وبالتالي يمكن من حين لآخر تحديث تلك المصادر، وضمان أن يكون هناك تحكم في المعلومات التي يقدمها».