حذر جورج ييجون تيان، الأكاديمي المتخصص في القانون بجامعة التكنولوجيا في سيدني، من «خدعة» يتورط فيها المتفاعلون مع تطبيقات الذكاء الاصطناعي والمتعلقة بأن «الراحة التي توفرها، لا تجعلنا نهتم بالحذر منها»، داعياً في حوار مع «الشرق الأوسط» إلى إعطاء الأولوية لـ«سلامة البشر قبل رفاهيتهم» عند التعاطي المستقبلي مع القطاع.
وقدم تيان الذي تحدث إلى «الشرق الأوسط»، عبر البريد الإلكتروني، مساهمات عدة في مجالات «القانون الإلكتروني، والملكية الفكرية، والمعاملات التجارية عبر الحدود»، كما شارك في دراسة بحثية اهتمت بالتحقيق في «القضايا الأخلاقية المحيطة بالذكاء الاصطناعي»، نشرتها دورية «النظم القائمة على المعرفة»، في يونيو (حزيران) 2021. ويرى تيان أن «هناك ثلاث تحركات يجب تنفيذها لضمان أن تطبيقات الذكاء الاصطناعي ستعطي الأولوية لرفاهية الإنسان».
ويشرح أن «أول التحركات يتمثل في تطوير إطار عمل لتقييم المخاطر الأخلاقية للذكاء الاصطناعي ما من شأنه المساعدة في ترقية الوعي العام بالجوانب السلبية، أما التحرك الثاني فهو: الاستثمار ببرامج التعليم والتدريب لمساعدة الأفراد على اكتساب المهارات والمعرفة للتكيف مع أسواق العمل المتغيرة، وأخيراً، يأتي التأكد من أن صناع السياسات وقادة الأعمال والمنظمين يتبنون نهجاً مسؤولاً وأخلاقياً لنشر الذكاء الاصطناعي».
وأوضح تيان أن «الخوف والخطر يأتيان من أن الراحة التي يوفرها الذكاء الاصطناعي قد تخدعنا ولا تجعلنا نهتم بالحذر منه، وهذا من شأنه أن يحول دفة تطبيقات الذكاء الاصطناعي (...) وتقويض القيم والأولويات الإنسانية».
ويشدد الخبير القانوني على أن تطوير الذكاء الاصطناعي ونشره «يجب أن يعطيا الأولوية لسلامة الإنسان ورفاهيته، وأن يخضعا لتدقيق أخلاقي وقانوني»، مشيراً إلى «ضرورة حظر تطبيقات الذكاء الاصطناعي، المستخدمة في الأسلحة أو تلك التي تنتهك حقوق الإنسان وتديم التحيزات، عبر معاهدات دولية، على غرار معاهدات حظر الأسلحة النووية». وقال تيان إنه «قد لا تكون هناك حاجة عاجلة لقوانين جديدة للذكاء الاصطناعي، ولكن يجب على الجهات الحكومية المنظمة إصدار الإرشادات لتوضيح النصوص في التشريعات الحالية، التي قد تتضمن عقوبات على بعض الممارسات غير المنضبطة من الذكاء الاصطناعي، لكن هذا لا يمنع أن تكون هناك مرونة تسمح بتحديث القوانين حسب الحاجة».
وحول مخاوف أثارتها بعض أفلام الخيال العلمي، وتم خلالها الترويج لخطر سيطرة الآلات على البشر، قال إن «دراستنا كشفت عن أن هناك احتمالية لسيناريوهات واقعية مماثلة لتلك التي يتم تصويرها في أفلام الخيال العلمي». وأضاف: «نحن كبشر، يجب أن نركز على إدارة نقاط ضعفنا ورغباتنا، والامتناع عن تفضيل الراحة على الحذر».
وتطرق تيان إلى قضية «التشهير» التي أثارها مسؤول أسترالي قدم تطبيق «تشات جي بي تي» معلومات خاطئة عنه، وقال: «للأسف، يبدو أن التركيز الحالي للباحثين على استخدام الذكاء الاصطناعي، مثل (تشات جي بي تي) هو إنشاء محتوى جديد، بدلاً من تطوير أدوات قائمة على الذكاء لكشف المحتوى الذي يحتمل أن يكون تشهيرياً والإبلاغ عنه». وأضاف أنه «من المهم تثقيف الأفراد، وباحثي الذكاء الاصطناعي والمخترعين، حول مخاطر المعلومات الخاطئة، بالإضافة إلى مسؤولياتهم الاجتماعية والقانونية عند تطوير تكنولوجيا الذكاء الاصطناعي واستخدامها».