في خطوة تظهر التزام المملكة بالممارسات الأخلاقية في الذكاء الاصطناعي، أطلقت الهيئة السعودية للبيانات والذكاء الاصطناعي (سدايا)، وثيقة استطلاع آراء العموم للتزييف العميق.
جاء ذلك على هامش القمة العالمية للذكاء الاصطناعي في نسختها الثالثة، المقامة حالياً في الرياض، وسط حضور كبير محلي وإقليمي ودولي، بحضور رئيس «سدايا» الدكتور عبد الله الغامدي، ونائب الرئيس سامي مقيم، ومدير مركز المعلومات الوطنية الدكتور عصام الوقيت، ورئيس مكتب إدارة البيانات الوطنية في الهيئة السعودية للبيانات والذكاء الاصطناعي، الربدي بن فهد الربدي.
وتهدف الاتفاقية إلى إظهار التزام المملكة بتخفيف مخاطر التزييف العميق، ورفع مستوى الوعي بالاستخدامات غير الضارة، وتأكيد أيضاً ريادة البلاد في هذا المجال.
وتتصدى الوثيقة لعمليات التزييف العميق باستخدام أدوات الذكاء الاصطناعي للإسهام في رفع الوعي وإيضاح الأسلوب الأمثل للاستفادة من هذه التقنيات الواعدة، والتعريف بطرق الاستخدام المسؤول.
وتنسجم هذه الوثيقة مع جهود «سدايا» في تنظيم الذكاء الاصطناعي التي عملت عليها منذ إنشائها مع دعم مبادرات تنمية البحث والتطوير والابتكار في المملكة بما ينعكس على مستوى جودة الخدمات التي تقدمها المملكة للأفراد ويضمن الاستخدام المسؤول لتطبيقات الذكاء الاصطناعي.
وتمكن المبادئ التوجيهية أصحاب المصلحة من تسخير الإمكانات الإيجابية للتزييف العميق مع تحديد مخاطرها، وضمان أن يكون المستقبل الرقمي آمن، وتقييم النضج الأخلاقي لنظم الذكاء الاصطناعي، ووضع تنظيمات تدعم الاستخدام المسؤول للاستفادة من هذه التطبيقات.
وألقى الربدي في جلسة خلال القمة قال فيها إن الذكاء الاصطناعي يواجه تحديات بسبب تقنيات «التزييف العميق» التي تجلب عدداً من مخاطر مثل: نشر المعلومات المضللة، وانتهاك الخصوصية، واستغلال هذه التقنيات في عمليات الاحتيال وسرقة الهوية.
وواصل: «نؤمن بأن معالجة مثل هذه التحديات تتطلب منهجية متوازنة لتشجع الابتكار مع الحفاظ على المعايير الأخلاقية، والثقة المجتمعية».
وأضاف أن «سدايا» قدمت عام 2022 وثيقة مبادئ أخلاقيات الذكاء الاصطناعي خلال القمة العالمية للذكاء الاصطناعي في نسختها الثانية، واليوم تعلن عن الوثيقة الجديدة حول التزييف العميق التي أصبحت الآن متاحة لمرئيات العموم.
وأوضح أن الهدف من هذه المبادئ الاستفادة من مزايا تقنيات التزييف العميق الإيجابية والحد من مخاطرها، داعياً جميع الأطراف المعنية وأصحاب المصلحة إلى مراجعتها وتقديم مرئياتهم بشأنها، والإسهام في تحسينها، بهدف ضمان استخدام تقنيات الذكاء الاصطناعي بطريقة أخلاقية بحيث يمكن تحقيق أقصى استفادة من هذه التقنية مع حماية المجتمع من المخاطر المحتملة.