كيف تحاول دول العالم تنظيم الذكاء الاصطناعي؟

وكالة إشراف أميركية وقواعد أوروبية صارمة وليونة يابانية

كيف تحاول دول العالم تنظيم الذكاء الاصطناعي؟
TT

كيف تحاول دول العالم تنظيم الذكاء الاصطناعي؟

كيف تحاول دول العالم تنظيم الذكاء الاصطناعي؟

هل بإمكان الذكاء الصناعي توليد معلومات خاطئة وتوظيف التزييف العميق للصور؟

الحقيقة أن هناك الكثير من الإثارة حول قدرة الذكاء الاصطناعي التوليدي على إنشاء محتوى، بدءاً من حالات الاستخدام في إنتاج مواد تسويقية، إلى ترجمة أصوات مقدمي البودكاست إلى لغات مختلفة.

توليد معلومات غير موثّقة

ولكن مع الوعود الكبيرة تأتي مخاوف كبيرة، بما في ذلك -على سبيل المثال لا الحصر- انتشار المعلومات الخاطئة على نطاق واسع، وخصوصاً عبر التزييف العميق، واستخدام أعمال المبدعين دون إسناد، وخسارة هائلة في الوظائف بفضل الأتمتة.

ومع وضع هذه الجوانب السلبية المحتملة في الحسبان، تحاول الحكومات في جميع أنحاء العالم إنشاء لوائح تنظيمية، أو قوانين للذكاء الاصطناعي، تعمل على تعزيز السلامة والاستخدام العادل، مع الاستمرار في تشجيع الابتكار.

تنظيمات وقوانين

* الولايات المتحدة: سمحت حكومة الولايات المتحدة حتى الآن لشركات التكنولوجيا بوضع ضماناتها الخاصة حول الذكاء الاصطناعي، لكن المشرعين يقولون إن تنظيم الذكاء الاصطناعي ضروري؛ إذ عقدوا اجتماعات متعددة في عام 2023 مع شركات الذكاء الاصطناعي الرائدة من «OpenAI» إلى «Nvidia». وناقش المشرعون متطلبات الترخيص، وإصدار الشهادات لنماذج الذكاء الاصطناعي عالية المخاطر عند الضرورة.

* أميركا تخطط لإنشاء وكالة خاصة للإشراف على خدمات الذكاء الاصطناعي*

في الوقت نفسه، قالت الوكالات الفيدرالية، مثل مكتب الحماية المالية للمستهلك، ووزارة العدل، ولجنة تكافؤ فرص العمل، ولجنة التجارة الفيدرالية، إن الكثير من تطبيقات الذكاء الاصطناعي تخضع بالفعل للقوانين الحالية.

تجنّب التقييدات خانقة للابتكار

* المملكة المتحدة: تريد المملكة المتحدة، التي تعد موطناً لشركات الذكاء الاصطناعي، مثل مختبر الذكاء الاصطناعي «ديب مايند»، التابع لشركة «غوغل»، وشركة «سينثيسيا» لصناعة فيديو الذكاء الاصطناعي، تجنب التشريعات الصارمة التي يمكن أن تخنق الابتكار. وذكرت «رويترز» أن التنظيم سيستند إلى مبادئ، مثل السلامة والشفافية والعدالة والمساءلة.

تريد حكومة المملكة المتحدة أيضاً أن تلعب دوراً رئيسياً في تنظيم الذكاء الاصطناعي. ومن المتوقع أن تعقد أول قمة لها حول سلامة الذكاء الاصطناعي في الأول والثاني من نوفمبر (تشرين الثاني). وقال رئيس الوزراء ريشي سوناك في بيان: «لطالما كانت المملكة المتحدة موطناً للتقنيات التحويلية للمستقبل... ولتبني الفرص الاستثنائية التي يوفرها الذكاء الاصطناعي بشكل كامل، يجب علينا السيطرة على المخاطر، ومعالجتها لضمان تطورها بأمان في السنوات المقبلة».

وتخطط الدولة لتقسيم المسؤولية عن إدارة الذكاء الاصطناعي بين الهيئات التنظيمية الحالية لحقوق الإنسان والصحة والسلامة والمنافسة، بدلاً من إنشاء هيئة جديدة مخصصة للتكنولوجيا، التي تختلف عن الهيئات التنظيمية الأميركية التي ناقشت إنشاء هيئة مستقلة للإشراف على تراخيص الذكاء الاصطناعي، ونماذج الذكاء الاصطناعي عالية المخاطر. وكان الأكاديميون قد انتقدوا الهيئة التنظيمية المستقلة، قائلين إن إنشاء وكالة جديدة تماماً سيستغرق بعض الوقت.

قواعد وقوانين أوروبية صارمة

الاتحاد الأوروبي، منذ عام 2021، يعمل الاتحاد الأوروبي، الذي يتمتع بسجل حافل في تنفيذ قواعد أكثر صرامة على صناعة التكنولوجيا مقارنة بالمناطق الأخرى، على إقرار قانون الذكاء الاصطناعي، الذي سيكون أول قانون للذكاء الاصطناعي في الغرب.

* تحظر القواعد الأوروبية المقترحة الاستخدامات التدخلية والتمييزية للذكاء الاصطناعي*

يقترح القانون تصنيف أنظمة الذكاء الاصطناعي حسب المخاطر. ستواجه الأنظمة عالية المخاطر، بما في ذلك أدوات توظيف الذكاء الاصطناعي، وبرامج تسجيل الاختبارات، معايير امتثال أكبر، مثل التحقق من صحة البيانات والتوثيق، مقارنة بالأنظمة الأقل خطورة.

تحظر القواعد المقترحة أيضاً الاستخدامات التدخلية والتمييزية للذكاء الاصطناعي، مثل أنظمة تحديد الهوية البيومترية عن بعد في الوقت الفعلي في الأماكن العامة، أو أنظمة السياسة التنبؤية القائمة على التنميط.

في الشهر الماضي، قال عضو لجنة المفوضية الأوروبية، تيري بريتون، إن الاتحاد الأوروبي يعمل على تطوير ميثاق للذكاء الاصطناعي، من شأنه أن يساعد الشركات على الاستعداد لتنفيذ قانون الذكاء الاصطناعي، وإن الشركات الناشئة -وليس فقط شركات التكنولوجيا الكبرى- بحاجة إلى أن يتم تضمينها في المناقشات حول تطوير حوكمة الذكاء الاصطناعي. كانت الشركات الناشئة أعلنت في الماضي أن التنظيم المقترح للاتحاد الأوروبي مقيد للغاية.

* خدمات الذكاء الاصطناعي التوليدي في الصين تخضع لتقييم أمني*

تقييم أمني صيني

* الصين: في الصين يجب أن يخضع مقدمو خدمات الذكاء الاصطناعي التوليدي لتقييم أمني، ويجب أن تلتزم أدوات الذكاء الاصطناعي بالقيم الاشتراكية. لكن تكنولوجيا الذكاء الاصطناعي التوليدية، التي تم تطويرها للاستخدام خارج البلاد فقط، معفاة من القواعد. وتمتلك شركات التكنولوجيا الصينية، مثل «بايدو»، و«تينسينت»، و«هواوي»، مراكز بحث وتطوير في وادي السيليكون.

ولمنافسة «تشات جي بي تي» من شركة «أوبن إيه إي»، أعلنت «علي بابا» و«بايدو» و«جاي دي» أكبر شركات الإنترنت في البلاد، عن تطوير روبوتات الدردشة الخاصة بها، التي تعمل بالذكاء الاصطناعي. في الماضي، قالت الصين إنها تريد أن تكون الرائدة عالمياً في مجال الذكاء الاصطناعي بحلول عام 2030، ووضعت خططاً لتسويق الذكاء الاصطناعي تجارياً في عدد من المجالات، من المدن الذكية إلى الاستخدامات العسكرية، حسبما ذكرت شبكة CNBC.

ليونة يابانية

* اليابان: تميل اليابان نحو قواعد أكثر ليونة تحكم استخدام الذكاء الاصطناعي. وفي الأسبوع الفائت تعهد رئيس الوزراء فوميو كيشيدا بأن الحزمة الاقتصادية التالية ستشمل تمويل تطوير الذكاء الاصطناعي في الشركات الصغيرة والمتوسطة الحجم، وهو ما يمكن أن يساعد في تعزيز ريادة اليابان المفقودة في مجال التكنولوجيا.

قالت اليابان أيضاً إن استخدام الصور المحمية بحقوق الطبع والنشر لتدريب نماذج الذكاء الاصطناعي لا ينتهك قوانين حقوق الطبع والنشر، ما يعني أن موفري الذكاء الاصطناعي التوليدي يمكنهم استخدام الأعمال المحمية بحقوق الطبع والنشر، دون الحصول على إذن من أصحاب الصور.

وقال أحد أعضاء «مجلس النواب» عن اليابان: «في اليابان، يمكن استخدام أعمال تحليل المعلومات، بغض النظر عن الطريقة، سواء لأغراض غير ربحية، أو من أجل الربح، أو لأعمال أخرى غير الاستنساخ، أو لمحتوى تم الحصول عليه من مواقع غير قانونية». الحزب «الديمقراطي الدستوري» الياباني.

ومع ذلك، أقر الممثل بأن استخدام الصورة ضد إرادة صاحب حقوق الطبع والنشر يمثل مشكلة من وجهة نظر حماية الحقوق، واقترح الحاجة إلى «لوائح جديدة لحماية أصحاب حقوق الطبع والنشر».

تقييم المخاطر في البرازيل

* البرازيل: بدأ المشرعون في البرازيل في صياغة لوائح خاصة بالذكاء الاصطناعي، تتضمن مطالبة مقدمي أنظمة الذكاء الاصطناعي بتقديم تقييم للمخاطر قبل طرح المنتج للجمهور.

وبغض النظر عن تصنيف مخاطر أنظمة الذكاء الاصطناعي، تقول الجهات التنظيمية إن الأشخاص المتأثرين بهذه الأنظمة لهم الحق في الحصول على تفسير حول القرار أو التوصية المقدمة خلال 15 يوماً من الطلب. يؤكد الخبراء الأكاديميون أنه من الصعب تفسير سبب قيام نظام الذكاء الاصطناعي بشيء ما.

* إيطاليا: في مارس (آذار)، كانت إيطاليا أول دولة غربية تحظر -مؤقتاً- ChatGPT بسبب جمع البيانات بشكل غير قانوني. ومنذ ذلك الحين، قالت الحكومة إنها خصصت 30 مليون يورو (33 مليون دولار) لمساعدة العاطلين عن العمل، والعاملين في الوظائف المعرضة لخطر «الأتمتة»، لتعزيز مهاراتهم الرقمية.

* «كوارتز»، خدمات «تريبيون ميديا».


مقالات ذات صلة

إطلاق مبادرة لتمكين الذكاء الاصطناعي في 100 شركة صغيرة ومتوسطة بالسعودية

الاقتصاد جانب من حضور ملتقى «بيبان 24» في العاصمة السعودية الرياض (واس)

إطلاق مبادرة لتمكين الذكاء الاصطناعي في 100 شركة صغيرة ومتوسطة بالسعودية

أطلقت الهيئة العامة للمنشآت الصغيرة والمتوسطة السعودية و«غوغل» مبادرة «SMB Lab»، بهدف تسريع تبني الذكاء الاصطناعي في الشركات الصغيرة والمتوسطة.

«الشرق الأوسط» (الرياض)
الاقتصاد جانب من اجتماع المجموعة التشاورية الإقليمية لمنطقة الشرق الأوسط وشمال أفريقيا بالرياض (ساما)

المجموعة التشاورية الإقليمية التابعة لمجلس الاستقرار المالي تجتمع في الرياض

انعقد اجتماع المجموعة التشاورية الإقليمية لمنطقة الشرق الأوسط وشمال أفريقيا، التابعة لمجلس الاستقرار المالي، في العاصمة السعودية الرياض.

«الشرق الأوسط» (الرياض)
تكنولوجيا أصبحت ثقة نحو 3 أرباع المستهلكين (72%) بالشركات أقل مقارنة بعام 2023 (أدوبي)

65 % من العملاء يشعرون بأن الشركات تتعامل مع بياناتهم باستهتار وتهوّر

تظهر دراسة جديدة لشركة «سايلزفورس» تراجع الثقة بالشركات لدى 72 في المائة من العملاء حول العالم.

نسيم رمضان (لندن)
يوميات الشرق براعم الذكاء الاصطناعي تفتحت في وادي الرافدين

براعم الذكاء الاصطناعي تفتحت في وادي الرافدين

لطالما كانت منطقتنا في طليعة التطورات العلمية والفكرية على مر العصور، إذ كانت بلاد ما بين النهرين، التي غالباً ما يُشار إليها باسم «مهد الحضارة»، مركزاً لأقدم…

د. عميد خالد عبد الحميد (لوس أنجليس)
تكنولوجيا بحسب الدراسة أظهرت نماذج الذكاء الاصطناعي أنها لا تتعلم بالفعل الحقائق الكامنة عن العالم (أدوبي)

دراسة جديدة: نماذج الذكاء الاصطناعي اللغوية تفتقر لفهم حقيقي للعالم

تشير دراسة حديثة إلى أن نماذج اللغة الكبيرة تفتقر إلى فهم حقيقي للعالم، إذ تتفوق في مهام ثابتة، لكنها تتعثر مع تغييرات بسيطة، ما يثير تساؤلات حول جدواها.

نسيم رمضان (لندن)

65 % من العملاء يشعرون بأن الشركات تتعامل مع بياناتهم باستهتار وتهوّر

أصبحت ثقة نحو 3 أرباع المستهلكين (72%) بالشركات أقل مقارنة بعام 2023 (أدوبي)
أصبحت ثقة نحو 3 أرباع المستهلكين (72%) بالشركات أقل مقارنة بعام 2023 (أدوبي)
TT

65 % من العملاء يشعرون بأن الشركات تتعامل مع بياناتهم باستهتار وتهوّر

أصبحت ثقة نحو 3 أرباع المستهلكين (72%) بالشركات أقل مقارنة بعام 2023 (أدوبي)
أصبحت ثقة نحو 3 أرباع المستهلكين (72%) بالشركات أقل مقارنة بعام 2023 (أدوبي)

تُعد ثقة العملاء حجر الأساس للعلامات التجارية التي تسعى إلى النجاح. ومع ذلك، كشفت أبحاث جديدة من شركة «سايلزفورس» (Salesforce) أن ثقة المستهلكين في الشركات بلغت أدنى مستوياتها، حتى مع زيادة الطلب على التفاعلات الرقمية السلسة والموثوقة. يبرز تقرير «سايلزفورس» بعنوان «حالة العملاء المتصلين بالذكاء الاصطناعي» التأثير الذي يحدثه الذكاء الاصطناعي على هذه العلاقة المتطورة، مما يشير إلى ضرورة أن تركز العلامات التجارية على الشفافية والتناسق وسهولة الاستخدام لاستعادة الثقة والحفاظ على ولاء العملاء. ومع تحول الذكاء الاصطناعي إلى جزء أساسي من رحلة العملاء، يستعرض هذا البحث كيفية تعامل الشركات بفاعلية مع تحديات الثقة في عالم يعتمد بشكل متزايد على الذكاء الاصطناعي.

انخفاض في ثقة المستهلكين

أُجريت أبحاث «سايلزفورس» بالتعاون مع «يوغوف» (YouGov) بمشاركة أكثر من 15.000 مستهلك من 18 دولة، لتسليط الضوء على التحديات الكبيرة التي تواجهها العلامات التجارية. ووفقاً للتقرير، فإن 72 في المائة من المستهلكين يثقون بالشركات أقل مما كانوا عليه قبل عام، بينما يشعر 65 في المائة بأن الشركات تتعامل مع بيانات العملاء بشكل متهور. وقد ازدادت هذه المخاوف مع تزايد انتشار تكنولوجيا الذكاء الاصطناعي التي تؤثر على التفاعلات مع المستهلكين، وتجارب التسوق، وممارسات التعامل مع البيانات. ويعتقد ما يقرب من 60 في المائة من المستهلكين أن ارتفاع استخدام الذكاء الاصطناعي جعل الثقة أكثر أهمية من أي وقت مضى في علاقتهم بالعلامات التجارية.

الدراسة: أكثر من ثلث المستهلكين يفضلون العمل مع وكيل ذكاء اصطناعي من أجل تجنب تكرار ما يقوله الوكيل البشري (أدوبي)

الثقة في عالم رقمي أولاً

بالإضافة إلى مخاوف الثقة، تُظهر الأبحاث أن توقعات المستهلكين أصبحت أعلى من أي وقت مضى. اليوم، يطالب العملاء بتجارب سلسة عبر القنوات، حيث يتوقع 69 في المائة منهم تقديم خدمة موحدة بغض النظر عن المنصة المستخدمة. كما يفضل نحو 60 في المائة من المستهلكين استخدام خطوات أقل للحصول على المعلومات أو إتمام المهام، مما يؤكد على أهمية تجربة مستخدم سلسة.

يتجاوز هذا التفضيل الكفاءة والسهولة إلى التأثير المباشر على الولاء. وجد التقرير أنه في حين تظل العروض الخاصة والخصومات عوامل قوية، فإن جودة الخدمة المستمرة والتفاعلات المريحة هي المحركات الحقيقية للولاء طويل الأمد. إذا فشلت العلامة التجارية في تلبية هذه التوقعات، فإن 43 في المائة من المستهلكين سيتوقفون عن الشراء مرة أخرى بسبب تجربة خدمة غير مُرضية. بالإضافة إلى ذلك، أشار أكثر من ثلث المستهلكين إلى أن التجارب غير المريحة، مثل عمليات الإرجاع الصعبة، هي سبب قد يدفعهم للتحول إلى منافس آخر.

يؤكد مايكل أفونتي، نائب رئيس «سايلزفورس» والمدير العام لمنصة «كومورس كلاود» (Commerce Cloud) على الحاجة الملحة للعلامات التجارية لمواءمة استراتيجياتها مع هذه المتطلبات. ويقول: «في عصر الرقمنة، يجب على الشركات تبني حلول الذكاء الاصطناعي التي توفر تجارب سلسة مع التركيز على الشفافية والثقة».

مايكل أفونتي نائب الرئيس الأول والمدير العام لـ«كلاود كومورس» في شركة «سيلزفورس» (Salesforce)

انفتاح الشباب على الذكاء الاصطناعي

من اللافت للنظر أن الأجيال الشابة، وخاصة «جيل زد» و«جيل الألفية» أكثر انفتاحاً على استخدام وكلاء الذكاء الاصطناعي لخدمة العملاء مقارنةً بالأجيال الأكبر سناً. ويكشف التقرير أن 43 في المائة من هؤلاء المستهلكين الشباب يرون أن الذكاء الاصطناعي يمكن أن يرفع من مستوى تجربتهم، مقارنةً بنسبة 32 في المائة فقط من جيل طفرة المواليد. علاوة على ذلك، فإن مستهلكي «جيل زد» و«جيل الألفية» ليسوا فقط مرتاحين لوكلاء الذكاء الاصطناعي، بل ينظرون إليهم كأدوات مفيدة لتخصيص رحلات التسوق وتوقع احتياجاتهم.

على سبيل المثال، صرح ما يقرب من ثلث مستهلكي «جيل زد» و«جيل الألفية» بأنهم يشعرون بالراحة في السماح لوكيل ذكاء اصطناعي بالتسوق نيابةً عنهم، مما يفتح أمام العلامات التجارية فرصة فريدة. فوكلاء الذكاء الاصطناعي، الذين يُعدون أنظمة مستقلة تتعامل مع استفسارات العملاء دون تدخل بشري، يزداد انتشارهم بسبب قدرتهم على تقديم استجابات فورية وخدمة مخصصة. في فترات الطلب المرتفع أو للمهام الروتينية، يمكن لهؤلاء الوكلاء ضمان خدمة أسرع وأكثر اتساقاً، مما يوفر لموظفي الخدمة البشرية وقتاً للتعامل مع القضايا المعقدة. وتشير أبحاث «سايلزفورس» إلى أن هذا الانفتاح يقدم للعلامات التجارية مساراً واضحاً نحو المستقبل، من خلال تقديم تفاعلات ذكاء اصطناعي موثوقة وشفافة لبناء علاقة قوية مع العملاء الشباب وتعزيز ولائهم.

الشفافية وأمان البيانات

تشدد النتائج أيضاً على الدور الحاسم للشفافية في عصر الذكاء الاصطناعي. فمع إبداء ما يقرب من نصف المستهلكين مزيجاً من الفضول والشك تجاه الذكاء الاصطناعي، يجب على العلامات التجارية معالجة هذه المخاوف بشكل استباقي. ورغم أن بعضهم يرون الفوائد المحتملة للذكاء الاصطناعي، فإن كثيرين يشعرون بالقلق، حيث يشعر 44 في المائة منهم بالشك و41 في المائة بالفضول تجاه دور الذكاء الاصطناعي في حياتهم.

بالنسبة للعلامات التجارية، يمثل هذا لحظة حاسمة لبناء الثقة من خلال توضيح تقنيات الذكاء الاصطناعي. ووفقاً للتقرير، فإن ثلاثة أرباع المستهلكين يرغبون في معرفة متى يتفاعلون مع وكيل ذكاء اصطناعي، و45 في المائة منهم أكثر ميلاً لاستخدام خدمة العملاء المدعومة بالذكاء الاصطناعي إذا كان هناك مسار تصعيد واضح إلى ممثل بشري. بالإضافة إلى ذلك، يفضل 44 في المائة أن تقدم العلامات التجارية شروحات واضحة لكيفية عمل التفاعلات المدعومة بالذكاء الاصطناعي، مما قد يخفف من المخاوف المتعلقة بخصوصية البيانات وعمليات اتخاذ القرارات.

أصبحت ثقة نحو 3 أرباع المستهلكين (72%) بالشركات أقل مقارنة بعام 2023 (أدوبي)

معالجة راحة وموثوقية المستهلكين

يكشف البحث عن جانب آخر مهم متعلق بكيفية معالجة الذكاء الاصطناعي أحد أكبر المخاوف لدى المستهلكين وهي الراحة. فقد أشار أكثر من ثلث المشاركين إلى أنهم يفضلون التعامل مع وكيل ذكاء اصطناعي بدلاً من ممثل بشري لتجنب تكرار أنفسهم، بينما 30 في المائة منهم يختارون الذكاء الاصطناعي للحصول على خدمة أسرع. ويتردد هذا العامل الخاص بالراحة بشكل أكبر لدى الأجيال الشابة الذين يرون الذكاء الاصطناعي أداة لتحسين تجربتهم الكلية.

ومع ذلك، لبناء الثقة الحقيقية في التفاعلات المدعومة بالذكاء الاصطناعي، يجب أن يكون وكلاء الذكاء الاصطناعي ليسوا فقط متاحين، بل تكون هناك موثوقية أيضاً. إن ضمان تجربة مستخدم سلسة مع أداء ثابت عبر النقاط المختلفة، إلى جانب التواصل الشفاف، يمكن أن يسد فجوة الثقة. وكما يوضح أفونتي أن العلامات التجارية التي تعطي الأولوية للعمليات المفتوحة الواضحة وحماية البيانات القوية ستجد نفسها في موقع أفضل على المدى الطويل، حيث ستلبي توقعات العملاء من حيث الخدمة والثقة.

تحقيق الولاء طويل الأمد

في حين يقدم الذكاء الاصطناعي فرصاً واعدة للعلامات التجارية، فإن نجاحه يعتمد على الثقة والشفافية. من خلال تبني نهج متوازن يستفيد من الذكاء الاصطناعي لتحقيق الكفاءة، مع الحفاظ على التواصل الواضح وسلامة البيانات، يمكن للعلامات التجارية تعزيز الولاء طويل الأمد وإعادة تشكيل توقعات العملاء في عالم يعتمد على التكنولوجيا. ومع زيادة الاعتماد على الذكاء الاصطناعي في التفاعلات مع المستهلكين، ستبرز الشركات التي تركز على الشفافية والأمان والراحة في سوق تنافسي متزايد.