كيف تحاول دول العالم تنظيم الذكاء الاصطناعي؟

وكالة إشراف أميركية وقواعد أوروبية صارمة وليونة يابانية

كيف تحاول دول العالم تنظيم الذكاء الاصطناعي؟
TT

كيف تحاول دول العالم تنظيم الذكاء الاصطناعي؟

كيف تحاول دول العالم تنظيم الذكاء الاصطناعي؟

هل بإمكان الذكاء الصناعي توليد معلومات خاطئة وتوظيف التزييف العميق للصور؟

الحقيقة أن هناك الكثير من الإثارة حول قدرة الذكاء الاصطناعي التوليدي على إنشاء محتوى، بدءاً من حالات الاستخدام في إنتاج مواد تسويقية، إلى ترجمة أصوات مقدمي البودكاست إلى لغات مختلفة.

توليد معلومات غير موثّقة

ولكن مع الوعود الكبيرة تأتي مخاوف كبيرة، بما في ذلك -على سبيل المثال لا الحصر- انتشار المعلومات الخاطئة على نطاق واسع، وخصوصاً عبر التزييف العميق، واستخدام أعمال المبدعين دون إسناد، وخسارة هائلة في الوظائف بفضل الأتمتة.

ومع وضع هذه الجوانب السلبية المحتملة في الحسبان، تحاول الحكومات في جميع أنحاء العالم إنشاء لوائح تنظيمية، أو قوانين للذكاء الاصطناعي، تعمل على تعزيز السلامة والاستخدام العادل، مع الاستمرار في تشجيع الابتكار.

تنظيمات وقوانين

* الولايات المتحدة: سمحت حكومة الولايات المتحدة حتى الآن لشركات التكنولوجيا بوضع ضماناتها الخاصة حول الذكاء الاصطناعي، لكن المشرعين يقولون إن تنظيم الذكاء الاصطناعي ضروري؛ إذ عقدوا اجتماعات متعددة في عام 2023 مع شركات الذكاء الاصطناعي الرائدة من «OpenAI» إلى «Nvidia». وناقش المشرعون متطلبات الترخيص، وإصدار الشهادات لنماذج الذكاء الاصطناعي عالية المخاطر عند الضرورة.

* أميركا تخطط لإنشاء وكالة خاصة للإشراف على خدمات الذكاء الاصطناعي*

في الوقت نفسه، قالت الوكالات الفيدرالية، مثل مكتب الحماية المالية للمستهلك، ووزارة العدل، ولجنة تكافؤ فرص العمل، ولجنة التجارة الفيدرالية، إن الكثير من تطبيقات الذكاء الاصطناعي تخضع بالفعل للقوانين الحالية.

تجنّب التقييدات خانقة للابتكار

* المملكة المتحدة: تريد المملكة المتحدة، التي تعد موطناً لشركات الذكاء الاصطناعي، مثل مختبر الذكاء الاصطناعي «ديب مايند»، التابع لشركة «غوغل»، وشركة «سينثيسيا» لصناعة فيديو الذكاء الاصطناعي، تجنب التشريعات الصارمة التي يمكن أن تخنق الابتكار. وذكرت «رويترز» أن التنظيم سيستند إلى مبادئ، مثل السلامة والشفافية والعدالة والمساءلة.

تريد حكومة المملكة المتحدة أيضاً أن تلعب دوراً رئيسياً في تنظيم الذكاء الاصطناعي. ومن المتوقع أن تعقد أول قمة لها حول سلامة الذكاء الاصطناعي في الأول والثاني من نوفمبر (تشرين الثاني). وقال رئيس الوزراء ريشي سوناك في بيان: «لطالما كانت المملكة المتحدة موطناً للتقنيات التحويلية للمستقبل... ولتبني الفرص الاستثنائية التي يوفرها الذكاء الاصطناعي بشكل كامل، يجب علينا السيطرة على المخاطر، ومعالجتها لضمان تطورها بأمان في السنوات المقبلة».

وتخطط الدولة لتقسيم المسؤولية عن إدارة الذكاء الاصطناعي بين الهيئات التنظيمية الحالية لحقوق الإنسان والصحة والسلامة والمنافسة، بدلاً من إنشاء هيئة جديدة مخصصة للتكنولوجيا، التي تختلف عن الهيئات التنظيمية الأميركية التي ناقشت إنشاء هيئة مستقلة للإشراف على تراخيص الذكاء الاصطناعي، ونماذج الذكاء الاصطناعي عالية المخاطر. وكان الأكاديميون قد انتقدوا الهيئة التنظيمية المستقلة، قائلين إن إنشاء وكالة جديدة تماماً سيستغرق بعض الوقت.

قواعد وقوانين أوروبية صارمة

الاتحاد الأوروبي، منذ عام 2021، يعمل الاتحاد الأوروبي، الذي يتمتع بسجل حافل في تنفيذ قواعد أكثر صرامة على صناعة التكنولوجيا مقارنة بالمناطق الأخرى، على إقرار قانون الذكاء الاصطناعي، الذي سيكون أول قانون للذكاء الاصطناعي في الغرب.

* تحظر القواعد الأوروبية المقترحة الاستخدامات التدخلية والتمييزية للذكاء الاصطناعي*

يقترح القانون تصنيف أنظمة الذكاء الاصطناعي حسب المخاطر. ستواجه الأنظمة عالية المخاطر، بما في ذلك أدوات توظيف الذكاء الاصطناعي، وبرامج تسجيل الاختبارات، معايير امتثال أكبر، مثل التحقق من صحة البيانات والتوثيق، مقارنة بالأنظمة الأقل خطورة.

تحظر القواعد المقترحة أيضاً الاستخدامات التدخلية والتمييزية للذكاء الاصطناعي، مثل أنظمة تحديد الهوية البيومترية عن بعد في الوقت الفعلي في الأماكن العامة، أو أنظمة السياسة التنبؤية القائمة على التنميط.

في الشهر الماضي، قال عضو لجنة المفوضية الأوروبية، تيري بريتون، إن الاتحاد الأوروبي يعمل على تطوير ميثاق للذكاء الاصطناعي، من شأنه أن يساعد الشركات على الاستعداد لتنفيذ قانون الذكاء الاصطناعي، وإن الشركات الناشئة -وليس فقط شركات التكنولوجيا الكبرى- بحاجة إلى أن يتم تضمينها في المناقشات حول تطوير حوكمة الذكاء الاصطناعي. كانت الشركات الناشئة أعلنت في الماضي أن التنظيم المقترح للاتحاد الأوروبي مقيد للغاية.

* خدمات الذكاء الاصطناعي التوليدي في الصين تخضع لتقييم أمني*

تقييم أمني صيني

* الصين: في الصين يجب أن يخضع مقدمو خدمات الذكاء الاصطناعي التوليدي لتقييم أمني، ويجب أن تلتزم أدوات الذكاء الاصطناعي بالقيم الاشتراكية. لكن تكنولوجيا الذكاء الاصطناعي التوليدية، التي تم تطويرها للاستخدام خارج البلاد فقط، معفاة من القواعد. وتمتلك شركات التكنولوجيا الصينية، مثل «بايدو»، و«تينسينت»، و«هواوي»، مراكز بحث وتطوير في وادي السيليكون.

ولمنافسة «تشات جي بي تي» من شركة «أوبن إيه إي»، أعلنت «علي بابا» و«بايدو» و«جاي دي» أكبر شركات الإنترنت في البلاد، عن تطوير روبوتات الدردشة الخاصة بها، التي تعمل بالذكاء الاصطناعي. في الماضي، قالت الصين إنها تريد أن تكون الرائدة عالمياً في مجال الذكاء الاصطناعي بحلول عام 2030، ووضعت خططاً لتسويق الذكاء الاصطناعي تجارياً في عدد من المجالات، من المدن الذكية إلى الاستخدامات العسكرية، حسبما ذكرت شبكة CNBC.

ليونة يابانية

* اليابان: تميل اليابان نحو قواعد أكثر ليونة تحكم استخدام الذكاء الاصطناعي. وفي الأسبوع الفائت تعهد رئيس الوزراء فوميو كيشيدا بأن الحزمة الاقتصادية التالية ستشمل تمويل تطوير الذكاء الاصطناعي في الشركات الصغيرة والمتوسطة الحجم، وهو ما يمكن أن يساعد في تعزيز ريادة اليابان المفقودة في مجال التكنولوجيا.

قالت اليابان أيضاً إن استخدام الصور المحمية بحقوق الطبع والنشر لتدريب نماذج الذكاء الاصطناعي لا ينتهك قوانين حقوق الطبع والنشر، ما يعني أن موفري الذكاء الاصطناعي التوليدي يمكنهم استخدام الأعمال المحمية بحقوق الطبع والنشر، دون الحصول على إذن من أصحاب الصور.

وقال أحد أعضاء «مجلس النواب» عن اليابان: «في اليابان، يمكن استخدام أعمال تحليل المعلومات، بغض النظر عن الطريقة، سواء لأغراض غير ربحية، أو من أجل الربح، أو لأعمال أخرى غير الاستنساخ، أو لمحتوى تم الحصول عليه من مواقع غير قانونية». الحزب «الديمقراطي الدستوري» الياباني.

ومع ذلك، أقر الممثل بأن استخدام الصورة ضد إرادة صاحب حقوق الطبع والنشر يمثل مشكلة من وجهة نظر حماية الحقوق، واقترح الحاجة إلى «لوائح جديدة لحماية أصحاب حقوق الطبع والنشر».

تقييم المخاطر في البرازيل

* البرازيل: بدأ المشرعون في البرازيل في صياغة لوائح خاصة بالذكاء الاصطناعي، تتضمن مطالبة مقدمي أنظمة الذكاء الاصطناعي بتقديم تقييم للمخاطر قبل طرح المنتج للجمهور.

وبغض النظر عن تصنيف مخاطر أنظمة الذكاء الاصطناعي، تقول الجهات التنظيمية إن الأشخاص المتأثرين بهذه الأنظمة لهم الحق في الحصول على تفسير حول القرار أو التوصية المقدمة خلال 15 يوماً من الطلب. يؤكد الخبراء الأكاديميون أنه من الصعب تفسير سبب قيام نظام الذكاء الاصطناعي بشيء ما.

* إيطاليا: في مارس (آذار)، كانت إيطاليا أول دولة غربية تحظر -مؤقتاً- ChatGPT بسبب جمع البيانات بشكل غير قانوني. ومنذ ذلك الحين، قالت الحكومة إنها خصصت 30 مليون يورو (33 مليون دولار) لمساعدة العاطلين عن العمل، والعاملين في الوظائف المعرضة لخطر «الأتمتة»، لتعزيز مهاراتهم الرقمية.

* «كوارتز»، خدمات «تريبيون ميديا».


مقالات ذات صلة

إطلاق مبادرة لتمكين الذكاء الاصطناعي في 100 شركة صغيرة ومتوسطة بالسعودية

الاقتصاد جانب من حضور ملتقى «بيبان 24» في العاصمة السعودية الرياض (واس)

إطلاق مبادرة لتمكين الذكاء الاصطناعي في 100 شركة صغيرة ومتوسطة بالسعودية

أطلقت الهيئة العامة للمنشآت الصغيرة والمتوسطة السعودية و«غوغل» مبادرة «SMB Lab»، بهدف تسريع تبني الذكاء الاصطناعي في الشركات الصغيرة والمتوسطة.

«الشرق الأوسط» (الرياض)
الاقتصاد جانب من اجتماع المجموعة التشاورية الإقليمية لمنطقة الشرق الأوسط وشمال أفريقيا بالرياض (ساما)

المجموعة التشاورية الإقليمية التابعة لمجلس الاستقرار المالي تجتمع في الرياض

انعقد اجتماع المجموعة التشاورية الإقليمية لمنطقة الشرق الأوسط وشمال أفريقيا، التابعة لمجلس الاستقرار المالي، في العاصمة السعودية الرياض.

«الشرق الأوسط» (الرياض)
تكنولوجيا أصبحت ثقة نحو 3 أرباع المستهلكين (72%) بالشركات أقل مقارنة بعام 2023 (أدوبي)

65 % من العملاء يشعرون بأن الشركات تتعامل مع بياناتهم باستهتار وتهوّر

تظهر دراسة جديدة لشركة «سايلزفورس» تراجع الثقة بالشركات لدى 72 في المائة من العملاء حول العالم.

نسيم رمضان (لندن)
يوميات الشرق براعم الذكاء الاصطناعي تفتحت في وادي الرافدين

براعم الذكاء الاصطناعي تفتحت في وادي الرافدين

لطالما كانت منطقتنا في طليعة التطورات العلمية والفكرية على مر العصور، إذ كانت بلاد ما بين النهرين، التي غالباً ما يُشار إليها باسم «مهد الحضارة»، مركزاً لأقدم…

د. عميد خالد عبد الحميد (لوس أنجليس)
تكنولوجيا بحسب الدراسة أظهرت نماذج الذكاء الاصطناعي أنها لا تتعلم بالفعل الحقائق الكامنة عن العالم (أدوبي)

دراسة جديدة: نماذج الذكاء الاصطناعي اللغوية تفتقر لفهم حقيقي للعالم

تشير دراسة حديثة إلى أن نماذج اللغة الكبيرة تفتقر إلى فهم حقيقي للعالم، إذ تتفوق في مهام ثابتة، لكنها تتعثر مع تغييرات بسيطة، ما يثير تساؤلات حول جدواها.

نسيم رمضان (لندن)

دراسة جديدة: نماذج الذكاء الاصطناعي اللغوية تفتقر لفهم حقيقي للعالم

بحسب الدراسة أظهرت نماذج الذكاء الاصطناعي أنها لا تتعلم بالفعل الحقائق الكامنة عن العالم (أدوبي)
بحسب الدراسة أظهرت نماذج الذكاء الاصطناعي أنها لا تتعلم بالفعل الحقائق الكامنة عن العالم (أدوبي)
TT

دراسة جديدة: نماذج الذكاء الاصطناعي اللغوية تفتقر لفهم حقيقي للعالم

بحسب الدراسة أظهرت نماذج الذكاء الاصطناعي أنها لا تتعلم بالفعل الحقائق الكامنة عن العالم (أدوبي)
بحسب الدراسة أظهرت نماذج الذكاء الاصطناعي أنها لا تتعلم بالفعل الحقائق الكامنة عن العالم (أدوبي)

أظهرت نماذج اللغة الكبيرة (LLMs)، مثل النماذج التي يقوم عليها نموذج «GPT-4»، قدرات مذهلة في توليد النصوص، سواء أكان ذلك في كتابة الشعر، أو تأليف المقالات، حتى تقديم حلول برمجية. تُدرَّب هذه النماذج، المعتمدة على بنى معمارية متقدمة تُعرف باسم «المحوّلات» (Transformers)، على توقع تسلسل الكلمات، ما يمكّنها من الاستجابة للمطالبات بطرق تحاكي فهماً يشبه البشري. ومع ذلك، تشير أبحاث حديثة إلى أن هذه النماذج، على الرغم من قدراتها المثيرة للإعجاب، قد لا تتعلم بالفعل الحقائق الكامنة عن العالم.

خريطة لمدينة نيويورك الأميركية (أدوبي)

التنقل في مدينة نيويورك دون خريطة

في دراسة حديثة قادها آشِش رامباتشان، أستاذ مساعد في الاقتصاد وباحث في مختبر نظم المعلومات واتخاذ القرار بمعهد ماساتشوستس للتكنولوجيا (LIDS)، قام الباحثون باختبار مدى قدرة نموذج لغوي مبني على «المحوّلات» على التنقل في مدينة نيويورك. وبينما أظهر النموذج دقة عالية في تقديم توجيهات دقيقة خطوة فخطوة عبر شبكة شوارع المدينة، تراجع أداؤه بشكل كبير عندما تمت إضافة عراقيل مثل إغلاق بعض الشوارع والتحويلات.

وعندما حلّل الباحثون أنماط التنقل التي أنتجها النموذج، اكتشفوا أن «خرائط» مدينة نيويورك التي كوّنها النموذج كانت تحتوي على مسارات غير واقعية، مثل شوارع غير موجودة وروابط غير دقيقة بين تقاطعات متباعدة. هذا الاكتشاف أثار تساؤلات حول حدود هذه النماذج، خاصة في البيئات التي تتطلب دقة كبيرة.

التداعيات في العالم الحقيقي

تنطوي هذه القيود على تداعيات هامة. فعلى الرغم من أن نماذج الذكاء الاصطناعي تبدو قادرة على التعامل مع مهام معقدة، فإن أداءها قد يتراجع بشكل كبير عندما تتغير المتغيرات البيئية، ولو بشكل بسيط. على سبيل المثال، قد يتمكن النموذج من التنقل في خريطة ثابتة لمدينة نيويورك، لكنه يتعثر عند مواجهة تحديات غير متوقعة، مثل إغلاق الشوارع. ويحذر فريق البحث من أن استخدام هذه النماذج في تطبيقات حقيقية قد يؤدي إلى فشل غير متوقع إذا واجهت سيناريوهات خارجة عن بيانات التدريب.

لعبة «أوثيللو» هي لعبة ألواح استراتيجية يشارك فيها لاعبان يلعبان على لوح مقسم إلى 8 × 8 مربعات غير مختلفة اللون (أدوبي)

مقاييس لتقييم الفهم

لمزيد من التعمق في مدى قدرة نماذج الذكاء الاصطناعي على تكوين «نماذج للعالم»، أي تمثيلات داخلية للقواعد والهيكليات، طوّر الفريق مقياسين جديدين للتقييم، هما «تمييز التسلسل» و«ضغط التسلسل».

يقيس «تمييز التسلسل» قدرة النموذج على التمييز بين سيناريوهات مختلفة، مثل تمييز موضعين مختلفين على لوحة لعبة «أوثيللو». ويقيّم المقياس ما إذا كان النموذج يفهم أن مدخلات مختلفة تحمل دلالات مختلفة.

أما مقياس «ضغط التسلسل» فيقيّم قدرة النموذج على إدراك الحالات المتطابقة، مثل وضعين متطابقين على لوحة لعبة «أوثيللو»، ويفهم أن خطوات التحرك التالية من كل وضع يجب أن تكون متشابهة.

قام الفريق باختبار هذه المقاييس على فئة معينة من المسائل تشمل تسلسلاً محدداً من الحالات والقواعد، مثل التنقل في شبكة شوارع أو لعب «أوثيللو». من خلال هذه التقييمات، سعى الباحثون لفهم ما إذا كانت النماذج قد طوّرت بالفعل نماذج منطقية للعالم.

العشوائية قد تؤدي إلى فهم أعمق

كشف البحث عن نتيجة غير متوقعة، حيث أظهرت النماذج التي دربت على تسلسلات عشوائية قدرة أكبر على بناء نماذج داخلية دقيقة مقارنة بتلك التي دربت على بيانات منظمة. على سبيل المثال، في لعبة «أوثيللو»، كانت النماذج المدربة على حركات عشوائية قادرة على التعرف على جميع الحركات الممكنة، حتى الحركات غير المثلى التي لا يلجأ إليها اللاعبون المحترفون.

وأوضح كيون فافا، الباحث الرئيسي وأستاذ زائر في جامعة هارفارد، أنه «من الناحية النظرية، عندما يتم تدريب النموذج على حركات عشوائية، فإنه يرى مجموعة كاملة من الاحتمالات، بما في ذلك الخيارات غير المحتملة». ويبدو أن هذا التعرض الواسع «يساعد النموذج في تكوين نموذج أكثر دقة للعالم، وإن لم يلتزم بالأسلوب الأمثل».

ورغم هذه النتائج، لم يستطع أي من النماذج تكوين نموذج منطقي متكامل للعالم في مهمة التنقل. وعندما أضاف الباحثون تحويلات إلى خريطة نيويورك، فشلت جميع النماذج في التكيف. وأشار فافا إلى أن «التراجع في الأداء كان مفاجئاً؛ إغلاق واحد في المائة فقط من الشوارع تسبب في انخفاض الدقة بشكل حاد، من أداء شبه مثالي إلى 67 بالمائة فقط».

تراجع أداء نماذج الذكاء الاصطناعي بشكل كبير عندما تتغير المتغيرات البيئية ولو بشكل بسيط (أدوبي)

بناء نماذج للعالم موثوقة

تسلط نتائج هذه الدراسة الضوء على تحدٍ كبير، يتمثل في أنه عندما تبدو المحوّلات قادرة على أداء مهام معينة، فإنها قد تفتقر إلى الفهم الأساسي للقواعد. وشدّد رامباتشان على ضرورة الحذر، قائلاً: «غالباً ما يفترض الناس أنه بما أن هذه النماذج تحقق نتائج رائعة، فلا بد أنها طوّرت فهماً جوهرياً للعالم. لكن دراستنا تشير إلى أننا بحاجة إلى النظر في هذا الافتراض بعناية وعدم الاعتماد على الحدس فقط».

ويخطط الباحثون لتوسيع دراستهم لتشمل تحديات أكثر تعقيداً حيث قد تكون القواعد غير معروفة كلياً أو متغيرة. وباستخدام مقاييسهم التقييمية على هذه المجالات، يأملون في فهم حدود نماذج الذكاء الاصطناعي بشكل أفضل وتوجيه تطويرها في المستقبل.

تداعيات أوسع وأهداف مستقبلية

تتجاوز تداعيات هذا البحث فهم العالم الافتراضي، وتمس التطبيقات العملية. إذا كانت نماذج الذكاء الاصطناعي غير قادرة على تكوين نماذج داخلية دقيقة للعالم، فإن ذلك يثير تساؤلات حول استخدامها في مجالات تتطلب منطقاً دقيقاً، مثل القيادة الذاتية، والأبحاث العلمية، والتخطيط اللوجستي. ويقول الباحثون إن الحاجة ملحة لإعادة التفكير في كيفية تدريب هذه النماذج وتقييمها لتكون أكثر تكيفاً وموثوقية.

هذا البحث مدعوم من قبل عدة مؤسسات، بما في ذلك مبادرة علوم البيانات في جامعة هارفارد، ومؤسسة العلوم الوطنية، ومؤسسة ماك آرثر. سيتم عرض الدراسة في مؤتمر نظم معالجة المعلومات العصبية، حيث سيواصل الباحثون مناقشة تعقيدات نماذج الذكاء الاصطناعي واستكشاف مسارات جديدة لتطويرها.