الذكاء الاصطناعي: الابتكار الخارق يتطلب ضوابط آمنة

مخاوف كبرى على الأمن القومي من التضليل الإعلامي وانفلات العنف والاضطرابات

الذكاء الاصطناعي: الابتكار الخارق يتطلب ضوابط  آمنة
TT

الذكاء الاصطناعي: الابتكار الخارق يتطلب ضوابط آمنة

الذكاء الاصطناعي: الابتكار الخارق يتطلب ضوابط  آمنة

يتطور مشهد الذكاء الاصطناعي بسرعة، حيث يشير مشروع «ستارغيت Stargate» الأمريكي الذي تبلغ تكلفته 500 مليار دولار إلى استثمار هائل في البنية التحتية، بينما تظهر «ديب سيك» الصينية منافساً هائلاً، كما كتب فيصل حقّ(*).

مخاوف أميركية من الصين

وتثير نماذج الذكاء الاصطناعي المتقدمة من «ديب سيك»، التي تنافس القدرات الغربية بتكاليف أقل، مخاوف كبيرة بشأن التهديدات المحتملة للأمن السيبراني واستخراج البيانات وجمع المعلومات الاستخباراتية على نطاق عالمي. ويسلط هذا التطور الضوء على الحاجة الملحة إلى تنظيم قوي للذكاء الاصطناعي وتدابير أمنية في الولايات المتحدة.

الفجوة بين التقدم التكنولوجي والحوكمة

ومع تكثيف سباق الذكاء الاصطناعي، تتسع الفجوة بين التقدم التكنولوجي والحوكمة. تواجه الولايات المتحدة التحدي الحاسم المتمثل ليس فقط في تسريع قدرات الذكاء الاصطناعي من خلال مشاريع مثل «ستارغيت»، ولكن أيضاً في تطوير أطر تنظيمية شاملة لحماية أصولها الرقمية ومصالح الأمن القومي.

ومع قدرة «ديب سيك» على التغلب على ضوابط التصدير وإجراء عمليات سيبرانية متطورة، يجب على الولايات المتحدة أن تتحرك بسرعة لضمان بقاء ابتكاراتها في مجال الذكاء الاصطناعي آمنة وقادرة على المنافسة في هذا المشهد التكنولوجي المتغير بسرعة.

موجة من مخاطر التزييف والعنف

لقد شهدنا بالفعل الموجة الأولى من المخاطر التي تعمل بالذكاء الاصطناعي. اذ ساعدت عمليات التزييف العميق وحسابات الروبوتات والتلاعب الخوارزمي على وسائل التواصل الاجتماعي في تقويض التماسك الاجتماعي مع المساهمة في إنشاء غرف سياسية لها صدى. لكن هذه المخاطر هي لعبة أطفال مقارنةً بالمخاطر التي ستظهر في السنوات الخمس إلى العشر القادمة.

الذكاء الاصطناعي سيصنع أسلحة بيولوجية

خلال الوباء، رأينا السرعة غير المسبوقة التي يمكن بها تطوير لقاحات جديدة بمساعدة الذكاء الاصطناعي. وكما أشار مصطفى سليمان، مؤسس «ديب مايند» والرئيس التنفيذي لشركة «مايكروسوفت إيه آي»، (Microsoft AI)، الآن، فلن يمر وقت طويل قبل أن يتمكن الذكاء الاصطناعي من تصميم أسلحة بيولوجية جديدة بنفس السرعة. ولن تقتصر هذه القدرات على الجهات الفاعلة في الدولة.

إن تكنولوجيا الطائرات من دون طيار الحديثة جعلت من السهل الوصول إلى القدرات التي كانت ذات يوم حكراً على الجيش وحده. كما أن أي فرد لديه حتى معرفة أولية بالبرمجة سوف يكون قادراً قريباً على تسليح الذكاء الاصطناعي من غرفة نومه في المنزل.

وعندما تنهار الثقة في قدرة الحكومة على التعامل مع مثل هذه الأحداث غير المتوقعة، فإن النتيجة هي الخوف والارتباك والفكر التآمري.

مخاطر جيوسياسية

لقد شكَّلت سبع سنوات قضيتها في مساعدة وزارتَي الدفاع والأمن الداخلي في الابتكار والتحول (التنظيمي والرقمي) تفكيري حول المخاطر الجيوسياسية الحقيقية التي يجلبها الذكاء الاصطناعي والتقنيات الرقمية معها. ولكن هذه المخاطر لا تأتي من خارج بلادنا فقط. فقد شهد العقد الماضي تسامحاً متزايداً بين كثير من المواطنين الأميركيين لفكرة العنف السياسي، وهي الظاهرة التي برزت بشكل واضح في أعقاب إطلاق النار على الرئيس التنفيذي لشركة «يونايتد هيلث كير» براين تومسون.

البطالة الجماعية والاضطرابات المقبلة

ومع استبدال الأتمتة بأعداد متزايدة من الوظائف، فمن المحتمل تماماً أن تؤدي موجة من البطالة الجماعية إلى اضطرابات شديدة، مما يُضاعف من خطر استخدام الذكاء الاصطناعي سلاحاً للهجوم على المجتمع ككل. ستكون هذه المخاطر على عتبات أبوابنا قريباً.

ولكن الأكثر إثارة للقلق هو المجهول. إذ يتطور الذكاء الاصطناعي بسرعة البرق، وحتى أولئك المسؤولون عن هذا التطور ليس لديهم أي فكرة بالضبط عن المكان الذي سننتهي إليه.

الذكاء الاصطناعي قد يمحو البشرية

وقد صرح جيفري هينتون الحائز جائزة نوبل، الذي يسمَّى الأب الروحي للذكاء الاصطناعي، بأن هناك فرصة كبيرة لأن يمحو الذكاء الاصطناعي البشرية في غضون 30 عاماً فقط. ويفترض خبراء آخرون أن الأفق الزمني أضيق بكثير.

ضوابط قائمة على المخاطر

«يجب أن يكون التنظيم المنظم قائماً على المخاطر»، إذ لا يمكننا أن نتحمل التعامل مع تنظيم الذكاء الاصطناعي بنفس الطريقة العشوائية التي جرى تطبيقها على تكنولوجيا الطائرات من دون طيار. نحن بحاجة إلى نهج قابل للتكيف وبعيد المدى وموجه نحو المستقبل للتنظيم والذي تم تصميمه لحمايتنا من أي شيء قد ينشأ بينما ندفع حدود الذكاء الآلي.

خلال مقابلة أُجريت أخيراً مع السيناتور ريتشارد بلومنثال، ناقشت مسألة كيف يمكننا تنظيم تكنولوجيا لا نفهمها بالكامل بعد بشكل فعال؟ وبلومنثال هو المؤلف المشارك مع السيناتور جوش هاولي لقانون الإطار الحزبي لقانون الذكاء الاصطناعي الأمريكي، والمعروف أيضاً باسم «إطار بلومنثال-هاولي».

يقترح بلومنثال نهجاً خفيفاً نسبياً، مما يشير إلى أن الطريقة التي تنظم بها حكومة الولايات المتحدة صناعة الأدوية يمكن أن تكون بمثابة نموذج لنهجنا تجاه الذكاء الاصطناعي. ويزعم أن هذا النهج يوفر ترخيصاً صارماً وإشرافاً على التقنيات الناشئة الخطيرة المحتملة دون فرض قيود غير مبرَّرة على قدرة الشركات الأمريكية على البقاء في طليعة العالم في هذا المجال.

و يقول بلومنثال: «نحن لا نريد خنق الابتكار. ولهذا السبب يجب أن يكون التنظيم المنظم قائماً على المخاطر. إذا لم يشكل خطراً، فلن نحتاج إلى هيئة تنظيمية».

يقدم هذا النهج نقطة انطلاق قيمة للمناقشة، لكنني أعتقد أننا بحاجة إلى الذهاب إلى أبعد من ذلك. في حين أن النموذج الدوائي قد يكون كافياً لتنظيم تطوير الذكاء الاصطناعي للشركات، فإننا نحتاج أيضاً إلى إطار من شأنه أن يحد من المخاطر التي يفرضها الأفراد.

يتطلب تصنيع وتوزيع الأدوية بنية تحتية كبيرة، لكنَّ الرموز الكومبيوترية هي «وحش مختلف» تماماً، إذ يمكن تكرارها إلى ما لا نهاية ونقلها إلى أي مكان على الكوكب في جزء من الثانية.

وقف انفلات الذكاء الاصطناعي

إن احتمالية إنشاء الذكاء الاصطناعي «الإشكالي» (المسبب للمشكلات) و«تسربه إلى العالم» أعلى بكثير مما هي الحال بالنسبة للأدوية الجديدة والخطيرة.

ونظراً إلى إمكانية الذكاء الاصطناعي توليد نتائج على مستوى الانقراض (البشري)، فليس من المبالغة القول إن الأطر التنظيمية المحيطة بالأسلحة النووية والطاقة النووية أكثر ملاءمة لهذه التكنولوجيا من تلك التي تنطبق على صناعة الأدوية.

ومهما اخترنا من موازنة المخاطر والمكافآت في أبحاث الذكاء الاصطناعي، فنحن بحاجة إلى التحرك قريباً. إذ إن الافتقار إلى إطار شامل ومتماسك لإدارة التهديدات من التقنيات الجديدة يمكن أن يترك الوكالات الحكومية مشلولة.

ومع المخاطر التي تشمل أي شيء يصل إلى انقراض البشرية، لا يمكننا أن نتحمل هذا النوع من الجمود والارتباك. نحن بحاجة إلى إطار تنظيمي شامل يوازن بين الابتكار والسلامة، وهو الإطار الذي يعترف بالإمكانات التحويلية للذكاء الاصطناعي ومخاطره الوجودية.

بين الابتكار والسلامة

وهذا يعني:

• تعزيز الابتكار المسؤول، وتشجيع تطوير ونشر تقنيات الذكاء الاصطناعي في القطاعات الحيوية بطريقة آمنة وأخلاقية.

• وضع لوائح قوية. تتطلب الثقة العامة في أنظمة الذكاء الاصطناعي أطراً تنظيمية واضحة وقابلة للتنفيذ وأنظمة شفافة للمساءلة.

• تعزيز الأمن القومي. يجب على صناع السياسات الاستفادة من الذكاء الاصطناعي لتحديث القدرات العسكرية، ونشر حلول الذكاء الاصطناعي التي تتنبأ بالتهديدات السيبرانية وتكتشفها وتواجهها مع ضمان الاستخدام الأخلاقي للأنظمة المستقلة.

• الاستثمار في تنمية القوى العاملة. يجب علينا إنشاء برامج تدريبية شاملة تعمل على رفع مهارات العمال للصناعات التي تعتمد على الذكاء الاصطناعي مع تعزيز التعليم في العلوم والتكنولوجيا والهندسة والرياضيات لبناء الخبرة الأساسية في الذكاء الاصطناعي بين الطلاب والمهنيين.

• الريادة في معايير الذكاء الاصطناعي العالمية. يجب على الولايات المتحدة أن تقود الجهود الرامية إلى وضع معايير عالمية لاستخدام الذكاء الاصطناعي من خلال الشراكة مع الحلفاء لتحديد المعايير الأخلاقية وحماية الملكية الفكرية.

• معالجة المخاوف العامة. يتطلب تأمين الثقة العامة في الذكاء الاصطناعي زيادة الشفافية حول أهداف وتطبيقات مبادرات الذكاء الاصطناعي مع تطوير استراتيجيات للتخفيف من تشريد العاملين في الوظائف وضمان الفوائد الاقتصادية العادلة.

* مجلة «فاست كومباني»، خدمات «تريبيون ميديا».


مقالات ذات صلة

رجل يطلب تغريم شركة «تشات جي بي تي» بعد تعريفه بأنه مجرم وقتل طفليه

تكنولوجيا شعار «تشات جي بي تي» (رويترز)

رجل يطلب تغريم شركة «تشات جي بي تي» بعد تعريفه بأنه مجرم وقتل طفليه

تقدَّم رجل نرويجي بشكوى بعد أن أخبره برنامج «تشات جي بي تي»، بالخطأ، أنه قتل اثنين من أبنائه وسُجن لمدة 21 عاماً.

«الشرق الأوسط» (لندن)
تكنولوجيا روبوت يعمل بتقنية الذكاء الاصطناعي (أ.ف.ب)

الإنسان والحاسوب من التنافس إلى الشراكة

يتغير العالم حولنا اليوم بتسارع لم يسبق له مثيل في التاريخ. وتتطور مستجدات تكنولوجيا المعلومات والاتصالات، بحيث يصعب على المرء مجرد متابعتها.

علوم «نيوساينتست»: وزير التكنولوجيا البريطاني يستخدم برنامج «تشات جي بي تي» لتقديم المشورة بشأن السياسات الحكومية

وزير التكنولوجيا البريطاني يستخدم برنامج «تشات جي بي تي» لتقديم المشورة بشأن السياسات

استخدم بيتر كايل، وزير التكنولوجيا البريطاني، برنامج «تشات جي بي تي» (ChatGPT) لتقديم المشورة بشأن السياسات.

«الشرق الأوسط» (لندن)
الاقتصاد مقر شركة «سوفت بنك» في العاصمة اليابانية طوكيو (أ.ف.ب)

«سوفت بنك» تستحوذ على صانعة الرقائق «أمبير» مقابل 6.5 مليار دولار

أعلنت مجموعة «سوفت بنك» الاستثمارية اليابانية شراء شركة «أمبير كومبيوتينغ» مقابل 6.5 مليار دولار

«الشرق الأوسط» (طوكيو)
الاقتصاد جزيرة شيبارة أحد مشاريع البحر الأحمر في السعودية (الشرق الأوسط)

تقرير أممي يدعو رواد الأعمال لتوظيف الذكاء الاصطناعي في السياحة

في وقت تعمل الحكومة السعودية على الاستفادة من الذكاء الاصطناعي في قطاعها السياحي، يبرز دور شركات القطاع في مجاراة الخطوات الحكومية.

بندر مسلم (الرياض)

«نيوساينتست»: وزير التكنولوجيا البريطاني يستخدم برنامج «تشات جي بي تي» لتقديم المشورة بشأن السياسات الحكومية

«نيوساينتست»: وزير التكنولوجيا البريطاني يستخدم برنامج «تشات جي بي تي» لتقديم المشورة بشأن السياسات الحكومية
TT

«نيوساينتست»: وزير التكنولوجيا البريطاني يستخدم برنامج «تشات جي بي تي» لتقديم المشورة بشأن السياسات الحكومية

«نيوساينتست»: وزير التكنولوجيا البريطاني يستخدم برنامج «تشات جي بي تي» لتقديم المشورة بشأن السياسات الحكومية

كشفت مجلة «نيو ساينتست» العلمية البريطانية أن بيتر كايل، وزير التكنولوجيا البريطاني، قد استخدم برنامج «تشات جي بي تي» (ChatGPT) لتقديم المشورة بشأن السياسات، كما كتب كريس ستوكيل - ووكر (*).

وحصلت «نيو ساينتست» الآن على سجلات استخدام الوزير كايل للبرنامج الذكي، بموجب قانون حرية المعلومات (FOI)، فيما يُعتقد أنه أول اختبار عالمي لمدى خضوع تفاعلات روبوتات الدردشة لهذا القانون.

سؤال حول بطء تبني الشركات للذكاء الاصطناعي

تُظهر هذه السجلات أن كايل طلب من «تشات جي بي تي» توضيح سبب تباطؤ مجتمع الشركات الصغيرة والمتوسطة في المملكة المتحدة في تبني الذكاء الاصطناعي. وأجاب البرنامج بقائمة من 10 نقاط للأسباب المحتملة، بما في ذلك اجابات حول «الوعي والفهم المحدود»، و«المخاوف التنظيمية والأخلاقية»، و«نقص الدعم الحكومي أو المؤسسي».

صعوبات التعامل ومحدودية التمويل والحوافز

أبلغ روبوت الدردشة كايل: «في حين أطلقت حكومة المملكة المتحدة مبادرات لتشجيع تبني الذكاء الاصطناعي، فإن كثيراً من الشركات الصغيرة والمتوسطة لا تدرك أهمية هذه البرامج أو تجد صعوبة في التعامل معها. كما أن محدودية الوصول إلى التمويل أو الحوافز لتقليل مخاطر الاستثمار في الذكاء الاصطناعي يمكن أن تُعيق تبنيه».

مخاوف قانونية وتنظيمية

وأضاف البرنامج، فيما يتعلق بالمخاوف التنظيمية والأخلاقية: «الامتثال لقوانين حماية البيانات، مثل اللائحة العامة لحماية البيانات (قانون خصوصية البيانات)، قد يُشكل عقبة كبيرة. وقد تقلق الشركات الصغيرة والمتوسطة بشأن القضايا القانونية والأخلاقية المرتبطة باستخدام الذكاء الاصطناعي».

وقال متحدث باسم وزارة العلوم والابتكار والتكنولوجيا (DSIT)، التي يرأسها كايل، إن الوزير بصفته المسؤول عن الذكاء الاصطناعي يستخدم هذه التقنية، إلا أن هذا لا يُغني عن النصائح الشاملة التي يتلقاها بانتظام من المسؤولين. وأضاف: «تستخدم الحكومة الذكاء الاصطناعي كأداة لتوفير الجهد، مدعومة بتوجيهات واضحة حول كيفية استخدام هذه التقنية بسرعة وأمان».

سؤال حول استخدام البودكاست

استخدم كايل أيضاً روبوت المحادثة لجمع أفكار حول الظهور الإعلامي، متسائلاً: «أنا وزير دولة للعلوم والابتكار والتكنولوجيا في المملكة المتحدة. ما هي أفضل البودكاستات التي يُمكنني الظهور عليها للوصول إلى جمهور واسع ومناسب لمسؤولياتي الوزارية؟»

اقترح برنامج «جي بي تي» برنامجي «The Infinite Monkey Cage» و«The Naked Scientists»، بناءً على عدد مستمعيهما.

وبالإضافة إلى طلب هذه النصائح، طلب كايل من البرنامج الذكي تعريف مصطلحات مختلفة ذات صلة بوزارته: «المادة المضادة» (antimatter)، و«الشمول الرقمي» (digital inclusion)، و«الكم» (quantum).

برنامج جيد

وأعرب خبيران تحدثت إليهما مجلة «نيو ساينتست» عن دهشتهما من جودة ردود البرنامج على تعريفاته للكم. وقال بيتر نايت من «إمبريال كوليدج لندن»: «هذا جيد بشكل مدهش، في رأيي». ويقول كريستيان بوناتو من جامعة هيريوت وات في إدنبره، بالمملكة المتحدة: «أعتقد أنه ليس سيئاً على الإطلاق».

وأكد كايل أنه استخدم البرنامج «لمحاولة فهم السياق الأوسع الذي نشأ منه الابتكار، والأشخاص الذين طوّروه، والمؤسسات التي تقف وراءهم»، وأن «تشات جي بي تي» ممتاز للغاية، وعندما تجد صعوبة في فهم الأمور بعمق يمكن أن يكون مُدرّباً جيداً جداً لها.

وكانت دائرة تكنولوجيا المعلومات والاتصالات رفضت في البداية طلب «حرية المعلومات» المقدم من مجلة «نيو ساينتست»، قائلةً: «يتضمن سجل بيتر كايل في (تشات جي بي تي) طلبات وردوداً قُدّمت بصفة شخصية ورسمية». إلا أن الموافقة تمت على طلب مُحسّن، يقتصر على الطلبات والردود المقدمة بصفة رسمية فقط.

سابقة قانونية

يقول تيم تيرنر، خبير حماية البيانات المقيم في مانشستر بالمملكة المتحدة، إن مجرد تقديم البيانات يُعدّ صدمة، ويعتقد أنها قد تكون أول حالة تُنشر فيها تفاعلات (مراسلات) روبوتات الدردشة بموجب قانون حرية المعلومات. ويضيف: «أنا مندهش من حصولكم عليها. كنت أعتقد أنهم سيحرصون على تجنب سابقة قانونية».

وهذا بدوره يطرح تساؤلات على الحكومات التي لديها قوانين مماثلة لحرية المعلومات، مثل الولايات المتحدة. فعلى سبيل المثال، هل يُشبه «تشات جي بي تي» برامج رسائل البريد الإلكتروني أو محادثات «واتساب»، وكلاهما يخضع تاريخياً لقانون حرية المعلومات، أم أنه يُشبه نتائج استعلام محرك للبحث، التي كان من الأسهل على المؤسسات رفضها تقليدياً؟ يختلف الخبراء حول الإجابة.

* خدمات «تريبيون ميديا»