حملات عالمية لـ«محو أمية» الذكاء الاصطناعي

قوانين أميركية وأوروبية لتطوير مهارات التفكير النقدي وتقييم استخدامه المناسب

حملات عالمية لـ«محو أمية» الذكاء الاصطناعي
TT
20

حملات عالمية لـ«محو أمية» الذكاء الاصطناعي

حملات عالمية لـ«محو أمية» الذكاء الاصطناعي

مع ازدياد توظيف التكنولوجيا في الحياة اليومية، يواجه الباحثون والمعلمون عقبتين متميزتين: تعليم الناس كيفية استخدام هذه الأدوات بمسؤولية بدلاً من الاعتماد عليها بشكل مفرط، مع إقناع المتشككين في الذكاء الاصطناعي بتعلم ما يكفي عن التكنولوجيا ليكونوا مواطنين مطلعين، حتى لو اختاروا عدم استخدامها، كما كتبت جاكي سنو(*).

هدف نشر الذكاء الاصطناعي

الهدف لا يتعلق بمجرد محاولة «إصلاح» نماذج الذكاء الاصطناعي من هفواتها وهلوساتها، التي تقول عنها ماريا دي أرتيغا، الأستاذة المساعدة في كلية ماكومبس لإدارة الأعمال بجامعة تكساس في أوستن: «إن النماذج لا تفشل. نحن الذين نستخدم النماذج لأشياء لا تصلح للغرض المقصود منها».

بل إن الهدف هو التعرف على أوجه القصور في الذكاء الاصطناعي وتطوير المهارات اللازمة لاستخدامه بحكمة. وهذا يُذكِّرنا بكيفية اضطرار مستخدمي الإنترنت الأوائل إلى تعلم كيفية التنقل عبر المعلومات عبر الإنترنت، إذ إنهم فهموا في النهاية أنه في حين قد تكون «ويكيبيديا» نقطة انطلاق جيدة للبحث، فلا ينبغي الاستشهاد بها كمصدر أساسي. وكما أصبحت معرفة القراءة والكتابة الرقمية ضرورية للمشاركة في الحياة الحديثة، فإن معرفة القراءة والكتابة في مجال الذكاء الاصطناعي أصبحت أساسية لفهم وتشكيل مستقبلنا.

هلوسة الذكاء الاصطناعي

في قلب هذه الحوادث المؤسفة للذكاء الاصطناعي، تقبع الهلوسة والتشوهات التي تدفع نماذج الذكاء الاصطناعي إلى توليد معلومات كاذبة بثقة ظاهرية. وهذه المشكلة منتشرة على نطاق واسع: في إحدى الدراسات التي أجريت عام 2024، أخطأت برامج المحادثة الآلية في الاستشهادات الأكاديمية الأساسية بنسبة تتراوح بين 30 في المائة و90 في المائة من الوقت، مما أدى إلى تشويه عناوين الأوراق البحثية وأسماء المؤلفين وتواريخ النشر.

بينما تَعِد شركات التكنولوجيا بإمكانية ترويض هذه الهلوسة من خلال هندسة أفضل، تقول دي أرتيغا إن الباحثين يجدون أنها قد تكون أساسية لكيفية عمل التكنولوجيا. وتشير إلى ورقة بحثية من OpenAI -شركة «أوبن إيه آي» التي خلصت إلى أن نماذج اللغة «المعايرة جيداً» يجب أن تهلوس كجزء من عمليتها الإبداعية. وإذا جرى تقييدها لإنتاج معلومات واقعية فقط، فإنها ستتوقف عن العمل بشكل فعال. وتضيف دي أرتيغا: «من وجهة نظر رياضية وفنية، هذا هو ما صُممت النماذج للقيام به».

قوانين تعليمية لمحو «أمية الذكاء الاصطناعي»

مع اعتراف الباحثين بأن هلوسات الذكاء الاصطناعي أمر لا مفر منه وأن البشر يميلون بطبيعة الحال إلى وضع كثير من الثقة في الآلات، يتدخل المعلمون وأصحاب العمل لتعليم الناس كيفية استخدام هذه الأدوات بشكل مسؤول.

وقد أقرَّت ولاية كاليفورنيا أخيراً قانوناً يتطلب دمج التعرف وتعليم الذكاء الاصطناعي في المناهج الدراسية من الروضة حتى الصف الثاني عشر بدءاً من هذا الخريف. كما يتطلب قانون الذكاء الاصطناعي للاتحاد الأوروبي، الذي دخل حيز التنفيذ في 5 فبراير (شباط) الحالي، من المنظمات التي تستخدم الذكاء الاصطناعي في منتجاتها تنفيذ برامج معرفة الذكاء الاصطناعي.

يقول فيكتور لي، الأستاذ المشارك في كلية الدراسات العليا للتربية بجامعة ستانفورد: «معرفة الذكاء الاصطناعي مهمة للغاية الآن، خصوصاً أننا نحاول معرفة السياسات، وما الحدود، وما الذي نريد قبوله بوصفه الوضع الطبيعي الجديد. في الوقت الحالي، يتحدث الأشخاص الذين يعرفون أكثر بثقة كبيرة، وهم قادرون على توجيه الأمور، وهناك حاجة إلى مزيد من الإجماع المجتمعي».

ويرى لي أوجه تشابه مع كيفية تكيف المجتمع مع التقنيات السابقة: «فكر في الآلات الحاسبة - حتى يومنا هذا، لا تزال هناك انقسامات حول متى تستخدم الآلة الحاسبة في الروضة حتى الصف الثاني عشر، وما يجب أن تعرفه مقابل ما يجب أن تكون الآلة الحاسبة مصدراً للأشياء»، كما يقول. ويضيف: «مع الذكاء الاصطناعي، نجري نفس المحادثة غالباً مع الكتابة كمثال».

تدريب على المهارات وفهم أعمق للتكنولوجيا

وبموجب القانون الجديد في كاليفورنيا، يتعين على تعليم معرفة الذكاء الاصطناعي أن يشمل فهم كيفية تطوير أنظمة الذكاء الاصطناعي وتدريبها، وتأثيراتها المحتملة على الخصوصية والأمن، والآثار الاجتماعية والأخلاقية لاستخدام الذكاء الاصطناعي. ويذهب الاتحاد الأوروبي إلى أبعد من ذلك، حيث يطلب من الشركات التي تنتج منتجات الذكاء الاصطناعي تدريب الموظفين المناسبين على «المهارات والمعرفة والفهم التي تسمح للمزودين والموزعين والأشخاص المتضررين... بنشر أنظمة الذكاء الاصطناعي بشكل مستنير، فضلاً عن اكتساب الوعي بالفرص والمخاطر التي يفرضها الذكاء الاصطناعي والأضرار المحتملة التي يمكن أن يسببها».

ويؤكد الإطاران أن معرفة الذكاء الاصطناعي ليست مجرد معرفة تقنية بل تتعلق بتطوير مهارات التفكير النقدي لتقييم الاستخدام المناسب للذكاء الاصطناعي في مجالات وسياقات مختلفة.

تسويق «سحري»

وفي خضمّ هجوم تسويقي من شركات التكنولوجيا الكبرى، فإن التحدي الذي يواجه المعلمين معقَّد. وتُظهِر الأبحاث الحديثة المنشورة في «مجلة التسويق» Journal of Marketing، أن الأشخاص الذين لديهم فهم أقل للذكاء الاصطناعي هم في الواقع أكثر عرضة لاحتضان التكنولوجيا، واعتبارها سحرية تقريباً. ويقول الباحثون إن هذا الرابط بين «انخفاض معرفة القراءة والكتابة والاستقبال الأعلى» للتكنولوجيا يشير إلى «أن الشركات قد تستفيد من تحويل جهودها التسويقية وتطوير المنتجات نحو المستهلكين الذين لديهم معرفة أقل بالذكاء الاصطناعي».

ويقول المعلمون إن الهدف ليس إضعاف الانفتاح على التكنولوجيا الجديدة، بل الجمع بينها وبين مهارات التفكير النقدي التي تساعد الناس على فهم إمكانات الذكاء الاصطناعي وحدوده. وهذا مهم بشكل خاص للأشخاص الذين يفتقرون إلى القدرة على الوصول إلى التكنولوجيا، أو الذين يشككون ببساطة في الذكاء الاصطناعي أو يخشونه.

بالنسبة إلى الباحث لي، فإن النجاح في محو أمية الذكاء الاصطناعي يتطلب رؤية السحر فيه. يقول: «يغذّي القلق وعدم اليقين الكثير من الشكوك أو عدم الرغبة في تجربة الذكاء الاصطناعي. إن رؤية أن الذكاء الاصطناعي هو في الواقع مجموعة من الأشياء المختلفة، وليس جهاز كمبيوتر حساساً يتحدث، وأنه ليس حتى يتحدث حقاً، بل مجرد يلفظ الأنماط المناسبة، هو جزء مما قد يساعد على محو أمية الذكاء الاصطناعي في غرسه».

تطوير مناهج تدريس الذكاء الاصطناعي

في جامعة مدينة نيويورك يقود لوك والتزر، مدير مركز التدريس والتعلم في مركز الدراسات العليا بالمدرسة، مشروعاً لمساعدة أعضاء هيئة التدريس في تطوير مناهج لتدريس محو أمية الذكاء الاصطناعي ضمن تخصصاتهم.

يقول والتزر إن الطلاب يحتاجون إلى فهم أن هذه الأدوات لها أساس مادي - فهي مصنوعة من رجال ونساء، ولها آثار في العمل، ولها تأثير بيئي».

ويعمل المشروع «CUNY»، المدعوم بمنحة قدرها مليون دولار من «غوغل» مع 75 أستاذاً على مدار ثلاث سنوات لتطوير أساليب التدريس التي تدرس آثار الذكاء الاصطناعي عبر مجالات مختلفة. وسيتم توزيع المواد والأدوات التي تم تطويرها من خلال المشروع علناً حتى يتمكن المعلمون الآخرون من الاستفادة من عمله. يقول والتزر: « ثلاث سنوات تسمح للأمور بالاستقرار. سنكون قادرين على رؤية المستقبل بوضوح أكبر».

مناهج جامعية

تنتشر مثل هذه المبادرات بسرعة عبر التعليم العالي. إذ تهدف جامعة فلوريدا إلى دمج الذكاء الاصطناعي في كل تخصص جامعي وبرنامج دراسات عليا. وابتكرت كلية بارنارد نهجاً «هرمياً» يبني تدريجياً معرفة الطلاب بالذكاء الاصطناعي من الفهم الأساسي إلى التطبيقات المتقدمة. وفي كلية كولبي، وهي كلية خاصة للفنون الليبرالية في ولاية ماين، يعزز الطلاب معرفتهم بالقراءة والكتابة باستخدام بوابة مخصصة تتيح لهم اختبار ومقارنة روبوتات الدردشة المختلفة.

ووفقاً لبحث أجراه مركز الأمن والتكنولوجيا الناشئة، فقد أطلقت نحو 100 جامعة وكلية مجتمعية شهادات الذكاء الاصطناعي، مع زيادة منح الدرجات العلمية في المجالات المتعلقة بالذكاء الاصطناعي بنسبة 120 في المائة منذ عام 2011.

فصل مزاعم التسويق عن الحقائق

بالنسبة إلى معظم الناس، فإن تعلم كيفية التنقل في الذكاء الاصطناعي، يعني فرز ادعاءات التسويق للشركات مع القليل من التوجيه. على عكس الطلاب الذين سيحصلون قريباً على تعليم رسمي في مجال الذكاء الاصطناعي، يجب على البالغين أن يكتشفوا بأنفسهم متى يثقون في هذه الأدوات المنتشرة بشكل متزايد - ومتى يتم بيعها بشكل مفرط من الشركات الحريصة على استرداد استثمارات الذكاء الاصطناعي الضخمة.

يحدث هذا التعلم الذاتي بسرعة، فقد وجدت «لينكد إن» أن العاملين يضيفون مهارات معرفة الذكاء الاصطناعي مثل الهندسة السريعة والكفاءات مع أدوات مثل «تشات جي بي تي» بمعدل خمسة أضعاف تقريباً من المهارات المهنية الأخرى.

دورات لشركات التكنولوجيا

مع محاولة الجامعات والمشرعين مواكبة ذلك، تقدم شركات التكنولوجيا فصولها وشهاداتها الخاصة. فقد أعلنت «نفيديا» أخيراً عن شراكة مع كاليفورنيا لتدريب 100000 طالب ومعلم وعامل في مجال الذكاء الاصطناعي، بينما تقدم شركات مثل «غوغل» و«أمازون Services» برامج شهادة الذكاء الاصطناعي الخاصة بها.

وتهدف شركة «إنتل» إلى تدريب 30 مليون شخص على مهارات الذكاء الاصطناعي بحلول عام 2030، بالإضافة إلى دورات مهارات الذكاء الاصطناعي المجانية عبر الإنترنت التي تقدمها مؤسسات مثل جامعة هارفارد وجامعة بنسلفانيا، يمكن للأشخاص أيضاً تعلم أساسيات الذكاء الاصطناعي من شركات مثل «آي بي إم» و«مايكروسوفت» و«غوغل».

وتقول دي أرتيغا: «إن معرفة الذكاء الاصطناعي تشبه معرفة القراءة والكتابة الرقمية -إنها شيء حقيقي. ولكن من الذي ينبغي أن يعلمك ذلك؟ ستحب شركتا (ميتا) و(غوغل) أن تعلماك وجهتي نظريهما حول الذكاء الاصطناعي».

بدلاً من الاعتماد على الشركات ذات المصلحة في بيعك فائدة الذكاء الاصطناعي، يقترح الخبراء البدء بأدوات الذكاء الاصطناعي في المجالات التي تتمتع فيها بالخبرة، حتى تتمكن من التعرف على فائدتها وحدودها. قد يستخدم المبرمج الذكاء الاصطناعي للمساعدة في كتابة التعليمات البرمجية بكفاءة أكبر مع القدرة على اكتشاف الأخطاء وقضايا الأمان التي قد يغفلها المبتدئ.

يكمن المفتاح في الجمع بين الخبرة العملية والتوجيه من أطراف ثالثة موثوقة يمكنها تقديم معلومات غير متحيزة حول قدرات الذكاء الاصطناعي، خصوصاً في المجالات ذات المخاطر العالية مثل الرعاية الصحية والتمويل والدفاع.

إن معرفة الذكاء الاصطناعي لا تتعلق فقط بكيفية عمل النموذج أو كيفية إنشاء مجموعة بيانات، فالأمر يتعلق بفهم مكانة الذكاء الاصطناعي في المجتمع. الجميع -من الأطفال إلى المتقاعدين- لديهم مصلحة في هذه المحادثة، ونحن بحاجة إلى التقاط كل هذه وجهات النظر.

* مجلة «فاست كومباني»، خدمات «تريبيون ميديا».

حقائق

بين 30 و90 %

من الوقت أخطأت برامج المحادثة الآلية في الاستشهادات الأكاديمية الأساسية مما أدى إلى تشويه عناوين الأوراق البحثية وأسماء المؤلفين وتواريخ النشر وفق إحدى الدراسات التي أُجريت عام 2024

حقائق

100

جامعة وكلية مجتمعية أميركية تقريباً تُصدر شهادات الذكاء الاصطناعي


مقالات ذات صلة

مصر: أزمة إعلانية لاستعانة شركة حلويات بنجوم الزمن الجميل

يوميات الشرق فؤاد المهندس في الإعلان المثير للجدل (يوتيوب)

مصر: أزمة إعلانية لاستعانة شركة حلويات بنجوم الزمن الجميل

الإعلان المثير للجدل صُمِّم بالذكاء الاصطناعي بشكل كامل، يُظهر مجموعة من نجوم الزمن الجميل كأنهم يعملون في المحل الشهير ويقدِّمون الحلوى للزبائن...

أحمد عدلي (القاهرة)
يوميات الشرق صور مولدة بالذكاء الاصطناعي لإحدى لقطات فيلم «سمير وشهير وبهير» على غرار استديو غيبيلي (متداولة)

تفاعل «سوشيالي» مع صور من عالم «استوديو غيبلي»... ومخاوف بشأن حقوق الملكية

انتشرت في الأيام السابقة صور مُنتجة بالذكاء الاصطناعي على غرار  «استوديو غيبلي»، استوديو الرسوم المتحركة الياباني الشهير.

يسرا سلامة (القاهرة)
تحليل إخباري يُعيد الذكاء الاصطناعي تشكيل الذكاء البشري بتوسيع قدراته وتعزيز تفاعله مع الحواسيب (شاترستوك)

تحليل إخباري مستقبل العلاقة بين ذكاء الإنسان والحاسوب... تعايش أم صراع؟

يُحدث الذكاء الاصطناعي ثورة في قدرات الذكاء البشري، ما يُمكِّن من الاندماج الكامل مع الحواسيب لتعزيز القدرات الذهنية والتكنولوجية بشكل غير مسبوق.

د. حسن الشريف
خاص يعزز الذكاء الاصطناعي من كفاءة العمليات ويوفر تجارب تسوق شخصية من خلال تحسين الاتصال وتوفير تحليلات فورية (أ.ف.ب)

خاص كيف يساعد الذكاء الاصطناعي تجار التجزئة في تحليل سلوك المستهلك بدقة؟

تلعب الشبكات المدعومة بالذكاء الاصطناعي دوراً أساسياً في تخصيص تجربة التسوق فورياً مستفيدةً من بيانات تفاعلات العملاء وسجلات التصفح والرؤى القائمة على الموقع.

نسيم رمضان (لندن)
تكنولوجيا مزج الباحثون بين نماذج الذكاء الاصطناعي التوليدية لإنشاء أداة سريعة تنتج صوراً بدقة عالية (Christine Daniloff, MIT)

في جزء من الثانية... «هارت» يولد صوراً عالية الجودة عبر الذكاء الاصطناعي

«هارت» (HART) أداة جديدة لإنشاء الصور بالذكاء الاصطناعي، تتفوق على التقنيات الحالية بجودة أعلى، وسرعة أكبر بتسع مرات من النماذج الحالية!

نسيم رمضان (لندن)

لضمان الهيمنة الأميركية: شركات الذكاء الاصطناعي تتراجع عن تعهدات السلامة

لضمان الهيمنة الأميركية: شركات الذكاء الاصطناعي تتراجع عن تعهدات السلامة
TT
20

لضمان الهيمنة الأميركية: شركات الذكاء الاصطناعي تتراجع عن تعهدات السلامة

لضمان الهيمنة الأميركية: شركات الذكاء الاصطناعي تتراجع عن تعهدات السلامة

«بنت الشركات التي تتسابق للسيطرة على مستقبل الذكاء الاصطناعي تقنياتها وأعمالها من خلال تتبعك، وبياناتك، بعناية. لكنها لا تفضل أن تتابعها أنت، وتحديداً لا تفضل أن يتابع المستخدمون الطرق التي تُعدّل بها التزاماتها الأخلاقية والخصوصية الطوعية - وهي بعض الضمانات القليلة التي تهدف إلى الحفاظ على مستقبل الذكاء الاصطناعي آمناً»، كما كتبت جاكي سنو(*).

الهيمنة الأميركية تفكك حواجز السلامة

مع سعي إدارة الرئيس ترمب الدؤوب لتفكيك حواجز السلامة لتعزيز «الهيمنة الأميركية» في مجال الذكاء الاصطناعي، وتفكيك الشركات لفرق السلامة التابعة لها، وقع على عاتق منظمة غير ربحية صغيرة ذات موارد محدودة مسؤولية تتبع كيفية تعديل هذه الشركات التي تبلغ قيمتها تريليونات الدولارات لسياساتها والوفاء بالتزاماتها الأخلاقية.

مشروع يراقب 16 شركة رائدة

أصبح تايلر جونستون ومجموعته، مشروع ميداس Midas Project، بمثابة «إدارة إطفاء» رقمية تعمل بمفردها، في محاولة لرصد «غابة من الحرائق المحتملة». وأُطلق مشروع «برج مراقبة سلامة الذكاء الاصطناعي» AI Safety Watchtower التابع للمنظمة غير الربحية في منتصف عام 2024، وهو يتتبع الآن 16 شركة - بما في ذلك «أوبن إيه آي غوغل» و«أنثروبيك» - لمراقبة مئات من وثائق السياسات وصفحات الويب بحثاً عن أي تغييرات في عملها.

يقول جونستون: «لو كان لدى كل شركة ذكاء اصطناعي، سجل بالتغييرات، لما كان هذا العمل ضرورياً. بل كان سيمثل أقصى درجات الشفافية. ولكن بدلاً من ذلك، يقع على عاتق المنظمات غير الربحية والصحافيين مسؤولية مراقبة هذا الأمر، ولا أحد يمتلك المعدات الكافية لالتقاط كل شيء».

إزالة معايير سلامة ومسؤولية الذكاء الاصطناعي

تأتي مخاوف جونستون بشأن التزامات السلامة المتخلى عنها في الوقت الذي تعمل فيه إدارة ترمب بنشاط على تفكيك حواجز سلامة الذكاء الاصطناعي. في يومه الثاني في منصبه هذه الفترة، وقّع ترمب أمراً تنفيذياً يلغي أمر الرئيس السابق بايدن بشأن سلامة الذكاء الاصطناعي لعام 2023، ويستبدل به أمراً يركز على «الهيمنة الأميركية» في مجال الذكاء الاصطناعي. وفي مارس (آذار)، أصدر المعهد الوطني للمعايير والتكنولوجيا توجيهات جديدة للعلماء في معهد سلامة الذكاء الاصطناعي، حذفت فيها عبارة «سلامة الذكاء الاصطناعي، ومسؤوليته، وعدالة الذكاء الاصطناعي».

في حين اتخذت ولايات مختلفة خطوات لإقرار لوائح تنظيمية للذكاء الاصطناعي، وقُدّمت مشاريع قوانين في الكونغرس الأميركي، لا توجد حتى الآن قواعد اتحادية تُنظّم استخدام هذه التقنية تحديداً. وفي الأسابيع الأخيرة، طلب مكتب الرئيس ترمب لسياسة العلوم والتكنولوجيا تعليقات عامة من الشركات والأكاديميين وغيرهم بشأن «خطة عمل الذكاء الاصطناعي» المُرتقبة؛ ومن غير المُستغرب أن يُطالب وادي السيليكون بلمسة تنظيمية مُبسّطة.

ومع نحو 1500 مُتابع عبر حسابين على موقع «إكس»، يُدير جونستون مشروع ميداس بدوام كامل. وتُدار المجموعة بميزانية محدودة، لذا فهو يُجري الكثير من الأعمال بنفسه حالياً، بمساعدة بعض المتطوعين.

لا يُدعم جونستون بمليارات الدولارات من رأس المال الاستثماري أو التمويل الحكومي، ويعتمد فقط على العزيمة وأداة بسيطة لاستخراج بيانات الإنترنت تكتشف متى تُلغي الشركات بهدوء وعودها بعدم بناء روبوتات قاتلة أو تمكين تطوير أسلحة بيولوجية.

رصد 30 تغييراً في المعايير

حتى الآن، وثّقت منظمة «برج المراقبة» نحو 30 تغييراً مهماً، مُصنّفةً إياها حسب الوسوم: رئيس، طفيف، وغير مُعلن. أولها هو التعديل «الطفيف» الذي أجرته شركة «أوبن إيه آي» على «قيمها الأساسية» في أكتوبر (تشرين الأول) 2023 ـ إذ أزالت مبدأ مثل «التوجهات المستخلصة من التأثيرات» impact - driven الخاصة بالذكاء الاصطناعي، والتي كانت تُؤكد على أن الموظفين «يهتمون بشدة بالآثار الواقعية» (للأدوات الذكية)، واستبدلت بها قيماً مثل «التركيز على الذكاء الاصطناعي العام» AGI focus.

ورصدت منظمة برج مراقبة الذكاء الاصطناعي تغييراً «طفيفاً» آخر في السياسة من شركة «ميتا» في يونيو (حزيران) 2024، عندما أوضحت صراحةً أنها تستطيع استخدام بيانات من «فيسبوك» و«واتساب» و«إنستغرام» لتغيير نموذجها.

كما أشارت منظمة برج المراقبة إلى تغيير «كبير» أجرته «غوغل» الشهر الماضي عندما أصدرت الشركة نسخة جديدة من إطار عمل السلامة الجبهوية Frontier Safety Framework. وكشف تحليل جونستون عن تعديلات مثيرة للقلق: فقد أُزيلت مخاطر استقلالية النموذج واستُبدل بها «مخاطر التوافق» غير المحددة بوضوح، والجدير بالذكر أن الشركة أضافت صياغةً تُشير إلى أنها لن تتبع إطار عملها، إلا إذا اعتمد المنافسون تدابير مماثلة.

في بعض الأحيان، استجابت الشركات لتنبيهات جونستون. لا يزال وضع هذه الالتزامات في ظل إدارة ترمب غير واضح. كانت هذه الالتزامات وعوداً مستقلة قدمتها الشركات للبيت الأبيض في عهد بايدن وللجمهور بشأن إدارة مخاطر الذكاء الاصطناعي، مما يعني أنها لا ينبغي أن تتأثر بالأمر التنفيذي لترمب الذي يلغي سياسات بايدن المتعلقة بالذكاء الاصطناعي.

أكد العديد من الشركات، بما في ذلك «نيفيديا» وغيرها، أنها لا تزال ملتزمة بالالتزامات بعد الانتخابات، ووفقاً لموقع «FedScoop» أعادت «أنثروبيك» الإشارة إلى موقعها الإلكتروني في النهاية، لكنها أضافت إخلاء مسؤولية مثير للاهتمام: «ورغم أن هذه الالتزامات المحددة لم تعد سارية رسمياً في ظل إدارة الرئيس ترمب، فإن مؤسستنا لا تزال ملتزمة بجميع هذه المبادئ».

تراجع الشركات: الدخول إلى الميدان العسكري

إنّ التحول الأهم الذي وثّقه جونستون هو تراجع شركات الذكاء الاصطناعي عن مواقفها السابقة تجاه الدخول إلى الميدان العسكري. ووفقاً لجونستون، كان تراجع «أوبن إيه آي» محسوباً بشكل خاص -فقد صُمّم في البداية على أنه توجه للمساعدة في منع انتحار المحاربين القدامى ودعم الأمن السيبراني للبنتاغون. ووصفت الشركة النقاد بقسوة القلب لتشكيكهم في هذا العمل، ولكن بحلول نوفمبر (تشرين الثاني) 2024، كانت لشركة «OpenAI» طائرات من دون طيار ذاتية القيادة، فيما وصفه جونستون باستراتيجية تقليدية للدخول في هذا الميدان. وحذت «غوغل» حذوها في وقت سابق من هذا العام، حيث ألغت قيودها على العمل في الميدان العسكري.

يقول جونستون: «بدأ الكثير منهم يشعرون حقاً بديناميكية سباق الذكاء الاصطناعي العالمي. إنهم يقولون: حسناً، علينا القيام بذلك لأنه إذا لم نعمل مع الجيوش، فإن الجهات الفاعلة الأقل دقة (منا) ستفعل ذلك».

مواقف أخلاقية تُعاد صياغتها

يُعدّ التحوّل العسكري مثالاً واحداً فقط على كيفية إعادة شركات الذكاء الاصطناعي صياغة مواقفها الأخلاقية. نشرت شركة «أوبن إيه آي» أخيراً وثيقةً تُحدد فلسفتها بشأن سلامة الذكاء الاصطناعي، مُدّعيةً أنها تجاوزت نهج «النشر التدريجي» الأكثر حذراً الذي اتبعته مع GPT - 2 في عام 2019، عندما امتنعت في البداية عن إصداره مُتعللةً بمخاوف تتعلق بالسلامة.

نقض التعهدات

يتجاوز نمط التغييرات قواعد وسياسات الشركات نفسها. في فبراير (شباط) الماضي، أطلق فريق جونستون «متتبع سيول» «Seoul Tracker» لتقييم مدى التزام الشركات بالوعود التي قطعتها في قمة سلامة الذكاء الاصطناعي لعام 2024 في مدينة سيول. كانت النتائج مُخيبة للآمال: تجاهل الكثيرون ببساطة الموعد النهائي المحدد في فبراير لاعتماد سياسات التوسع المسؤولة، بينما طبق آخرون سياسات جوفاء بالكاد تُشبه ما وعدوا به.

باستخدام نظام تقييم قائم على الدرجات، استناداً إلى الأدلة العامة على التنفيذ في خمسة مجالات التزام رئيسة، منح «متتبع سيول» شركة «أنثروبيك» أعلى درجة، وهي B -، بينما حصلت شركات، بما في ذلك «Iآي بي إم» و«Inflection AI» و«Mistral AI»، على درجات رسوب F لعدم تقديمها أي دليل عام على وفائها بالتزاماتها.

يقول جونستون: «إنه لأمرٌ غريبٌ بالنسبة لي. كانت هذه وعوداً قطعوها ليس فقط على بعض صفحات الويب، بل لحكومتي المملكة المتحدة وكوريا الجنوبية».

اهتمامات المؤيدين والمعادين

لعل أكثر ما يُظهر تأثير عمل جونستون هو من هم الأشخاص الذين يُولون اهتماماً له. فبينما يُكافح مشروع ميداس للحصول على 500 توقيع على عرائض تُطالب شركات الذكاء الاصطناعي بأخذ الأمن على محمل الجد، ولا يزال عدد مُتابعيه مُتواضعاً نسبياً، فإن هؤلاء المُتابعين يشملون العديد من مشاهير الذكاء الاصطناعي، والجهات الرقابية، والمُبلغين عن المخالفات.

حتى أن أحد مُستشاري ترمب في البيت الأبيض لشؤون الذكاء الاصطناعي تابع الحساب أخيراً. وهذا ما دفع جونستون إلى التساؤل عمّا إذا كان المسؤولون الحكوميون ينظرون إلى هذه الانتكاسات الأخلاقية على أنها تقدّمٌ، وليست مشكلات. ويقول: «أنا قلقٌ للغاية من أنه يُتابع الأمر كما لو كان يُشجعه، ويرى التغييرات انتصاراتٍ بينما تتخلى هذه الشركات عن التزاماتها».

* مجلة «فاست كومباني» خدمات «تريبيون ميديا»