حملات عالمية لـ«محو أمية» الذكاء الاصطناعي

قوانين أميركية وأوروبية لتطوير مهارات التفكير النقدي وتقييم استخدامه المناسب

حملات عالمية لـ«محو أمية» الذكاء الاصطناعي
TT

حملات عالمية لـ«محو أمية» الذكاء الاصطناعي

حملات عالمية لـ«محو أمية» الذكاء الاصطناعي

مع ازدياد توظيف التكنولوجيا في الحياة اليومية، يواجه الباحثون والمعلمون عقبتين متميزتين: تعليم الناس كيفية استخدام هذه الأدوات بمسؤولية بدلاً من الاعتماد عليها بشكل مفرط، مع إقناع المتشككين في الذكاء الاصطناعي بتعلم ما يكفي عن التكنولوجيا ليكونوا مواطنين مطلعين، حتى لو اختاروا عدم استخدامها، كما كتبت جاكي سنو(*).

هدف نشر الذكاء الاصطناعي

الهدف لا يتعلق بمجرد محاولة «إصلاح» نماذج الذكاء الاصطناعي من هفواتها وهلوساتها، التي تقول عنها ماريا دي أرتيغا، الأستاذة المساعدة في كلية ماكومبس لإدارة الأعمال بجامعة تكساس في أوستن: «إن النماذج لا تفشل. نحن الذين نستخدم النماذج لأشياء لا تصلح للغرض المقصود منها».

بل إن الهدف هو التعرف على أوجه القصور في الذكاء الاصطناعي وتطوير المهارات اللازمة لاستخدامه بحكمة. وهذا يُذكِّرنا بكيفية اضطرار مستخدمي الإنترنت الأوائل إلى تعلم كيفية التنقل عبر المعلومات عبر الإنترنت، إذ إنهم فهموا في النهاية أنه في حين قد تكون «ويكيبيديا» نقطة انطلاق جيدة للبحث، فلا ينبغي الاستشهاد بها كمصدر أساسي. وكما أصبحت معرفة القراءة والكتابة الرقمية ضرورية للمشاركة في الحياة الحديثة، فإن معرفة القراءة والكتابة في مجال الذكاء الاصطناعي أصبحت أساسية لفهم وتشكيل مستقبلنا.

هلوسة الذكاء الاصطناعي

في قلب هذه الحوادث المؤسفة للذكاء الاصطناعي، تقبع الهلوسة والتشوهات التي تدفع نماذج الذكاء الاصطناعي إلى توليد معلومات كاذبة بثقة ظاهرية. وهذه المشكلة منتشرة على نطاق واسع: في إحدى الدراسات التي أجريت عام 2024، أخطأت برامج المحادثة الآلية في الاستشهادات الأكاديمية الأساسية بنسبة تتراوح بين 30 في المائة و90 في المائة من الوقت، مما أدى إلى تشويه عناوين الأوراق البحثية وأسماء المؤلفين وتواريخ النشر.

بينما تَعِد شركات التكنولوجيا بإمكانية ترويض هذه الهلوسة من خلال هندسة أفضل، تقول دي أرتيغا إن الباحثين يجدون أنها قد تكون أساسية لكيفية عمل التكنولوجيا. وتشير إلى ورقة بحثية من OpenAI -شركة «أوبن إيه آي» التي خلصت إلى أن نماذج اللغة «المعايرة جيداً» يجب أن تهلوس كجزء من عمليتها الإبداعية. وإذا جرى تقييدها لإنتاج معلومات واقعية فقط، فإنها ستتوقف عن العمل بشكل فعال. وتضيف دي أرتيغا: «من وجهة نظر رياضية وفنية، هذا هو ما صُممت النماذج للقيام به».

قوانين تعليمية لمحو «أمية الذكاء الاصطناعي»

مع اعتراف الباحثين بأن هلوسات الذكاء الاصطناعي أمر لا مفر منه وأن البشر يميلون بطبيعة الحال إلى وضع كثير من الثقة في الآلات، يتدخل المعلمون وأصحاب العمل لتعليم الناس كيفية استخدام هذه الأدوات بشكل مسؤول.

وقد أقرَّت ولاية كاليفورنيا أخيراً قانوناً يتطلب دمج التعرف وتعليم الذكاء الاصطناعي في المناهج الدراسية من الروضة حتى الصف الثاني عشر بدءاً من هذا الخريف. كما يتطلب قانون الذكاء الاصطناعي للاتحاد الأوروبي، الذي دخل حيز التنفيذ في 5 فبراير (شباط) الحالي، من المنظمات التي تستخدم الذكاء الاصطناعي في منتجاتها تنفيذ برامج معرفة الذكاء الاصطناعي.

يقول فيكتور لي، الأستاذ المشارك في كلية الدراسات العليا للتربية بجامعة ستانفورد: «معرفة الذكاء الاصطناعي مهمة للغاية الآن، خصوصاً أننا نحاول معرفة السياسات، وما الحدود، وما الذي نريد قبوله بوصفه الوضع الطبيعي الجديد. في الوقت الحالي، يتحدث الأشخاص الذين يعرفون أكثر بثقة كبيرة، وهم قادرون على توجيه الأمور، وهناك حاجة إلى مزيد من الإجماع المجتمعي».

ويرى لي أوجه تشابه مع كيفية تكيف المجتمع مع التقنيات السابقة: «فكر في الآلات الحاسبة - حتى يومنا هذا، لا تزال هناك انقسامات حول متى تستخدم الآلة الحاسبة في الروضة حتى الصف الثاني عشر، وما يجب أن تعرفه مقابل ما يجب أن تكون الآلة الحاسبة مصدراً للأشياء»، كما يقول. ويضيف: «مع الذكاء الاصطناعي، نجري نفس المحادثة غالباً مع الكتابة كمثال».

تدريب على المهارات وفهم أعمق للتكنولوجيا

وبموجب القانون الجديد في كاليفورنيا، يتعين على تعليم معرفة الذكاء الاصطناعي أن يشمل فهم كيفية تطوير أنظمة الذكاء الاصطناعي وتدريبها، وتأثيراتها المحتملة على الخصوصية والأمن، والآثار الاجتماعية والأخلاقية لاستخدام الذكاء الاصطناعي. ويذهب الاتحاد الأوروبي إلى أبعد من ذلك، حيث يطلب من الشركات التي تنتج منتجات الذكاء الاصطناعي تدريب الموظفين المناسبين على «المهارات والمعرفة والفهم التي تسمح للمزودين والموزعين والأشخاص المتضررين... بنشر أنظمة الذكاء الاصطناعي بشكل مستنير، فضلاً عن اكتساب الوعي بالفرص والمخاطر التي يفرضها الذكاء الاصطناعي والأضرار المحتملة التي يمكن أن يسببها».

ويؤكد الإطاران أن معرفة الذكاء الاصطناعي ليست مجرد معرفة تقنية بل تتعلق بتطوير مهارات التفكير النقدي لتقييم الاستخدام المناسب للذكاء الاصطناعي في مجالات وسياقات مختلفة.

تسويق «سحري»

وفي خضمّ هجوم تسويقي من شركات التكنولوجيا الكبرى، فإن التحدي الذي يواجه المعلمين معقَّد. وتُظهِر الأبحاث الحديثة المنشورة في «مجلة التسويق» Journal of Marketing، أن الأشخاص الذين لديهم فهم أقل للذكاء الاصطناعي هم في الواقع أكثر عرضة لاحتضان التكنولوجيا، واعتبارها سحرية تقريباً. ويقول الباحثون إن هذا الرابط بين «انخفاض معرفة القراءة والكتابة والاستقبال الأعلى» للتكنولوجيا يشير إلى «أن الشركات قد تستفيد من تحويل جهودها التسويقية وتطوير المنتجات نحو المستهلكين الذين لديهم معرفة أقل بالذكاء الاصطناعي».

ويقول المعلمون إن الهدف ليس إضعاف الانفتاح على التكنولوجيا الجديدة، بل الجمع بينها وبين مهارات التفكير النقدي التي تساعد الناس على فهم إمكانات الذكاء الاصطناعي وحدوده. وهذا مهم بشكل خاص للأشخاص الذين يفتقرون إلى القدرة على الوصول إلى التكنولوجيا، أو الذين يشككون ببساطة في الذكاء الاصطناعي أو يخشونه.

بالنسبة إلى الباحث لي، فإن النجاح في محو أمية الذكاء الاصطناعي يتطلب رؤية السحر فيه. يقول: «يغذّي القلق وعدم اليقين الكثير من الشكوك أو عدم الرغبة في تجربة الذكاء الاصطناعي. إن رؤية أن الذكاء الاصطناعي هو في الواقع مجموعة من الأشياء المختلفة، وليس جهاز كمبيوتر حساساً يتحدث، وأنه ليس حتى يتحدث حقاً، بل مجرد يلفظ الأنماط المناسبة، هو جزء مما قد يساعد على محو أمية الذكاء الاصطناعي في غرسه».

تطوير مناهج تدريس الذكاء الاصطناعي

في جامعة مدينة نيويورك يقود لوك والتزر، مدير مركز التدريس والتعلم في مركز الدراسات العليا بالمدرسة، مشروعاً لمساعدة أعضاء هيئة التدريس في تطوير مناهج لتدريس محو أمية الذكاء الاصطناعي ضمن تخصصاتهم.

يقول والتزر إن الطلاب يحتاجون إلى فهم أن هذه الأدوات لها أساس مادي - فهي مصنوعة من رجال ونساء، ولها آثار في العمل، ولها تأثير بيئي».

ويعمل المشروع «CUNY»، المدعوم بمنحة قدرها مليون دولار من «غوغل» مع 75 أستاذاً على مدار ثلاث سنوات لتطوير أساليب التدريس التي تدرس آثار الذكاء الاصطناعي عبر مجالات مختلفة. وسيتم توزيع المواد والأدوات التي تم تطويرها من خلال المشروع علناً حتى يتمكن المعلمون الآخرون من الاستفادة من عمله. يقول والتزر: « ثلاث سنوات تسمح للأمور بالاستقرار. سنكون قادرين على رؤية المستقبل بوضوح أكبر».

مناهج جامعية

تنتشر مثل هذه المبادرات بسرعة عبر التعليم العالي. إذ تهدف جامعة فلوريدا إلى دمج الذكاء الاصطناعي في كل تخصص جامعي وبرنامج دراسات عليا. وابتكرت كلية بارنارد نهجاً «هرمياً» يبني تدريجياً معرفة الطلاب بالذكاء الاصطناعي من الفهم الأساسي إلى التطبيقات المتقدمة. وفي كلية كولبي، وهي كلية خاصة للفنون الليبرالية في ولاية ماين، يعزز الطلاب معرفتهم بالقراءة والكتابة باستخدام بوابة مخصصة تتيح لهم اختبار ومقارنة روبوتات الدردشة المختلفة.

ووفقاً لبحث أجراه مركز الأمن والتكنولوجيا الناشئة، فقد أطلقت نحو 100 جامعة وكلية مجتمعية شهادات الذكاء الاصطناعي، مع زيادة منح الدرجات العلمية في المجالات المتعلقة بالذكاء الاصطناعي بنسبة 120 في المائة منذ عام 2011.

فصل مزاعم التسويق عن الحقائق

بالنسبة إلى معظم الناس، فإن تعلم كيفية التنقل في الذكاء الاصطناعي، يعني فرز ادعاءات التسويق للشركات مع القليل من التوجيه. على عكس الطلاب الذين سيحصلون قريباً على تعليم رسمي في مجال الذكاء الاصطناعي، يجب على البالغين أن يكتشفوا بأنفسهم متى يثقون في هذه الأدوات المنتشرة بشكل متزايد - ومتى يتم بيعها بشكل مفرط من الشركات الحريصة على استرداد استثمارات الذكاء الاصطناعي الضخمة.

يحدث هذا التعلم الذاتي بسرعة، فقد وجدت «لينكد إن» أن العاملين يضيفون مهارات معرفة الذكاء الاصطناعي مثل الهندسة السريعة والكفاءات مع أدوات مثل «تشات جي بي تي» بمعدل خمسة أضعاف تقريباً من المهارات المهنية الأخرى.

دورات لشركات التكنولوجيا

مع محاولة الجامعات والمشرعين مواكبة ذلك، تقدم شركات التكنولوجيا فصولها وشهاداتها الخاصة. فقد أعلنت «نفيديا» أخيراً عن شراكة مع كاليفورنيا لتدريب 100000 طالب ومعلم وعامل في مجال الذكاء الاصطناعي، بينما تقدم شركات مثل «غوغل» و«أمازون Services» برامج شهادة الذكاء الاصطناعي الخاصة بها.

وتهدف شركة «إنتل» إلى تدريب 30 مليون شخص على مهارات الذكاء الاصطناعي بحلول عام 2030، بالإضافة إلى دورات مهارات الذكاء الاصطناعي المجانية عبر الإنترنت التي تقدمها مؤسسات مثل جامعة هارفارد وجامعة بنسلفانيا، يمكن للأشخاص أيضاً تعلم أساسيات الذكاء الاصطناعي من شركات مثل «آي بي إم» و«مايكروسوفت» و«غوغل».

وتقول دي أرتيغا: «إن معرفة الذكاء الاصطناعي تشبه معرفة القراءة والكتابة الرقمية -إنها شيء حقيقي. ولكن من الذي ينبغي أن يعلمك ذلك؟ ستحب شركتا (ميتا) و(غوغل) أن تعلماك وجهتي نظريهما حول الذكاء الاصطناعي».

بدلاً من الاعتماد على الشركات ذات المصلحة في بيعك فائدة الذكاء الاصطناعي، يقترح الخبراء البدء بأدوات الذكاء الاصطناعي في المجالات التي تتمتع فيها بالخبرة، حتى تتمكن من التعرف على فائدتها وحدودها. قد يستخدم المبرمج الذكاء الاصطناعي للمساعدة في كتابة التعليمات البرمجية بكفاءة أكبر مع القدرة على اكتشاف الأخطاء وقضايا الأمان التي قد يغفلها المبتدئ.

يكمن المفتاح في الجمع بين الخبرة العملية والتوجيه من أطراف ثالثة موثوقة يمكنها تقديم معلومات غير متحيزة حول قدرات الذكاء الاصطناعي، خصوصاً في المجالات ذات المخاطر العالية مثل الرعاية الصحية والتمويل والدفاع.

إن معرفة الذكاء الاصطناعي لا تتعلق فقط بكيفية عمل النموذج أو كيفية إنشاء مجموعة بيانات، فالأمر يتعلق بفهم مكانة الذكاء الاصطناعي في المجتمع. الجميع -من الأطفال إلى المتقاعدين- لديهم مصلحة في هذه المحادثة، ونحن بحاجة إلى التقاط كل هذه وجهات النظر.

* مجلة «فاست كومباني»، خدمات «تريبيون ميديا».

حقائق

بين 30 و90 %

من الوقت أخطأت برامج المحادثة الآلية في الاستشهادات الأكاديمية الأساسية مما أدى إلى تشويه عناوين الأوراق البحثية وأسماء المؤلفين وتواريخ النشر وفق إحدى الدراسات التي أُجريت عام 2024

حقائق

100

جامعة وكلية مجتمعية أميركية تقريباً تُصدر شهادات الذكاء الاصطناعي


مقالات ذات صلة

دراسة تبحث: هل يغيّر الذكاء الاصطناعي طريقة تفكيرنا رغم صحة المعلومات؟

تكنولوجيا تلعب طريقة عرض المعلومات وسردها دوراً أساسياً في تشكيل الفهم وليس فقط مضمونها (شاترستوك)

دراسة تبحث: هل يغيّر الذكاء الاصطناعي طريقة تفكيرنا رغم صحة المعلومات؟

دراسة تظهر أن الذكاء الاصطناعي يؤثر في الآراء عبر طريقة عرض المعلومات حتى عندما تكون الحقائق صحيحة وغير مضللة.

نسيم رمضان (لندن)
علوم لماذا يفقد الجمهور ثقته في الذكاء الاصطناعي التوليدي؟

لماذا يفقد الجمهور ثقته في الذكاء الاصطناعي التوليدي؟

تراجع ثقة الأميركيين بعد انتشار القصص الوهمية في وسائل الاتصال الاجتماعي

«الشرق الأوسط» (واشنطن)
تكنولوجيا رئيس شركة «أبل» تيم كوك خلال أحد المؤتمرات السنوية للشركة (إ.ب.أ)

«أبل» في عامها الخمسين… قصة شركة أعادت تشكيل التكنولوجيا العالمية

مسيرة «أبل» خلال 50 عاماً تعكس قدرة استثنائية على الابتكار وإعادة الابتكار، من مرآب صغير إلى شركة أعادت تشكيل التكنولوجيا العالمية.

نسيم رمضان (لندن)
علوم نافذة على عالمين_ أحدهما لا يفهم الآخر

مجتمعات كاملة وتجارب إنسانية... لا تزال خارج نطاق الذكاء الاصطناعي

«قمم خبراء» تتحدث عن الأخلاقيات... لكن المعاناة تبقى خارج النقاش

د. عميد خالد عبد الحميد (لندن)
الاقتصاد شعار شركة «سيمنز» في هذه الصورة التوضيحية (رويترز)

«سيمنز» الألمانية: الحرب تفرمل رغبة العملاء في الاستثمار بمشاريع جديدة

قالت شركة «سيمنز» الألمانية يوم الاثنين إن الحرب الإيرانية أدَّت إلى إحجام العملاء عن الاستثمار في مشروعات جديدة نتيجة ارتفاع أسعار المواد الخام والطاقة.

«الشرق الأوسط» (بكين )

لماذا يفقد الجمهور ثقته في الذكاء الاصطناعي التوليدي؟

لماذا يفقد الجمهور ثقته في الذكاء الاصطناعي التوليدي؟
TT

لماذا يفقد الجمهور ثقته في الذكاء الاصطناعي التوليدي؟

لماذا يفقد الجمهور ثقته في الذكاء الاصطناعي التوليدي؟

انطلق عصر الذكاء الاصطناعي بوعودٍ واسعة النطاق ونقاشاتٍ حول إمكانياتٍ لا حدود لها، كما تكتب لويز ك. ألين(*).

تفاؤل وخيبة

والآن، وبعد سنواتٍ من الخبرة العملية، لا يزال الخبراء متفائلين بشأن التأثير طويل الأمد للذكاء الاصطناعي. وفي الوقت نفسه، يتفق معظم الناس على أن مساهماته في الحياة اليومية كانت مخيِّبة للآمال، إن لم تكن أسوأ من ذلك.

وحتى بصفتي واحدة من العاملات في القيادة التقنية بهذا المجال، لا بد لي من الاعتراف بأن استياء المستهلكين من الذكاء الاصطناعي له ما يبرره إلى حد كبير، فقد اتسمت تجربة المواطن الأميركي العادي مع الذكاء الاصطناعي التوليدي، حتى الآن، بتراجع الجودة وازدياد انعدام الثقة.

قصص وهمية في وسائل الاتصال الاجتماعي

تعجّ وسائل التواصل الاجتماعي بأشخاصٍ وقصصٍ وهمية، وتمتلئ الأسواق الإلكترونية بشكلٍ متزايد بعمليات الاحتيال المدعومة بالذكاء الاصطناعي. وغالباً ما تفشل مبادرات الشركات في تحقيق التوقعات المالية، بل إن عدداً منها زاد من صعوبة حياة العاملين.

لقد بات فشل أدوات الذكاء الاصطناعي العام في تحقيق الضجة الإعلامية الكبيرة التي أثيرت حولها، أمراً مُسلَّماً به عالمياً، حتى إن قاموس ميريام-ويبستر نفسه أعلن اختياره كلمة «هراء» ككلمة عام 2025.

«التحديد الدقيق والموجّه»

ومع ذلك، تتاح للجمهور، الآن، فرصة لتغيير هذا الواقع في عام 2026. ويبدأ ذلك بتوظيف مفهوم «التحديد الدقيق (specificity)» ككلمة تُعرِّف ما هو مقبل.

وفي حقيقة الأمر، فإن شركات التكنولوجيا وباحثي الذكاء الاصطناعي بالغوا في تقدير القدرات الفعلية لهذه التقنية منذ البداية، فقد ركّز هؤلاء الرواد على الإمكانات الكامنة، بدلاً من النتائج العملية. لقد صوّروا الذكاء الاصطناعي على أنه ضرورة يجب على الشركات اتباعها لمواكبة التطورات، بدلاً من كونه أداةً يمكن للمؤسسات والأفراد استخدامها لتحقيق أهداف محددة.

التكنولوجيا وسيلة وليست غاية

لتطوير هذه التقنية وتحقيق رؤيتهم لمستقبل مُحسَّن بالذكاء الاصطناعي، سيتعيّن على القادة التوقف عن مناشدة الجمهور لتغيير الخطاب حول الذكاء الاصطناعي.

إن الطريق إلى الأمام بسيط للغاية، إذ يحتاج قادة التكنولوجيا إلى العودة إلى أساسيات المنتج. عليهم أن يتقبلوا فكرة أن التكنولوجيا وسيلة لتحقيق غاية، وليست غاية في حد ذاتها، وهذا يعني إعادة تركيز استراتيجيات التطوير والتواصل على حلول للمشاكل الحقيقية.

خطوات التحديد الدقيق «الموجّه»

1. التصميم الموجَّه للأفراد لا «المستخدمين»

إن إغراء بناء أدوات عامة الأغراض مفهوم، لكن القيام بذلك باستخدام التكنولوجيا الحالية يُضعف فائدتها. وستكون أدوات الذكاء الاصطناعي، اليوم، أكثر فاعلية عندما تُصمم خصوصاً لأفراد محددين في أدوار محددة. يجب أن تُوجه هذه المعرفة عملية ابتكار المنتج، والتدريب، والتسويق، وتكتيكات المبيعات.

2. التركيز على النتائج بدلاً من القدرات

الذكاء الاصطناعي ليس مختلفاً عن أي منتج آخر. لن يستخدمه الناس إلا إذا حل مشكلة موجودة لديهم بالفعل. ويفشل كثير من أدوات الذكاء الاصطناعي في تحقيق هذا الهدف، فهي تركز على ما يمكن للنموذج فعله، بدلاً من التمعن في فهم أسباب أهمية ما يفعله.

3. التوقف عن تقديم وعود خيالية

قد يُمثل الذكاء الاصطناعي، اليوم، مستقبلاً يمكن فيه تحقيق التحسين الشامل، لكن هذا ليس صحيحاً. يجب أن تعكس خطط تطوير المنتجات هذه الحقيقة. إنّ الوضوح والمباشرة بشأن ما هو متاح الآن وما سيكون متاحاً في المستقبل يُساعدان على تخفيف الإرهاق الناتج عن الضجة الإعلامية واستعادة الثقة.

حان وقت إعادة النظر

بصفتي مديرة للمنتجات، شاهدتُ عدداً من الأمثلة على الاستخدام الأمثل للذكاء الاصطناعي، خلال السنوات القليلة الماضية.

ومع ذلك، أُدرك أن أسباب انعدام ثقة الجمهور أو عدم اهتمامه الواسع النطاق تقع في معظمها على عاتق قطاع التكنولوجيا، ذلك أن رغبة هذا القطاع في إنجاز كل شيء دفعة واحدة، خلقت بيئةً لا يثق فيها الناس بقدرة التكنولوجيا على القيام بأي شيء مفيد.

إنها حقيقةٌ يصعب تقبّلها، لكن أي قائد تقني يُنكر ذلك يُخدع نفسه. ومع ذلك، لم يفت الأوان بعدُ لتصحيح الوضع. إذا كان القادة على استعداد لتقبُّل هذه الحقيقة وإعادة توجيه استراتيجياتهم نحو «التحديد»، فسيكون هناك متسع من الوقت لإعادة النظر، وإعادة التقييم، وتحقيق رؤية مستقبلٍ مُحسَّن. يجب أن يحدث هذا قريباً، وإلا فسيضيع مستقبل الذكاء الاصطناعي هباءً.

*مجلة «إنك»، خدمات «تريبيون ميديا»


مجتمعات كاملة وتجارب إنسانية... لا تزال خارج نطاق الذكاء الاصطناعي

نافذة على عالمين_ أحدهما لا يفهم الآخر
نافذة على عالمين_ أحدهما لا يفهم الآخر
TT

مجتمعات كاملة وتجارب إنسانية... لا تزال خارج نطاق الذكاء الاصطناعي

نافذة على عالمين_ أحدهما لا يفهم الآخر
نافذة على عالمين_ أحدهما لا يفهم الآخر

في القاعات الكبرى، حيث تُصاغ البيانات وتُعلن المبادئ بلغة تبدو مكتملة، يظهر الذكاء الاصطناعي كأنه يسير بثقة نحو مستقبل أكثر عدلاً وإنصافاً. تُرفع شعارات الشفافية، وتُكرَّر مفاهيم الحوكمة، وتُقدَّم العدالة الخوارزمية كأنها حقيقة قريبة لا جدال فيها.

لكن خلف هذا الانسجام الظاهري، يبقى سؤال أكثر إزعاجاً، وأقل حضوراً:

هل ما يُقال في هذه القاعات يعكس فعلاً ما يحدث خارجها، أم أنه يكتفي بصياغة عالمٍ مثالي لا وجود له في الواقع؟

أخلاقيات داخل حدود البيانات

تركّز معظم النقاشات العالمية حول أخلاقيات الذكاء الاصطناعي على قضايا تبدو مكتملة: التحيّز، والخصوصية، والشفافية، والمسؤولية. وهي دون شك قضايا حقيقية، لكنها تنطلق من افتراض خفيّ نادراً ما يُناقش: أن المشكلة تكمن في كيفية استخدام البيانات، لا في حدودها.

لكن السؤال الأكثر عمقاً، والأقل طرحاً، هو: ماذا عن أولئك الذين لا تُمثّلهم البيانات أصلاً؟ فالذكاء الاصطناعي، مهما بلغ من تعقيد، لا يرى العالم كما هو، بل كما يُقدَّم له. وما لا يدخل في بياناته، لا يدخل في حساباته... ولا في قراراته. وهنا لا يكون الخطأ في الخوارزمية، بل في العالم الذي اختُصر داخلها.

ما لا تراه الخوارزميات

عالم خارج الرؤية الخوارزمية

في مساحات واسعة من هذا العالم، لا تُقاس المعاناة ولا تُسجَّل، ولا تتحول إلى بيانات يمكن للآلة أن تفهمها. هناك أمراض لا تصل إلى مرحلة التشخيص، وصدمات لا تُوثَّق، وواقع صحي كامل يظل خارج أي نموذج تنبؤي.

في مثل هذه البيئات، لا يكون التحيّز نتيجة خلل تقني في الخوارزمية، بل نتيجة غياب الصورة من الأساس. فالمشكلة ليست في طريقة التحليل... بل فيما لم يُحلَّل أصلاً.

وهنا يتبدّل معنى العدالة نفسها. فكيف يمكن الحديث عن «عدالة خوارزمية» في عالمٍ لم يُمثَّل رقمياً بعد؟ وهل يمكن للذكاء الاصطناعي أن يكون منصفاً... إذا كان لا يرى الجميع؟

عندما لا تكفي الأخلاقيات

في القمم العالمية، يُقدَّم الذكاء الاصطناعي كأداة يمكن تهذيبها أخلاقياً، وكأن المشكلة تكمن فقط في ضبط سلوك الخوارزمية من داخل النظام الذي أنشأها. تُناقش المبادئ، وتُصاغ الأطر، ويبدو وكأن الحل يكمن في تحسين ما هو قائم. لكن هذا التصور يخفي افتراضاً أعمق: أن جميع المشكلات قابلة للحل من داخل النظام نفسه. بينما يهمس الواقع بشيء مختلف تماماً.

فهناك معاناة لا تنتظر «حوكمة» الخوارزمية... بل تنتظر أن تُرى. وهناك بشر لا يحتاجون إلى خوارزميات أكثر عدلاً، بل إلى أن يدخلوا أصلاً في مجال رؤيتها.

ما بين الخطاب والواقع: درس من قمة الهند

كما ظهر في نقاشات القمة العالمية للذكاء الاصطناعي في الهند، التي رفعت شعار «الذكاء الاصطناعي المسؤول»، بدا أن التركيز ينصب على مبادئ الحوكمة، والشفافية، وتقليل التحيّز داخل الأنظمة. لكن ما تكشفه هذه النقاشات، رغم أهميتها، هو فجوة أعمق: أن الخطاب الأخلاقي العالمي يفترض وجود عالم ممثَّل بالكامل داخل البيانات... بينما الواقع مختلف تماماً. فما لا يُقال في هذه القاعات، ليس فقط حدود التقنية، بل حدود الرؤية نفسها... إذ توجد مجتمعات كاملة خارج نطاق النماذج، وتجارب إنسانية لا تصل إلى أنظمة الذكاء الاصطناعي، وبالتالي لا تدخل في أي إطار أخلاقي يُناقش.

* عدم الاستقرار البيئي أو الضغوط النفسية من العوامل التي لا يمكن قياسها ولا تدخل إلى الأدوات الذكية *

حدود ما يمكن قياسه

في دراسة حديثة نُشرت عام 2026 في مجلة «نيتشر ميديسن» (Nature Medicine)، أظهرت نماذج تنبؤية طوّرها باحثون في جامعة ستانفورد قدرة متقدمة على تحليل البيانات الصحية، واستباق المخاطر قبل حدوثها. ومع ذلك، توقفت هذه النماذج عند حدود واضحة عندما يتعلق الأمر بعوامل لا تُقاس بسهولة، مثل عدم الاستقرار البيئي أو الضغوط النفسية التي لا تجد طريقها إلى السجلات الطبية.

وهنا لا تنكشف حدود التقنية فحسب، بل حدود الفكرة التي تقوم عليها.

فالمشكلة ليست في دقة ما نقيس، بل في افتراضٍ أعمق: أن كل ما هو مهم... يمكن قياسه.

لكن الواقع أكثر تعقيداً من ذلك. فبعض أهم محددات الصحة لا تُكتب في البيانات، ولا تُترجم إلى أرقام، ومع ذلك تظل الأكثر تأثيراً في حياة الإنسان.

ما بعد الأخلاقيات

قد تنجح القمم في صياغة مبادئ أخلاقية للذكاء الاصطناعي، وتبدو هذه المبادئ مكتملة في نصوصها ومنطقها. لكن التحدي الحقيقي لا يبدأ داخل هذه الأطر، بل خارجها.

في تلك المساحات التي لا تصلها البيانات، ولا تلامسها النماذج، ولا تختزلها الأرقام، هناك يتغيّر السؤال نفسه. فلا يعود السؤال:

هل الذكاء الاصطناعي أخلاقي؟ بل يصبح أكثر عمقاً وإلحاحاً: هل يستطيع أن يرى ما يجب أن يكون أخلاقياً تجاهه؟


أول مهمة مأهولة إلى القمر منذ 50 عاماً

شكل تصويري لمركبة «أوريون» قرب القمر
شكل تصويري لمركبة «أوريون» قرب القمر
TT

أول مهمة مأهولة إلى القمر منذ 50 عاماً

شكل تصويري لمركبة «أوريون» قرب القمر
شكل تصويري لمركبة «أوريون» قرب القمر

سترسل وكالة الطيران والفضاء الاميركية ناسا، أربعة رواد فضاء في مهمة أرتميس 2 في رحلة تستغرق 10 أيام حول القمر للتمهيد لهبوط على سطحه في المستقبل وإقامة قواعد دائمة عليه.