قاعدة بيانات مطورة لأدوات الذكاء الاصطناعي لأبحاث العلوم الاجتماعية

تساعد في رصد أنماط الدراسات وتتشارك في النتاجات العلمية

قاعدة بيانات مطورة لأدوات الذكاء الاصطناعي لأبحاث العلوم الاجتماعية
TT

قاعدة بيانات مطورة لأدوات الذكاء الاصطناعي لأبحاث العلوم الاجتماعية

قاعدة بيانات مطورة لأدوات الذكاء الاصطناعي لأبحاث العلوم الاجتماعية

يمكن لأدوات الذكاء الاصطناعي تلخيص نتائج الأبحاث بسرعة وبطريقة سهلة للقارئ، من خلال المساعدة في كتابة المُدونات وإنشاء الرسوم البيانية وإنتاج شرائح العرض التقديمي وحتى الصور.

غالباً ما يُستخدم الذكاء الاصطناعي بوصفه وسيلة لتلخيص البيانات، وتحسين الكتابة، لكن أدوات الذكاء الاصطناعي تُمثل أيضاً طريقة قوية وفعالة لتحليل كميات كبيرة من النص للبحث عن الأنماط. وإضافة إلى ذلك، يمكن لأدوات الذكاء الاصطناعي أن تساعد في تطوير النتاجات العلمية التي يمكن التشارك بها على نطاق واسع.

قاعدة بيانات للذكاء الاصطناعي

ومن هذا المنطلق، قمنا، بوصفنا باحثين في العلوم الاجتماعية(*)، بتطوير قاعدة بيانات جديدة لأدوات الذكاء الاصطناعي في هذا المجال. وفي هذه القاعدة قمنا بتجميع معلومات حول كل أداة، وتوثيق ما إذا كانت مفيدة لمراجعة الأدبيات، أو جمع البيانات وتحليلها، أو نشر الأبحاث. وقدمنا ​​أيضاً معلومات حول التكاليف وعمليات تسجيل الدخول وملحقات المكونات الإضافية المتاحة لكل أداة.

لعلماء النفس والاجتماع والاتصالات

عندما سُئل العديد من علماء الاجتماع عن تصوراتهم للذكاء الاصطناعي، أعربوا عن الحذر أو التخوف. وفي عينة من أعضاء هيئة التدريس والطلاب من أكثر من 600 مؤسسة، أفاد 22 في المائة فقط من أعضاء هيئة التدريس بالجامعة بأنهم يستخدمون أدوات الذكاء الاصطناعي بانتظام.

ولذلك، ولأن عمل هذه الأدوات، بدءاً من تمشيط النصوص المطولة أو البيانات المستندة إلى النصوص، وصولاً إلى كتابة مراجعات الأدبيات ومشاركة النتائج، فإننا نعتقد أن الذكاء الاصطناعي يمكن أن يساعد الباحثين في العلوم الاجتماعية - مثل الباحثين في علم النفس وعلم الاجتماع والاتصالات - إضافة إلى الآخرين في تحقيق أقصى استفادة من بياناتهم، وتقديمها إلى جمهور أوسع.

تحليل النص بالذكاء الاصطناعي

غالباً ما يتضمن البحث النوعي التدقيق في النصوص أو اللغة المكتوبة لتحديد الموضوعات والأنماط. وفي حين أن هذا النوع من الأبحاث قوي، إلا أنه يتطلب أيضاً عمالة كثيفة.

إن قوة منصات الذكاء الاصطناعي في التدقيق بمجموعات البيانات الكبيرة لا توفر وقت الباحثين فقط، بل يمكن أن تساعدهم أيضاً في تحليل البيانات التي لم يكن من الممكن تحليلها مسبقاً بسبب حجم مجموعة البيانات.

وعلى وجه التحديد، يمكن للذكاء الاصطناعي أن يساعد علماء الاجتماع من خلال تحديد الموضوعات المحتملة أو الموضوعات المشتركة في البيانات النصية الكبيرة التي يمكن للعلماء استجوابها باستخدام أساليب البحث النوعي.

وعلى سبيل المثال، يمكن للذكاء الاصطناعي تحليل 15 مليون منشور على وسائل التواصل الاجتماعي لتحديد الموضوعات المتعلقة بكيفية تعامل الأشخاص مع «كوفيد-19».

صياغة أسئلة الدراسات الاستقصائية

يمكن لهذه الموضوعات بعد ذلك أن تمنح الباحثين نظرة ثاقبة للاتجاهات الأكبر في البيانات، ما يسمح لنا بتحسين المعايير لإجراء تحليل نوعي أكثر تعمقاً. ويمكن أيضاً استخدام أدوات الذكاء الاصطناعي لتكييف اللغة، واختيار العلماء للكلمات في تصميمات البحث.

وعلى وجه الخصوص، يمكن للذكاء الاصطناعي أن يقلل من التحيز من خلال تحسين صياغة الأسئلة في الدراسات الاستقصائية، أو تحسين الكلمات الرئيسية المستخدمة في جمع بيانات وسائل التواصل الاجتماعي.

تحديد الفجوات

وفي المعرفة، هناك مهمة رئيسية أخرى في البحث، وهي مسح مجال ما بحثاً عن الأعمال السابقة لتحديد الفجوات في المعرفة.

وتعتمد تطبيقات الذكاء الاصطناعي على أنظمة يمكنها تركيب النص، وهذا يجعل مراجعات الأدبيات - قسم الورقة البحثية الذي يلخص أبحاثاً أخرى حول الموضوع نفسه - وعمليات الكتابة أكثر كفاءة. كما تظهر الأبحاث أن ردود الفعل البشرية على الذكاء الاصطناعي، مثل تقديم أمثلة للمنطق البسيط، يمكن أن تحسن بشكل كبير قدرة الأدوات على أداء التفكير المعقد.

الحذر من المصادر المزيفة

ومع أخذ ذلك في الاعتبار، يمكننا مراجعة تعليماتنا للذكاء الاصطناعي باستمرار، وتحسين قدرته على استخلاص الأدبيات ذات الصلة. ومع ذلك، يجب على علماء الاجتماع أن يكونوا حذرين من المصادر المزيفة، وهو ما يُشكل مصدر قلق كبيراً فيما يتعلق بالذكاء الاصطناعي التوليدي.

ومن الضروري التحقق من أي مصادر توفرها أدوات الذكاء الاصطناعي، للتأكد من أنها تأتي من المجلات الرصينة التي يراجعها النظراء من العلماء.

التشارك بنتائج الأبحاث

يمكن لأدوات الذكاء الاصطناعي تلخيص نتائج الأبحاث بسرعة وبطريقة سهلة للقارئ من خلال المساعدة في كتابة المدونات وإنشاء الرسوم البيانية وإنتاج شرائح العرض التقديمي وحتى الصور.

تحتوي قاعدة بياناتنا على أدوات الذكاء الاصطناعي التي يمكنها أيضاً مساعدة العلماء في عرض نتائجهم على وسائل التواصل الاجتماعي. وإحدى الأدوات التي تستحق تسليط الضوء عليها هي «بلوغ تويت» (BlogTweet). تتيح أداة الذكاء الاصطناعي المجانية هذه للمستخدمين نسخ ولصق النص من مقال مثل هذا لإنشاء سلاسل تغريدات وبدء المحادثات.

راقب تكلفة أدوات الذكاء الاصطناعي

ثلثا الأدوات الموجودة في قاعدة البيانات تكلف أموالاً. في حين كان هدفنا الأساسي هو تحديد الأدوات الأكثر فائدة لعلماء الاجتماع، فقد سعينا أيضاً إلى تحديد الأدوات مفتوحة المصدر، وقمنا بتنظيم قائمة تضم 85 أداة مجانية، يُمكنها دعم جهود مراجعة الأدبيات والكتابة وجمع البيانات والتحليل والتصور.

وفي تحليلنا لتكلفة أدوات الذكاء الاصطناعي، وجدنا أيضاً أن العديد منها يوفر وصولاً «مجانياً» إلى الأدوات، وهذا يعني أنه يمكنك استكشاف نسخة مجانية من المنتج. وتتوافر إصدارات أكثر تقدماً من بعض الأدوات من خلال شراء الرموز المميزة أو خطط الاشتراك.

وبالنسبة لبعض الأدوات، يمكن أن تكون التكاليف مخفية إلى حد ما، أو غير متوقعة. على سبيل المثال، قد تكون للأداة، التي تبدو مفتوحة المصدر ظاهرياً، حدود للمعدل، وقد يجد المستخدمون أن عدد الأسئلة المجانية التي يمكنهم طرحها على الذكاء الاصطناعي، محدود.

مستقبل قاعدة البيانات

منذ إصدار قاعدة بيانات تطبيقات الذكاء الاصطناعي لأبحاث العلوم الاجتماعية Artificial Intelligence Applications for Social Science Research Database، في 5 أكتوبر (تشرين الأول) 2023، تم تنزيلها أكثر من 400 مرة في 49 دولة.

وجدنا في قاعدة البيانات 131 أداة للذكاء الاصطناعي مفيدة لمراجعة الأدبيات أو الملخصات أو الكتابة. وهناك ما يصل إلى 146 أداة من أدوات الذكاء الاصطناعي مفيدة لجمع البيانات أو تحليلها، و108 أدوات مفيدة لنشر الأبحاث.

إننا نواصل تحديث قاعدة البيانات، ونأمل أن تساعد المجتمعات الأكاديمية في استكشاف الذكاء الاصطناعي وإنشاء محادثات جديدة. وكلما زاد استخدام علماء الاجتماع لقاعدة البيانات، تمكنوا من العمل نحو التوصل إلى توافق في الآراء حول اعتماد الأساليب الأخلاقية لاستخدام الذكاء الاصطناعي في البحث والتحليل.

(*) ميغان ستابس-ريتشاردسون أستاذة أبحاث مساعدة في مركز أبحاث العلوم الاجتماعية بجامعة «ولاية ميسيسيبي». ديفون برينر أستاذ التربية، ولورين إثيريدج باحثة مشاركة في علم الاجتماع في الجامعة. مجلة «فاست كومباني»، خدمات «تريبيون ميديا».

راجع قاعدة بيانات تطبيقات الذكاء الاصطناعي لأبحاث العلوم الاجتماعية على الرابط الالكتروني:

https://scholarsjunction.msstate.edu/ssrc-publications/6/

حقائق

400 مرة في 49 دولة

تم تنزيل «قاعدة بيانات تطبيقات الذكاء الاصطناعي لأبحاث العلوم الاجتماعية» منذ طرحها في أكتوبر (تشرين الأول) 2023

حقائق

15 مليوناً

منشور على وسائل التواصل الاجتماعي يمكن للذكاء الاصطناعي تحليلها لتحديد الموضوعات المتعلقة بكيفية تعامل الأشخاص مع «كوفيد-19»


مقالات ذات صلة

تكنولوجيا رئيس شركة «أبل» تيم كوك خلال أحد المؤتمرات السنوية للشركة (إ.ب.أ)

«أبل» في عامها الخمسين… قصة شركة أعادت تشكيل التكنولوجيا العالمية

مسيرة «أبل» خلال 50 عاماً تعكس قدرة استثنائية على الابتكار وإعادة الابتكار، من مرآب صغير إلى شركة أعادت تشكيل التكنولوجيا العالمية.

نسيم رمضان (لندن)
علوم نافذة على عالمين_ أحدهما لا يفهم الآخر

مجتمعات كاملة وتجارب إنسانية... لا تزال خارج نطاق الذكاء الاصطناعي

«قمم خبراء» تتحدث عن الأخلاقيات... لكن المعاناة تبقى خارج النقاش

د. عميد خالد عبد الحميد (لندن)
الاقتصاد شعار شركة «سيمنز» في هذه الصورة التوضيحية (رويترز)

«سيمنز» الألمانية: الحرب تفرمل رغبة العملاء في الاستثمار بمشاريع جديدة

قالت شركة «سيمنز» الألمانية يوم الاثنين إن الحرب الإيرانية أدَّت إلى إحجام العملاء عن الاستثمار في مشروعات جديدة نتيجة ارتفاع أسعار المواد الخام والطاقة.

«الشرق الأوسط» (بكين )
تكنولوجيا صورة للرئيس التنفيذي لشركة «ميتا» مارك زوكربيرغ وشعار الشركة (أرشيفية - أ.ف.ب)

زوكربيرغ يعمل على تطوير وكيل ذكي لمساعدته في مهامه

يعمل مارك زوكربيرغ الرئيس التنفيذي لشركة «ميتا» على تطوير مساعد مدعوم بالذكاء الاصطناعي لمساعدته في أداء مهامه.

«الشرق الأوسط» (واشنطن)

لماذا يفقد الجمهور ثقته في الذكاء الاصطناعي التوليدي؟

لماذا يفقد الجمهور ثقته في الذكاء الاصطناعي التوليدي؟
TT

لماذا يفقد الجمهور ثقته في الذكاء الاصطناعي التوليدي؟

لماذا يفقد الجمهور ثقته في الذكاء الاصطناعي التوليدي؟

انطلق عصر الذكاء الاصطناعي بوعودٍ واسعة النطاق ونقاشاتٍ حول إمكانياتٍ لا حدود لها، كما تكتب لويز ك. ألين(*).

تفاؤل وخيبة

والآن، وبعد سنواتٍ من الخبرة العملية، لا يزال الخبراء متفائلين بشأن التأثير طويل الأمد للذكاء الاصطناعي. وفي الوقت نفسه، يتفق معظم الناس على أن مساهماته في الحياة اليومية كانت مخيِّبة للآمال، إن لم تكن أسوأ من ذلك.

وحتى بصفتي واحدة من العاملات في القيادة التقنية بهذا المجال، لا بد لي من الاعتراف بأن استياء المستهلكين من الذكاء الاصطناعي له ما يبرره إلى حد كبير، فقد اتسمت تجربة المواطن الأميركي العادي مع الذكاء الاصطناعي التوليدي، حتى الآن، بتراجع الجودة وازدياد انعدام الثقة.

قصص وهمية في وسائل الاتصال الاجتماعي

تعجّ وسائل التواصل الاجتماعي بأشخاصٍ وقصصٍ وهمية، وتمتلئ الأسواق الإلكترونية بشكلٍ متزايد بعمليات الاحتيال المدعومة بالذكاء الاصطناعي. وغالباً ما تفشل مبادرات الشركات في تحقيق التوقعات المالية، بل إن عدداً منها زاد من صعوبة حياة العاملين.

لقد بات فشل أدوات الذكاء الاصطناعي العام في تحقيق الضجة الإعلامية الكبيرة التي أثيرت حولها، أمراً مُسلَّماً به عالمياً، حتى إن قاموس ميريام-ويبستر نفسه أعلن اختياره كلمة «هراء» ككلمة عام 2025.

«التحديد الدقيق والموجّه»

ومع ذلك، تتاح للجمهور، الآن، فرصة لتغيير هذا الواقع في عام 2026. ويبدأ ذلك بتوظيف مفهوم «التحديد الدقيق (specificity)» ككلمة تُعرِّف ما هو مقبل.

وفي حقيقة الأمر، فإن شركات التكنولوجيا وباحثي الذكاء الاصطناعي بالغوا في تقدير القدرات الفعلية لهذه التقنية منذ البداية، فقد ركّز هؤلاء الرواد على الإمكانات الكامنة، بدلاً من النتائج العملية. لقد صوّروا الذكاء الاصطناعي على أنه ضرورة يجب على الشركات اتباعها لمواكبة التطورات، بدلاً من كونه أداةً يمكن للمؤسسات والأفراد استخدامها لتحقيق أهداف محددة.

التكنولوجيا وسيلة وليست غاية

لتطوير هذه التقنية وتحقيق رؤيتهم لمستقبل مُحسَّن بالذكاء الاصطناعي، سيتعيّن على القادة التوقف عن مناشدة الجمهور لتغيير الخطاب حول الذكاء الاصطناعي.

إن الطريق إلى الأمام بسيط للغاية، إذ يحتاج قادة التكنولوجيا إلى العودة إلى أساسيات المنتج. عليهم أن يتقبلوا فكرة أن التكنولوجيا وسيلة لتحقيق غاية، وليست غاية في حد ذاتها، وهذا يعني إعادة تركيز استراتيجيات التطوير والتواصل على حلول للمشاكل الحقيقية.

خطوات التحديد الدقيق «الموجّه»

1. التصميم الموجَّه للأفراد لا «المستخدمين»

إن إغراء بناء أدوات عامة الأغراض مفهوم، لكن القيام بذلك باستخدام التكنولوجيا الحالية يُضعف فائدتها. وستكون أدوات الذكاء الاصطناعي، اليوم، أكثر فاعلية عندما تُصمم خصوصاً لأفراد محددين في أدوار محددة. يجب أن تُوجه هذه المعرفة عملية ابتكار المنتج، والتدريب، والتسويق، وتكتيكات المبيعات.

2. التركيز على النتائج بدلاً من القدرات

الذكاء الاصطناعي ليس مختلفاً عن أي منتج آخر. لن يستخدمه الناس إلا إذا حل مشكلة موجودة لديهم بالفعل. ويفشل كثير من أدوات الذكاء الاصطناعي في تحقيق هذا الهدف، فهي تركز على ما يمكن للنموذج فعله، بدلاً من التمعن في فهم أسباب أهمية ما يفعله.

3. التوقف عن تقديم وعود خيالية

قد يُمثل الذكاء الاصطناعي، اليوم، مستقبلاً يمكن فيه تحقيق التحسين الشامل، لكن هذا ليس صحيحاً. يجب أن تعكس خطط تطوير المنتجات هذه الحقيقة. إنّ الوضوح والمباشرة بشأن ما هو متاح الآن وما سيكون متاحاً في المستقبل يُساعدان على تخفيف الإرهاق الناتج عن الضجة الإعلامية واستعادة الثقة.

حان وقت إعادة النظر

بصفتي مديرة للمنتجات، شاهدتُ عدداً من الأمثلة على الاستخدام الأمثل للذكاء الاصطناعي، خلال السنوات القليلة الماضية.

ومع ذلك، أُدرك أن أسباب انعدام ثقة الجمهور أو عدم اهتمامه الواسع النطاق تقع في معظمها على عاتق قطاع التكنولوجيا، ذلك أن رغبة هذا القطاع في إنجاز كل شيء دفعة واحدة، خلقت بيئةً لا يثق فيها الناس بقدرة التكنولوجيا على القيام بأي شيء مفيد.

إنها حقيقةٌ يصعب تقبّلها، لكن أي قائد تقني يُنكر ذلك يُخدع نفسه. ومع ذلك، لم يفت الأوان بعدُ لتصحيح الوضع. إذا كان القادة على استعداد لتقبُّل هذه الحقيقة وإعادة توجيه استراتيجياتهم نحو «التحديد»، فسيكون هناك متسع من الوقت لإعادة النظر، وإعادة التقييم، وتحقيق رؤية مستقبلٍ مُحسَّن. يجب أن يحدث هذا قريباً، وإلا فسيضيع مستقبل الذكاء الاصطناعي هباءً.

*مجلة «إنك»، خدمات «تريبيون ميديا»


مجتمعات كاملة وتجارب إنسانية... لا تزال خارج نطاق الذكاء الاصطناعي

نافذة على عالمين_ أحدهما لا يفهم الآخر
نافذة على عالمين_ أحدهما لا يفهم الآخر
TT

مجتمعات كاملة وتجارب إنسانية... لا تزال خارج نطاق الذكاء الاصطناعي

نافذة على عالمين_ أحدهما لا يفهم الآخر
نافذة على عالمين_ أحدهما لا يفهم الآخر

في القاعات الكبرى، حيث تُصاغ البيانات وتُعلن المبادئ بلغة تبدو مكتملة، يظهر الذكاء الاصطناعي كأنه يسير بثقة نحو مستقبل أكثر عدلاً وإنصافاً. تُرفع شعارات الشفافية، وتُكرَّر مفاهيم الحوكمة، وتُقدَّم العدالة الخوارزمية كأنها حقيقة قريبة لا جدال فيها.

لكن خلف هذا الانسجام الظاهري، يبقى سؤال أكثر إزعاجاً، وأقل حضوراً:

هل ما يُقال في هذه القاعات يعكس فعلاً ما يحدث خارجها، أم أنه يكتفي بصياغة عالمٍ مثالي لا وجود له في الواقع؟

أخلاقيات داخل حدود البيانات

تركّز معظم النقاشات العالمية حول أخلاقيات الذكاء الاصطناعي على قضايا تبدو مكتملة: التحيّز، والخصوصية، والشفافية، والمسؤولية. وهي دون شك قضايا حقيقية، لكنها تنطلق من افتراض خفيّ نادراً ما يُناقش: أن المشكلة تكمن في كيفية استخدام البيانات، لا في حدودها.

لكن السؤال الأكثر عمقاً، والأقل طرحاً، هو: ماذا عن أولئك الذين لا تُمثّلهم البيانات أصلاً؟ فالذكاء الاصطناعي، مهما بلغ من تعقيد، لا يرى العالم كما هو، بل كما يُقدَّم له. وما لا يدخل في بياناته، لا يدخل في حساباته... ولا في قراراته. وهنا لا يكون الخطأ في الخوارزمية، بل في العالم الذي اختُصر داخلها.

ما لا تراه الخوارزميات

عالم خارج الرؤية الخوارزمية

في مساحات واسعة من هذا العالم، لا تُقاس المعاناة ولا تُسجَّل، ولا تتحول إلى بيانات يمكن للآلة أن تفهمها. هناك أمراض لا تصل إلى مرحلة التشخيص، وصدمات لا تُوثَّق، وواقع صحي كامل يظل خارج أي نموذج تنبؤي.

في مثل هذه البيئات، لا يكون التحيّز نتيجة خلل تقني في الخوارزمية، بل نتيجة غياب الصورة من الأساس. فالمشكلة ليست في طريقة التحليل... بل فيما لم يُحلَّل أصلاً.

وهنا يتبدّل معنى العدالة نفسها. فكيف يمكن الحديث عن «عدالة خوارزمية» في عالمٍ لم يُمثَّل رقمياً بعد؟ وهل يمكن للذكاء الاصطناعي أن يكون منصفاً... إذا كان لا يرى الجميع؟

عندما لا تكفي الأخلاقيات

في القمم العالمية، يُقدَّم الذكاء الاصطناعي كأداة يمكن تهذيبها أخلاقياً، وكأن المشكلة تكمن فقط في ضبط سلوك الخوارزمية من داخل النظام الذي أنشأها. تُناقش المبادئ، وتُصاغ الأطر، ويبدو وكأن الحل يكمن في تحسين ما هو قائم. لكن هذا التصور يخفي افتراضاً أعمق: أن جميع المشكلات قابلة للحل من داخل النظام نفسه. بينما يهمس الواقع بشيء مختلف تماماً.

فهناك معاناة لا تنتظر «حوكمة» الخوارزمية... بل تنتظر أن تُرى. وهناك بشر لا يحتاجون إلى خوارزميات أكثر عدلاً، بل إلى أن يدخلوا أصلاً في مجال رؤيتها.

ما بين الخطاب والواقع: درس من قمة الهند

كما ظهر في نقاشات القمة العالمية للذكاء الاصطناعي في الهند، التي رفعت شعار «الذكاء الاصطناعي المسؤول»، بدا أن التركيز ينصب على مبادئ الحوكمة، والشفافية، وتقليل التحيّز داخل الأنظمة. لكن ما تكشفه هذه النقاشات، رغم أهميتها، هو فجوة أعمق: أن الخطاب الأخلاقي العالمي يفترض وجود عالم ممثَّل بالكامل داخل البيانات... بينما الواقع مختلف تماماً. فما لا يُقال في هذه القاعات، ليس فقط حدود التقنية، بل حدود الرؤية نفسها... إذ توجد مجتمعات كاملة خارج نطاق النماذج، وتجارب إنسانية لا تصل إلى أنظمة الذكاء الاصطناعي، وبالتالي لا تدخل في أي إطار أخلاقي يُناقش.

* عدم الاستقرار البيئي أو الضغوط النفسية من العوامل التي لا يمكن قياسها ولا تدخل إلى الأدوات الذكية *

حدود ما يمكن قياسه

في دراسة حديثة نُشرت عام 2026 في مجلة «نيتشر ميديسن» (Nature Medicine)، أظهرت نماذج تنبؤية طوّرها باحثون في جامعة ستانفورد قدرة متقدمة على تحليل البيانات الصحية، واستباق المخاطر قبل حدوثها. ومع ذلك، توقفت هذه النماذج عند حدود واضحة عندما يتعلق الأمر بعوامل لا تُقاس بسهولة، مثل عدم الاستقرار البيئي أو الضغوط النفسية التي لا تجد طريقها إلى السجلات الطبية.

وهنا لا تنكشف حدود التقنية فحسب، بل حدود الفكرة التي تقوم عليها.

فالمشكلة ليست في دقة ما نقيس، بل في افتراضٍ أعمق: أن كل ما هو مهم... يمكن قياسه.

لكن الواقع أكثر تعقيداً من ذلك. فبعض أهم محددات الصحة لا تُكتب في البيانات، ولا تُترجم إلى أرقام، ومع ذلك تظل الأكثر تأثيراً في حياة الإنسان.

ما بعد الأخلاقيات

قد تنجح القمم في صياغة مبادئ أخلاقية للذكاء الاصطناعي، وتبدو هذه المبادئ مكتملة في نصوصها ومنطقها. لكن التحدي الحقيقي لا يبدأ داخل هذه الأطر، بل خارجها.

في تلك المساحات التي لا تصلها البيانات، ولا تلامسها النماذج، ولا تختزلها الأرقام، هناك يتغيّر السؤال نفسه. فلا يعود السؤال:

هل الذكاء الاصطناعي أخلاقي؟ بل يصبح أكثر عمقاً وإلحاحاً: هل يستطيع أن يرى ما يجب أن يكون أخلاقياً تجاهه؟


أول مهمة مأهولة إلى القمر منذ 50 عاماً

شكل تصويري لمركبة «أوريون» قرب القمر
شكل تصويري لمركبة «أوريون» قرب القمر
TT

أول مهمة مأهولة إلى القمر منذ 50 عاماً

شكل تصويري لمركبة «أوريون» قرب القمر
شكل تصويري لمركبة «أوريون» قرب القمر

سترسل وكالة الطيران والفضاء الاميركية ناسا، أربعة رواد فضاء في مهمة أرتميس 2 في رحلة تستغرق 10 أيام حول القمر للتمهيد لهبوط على سطحه في المستقبل وإقامة قواعد دائمة عليه.