كيف يُسهم الذكاء الاصطناعي ووسائل التواصل الاجتماعي في «تعفّن الدماغ»

أبحاث عالمية تشير إلى دورهما في تدهور الإدراك والمعرفة

كيف يُسهم الذكاء الاصطناعي ووسائل التواصل الاجتماعي في «تعفّن الدماغ»
TT

كيف يُسهم الذكاء الاصطناعي ووسائل التواصل الاجتماعي في «تعفّن الدماغ»

كيف يُسهم الذكاء الاصطناعي ووسائل التواصل الاجتماعي في «تعفّن الدماغ»

ربيع العام الماضي، كلفت شيري ميلوماد، الأستاذة في كلية وارتون بجامعة بنسلفانيا، مجموعة من 250 شخصاً بمهمة كتابة بسيطة: التشارك بنصائح مع صديق حول كيفية اتباع نمط حياة صحي. وللتوصل إلى هذه النصائح، سُمح للبعض باستخدام بحث (غوغل) التقليدي، بينما اعتمد آخرون فقط على ملخصات المعلومات المُولّدة تلقائياً باستخدام الذكاء الاصطناعي من «غوغل».

ملخصات الذكاء الاصطناعي عامة وغير مفيدة

كتب الأشخاص الذين استخدموا الملخصات المُولّدة بالذكاء الاصطناعي نصائح عامة، وواضحة، وغير مفيدة إلى حد كبير -تناول أطعمة صحية، وحافظ على رطوبة جسمك، واحصل على قسط كافٍ من النوم! أما الأشخاص الذين وجدوا معلومات من خلال بحث «غوغل» التقليدي على الويب، فقد تشاركوا بنصائح أكثر تفصيلاً ركزت على مختلف ركائز الصحة، بما في ذلك الصحة البدنية، والعقلية، والعاطفية.

المعتمدون على الذكاء الاصطناعي لهم أداء أسوأ

يخبرنا قادة صناعة التكنولوجيا أن برامج الدردشة الآلية وأدوات البحث الجديدة المدعومة بالذكاء الاصطناعي ستُعزز طريقة تعلمنا وازدهارنا، وأن أي شخص يتجاهل هذه التكنولوجيا يُخاطر بالتخلف عن الركب. لكن تجربة ميلوماد، كغيرها من الدراسات الأكاديمية المنشورة حتى الآن حول تأثيرات الذكاء الاصطناعي على الدماغ، وجدت أن الأشخاص الذين يعتمدون بشكل كبير على برامج الدردشة الآلية وأدوات البحث المدعومة بالذكاء الاصطناعي في مهام مثل كتابة المقالات والأبحاث، يُحققون أداءً أسوأ عموماً من الأشخاص الذين لا يستخدمونها.

وقالت ميلوماد: «أنا خائفة جداً، بصراحة. أنا قلقة بشأن عدم معرفة الشباب بكيفية إجراء بحث تقليدي على (غوغل)».

أهلاً بكم في عصر «تعفن الدماغ»

وهذا المصطلح «عامّ» لوصف الحالة العقلية المتدهورة نتيجة الانخراط في محتوى إنترنت رديء الجودة. وعندما اختارت مطبعة جامعة أكسفورد، الجهة الناشرة لقاموس أكسفورد الإنجليزي، مصطلح «تعفن الدماغ» (brain rot) كلمة العام لعام 2024، كان هذا التعريف يشير إلى الكيفية التي يؤدي فيها إدمان تطبيقات التواصل الاجتماعي، مثل «تيك توك» و«إنستغرام»، ومشاهدة مقاطع الفيديو القصيرة، وتأثيرها على الأطعمة، ما حوّل أدمغة المستخدمين إلى «هريس».

هل تُضعف التكنولوجيا الناس؟

هذا سؤالٌ قديمٌ بقدم التكنولوجيا نفسها. فقد انتقد سقراط اختراع الكتابة لإضعافه الذاكرة البشرية. وفي عام 2008، أي قبل سنوات عديدة من ظهور ملخصات الويب المُولّدة بالذكاء الاصطناعي، نشرت مجلة «ذا أتلانتيك» مقالاً بعنوان: «هل يجعلنا «غوغل» أغبياء؟». لكن تبيّن أن هذه المخاوف مُبالغ فيها.

إلا أن الحذر المتزايد في الأوساط الأكاديمية من تأثير الذكاء الاصطناعي على التعلم (بالإضافة إلى المخاوف القديمة بشأن الطبيعة المُشتتة للانتباه لتطبيقات التواصل الاجتماعي) يُمثّل خبراً مُقلقاً لبلدٍ يشهد أداؤه في فهم المقروء تراجعاً حاداً بالفعل.

مستويات قراءة متدنية لدى الأطفال والمراهقين الأميركيين

هذا العام، وصلت درجات القراءة بين الأطفال، بمن فيهم طلاب الصف الثامن وطلاب المرحلة الثانوية، إلى مستويات متدنية جديدة. وكانت النتائج، التي جُمعت من التقييم الوطني للتقدم التعليمي، الذي لطالما اعتُبر الامتحان الأكثر موثوقيةً في البلاد، هي الأولى من نوعها التي تُنشر منذ أن عطّلت جائحة كوفيد-19 التعليم، وزادت من وقت استخدام الشاشات بين الشباب.

يخشى الباحثون من تزايد الأدلة على وجود صلة قوية بين انخفاض الأداء الإدراكي والذكاء الاصطناعي ووسائل التواصل الاجتماعي. بالإضافة إلى الدراسات الحديثة التي وجدت علاقة بين استخدام أدوات الذكاء الاصطناعي والتدهور المعرفي، وجدت دراسة جديدة أجراها أطباء أطفال أن استخدام وسائل التواصل الاجتماعي يرتبط بضعف الأداء لدى الأطفال الذين يخضعون لاختبارات القراءة والذاكرة واللغة.

وفيما يلي ملخص للأبحاث التي أُجريت حتى الآن، وكيفية استخدام الذكاء الاصطناعي بطريقة تُعزز الدماغ -لا تُضعفه.

عندما نكتب باستخدام «تشات جي بي تي»... هل نحن نكتب حقاً؟

صدرت الدراسة الأبرز هذا العام حول تأثيرات الذكاء الاصطناعي على الدماغ عن معهد ماساتشوستس للتكنولوجيا، حيث سعى الباحثون إلى فهم كيفية تأثير أدوات مثل «جي بي تي» على طريقة كتابة الناس. كانت عينة الدراسة، التي شملت 54 طالباً جامعياً، صغيرة الحجم، لكن النتائج أثارت تساؤلات مهمة حول ما إذا كان الذكاء الاصطناعي يُمكن أن يُضعف قدرة الناس على التعلم.

في جزء من الدراسة، طُلب من الطلاب كتابة مقال يتراوح بين 500 و1000 كلمة، وقُسِّموا إلى مجموعات مختلفة: مجموعة تكتب بمساعدة «جي بي تي»، ومجموعة ثانية تبحث عن المعلومات فقط باستخدام محرك بحث «غوغل» التقليدي، ومجموعة ثالثة تعتمد فقط على أدمغتها في كتابة واجباتها.

مستخدمو «جي بي تي» الأسوأ أداء

ارتدى الطلاب أجهزة استشعار لقياس النشاط الكهربائي في أدمغتهم. وأظهر مستخدمو «جي بي تي» أدنى نشاط دماغي، وهو أمر غير مفاجئ، لأنهم كانوا يتركون روبوت الدردشة الذكي يقوم بالعمل.

لكن الاكتشاف الأبرز ظهر بعد أن أنهى الطلاب تمرين الكتابة. إذ وبعد دقيقة واحدة من إكمال مقالاتهم، طُلب من الطلاب اقتباس أي جزء من مقالهم. لم تتمكن الغالبية العظمى (83 في المائة) من مستخدمي «جي بي تي» من تذكر جملة واحدة.

في المقابل، استطاع الطلاب الذين يستخدمون محرك بحث «غوغل» اقتباس بعض الأجزاء، بينما استطاع الطلاب الذين لم يعتمدوا على أي تقنية قراءة الكثير من السطور، بل إن بعضهم اقتبسوا تقريباً كامل مقالاتهم حرفياً.

وقالت ناتاليا كوزمينا، الباحثة في مختبر الوسائط بمعهد ماساتشوستس للتكنولوجيا، التي قادت الدراسة، عن مستخدمي «جي بي تي»: بعد مرور دقيقة واحدة، لم يكن بإمكانهم قول أي شيء حقاً؟ إذا لم يتذكروا ما كتبوه، فلن يشعروا بالمسؤولية».

على الرغم من أن الدراسة ركزت على كتابة المقالات، فإن كوزمينا أعربت عن قلقها بشأن الآثار المترتبة على الأشخاص الذين يستخدمون روبوتات الدردشة التي تعمل بالذكاء الاصطناعي في المجالات التي يكون فيها الاحتفاظ بالمعلومات أمراً ضرورياً، مثل الطيار الذي يدرس للحصول على رخصة قيادة الطائرة. وقالت إن هناك حاجة ملحة لإجراء المزيد من الأبحاث حول كيفية تأثير الذكاء الاصطناعي على قدرة الناس على الاحتفاظ بالمعلومات.

استخدام وسائل التواصل الاجتماعي قد يرتبط بتدني درجات القراءة

على مدار العامين الماضيين، سارعت المدارس في ولايات مثل نيويورك وإنديانا ولويزيانا وفلوريدا إلى حظر استخدام الهواتف الجوالة في الفصول الدراسية، مشيرةً إلى مخاوف من تشتيت الطلاب لانتباههم بتطبيقات التواصل الاجتماعي، مثل «تيك توك» و«إنستغرام». وما يعزز هذا الحظر، دراسة نُشرت الشهر الماضي وجدت صلة قوية بين استخدام وسائل التواصل الاجتماعي وضعف الأداء الإدراكي.

في الشهر الماضي، نشرت المجلة الطبية «JAMA» دراسة أجرتها جامعة كاليفورنيا، سان فرنسيسكو. قام الدكتور جيسون ناجاتا، طبيب الأطفال الذي قاد الدراسة، وزملاؤه بفحص بيانات من مشروع ABCD، الخاص بالتطور المعرفي لدماغ المراهقين، وهو مشروع بحثي تابع أكثر من 6500 شاب وشابة تتراوح أعمارهم بين 9 و13 عاماً من عام 2016 إلى عام 2018.

وخضع جميع الأطفال لاستطلاع رأي مرة واحدة سنوياً حول مقدار الوقت الذي يستخدمون فيه وسائل التواصل الاجتماعي. وخضعوا لعدة اختبارات كل عامين. على سبيل المثال، تضمن اختبار المفردات البصرية مطابقة الصور بشكل صحيح مع الكلمات التي سمعوها.

تدهور المعرفة

أظهرت البيانات أن الأطفال الذين أفادوا باستخدامهم لوسائل التواصل الاجتماعي لفترات قصيرة (ساعة واحدة يومياً) أو لفترات طويلة (ثلاث ساعات على الأقل يومياً) سجلوا نتائج أقل بكثير في اختبارات القراءة والذاكرة والمفردات، مقارنةً بالأطفال الذين أفادوا بعدم استخدامها على الإطلاق.

أما عن سبب تأثير تطبيقات التواصل الاجتماعي -مثل «تيك توك» و«إنستغرام»- على نتائج الاختبارات، فإن الاستنتاج الوحيد المؤكد هو أن كل ساعة يقضيها الطفل في تصفح التطبيقات تُضيّع وقتاً على أنشطة أكثر إثراءً كالقراءة والنوم، وفقاً لناجاتا.

طرق صحية لتوظيف الذكاء الاصطناعي

ما أفضل الطرق الصحية لاستخدام وسائل التواصل الاجتماعي والذكاء الاصطناعي؟ على الرغم من وجود علاقة بين استخدام وسائل التواصل الاجتماعي والتدهور المعرفي، فإنه من الصعب التوصية بوقت مثالي أمام الشاشات للشباب، لأن الكثير من الأطفال يقضون وقتاً أمام الشاشات في أنشطة لا علاقة لها بوسائل التواصل الاجتماعي، مثل مشاهدة البرامج التلفزيونية، وفقاً لناجاتا.

بدلاً من ذلك، اقترح أن يفرض الآباء مناطق خالية من الشاشات، وأن يحظروا استخدام الهاتف في أماكن مثل غرفة النوم وطاولة الطعام، حتى يتمكن الأطفال من التركيز على دراستهم ونومهم ووجباتهم.

وبالنسبة لروبوتات الدردشة الذكية، برزت نقطة مثيرة للاهتمام في دراسة معهد ماساتشوستس للتكنولوجيا (MIT) تُقدم حلاً مُحتملاً لكيفية استخدام الناس لروبوتات الدردشة على أفضل وجه للتعلم والكتابة.

في النهاية، تبادلت المجموعات المشاركة في تلك الدراسة الأدوار: تمكّن من اعتمدوا على أدمغتهم فقط في الكتابة من استخدام «جي بي تي»، بينما تمكّن من اعتمدوا عليه سابقاً من استخدام أدمغتهم فقط. وكتب جميع الطلاب مقالات حول نفس المواضيع التي اختاروها سابقاً.

سجّل الطلاب الذين اعتمدوا في البداية على أدمغتهم فقط أعلى نشاط دماغي لهم بمجرد السماح لهم باستخدام «جي بي تي». أما الطلاب الذين استخدموا «جي بي تي» في البداية، فلم يكونوا على قدم المساواة مع المجموعة الأولى عندما قُيّدوا باستخدام أدمغتهم فقط، كما قالت كوزمينا.

التفكير في تنفيذ العمل أولاً ثم اللجوء إلى الذكاء الاصطناعي

يشير ذلك إلى أن الأشخاص الذين يتوقون لاستخدام روبوتات الدردشة للكتابة والتعلم يجب أن يفكروا في بدء العملية ليقوموا بها بأنفسهم قبل اللجوء إلى أدوات الذكاء الاصطناعي لاحقاً في العملية للمراجعة، على غرار طلاب الرياضيات الذين يستخدمون الآلات الحاسبة لحل المسائل فقط بعد استخدامهم القلم والورقة لتعلم الصيغ والمعادلات.

وقالت ميلوماد إن مشكلة هذه الأدوات تكمن في أنها حوّلت ما كان في السابق عملية نشطة في الدماغ -تصفح الروابط والنقر على مصدر موثوق للقراءة- إلى عملية سلبية من خلال أتمتة كل ذلك.

الذكاء الاصطناعي للإجابة عن التفاصيل وليس البحث عن الجوهر

لذا، ربما يكون مفتاح استخدام الذكاء الاصطناعي بطريقة أكثر صحة، كما قالت، هو محاولة أن نكون أكثر وعياً بكيفية استخدامنا له. وقالت ميلوماد إنه بدلاً من طلب إجراء جميع الأبحاث حول موضوع واسع، استخدمه على أنه جزء من عملية البحث الخاصة بك للإجابة عن أسئلة صغيرة، مثل البحث عن التواريخ التاريخية. ولكن للتعمق في موضوع ما، فكّر في قراءة كتاب.

* خدمة «نيويورك تايمز»


مقالات ذات صلة

«رؤية 2030»: حكاية التحول من الإدارة التقليدية إلى الريادة الرقمية العالمية

الاقتصاد «رؤية 2030»: حكاية التحول من الإدارة التقليدية إلى الريادة الرقمية العالمية

«رؤية 2030»: حكاية التحول من الإدارة التقليدية إلى الريادة الرقمية العالمية

انطلقت السعودية في مسار التحوُّل الرقمي والاقتصاد المعرفي، مستندةً إلى بنية تحتية رقمية مُتقدِّمة وبناء معرفي تراكم عبر سنوات طويلة، ما عزز قدرتها على المنافسة.

عبير حمدي (الرياض)
الاقتصاد زوار في جناح «هواوي» خلال مؤتمر التكنولوجيا بالصين - 26 يوليو 2025 (رويترز)

أميركا لتوسيع الحرب التكنولوجية على الصين

أمرت وزارة الخارجية الأميركية بحملة عالمية لتسليط الضوء على محاولات لشركات صينية؛ مثل «ديب سيك» للذكاء الاصطناعي، لسرقة حقوق الملكية الفكرية الأميركية.

«الشرق الأوسط» (واشنطن)
الاقتصاد شاشات تعرض مؤشرات الأسهم داخل قاعة بورصة نيويورك (رويترز)

تدفقات صناديق الأسهم العالمية تقفز إلى أعلى مستوى في 17 شهراً

ارتفعت التدفقات الأسبوعية إلى صناديق الأسهم العالمية إلى أعلى مستوياتها في أكثر من 17 شهراً خلال الأسبوع المنتهي في 22 أبريل.

«الشرق الأوسط» (لندن - نيويورك)
الاقتصاد شعار شركة «ديب سيك» الصينية في معرض بمدينة شنغهاي العام الماضي (أ.ف.ب)

«ديب سيك» الصينية تستعرض نموذجاً جديداً مُعدّلاً لتقنية رقائق «هواوي»

أطلقت شركة «ديب سيك» الصينية عرضاً أولياً لنموذجها الجديد المنتظر والمُعدّل لتقنية رقائق «هواوي»، مما يؤكد تفوق الصين المتنامي في هذا القطاع. 

«الشرق الأوسط» (بكين)
تكنولوجيا مارك زوكربيرغ مالك شركة «ميتا» (رويترز)

زوكربيرغ يُقلّص آلاف الوظائف لتمويل استثمارات الذكاء الاصطناعي

تتصاعد وتيرة التحولات داخل كبرى شركات التكنولوجيا العالمية مع احتدام المنافسة في مجال الذكاء الاصطناعي، ما يدفع هذه الشركات إلى إعادة هيكلة مواردها البشرية.

«الشرق الأوسط» (كاليفورنيا (الولايات المتحدة))

حوكمة «الذكاء الاصطناعي المسؤول» لمؤسستك... خلال 90 يوماً

حوكمة «الذكاء الاصطناعي المسؤول» لمؤسستك... خلال 90 يوماً
TT

حوكمة «الذكاء الاصطناعي المسؤول» لمؤسستك... خلال 90 يوماً

حوكمة «الذكاء الاصطناعي المسؤول» لمؤسستك... خلال 90 يوماً

أعلنت شركة أنثروبيك هذا الشهر عن تطويرها نموذج ذكاء اصطناعي فائق القدرات، الأمر الذي حال دون نشره للجمهور.

تطويرات متلاحقة

اكتشف البرنامج الجديد «كلود ميثوس» بشكل مستقل، آلاف الثغرات الأمنية الحرجة في جميع أنظمة التشغيل ومتصفحات الويب الرئيسية. لذا اختارت «أنثروبيك» توفير النموذج فقط لمجموعة محددة من شركات التكنولوجيا، لمنحها فرصة لسد الثغرات وتعزيز الدفاعات قبل أن تقع نماذج مماثلة في أيدي من يستغلونها.

ويسلط هذا التطور الضوء على المخاطر المستقبلية المحتملة التي يحملها التطور السريع لنماذج الذكاء الاصطناعي، كما كتب فيصل حقّ(*).

أهمية الذكاء الاصطناعي المسؤول

ومن المتوقع أن تنتشر هذه النماذج القوية على نطاق واسع، وسيؤدي انتشارها إلى تزايد الحاجة إلى سياسات حوكمة تستند إلى مبادئ الذكاء الاصطناعي المسؤول.

وتهدف ممارسة الذكاء الاصطناعي المسؤول إلى ضمان أن تظل أنظمة الذكاء الاصطناعي، مع ازدياد قوتها، عادلة وقابلة للتفسير وخاضعة للإشراف البشري، وفقاً لمبادئ أخلاقية وهياكل مساءلة تحمي الأفراد المتأثرين بهذه الأنظمة.

إن الذكاء الاصطناعي المسؤول ضرورة ملحة للأعمال، وليس مجرد طموح مستقبلي. فالمؤسسات التي تستخدم الذكاء الاصطناعي دون أطر حوكمة معرضة بالفعل لمخاطر متزايدة على سمعتها وقانونها وتشغيلها، وتتفاقم هذه المخاطر بمرور الوقت مع توسع الأنظمة وتعمقها.

تبعات اجتماعية بتسريح العاملين

والأهم من ذلك، أن المخاطر تتجاوز الأعطال التقنية أو انتهاكات الامتثال. للذكاء الاصطناعي تبعات مجتمعية كبيرة، لا سيما في مجال التوظيف: إذ يتوقع استطلاع رأي أُجري بين المديرين الماليين فقدان نحو 500 ألف وظيفة مرتبطة بالذكاء الاصطناعي في عام 2026، مما يؤكد ضرورة أن تعالج المؤسسات اضطراب القوى العاملة، وليس فقط أداء النظام. لذا، يجب أن يدمج الذكاء الاصطناعي المسؤول الاعتبارات الأخلاقية والتنظيمية والإنسانية في استراتيجية حوكمة موحدة.

إطار الذكاء الاصطناعي المسؤول

يرتكز الإطار المُقدم للذكاء الاصطناعي المسؤول على ثلاثة أركان أساسية:

1. الأسس الأخلاقية. غالباً ما تبدأ المؤسسات بسياسات استخدام الذكاء الاصطناعي - وهي قواعد تحكم الاستخدام المقبول له - لكن هذه السياسات غير كافية دون قيم أساسية واضحة المعالم.

المبادئ الأخلاقية... قبل السياسات

يجب أن تسبق المبادئ الأخلاقية السياسات، لتكون بمثابة بوصلة لاتخاذ القرارات عند ظهور سيناريوهات جديدة لا تغطيها كل تفاصيل السياسات. وتُحدد هذه المبادئ الالتزامات بالعدالة، وعدم التمييز، والإشراف البشري، والمسؤولية المجتمعية. ومن دون هذا الأساس، تُصبح السياسات عرضةً لأن تكون ردود فعلية وغير متسقة.

تحديد السلطة والمسؤولية

2. المساءلة والإشراف. يفشل الذكاء الاصطناعي المسؤول عندما تكون الملكية غير واضحة. تتطلب الحوكمة الفعّالة تحديداً واضحاً للسلطة والمسؤولية: من يُوافق على عمليات النشر، ومن يُمكنه إيقافها، ومن الذي يُحاسب أمام القيادة عند حدوث إخفاقات. يجب أن يُستكمل ذلك بضمانات تشغيلية تضمن مشاركة بشرية فعَّالة، لا سيما في القرارات المصيرية أو التي لا رجعة فيها.

إن الحوكمة ليست مجرد تركيبة هيكلية؛ بل يجب أن تُمارس عملياً بسلطة قابلة للتنفيذ.

3. التأثير البشري. تُعيد أنظمة الذكاء الاصطناعي تشكيل حياة البشر - إذ تُغير الوظائف، والفرص، وبيئات صنع القرار. ويتطلب النهج المسؤول اهتماماً أصيلاً بهذه التأثيرات، مع إعطاء الأولوية للعدالة، والكرامة، والتحسين على عملية الاستبدال. وهذا يُحوِّل (توظيف النظم الذكية) من التركيز من التحسين التقني البحت إلى التصميم الاجتماعي التقني، حيث تُعامل النتائج البشرية كاعتبارات أساسية.

خطة تنفيذية بـ90 يوماً

وإليكم خطة تنفيذية بـ90 يوماً لتحقيق هذه الأهداف، مقسَّمة إلى ثلاث مراحل: التخطيط، والبناء، والتطبيق.

التخطيط

* الأيام 1-30: التخطيط. تركز المرحلة الأولى على فهم واقع الذكاء الاصطناعي الحالي قبل محاولة التحكم فيه. غالباً ما تقلل المؤسسات من شأن مدى انتشار استخدام الذكاء الاصطناعي لديها، لا سيما من خلال عمليات توظيفه بشكل غير رسمي أو حنى «خفي».

تعداد النظم والتهيؤ لأسوأ السيناريوهات

* حصر وتعداد أنظمة الذكاء الاصطناعي: تحديد جميع تطبيقات الذكاء الاصطناعي، بما في ذلك الأدوات غير الرسمية التي يستخدمها الموظفون. وتجرى لكل تطبيق عمليات لتوثيق وظائفه، ومصادر بياناته، والجهات المعنية، ومسؤولية إدارته. وغالباً ما سيكشف هذا التعداد والحصر عن بيئة مجزأة وغير منظمة بشكل كافٍ.

* إجراء تحليل لأسوأ السيناريوهات: باستخدام منهجية «التصور الكارثي» المنظمة، يُطلب من فرق القيادة تصور أخطر حالات الفشل المحتملة لكل نظام. صُممت هذه الطريقة للكشف عن المخاطر الخفية التي قد تغفلها التقييمات القياسية.

الفرز الفوري: في حال الكشف عن مخاطر حرجة - مثل اتخاذ الأنظمة قرارات مصيرية دون رقابة - يجب اتخاذ إجراء فوري. قد يشمل ذلك إيقاف توظيف الأدوات الذكية مؤقتاً أو إدخال مراجعة بشرية، حتى قبل وضع إطار حوكمة متكامل.

ثقافة المؤسسة والصلاحيات

* تقييم ثقافة المؤسسة: تعتمد فعالية الحوكمة على ما إذا كان الذكاء الاصطناعي المسؤول يُعامل كأولوية استراتيجية أم مجرد واحد من المتطلبات العصرية. إذا كان الأمر كذلك، فإن الإصلاحات الهيكلية وحدها ستفشل دون تغيير ثقافي أوسع.

توضيح صلاحيات اتخاذ القرار: تتطلب الحوكمة هياكل سلطة واضحة لا لبس فيها. يجب على المؤسسات تحديد من يمكنه الموافقة على مبادرات الذكاء الاصطناعي ومراجعتها وإيقافها وتوفير الموارد لها. من دون هذا الوضوح، يصبح اتخاذ القرار خاضعاً لديناميكيات السلطة غير الرسمية، ما يقوض المساءلة.

بناء النظم وتفعيلها

* الأيام 31-60: البناء. تركز المرحلة الثانية على بناء البنية التحتية اللازمة لتفعيل الذكاء الاصطناعي المسؤول.

تطوير إطار أخلاقي: يُضفي هذا الإطار طابعاً رسمياً على مبادئ المؤسسة، ويُحوّلها إلى توجيهات عملية، تشمل العدالة، والرقابة، والاستقلالية المقبولة، وتأثيرها على القوى العاملة، وتداعياتها المجتمعية. ويُشكِّل هذا الإطار الأساس لجميع قرارات الحوكمة.

* إنشاء بنية تحتية تقنية: يجب أن تدعم السياسات أنظمة قادرة على مراقبة سلوك الذكاء الاصطناعي. ويشمل ذلك تتبع المخرجات، واكتشاف التحيز وانحراف النموذج، وتوليد أدلة التدقيق. ومن دون هذه القدرات، تبقى الحوكمة نظرية.

فريق مخصص ومسؤول

* تحديد المسؤولية والهيكل: يجب أن يكون هناك فرد أو فريق مُخصَّص مسؤول عن حوكمة الذكاء الاصطناعي، يتمتع بصلاحيات كافية لإنفاذ المعايير. بالإضافة إلى ذلك، تضمن الأدوار اللامركزية داخل وحدات الأعمال تطبيق الحوكمة عملياً.

* تصميم عمليات التقييم: وضع إجراءات موحَّدة لتقييم أنظمة الذكاء الاصطناعي وفقاً لمعايير أخلاقية ومعايير المخاطر. وينبغي أن تُنتج هذه الإجراءات تصنيفات واضحة للمخاطر، مع تحديد «عتبات» تُحدد مستوى الرقابة المطلوب.

إعادة توجيه الحوافز: يتبع سلوك المؤسسة الحوافز. إذا ركزت مقاييس الأداء على السرعة والتكلفة فقط، فسيتم تجاهل الحوكمة. يجب دمج مقاييس الذكاء الاصطناعي المسؤول - مثل تخفيف المخاطر والامتثال - في تقييم القيادة.

تهيئة الكفاءات العالية

* بدء مراجعات المخاطر العالية: ابدأ بتطبيق إطار الحوكمة على الأنظمة الأكثر أهمية التي تم تحديدها سابقاً. هذا يخفف من المخاطر العاجلة ويختبر نموذج الحوكمة تحت الضغط.

* تطوير المهارات والقدرات: يتطلب الذكاء الاصطناعي المسؤول كفاءات جديدة في جميع أنحاء المؤسسة، بما في ذلك الكفاءات التقنية (كشف التحيز)، والإدارية (التعاون بين الإنسان والذكاء الاصطناعي)، والقانونية (الوعي التنظيمي). يُعد وجود برنامج تدريبي منظم أمراً ضرورياً.

تشغيل إطار الحوكمة المسؤولة

* الأيام 61-90: «تضمين» الحوكمة داخل المؤسسة. تضمن المرحلة الأخيرة أن تصبح الحوكمة قدرة تنظيمية مستدامة وليست مبادرة مؤقتة.

مواجهة الأزمات والمراجعة الدورية

* وضع استراتيجيات «الخروج» من الأزمات: يجب أن يكون لكل نظام ذكاء اصطناعي بروتوكول إيقاف تشغيل محدد مسبقاً. يضمن تصميم هذه الاستراتيجيات مسبقاً إمكانية إيقاف تشغيل الأنظمة بأمان أثناء الأزمات.

وضع إجراءات حوكمة فعَّالة: تُرسِّخ اجتماعات المراجعة الدورية الرقابة، موفِّرةً منبراً ثابتاً لرصد المخاطر ومعالجة القضايا المستجدة.

* دمج الحوكمة في سير العمل: يجب دمج الذكاء الاصطناعي المسؤول في سير العمل القياسي. تتطلب الأنظمة عالية المخاطر مراجعةً قبل توظيفها، ويجب إعادة تقييم جميع الأنظمة دورياً. ولهذا تصبح الحوكمة جزءاً لا يتجزأ من العمليات الاعتيادية بدلاً من كونها نقطة تفتيش خارجية.

* التحسين المستمر بناءً على الملاحظات: في هذه المرحلة، تمتلك المؤسسات بيانات تشغيلية حول أداء الحوكمة. ويُعدّ التحسين المستمر أمراً بالغ الأهمية، من خلال تحسين العمليات، ومعالجة المعوقات، وتعزيز التوافق الثقافي.

الخلاصة - الاستعداد لنظم ذكية متطورة

إن قدرات الذكاء الاصطناعي المتقدمة - كما يتضح من مثال «كلود ميثوس» - ليست افتراضية، بل وشيكة. السؤال المحوري ليس ما إذا كانت المؤسسات ستواجه أنظمة ذكاء اصطناعي قوية وربما محفوفة بالمخاطر، بل ما إذا كانت ستكون مستعدة عند حدوث ذلك.

والأهم من ذلك، يمكن تحقيق تقدم ملموس نحو حوكمة مسؤولة للذكاء الاصطناعي في غضون ربع سنة واحد إذا تم اتباع خط منهجي.

إجراءات فورية ومنظمة

الرسالة الأساسية واضحة: الذكاء الاصطناعي المسؤول ليس خياراً، ولا يمكن تأجيله. إنه يتطلب إجراءات فورية ومنظمة تدمج المبادئ الأخلاقية والمساءلة المؤسسية والتصميم الذي يركز على الإنسان في نظام حوكمة متماسك. والمنظمات التي لا تتخذ إجراءات لا تخاطر فقط بالإخفاقات التشغيلية، بل أيضاً بضرر مجتمعي أوسع وخسارة استراتيجية.

إن الذكاء الاصطناعي المسؤول ضرورة ملحة للأعمال، وليس مجرد طموح مستقبلي. فالمؤسسات التي تستخدم الذكاء الاصطناعي دون أطر حوكمة معرضة بالفعل لمخاطر متزايدة على سمعتها وقانونها وتشغيلها، وتتفاقم هذه المخاطر بمرور الوقت مع توسُّع الأنظمة وتعمقها.

* مجلة «فاست كومباني».


الذكاء الاصطناعي في الطب

بين عين الطبيب وعقل الخوارزمية
بين عين الطبيب وعقل الخوارزمية
TT

الذكاء الاصطناعي في الطب

بين عين الطبيب وعقل الخوارزمية
بين عين الطبيب وعقل الخوارزمية

في الطب، لا تبدأ الحقيقة دائماً بما نراه... بل كثيراً بما لا يُعرض علينا أصلاً، فالأرقام، مهما بدت دقيقة، لا تحكي القصة كاملة، والخوارزميات، مهما بلغت من ذكاء، لا تُفصح عن حدودها بصراحة.

حين تعتمد أوروبا على الذكاء الاصطناعي

تقرير أوروبي

في هذا السياق، صدر تقرير حديث عن منظمة الصحة العالمية - المكتب الإقليمي لأوروبا، ونُشر رسمياً في 20 أبريل (نيسان) 2026، ليُقدّم أول صورة شاملة عن واقع استخدام الذكاء الاصطناعي في الأنظمة الصحية داخل دول الاتحاد الأوروبي. لا بوصفه وعداً تقنياً، بل محاولة لقياس ما أصبح بالفعل جزءاً من الممارسة الطبية اليومية: مَن يستخدم هذه الأنظمة؟ كيف تُدمج في القرار السريري؟ وإلى أي حد يمكن الوثوق بها؟

ما الذي نقيسه... وما الذي يغيب عنا؟

لكن ما يلفت الانتباه في هذا التقرير، ليس فقط ما كشفه من أرقام بل ما تركه خارج القياس. فبينما يشير إلى أن نحو 64 في المائة من الدول الأوروبية باتت تعتمد الذكاء الاصطناعي في مجالات التشخيص، خصوصاً في تحليل الصور الطبية، يظل السؤال الأعمق معلقاً: هل تكفي هذه المؤشرات لفهم ما يحدث فعلاً داخل غرفة القرار الطبي؟

في مقالات سابقة، كان السؤال: مَن يقرر؟ أما اليوم، فقد تغيّر السؤال: ماذا لا نرى؟

بين الانتشار والفهم... فجوة لا تُرى

لم يعد إدخال أنظمة الذكاء الاصطناعي إلى المستشفيات تحدياً تقنياً يُذكر؛ فالنماذج قادرة اليوم على تحليل آلاف الصور الطبية في لحظات، واقتراح مسارات تشخيصية بدقة لافتة. غير أن التحدي الحقيقي لا يكمن في القدرة على الاستخدام، بل في القدرة على الفهم: ماذا تفعل هذه الأنظمة حين تعمل؟ وأين تتوقف حدودها؟

تفاوت الجاهزية البشرية والتنظيمية

يكشف تقرير منظمة الصحة العالمية عن تفاوت واضح بين الدول، لا في توفر التكنولوجيا، بل في جاهزيتها البشرية والتنظيمية؛خصوصاً في مجالات الحوكمة الأخلاقية، وتأهيل الأطباء، وإدارة البيانات. لكن هذا التفاوت الظاهر يخفي وراءه فجوة أعمق، لا تُقاس بسهولة.

إنها فجوة معرفية قبل أن تكون تقنية، فالذكاء الاصطناعي لا يعمل بمنطق الشك الذي اعتاد عليه الطبيب، ولا يعلن عن مناطق ضعفه كما يفعل العقل البشري حين يتردد. إنه يولد إجابات، لكنه لا يكشف عمّا استُبعد من الحساب، ولا عمّا لم يُمثَّل في البيانات أصلاً.

هنا يظهر ما يمكن تسميته بـ«الصمت الخوارزمي»؛ ليس بوصفه خللاً في الأداء، بل خاصية بنيوية في هذه الأنظمة: فراغ غير مرئي داخل القرار؛ حيث لا يكون الخطأ في ما قِيل، بل فيما لم يُطرح أصلاً.

هل يُقاس الطب بالخوارزميات وحدها؟

في بيئة طبية تتسارع فيها الأنظمة الذكية، يسهل اختزال جودة الرعاية الصحية في مؤشرات الأداء: دقة أعلى، وقت أقل، وقرارات أسرع. غير أن هذا القياس، على أهميته، يظل عاجزاً عن التقاط جوهر القرار الطبي. فالطب لا يقوم فقط على ما يُكتشف، بل على كيفية التعامل مع ما يظل غير محسوم.

الطبيب لا يعمل داخل معادلة مغلقة، بل داخل مساحة مفتوحة من الاحتمالات؛ حيث تُعاد صياغة القرار مع كل معلومة جديدة، ومع كل شك يظهر في الطريق. وهذا ما لا تعكسه المؤشرات الرقمية، ولا تُترجمه النماذج الحسابية بسهولة.

تفاعل الطبيب

التقرير الأوروبي يقيس مدى انتشار الذكاء الاصطناعي، لكنه لا يقيس كيفية تفاعل الطبيب مع مخرجاته: متى يقبلها؟ ومتى يعيد تفسيرها؟ ومتى يختار أن يتجاوزها؟ هذه اللحظات -التي لا تُسجل في البيانات- هي التي تُشكّل جوهر الممارسة السريرية.

وهنا تتجلى المفارقة بوضوح: كلما أصبحت الأنظمة أكثر دقة في الإجابة، ازدادت الحاجة إلى عقل قادر على إعادة طرح السؤال.

من يكتب القواعد... الإنسان أم الآلة؟

يُظهر تقرير منظمة الصحة العالمية أن الدول الأوروبية لا تتحرك بإيقاع واحد في تنظيم الذكاء الاصطناعي الطبي؛ فبعضها صاغ استراتيجيات وطنية واضحة، في حين لا يزال بعضها الآخر في طور البحث عن إطار ينظم ما يتسارع قبل أن يُفهم بالكامل.

غير أن المسألة لا تتعلق فقط بوجود القوانين، بل بطبيعة ما نحاول تنظيمه. فالذكاء الاصطناعي لم يعد أداة ثابتة يمكن إخضاعها لقواعد جامدة، بل نظام يتعلم ويتغير، وتتشكل مخرجاته من تفاعل معقد بين البيانات والسياق وطريقة الاستخدام.

وهنا تظهر مفارقة تنظيمية عميقة: نحن نكتب قواعد لأنظمة لا تتوقف عن إعادة تشكيل نفسها. فالقانون يفترض ثبات السلوك، في حين تقوم هذه الأنظمة على التحول المستمر.

لهذا، لم تعد مساءلة الذكاء الاصطناعي مساءلة تحديد «من أخطأ»، بل فهم كيف تُشكّل القرار أصلاً، ومن أين بدأ مساره. إنها مساءلة لا تبحث فقط في النتيجة، بل في البنية التي أنتجتها، وهذا ما يجعلها أقرب إلى سؤال فلسفي منه إلى إجراء تنظيمي تقليدي.

أوروبا تتقدم... فماذا عن العالم العربي؟

ما يلفت النظر في تقرير منظمة الصحة العالمية ليس فقط ما حققته أوروبا، بل ما يكشفه ضمنياً عن موقعنا نحن في هذه الخريطة المتحركة. ففي العالم العربي، تبدو الصورة غير متجانسة، بل أقرب إلى تفاوت حاد بين دول تقود التجربة، وأخرى لا تزال في بداياتها الأولى.

المملكة تقود التحول حيث يلتقي الطب بالذكاء

في المقدمة، تبرز المملكة العربية السعودية نموذجاً يقود التحول في الذكاء الاصطناعي الطبي، ضمن رؤية استراتيجية واضحة ترتبط بـ«رؤية السعودية 2030»؛ حيث لم يعد الاستخدام مقصوراً على التجريب، بل أصبح جزءاً من البنية التشغيلية في المستشفيات، ومنصات الرعاية الافتراضية، وتحليل البيانات الصحية على نطاق واسع.

تلي السعودية كل من قطر والإمارات العربية المتحدة بخطوات متفاوتة؛ حيث تتشكل منظومات واعدة، لكنها لم تصل بعد إلى مستوى التكامل الشامل الذي نشهده في التجربة السعودية.

أما بقية العالم العربي، والتي تمثل أكثر من 70 في المائة من الدول، فتتراوح بين مراحل وضع الأسس الأولية للذكاء الاصطناعي الطبي، أو غيابه شبه الكامل عن الممارسة السريرية المنظمة. وهنا لا تكون الفجوة تقنية فحسب، بل فجوة في الرؤية والتخطيط والجاهزية البشرية.

لكن التحدي الحقيقي لا يكمن في تسريع التبني فقط، بل في كيفية توجيهه. فالسؤال لم يعد: كم نظاماً نملك؟ بل: كيف نستخدمه؟ ومن يفسر نتائجه؟ وهل الطبيب العربي اليوم مُهيأ ليكون شريكاً في القرار، لا مجرد متلقٍ لمخرجاته؟

ما الذي لا يظهر في التقارير؟

ربما يكون أهم ما كشفه تقرير منظمة الصحة العالمية... هو ما لم يقله صراحة. فبين الأرقام، تختفي تفاصيل لا تُقاس: قلق طبيب شاب أمام توصية لا يفهم آليتها، أو مريض يبدأ موازنة ثقته بين الإنسان والنظام.

هذه المساحات غير المرئية ليست هامشية، بل هي التي تُشكّل جوهر القرار الطبي؛ حيث تتقاطع الدقة مع الشك، والتوصية مع المسؤولية.

الخلاصة: السؤال الذي تغيّر

في نهاية المطاف، لا يكمن السؤال فيما إذا كان الذكاء الاصطناعي سيُستخدم في الطب، بل في مَن يقود القرار حين يلتقي الإنسان بالخوارزمية.

في هذا العصر، لم تعد الأخطاء تختبئ فقط في القرارات الخاطئة، بل في القرارات التي لم تُتخذ، وفيما لم يُعرض أصلاً على طاولة التفكير السريري. ولهذا، لم يعد السؤال: هل أخطأ النظام؟ بل أصبح:

ما الذي لم نره... وكان ينبغي أن يكون جزءاً من القرار؟


«ناسا» تكشف عن تلسكوب سيوفر «أطلساً جديداً للكون»

صحافي يلتقط صورة للتلسكوب الفضائي الجديد «رومان» (أ.ف.ب)
صحافي يلتقط صورة للتلسكوب الفضائي الجديد «رومان» (أ.ف.ب)
TT

«ناسا» تكشف عن تلسكوب سيوفر «أطلساً جديداً للكون»

صحافي يلتقط صورة للتلسكوب الفضائي الجديد «رومان» (أ.ف.ب)
صحافي يلتقط صورة للتلسكوب الفضائي الجديد «رومان» (أ.ف.ب)

كشفت وكالة الفضاء الأميركية (ناسا) عن تلسكوبها الفضائي الجديد «رومان» القادر على مسح أجزاء شاسعة من الكون بحثاً عن كواكب خارجية، وكذلك عن إجابات لأكبر الألغاز الفيزيائية المتمثلة في المادة والطاقة المظلمتين.

ونقلت «وكالة الصحافة الفرنسية» عن مدير «ناسا» جاريد آيزاكمان قوله أمس (الثلاثاء) من مركز غودارد التابع للوكالة في ولاية ماريلاند (شرق الولايات المتحدة)، إن هذا التلسكوب من الجيل الأحدث «سيوفِّر لكوكب الأرض أطلساً جديداً للكون».

وسيُنقل التلسكوب الذي يتجاوز طوله 12 متراً والمزوَّد ألواحاً شمسية ضخمة إلى فلوريدا، تمهيداً لإرساله إلى الفضاء في أقرب وقت مطلع سبتمبر (أيلول)، بواسطة صاروخ تابع لشركة «سبيس إكس».

وأُطلقت تسمية «رومان» على هذا التلسكوب الذي فاقت تكلفته 4 مليارات دولار، تيمناً بنانسي غريس رومان، إحدى أهم عالمات الفلك الأميركيات، والملقبة بـ«أم هابل»، نسبة إلى تلسكوب «هابل» الشهير التابع لـ«ناسا».

ومن نقطة مراقبة تبعد 1.5 مليون كيلومتر عن كوكب الأرض، سيمسح «رومان» مناطق شاسعة من السماء، بفضل مجال رؤيته الواسع الذي يفوق مجال رؤية «هابل» بأكثر من مائة مرة.

وقال مهندس الأنظمة في مهمة «رومان» مارك ميلتون، لـ«وكالة الصحافة الفرنسية»، إن التلسكوب الجديد سيُرسِل إلى الأرض «11 تيرابايت من البيانات يوميّاً، ما يعني أن كمَّ البيانات التي سيوفِّرها في السنة الأولى وحدها يفوق ما جمعه تلسكوب هابل طوال فترة عمله» منذ دخوله الخدمة قبل 35 عاماً.

وتوقَّعت المسؤولة عن الأنشطة العلمية في «ناسا» نيكي فوكس، أن يتيح «رومان» بفضل عدسته الواسعة الزاوية «اكتشاف عشرات الآلاف من الكواكب الجديدة»، فضلاً عن «آلاف المستعرات العظمى» أي النجوم الضخمة التي شارفت دورة حياتها نهايتها.

لكنَّ «رومان» يهدف أيضاً إلى دراسة ما هو غير مرئي، أي دراسة المادة والطاقة المظلمتين اللتين يُعتقد أنهما تمثِّلان 95 في المائة من الكون.

وبفضل الأشعة تحت الحمراء، سيتمكَّن «رومان» من رصد الضوء المنبعث من أجرام سماوية قبل مليارات السنين، والعودة بذلك إلى الماضي، لفهم هاتين الظاهرتين الغامضتين بصورة أفضل.