الذكاء الصناعي يُحمّل العدوى البكتيرية مسؤولية وفيات «كورونا»

بعد تبرئة «العاصفة الخلوية»

العدوى البكتيرية يتم التقاطها في غرف العناية المركزة (غيتي)
العدوى البكتيرية يتم التقاطها في غرف العناية المركزة (غيتي)
TT

الذكاء الصناعي يُحمّل العدوى البكتيرية مسؤولية وفيات «كورونا»

العدوى البكتيرية يتم التقاطها في غرف العناية المركزة (غيتي)
العدوى البكتيرية يتم التقاطها في غرف العناية المركزة (غيتي)

ربطت كثير من الدراسات بين وفيات فيروس «كورونا المستجد»، المسبب لمرض «كوفيد-19»، وحدوث «عاصفة خلوية»، وهي رد فعل مناعي مبالغ فيه، غير أن دراسة استخدمت الذكاء الصناعي، لباحثين من جامعة نورث وسترن الأميركية، استبعدت هذا السبب، وحملت مسؤولية الوفيات إلى «العدوى البكتيرية الثانوية في الرئة (الالتهاب الرئوي)».

ومن خلال تطبيق التعلم الآلي على بيانات السجلات الطبية. وجد العلماء في الدراسة المنشورة بالعدد الأخير من دورية «جورنال أوف كلينكال أنفستجيشن»، أن «الالتهاب الرئوي الجرثومي الثانوي الذي لم يتم علاجه، كان السبب الرئيسي للوفاة لدى مرضى (كوفيد-19)».

وقال بنجامين سينغر، أستاذ الطب المساعد بجامعة نورث وسترن، في تقرير نشره (الخميس) الموقع الإلكتروني للجامعة: «دراستنا تسلّط الضوء على أهمية الوقاية من الالتهاب الرئوي الجرثومي الثانوي والبحث عنه وعلاجه بقوة في المرضى المصابين بأمراض خطيرة والالتهاب الرئوي الحاد، بمن فيهم المصابون بـ(كوفيد-19)». ووجد الباحثون أن ما يقرب من نصف المرضى المصابين بـ«كوفيد-19» يصابون بالتهاب رئوي جرثومي ثانوي مرتبط بجهاز التنفس الصناعي.

ويوضح سينغر أنه «من المرجح أن يعيش أولئك الذين شُفوا من الالتهاب الرئوي الثانوي، في حين أن أولئك الذين لم يتم علاج الالتهاب الرئوي لديهم كانوا أكثر عرضة للوفاة». ويضيف: «تشير بياناتنا إلى أن معدل الوفيات المرتبط بالفيروس نفسه منخفض نسبياً، لكن الأشياء الأخرى التي تحدث أثناء الإقامة في وحدة العناية المركزة، مثل الالتهاب الرئوي البكتيري الثانوي، تكون هي السبب الرئيسي».

من ناحية أخرى، يلفت سينغر إلى أن نتائج الدراسة تنفي أيضاً نظرية العاصفة الخلوية «عاصفة السيتوكين»، وهي مصطلح يعني رد فعل مناعياً مبالغاً فيه، يسبب التهاباً شديداً يؤدي إلى فشل أعضاء في رئتيك وكليتيك ودماغك وأعضاء أخرى. ويقول: «إذا كان هذا صحيحاً، وكانت عاصفة السيتوكين تكمن وراء طول فترة إقامة مرضى (كوفيد-19) بالرعاية المركزة، فإننا نتوقع رؤية حالات تتميز بفشل متعدد الأعضاء، وهذا لم نره».

واعتمدت الدراسة على تحليل بيانات 585 مريضاً في وحدة العناية المركزة بمستشفى «نورث وسترن ميموريال» يعانون من التهاب رئوي حاد وفشل تنفسي، وكان 190 منهم مصابين بـ«كوفيد-19». وطور العلماء نهجاً جديداً للتعلم الآلي يسمى «arpeDiem»، الذي يقوم بتجميع أيام مرضى وحدة العناية المركزة المماثلة في الحالات السريرية بناء على بيانات السجلات الصحية الإلكترونية، وهذا النهج الجديد، الذي يعتمد على مفهوم الجولات اليومية من قبل فريق وحدة العناية المركزة، سمح لهم بالتساؤل عن كيفية تأثير مضاعفات مثل الالتهاب الرئوي الجرثومي على مسار المرض.

ووافق هؤلاء المرضى أو من ينوب عنهم على التسجيل في دراسة الاستجابة السريرية الناجحة لعلاج الالتهاب الرئوي (SCRIPT)، وهي تجربة قائمة على الملاحظة لتحديد المؤشرات الحيوية والعلاجات الجديدة للمرضى المصابين بالتهاب رئوي حاد. وكجزء من برنامج (SCRIPT) استخدمت لجنة خبراء من أطباء وحدة العناية المركزة أحدث تحليل لعينات الرئة التي تم جمعها كجزء من الرعاية السريرية لتشخيص حالات الالتهاب الرئوي الثانوية والحكم عليها.

ووفق الدكتورة كاثرين جاو، الباحثة المشاركة بالدراسة، «يمكن استخدام تطبيق التعلم الآلي والذكاء الصناعي على البيانات السريرية لتطوير طرق أفضل لعلاج أمراض مثل (كوفيد-19) ولمساعدة أطباء وحدة العناية المركزة في إدارة هؤلاء المرضى».

وقال ريتشارد وونديرينك، من مركز بيولوجيا أنظمة علاج الالتهاب الرئوي في نورث وسترن، إنه «قد تم التقليل من أهمية العدوى البكتيرية في الرئة كمساهم في الوفاة لدى مرضى (كوفيد - 19)، لأن معظم المراكز لم تبحث عنها أو نظرت فقط في النتائج من حيث وجود أو عدم وجود عدوى بكتيرية فائقة، وليس ما إذا كان العلاج مناسباً أم لا».

وستكون الخطوة التالية في البحث، كما يوضح وونديرينك، هي استخدام البيانات الجزيئية من عينات الدراسة ودمجها مع مناهج التعلم الآلي لفهم سبب استمرار علاج بعض المرضى من الالتهاب الرئوي والبعض الآخر لا. ويريد الباحثون أيضاً توسيع التقنية لتشمل مجموعات بيانات أكبر واستخدام نموذج التعلم الآلي لعمل تنبؤات يمكن إعادتها إلى السرير لتحسين رعاية المرضى المصابين بأمراض خطيرة.

من جانبه، يفسّر معتز مصطفى، مدرس المناعة بجامعة المنصورة المصرية، ما توصلت له الدراسة من مسؤولية العدوى البكتيرية عن الوفاة، في سياق ما يسببه الفيروس من نقص في المناعة. وقال مصطفى لـ«الشرق الأوسط»، إنه «عندما يحدث نقص في المناعة بسبب الفيروس، تستطيع أي بكتيريا التمكن من الجسم وإحداث العدوى، وهذا هو السبب في وضع المضادات الحيوية التي تتعامل مع البكتيريا، إلى جانب مضادات الفيروسات في بروتوكولات علاج (كورونا)».



مئات آلاف الأقمار الاصطناعية تهدد سلامة الفضاء

صورة تخيّلية للحطام الفضائي
صورة تخيّلية للحطام الفضائي
TT

مئات آلاف الأقمار الاصطناعية تهدد سلامة الفضاء

صورة تخيّلية للحطام الفضائي
صورة تخيّلية للحطام الفضائي

قد يكون الفضاء هو «المجهول الأخير»، كما قال أحدهم ذات مرة، إلا أنه يزداد ازدحاماً بشكل ملحوظ. وسيزداد هذا الأمر ويصبح أشد وضوحاً، إذا ما تحققت فكرة إيلون ماسك بوضع مراكز بيانات في الفضاء.

مئات الآلاف من الأقمار المدارية

المعروف أن الإنترنت فائق السرعة، وتكنولوجيا البث التلفزيوني عبر الأقمار الاصطناعية، وحاجتك الدائمة إلى معرفة موقعك، يعتمد على الأقمار الاصطناعية المدارية. ويعني اشتعال خلاف فضائي بين شركة «سبيس إكس»، المملوكة لماسك، وشركة «بلو أوريجين»، التابعة لجيف بيزوس، أن مدار الأرض يزداد ازدحاماً.

وكانت الشركة الأولى تقدمت حديثاً بطلب لإطلاق مليون قمر اصطناعي لإنشاء مراكز بيانات إلى المدار، بينما طلبت الشركة الأخرى من لجنة الاتصالات الفيدرالية الأميركية (FCC)، الإذن بإطلاق 51600 جهاز إلى الفضاء.

ويضاف ذلك إلى العدد القياسي بالفعل من الأجسام التي أُطلقت العام الماضي. وتكشف الأرقام عن أنه جرى إطلاق أكثر من 4500 جسم إلى الفضاء خلال عام 2025، حسب محللي «أكاديمية أبولو»، مقارنةً بـ600 جسم فقط عام 2019.

من جهته، قال هيو لويس، أستاذ علوم الفضاء في جامعة برمنغهام بالمملكة المتحدة: «خلال فترة وجيزة - ست سنوات - أطلقنا أكثر من خمسة أضعاف، عدد الأقمار الاصطناعية العاملة التي كانت في المدار فيما مضى». وفي الوقت الذي يزدهر هذا النشاط، فإنه يشهد ازدحاماً متنامياً.

كارثة الحطام الفضائي

حذرت وكالة الفضاء الأوروبية (ESA) من أن البيئة المدارية ليست سوى مورد محدود، مشيرةً إلى أن حجم عمليات الإطلاق، ينتج عنه كمية أكبر من الحطام الفضائي مما كان متوقعاً، ما قد يثير مشكلات. كما أقرت لجنة الاتصالات الفيدرالية (FCC) بهذا الخطر. وعليه، أصدرت عام 2022 قانوناً جديداً يُلزم الشركات، التي تُطلق أجساماً إلى الفضاء، بإعادتها بعد خمس سنوات من إنجاز المهمة.

في هذا الصدد، قال هاريسون بوكس، مؤسس شركة «بالادين سبيس»: «هذه مشكلة ضخمة بالفعل، تُكلف مشغلي الأقمار الاصطناعية ملايين الدولارات سنوياً، ليس فقط من خلال مناورات تجنب الاصطدام، وكذلك جراء اصطدامها بالحطام الفضائي». جدير بالذكر، أن «بالادين سبيس» طوَّرت ما أسمته أول حمولة قابلة لإعادة الاستخدام لإزالة الحطام الفضائي في العالم، وأطلق عليها «ترايتون».

وأضاف بوكس أن شركة «سبيس إكس»، على سبيل المثال، مثل غيرها من مزودي خدمات الأقمار الاصطناعية، تُجري مئات المناورات يومياً لأقمارها الاصطناعية؛ لتجنب الاصطدامات. ولا يقتصر الأمر بالضرورة على تفادي الأقمار الاصطناعية العاملة، وإنما يتضمن كذلك الأقمار الاصطناعية، التي انتهت صلاحيتها منذ فترة طويلة، والتي لا تزال تدور في المدار؛ نظراً لصعوبة إعادتها إلى الأرض، وإبعادها عن مسار الاصطدام، وارتفاع تكلفة ذلك.

وحسب موقع «سات فليت لايف» الإلكتروني المتخصص في تتبع الأقمار الاصطناعية، لا يزال ما بين 3000 و4000 قمر اصطناعي متوقفاً عن العمل في المدار، بعد انتهاء صلاحيتها بفترة طويلة. ويُمثل ذلك نحو ربع إجمالي الأقمار الاصطناعية العاملة في الفضاء.

وسائل وأدوات جديدة

ويكمن السبب وراء ضرورة إزالة الأجسام غير المستخدمة من المدار، في تجنب وقوع «ظاهرة كيسلر» - ظاهرة علمية غير معروفة على نطاق واسع، مفادها أن اصطداماً واحداً بين قمرين اصطناعيين، قد يتسبب في انتشار كميات هائلة من الحطام؛ ما قد يؤدي بدوره إلى سلسلة من الاصطدامات والأضرار. في هذا الصدد، قال لويس: «يمكن توليد سحابة من آلاف الشظايا من اصطدام واحد فقط، وكل شظية منها قادرة على تعطيل جسم آخر سليم في المدار، أو تدميره بشكل كارثي».

وأوضح لويس أن أبحاثه خلصت إلى أننا نقترب من نقطة باتت فيها الكارثة وشيكة، إذا لم يُتخذ إجراء ما، وأن هناك حاجة ماسة إلى اتخاذ إجراءات حاسمة لتغيير هذا الوضع. وأكد أنه: «لن نتمكن من حل المشكلة بمجرد إزالة قمر اصطناعي أو اثنين، وإنما نتجه نحو سيناريو نضطر فيه إلى إزالة قمر اصطناعي مقابل كل قمر اصطناعي نطلقه، أو حتى أكثر من ذلك».

ويذكر أن شركة «بالادين سبيس» واحدة من مجموعة من الشركات، التي تُجرّب أساليب مختلفة للتعامل مع الحطام الفضائي، بعد انتهاء عمره الافتراضي. ومن بين الشركات الأخرى، شركة «سبيس كاوبوي» الناشئة في مراحلها الأولى، ومقرها أوستن، تكساس، التي تخطط لإطلاق «آليات التقاط واحتجاز» - مركبة بحجم غسالة تقريباً، ستنطلق إلى مدار أرضي منخفض، وتجمع شظايا صغيرة من الحطام يتراوح حجمها بين واحد سنتيمتر و10 سنتيمترات، قبل أن تُحدث ضرراً يُذكر.

تتسم كل هذه الأمور بأهمية كبيرة؛ لأن الأجسام الصغيرة قد يكون لها تأثير كبير. في هذا الصدد، قال بوكس: «حتى أصغر قطعة من الحطام - أي قطعة من الألمنيوم بحجم سنتيمتر واحد في الفضاء، تُعادل طاقتها طاقة لغم أرضي تقريباً»، واستطرد بأن خبراء الدفاع عبروا أمامه عن اعتقادهم بأنها ليست مجرد حطام، وإنما «مصدر تهديد».

من جهتها، تخطط «كلير سبيس»، وهي شركة بديلة مدعومة أوروبياً، لإطلاق أول رحلة تجريبية لها إلى الفضاء عام 2028. وتتبنى شركات أخرى مناهج أكثر ابتكاراً لمعالجة هذه المشكلة: فقد وقّعت شركة «أستروسكيل» الناشئة بالمملكة المتحدة، اتفاقاً مع وكالة الفضاء اليابانية (المكافئة لوكالة «ناسا») لمشروعها ADRAS-J2، الهادف إلى الاقتراب من جسم غير مستخدم يطفو في الفضاء، والتقاطه بواسطة ذراع آلية، وسحبه إلى الغلاف الجوي للأرض، حيث تعمل درجات الحرارة العالية على حرقه بأمان.

بيد أن الأمر لا يخلو من مشكلات. هنا، قال بوكس: «بدأنا نلاحظ أن هذه العملية تُسبب تلوثاً في الغلاف الجوي؛ ما قد يكون له تأثير كبير». ويتضمن ذلك التأثير على البيئة انبعاث مواد كيميائية مدمرة لطبقة الأوزون.

من ناحيتها، تطرح شركة «بالادين سبيس» بديلاً آخر. فبدلاً من جمع قطعة واحدة من النفايات الفضائية في كل مرة، فإنها تهدف إلى جمع كمية كبيرة منها والتخلص منها بأمان. وهنا، شرح بوكس، واصفاً وحدة التخلص من النفايات الفضائية «ترايتون»: «تخيل سلة مهملات مُثبتة على قمر اصطناعي».

وشدد بوكس على أن هذا النهج ضروري؛ لأن المخاطر تتفاقم بسرعة. وقال: «في الماضي، كان بإمكان المشغلين العمل لمدة 160 يوماً دون الحاجة إلى تحريك المركبة الفضائية لتجنب الاصطدام. أما الآن، فقد انخفضت هذه المدة إلى نحو ثلاثة أيام. وإذا تركنا الأمر لفترة أطول، فسيتحول الفضاء حقل ألغام».

من جهتها، أكدت شركة «بالادين سبيس» أنها تسعى إلى إطلاق مركبة «ترايتون» إلى المدار في عام 2027، بعد بناء نسخة فضائية منها، واختبارها على متن محطة الفضاء الدولية.

وعلى المدى البعيد، يتصور بوكس مشروعاً أكثر طموحاً من مجرد إزالة النفايات المدارية. وقال: «في الوقت الحالي، نتولى جمع الحطام، لكننا نطمح قريباً إلى توجيه هذا الحطام إلى داخل محطات إعادة تدوير»، واستخدام المواد الناتجة، نهاية المطاف، في التصنيع في المدار. إلا أنه شدد على أن المهمة العاجلة الآن أبسط: إزالة النفايات، قبل أن يصبح الفضاء شديد الخطورة - وباهظ التكلفة - بحيث يصبح من المتعذر استغلاله.

* «إنك» - خدمات «تريبيون ميديا»


حوكمة «الذكاء الاصطناعي المسؤول» لمؤسستك... خلال 90 يوماً

حوكمة «الذكاء الاصطناعي المسؤول» لمؤسستك... خلال 90 يوماً
TT

حوكمة «الذكاء الاصطناعي المسؤول» لمؤسستك... خلال 90 يوماً

حوكمة «الذكاء الاصطناعي المسؤول» لمؤسستك... خلال 90 يوماً

أعلنت شركة أنثروبيك هذا الشهر عن تطويرها نموذج ذكاء اصطناعي فائق القدرات، الأمر الذي حال دون نشره للجمهور.

تطويرات متلاحقة

اكتشف البرنامج الجديد «كلود ميثوس» بشكل مستقل، آلاف الثغرات الأمنية الحرجة في جميع أنظمة التشغيل ومتصفحات الويب الرئيسية. لذا اختارت «أنثروبيك» توفير النموذج فقط لمجموعة محددة من شركات التكنولوجيا، لمنحها فرصة لسد الثغرات وتعزيز الدفاعات قبل أن تقع نماذج مماثلة في أيدي من يستغلونها.

ويسلط هذا التطور الضوء على المخاطر المستقبلية المحتملة التي يحملها التطور السريع لنماذج الذكاء الاصطناعي، كما كتب فيصل حقّ(*).

أهمية الذكاء الاصطناعي المسؤول

ومن المتوقع أن تنتشر هذه النماذج القوية على نطاق واسع، وسيؤدي انتشارها إلى تزايد الحاجة إلى سياسات حوكمة تستند إلى مبادئ الذكاء الاصطناعي المسؤول.

وتهدف ممارسة الذكاء الاصطناعي المسؤول إلى ضمان أن تظل أنظمة الذكاء الاصطناعي، مع ازدياد قوتها، عادلة وقابلة للتفسير وخاضعة للإشراف البشري، وفقاً لمبادئ أخلاقية وهياكل مساءلة تحمي الأفراد المتأثرين بهذه الأنظمة.

إن الذكاء الاصطناعي المسؤول ضرورة ملحة للأعمال، وليس مجرد طموح مستقبلي. فالمؤسسات التي تستخدم الذكاء الاصطناعي دون أطر حوكمة معرضة بالفعل لمخاطر متزايدة على سمعتها وقانونها وتشغيلها، وتتفاقم هذه المخاطر بمرور الوقت مع توسع الأنظمة وتعمقها.

تبعات اجتماعية بتسريح العاملين

والأهم من ذلك، أن المخاطر تتجاوز الأعطال التقنية أو انتهاكات الامتثال. للذكاء الاصطناعي تبعات مجتمعية كبيرة، لا سيما في مجال التوظيف: إذ يتوقع استطلاع رأي أُجري بين المديرين الماليين فقدان نحو 500 ألف وظيفة مرتبطة بالذكاء الاصطناعي في عام 2026، مما يؤكد ضرورة أن تعالج المؤسسات اضطراب القوى العاملة، وليس فقط أداء النظام. لذا، يجب أن يدمج الذكاء الاصطناعي المسؤول الاعتبارات الأخلاقية والتنظيمية والإنسانية في استراتيجية حوكمة موحدة.

إطار الذكاء الاصطناعي المسؤول

يرتكز الإطار المُقدم للذكاء الاصطناعي المسؤول على ثلاثة أركان أساسية:

1. الأسس الأخلاقية. غالباً ما تبدأ المؤسسات بسياسات استخدام الذكاء الاصطناعي - وهي قواعد تحكم الاستخدام المقبول له - لكن هذه السياسات غير كافية دون قيم أساسية واضحة المعالم.

المبادئ الأخلاقية... قبل السياسات

يجب أن تسبق المبادئ الأخلاقية السياسات، لتكون بمثابة بوصلة لاتخاذ القرارات عند ظهور سيناريوهات جديدة لا تغطيها كل تفاصيل السياسات. وتُحدد هذه المبادئ الالتزامات بالعدالة، وعدم التمييز، والإشراف البشري، والمسؤولية المجتمعية. ومن دون هذا الأساس، تُصبح السياسات عرضةً لأن تكون ردود فعلية وغير متسقة.

تحديد السلطة والمسؤولية

2. المساءلة والإشراف. يفشل الذكاء الاصطناعي المسؤول عندما تكون الملكية غير واضحة. تتطلب الحوكمة الفعّالة تحديداً واضحاً للسلطة والمسؤولية: من يُوافق على عمليات النشر، ومن يُمكنه إيقافها، ومن الذي يُحاسب أمام القيادة عند حدوث إخفاقات. يجب أن يُستكمل ذلك بضمانات تشغيلية تضمن مشاركة بشرية فعَّالة، لا سيما في القرارات المصيرية أو التي لا رجعة فيها.

إن الحوكمة ليست مجرد تركيبة هيكلية؛ بل يجب أن تُمارس عملياً بسلطة قابلة للتنفيذ.

3. التأثير البشري. تُعيد أنظمة الذكاء الاصطناعي تشكيل حياة البشر - إذ تُغير الوظائف، والفرص، وبيئات صنع القرار. ويتطلب النهج المسؤول اهتماماً أصيلاً بهذه التأثيرات، مع إعطاء الأولوية للعدالة، والكرامة، والتحسين على عملية الاستبدال. وهذا يُحوِّل (توظيف النظم الذكية) من التركيز من التحسين التقني البحت إلى التصميم الاجتماعي التقني، حيث تُعامل النتائج البشرية كاعتبارات أساسية.

خطة تنفيذية بـ90 يوماً

وإليكم خطة تنفيذية بـ90 يوماً لتحقيق هذه الأهداف، مقسَّمة إلى ثلاث مراحل: التخطيط، والبناء، والتطبيق.

التخطيط

* الأيام 1-30: التخطيط. تركز المرحلة الأولى على فهم واقع الذكاء الاصطناعي الحالي قبل محاولة التحكم فيه. غالباً ما تقلل المؤسسات من شأن مدى انتشار استخدام الذكاء الاصطناعي لديها، لا سيما من خلال عمليات توظيفه بشكل غير رسمي أو حنى «خفي».

تعداد النظم والتهيؤ لأسوأ السيناريوهات

* حصر وتعداد أنظمة الذكاء الاصطناعي: تحديد جميع تطبيقات الذكاء الاصطناعي، بما في ذلك الأدوات غير الرسمية التي يستخدمها الموظفون. وتجرى لكل تطبيق عمليات لتوثيق وظائفه، ومصادر بياناته، والجهات المعنية، ومسؤولية إدارته. وغالباً ما سيكشف هذا التعداد والحصر عن بيئة مجزأة وغير منظمة بشكل كافٍ.

* إجراء تحليل لأسوأ السيناريوهات: باستخدام منهجية «التصور الكارثي» المنظمة، يُطلب من فرق القيادة تصور أخطر حالات الفشل المحتملة لكل نظام. صُممت هذه الطريقة للكشف عن المخاطر الخفية التي قد تغفلها التقييمات القياسية.

الفرز الفوري: في حال الكشف عن مخاطر حرجة - مثل اتخاذ الأنظمة قرارات مصيرية دون رقابة - يجب اتخاذ إجراء فوري. قد يشمل ذلك إيقاف توظيف الأدوات الذكية مؤقتاً أو إدخال مراجعة بشرية، حتى قبل وضع إطار حوكمة متكامل.

ثقافة المؤسسة والصلاحيات

* تقييم ثقافة المؤسسة: تعتمد فعالية الحوكمة على ما إذا كان الذكاء الاصطناعي المسؤول يُعامل كأولوية استراتيجية أم مجرد واحد من المتطلبات العصرية. إذا كان الأمر كذلك، فإن الإصلاحات الهيكلية وحدها ستفشل دون تغيير ثقافي أوسع.

توضيح صلاحيات اتخاذ القرار: تتطلب الحوكمة هياكل سلطة واضحة لا لبس فيها. يجب على المؤسسات تحديد من يمكنه الموافقة على مبادرات الذكاء الاصطناعي ومراجعتها وإيقافها وتوفير الموارد لها. من دون هذا الوضوح، يصبح اتخاذ القرار خاضعاً لديناميكيات السلطة غير الرسمية، ما يقوض المساءلة.

بناء النظم وتفعيلها

* الأيام 31-60: البناء. تركز المرحلة الثانية على بناء البنية التحتية اللازمة لتفعيل الذكاء الاصطناعي المسؤول.

تطوير إطار أخلاقي: يُضفي هذا الإطار طابعاً رسمياً على مبادئ المؤسسة، ويُحوّلها إلى توجيهات عملية، تشمل العدالة، والرقابة، والاستقلالية المقبولة، وتأثيرها على القوى العاملة، وتداعياتها المجتمعية. ويُشكِّل هذا الإطار الأساس لجميع قرارات الحوكمة.

* إنشاء بنية تحتية تقنية: يجب أن تدعم السياسات أنظمة قادرة على مراقبة سلوك الذكاء الاصطناعي. ويشمل ذلك تتبع المخرجات، واكتشاف التحيز وانحراف النموذج، وتوليد أدلة التدقيق. ومن دون هذه القدرات، تبقى الحوكمة نظرية.

فريق مخصص ومسؤول

* تحديد المسؤولية والهيكل: يجب أن يكون هناك فرد أو فريق مُخصَّص مسؤول عن حوكمة الذكاء الاصطناعي، يتمتع بصلاحيات كافية لإنفاذ المعايير. بالإضافة إلى ذلك، تضمن الأدوار اللامركزية داخل وحدات الأعمال تطبيق الحوكمة عملياً.

* تصميم عمليات التقييم: وضع إجراءات موحَّدة لتقييم أنظمة الذكاء الاصطناعي وفقاً لمعايير أخلاقية ومعايير المخاطر. وينبغي أن تُنتج هذه الإجراءات تصنيفات واضحة للمخاطر، مع تحديد «عتبات» تُحدد مستوى الرقابة المطلوب.

إعادة توجيه الحوافز: يتبع سلوك المؤسسة الحوافز. إذا ركزت مقاييس الأداء على السرعة والتكلفة فقط، فسيتم تجاهل الحوكمة. يجب دمج مقاييس الذكاء الاصطناعي المسؤول - مثل تخفيف المخاطر والامتثال - في تقييم القيادة.

تهيئة الكفاءات العالية

* بدء مراجعات المخاطر العالية: ابدأ بتطبيق إطار الحوكمة على الأنظمة الأكثر أهمية التي تم تحديدها سابقاً. هذا يخفف من المخاطر العاجلة ويختبر نموذج الحوكمة تحت الضغط.

* تطوير المهارات والقدرات: يتطلب الذكاء الاصطناعي المسؤول كفاءات جديدة في جميع أنحاء المؤسسة، بما في ذلك الكفاءات التقنية (كشف التحيز)، والإدارية (التعاون بين الإنسان والذكاء الاصطناعي)، والقانونية (الوعي التنظيمي). يُعد وجود برنامج تدريبي منظم أمراً ضرورياً.

تشغيل إطار الحوكمة المسؤولة

* الأيام 61-90: «تضمين» الحوكمة داخل المؤسسة. تضمن المرحلة الأخيرة أن تصبح الحوكمة قدرة تنظيمية مستدامة وليست مبادرة مؤقتة.

مواجهة الأزمات والمراجعة الدورية

* وضع استراتيجيات «الخروج» من الأزمات: يجب أن يكون لكل نظام ذكاء اصطناعي بروتوكول إيقاف تشغيل محدد مسبقاً. يضمن تصميم هذه الاستراتيجيات مسبقاً إمكانية إيقاف تشغيل الأنظمة بأمان أثناء الأزمات.

وضع إجراءات حوكمة فعَّالة: تُرسِّخ اجتماعات المراجعة الدورية الرقابة، موفِّرةً منبراً ثابتاً لرصد المخاطر ومعالجة القضايا المستجدة.

* دمج الحوكمة في سير العمل: يجب دمج الذكاء الاصطناعي المسؤول في سير العمل القياسي. تتطلب الأنظمة عالية المخاطر مراجعةً قبل توظيفها، ويجب إعادة تقييم جميع الأنظمة دورياً. ولهذا تصبح الحوكمة جزءاً لا يتجزأ من العمليات الاعتيادية بدلاً من كونها نقطة تفتيش خارجية.

* التحسين المستمر بناءً على الملاحظات: في هذه المرحلة، تمتلك المؤسسات بيانات تشغيلية حول أداء الحوكمة. ويُعدّ التحسين المستمر أمراً بالغ الأهمية، من خلال تحسين العمليات، ومعالجة المعوقات، وتعزيز التوافق الثقافي.

الخلاصة - الاستعداد لنظم ذكية متطورة

إن قدرات الذكاء الاصطناعي المتقدمة - كما يتضح من مثال «كلود ميثوس» - ليست افتراضية، بل وشيكة. السؤال المحوري ليس ما إذا كانت المؤسسات ستواجه أنظمة ذكاء اصطناعي قوية وربما محفوفة بالمخاطر، بل ما إذا كانت ستكون مستعدة عند حدوث ذلك.

والأهم من ذلك، يمكن تحقيق تقدم ملموس نحو حوكمة مسؤولة للذكاء الاصطناعي في غضون ربع سنة واحد إذا تم اتباع خط منهجي.

إجراءات فورية ومنظمة

الرسالة الأساسية واضحة: الذكاء الاصطناعي المسؤول ليس خياراً، ولا يمكن تأجيله. إنه يتطلب إجراءات فورية ومنظمة تدمج المبادئ الأخلاقية والمساءلة المؤسسية والتصميم الذي يركز على الإنسان في نظام حوكمة متماسك. والمنظمات التي لا تتخذ إجراءات لا تخاطر فقط بالإخفاقات التشغيلية، بل أيضاً بضرر مجتمعي أوسع وخسارة استراتيجية.

إن الذكاء الاصطناعي المسؤول ضرورة ملحة للأعمال، وليس مجرد طموح مستقبلي. فالمؤسسات التي تستخدم الذكاء الاصطناعي دون أطر حوكمة معرضة بالفعل لمخاطر متزايدة على سمعتها وقانونها وتشغيلها، وتتفاقم هذه المخاطر بمرور الوقت مع توسُّع الأنظمة وتعمقها.

* مجلة «فاست كومباني».


الذكاء الاصطناعي في الطب

بين عين الطبيب وعقل الخوارزمية
بين عين الطبيب وعقل الخوارزمية
TT

الذكاء الاصطناعي في الطب

بين عين الطبيب وعقل الخوارزمية
بين عين الطبيب وعقل الخوارزمية

في الطب، لا تبدأ الحقيقة دائماً بما نراه... بل كثيراً بما لا يُعرض علينا أصلاً، فالأرقام، مهما بدت دقيقة، لا تحكي القصة كاملة، والخوارزميات، مهما بلغت من ذكاء، لا تُفصح عن حدودها بصراحة.

حين تعتمد أوروبا على الذكاء الاصطناعي

تقرير أوروبي

في هذا السياق، صدر تقرير حديث عن منظمة الصحة العالمية - المكتب الإقليمي لأوروبا، ونُشر رسمياً في 20 أبريل (نيسان) 2026، ليُقدّم أول صورة شاملة عن واقع استخدام الذكاء الاصطناعي في الأنظمة الصحية داخل دول الاتحاد الأوروبي. لا بوصفه وعداً تقنياً، بل محاولة لقياس ما أصبح بالفعل جزءاً من الممارسة الطبية اليومية: مَن يستخدم هذه الأنظمة؟ كيف تُدمج في القرار السريري؟ وإلى أي حد يمكن الوثوق بها؟

ما الذي نقيسه... وما الذي يغيب عنا؟

لكن ما يلفت الانتباه في هذا التقرير، ليس فقط ما كشفه من أرقام بل ما تركه خارج القياس. فبينما يشير إلى أن نحو 64 في المائة من الدول الأوروبية باتت تعتمد الذكاء الاصطناعي في مجالات التشخيص، خصوصاً في تحليل الصور الطبية، يظل السؤال الأعمق معلقاً: هل تكفي هذه المؤشرات لفهم ما يحدث فعلاً داخل غرفة القرار الطبي؟

في مقالات سابقة، كان السؤال: مَن يقرر؟ أما اليوم، فقد تغيّر السؤال: ماذا لا نرى؟

بين الانتشار والفهم... فجوة لا تُرى

لم يعد إدخال أنظمة الذكاء الاصطناعي إلى المستشفيات تحدياً تقنياً يُذكر؛ فالنماذج قادرة اليوم على تحليل آلاف الصور الطبية في لحظات، واقتراح مسارات تشخيصية بدقة لافتة. غير أن التحدي الحقيقي لا يكمن في القدرة على الاستخدام، بل في القدرة على الفهم: ماذا تفعل هذه الأنظمة حين تعمل؟ وأين تتوقف حدودها؟

تفاوت الجاهزية البشرية والتنظيمية

يكشف تقرير منظمة الصحة العالمية عن تفاوت واضح بين الدول، لا في توفر التكنولوجيا، بل في جاهزيتها البشرية والتنظيمية؛خصوصاً في مجالات الحوكمة الأخلاقية، وتأهيل الأطباء، وإدارة البيانات. لكن هذا التفاوت الظاهر يخفي وراءه فجوة أعمق، لا تُقاس بسهولة.

إنها فجوة معرفية قبل أن تكون تقنية، فالذكاء الاصطناعي لا يعمل بمنطق الشك الذي اعتاد عليه الطبيب، ولا يعلن عن مناطق ضعفه كما يفعل العقل البشري حين يتردد. إنه يولد إجابات، لكنه لا يكشف عمّا استُبعد من الحساب، ولا عمّا لم يُمثَّل في البيانات أصلاً.

هنا يظهر ما يمكن تسميته بـ«الصمت الخوارزمي»؛ ليس بوصفه خللاً في الأداء، بل خاصية بنيوية في هذه الأنظمة: فراغ غير مرئي داخل القرار؛ حيث لا يكون الخطأ في ما قِيل، بل فيما لم يُطرح أصلاً.

هل يُقاس الطب بالخوارزميات وحدها؟

في بيئة طبية تتسارع فيها الأنظمة الذكية، يسهل اختزال جودة الرعاية الصحية في مؤشرات الأداء: دقة أعلى، وقت أقل، وقرارات أسرع. غير أن هذا القياس، على أهميته، يظل عاجزاً عن التقاط جوهر القرار الطبي. فالطب لا يقوم فقط على ما يُكتشف، بل على كيفية التعامل مع ما يظل غير محسوم.

الطبيب لا يعمل داخل معادلة مغلقة، بل داخل مساحة مفتوحة من الاحتمالات؛ حيث تُعاد صياغة القرار مع كل معلومة جديدة، ومع كل شك يظهر في الطريق. وهذا ما لا تعكسه المؤشرات الرقمية، ولا تُترجمه النماذج الحسابية بسهولة.

تفاعل الطبيب

التقرير الأوروبي يقيس مدى انتشار الذكاء الاصطناعي، لكنه لا يقيس كيفية تفاعل الطبيب مع مخرجاته: متى يقبلها؟ ومتى يعيد تفسيرها؟ ومتى يختار أن يتجاوزها؟ هذه اللحظات -التي لا تُسجل في البيانات- هي التي تُشكّل جوهر الممارسة السريرية.

وهنا تتجلى المفارقة بوضوح: كلما أصبحت الأنظمة أكثر دقة في الإجابة، ازدادت الحاجة إلى عقل قادر على إعادة طرح السؤال.

من يكتب القواعد... الإنسان أم الآلة؟

يُظهر تقرير منظمة الصحة العالمية أن الدول الأوروبية لا تتحرك بإيقاع واحد في تنظيم الذكاء الاصطناعي الطبي؛ فبعضها صاغ استراتيجيات وطنية واضحة، في حين لا يزال بعضها الآخر في طور البحث عن إطار ينظم ما يتسارع قبل أن يُفهم بالكامل.

غير أن المسألة لا تتعلق فقط بوجود القوانين، بل بطبيعة ما نحاول تنظيمه. فالذكاء الاصطناعي لم يعد أداة ثابتة يمكن إخضاعها لقواعد جامدة، بل نظام يتعلم ويتغير، وتتشكل مخرجاته من تفاعل معقد بين البيانات والسياق وطريقة الاستخدام.

وهنا تظهر مفارقة تنظيمية عميقة: نحن نكتب قواعد لأنظمة لا تتوقف عن إعادة تشكيل نفسها. فالقانون يفترض ثبات السلوك، في حين تقوم هذه الأنظمة على التحول المستمر.

لهذا، لم تعد مساءلة الذكاء الاصطناعي مساءلة تحديد «من أخطأ»، بل فهم كيف تُشكّل القرار أصلاً، ومن أين بدأ مساره. إنها مساءلة لا تبحث فقط في النتيجة، بل في البنية التي أنتجتها، وهذا ما يجعلها أقرب إلى سؤال فلسفي منه إلى إجراء تنظيمي تقليدي.

أوروبا تتقدم... فماذا عن العالم العربي؟

ما يلفت النظر في تقرير منظمة الصحة العالمية ليس فقط ما حققته أوروبا، بل ما يكشفه ضمنياً عن موقعنا نحن في هذه الخريطة المتحركة. ففي العالم العربي، تبدو الصورة غير متجانسة، بل أقرب إلى تفاوت حاد بين دول تقود التجربة، وأخرى لا تزال في بداياتها الأولى.

المملكة تقود التحول حيث يلتقي الطب بالذكاء

في المقدمة، تبرز المملكة العربية السعودية نموذجاً يقود التحول في الذكاء الاصطناعي الطبي، ضمن رؤية استراتيجية واضحة ترتبط بـ«رؤية السعودية 2030»؛ حيث لم يعد الاستخدام مقصوراً على التجريب، بل أصبح جزءاً من البنية التشغيلية في المستشفيات، ومنصات الرعاية الافتراضية، وتحليل البيانات الصحية على نطاق واسع.

تلي السعودية كل من قطر والإمارات العربية المتحدة بخطوات متفاوتة؛ حيث تتشكل منظومات واعدة، لكنها لم تصل بعد إلى مستوى التكامل الشامل الذي نشهده في التجربة السعودية.

أما بقية العالم العربي، والتي تمثل أكثر من 70 في المائة من الدول، فتتراوح بين مراحل وضع الأسس الأولية للذكاء الاصطناعي الطبي، أو غيابه شبه الكامل عن الممارسة السريرية المنظمة. وهنا لا تكون الفجوة تقنية فحسب، بل فجوة في الرؤية والتخطيط والجاهزية البشرية.

لكن التحدي الحقيقي لا يكمن في تسريع التبني فقط، بل في كيفية توجيهه. فالسؤال لم يعد: كم نظاماً نملك؟ بل: كيف نستخدمه؟ ومن يفسر نتائجه؟ وهل الطبيب العربي اليوم مُهيأ ليكون شريكاً في القرار، لا مجرد متلقٍ لمخرجاته؟

ما الذي لا يظهر في التقارير؟

ربما يكون أهم ما كشفه تقرير منظمة الصحة العالمية... هو ما لم يقله صراحة. فبين الأرقام، تختفي تفاصيل لا تُقاس: قلق طبيب شاب أمام توصية لا يفهم آليتها، أو مريض يبدأ موازنة ثقته بين الإنسان والنظام.

هذه المساحات غير المرئية ليست هامشية، بل هي التي تُشكّل جوهر القرار الطبي؛ حيث تتقاطع الدقة مع الشك، والتوصية مع المسؤولية.

الخلاصة: السؤال الذي تغيّر

في نهاية المطاف، لا يكمن السؤال فيما إذا كان الذكاء الاصطناعي سيُستخدم في الطب، بل في مَن يقود القرار حين يلتقي الإنسان بالخوارزمية.

في هذا العصر، لم تعد الأخطاء تختبئ فقط في القرارات الخاطئة، بل في القرارات التي لم تُتخذ، وفيما لم يُعرض أصلاً على طاولة التفكير السريري. ولهذا، لم يعد السؤال: هل أخطأ النظام؟ بل أصبح:

ما الذي لم نره... وكان ينبغي أن يكون جزءاً من القرار؟