استخدام الذكاء الاصطناعي في العمل يتطلب الثقة بالنفس

نصائح للمؤسسات والأفراد حول كيفية بنائها

استخدام الذكاء الاصطناعي في العمل يتطلب الثقة بالنفس
TT

استخدام الذكاء الاصطناعي في العمل يتطلب الثقة بالنفس

استخدام الذكاء الاصطناعي في العمل يتطلب الثقة بالنفس

لم يعد الذكاء الاصطناعي مجرد حلم بعيد المنال، بل إنه واقع ملموس، وقد بدأ بالفعل في إحداث تحولات جذرية في مختلف القطاعات. ولكن رغم إنفاق مئات المليارات من الدولارات على تطوير نماذج ومنصات الذكاء الاصطناعي، لا يزال تبنيه بطيئاً بالنسبة للعديد من الموظفين، حيث وجد استطلاع حديث أجراه مركز بيو للأبحاث أن 63 في المائة من العاملين في الولايات المتحدة يستخدمون الذكاء الاصطناعي بشكل ضئيل، أو لا يستخدمونه على الإطلاق في وظائفهم، كما كتب غريغ إدواردز(*).

نقص الكفاءة التكنولوجية الذاتية

السبب؟ غالباً ما يرتبط الأمر بما يسميه الباحثون «الكفاءة الذاتية التكنولوجية»، أو ببساطة: إيمان الشخص بقدرته على استخدام التكنولوجيا بفعالية.

في بحثي حول هذا الموضوع، وجدتُ أن العديد من الأشخاص الذين يتجنبون استخدام التكنولوجيا الجديدة ليسوا ضدها تماماً، بل إنهم ببساطة لا يشعرون بأنهم مؤهلون لاستخدامها في وظائفهم. لذا، بدلاً من المخاطرة بارتكاب خطأ، فإنهم يختارون الابتعاد عنها.

وهذا هو المكان الذي تنحرف فيه العديد من المؤسسات عن مسارها. فهي تُركز على بناء «المحرك»، لكنها لا تُغذي الثقة التي يحتاجها العاملون لتشغيله.

ما علاقة الكفاءة الذاتية بالذكاء الاصطناعي؟

أشار ألبرت باندورا، عالم النفس الذي طور نظرية الكفاءة الذاتية self-efficacy، إلى أن المهارة وحدها لا تُحدد سلوك الناس. الأهم هو إيمان الشخص بقدرته على استخدام تلك المهارة بفعالية.

* إيمان الشخص بقدرته على استخدام مهاراته بفعالية يحدد سلوكه الوظيفي*

في دراستي للمعلمين في بيئات تكنولوجية فردية -فصول دراسية حيث يُزود كل طالب بجهاز رقمي مثل الكمبيوتر المحمول أو الجهاز اللوحي- كان هذا واضحاً. إذ وجدتُ أن حتى المعلمين الذين يمتلكون أدوات رقمية فعّالة لا يشعرون دائماً بالثقة في استخدامها. وعندما يفتقرون إلى الثقة، فقد يتجنبون التكنولوجيا أو يستخدمونها بطرق محدودة، وسطحية.

أدوات جديدة... وموظفون مترددون

وينطبق الأمر نفسه على بيئة العمل المجهزة بالذكاء الاصطناعي اليوم. قد يسارع القادة إلى طرح أدوات جديدة، ويرغبون في نتائج سريعة. لكن الموظفين قد يترددون، متسائلين عن كيفية تطبيقها على أدوارهم، وما إذا كانوا سيستخدمونها بشكل صحيح، أو ما إذا كانوا سيبدون أقل كفاءة -أو حتى غير أخلاقيين- لاعتمادهم عليها.

قد يكمن وراء هذا التردد أيضاً الخوف المألوف من أن تحل التكنولوجيا محلهم يوماً ما.

جون هنري الأسطوري تغلب على الآلي ثم مات

لنتأمل هنا قصة جون هنري، البطل الشعبي في القرن التاسع عشر. كما تقول القصة، كان هنري عامل سكة حديد مشهوراً بقوته. وعندما هددت آلة تعمل بالبخار باستبداله، نافسها -وانتصر. لكن النصر جاء بثمن: انهار ومات بعد ذلك بوقت قصير. وقصة هنري هذه درسٌ في كيف أن مقاومة التكنولوجيا الجديدة بقوة الإرادة قد تكون مُحبطة. فبدلاً من ترك بعض الموظفين يشعرون بأنهم مُضطرون للتفوق على الذكاء الاصطناعي، أو التفوق عليه في الأداء، ينبغي على المؤسسات الاستثمار في مساعدتهم على فهم كيفية التعامل معه، حتى لا يشعروا بالحاجة إلى العمل ضده.

تدريب مُلائم ومُحدد الأدوار

تقدم مؤسسات عديدة تدريباً مُتعلقاً باستخدام الذكاء الاصطناعي. لكن هذه البرامج غالباً ما تكون واسعة النطاق للغاية، حيث تُغطي مواضيع مثل كيفية تسجيل الدخول إلى برامج مُختلفة، وشكل واجهات الاستخدام، أو ما يُمكن للذكاء الاصطناعي فعله «بشكل عام».

في عام 2025، ومع كثرة أدوات الذكاء الاصطناعي المُتاحة لنا -بدءاً من روبوتات الدردشة التفاعلية ومنصات إنشاء المحتوى، ووصولاً إلى تحليلات البيانات المُتقدمة، وبرامج أتمتة سير العمل- فإن هذا لن يكون كافياً.

التدريب يُخصص للوظيفة ويُركّز على المستخدم

في دراستي، قال المشاركون باستمرار إنهم استفادوا أكثر من التدريب «الخاص بكل منطقة»، أي التدريب المُصمم خصيصاً للأجهزة والبرامج والمواقف التي يواجهونها يومياً في مجالات تخصصهم، ومستوياتهم الدراسية المُحددة.

إذن ولعالم الشركات، يجب أن يكون التدريب مُخصصاً للوظيفة، ومُركّزاً على المستخدم، وليس مُوجّهاً للجميع.

الفجوة بين الأجيال

ليس الأمر صادماً تماماً: يميل العمال الأصغر سناً إلى الشعور بثقة أكبر في استخدام التكنولوجيا مقارنةً بالأكبر سناً. يُعدّ جيل الشباب من أبناء العصر الرقمي، فقد نشأ مع التقنيات الرقمية باعتبار أنه جزء من حياة أفراده اليومية.

من ناحية أخرى، غالباً ما اضطر الجيل الأكبر منهم إلى التكيف مع استخدام التقنيات الرقمية في منتصف مسيرتهم المهنية. نتيجةً لذلك، قد يشعر أفراده بضعف قدرتهم، ويكونون أكثر ميلاً إلى تجاهل الذكاء الاصطناعي، وإمكانياته. وإذا كانت تجاربهم القليلة في مجال الذكاء الاصطناعي مُحبطة، أو تؤدي إلى أخطاء، فمن المرجح أن يترسخ هذا الانطباع الأول لديهم.

عندما طُرحت أدوات الذكاء الاصطناعي التوليدي تجارياً لأول مرة، كان من المرجح أن تُصاب بالهلوسة، وتُصدر معلومات غير صحيحة. هل تذكرون عندما عرضت «غوغل» أداة «Bard» للذكاء الاصطناعي في عام 2023، وأدى خطأها الواقعي إلى خسارة شركتها الأم 100 مليار دولار من قيمتها السوقية؟ أو عندما تصدّر محامٍ عناوين الصحف لاستشهاده بقضايا ملفقة بفضل «تشات جي بي تي»؟ من المرجح أن لحظات كهذه عززت الشكوك، لا سيما بين العاملين غير المتأكدين أصلاً من موثوقية الذكاء الاصطناعي. لكن التكنولوجيا قطعت شوطاً طويلاً في فترة زمنية قصيرة نسبياً.

الحل لجعل من قد يكونون أبطأ في تبني الذكاء الاصطناعي لا يكمن في حثهم على استخدامه بشكل أكبر، بل في تدريبهم، ومراعاة خلفياتهم.

كيف يبدو التدريب الفعال على الذكاء الاصطناعي؟

حدد باندورا أربعة مصادر رئيسة تُشكل إيمان الشخص بقدرته على النجاح:

-تجارب الإتقان، أو النجاح الشخصي.

-التجارب غير المباشرة، عند رؤية الآخرين في مناصب مماثلة ينجحون (في المهمة).

-الإقناع اللفظي، أو ردود الفعل الإيجابية.

-الحالات الفسيولوجية والعاطفية، أو مزاج الشخص، وطاقته، وقلقه، وما إلى ذلك.

في بحثي عن المعلمين، رأيت كيف أحدثت هذه المفاهيم فرقاً، ويمكن تطبيق النهج نفسه على الذكاء الاصطناعي في عالم الشركات -أو في أي بيئة تقريباً يحتاج فيها الشخص إلى بناء كفاءته الذاتية.

في بيئة العمل، يمكن تحقيق ذلك من خلال تدريبات قائمة على مجموعات تتضمن حلقات تغذية راجعة – أي تواصل منتظم بين القادة والموظفين حول النمو، والتحسين، وغيرهما- إلى جانب محتوى قابل للتخصيص بما يتناسب مع احتياجات الموظفين، وأدوارهم. كما يمكن للمؤسسات تجربة صيغ تفاعلية، مثل حفلات التحفيز التي توفر فرصاً منخفضة المخاطر للموظفين لبناء الثقة، وتجربة برامج ذكاء اصطناعي جديدة.

مكاسب صغيرة لآمال كبرى

في لعبة «بوكيمون غو!»، من الممكن الارتقاء بمستواك من خلال تحقيق العديد من المكاسب الصغيرة منخفضة المخاطر، واكتساب نقاط خبرة على طول الطريق. يمكن لأماكن العمل اتباع نفس النهج في تدريب الذكاء الاصطناعي، ما يمنح الموظفين فرصاً متكررة وبسيطة مرتبطة بعملهم الفعلي لبناء الثقة، والمهارات بشكل مطرد.

ليس بالضرورة أن يكون المنهج ثورياً، بل يكفي اتباع هذه المبادئ. ومع استمرار المؤسسات في الاستثمار بكثافة في تطوير تقنيات الذكاء الاصطناعي والوصول إليها، من الضروري أيضاً الاستثمار في الأشخاص الذين سيستخدمونها.

قد يُغيّر الذكاء الاصطناعي شكل القوى العاملة، ولكن ستظل هناك قوى عاملة. وعندما يكون الناس مُدرَّبين تدريباً جيداً، يُمكن للذكاء الاصطناعي أن يجعلهم، وكذلك الجهات التي يعملون لديها، أكثر فعاليةً بشكل ملحوظ.

* مُحاضر مُساعد في جامعة ميسوري للعلوم والتكنولوجيا مجلة «فاست كومباني» خدمات «تريبيون ميديا»

حقائق

63%

من الموظفين الأميركيين يستخدمونه قليلاً أو لا يستخدمونه


مقالات ذات صلة

خناق «هرمز» يطارد ثورة الذكاء الاصطناعي بـ«شبح الهيليوم»

الاقتصاد حروف الذكاء الاصطناعي ويد روبوت موضوعة على لوحة أم لجهاز كمبيوتر (رويترز)

خناق «هرمز» يطارد ثورة الذكاء الاصطناعي بـ«شبح الهيليوم»

بينما ينشغل العالم بمراقبة تدفقات النفط الخام والغاز الطبيعي عبر «هرمز»، تنفجر أزمة صامتة في إمدادات «الغاز غير المرئي» الذي تعتمد عليه أحدث التقنيات البشرية.

«الشرق الأوسط» (لندن)
الاقتصاد شعار شركة «إنفيديا» في هذا الرسم التوضيحي (رويترز)

أسهم «إنفيديا» عند أدنى مستوى منذ 7 سنوات مع تصاعد مخاوف الحرب

تتداول «إنفيديا»، الشركة الأعلى قيمة في العالم، عند أدنى نسبة سعر إلى أرباح لها، منذ ما قبل إطلاق «تشات جي بي تي» واندفاع موجة الذكاء الاصطناعي.

شؤون إقليمية إسرائيليون متجمعون في أحد الملاجئ بعد انطلاق صفارات الإنذار في بني براك قرب تل أبيب (أرشيفية - أ.ب)

«معركة خفية»... كيف أصبحت الهجمات الإلكترونية سلاحاً أساسياً في حرب إيران؟

الهجمات الإلكترونية الإيرانية هي أحدث تكتيك في معركتها الخفية ضد أميركا وإسرائيل، وسعيها وحلفاءها إلى استخدام قدراتهم الإلكترونية لتعويض عجزهم العسكري.

«الشرق الأوسط» (طهران)
تكنولوجيا يقدّم تحديث «iOS 26.4» تحسينات عملية على التطبيقات الأساسية دون تغييرات جذرية في تجربة النظام (د.ب.أ)

«أبل» تطلق «iOS 26.4» بتحسينات واسعة… لكن أين «سيري»؟

تحديث «iOS 26.4» يقدم تحسينات يومية وميزات ذكاء اصطناعي محدودة بينما تأجل إطلاق النسخة المطورة من «سيري» المنتظرة لاحقاً.

نسيم رمضان (لندن)
تكنولوجيا يعمل الفريق على تطوير نماذج أولية لروبوت طائر يحاكي الطيور بمواد ذكية تعتمد على الجهد الكهربائي تمهيداً لاختباره في نفق الرياح (مختبر بيلغن)

طائرات تحاكي الطيور… هل تعيد تعريف مستقبل الطائرات دون طيار؟

روبوتات طائرة بأجنحة مرنة تحاكي الطيور وتعتمد مواد ذكية موفرة مرونة أعلى، ما يفتح آفاقاً جديدة للطائرات دون طيار في بيئات معقدة.

نسيم رمضان (لندن)

«كريسبر» داخل الجسم: حقنة بسيطة قد تحل محل أعقد علاجات السرطان

صورة تعبيرية عن الأبحاث حول هندسة إنتاج خلايا مناعية داخل جسم الإنسان
صورة تعبيرية عن الأبحاث حول هندسة إنتاج خلايا مناعية داخل جسم الإنسان
TT

«كريسبر» داخل الجسم: حقنة بسيطة قد تحل محل أعقد علاجات السرطان

صورة تعبيرية عن الأبحاث حول هندسة إنتاج خلايا مناعية داخل جسم الإنسان
صورة تعبيرية عن الأبحاث حول هندسة إنتاج خلايا مناعية داخل جسم الإنسان

فنجح باحثون في تحقيق اختراق علمي لافت، حيث تمكنوا من هندسة خلايا مناعية مقاومة للسرطان مباشرة داخل أجسام فئران حية، ما يمهد الطريق لعلاج بسيط قد يُعطى عبر حقنة واحدة، ويغني عن الحاجة إلى العلاج الكيميائي السام.

تقنية «كريسبر» المتقدمة

وفي تفاصيل هذا الإنجاز استخدم العلماء تقنية «كريسبر» المتقدمة (الخاصة بالتحرير، والقصّ الجيني) لتحويل حقنة تقليدية إلى أداة علاجية متطورة قادرة على إعادة برمجة الجهاز المناعي داخل الجسم نفسه. ووفقاً لدراسة نُشرت في 18 مارس (آذار) 2026 في دورية «نتشر» Nature فإن هذه الطريقة قد تتجاوز التحديات الحالية المرتبطة بالعلاجات المناعية، مثل التكلفة العالية، وتعقيد الإجراءات، وطول مدة العلاج.

شكل تصويري لخلايا مناعية (باللون الأخضر) تحيط بورم سرطاني (الأزرق)

علاج مناعي مختبري معروف للسرطان

وتركز الدراسة على فئة ناشئة من علاجات السرطان تعرف باسم «علاجات الخلايا التائية ذات المستقبلات الخيمرية» (CAR T - cell). ويعتبر هذا العلاج حالياً إنجازاً طبياً مذهلاً، لكنه يواجه عقبة لوجيستية كبيرة. فآلية عمله تعتمد على استخلاص الخلايا المناعية للمريض (الخلايا التائية)، ثم هندستها وراثياً في مختبر متخصص لتصبح قادرة على قتل الخلايا السرطانية، وأخيراً إعادة حقنها في جسم المريض.

ورغم أن هذه العملية حققت النجاح بحدوث تراجع ملحوظ في الأورام لبعض المرضى المصابين بسرطانات الدم، مثل اللوكيميا، واللمفوما، فإنها تحمل عيوباً كبيرة، إذ تتجاوز تكلفة العلاج مئات الآلاف من الدولارات، وتتطلب أسابيع من الانتظار، وتجبر المرضى على الخضوع لعلاج كيميائي سام مسبقاً للقضاء على جهازهم المناعي الحالي، لإفساح المجال للخلايا الهندسية الجديدة.

هندسة حيوية داخل الجسم

وبهدف بناء جيش داخل الجسم بطريقة أكثر أماناً، طالما حلم العلماء بتبسيط هذه العملية عن طريق هندسة الخلايا التائية مباشرة داخل المريض، وهو مفهوم يعرف باسم الهندسة الحيوية داخل الجسم In vivo engineering -، وهي تقنية علمية تعني تعديل الخلايا أو الجينات مباشرة داخل جسم الكائن الحي بدلاً من إخراج الخلايا، وتعديلها في المختبر، ثم إعادتها.

حقنة تتحول إلى مصنع إنتاج خلايا مناعية

وإذا نجح هذا النهج، فقد تحول حقنة بسيطة نظرياً جسم المريض نفسه إلى مصنع لإنتاج خلايا مقاومة للسرطان، مما يلغي الحاجة إلى العمل المختبري المكلف، والعلاجات المسبقة القاسية.

لكن هذا الحلم كان يحمل في طياته كابوساً محتملاً: إذ ماذا لو قامت أدوات التعديل الجيني بتغيير خلايا خاطئة عن طريق الخطأ؟ أو أدخلت الجين المقاوم للسرطان في مكان خاطئ داخل الجينوم مما قد يؤدي إلى ظهور أورام جديدة؟

انطلق الدكتور جاستن إيكيم، عالم المناعة في جامعة كاليفورنيا في سان فرانسيسكو الولايات المتحدة الأميركية، والمؤلف الرئيس للدراسة، لحل هذه المعضلة الأمنية. فقد بنى فريقه نظاماً يحمل «طبقات متعددة من الأمان» multiple layers of safety لضمان تحول الخلايا التائية فقط، ووضع التعديل الجيني في مكان آمن ومضبوط داخل جينوم الخلية.

إرسالية ذات مرحلتين

يشبه حل الفريق خدمة توصيل متطورة مزودة بنظام أمان مزدوج. إذ استخدم الباحثون نوعين مختلفين من الناقلات لحمل الشحنة الجينية. المجموعة الأولى حملت أدوات التعديل الجيني «كريسبر» التي تعمل كمقصات جزيئية، بينما حملت الأخرى المخطط الجيني للبروتين المقاوم للسرطان (CAR).

ولكي تتحول الخلية التائية إلى قاتلة للسرطان كان عليها تسلم كلتا هاتين الإرساليتين. ويقلل هذا النظام المزدوج بشكل كبير من خطر تعديل أنواع أخرى من الخلايا عن طريق الخطأ.

اختبارات ناجحة

وعندما اختبر الباحثون نظامهم على فئران تم زرع أورام سرطانية بشرية فيها كانت النتائج مذهلة. في الفئران المصابة باللوكيميا، والمايلوما المتعددة، أو الورم النخاعي المتعدد multiple myeloma (هو نوع من سرطان الدم يصيب خلايا البلازما) تم القضاء على السرطان تماماً. والأكثر إثارة للدهشة أن العلاج نجح في مكافحة الساركوما sarcoma (وهو ورم صلب ونادر من السرطان يتطور في الأنسجة الضامة، مثل العظام، والغضاريف، والدهون، والعضلات، والأوعية الدموية). وكانت علاجات الخلايا التائية قد عانت تاريخياً من صعوبة في علاج الأورام الصلبة، ما يجعل هذا الإنجاز واعداً بشكل خاص.

من الخيال العلمي إلى الأمل السريري

يتذكر الدكتور إيكيم أنه عندما تصور هذه الفكرة لأول مرة في عام 2017 «بدت وكأنها خيال علمي». والآن بعد ثماني سنوات فقط تتقدم التكنولوجيا بسرعة نحو التجارب على البشر. فقد شارك في تأسيس شركة تكنولوجيا حيوية لاختبار هذا النهج على القرود، مع آمال في إطلاق تجارب سريرية على البشر بحلول نهاية عام 2027.

وإذا نجحت هذه المساعي فستكون الآثار عميقة، إذ سيكون علاج الخلايا التائية داخل الجسم الحي أرخص بكثير في التصنيع، لأنه سيكون عبارة عن حقنة موحدة «جاهزة للاستخدام» بدلاً من منتج مخصص لكل مريض. والأهم من ذلك أنه سيجنب المرضى العلاج الكيميائي السام المطلوب حالياً، ما قد يجعل هذا العلاج المنقذ للحياة في متناول أولئك الذين هم في حالة صحية سيئة للغاية بحيث لا تسمح لهم بتحمل بروتوكولات العلاج الحالية.

أسئلة باقية دون إجابة

ورغم الحماسة التي أثارتها النتائج يدعو الخبراء إلى التفاؤل الحذر. فقد أشارت الدكتورة راشيل بيريت عالمة المناعة في معهد مالاغان للأبحاث الطبية في ويلينغتون نيوزيلندا غير المشاركة بالدراسة، إلى أنه رغم أن نتيجة الساركوما «واعدة بشكل خاص»، فإنه لا يزال من غير الواضح كم من الوقت تدوم تأثيرات العلاج. بالإضافة إلى ذلك وحتى مع وجود طبقات الأمان الإضافية، فإن هناك خطراً من أن كميات صغيرة من أدوات «كريسبر» قد تقوم عن غير قصد بتعديل خلايا في أعضاء أخرى مثل الكبد.

ومع ذلك تمثل هذه الدراسة نقلة نوعية في المفاهيم السائدة. فهي تثبت أن أعقد علاج خلوي في الطب الحديث قد يصبح يوماً ما بسيطاً كحقنة واحدة. فمن خلال تحويل جسم المريض نفسه إلى مختبر يقترب الباحثون خطوة من مستقبل قد تصبح فيه مكافحة السرطان بسيطة، مثل تلقي أي لقاح.


متى يجب على الطبيب ألا يعتمد على الذكاء الاصطناعي؟

تحيز البيانات خطر خفي في الذكاء الاصطناعي الطبي
تحيز البيانات خطر خفي في الذكاء الاصطناعي الطبي
TT

متى يجب على الطبيب ألا يعتمد على الذكاء الاصطناعي؟

تحيز البيانات خطر خفي في الذكاء الاصطناعي الطبي
تحيز البيانات خطر خفي في الذكاء الاصطناعي الطبي

تحوَّل الذكاء الاصطناعي خلال العقد الأخير، من أداة بحثية في مختبرات التكنولوجيا إلى عنصر متزايد الحضور في غرف التشخيص والعيادات الطبية حول العالم. فأنظمة التعلم العميق أصبحت قادرة على تحليل صور الأشعة بدقة عالية، واكتشاف الأورام في مراحل مبكرة، والتنبؤ ببعض الأمراض قبل ظهور أعراضها؛ بل وحتى اقتراح مسارات علاجية محتملة، اعتماداً على تحليل كميات هائلة من البيانات الطبية.

حدود الذكاء الاصطناعي

• حدود واضحة لتوظيف الذكاء الاصطناعي. غير أن هذا التقدم السريع يطرح سؤالاً بالغ الأهمية في الممارسة الطبية المعاصرة: متى يجب على الطبيب ألا يعتمد على الذكاء الاصطناعي؟

فمع توسع استخدام هذه التقنيات بدأت المؤسسات الصحية الدولية في وضع حدود واضحة لاستخدامها. وقد أصدرت جهات تنظيمية كبرى مثل منظمة الصحة العالمية وهيئات تنظيم الدواء في الولايات المتحدة وأوروبا وبريطانيا، إرشادات تؤكد أن الذكاء الاصطناعي يمكن أن يكون أداة قوية لدعم الرعاية الصحية، ولكنه لا ينبغي أن يتحول إلى بديل عن الحكم السريري أو المسؤولية الطبية.

ولهذا بدأت الأدبيات العلمية والتنظيمية في تحديد حالات محددة يصبح فيها استخدام الذكاء الاصطناعي غير مناسب، أو حتى غير آمن في رعاية المرضى.

• بين الأداة والسلطة: المبدأ الأساسي الذي تتفق عليه الهيئات الصحية الدولية بسيط وواضح: الذكاء الاصطناعي أداة تحليل متقدمة، ولكنه ليس سلطة طبية. فهذه الأنظمة قادرة على معالجة كميات هائلة من البيانات الطبية، واكتشاف أنماط قد يصعب على الإنسان ملاحظتها، ولكنها لا تملك القدرة على تحمل المسؤولية الطبية، أو فهم جميع أبعاد الحالة الإنسانية للمريض.

إن القرار الطبي لا يعتمد فقط على تحليل البيانات أو قراءة الصور الطبية؛ بل يشمل أيضاً الخبرة السريرية للطبيب، وفهم التاريخ الصحي للمريض، والظروف الاجتماعية والنفسية التي قد تؤثر في التشخيص والعلاج. ولهذا تؤكد الإرشادات الدولية في أخلاقيات الذكاء الاصطناعي الطبي، أن دور هذه الأنظمة يجب أن يبقى في إطار دعم القرار الطبي لا استبداله.

وفي هذا السياق، بدأت الهيئات الصحية والتنظيمية في تحديد الحالات التي ينبغي فيها استخدام الذكاء الاصطناعي بحذر، أو حتى تجنب الاعتماد عليه في رعاية المرضى.

التوصيات الدولية

تشير الإرشادات الدولية الحديثة إلى أن استخدام الذكاء الاصطناعي في الرعاية الصحية يجب أن يتم ضمن حدود واضحة، تضمن سلامة المرضى واستقلال القرار الطبي. فقد أكدت منظمة الصحة العالمية في توصياتها حول أخلاقيات الذكاء الاصطناعي في الصحة، الصادرة عام 2021، والمحدَّثة لاحقاً في تقارير الصحة الرقمية، وكذلك الجمعية الطبية الأميركية في إرشاداتها بشأن استخدام الذكاء الاصطناعي في الممارسة الطبية، أن هذه الأنظمة يمكن أن تكون أدوات قوية لدعم التشخيص والعلاج، ولكنها يجب ألا تُستخدم في جميع الحالات ولا أن تحل محل الحكم السريري للطبيب.

ولهذا بدأت الأدبيات الطبية والتنظيمية في تحديد حالات واضحة، يصبح فيها استخدام الذكاء الاصطناعي غير مناسب أو حتى غير آمن في رعاية المرضى. وفي ضوء هذه التوصيات يمكن تلخيص أبرز الحالات التي ينبغي فيها تجنب الاعتماد على الذكاء الاصطناعي في الممارسة الطبية في 10 حالات رئيسية.

• الحالة الأولى- عندما لا يكون النظام مثبَتاً علمياً: القاعدة الأساسية في الطب الحديث هي أن أي تقنية جديدة يجب أن تخضع لتقييم علمي صارم، قبل استخدامها في رعاية المرضى. وينطبق ذلك بصورة خاصة على أنظمة الذكاء الاصطناعي الطبية. فالنماذج التي لم تُختبر في دراسات علمية منشورة في مجلات محكَّمة، أو لم تُقيَّم في تجارب سريرية حقيقية، أو لم تحصل على اعتماد الجهات التنظيمية المختصة، لا ينبغي الاعتماد عليها في اتخاذ قرارات تشخيصية أو علاجية. فسلامة المرضى تتطلب أن تُثبت هذه الأنظمة دقتها وموثوقيتها قبل إدخالها إلى الممارسة الطبية.

• الحالة الثانية- عندما لا تمثل البيانات المرضى الحقيقيين: تعتمد أنظمة الذكاء الاصطناعي في عملها على البيانات التي دُرِّبت عليها. وإذا كانت هذه البيانات لا تمثل الفئات السكانية التي سيُستخدم النظام معها، فقد يؤدي ذلك إلى أخطاء تشخيصية أو تحيزات طبية خطيرة. فالنظام الذي طُوِّر اعتماداً على بيانات مرضى من منطقة أو فئة سكانية معينة، قد لا يعطي النتائج نفسها عند استخدامه مع مرضى من خلفيات جينية أو بيئية مختلفة. ولهذا يؤكد الخبراء ضرورة التأكد من أن بيانات التدريب تعكس تنوع المرضى في الواقع الطبي.

• الحالة الثالثة- عندما يصبح القرار (صندوقاً أسود): إحدى القضايا التي تثير نقاشاً واسعاً في الذكاء الاصطناعي الطبي، هي ما تُعرف بمشكلة «الصندوق الأسود». ففي بعض الأنظمة المتقدمة قد تقدم الخوارزمية نتيجة أو توصية طبية من دون أن يكون من الواضح كيف وصلت إلى هذا الاستنتاج.

وفي الممارسة الطبية، لا يكفي أن يكون القرار صحيحاً من الناحية التقنية؛ بل يجب أن يكون قابلاً للفهم والتفسير. فالأطباء يحتاجون إلى معرفة الأسس التي بُني عليها التقييم الطبي، حتى يتمكنوا من مراجعته ومقارنته بالمعطيات السريرية للمريض. ولهذا تحذِّر كثير من الإرشادات الطبية من الاعتماد على أنظمة ذكاء اصطناعي لا توفر درجة كافية من الشفافية في طريقة عملها، أو تفسير نتائجها.

القرار الطبي يبقى بيد الطبيب، لا بيد الخوارزمية

تعارض مع الحكم السريري

• الحالة الرابعة- عندما يتعارض مع الحكم السريري: قد تقدم أنظمة الذكاء الاصطناعي في بعض الحالات توصية أو تقييماً يختلف عن تقدير الطبيب السريري. وفي مثل هذه الحالات تؤكد الإرشادات الدولية أن القرار الطبي النهائي يجب أن يبقى بيد الطبيب. فالخوارزميات تعتمد على تحليل البيانات والأنماط الإحصائية، بينما يستند الحكم السريري إلى خبرة الطبيب وفهمه الكامل لحالة المريض وسياقها الطبي والإنساني. لذلك عندما يحدث تعارض بين توصية النظام الذكي وتقييم الطبيب، يجب التعامل مع مخرجات الذكاء الاصطناعي بوصفها أداة مساعدة للمراجعة، لا بديلاً عن القرار الطبي المسؤول.

• الحالة الخامسة- عندما يُستخدم النظام خارج نطاقه: تُطوَّر أنظمة الذكاء الاصطناعي في الطب عادة لأداء مهام محددة بدقة، مثل تحليل صور الأشعة أو المساعدة في تشخيص حالة معينة. وعندما يُستخدم النظام خارج المجال الذي صُمم من أجله، فقد يؤدي ذلك إلى نتائج أو توصيات غير دقيقة. ولهذا تؤكد الإرشادات التنظيمية أن استخدام أنظمة الذكاء الاصطناعي يجب أن يقتصر على الغرض الطبي الذي طُوِّرت واختُبرت من أجله؛ لأن تجاوز هذا النطاق قد يعرِّض سلامة القرار الطبي للخطر.

• الحالة السادسة- عندما يصبح النظام قديماً: مثل أي نظام تقني آخر، قد تفقد أنظمة الذكاء الاصطناعي الطبية جزءاً من دقتها مع مرور الوقت. ويحدث ذلك لأن البيانات الطبية والأنماط المرضية تتغير باستمرار، وهو ما يسميه الباحثون أحياناً «تدهور النموذج». ولهذا تؤكد الهيئات الصحية الدولية أن هذه الأنظمة يجب أن تخضع لمراقبة مستمرة وتحديثات دورية، لضمان بقائها دقيقة وآمنة. أما الاعتماد على نظام لم يُحدَّث أو لم تُراجع نتائجه منذ فترة طويلة، فقد يؤدي إلى قرارات طبية أقل دقة مما يُتوقع من التكنولوجيا نفسها.

غياب الشفافية والحوكمة الطبية

• الحالة السابعة- عندما تغيب الشفافية: تعتمد الثقة في أي نظام طبي على وضوح طريقة عمله وحدود استخدامه. فإذا لم تكشف الشركات المطورة عن مصادر البيانات التي دُرِّب عليها النظام، أو عن معدلات الخطأ المحتملة، أو عن الحالات التي قد يفشل فيها، يصبح من الصعب على الأطباء تقييم مدى موثوقية هذه التقنية. ولهذا تؤكد الإرشادات التنظيمية أن الشفافية شرط أساسي لاستخدام الذكاء الاصطناعي في الرعاية الصحية؛ لأن القرار الطبي لا يمكن أن يُبنى على نظام لا يعرف الطبيب حدوده ولا نقاط ضعفه.

• الحالة الثامنة- عندما يرفض المريض استخدامه: يُعد مبدأ الموافقة المستنيرة أحد الأسس الأخلاقية في الطب الحديث. ولذلك من حق المريض أن يعرف ما إذا كانت أنظمة الذكاء الاصطناعي تُستخدم في تشخيص حالته أو دعم قرارات علاجه. كما يحق له أيضاً أن يرفض استخدام هذه التقنيات إذا لم يشعر بالارتياح لها. وفي مثل هذه الحالات يجب احترام قرار المريض؛ لأن العلاقة الطبية تقوم في جوهرها على الثقة والشفافية بين الطبيب والمريض.

• الحالة التاسعة- عندما تغيب الحوكمة الطبية: أي عندما لا يكون هناك نظام واضح للمساءلة ولا لمتابعة أداء النظام الذكي داخل المؤسسة الصحية. فالاستخدام الآمن للذكاء الاصطناعي يتطلب وجود آليات رقابية واضحة تضمن مراجعة نتائجه وتحديد المسؤولية في حال حدوث أخطاء.

• الحالة العاشرة- عندما لا تتوفر حماية كافية للبيانات:

إذا لم يكن النظام يضمن حماية البيانات الطبية وخصوصية المرضى وفق المعايير التنظيمية المعتمدة. فالبيانات الصحية تعد من أكثر المعلومات حساسية، وأي استخدام للذكاء الاصطناعي يجب أن يلتزم بأعلى معايير الأمن الرقمي وحماية الخصوصية.

عندما تصبح الخوارزمية صندوقا أسود

بحوث حديثة... ومعايير الأخلاقيات السعودية

• ماذا تقول البحوث الحديثة؟ : تشير الدراسات العلمية الحديثة إلى أن نجاح استخدام الذكاء الاصطناعي في الطب لا يعتمد فقط على دقة الخوارزميات؛ بل أيضاً على درجة الثقة التي يضعها الأطباء والمرضى في هذه الأنظمة.

ففي دراسة علمية نُشرت في يناير (كانون الثاني) 2025 في مجلة «جورنال أوف ميديكال إنترنت ريسيرتش» (Journal of Medical Internet Research) حول العوامل المؤثرة في الثقة بأنظمة دعم القرار الطبي المعتمدة على الذكاء الاصطناعي، توصل الباحثون إلى أن الأطباء يميلون إلى استخدام هذه الأنظمة عندما تكون نتائجها قابلة للتفسير، وعندما تكون خاضعة لتقييم علمي واضح. كما أظهرت الدراسة أن الثقة بالذكاء الاصطناعي ترتبط بشكل وثيق بوجود إشراف طبي مباشر على القرار النهائي، وهو ما يعزز فكرة أن هذه التقنيات يجب أن تعمل كأدوات دعم للقرار الطبي لا كبديل عن الحكم السريري للطبيب.

المعايير الأخلاقية للذكاء الاصطناعي في السعودية:

في المملكة العربية السعودية، أصدرت «الهيئة السعودية للبيانات والذكاء الاصطناعي» (سدايا) إطاراً وطنياً لأخلاقيات الذكاء الاصطناعي، يُعد من أبرز الأطر التنظيمية في المنطقة لتنظيم استخدام هذه التقنيات في مختلف القطاعات، بما في ذلك الرعاية الصحية. ويرتكز هذا الإطار على مجموعة من المبادئ الأساسية، من بينها: العدالة، والشفافية، والمسؤولية، وحماية الخصوصية، وضمان سلامة الاستخدام.

ويؤكد هذا الإطار التنظيمي أن استخدام الذكاء الاصطناعي في المجال الصحي يجب أن يهدف إلى دعم القرار السريري للطبيب، وتعزيز جودة الرعاية الطبية، لا أن يحل محل الحكم الطبي أو المسؤولية المهنية للطبيب. ويتماشى هذا التوجه مع المعايير الدولية التي تشدد على أن الذكاء الاصطناعي أداة مساعدة لتحليل البيانات الطبية، بينما تبقى المسؤولية النهائية عن القرار العلاجي بيد الطبيب.


كيف ألهمت طفرة جينية نادرة علاجاً جديداً لالتهاب الأمعاء؟

كيف ألهمت طفرة جينية نادرة علاجاً جديداً لالتهاب الأمعاء؟
TT

كيف ألهمت طفرة جينية نادرة علاجاً جديداً لالتهاب الأمعاء؟

كيف ألهمت طفرة جينية نادرة علاجاً جديداً لالتهاب الأمعاء؟

كشفت دراسة علمية حديثة عن مقاربة علاجية واعدة لداء كرون والتهاب القولون التقرّحي، تعتمد على محاكاة تأثير نسخة جينية نادرة واقية تُخفّف الالتهاب المزمن في الأمعاء. ونجح باحثون من معهد برود ومستشفيات ماساتشوستس العامة وكلية الطب بجامعة هارفارد بالتعاون مع شركة جونسون آند جونسون للابتكار الدوائي في تطوير جزيئات دوائية صغيرة تقلّد هذا التأثير الجيني الطبيعي ما قد يفتح الباب أمام علاجات أكثر دقة وفاعلية.

وتأتي نتائج الدراسة التي نُشرت في مجلة «سيل» Cell العلمية في 16 يناير (كانون الثاني) 2026 في ظل عبء صحي كبير تفرضه أمراض التهاب الأمعاء؛ إذ يُعد داء كرون والتهاب القولون التقرّحي الشكلين الرئيسيين لهذا المرض، ويصيبان نحو 3 ملايين شخص في الولايات المتحدة وحدها. وتتسبّب هذه الحالات بالتهاب مزمن في الجهاز الهضمي يؤدي إلى آلام مستمرة وإسهال وإرهاق وتلف طويل الأمد في أنسجة الأمعاء. ورغم التقدّم العلاجي لا يزال كثير من المرضى لا يستجيبون بشكل كافٍ للعلاجات المتاحة؛ ما يجعل البحث عن حلول جديدة أمراً ملحّاً.

نسخة جينية نادرة

• استثناء جيني نادر. منذ أكثر من عقد أدرك العلماء أن خطر الإصابة بأمراض التهاب الأمعاء ليس متساوياً لدى الجميع. ففي عام 2011 كشفت دراسات جينية واسعة أن جيناً يُعرف باسم «كارد 9» CARD9، وله دور في تنظيم الاستجابات المناعية يرتبط بقوة بداء كرون والتهاب القولون التقرّحي. وتحمل معظم نسخ هذا الجين خطراً أعلى للإصابة بالمرض.

لكن عدداً قليلاً من الأشخاص يمتلكون نسخة نادرة من هذا الجين تمنحهم حماية طبيعية؛ فهؤلاء أقل عرضة للإصابة بالمرض؛ لأن جهازهم المناعي لا يدخل في حالة التهاب مزمن تُلحق الضرر بأنسجة الأمعاء.

ويقول الدكتور رامنيك زافييه عضو في معهد برود كور وأستاذ الطب في كلية الطب بجامعة هارفارد ومدير مركز البيولوجيا الحاسوبية والتكاملية وعضو أساسي في قسم البيولوجيا الجزيئية في مستشفى ماساتشوستس العام الباحث الرئيسي في الدراسة، إن الفكرة كانت بسيطة وقوية في آنٍ واحد إذا كانت الطبيعة قد قدّمت لنا نموذجاً آمناً لتقليل الالتهاب فهل يمكننا تقليد هذا التأثير دوائياً؟

• كيف تعمل الحماية الجينية؟ لم يكن تحويل هذه الفكرة إلى علاج أمراً سهلاً؛ فجِين «كارد 9» يساعد الجهاز المناعي على مكافحة العدوى في الأمعاء، ومن ثم فإن تعطيله بالكامل قد يعرّض المرضى لخطر الإصابة بالالتهابات. أما النسخة الجينية الواقية فتعمل بطريقة أدق؛ إذ تسمح ببدء الاستجابة المناعية، لكنها تمنع استمرار الالتهاب لمدة طويلة.

وفي دراسة سابقة نُشرت عام 2015 تمكن فريق زافييه من فهم الآلية التي تعمل بها هذه النسخة الواقية؛ إذ تبيّن أنها تُنتج بروتيناً أقصر يعمل كـ«كابح» للالتهاب. والأهم من ذلك حدّد الباحثون المنطقة الدقيقة من البروتين المسؤولة عن هذا التأثير. وكانت هذه الخطوة ضرورية لأن «كارد 9» يعد «صعباً في العلاج الدوائي». على عكس الإنزيمات فإنه لا يحتوي على جيوب واضحة؛ حيث يمكن للأدوية أن ترتبط بسهولة وهي خطوة حاسمة لتطوير دواء فعّال.

• البحث عن الجزيء المناسب. وقد تعاون الباحثون في هذه الدراسة الجديدة مع علماء من شركة جونسون آند جونسون للبحث عن جزيئات قادرة على الارتباط بالموضع الصحيح من بروتين «كارد 9». وشمل البحث فحص مليارات المركّبات باستخدام تقنيات متقدمة في الكيمياء الحيوية وعلم البنية الجزيئية.

وجاءت اللحظة الفارقة عندما نجح الفريق في الحصول على أول صورة بلورية لبروتين «كارد 9» وهو مرتبط بجزيء صغير؛ ما أكد أن هذا الهدف «قابل للاستهداف دوائياً». وبالاستفادة من هذه المعرفة توصّل الباحثون إلى فئة جديدة من الجزيئات التي تُثبّط الإشارات الالتهابية المرتبطة بـ «كارد 9» انتقائية.

واللافت أن هذه الجزيئات لم تُضعف الجهاز المناعي بشكل عام، بل خفّضت الالتهاب الضار فقط؛ ففي خلايا مناعية بشرية قلّ الالتهاب دون التأثير في مسارات مناعية أخرى، كما أظهرت تجارب على فئران تحمل الجين البشري «كارد 9» انخفاضاً ملحوظاً في التهاب الأمعاء.

من الجينات إلى العلاج

ورغم أن هذه المركّبات لا تزال بحاجة إلى مزيد من التطوير قبل اختبارها على البشر، فإن الدراسة تُعد دليلاً عملياً على مسار متكامل يبدأ من اكتشاف جيني، وينتهي بمرشّحات دوائية واعدة.

ويؤكد الباحثون أن وجود النسخة الواقية من جين «كارد 9» طبيعياً لدى بعض البشر يمنحهم ثقة أكبر بسلامة الأدوية التي تحاكي تأثيرها. ويشبّه زافييه هذا النهج بما حدث مع أدوية خفض الكوليسترول التي استُلهمت من نسخ جينية واقية في جين آخر، وغيّرت علاج أمراض القلب.

ولا تقتصر أهمية هذه النتائج على داء كرون وحده، بل ترسم خريطة طريق جديدة للطب الحديث؛ فمع استمرار الأبحاث الجينية في كشف الجينات التي تزيد أو تقلل خطر الأمراض يمكن تطبيق النهج نفسه لتطوير علاجات لأمراض مناعية والتهابية واستقلابية أخرى.

ويختتم زافييه قائلاً إن الجينات ليست مجرد مؤشرات على الخطر، بل يمكن أن تكون دليلاً مباشراً نحو علاجات جديدة كلياً.

وبالنسبة لمرضى التهاب الأمعاء قد يعني ذلك مستقبلاً علاجات أكثر دقة وفاعلية مستوحاة من حلول طبيعية ابتكرها الجسم نفسه.