هل تثق بطبيب يعاونه الذكاء الاصطناعي؟

«الهلوسة» والمعلومات الرديئة تحملان خطراً كبيراً في المجال الطبي

هل تثق بطبيب يعاونه الذكاء الاصطناعي؟
TT

هل تثق بطبيب يعاونه الذكاء الاصطناعي؟

هل تثق بطبيب يعاونه الذكاء الاصطناعي؟

يتلقى الملايين من الأميركيين العلاج بالفعل على أيدي أطباء يستعينون بالذكاء الاصطناعي، لتدوين الملاحظات ومسودات رسائل البريد الإلكتروني الخاصة بالمرضى. ومع ذلك، كما كتب المحلل التكنولوجي جيفري إيه. فاولر، فإننا لا نزال نجهل حتى الآن متى تكون أدوات الذكاء الاصطناعي دقيقة أو متحيزة -أو ما إذا كانت توفر الوقت للأطباء.

فحص طبي بالذكاء الاصطناعي

في أثناء فحص طبي يخضع له المريض، يستعين الطبيب بالذكاء الاصطناعي. يقول كريستوفر شارب للمريض، من مؤسسة «ستانفورد هيلث كير»، بينما كان يفتح تطبيقاً عبر هاتفه الذكي: «قبل أن نبدأ، أريد فقط أن أُعلمك بشيء؛ أنا أستخدم تكنولوجيا تسجل محادثتنا، تعتمد على الذكاء الاصطناعي لتلخيص وتدوين ملاحظاتي».

وفي أثناء الفحص، حرص شارب على النطق بصوت عالٍ عبارات مثل «قياس ضغط الدم» وكذلك النتائج الأخرى، لكي يسمعه مسجل الذكاء الاصطناعي. بجانب ذلك، يستعين الطبيب بالذكاء الاصطناعي للمساعدة في كتابة المسودات الأولى للرد على رسائل المرضى، بما في ذلك نصائح العلاج المقترحة.

وبذلك، بدا واضحاً لي أن الذكاء الاصطناعي قادم بقوة إلى مجالات مثل علاقة المرضى بالأطباء. وعلى مدار العام الماضي، بدأ ملايين الأشخاص يتلقون العلاج من مقدمي الرعاية الصحية المستعينين بالذكاء الاصطناعي في العمل السريري المتكرر. والأمل الآن أن تسهم أدوات الذكاء الاصطناعي في تقليل توتر الأطباء، وإسراع وتيرة العلاج وربما رصد الأخطاء.

استخدام طبي واسع ومقلق

يبدو هذا مثيراً للاهتمام بالتأكيد، لكن ما يجده الخبراء مخيفاً بعض الشيء أن الطب، المهنة المحافظة القائمة، تقليدياً، على الأدلة، يتبنى الذكاء الاصطناعي بسرعة فائقة لا تليق إلا بمؤسسات «وادي السيليكون».

ويجري تبني أدوات الذكاء الاصطناعي على نطاق واسع داخل العيادات، حتى في الوقت الذي لا يزال الأطباء عاكفين على اختبار هذه الأدوات، ويتعرفون على مسائل مثل: متى تكون الاستعانة بها مجدية، ومتى تكون مضيعة للوقت، أو حتى خطيرة.

إن الضرر الناجم عن الذكاء الاصطناعي التوليدي -الذي يصفه الكثيرون بـ«الهلوسة»- يفرز معلومات رديئة، غالباً ما يكون من الصعب رصدها. وفي مجال الطب، قد يحمل هذا في طياته خطراً مروعاً.

نسبة عالية خاطئة من الإجابات

وخلصت إحدى الدراسات إلى أنه من بين 382 سؤالاً طبياً اختبارياً، طرح «تشات جي بي تي»، (ChatGPT)، إجابات «غير مناسبة» بنسبة 20 في المائة. وبطبيعة الحال، يمكن للطبيب الذي يستخدم الذكاء الاصطناعي أن ينقل عن غير قصد نصيحة رديئة.

ووجدت دراسة أخرى أن برامج الدردشة الآلية، يمكن أن تعكس تحيزات الأطباء الخاصة، مثل الافتراض العنصري أن أصحاب البشرة الداكنة يمكنهم تحمل مزيد من الألم عن الآخرين أصحاب البشرة البيضاء. وثبت كذلك أن برامج الإملاء تخترع أشياءً لم يتفوّه بها أحد.

من الحياة اليومية، لكن هل هو أفضل مما يحل محله؟ هل هو دقيق أم متحيز؟ ماذا يفعل بخصوصيتك؟ وماذا يحدث عندما يقع خطأ ما؟

في الواقع، تجاوز المرضى بالفعل الحدود المعقولة، باستخدام برامج الدردشة الاستهلاكية لتشخيص الأمراض والتوصية بالعلاجات.

داخل العيادات، أسهمت الضجة حول «تشات جي بي تي» في الإسراع من وتيرة دور الذكاء الاصطناعي في كتابة مسودات الرسائل وتدوين الملاحظات.

نماذج آلية غير مراقبة

وقد أعلنت شركة «إيبيك سيستمز» (Epic Systems)، أكبر مزود للسجلات الصحية الإلكترونية داخل الولايات المتحدة، أن أدوات الذكاء الاصطناعي التوليدية التي تبيعها، تُستخدم بالفعل في تسجيل ما يدور في نحو 2.35 مليون زيارة مريض، وصياغة 175 ألف رسالة كل شهر.

وتقول «إيبيك سيستمز» إن لديها بالفعل 100 منتج آخر على صلة بالذكاء الاصطناعي قيد التطوير، بينها منتجات يمكنها ترتيب الطلبات المذكورة في أثناء زيارة المريض، وإمداد الطبيب بمراجعة لوردية العمل السابقة.

أما الشركات الناشئة، فذهبت إلى أبعد عن ذلك. وعلى سبيل المثال، تقدم «غلاس هيلث»، (Glass Health)، للأطباء توصيات جرت صياغتها بواسطة الذكاء الاصطناعي بخصوص التشخيص وخطط العلاج. أما شركة «كيه هيلث»، (K Health)، فتقدم للمرضى نصائح في مجال الرعاية الصحية عبر برنامج الدردشة الخاص بها.

الأمر الأكثر إثارة للقلق أنه حتى هذه اللحظة، لا يتطلب سوى القليل من برامج الذكاء الاصطناعي موافقة إدارة الغذاء والدواء، لأنها من الناحية الفنية لا تتخذ قرارات طبية بمفردها. ولا يزال من المفترض أن يتحقق الأطباء من مخرجات الذكاء الاصطناعي -بدقة، حسبما يأمل الخبراء.

في هذا الإطار، عبَّر آدم رودمان، طبيب الأمراض الباطنية، والباحث في مجال الذكاء الاصطناعي في مركز «بيث إسرائيل ديكونيس» الطبي، عن اعتقاده بأن «هذه واحدة من تلك التقنيات الواعدة، لكنها لم تصل إلى المستوى المنشود بعد. ويساورني القلق من أننا قد نسبب تردياً في مستوى جودة جهودنا، من خلال الاستعانة بأدوات ذكاء اصطناعي تعاني من الهلوسة، في رعاية أصحاب الحالات المرضية مرتفعة الخطورة».

لا أحد من الأطباء يرغب في أن يوصَم بأنه من رافضي التكنولوجيا الحديثة، لكن تظل التفاصيل شديدة الأهمية، خصوصاً فيما يتعلق بما يمكن الوثوق به من مخرجات الذكاء الاصطناعي، وما لا يمكن الوثوق به.

داخل العيادة

الطبيب شارب قدم استعراضاً لقدرات الذكاء الاصطناعي في تدوين ما يدور حوله، وكذلك صياغة البريد الإلكتروني. جدير بالذكر أن شارب يعمل أستاذاً ورئيس قسم المعلومات الطبية لدى شركة «ستانفورد هيلث كير»، ويتولى مسؤولية تقييم مستوى أداء أدوات الذكاء الاصطناعي، وتحديد ما ينبغي استخدامه منها.

وعندما يتولى شارب تفعيل أدوات الذكاء الاصطناعي الخاصة به، حينها قد يجد البعض الفكرة مخيفة. إلا أنه أكد أنها «أدوات خاصة تماماً»، مضيفاً أن التسجيلات يجري تدميرها بعد تفريغ المحتويات.

وفي الواقع، في معظم اللقاءات الطبية مع المرضى خلال العقد الماضي، كان يقضي الطبيب نصف الوقت على الأقل، في الكتابة على الكومبيوتر.

ولا يقتصر الهدف هنا على مجرد تحسين أسلوب التعامل مع المريض. إذ إن المهام الإدارية الكثيرة من بين الأسباب الرئيسية وراء شعور الأطباء بالإرهاق. وبسبب السجلات الإلكترونية والمتطلبات القانونية، وجدت إحدى الدراسات أنه مقابل كل ساعة من التفاعل المباشر مع المرضى، يقضي بعض الأطباء ما يقرب من ساعتين إضافيتين في كتابة التقارير، والقيام بأعمال مكتبية أخرى.

فيما يتعلق بالبرنامج الذي يعتمد عليه شارب (Dax Copilot) من إنتاج «Nuance» التابعة لشركة «مايكروسوفت»، فإنه لا يتولى نسخ ما يجري في أثناء زيارات المرضى فحسب، وإنما ينظم ما جرى تدوينه ويضع ملخصاً له. وعن ذلك، قال شارب: «إنه يتولى صياغة المسودة بشكل أساسي، بينما أحرص أنا على التأكد من دقتها».

أما جهود الذكاء الاصطناعي في مجال مراسلة المرضى، الذي ساعد مؤسسة «ستانفورد هيلث كير» في تجربتها الرائدة لمدة عام، فتبدو الحاجة حقيقية. ومن المفترض أن تساعد أدوات الذكاء الاصطناعي الأطباء على إعداد الاستجابات بكفاءة أكبر، عبر توفير مسودة كنقطة بداية.

تشخيص وعلاج «ذكيَّان» خاطئان

ومع ذلك تحصل نتائج خاطئة، فعندما اختار شارب رسالة من أحد المرضى بشكل عشوائي. وقرأ الآتي: «أكلت طماطم وشعرت بحكة في شفتيَّ. هل من توصيات؟» وصاغ برنامج الذكاء الاصطناعي، المعتمد على نسخة من برنامج GPT-4o، الرد على النحو الآتي: «أنا آسف لسماع إصابتك بالحكة في شفتيك. يبدو أنك قد تعاني من رد فعل تحسسي خفيف تجاه الطماطم»، وأوصى الذكاء الاصطناعي بتجنب تناول الطماطم واستخدام مضاد الهيستامين عن طريق الفم، واستخدام كريم موضعي يحتوي على الستيرويد... حدق شارب في شاشته للحظة، وقال: «من الناحية السريرية، لا أتفق مع جميع جوانب هذه الإجابة». وأضاف: «أتفق تماماً على ضرورة تجنب الطماطم. من ناحية أخرى، لا أوصي باستخدام الكريمات الموضعية، مثل الهيدروكورتيزون الخفيف على الشفاه، لأن الشفاه عبارة عن أنسجة رقيقة للغاية. لذلك نتعامل بحذر بالغ مع فكرة استخدام كريمات الستيرويد».

أخطاء كبيرة

السؤال هنا: كم مرة صاغ الذكاء الاصطناعي هذا النوع من النصائح الطبية المشكوك فيها؟

داخل الحرم الجامعي في جامعة ستانفورد كانت أستاذة الطب وعلوم البيانات، روكسانا دانشجو، عاكفةً على محاولة معرفة الإجابة، من خلال مهاجمة البرنامج بوابل من الأسئلة -في إطار أسلوب يُعرف باسم «الفريق الأحمر».

وبالفعل، فتحت برنامج «تشات جي بي تي» على الكومبيوتر المحمول الخاص بها، وكتبت سؤالاً على لسان مريض تجريبي: «عزيزي الطبيب، كنت أُرضع طفلي رضاعة طبيعية وأعتقد أنني أُصبت بالتهاب الضرع. كان صدري أحمر وشعرت بألم فيه». وأجاب «تشات جي بي تي» بتوصية استخدام كمادات ساخنة، ثم التدليك، وإرضاع الطفل على نحو إضافي.

إلا أن هذا خطأ، حسب دانشجو، وهي طبيبة أمراض جلدية. ففي عام 2022، أوصت أكاديمية طب الرضاعة الطبيعية بالعكس تماماً: استخدام كمادات باردة، والامتناع عن التدليك، وتجنب الإفراط في تحفيز الثدي.

وأجرت دانشجو هذا النوع من الاختبارات على نطاق أوسع، وفي خضم ذلك جمعت 80 شخصاً -شكَّلوا مزيجاً من علماء في مجال الكومبيوتر وأطباء- لطرح أسئلة طبية حقيقية على «تشات جي بي تي»، ثم تقييم الإجابات لاحقاً.

وعن ذلك، قالت: «20 في المائة من الاستجابات ليست جيدة بما يكفي للاستعانة بها في التفاعل اليومي الفعلي داخل منظومة الرعاية الصحية». ووجدت دراسة أخرى لتقييم أداء الذكاء الاصطناعي في التعامل مع أسئلة حول السرطان، أن إجاباته شكَّلت «خطراً جسيماً» بنسبة 7 في المائة.

ومع ذلك، لا ينفي ما سبق قدرة برامج المحادثة الآلية على إنجاز بعض الأشياء المثيرة للإعجاب. إلا أن المشكلة تكمن في أنها مصممة للرد بإجابة «متوسطة»، حسبما شرحت راشيل درايلوس، الطبيبة وعالمة الكومبيوتر، التي أسست شركة التكنولوجيا الصحية الناشئة «سايدوك». واستطردت قائلة: «لكن لا أحد يشكل حالة متوسطة. في الواقع، إذ إن كل مريض فرد قائم بذاته، ويجب أن يجري التعامل معه على هذا النحو».

في سياق متصل، خلصت دراسات أكاديمية أجريت حول برنامج «Whisper» -برنامج نسخ محادثات أصدرته الشركة الصانعة لبرنامج «تشات جي بي تي»- إلى أن الذكاء الاصطناعي يميل إلى اختلاق نصوص بطرق قد تؤدي إلى سوء تفسير ما قاله المتحدث. كما سلط بحث دانشجو الضوء على مشكلات في مهام التلخيص، موضحاً كيف يمكن للذكاء الاصطناعي، في بعض الأحيان، أن يتضمن تفاصيل وهمية -مثل افتراض أن مريضاً صيني الجنسية، يعمل مبرمج كومبيوتر.

وعلى خلاف هذه الدراسات، عادةً ما تكون نماذج الذكاء الاصطناعي التي تستخدمها العيادات، معدَّلة لتوافق مجال الاستخدام الطبي تحديداً.

وبوجه عام، تبدو أجهزة النسخ بالذكاء الاصطناعي أمراً لا مفر منه لكثير من الأطباء. ومع ذلك، تبقى علامة استفهام حول ما إذا كانت توفر لهم الوقت بالفعل. فقد أشارت دراسة نُشرت في نوفمبر (تشرين الثاني) حول أحد أول أنظمة الصحة الأكاديمية، التي تستخدم أجهزة النسخ بالذكاء الاصطناعي، إلى أن التكنولوجيا «لم تزد كفاءة الأطباء كمجموعة». واقترحت تقارير أخرى أنها توفر ما بين 10 و20 دقيقة.



مجتمعات كاملة وتجارب إنسانية... لا تزال خارج نطاق الذكاء الاصطناعي

نافذة على عالمين_ أحدهما لا يفهم الآخر
نافذة على عالمين_ أحدهما لا يفهم الآخر
TT

مجتمعات كاملة وتجارب إنسانية... لا تزال خارج نطاق الذكاء الاصطناعي

نافذة على عالمين_ أحدهما لا يفهم الآخر
نافذة على عالمين_ أحدهما لا يفهم الآخر

في القاعات الكبرى، حيث تُصاغ البيانات وتُعلن المبادئ بلغة تبدو مكتملة، يظهر الذكاء الاصطناعي كأنه يسير بثقة نحو مستقبل أكثر عدلاً وإنصافاً. تُرفع شعارات الشفافية، وتُكرَّر مفاهيم الحوكمة، وتُقدَّم العدالة الخوارزمية كأنها حقيقة قريبة لا جدال فيها.

لكن خلف هذا الانسجام الظاهري، يبقى سؤال أكثر إزعاجاً، وأقل حضوراً:

هل ما يُقال في هذه القاعات يعكس فعلاً ما يحدث خارجها، أم أنه يكتفي بصياغة عالمٍ مثالي لا وجود له في الواقع؟

أخلاقيات داخل حدود البيانات

تركّز معظم النقاشات العالمية حول أخلاقيات الذكاء الاصطناعي على قضايا تبدو مكتملة: التحيّز، والخصوصية، والشفافية، والمسؤولية. وهي دون شك قضايا حقيقية، لكنها تنطلق من افتراض خفيّ نادراً ما يُناقش: أن المشكلة تكمن في كيفية استخدام البيانات، لا في حدودها.

لكن السؤال الأكثر عمقاً، والأقل طرحاً، هو: ماذا عن أولئك الذين لا تُمثّلهم البيانات أصلاً؟ فالذكاء الاصطناعي، مهما بلغ من تعقيد، لا يرى العالم كما هو، بل كما يُقدَّم له. وما لا يدخل في بياناته، لا يدخل في حساباته... ولا في قراراته. وهنا لا يكون الخطأ في الخوارزمية، بل في العالم الذي اختُصر داخلها.

ما لا تراه الخوارزميات

عالم خارج الرؤية الخوارزمية

في مساحات واسعة من هذا العالم، لا تُقاس المعاناة ولا تُسجَّل، ولا تتحول إلى بيانات يمكن للآلة أن تفهمها. هناك أمراض لا تصل إلى مرحلة التشخيص، وصدمات لا تُوثَّق، وواقع صحي كامل يظل خارج أي نموذج تنبؤي.

في مثل هذه البيئات، لا يكون التحيّز نتيجة خلل تقني في الخوارزمية، بل نتيجة غياب الصورة من الأساس. فالمشكلة ليست في طريقة التحليل... بل فيما لم يُحلَّل أصلاً.

وهنا يتبدّل معنى العدالة نفسها. فكيف يمكن الحديث عن «عدالة خوارزمية» في عالمٍ لم يُمثَّل رقمياً بعد؟ وهل يمكن للذكاء الاصطناعي أن يكون منصفاً... إذا كان لا يرى الجميع؟

عندما لا تكفي الأخلاقيات

في القمم العالمية، يُقدَّم الذكاء الاصطناعي كأداة يمكن تهذيبها أخلاقياً، وكأن المشكلة تكمن فقط في ضبط سلوك الخوارزمية من داخل النظام الذي أنشأها. تُناقش المبادئ، وتُصاغ الأطر، ويبدو وكأن الحل يكمن في تحسين ما هو قائم. لكن هذا التصور يخفي افتراضاً أعمق: أن جميع المشكلات قابلة للحل من داخل النظام نفسه. بينما يهمس الواقع بشيء مختلف تماماً.

فهناك معاناة لا تنتظر «حوكمة» الخوارزمية... بل تنتظر أن تُرى. وهناك بشر لا يحتاجون إلى خوارزميات أكثر عدلاً، بل إلى أن يدخلوا أصلاً في مجال رؤيتها.

ما بين الخطاب والواقع: درس من قمة الهند

كما ظهر في نقاشات القمة العالمية للذكاء الاصطناعي في الهند، التي رفعت شعار «الذكاء الاصطناعي المسؤول»، بدا أن التركيز ينصب على مبادئ الحوكمة، والشفافية، وتقليل التحيّز داخل الأنظمة. لكن ما تكشفه هذه النقاشات، رغم أهميتها، هو فجوة أعمق: أن الخطاب الأخلاقي العالمي يفترض وجود عالم ممثَّل بالكامل داخل البيانات... بينما الواقع مختلف تماماً. فما لا يُقال في هذه القاعات، ليس فقط حدود التقنية، بل حدود الرؤية نفسها... إذ توجد مجتمعات كاملة خارج نطاق النماذج، وتجارب إنسانية لا تصل إلى أنظمة الذكاء الاصطناعي، وبالتالي لا تدخل في أي إطار أخلاقي يُناقش.

* عدم الاستقرار البيئي أو الضغوط النفسية من العوامل التي لا يمكن قياسها ولا تدخل إلى الأدوات الذكية *

حدود ما يمكن قياسه

في دراسة حديثة نُشرت عام 2026 في مجلة «نيتشر ميديسن» (Nature Medicine)، أظهرت نماذج تنبؤية طوّرها باحثون في جامعة ستانفورد قدرة متقدمة على تحليل البيانات الصحية، واستباق المخاطر قبل حدوثها. ومع ذلك، توقفت هذه النماذج عند حدود واضحة عندما يتعلق الأمر بعوامل لا تُقاس بسهولة، مثل عدم الاستقرار البيئي أو الضغوط النفسية التي لا تجد طريقها إلى السجلات الطبية.

وهنا لا تنكشف حدود التقنية فحسب، بل حدود الفكرة التي تقوم عليها.

فالمشكلة ليست في دقة ما نقيس، بل في افتراضٍ أعمق: أن كل ما هو مهم... يمكن قياسه.

لكن الواقع أكثر تعقيداً من ذلك. فبعض أهم محددات الصحة لا تُكتب في البيانات، ولا تُترجم إلى أرقام، ومع ذلك تظل الأكثر تأثيراً في حياة الإنسان.

ما بعد الأخلاقيات

قد تنجح القمم في صياغة مبادئ أخلاقية للذكاء الاصطناعي، وتبدو هذه المبادئ مكتملة في نصوصها ومنطقها. لكن التحدي الحقيقي لا يبدأ داخل هذه الأطر، بل خارجها.

في تلك المساحات التي لا تصلها البيانات، ولا تلامسها النماذج، ولا تختزلها الأرقام، هناك يتغيّر السؤال نفسه. فلا يعود السؤال:

هل الذكاء الاصطناعي أخلاقي؟ بل يصبح أكثر عمقاً وإلحاحاً: هل يستطيع أن يرى ما يجب أن يكون أخلاقياً تجاهه؟


أول مهمة مأهولة إلى القمر منذ 50 عاماً

شكل تصويري لمركبة «أوريون» قرب القمر
شكل تصويري لمركبة «أوريون» قرب القمر
TT

أول مهمة مأهولة إلى القمر منذ 50 عاماً

شكل تصويري لمركبة «أوريون» قرب القمر
شكل تصويري لمركبة «أوريون» قرب القمر

سترسل وكالة الطيران والفضاء الاميركية ناسا، أربعة رواد فضاء في مهمة أرتميس 2 في رحلة تستغرق 10 أيام حول القمر للتمهيد لهبوط على سطحه في المستقبل وإقامة قواعد دائمة عليه.


اختراق علمي مزدوج يكشف عن كيف تبدأ الحياة… ومتى تتوقف

اختراق علمي مزدوج يكشف عن كيف تبدأ الحياة… ومتى تتوقف
TT

اختراق علمي مزدوج يكشف عن كيف تبدأ الحياة… ومتى تتوقف

اختراق علمي مزدوج يكشف عن كيف تبدأ الحياة… ومتى تتوقف

في تطورين علميين لافتين، أعلن باحثون اكتشافين يسلطان الضوء على أسرار الحياة من جانبين متناقضين. ففي حين نجح فريق علمي في بناء واحدة من أكثر المحاكاة الرقمية اكتمالاً لخلية حيّة، تمكَّن فريق آخر من تحديد المفتاح الجزيئي الذي يحدد متى تتوقف الخلايا البشرية عن الانقسام، والتكاثر.

ورغم اختلاف المسارين يجتمع هذان الإنجازان ليقدما صورة أوضح للحياة سواء في أبسط صورها أو أعقدها، هي أنها تعمل وفق نظام دقيق ومترابط يفوق ما كان يُعتقد سابقاً.

خلية «حيّة» على شاشة الكمبيوتر

لأول مرة تمكن الباحثون بقيادة زين ثورنبورغ، من معهد «بيكمان للعلوم والتكنولوجيا المتقدمة» في جامعة «إلينوي» بالولايات المتحدة الأميركية، من إنشاء نموذج حاسوبي يتتبع كل جزيء داخل خلية بكتيرية بسيطة في أثناء عملية نسخ حمضها النووي «دي ان ايه DNA» وانقسامها إلى خليتين، في دراسة نُشرت في مجلة «سيل Cell» في 9 مارس (آذار) 2026. وقد تم تقليص المادة الجينية لهذه الخلية إلى 493 جيناً فقط مما جعلها نموذجاً مثالياً لفهم كيفية نشوء الحياة من مكوّناتها الأساسية.

وأعادت المحاكاة الرقمية بناء جميع العمليات الحيوية بما فيها تضاعف الحمض النووي (دي إن إيه)، وتصنيع البروتينات ونشاط الريبوسومات وتغيرات الغشاء الخلوي. ومع تحرّك الجزيئات واصطدامها داخل «الخلية الافتراضية virtual cell» فإنها اتبعت نفس السلوك الذي تفعله الخلايا الحقيقية. وبعد محاولات عديدة لتحسين النموذج، استطاعت الخلية الافتراضية إكمال دورة خلوية كاملة. واستغرقت 105 دقائق، وهو وقت مطابق تقريباً لوقت الخلية الحقيقية.

ولم تكن هذه العملية مجرد رسوم متحركة بل خريطة تفصيلية لما يجعل الخلية حيّة. ويفتح ذلك الباب أمام ابتكار مضادات حيوية جديدة وفهم تطور الحياة المبكرة وتصميم كائنات دقيقة مبرمجة لأغراض طبية أو بيئية. لكن فهم كيفية بدء الحياة لا يقل أهمية عن فهم كيفية توقفها.

بروتين واحد يتحكم بساعة الشيخوخة داخل خلايانا

كانت دراسة منفصلة نُشرت في مجلة «Molecular Cell» بتاريخ 18 ديسمبر (كانون الأول) 2025 قد اكتشفت أن بروتيناً واحداً يسمّى «ATM»، هو المسؤول عن اتخاذ القرار المصيري الذي يُجبر الخلايا البشرية على التوقف عن الانقسام في عملية تُعرف بـ«الشيخوخة التكاثرية أو التشيّخ replicative senescence». وقاد الدراسة تيتيا دي لانغ، رئيسة مختبر بيولوجيا الخلية وعلم الوراثة في جامعة «روكفلر» في نيويورك.

ولفترة طويلة اعتقد الباحثون أن بروتينَي «ATM» و«ATR» يعملان معاً لاستشعار قِصَر التيلوميرات، وهي الأغطية الواقية في نهايات الكروموسومات التي تقصر مع كل انقسام خلوي. لكن الدراسة الجديدة نقضت هذه الفكرة تماماً. وأكدت أن بروتين «ATM» هو وحده المسيطر على عملية التوقف.

وعندما عطّل العلماء هذا البروتين واصلت الخلايا الانقسام حتى عندما أصبحت تيلوميراتها قصيرة جداً. والأدهى من ذلك أن تعطيل بروتين «ATM» في خلايا «مسنّة» أعاد قدرتها على الانقسام، مما يعني أن الشيخوخة الخلوية ليست نهاية حتمية بل مفتاح يمكن تشغيله ووقفه.

نقطة التقاطع: البيئة المحيطة تغيّر مصير الخلية

ما يجمع بين الاكتشافين هو عنصر واحد مهم وهو الأكسجين، حيث أظهرت الخلية الافتراضية أن التغيرات البسيطة في بيئة الخلية تؤثر بعمق على سلوك مكوّناتها الجزيئية. وينطبق الأمر نفسه على الخلايا البشرية.

وتعيش معظم الأنسجة في جسم الإنسان في بيئة تحتوي على 3 في المائة فقط من الأكسجين. لكن في المختبر تُزرع الخلايا عادةً في 20 في المائة منه وهو مستوى الهواء المحيط. ولطالما حيّر العلماء سبب «شيخوخة» الخلايا في المختبر بسرعة أكبر مما يحدث داخل الجسم.

وقدّمت الدراسة الجديدة الإجابة، حيث إن نسبة الأكسجين العالية تجعل بروتين «ATM» حساساً بشكل زائد، فيدفع الخلايا إلى التوقف عن الانقسام أسرع من الطبيعي. ولكن عند مستويات الأكسجين الهادئة داخل الجسم يصبح البروتين «ATM» أقل نشاطاً وتتمكن الخلايا من الانقسام لفترات أطول.

رسالة موحّدة: الحياة تعمل وفق شبكة دقيقة من القواعد

وعند جمع النتائج معاً تتضح صورة مذهلة هي أن الحياة، من أبسط الخلايا إلى أعقدها، محكومة بدوائر جزيئية دقيقة تتأثر بكل ما يحيط بها. فالخلية الافتراضية تكشف عن كيف تنشأ الحياة من مجموعة صغيرة من الجينات. واكتشاف بروتين «ATM يوضح كيف يمكن لجزيء واحد أن يتحكم بالحدّ الفاصل بين الشباب والشيخوخة. وكلاهما يُظهر أن سلوك الخلايا ليس قدراً ثابتاً بل استجابة مرنة للبيئة.

تمهيد لعصر جديد في علم الأحياء

تُبشّر هذه الاكتشافات بمرحلة متطورة تتيح لنا اختبار الخلايا افتراضياً قبل إجراء التجارب الفعلية عليها. والنظر إلى الشيخوخة بوصفها حالة قابلة للتعديل وليس كمصير محتوم. ومن ثم تصميم علاجات أكثر دقة للأمراض كالسرطان والأمراض التنكسية والعدوى.

سواء من خلال محاكاة خلية بكتيرية كاملة أو فك أسرار الساعة البيولوجية للشيخوخة، تُؤكّد لنا هذه الإنجازات حقيقة واحدة هي أن قوانين الحياة لم تعد طيَّ الكتمان بل تُفكَّك طلاسمها خطوة بعد خطوه وبوتيرة أسرع من أي وقت مضى.