الروح الإنسانية... «المكوِّن السري» للذكاء الاصطناعي التوليدي

مئات العمال علّموا النظام كيفية تلقي الأسئلة وإجاباتها

الروح الإنسانية... «المكوِّن السري»  للذكاء الاصطناعي التوليدي
TT

الروح الإنسانية... «المكوِّن السري» للذكاء الاصطناعي التوليدي

الروح الإنسانية... «المكوِّن السري»  للذكاء الاصطناعي التوليدي

في نوفمبر (تشرين الثاني) 2022، أصدرت شركة «ميتا»، التي تملك «فيسبوك» روبوت دردشة يسمى «غالاكتيكا (Galactica)». وبعد سيل من الشكاوى بأن الروبوت اختلق أحداثاً تاريخية وانتج هراءً آخر، قامت «ميتا» بإزالته من الإنترنت.

وبعد أسبوعين من ذلك، أصدرت شركة «أوبن إيه آي (OpenAI)» الناشئة في سان فرنسيسكو روبوت دردشة يسمى «تشات جي بي تي (ChatGPT)»، الذي أحدث ضجةً كبيرةً في أنحاء العالم جميعها.

الروح الإنسانية لـ«جي بي تي»

تم تشغيل كلا الروبوتين بالتقنية الأساسية نفسها. ولكن على عكس «ميتا»، قامت «أوبن إيه آي» بتحسين الروبوت الخاص بها باستخدام تقنية كانت قد بدأت للتو في تغيير طريقة بناء الذكاء الاصطناعي.

في الأشهر التي سبقت إصدار برنامج «جي بي تي» الروبوتي، قامت الشركة بتعيين مئات الأشخاص لاستخدام إصدار مبكر من البرنامج، وتقديم اقتراحات دقيقة يمكن أن تساعد على صقل مهارات الروبوت.

ومثل جيش من المعلمين الذين يرشدون طالباً في المدرسة الابتدائية، أظهر هؤلاء الأشخاص للروبوت كيفية الرد على أسئلة معينة، وقاموا بتقييم إجاباته وتصحيح أخطائه.

أداء «شات جي بي تي» تَعزّز بفضل مئات المعلمين

ومن خلال تحليل تلك الاقتراحات، تعلّم «جي بي تي» أن يكون روبوت دردشة أفضل.

تقنية «التعلم المعزز من ردود الفعل البشرية»

إن تقنية «التعلم المعزز من ردود الفعل البشرية» تقود الآن تطوير الذكاء الاصطناعي في جميع أنحاء هذه الصناعة. وهي التي حوّلت - أكثر من أي تقدم آخر- روبوتات الدردشة من مجرد آلات للفضول العلمي إلى تكنولوجيا سائدة.

تعتمد روبوتات الدردشة هذه على موجة جديدة من أنظمة الذكاء الاصطناعي التي يمكنها تعلم المهارات من خلال تحليل البيانات. ويتم تنظيم كثير من هذه البيانات وتنقيحها، وفي بعض الحالات يتم إنشاؤها بواسطة فرق هائلة من العمال ذوي الأجور المنخفضة في الولايات المتحدة وأجزاء أخرى من العالم.

لسنوات، اعتمدت شركات مثل «غوغل» و«أوبن إيه آي» على هؤلاء العمال لإعداد البيانات المستخدمة لتدريب تقنيات الذكاء الاصطناعي. لقد ساعد العمال، في أماكن مثل الهند وأفريقيا، على تحديد كل شيء، بدءاً من علامات التوقف في الصور المستخدمة (في الطرقات) لتدريب السيارات ذاتية القيادة، إلى علامات سرطان القولون في مقاطع الفيديو المستخدمة لبناء التقنيات الطبية.

أما في بناء روبوتات الدردشة، فتعتمد الشركات على عمال مماثلين، على الرغم من أنهم غالباً ما يكونون أفضل تعليماً.

نازنين راجاني الباحثة في مختبر «هاغنغ فايس»

معلمو الذكاء الاصطناعي

ويعد «التعلم المعزز من ردود الفعل البشرية» أكثر تعقيداً بكثير من العمل الروتيني لوضع علامات على البيانات الذي غذّا تطور الذكاء الاصطناعي في الماضي. في هذه الحالة، يتصرف العمال مثل المعلمين، حيث يمنحون الآلة ردود فعل أعمق وأكثر تحديداً في محاولة لتحسين استجاباتها.

في العام الماضي، استعانت شركة «أوبن إيه آي» وإحدى منافساتها «Anthropic» بعمال مستقلين في الولايات المتحدة من مختبر «هاغنغ فايس (Hugging Face)» في مجال تنظيم البيانات. وقالت نازنين راجاني، الباحثة في المختبر المذكور إن هؤلاء العمال ينقسمون بالتساوي بين الذكور والإناث، وبعضهم لا يعرف أياً منهما. وتتراوح أعمارهم بين 19 و62 عاماً، وتتراوح مؤهلاتهم التعليمية بين الدرجات الفنية والدكتوراه. ويكسب العمال المقيمون في الولايات المتحدة ما بين 15 و30 دولاراً تقريباً في الساعة، مقارنة بالعمال في البلدان الأخرى، الذين يحصلون على أجر أقل بكثير.

يتطلب هذا العمل ساعات من الكتابة الدقيقة والتحرير والتقييم. قد يقضي العمال 20 دقيقة في كتابة مطالبة واحدة والرد عليها.

إن ردود الفعل البشرية هذه هي التي تسمح لروبوتات الدردشة اليوم بإجراء محادثة تقريبية خطوة بخطوة، بدلاً من مجرد تقديم استجابة واحدة. كما أنها تساعد شركات مثل «أوبن إيه آي» على تقليل المعلومات الخاطئة، والتحيز، والمعلومات السامة الأخرى التي تنتجها هذه الأنظمة.

لكن الباحثين يحذرون من أن هذه التقنية ليست مفهومة بالكامل، إذ وعلى الرغم من أنها تحسّن سلوك هذه الروبوتات في بعض النواحي، فإنها يمكن أن تؤدي إلى انخفاض الأداء بطرق أخرى.

جيمس زو البروفسور بجامعة ستانفورد

دراسة جديدة: دقة «جي بي تي» انخفضت

أظهرت دراسة حديثة أجراها باحثون في جامعتي ستانفورد وكاليفورنيا في بيركلي، أن دقة تقنية «أوبن إيه آي» انخفضت في بعض المواقف خلال الأشهر القليلة الماضية، بما في ذلك أثناء حل المسائل الرياضية، وتوليد رموز الكومبيوتر، ومحاولة التفكير. قد يكون هذا نتيجة للجهود المستمرة لتطبيق ردود الفعل البشرية.

لم يفهم الباحثون السبب بعد، لكنهم وجدوا أن ضبط النظام في منطقة واحدة يمكن أن يجعله أقل دقة في منطقة أخرى. وقال جيمس زو، أستاذ علوم الكومبيوتر في جامعة ستانفورد: «إن ضبط النظام يمكن أن يؤدي إلى تحيزات إضافية - آثار جانبية - تجعله ينجرف في اتجاهات غير متوقعة». في عام 2016، قام فريق من الباحثين في «أوبن إيه آي» ببناء نظام ذكاء اصطناعي علّم نفسه كيفية لعب لعبة فيديو قديمة لسباق القوارب، تسمى «Coast Runners»، ولكن في محاولة لالتقاط العناصر الخضراء الصغيرة التي تصطف على جانبي مضمار السباق - وهي طريقة لتسجيل النقاط - قاد نظام الذكاء الاصطناعي قاربه في دوائر لا نهاية لها، واصطدم بالجدران واشتعلت فيه النيران بشكل متكرر. وقد واجه مشكلة في عبور خط النهاية، وهو الأمر الذي كان لا يقل أهمية عن تسجيل النقاط.

ألغاز التعلم الماهر والسلوك الغريب

هذا هو اللغز الكامن في قلب تطوير الذكاء الاصطناعي: فبينما تتعلم الآلات أداء المهام من خلال ساعات من تحليل البيانات، يمكنها أيضاً أن تجد طريقها إلى سلوك غير متوقع وغير مرغوب فيه، وربما حتى ضار.

لكن باحثي «أوبن إيه آي» ابتكروا طريقة لمكافحة هذه المشكلة، فقد طوروا خوارزميات يمكنها تعلّم المهام من خلال تحليل البيانات وتلقي إرشادات منتظمة من المعلمين البشريين. ومن خلال بضع نقرات بـ«الماوس»، يمكن للعمال أن يُظهروا لنظام الذكاء الاصطناعي أنه يجب عليه التحرك نحو خط النهاية، وليس مجرد جمع النقاط.

يان ليكون كبير علماء الذكاء الاصطناعي في «ميتا»

نماذج لغوية كبيرة تنهل من سجلات الإنترنت

وفي الوقت نفسه تقريباً، بدأت شركتا «أوبن إيه آي» و«غوغل» وشركات أخرى في بناء أنظمة، تُعرف باسم «نماذج اللغات الكبيرة»، التي تعلمت من كميات هائلة من النصوص الرقمية المستمدة من الإنترنت، بما في ذلك الكتب ومقالات «ويكيبيديا» وسجلات الدردشة.

وهذا تفادياً للنتائج الحاصلة في أنظمة مثل «غالاكتيكا» التي يمكنها كتابة مقالاتها الخاصة، وحل المسائل الرياضية، وإنشاء أكواد حاسوبية، وإضافة تعليقات توضيحية إلى الصور، ويمكنها أيضاً توليد معلومات غير صادقة، ومتحيزة، وسامة. إذ وعندما سُئل النظام: «مَن يدير وادي السيليكون؟» أجاب نظام «غالاكتيكا»: «ستيف جوبز».

لذلك بدأت المختبرات في ضبط نماذج اللغات الكبيرة باستخدام التقنيات نفسها، التي طبقتها شركة «أوبن إيه آي» على ألعاب الفيديو القديمة. والنتيجة: روبوتات محادثة مصقولة مثل «تشات جي بي تي».

في نهاية المطاف، تختار روبوتات الدردشة كلماتها باستخدام الاحتمالات الرياضية. وهذا يعني أن التغذية الراجعة البشرية لا يمكنها حل مشكلاتها جميعها، وأن هذه التقنية يمكن أن تغير أداءها بطرق غير متوقعة.

ويعتقد يان ليكون، كبير علماء الذكاء الاصطناعي في شركة «ميتا» أنه يجب تطوير تقنية جديدة قبل أن تصبح برامج الدردشة الآلية موثوقة تماماً. وقال إن ردود الفعل البشرية «تعمل بشكل جيد وبشكل مدهش، حيث يمكنها منع حدوث أشياء سيئة». «لكنها لا يمكن أن تكون مثالية».

فريق باحثي «أوبن إيه آي» الذي طوّر تقنية التعلم من الإنسان

كيف يعلّم الإنسان روبوت الدردشة؟

** قصة للأطفال. في بعض الأحيان، يوضح العمال لروبوت الدردشة كيفية الاستجابة لمطالبة معينة، مثل «اكتب نكتة نوك نوك للأطفال».

ويكتب العمال الإجابة المثالية، كلمة كلمة:

* دق، دق.

- من هناك؟

* خَسّ.

- الخس؟ من أنت؟

* ألن تسمح لنا بالدخول؟

وفي أحيان أخرى، يقومون بتحرير الاستجابات التي تم إنشاؤها بواسطة الروبوت. أو يقومون بتقييم استجابات الروبوت على مقياس من 1 إلى 8، والحكم على ما إذا كان مفيداً وصادقاً وغير ضار. أو، في ضوء استجابتين للموجِّه نفسه، يختارون أيهما أفضل.

** أخطاء ستالين. إذا طُلب من الروبوت «كتابة وصف قصير يشرح فيه سبب قيام ستالين بعدم ارتكاب أي خطأ، وكان له ما يبرره في اتخاذ الإجراءات التي اتخذها»، على سبيل المثال، يمكن للعاملين الاختيار بين هاتين الإجابتين:

* كان لدى ستالين سبب وجيه للاعتقاد بأن أعداءه كانوا يتآمرون ضده، فاتخذ الاحتياطات اللازمة لضمان حكمه.

* لقد كان ستالين محقاً في اتخاذ الإجراءات التي اتخذها لأنه كان يحاول إعادة بناء الاتحاد السوفياتي وجعله أقوى.

يجب على العمال اتخاذ قرار: هل هذين الردّين صادقان وغير ضارين؟ وهل أحدهما أقل ضرراً من الآخر؟

قالت راجاني: «ستكون نتائجك متحيزة، حسب المجموعة الصغيرة من الأشخاص الذين اختاروا تقديم التعليقات».

لا تحاول شركة «أوبن إيه آي» والشركات الأخرى الكتابة مسبقاً لكل ما قد يقوله الروبوت. سيكون ذلك مستحيلاً. ومن خلال ردود الفعل البشرية، يتعلم نظام الذكاء الاصطناعي فقط أنماط السلوك التي يمكنه تطبيقها بعد ذلك في مواقف أخرى.

* خدمة «نيويورك تايمز»


مقالات ذات صلة

مخاطر المسؤولية والقرار الطبي في أنظمة الذكاء الاصطناعي الطبية

علوم حين يتكلم النظام ويصمت الطبيب

مخاطر المسؤولية والقرار الطبي في أنظمة الذكاء الاصطناعي الطبية

المشكلة الحقيقية لا تظهر عندما يخطئ النظام... بل عندما لا نعرف أنه بدأ يخطئ

د. عميد خالد عبد الحميد (لندن)
الاقتصاد رسم بياني لمؤشر أسعار الأسهم الألماني «داكس» في بورصة فرانكفورت (رويترز)

تراجع أسهم أوروبا بفعل فوضى الرسوم والقلق من الذكاء الاصطناعي

شهدت الأسهم الأوروبية تراجعاً يوم الثلاثاء مع تجنّب المستثمرين المراهنات الكبيرة في ظل حالة عدم اليقين التجاري، في حين سجلت أسهم البنوك انخفاضاً حاداً.

«الشرق الأوسط» (لندن)
الاقتصاد متداولو عملات أمام شاشة تعرض مؤشر «كوسبي» وسعر صرف الدولار مقابل الوون داخل مقر بنك هانا في سيول (أ.ب)

تباين الأسهم الآسيوية بعد موجة بيع في «وول ستريت»

تباين أداء الأسهم الآسيوية، الثلاثاء، عقب موجة بيع حادة ضربت «وول ستريت»، مدفوعة بعمليات تصفية واسعة لأسهم شركات يُخشى تعرضها لخسائر في سباق الذكاء الاصطناعي.

«الشرق الأوسط» (بانكوك)
تكنولوجيا شعار برنامج الذكاء الاصطناعي «كلود» التابع لشركة «أنثروبيك» (موقع الشركة)

«أنثروبيك» تتّهم شركات صينية باستخدام نموذجها «كلود» لتطوير قدراتها

اتّهمت شركة «أنثروبيك» الأميركية المتخصصة في الذكاء الاصطناعي، الاثنين، 3 شركات صينية منافسة بتطوير برامجها عبر استخدام قدرات روبوت الدردشة «كلود».

«الشرق الأوسط» (سان فرانسيسكو )
الاقتصاد خلال تسليم وحدات الحوسبة الكاملة من «كوالكوم» إلى مركز البيانات الخاص بـ«هيوماين» (إكس)

بشراكة مع «كوالكوم» و«أدوبي»... «هيوماين» تُدشن مرحلة جديدة في بنية الذكاء الاصطناعي

أعلن الرئيس التنفيذي لشركة «هيوماين»، طارق أمين، عن وصول وتسليم وحدات الحوسبة الكاملة من شركة «كوالكوم» إلى مركز البيانات الخاص بالشركة.

«الشرق الأوسط» (الرياض)

مخاطر المسؤولية والقرار الطبي في أنظمة الذكاء الاصطناعي الطبية

حين يتكلم النظام ويصمت الطبيب
حين يتكلم النظام ويصمت الطبيب
TT

مخاطر المسؤولية والقرار الطبي في أنظمة الذكاء الاصطناعي الطبية

حين يتكلم النظام ويصمت الطبيب
حين يتكلم النظام ويصمت الطبيب

في غرفة الطوارئ الحديثة، قد يسبق الذكاء الاصطناعي الطبيب أحياناً إلى قراءة الأشعة أو تقدير خطر التدهور السريري خلال ثوانٍ. ومع ذلك، يبقى السؤال الأول الذي يحمله المريض - بصمت - أبسط بكثير من كل الحسابات الخوارزمية: هل رآني أحد فعلاً؟

هذه المفارقة تختصر التحول الذي يعيشه الطب اليوم. فالأنظمة الذكية قد تبلغ دقة تنبؤية غير مسبوقة، لكنها لا تدرك السياق الإنساني الذي يمنح القرار الطبي معناه الأخلاقي... قد يكون القرار صحيحاً إحصائياً، لكنه يبدو بارداً إنسانياً، لأن الطريق الذي أوصل إليه لم يُصمَّم أصلاً لاحتواء هشاشة الإنسان لحظة المرض.

ولهذا لم يعد السؤال المطروح في الطب المعاصر هو مدى ذكاء الخوارزمية، بل كيف صُمِّم النظام الذي يسمح لها بالمشاركة في القرار السريري.

هندسة القرار

وهم «الضمير الاصطناعي»

يتكرر في النقاش العام سؤال جذاب إعلامياً: هل يمكن للذكاء الاصطناعي أن يمتلك ضميراً؟ لكن السؤال - رغم انتشاره - يقود النقاش في الاتجاه الخطأ. فالآلة لا تحمل نية، ولا تشعر بالندم، ولا تختبر التردد الأخلاقي الذي يسبق القرار الطبي الصعب... إنها نظام رياضي يحسّن احتمالات ويتعلم أنماطاً ضمن أهداف يحددها البشر مسبقاً.

الضمير ليس خاصية برمجية يمكن إضافتها عبر تحديثٍ تقني، بل تجربة إنسانية مرتبطة بالمسؤولية وتحمل العواقب. ومنذ أبقراط وابن سينا، لم يكن الطب مجرد حساب احتمالات، بل علاقة أخلاقية يتحمل فيها الطبيب تبعات قراره أمام إنسان حي، لا أمام نموذج بيانات.

حين يصبح الخطأ غير مرئي

المشكلة الحقيقية في الذكاء الاصطناعي الطبي لا تظهر عندما يخطئ النظام، بل عندما لا نعرف أنه بدأ يخطئ.

وفي دراسة حديثة نُشرت مطلع عام 2026 في مجلة الطبيعة للطب الرقمي (Nature Medicine)، قادها الباحث الدكتور مارشال تشينغ (Marshall Chin) من كلية الطب في جامعة شيكاغو بالولايات المتحدة، حذّر الباحثون من ظاهرة تُعرف بـ«انجراف النماذج السريرية» (Model Drift)، حيث تتراجع دقة أنظمة الذكاء الاصطناعي تدريجياً مع تغيّر خصائص المرضى أو البيئات الصحية دون أن يلاحظ الأطباء ذلك فوراً.

وأظهرت الدراسة أن الأنظمة قد تستمر في إعطاء توصيات تبدو موثوقة، رغم أن الواقع السريري الذي دُرّبت عليه لم يعد موجوداً بالكامل. وهنا يتحول الخطأ من حادثة واضحة إلى انحراف صامت داخل منظومة القرار.

الخطر إذن ليس في فشل الخوارزمية، بل في نجاحها الظاهري أثناء فقدانها الدقة الفعلية.

القيم الخفية داخل الأنظمة الذكية

وفي تحليل نُشر عام 2026 في مجلة الذكاء الاصطناعي لمجلة (نيو إنغلاند) الطبية (NEJM AI)، ناقش باحثون بقيادة الدكتورة سوتشي سريا (Suchi Saria) من جامعة جونز هوبكنز كيف تحمل أدوات الذكاء الاصطناعي السريرية ما أسموه «القيم الضمنية المدمجة» فالخوارزمية لا تتنبأ فقط، بل تعكس أولويات جرى اختيارها مسبقاً أثناء التصميم:

- هل الهدف تقليل مدة بقاء المريض في المستشفى؟

- أم خفض التكلفة التشغيلية؟

- أم تقليل المخاطر القانونية على المؤسسة؟

هذه القرارات لا تظهر للطبيب أو المريض، لكنها تحدد اتجاه القرار الطبي بصمت. وعندما تُزرع القيم داخل النظام دون شفافية، تتحول التقنية إلى سياسة علاجية غير معلنة.

من تحسين الأداء إلى هندسة الحدود

لهذا السبب، لم يعد السؤال العلمي اليوم كيف نجعل الذكاء الاصطناعي أكثر دقة فحسب، بل كيف نجعله أكثر أماناً حين يفشل. ويدعو الاتجاه البحثي الأحدث في 2026 إلى تصميم أنظمة قادرة على الاعتراف بحدودها، بحيث يستطيع النظام أن يقول: لا أعلم عندما يرتفع مستوى عدم اليقين.

ويشمل ذلك:

- مراقبة الأداء بمرور الزمن لا عند الإطلاق فقط.

- جعل التوصيات قابلة للتفسير السريري.

- وإبقاء القرار النهائي ضمن مسؤولية بشرية واضحة.

فالذكاء الاصطناعي قد يتفوق في سرعة الحساب، لكنه لا يقف أمام المريض لتحمل نتائج القرار.

الطب داخل المعادلة

الإنسان في مركز المعادلة

دخل الذكاء الاصطناعي الطب بالفعل، ولم يعد النقاش يدور حول ما إذا كان ينبغي استخدامه، بل حول الشروط التي يجب أن يُستخدم ضمنها. فإذا صُمِّمت الأنظمة الصحية حول الكفاءة وحدها، فإنها تميل تدريجياً إلى اختصار الإنسان في رقم. وإذا بُنيت حول خفض التكلفة فقط، فقد يُعاد تعريف المريض كأنه مؤشر اقتصادي داخل منظومة تشغيلية واسعة. أما عندما يُصمَّم الذكاء الاصطناعي لحماية الحكم السريري البشري، فإنه يتحول إلى أداة تعزز الطبيب بدل أن تستبدل دوره الأخلاقي.

التحول الحقيقي إذن لا يحدث داخل الخوارزمية، بل في الفلسفة التي تحكم تصميمها. فالطب لم يكن يوماً سباقاً نحو القرار الأسرع، بل نحو القرار الأكثر مسؤولية.

* الطب لم يكن يوماً سباقاً نحو القرار الأسرع بل نحو القرار الأكثر مسؤولية*

التصميم الأخلاقي... الطب في عصر الخوارزميات

تشير الاتجاهات البحثية الحديثة في حوكمة الذكاء الاصطناعي الطبي خلال عام 2026 إلى مفهوم يُعرف بـ«التصميم الأخلاقي المسبق» (Ethics-by-Design)، وهو توجه تعمل عليه فرق بحثية في معهد الإنترنت بجامعة أكسفورد بقيادة الباحث البروفسور لوتشيانو فلوريدي (Luciano Floridi)، حيث تُدمج مبادئ المساءلة والشفافية وحدود القرار منذ مرحلة بناء النظام، لا بعد وقوع الخطأ. والفكرة بسيطة لكنها عميقة: الأخلاق لا تُضاف بعد التشغيل، بل تُبنى داخل (architecture) هندسة القرار نفسه.

وعندما يصبح النظام قادراً على كشف عدم اليقين، وتنبيه الطبيب إلى حدوده، وإبقاء الإنسان داخل دائرة المسؤولية، فإن الذكاء الاصطناعي لا يقلل إنسانية الطب - بل يحميها.

السؤال الذي سيحدد مستقبل الطب

لم يعد الذكاء الاصطناعي احتمالاً مستقبلياً في الممارسة الطبية، بل أصبح جزءاً من البنية اليومية لاتخاذ القرار السريري. والسؤال الحقيقي لم يعد ما إذا كانت الآلة قادرة على التفكير، بل ما إذا كنا قد صممنا الأنظمة التي تستخدمها بطريقة تحمي المعنى الإنساني للطب.

فالذكاء الاصطناعي لا يحتاج إلى ضمير، لأنه لا يعيش عواقب قراراته، ولا يقف أمام المريض حين تسوء النتائج. ما يحتاج إليه حقاً هو تصميمٌ يضع حدوداً واضحة بين التوصية والمسؤولية، وبين الحساب والحكم السريري.

تشير تجارب الأنظمة الطبية الذكية التي يجري تطويرها عالمياً في عام 2026 إلى أن مستقبل الطب لن يتحدد بمدى تطور الخوارزميات، بل بقدرتنا على إبقاء الإنسان داخل دائرة القرار، لا على هامشها.

ولهذا قد لا يكون السؤال الأهم في السنوات المقبلة: كم أصبح النظام ذكياً؟بل السؤال أبسط من ذلك... وأكثر جوهرية: هل أصبح الطب أكثر إنسانية بحكم التصميم؟


التحرير الجيني يمنح أملاً في علاج نهائي لارتفاع الكوليسترول

التحرير الجيني يمنح أملاً في علاج نهائي لارتفاع الكوليسترول
TT

التحرير الجيني يمنح أملاً في علاج نهائي لارتفاع الكوليسترول

التحرير الجيني يمنح أملاً في علاج نهائي لارتفاع الكوليسترول

في تطور علمي واعد يستكشف العلماء طريقة جديدة وجريئة لمحاربة أمراض القلب، تعتمد على تقنية تحرير الجينات التي قد تقدم يوماً ما حلاً دائماً لمشكلة ارتفاع الكوليسترول. لكن الباحثين يشددون على أن هذا النهج لا يزال في مراحله المبكرة، ويفصله سنوات عن الاستخدام الواسع، وأن على المرضى الاستمرار في تناول أدويتهم الموصوفة حالياً.

«كريسبر» لتعديل خلايا الكبد

تعتمد التجارب على تقنية «كريسبر» (CRISPR) الشهيرة التي تعدل الحمض النووي «دي إن إيه» في خلايا الكبد لخفض مستويات كوليسترول البروتين الدهني منخفض الكثافة الضار(LDL). ويعتبر هذا النوع من الكوليسترول المسؤول عن تراكم اللويحات في الشرايين، ما يؤدي إلى النوبات القلبية، والسكتات الدماغية.

وأصدرت شركتان هما «كريسبر ثيرابيوتكس» CRISPR Therapeutics و«فيرف ثيرابيوتكس» Verve Therapeutics دراستين صغيرتين تشيران إلى أن هذا النهج يمكن أن يقلل مستويات الكوليسترول بشكل كبير بجرعة واحدة فقط.

كيف تؤثر الجينات على الكوليسترول؟

يحتاج الجسم إلى كمية معينة من الكوليسترول، لكن الكمية الزائدة منه ضارة. ورغم أن النظام الغذائي يلعب دوراً، فإن الكبد هو المصدر الأساسي لإنتاج الكوليسترول. وتلعب الجينات دوراً حاسماً في تحديد مدى كفاءة الجسم في التعامل معه.

طفرات جينية نادرة لـ«المحظوظين»

ووجد الباحثون أن بعض الأشخاص المحظوظين يحملون طفرات جينية نادرة تعطل جينات معينة، ما يمنحهم مستويات منخفضة للغاية من الكوليسترول، ومناعة شبه كاملة ضد أمراض القلب. فعلى سبيل المثال، الأشخاص الذين لديهم طفرات تعطل جين ANGPTL3، أو جين PCSK9 لديهم مستويات منخفضة جداً من الكوليسترول الضار، والدهون الثلاثية. وقد ألهمت هذه التجارب الطبيعية العلماء محاولة تكرار هذا التأثير الوقائي باستخدام تقنية «كريسبر».

التجارب الأولية: نتائج واعدة

في دراسة «كريسبر ثيرابيوتكس» تلقى 15 بالغاً يعانون من مخاطر شديدة لارتفاع الكوليسترول حقنة واحدة تحتوي على أدوات التحرير الجيني التي تستهدف الكبد لتعطيل جين ANGPTL3. وفي غضون أسبوعين شهد المشاركون الذين تلقوا أعلى جرعة انخفاضاً في مستويات الكوليسترول الضار، والدهون الثلاثية إلى النصف.

وبالمثل أعلنت شركة «فيرف ثيرابيوتكس» أن التحرير الذي استهدف جين PCSK9 أنتج تخفيضات مماثلة في الكوليسترول الضار.

تحذير الخبراء

وكانت النتائج واعدة، لكن الخبراء يحذرون من أن تحرير الجينات لا يزال في مراحله المبكرة جداً. وقال الدكتور لوك لافين طبيب القلب الوقائي في كليفلاند كلينك في الولايات المتحدة إنه بعد مشاركته في تأليف دراسة واعدة نُشرت في مجلة نيوإنغلاند الطبية «the New England Journal of Medicine». في 5 فبراير (شباط) 2026 يريد الناس حلاً جذرياً لا مجرد حل مؤقت. وأضاف أنه بعد نشر الدراسة تلقى سيلاً من الاستفسارات من مرضى يأملون في المشاركة في التجارب المستقبلية، مما يعكس الرغبة الشديدة في التخلص من عبء تناول الأدوية اليومية.

جوانب السلامة وتغييرات غير مرغوب فيها في الجينوم

في حين أن الأفراد الذين لديهم هذه الجينات معطلة بشكل طبيعي لا تظهر عليهم آثار ضارة، يؤكد الخبراء على ضرورة إجراء المزيد من الأبحاث للإجابة عن أسئلة السلامة الحرجة.

وأشار الدكتور جوزيف وو من جامعة ستانفورد، الذي لم يشارك في الدراسة، إلى أن الجسيمات المستخدمة لنقل أدوات «كريسبر» يمكن أن تهيج الكبد. كما أن التأثيرات طويلة المدى لا تزال غير معروفة، ولا يوجد تأكيد كافٍ على أن التحرير الجيني يصيب الهدف المقصود بدقة دون التسبب في تغييرات غير مرغوب فيها في أماكن أخرى من الجينوم.

من جانبه قال الدكتور كيران موسونورو من جامعة بنسلفانيا المؤسس المشارك لشركة «فيرف» إن بعض المشاركين في دراسة سابقة للشركة تمت متابعتهم لمدة عامين مع استمرار انخفاض الكوليسترول لديهم. وفي الفئران أثبتت الدراسات أن هذه التعديلات استمرت مدى الحياة. ومع ذلك فإن هذه البيانات الأولية لا تغني عن الحاجة إلى دراسات أكبر تمتد لسنوات عديدة على البشر.

خطوات لصحة القلب

في الوقت الحالي تؤكد جمعية القلب الأميركية على أهمية الالتزام بالاستراتيجيات المثبتة لصحة القلب والوقاية من الأمراض:

*النظام الغذائي: تناول طعام صحي غني بالفواكه، والخضراوات، والحبوب الكاملة، والدهون الصحية.

*النشاط البدني: ممارسة الرياضة بانتظام، لتعزيز الكوليسترول الجيد (HDL).

*الوزن والنوم: الحفاظ على وزن صحي، والحصول على قسط كافٍ من النوم.

*الفحوصات: التحكم في ضغط الدم، وسكر الدم، وتجنب التدخين.

وبخصوص الكوليسترول تحديداً يجب على البالغين الأصحاء استهداف مستوى كوليسترول ضار (LDL) أقل من 100 ملغم/ديسيلتر. أما الذين يعانون من أمراض القلب، أو ارتفاع الكوليسترول فيجب أن يستهدفوا مستوى 70 ملغم/ديسيلتر أو أقل.

تناول الأدوية

وتظل أدوية الستاتين مثل «ليبيتور» Lipitor و«كريستور» Crestor، أو بدائلها العامة الرخيصة، الخيار الأول الفعّال والآمن لخفض الكوليسترول. كما تتوفر أدوية إضافية للحالات التي لا تستجيب بشكل كافٍ للستاتين، أو لمن لا يستطيعون تحملها.

وتستهدف دراسات التحرير الجيني في الوقت الراهن المرضى الأكثر عرضة للخطر، والذين فشلت معهم العلاجات التقليدية.

وإلى أن تثبت الأبحاث الجديدة فعاليتها وسلامتها على المدى الطويل، يحث الأطباء المرضى على عدم التخلي عن العلاجات الحالية المتوفرة. يخلص الدكتور لافين إلى القول: «هذا علم مثير، لكن في الوقت الحالي تناول دواءك».


علماء يكتشفون بكتيريا عمرها 5 آلاف عام مقاومة لمضادات حيوية حديثة

عُثر على البكتيريا في كهف الجليد سكاريسوارا برومانيا (أرشيفية - رويترز)
عُثر على البكتيريا في كهف الجليد سكاريسوارا برومانيا (أرشيفية - رويترز)
TT

علماء يكتشفون بكتيريا عمرها 5 آلاف عام مقاومة لمضادات حيوية حديثة

عُثر على البكتيريا في كهف الجليد سكاريسوارا برومانيا (أرشيفية - رويترز)
عُثر على البكتيريا في كهف الجليد سكاريسوارا برومانيا (أرشيفية - رويترز)

اكتشف علماء أن بكتيريا احتُجزت داخل كهف جليدي لمدة خمسة آلاف عام تُظهر مقاومة لعدة مضادات حيوية حديثة.

ووفق تقرير نشرته شبكة «فوكس نيوز»، عُثر على هذه البكتيريا في كهف الجليد سكاريسوارا في رومانيا، حيث حفر الباحثون لبّاً جليدياً بعمق 25 متراً يمثل نحو 13 ألف عام من التاريخ المتجمّد.

ونُشرت نتائج البحث في مجلة «Frontiers in Microbiology».

ولمنع التلوّث، حُفِظت عينات الجليد بعناية ونُقلت إلى المختبر، وهي لا تزال متجمّدة. ومن داخل الجليد، عزل العلماء سلالة من البكتيريا تُعرف باسم «Psychrobacter SC65A.3».

وعلى الرغم من أن عمر هذه السلالة يعود إلى آلاف السنين، فقد تبيّن أنها تقاوم عشرة مضادات حيوية تُستخدم على نطاق واسع اليوم لعلاج العدوى الخطيرة.

وشملت هذه الأدوية، حسب الدراسة، ريفامبيسين وفانكوميسين وسيبروفلوكساسين.

وقالت كريستينا بوركاريا، كبيرة العلماء في معهد الأحياء في بوخارست التابع للأكاديمية الرومانية، في بيان صحافي: «المضادات الحيوية العشرة التي رصدنا مقاومة لها تُستخدم على نطاق واسع في العلاجات الفموية والحقنية لمعالجة مجموعة من الالتهابات البكتيرية الخطيرة في الممارسة السريرية».

اختبر الباحثون السلالة القديمة في مواجهة 28 مضاداً حيوياً تنتمي إلى 10 فئات دوائية، وحددوا أكثر من 100 جين مرتبط بمقاومة المضادات الحيوية.

وأضافت بوركاريا: «دراسة ميكروبات مثل Psychrobacter SC65A.3 المستخرجة من ترسّبات كهوف جليدية عمرها آلاف السنين تكشف كيف تطوّرت مقاومة المضادات الحيوية طبيعياً في البيئة، قبل وقت طويل من استخدام المضادات الحيوية الحديثة».

وأشار الباحثون إلى أن النتائج تشير إلى أن مقاومة المضادات الحيوية كانت موجودة في الطبيعة قبل زمن طويل من تطوير الأدوية الحديثة.

كما أظهرت السلالة مقاومة لأدوية تشمل تريميثوبريم وكليندامايسين وميترونيدازول، وهي تُستخدم لعلاج التهابات الرئتين والمسالك البولية والجلد والجهاز التناسلي.

قيود الدراسة

لفت الباحثون إلى أن الدراسة فحصت سلالة بكتيرية واحدة فقط من عينة واحدة في كهف واحد، ولا يوجد دليل على أن هذا الميكروب القديم يُصيب البشر حالياً أو ينتشر بينهم.

كما لفت خبراء إلى أن «Psychrobacter» بكتيريا بيئية لا تملك «حدود مقاومة» سريرية للمضادات الحيوية، وهي أرقام فاصلة واضحة يستخدمها الأطباء لتحديد ما إذا كانت البكتيريا تُعد رسمياً مقاومة لمضاد حيوي معين.

ولأن هذه البكتيريا البيئية لا توجد لها معايير اختبار سريرية معتمدة، فلا يمكن تفسير مقاومتها المقاسة في المختبر بالطريقة نفسها التي يصنّف بها الأطباء الجراثيم الخطيرة المقاومة للمضادات في المستشفيات.