«التوأم الرقمي» سيغدو في متناول أي إنسان قريباً

بيانات شخصية كافية ستتيح بناءه

«التوأم الرقمي» سيغدو في متناول أي إنسان قريباً
TT

«التوأم الرقمي» سيغدو في متناول أي إنسان قريباً

«التوأم الرقمي» سيغدو في متناول أي إنسان قريباً

بعد كتابتي أكثر من مقال يومياً على مدار 23 عاماً مضت، جمعتُ نصاً ضخماً بما يكفي لتدريب نموذج ذكاء اصطناعي قادر على الكتابة مثلي شخصياً، بشكل مقنع. ومع تكنولوجيا اليوم، لن يكون من الصعب بناء نظام قادر على توليد آراء تبدو كما لو أنها صادرة عن إنريكي دانس، أي بناء «أستاذ خوارزمي» يستمر في النشر فترة طويلة بعد رحيلي.

التوأم الرقمي

هذه -على ما تبدو- هي آفاق الإنتاجية القادمة: التوأم الرقمي. وتبني شركات ناشئة مثل «فيفن» (Viven)، وأدوات مثل «سينثيسيا» (Synthesia) «نسخاً من الذكاء الاصطناعي» للموظفين والمديرين التنفيذيين، مدرَّبة على أصواتهم وكتاباتهم وقراراتهم وعاداتهم.

إن الفكرة مغرية. تخيَّل نفسك تُوسِّع نطاق قدراتك بواسطة هذا التوأم الرقمي بلا حدود: الرد على رسائل البريد الإلكتروني، وتسجيل مقاطع الفيديو، وكتابة التحديثات، وما إلى ذلك، بينما تقوم أنت بشيء آخر، أو لا تقوم بشيء على الإطلاق.

الإغراء لا يعني بالضرورة العقلانية

إننا ندخل عالماً مليئاً بالأشباح الرقمية. نحن ندخل عصراً لن يقتصر فيه المحترفون على أتمتة المهام؛ بل سيُقلِّدون شخصياتهم؛ إذ قد تُنشئ شركة نسخة رقمية من أفضل مندوبي المبيعات أو موظفي خدمة العملاء لديها. وقد يُدرِّب الرئيس التنفيذي توأماً افتراضياً للرد على الاستفسارات. وقد تُوظِّف جامعة نسخة ذكاء اصطناعي من مُحاضر مشهور لتقديم دورات على نطاق واسع.

نظرياً، يبدو هذا فعالاً. ولكن عملياً، يُثير نوعاً من الارتباك الوجودي: إذا كانت النسخة مُقنعة بما فيه الكفاية، فماذا يحدث للشخص؟ ماذا يعني أن تكون «منتِجاً» عندما تكون نسختك الرقمية هي من تقوم بالعمل؟

إن الانبهار باستنساخ أنفسنا رقمياً يعكس الإغراء نفسه الذي قاد الأتمتة قروناً: الاستعانة بمصادر خارجية ليس فقط للعمالة؛ بل أيضاً للهوية. الفرق هو أن الذكاء الاصطناعي يستطيع الآن محاكاة صوت تلك الهوية، حرفياً ومجازياً.

كيف سأبدو كخوارزمية؟

يمكنني فعل ذلك بسهولة. لو زودتُ نموذجاً لغوياً ضخماً بملايين الكلمات التي كتبتها منذ عام 2003 (كل مقال، وكل منشور، وكل تعليق) لحصلتُ على محاكاة دقيقة جداً لي. من المرجح أن يكون لديه النبرة والمفردات والإيقاع المناسبين. يمكنه كتابة مقالات معقولة، وربما حتى نشرها بالوتيرة نفسها؛ لكنه سيُخطئ الهدف؛ ذلك لأني لا أكتب لملء جدول زمني أو قاعدة بيانات. أنا أكتب للتفكير أو للتدريس. والكتابة -بالنسبة لي- ليست فعل إنتاج؛ بل هي تأمل. لهذا السبب -كما شرحتُ أخيراً في مقال «لماذا أدع الذكاء الاصطناعي يُساعدني على التفكير، ولكن لا يُفكر نيابة عني أبداً»- لم أدَع الذكاء الاصطناعي يكتب مقالاتي نيابة عني، فهذا غير منطقي؛ إذ إن الطلب من نموذج أن يُفكر نيابة عني سيُبطل السبب الحقيقي الذي يدفعني للكتابة كل صباح.

بالطبع، أستخدم الذكاء الاصطناعي باستمرار: ألخص المصادر، وأتحقق من الحقائق، واستكشف الحجج المضادة، وأجد المراجع. ولكنني لا أدعه يُكمل جملتي أبداً. هذا هو الحد الذي يُبقي عملي ملكي.

وهم تطوير الذات

تنبع وعود الاستنساخ الرقمي من المفهوم الخاطئ نفسه: أن تكرار الإنتاج يساوي تكرار القيمة. وتتحدث الشركات الآن عن «تجميع الخبرة»، أو «تطوير رأس المال البشري» كما لو كانت الشخصية خط إنتاج.

لكن استنساخ الإنتاج يختلف عن توسيع نطاق الكفاءة. فالقيمة المهنية للشخص ليست كلماته أو إيماءاته؛ بل أحكامه المتفردة التي تُبنى بمرور الوقت من خلال السياق وحب الاطلاع. قد يُقلِّد نموذج مُدرَّب على قراراتك السابقة أسلوبك، ولكنه لا يستطيع توقع تطورك. إنه أحفورة، وليس مستقبلاً.

قد يُقلِّد استنساخ الذكاء الاصطناعي أسلوب كتابتي من عام 2025. ولكنني إذا سمحتُ له بالنشر، فسيُجمِّدني في ذلك العام إلى الأبد، قطعة متحفية تُحدَّث يومياً.

من الإنتاجية إلى الحضور

على المديرين التنفيذيين ورواد الأعمال والمبدعين توخي الحذر فيما يتمنون. قد يتولى «التوأم الرقمي» إدارة البريد الوارد أو تسجيل مختصرات الفيديو، ولكنه يُضعف أيضاً ما يجعل للقيادة والإبداع معنى الحضور.

في تغطية فعاليات ملتقى «أكسيوس» لنسخ الرؤساء التنفيذيين، اعترف كثير من المديرين التنفيذيين بأنهم يُحبون نسخهم من الذكاء الاصطناعي؛ لكنهم لا يثقون بها تماماً. تستطيع النسخة التعامل مع التفاعلات المتكررة، ولكنها لا تستطيع التعامل مع التعاطف، أو التوقيت، أو الفروق الدقيقة، وهي الصفات التي تُحدد المصداقية. ويُشبه تفويض هذه الأمور إلى خوارزمية إرسال دمية إلى اجتماع: حاضرة تقنياً، وخالية عاطفياً.

خلود الشركات وأخلاقيات الإرث

هناك أيضاً سؤالٌ حول ما سيحدث عندما يعمِّر توأمك الرقمي أكثر منك. بعض الشركات تُعامل بيانات موظفيها كأصول، فلماذا لا تُعامل نسخها الرقمية بالطريقة نفسها؟

تخيل شركة تُواصل نشر «نسخة الذكاء الاصطناعي» من قائدٍ أو مُعلّمٍ عزيزٍ بعد رحيله. قد يبدو الأمر تكريماً، ولكنه في الحقيقة شكلٌ من أشكال السحر الأسود: استخدام البقايا الفكرية لشخصٍ ما لتخليد علامة تجارية.

ليس من الصعب تخيُّل جامعاتٍ تبيع «أساتذة افتراضيين» أو شركاتٍ تُعيد استخدام رؤسائها التنفيذيين السابقين كصورٍ رمزية دائمة. في ورقة أكاديمية حديثة حول التوائم الرقمية، حذَّر باحثون من أن الحدود بين «التمثيل» و«الامتلاك» أصبحت ضبابية. مَن يملك النسخة المُستنسخة؟ ومَن يستفيد منها؟

عندما نُحاكي الأشخاص ككائنات بيانات، نُخاطر بتحويل الهوية إلى بنية تحتية، إلى شيءٍ يُمكن ترخيصه، أو استثماره، أو إعادة تسميته حسب الرغبة.

الطريقة الصحيحة لاستخدام الذكاء الاصطناعي شخصياً

ومع ذلك، هناك طريقة عقلانية لاستخدام الذكاء الاصطناعي لتوسيع نطاق العمل، كإضافة، لا كتقليد.

إني أستخدم الذكاء الاصطناعي يومياً كشريك تفكير. يقرأ المسودات، ويقترح المصادر، وينتقد منطقي. يشبه الأمر وجود مساعد بحث لا يكَل، لا يغضب أبداً عندما أتجاهل نصائحه. ولكن عملية التفكير، وقرار ما أقوله، وكيف أقوله، تبقى مسؤوليتي.

هذا هو الفرق الجوهري بين استخدام الذكاء الاصطناعي وبين أن نصبح كذلك. عندما نستعين بمصادر خارجية للتفكير، نفقد حلقة التغذية الراجعة التي تجعلنا بشراً: عملية التأمل والمراجعة والنمو المستمرة.

المهنيون الذين يتبنون الذكاء الاصطناعي بمسؤولية سيوسعون نطاق عملهم دون أن يُضعفوا جوهره. أما أولئك الذين لا يفعلون ذلك، فسيجدون في النهاية أن أصواتهم لا يمكن تمييزها عن أصوات آلاتهم.

ما ينبغي للشركات تعلمه من هذا

للشركات التي تُغازل نسخاً من موظفيها أو شخصياتها المُجسَّدة بالذكاء الاصطناعي، إليكم قائمة مرجعية جديرة بالتذكر:

- تحديد الهدف لا التقليد: لا تنشئوا توائم ذكاء اصطناعي لمحاكاة البشر؛ بل لتنشئوا أنظمة تُتيح لهم القيام بأعمال ذات قيمة أعلى.

- الحفاظ على العنصر البشري في دائرة التأليف: يُمكن للذكاء الاصطناعي المساعدة في الصياغة والترميز والتلخيص، ولكن يجب أن يبقى الحكم النهائي بشرياً.

- التعامل مع البيانات كإرث لا كملكية: احترموا استقلالية الموظف والمُبدع. لا ينبغي لأحد أن يُصبح أصلاً رقمياً دائماً دون موافقته.

- التركيز على التوسيع لا الأتمتة: استخدموا الذكاء الاصطناعي لتعزيز الذكاء الجماعي، لا لإلغاء الحاجة إليه.

إن الذكاء الاصطناعي ليس هنا ليحل محل الخبرة البشرية؛ بل لتحدي كيفية تطبيقها.

مفارقة التكرار الذاتي

قريباً، سيتمكن أي شخص لديه بيانات كافية من بناء نسخة رقمية من نفسه. سيعتبرها البعض خلوداً؛ بينما يراها آخرون تكراراً. أراه مرآة، اختباراً لماً هو مهمٌ حقاً في العمل البشري.

عندما يكتب توأمي الرقمي مقالاً جيداً عن الذكاء الاصطناعي، لن أُعجب به. المسألة ليست في قدرته على الكتابة؛ بل في اهتمامه، وفي خدمتي للهدف الذي أسعى لتحقيقه.

وإلى أن تُصبح الخوارزميات قادرة على الاهتمام بالحقيقة، والفروق الدقيقة، وحب الاطلاع والفضول، أو الغاية، سأستمر في فعل ما فعلته على مدار الثلاثة والعشرين عاماً الماضية: الجلوس، والتفكير، والكتابة؛ ليس لأنني مُضطرٌ لذلك؛ بل لأنني ما زلتُ قادراً على ذلك.

* مجلة «فاست كومباني»، خدمات «تريبيون ميديا».


مقالات ذات صلة

مهارات قيادية… لا يمكن للذكاء الاصطناعي أن يحل محلها

علوم مهارات قيادية… لا يمكن للذكاء الاصطناعي أن يحل محلها

مهارات قيادية… لا يمكن للذكاء الاصطناعي أن يحل محلها

يُخاطر القادة بأن يصبحوا مُتفاعلين مع الذكاء الاصطناعي بدلاً من أن يكونوا مسؤولين عن النتائج الإنسانية

«الشرق الأوسط» (واشنطن)
الاقتصاد متداول يعمل في بورصة نيويورك (رويترز)

تعافٍ حذر للعقود الآجلة الأميركية بعد موجة بيع حادة

استعادت العقود الآجلة لمؤشرات الأسهم الأميركية جزءاً من خسائرها صباح الثلاثاء، بعد موجة بيع قوية في الجلسة السابقة.

«الشرق الأوسط» (نيويورك)
الاقتصاد شعار «ميتا بلاتفورمز» أمام شعار «أدفانسد مايكرو ديفايسز» في صورة توضيحية (رويترز)

تحالف الـ 60 ملياراً... «إيه إم دي» تورد رقائقها إلى «ميتا» لـ 5 سنوات

أعلنت شركة «أدفانسد مايكرو ديفايسز» (إيه إم دي)، يوم الثلاثاء، موافقتها على بيع رقائق ذكاء اصطناعي بقيمة تصل إلى 60 مليار دولار لشركة «ميتا بلاتفورمز».

«الشرق الأوسط» (سان فرانسيسكو )
الاقتصاد شريحة ذكية من «إنفيديا» وفي الخلفية شعار شركة «ديب سيك» الصينية (رويترز)

رغم الحظر الأميركي... «ديب سيك» الصينية تستخدم أفضل شريحة من «إنفيديا»

قال مسؤول أميركي كبير إن أحدث نموذج ذكاء اصطناعي لشركة «ديب سيك» الصينية قد تم تدريبه على شريحة «بلاكويل» في خطوة قد تُمثل انتهاكاً لضوابط التصدير الأميركية

«الشرق الأوسط» (واشنطن-بكين)
الاقتصاد ديمون خلال مشاركته في منتدى دافوس (رويترز)

رئيس «جي بي مورغان» يحذر من «فقاعة»: المشهد الحالي يذكرني بما قبل أزمة 2008

أعرب الرئيس التنفيذي لبنك «جي بي مورغان تشيس»، جيمي ديمون، عن قلقه العميق إزاء وضع الاقتصاد الأميركي.


مهارات قيادية… لا يمكن للذكاء الاصطناعي أن يحل محلها

مهارات قيادية… لا يمكن للذكاء الاصطناعي أن يحل محلها
TT

مهارات قيادية… لا يمكن للذكاء الاصطناعي أن يحل محلها

مهارات قيادية… لا يمكن للذكاء الاصطناعي أن يحل محلها

يجلس الرئيس التنفيذي في غرفة اجتماعات، محدقاً في عروض استراتيجية أُعدّت بين عشية وضحاها بواسطة الذكاء الاصطناعي: إنها تقدم التحليل الدقيق، والتوصيات الواثقة، والأرقام المتناسقة... ومع ذلك، ثمة شعورٌ بعدم الارتياح؛ إذ يبدو الأمر مثالياً أكثر من اللازم، كما كتب جيف بيرنغهام (*).

الذكاء الاصطناعي أضحى أقوى أدوات الإدارة

أصبحت هذه اللحظة شائعة بشكل متزايد بين القادة. فالذكاء الاصطناعي اليوم يُعدّ من أقوى أدوات الإدارة على الإطلاق. بإمكانه تحليل الأسواق في ثوانٍ، واكتشاف أنماطٍ يعجز أي فريق بشري عن رصدها، ووضع خططٍ عند الطلب.

وبالنسبة للكثير من المديرين التنفيذيين، بات الذكاء الاصطناعي ضرورياً لا غنى عنه. ولكن مع تزايد انتشاره بوتيرة غير مسبوقة، يبرز سؤالٌ خفيّ داخل المؤسسات: كيف نضمن تركيز الذكاء الاصطناعي على ازدهار الإنسان؟

«الذكاء يتوسع»... والحكمة لا تتوسع

يتفوق الذكاء الاصطناعي في الذكاء. فهو يكتشف الأنماط، ويتنبأ بالنتائج، ويُحسّن الكفاءة. أما ما يفتقر إليه الذكاء الاصطناعي، فهو الحكمة السياقية: القدرة على فهم أهمية القرار (في سياق الأمور)، وكيف سيؤثر عاطفياً وثقافياً، وما الذي يعززه بمرور الوقت.

لم تكن القيادة يوماً تعني امتلاك أكبر قدر من المعلومات، بل لطالما كانت تعني تحديد الأولويات عند تضارب المعلومات.

في بيئة غنية بالذكاء الاصطناعي، حيث يُتداول الذكاء بصفته منتجاً، يواجه القادة إغراءً خفياً لتفويض الحكم إلى جهات خارجية. فعندما تبدو لوحات المعلومات دقيقة والتوصيات موضوعية، قد يجري الخلط بسهولة بين التحسين وبين الحكمة.

لكن الذكاء الاصطناعي لا يستطيع الإجابة عن الأسئلة التي تزداد مسؤولية القادة عنها:

- كيف يؤثر هذا على الأشخاص الأعزاء الذين أعتني بهم؟

- ما القيم التي تحرك هذا القرار؟

- هل يعكس هذا القرار نوع العالم الذي نسعى لبنائه معاً؟

هذه ليست أسئلة حسابية، بل هي أسئلة إنسانية.

الخطر الحقيقي: القيادة المتخلية

يركز جزء كبير من النقاش العام حول مخاطر الذكاء الاصطناعي على التحيز أو سوء الاستخدام. وهذه المخاوف حقيقية. لكن داخل المؤسسات، يبرز خطرٌ خفيّ: إسناد التفكير الذي يؤثر على البشر إلى «الآلة».

عندما يُفرط القادة في الاعتماد على توصيات الذكاء الاصطناعي، فإنهم يفقدون تدريجياً ثقتهم في حكمهم. ويتحول دور القيادة من فهم الأمور إلى مراقبة النظام. ثم تتوقف فِرق العمل عن النقاش، ويتوقف القادة عن تفسير الواقع ويبدأون في التحقق من صحة النتائج.

النتيجة ليست قيادة أفضل، بل قيادة أضعف... إذ ومع مرور الوقت، يظهر هذا في صورة انحراف ثقافي، ونقاط ضعف أخلاقية، وانفصال الموظفين، وفقدان الثقة، خاصةً في أوقات مثل تسريح العمال، أو إعادة الهيكلة، أو التحولات الاستراتيجية الكبرى. عندما يعجز القادة عن شرح أسباب اتخاذ قرار ما بوضوح، يشعر الموظفون بأنهم مُوجَّهون بدلاً من أن يكونوا مُقادين.

القادة الأقوياء

القادة الأقوياء لا يكتفون باتخاذ القرارات، بل يشرحون أهميتها. إنهم يربطون القرارات بمعناها وبالقيم المشتركة. إنهم يساعدون فرق العمل على فهم كيف تتناسب خيارات اليوم مع مسار التحول والتطور البشري الأوسع.

يمكن للذكاء الاصطناعي اقتراح حلول، لكن البشر وحدهم من يستطيعون صياغة المعنى.

لماذا أصبح الوضوح مهارة قيادية أساسية؟

في عالمٍ مُتشبّع بالذكاء الاصطناعي، يُضاعف الوضوح من قوة التأثير... وضوح بشأن الغاية...وضوح بشأن القيم... وضوح بشأن ما لا يجب تحسينه.

أي ببساطة: الوضوح هو تحديد ما ترفض السماح للذكاء الاصطناعي بتحسينه.

سيسعى الذكاء الاصطناعي بكل سرور إلى التحسين من أجل السرعة والكفاءة والتفاعل أو خفض التكاليف. ولن يسأل عما إذا كانت هذه التحسينات تُضعف الثقة أو الإبداع أو المرونة أو التماسك على المدى الطويل. يجب على القادة أن يفعلوا ذلك. لهذا السبب؛ أصبح الوضوح، وليس الكاريزما أو الخبرة التقنية، إحدى أهم القدرات القيادية في العقد المقبل.

رؤية واستبصار

يُتيح الوضوح للقادة:

- وضع حدود لكيفية ومكان استخدام الذكاء الاصطناعي.

- وضع إطار لرؤى الذكاء الاصطناعي ضمن السياق الإنساني.

- تحديد متى يجب أن تُضحّي الكفاءة المطلوبة بالأخلاق.

- حماية الإبداع حيث يُمكن للتحسين أن يُطغى عليه.

ومن دون الوضوح، يُخاطر القادة بأن يصبحوا مُتفاعلين مع الذكاء الاصطناعي بدلاً من أن يكونوا مسؤولين عن النتائج الإنسانية.

كيف يستخدم القادة الفعالون الذكاء الاصطناعي دون الاعتماد عليه؟

الهدف ليس مقاومة الذكاء الاصطناعي، بل توظيفه بالشكل الأمثل في ممارسات القيادة.

وهناك ثلاثة مبادئ تساعد القادة على تحقيق ذلك:

- التعامل مع الذكاء الاصطناعي بصفته مستشاراً، لا سلطة مطلقة.

- استخدام الذكاء الاصطناعي لاستكشاف الخيارات، واختبار الافتراضات، ودراسة السيناريوهات، مع التأكيد على أن القرار النهائي يبقى بيد الإنسان. عملياً، يعني هذا أن يتخذ القادة قراراتهم بكلماتهم الخاصة، لا بالاعتماد على خوارزمية.

- التأني في اللحظات الحاسمة.

عندما تؤثر القرارات على الأفراد، أو الثقافة، أو الهوية (التوظيف، التسريح، تغيير الاستراتيجية، القيم)، توقف. لا تسأل فقط «ماذا تشير إليه البيانات؟»، بل «ماذا يعكس هذا القرار عن هويتنا؟».

الاستثمار في الحكمة... لا مجرد الإلمام بالذكاء الاصطناعي

مهارات الذكاء الاصطناعي مهمة، لكن مهارات الحكمة أهم. فالمنظمات الناجحة يقودها أشخاص مدربون على التفكير الأخلاقي، والمنهجي، والتعبير عن القيم تحت الضغط، لا مجرد تشغيل الأدوات بكفاءة.

المعنى هو ميزة القيادة التي لا يستطيع الذكاء الاصطناعي منافستها.

وفي لحظات عدم اليقين، لا يتطلع الناس إلى القادة للحصول على تنبؤات مثالية، بل يبحثون عن التوجيه.

إنهم يريدون معرفة: ما هو المهم الآن؟ على ماذا يجب أن أركز؟ كيف يرتبط عملي بشيء ذي معنى؟

لا يستطيع الذكاء الاصطناعي توفير هذا التوجيه، بينما تستطيع القيادة ذلك. مع تسارع وتيرة الذكاء الاصطناعي، يصبح المعنى أكثر ندرة وقيمة. القادة الذين يوفرون الوضوح وسط التعقيد، والغاية وسط التسارع لا يبنون ثقافات أفضل فحسب، بل يقودون ابتكاراً أقوى، ومرونة تنظيمية أكبر، وخلق قيمة طويلة الأجل.

كل تحول تكنولوجي يعيد تشكيل القيادة

كل تحول تكنولوجي يُعيد تشكيل القيادة، وهذا التحول الجديد ليس استثناءً.

لكن الحقيقة الأساسية تبقى ثابتة: القيادة لا تتعلق بمعرفة المزيد، بل برؤية أوضح وممارسة الحكمة تحت الضغط.

سيستمر الذكاء الاصطناعي في التطور، وستتوسع قدراته، وستتحسن أدواته. ما يجب أن يتعمق بالتوازي مع ذلك هو قدرة القيادة البشرية على الوضوح، والحكمة، وصنع المعنى؛ لأنّ القادة الأكثر تأثيراً في عالم الذكاء الاصطناعي لن يكونوا أولئك الذين يعتمدون على أذكى الآلات، بل سيكونون أولئك الذين يتذكرون بحكمةٍ معنى الإنسانية أثناء استخدامهم لها.

* مجلة «فاست كومباني»


مخاطر المسؤولية والقرار الطبي في أنظمة الذكاء الاصطناعي الطبية

حين يتكلم النظام ويصمت الطبيب
حين يتكلم النظام ويصمت الطبيب
TT

مخاطر المسؤولية والقرار الطبي في أنظمة الذكاء الاصطناعي الطبية

حين يتكلم النظام ويصمت الطبيب
حين يتكلم النظام ويصمت الطبيب

في غرفة الطوارئ الحديثة، قد يسبق الذكاء الاصطناعي الطبيب أحياناً إلى قراءة الأشعة أو تقدير خطر التدهور السريري خلال ثوانٍ. ومع ذلك، يبقى السؤال الأول الذي يحمله المريض - بصمت - أبسط بكثير من كل الحسابات الخوارزمية: هل رآني أحد فعلاً؟

هذه المفارقة تختصر التحول الذي يعيشه الطب اليوم. فالأنظمة الذكية قد تبلغ دقة تنبؤية غير مسبوقة، لكنها لا تدرك السياق الإنساني الذي يمنح القرار الطبي معناه الأخلاقي... قد يكون القرار صحيحاً إحصائياً، لكنه يبدو بارداً إنسانياً، لأن الطريق الذي أوصل إليه لم يُصمَّم أصلاً لاحتواء هشاشة الإنسان لحظة المرض.

ولهذا لم يعد السؤال المطروح في الطب المعاصر هو مدى ذكاء الخوارزمية، بل كيف صُمِّم النظام الذي يسمح لها بالمشاركة في القرار السريري.

هندسة القرار

وهم «الضمير الاصطناعي»

يتكرر في النقاش العام سؤال جذاب إعلامياً: هل يمكن للذكاء الاصطناعي أن يمتلك ضميراً؟ لكن السؤال - رغم انتشاره - يقود النقاش في الاتجاه الخطأ. فالآلة لا تحمل نية، ولا تشعر بالندم، ولا تختبر التردد الأخلاقي الذي يسبق القرار الطبي الصعب... إنها نظام رياضي يحسّن احتمالات ويتعلم أنماطاً ضمن أهداف يحددها البشر مسبقاً.

الضمير ليس خاصية برمجية يمكن إضافتها عبر تحديثٍ تقني، بل تجربة إنسانية مرتبطة بالمسؤولية وتحمل العواقب. ومنذ أبقراط وابن سينا، لم يكن الطب مجرد حساب احتمالات، بل علاقة أخلاقية يتحمل فيها الطبيب تبعات قراره أمام إنسان حي، لا أمام نموذج بيانات.

حين يصبح الخطأ غير مرئي

المشكلة الحقيقية في الذكاء الاصطناعي الطبي لا تظهر عندما يخطئ النظام، بل عندما لا نعرف أنه بدأ يخطئ.

وفي دراسة حديثة نُشرت مطلع عام 2026 في مجلة الطبيعة للطب الرقمي (Nature Medicine)، قادها الباحث الدكتور مارشال تشينغ (Marshall Chin) من كلية الطب في جامعة شيكاغو بالولايات المتحدة، حذّر الباحثون من ظاهرة تُعرف بـ«انجراف النماذج السريرية» (Model Drift)، حيث تتراجع دقة أنظمة الذكاء الاصطناعي تدريجياً مع تغيّر خصائص المرضى أو البيئات الصحية دون أن يلاحظ الأطباء ذلك فوراً.

وأظهرت الدراسة أن الأنظمة قد تستمر في إعطاء توصيات تبدو موثوقة، رغم أن الواقع السريري الذي دُرّبت عليه لم يعد موجوداً بالكامل. وهنا يتحول الخطأ من حادثة واضحة إلى انحراف صامت داخل منظومة القرار.

الخطر إذن ليس في فشل الخوارزمية، بل في نجاحها الظاهري أثناء فقدانها الدقة الفعلية.

القيم الخفية داخل الأنظمة الذكية

وفي تحليل نُشر عام 2026 في مجلة الذكاء الاصطناعي لمجلة (نيو إنغلاند) الطبية (NEJM AI)، ناقش باحثون بقيادة الدكتورة سوتشي سريا (Suchi Saria) من جامعة جونز هوبكنز كيف تحمل أدوات الذكاء الاصطناعي السريرية ما أسموه «القيم الضمنية المدمجة» فالخوارزمية لا تتنبأ فقط، بل تعكس أولويات جرى اختيارها مسبقاً أثناء التصميم:

- هل الهدف تقليل مدة بقاء المريض في المستشفى؟

- أم خفض التكلفة التشغيلية؟

- أم تقليل المخاطر القانونية على المؤسسة؟

هذه القرارات لا تظهر للطبيب أو المريض، لكنها تحدد اتجاه القرار الطبي بصمت. وعندما تُزرع القيم داخل النظام دون شفافية، تتحول التقنية إلى سياسة علاجية غير معلنة.

من تحسين الأداء إلى هندسة الحدود

لهذا السبب، لم يعد السؤال العلمي اليوم كيف نجعل الذكاء الاصطناعي أكثر دقة فحسب، بل كيف نجعله أكثر أماناً حين يفشل. ويدعو الاتجاه البحثي الأحدث في 2026 إلى تصميم أنظمة قادرة على الاعتراف بحدودها، بحيث يستطيع النظام أن يقول: لا أعلم عندما يرتفع مستوى عدم اليقين.

ويشمل ذلك:

- مراقبة الأداء بمرور الزمن لا عند الإطلاق فقط.

- جعل التوصيات قابلة للتفسير السريري.

- وإبقاء القرار النهائي ضمن مسؤولية بشرية واضحة.

فالذكاء الاصطناعي قد يتفوق في سرعة الحساب، لكنه لا يقف أمام المريض لتحمل نتائج القرار.

الطب داخل المعادلة

الإنسان في مركز المعادلة

دخل الذكاء الاصطناعي الطب بالفعل، ولم يعد النقاش يدور حول ما إذا كان ينبغي استخدامه، بل حول الشروط التي يجب أن يُستخدم ضمنها. فإذا صُمِّمت الأنظمة الصحية حول الكفاءة وحدها، فإنها تميل تدريجياً إلى اختصار الإنسان في رقم. وإذا بُنيت حول خفض التكلفة فقط، فقد يُعاد تعريف المريض كأنه مؤشر اقتصادي داخل منظومة تشغيلية واسعة. أما عندما يُصمَّم الذكاء الاصطناعي لحماية الحكم السريري البشري، فإنه يتحول إلى أداة تعزز الطبيب بدل أن تستبدل دوره الأخلاقي.

التحول الحقيقي إذن لا يحدث داخل الخوارزمية، بل في الفلسفة التي تحكم تصميمها. فالطب لم يكن يوماً سباقاً نحو القرار الأسرع، بل نحو القرار الأكثر مسؤولية.

* الطب لم يكن يوماً سباقاً نحو القرار الأسرع بل نحو القرار الأكثر مسؤولية*

التصميم الأخلاقي... الطب في عصر الخوارزميات

تشير الاتجاهات البحثية الحديثة في حوكمة الذكاء الاصطناعي الطبي خلال عام 2026 إلى مفهوم يُعرف بـ«التصميم الأخلاقي المسبق» (Ethics-by-Design)، وهو توجه تعمل عليه فرق بحثية في معهد الإنترنت بجامعة أكسفورد بقيادة الباحث البروفسور لوتشيانو فلوريدي (Luciano Floridi)، حيث تُدمج مبادئ المساءلة والشفافية وحدود القرار منذ مرحلة بناء النظام، لا بعد وقوع الخطأ. والفكرة بسيطة لكنها عميقة: الأخلاق لا تُضاف بعد التشغيل، بل تُبنى داخل (architecture) هندسة القرار نفسه.

وعندما يصبح النظام قادراً على كشف عدم اليقين، وتنبيه الطبيب إلى حدوده، وإبقاء الإنسان داخل دائرة المسؤولية، فإن الذكاء الاصطناعي لا يقلل إنسانية الطب - بل يحميها.

السؤال الذي سيحدد مستقبل الطب

لم يعد الذكاء الاصطناعي احتمالاً مستقبلياً في الممارسة الطبية، بل أصبح جزءاً من البنية اليومية لاتخاذ القرار السريري. والسؤال الحقيقي لم يعد ما إذا كانت الآلة قادرة على التفكير، بل ما إذا كنا قد صممنا الأنظمة التي تستخدمها بطريقة تحمي المعنى الإنساني للطب.

فالذكاء الاصطناعي لا يحتاج إلى ضمير، لأنه لا يعيش عواقب قراراته، ولا يقف أمام المريض حين تسوء النتائج. ما يحتاج إليه حقاً هو تصميمٌ يضع حدوداً واضحة بين التوصية والمسؤولية، وبين الحساب والحكم السريري.

تشير تجارب الأنظمة الطبية الذكية التي يجري تطويرها عالمياً في عام 2026 إلى أن مستقبل الطب لن يتحدد بمدى تطور الخوارزميات، بل بقدرتنا على إبقاء الإنسان داخل دائرة القرار، لا على هامشها.

ولهذا قد لا يكون السؤال الأهم في السنوات المقبلة: كم أصبح النظام ذكياً؟بل السؤال أبسط من ذلك... وأكثر جوهرية: هل أصبح الطب أكثر إنسانية بحكم التصميم؟


التحرير الجيني يمنح أملاً في علاج نهائي لارتفاع الكوليسترول

التحرير الجيني يمنح أملاً في علاج نهائي لارتفاع الكوليسترول
TT

التحرير الجيني يمنح أملاً في علاج نهائي لارتفاع الكوليسترول

التحرير الجيني يمنح أملاً في علاج نهائي لارتفاع الكوليسترول

في تطور علمي واعد يستكشف العلماء طريقة جديدة وجريئة لمحاربة أمراض القلب، تعتمد على تقنية تحرير الجينات التي قد تقدم يوماً ما حلاً دائماً لمشكلة ارتفاع الكوليسترول. لكن الباحثين يشددون على أن هذا النهج لا يزال في مراحله المبكرة، ويفصله سنوات عن الاستخدام الواسع، وأن على المرضى الاستمرار في تناول أدويتهم الموصوفة حالياً.

«كريسبر» لتعديل خلايا الكبد

تعتمد التجارب على تقنية «كريسبر» (CRISPR) الشهيرة التي تعدل الحمض النووي «دي إن إيه» في خلايا الكبد لخفض مستويات كوليسترول البروتين الدهني منخفض الكثافة الضار(LDL). ويعتبر هذا النوع من الكوليسترول المسؤول عن تراكم اللويحات في الشرايين، ما يؤدي إلى النوبات القلبية، والسكتات الدماغية.

وأصدرت شركتان هما «كريسبر ثيرابيوتكس» CRISPR Therapeutics و«فيرف ثيرابيوتكس» Verve Therapeutics دراستين صغيرتين تشيران إلى أن هذا النهج يمكن أن يقلل مستويات الكوليسترول بشكل كبير بجرعة واحدة فقط.

كيف تؤثر الجينات على الكوليسترول؟

يحتاج الجسم إلى كمية معينة من الكوليسترول، لكن الكمية الزائدة منه ضارة. ورغم أن النظام الغذائي يلعب دوراً، فإن الكبد هو المصدر الأساسي لإنتاج الكوليسترول. وتلعب الجينات دوراً حاسماً في تحديد مدى كفاءة الجسم في التعامل معه.

طفرات جينية نادرة لـ«المحظوظين»

ووجد الباحثون أن بعض الأشخاص المحظوظين يحملون طفرات جينية نادرة تعطل جينات معينة، ما يمنحهم مستويات منخفضة للغاية من الكوليسترول، ومناعة شبه كاملة ضد أمراض القلب. فعلى سبيل المثال، الأشخاص الذين لديهم طفرات تعطل جين ANGPTL3، أو جين PCSK9 لديهم مستويات منخفضة جداً من الكوليسترول الضار، والدهون الثلاثية. وقد ألهمت هذه التجارب الطبيعية العلماء محاولة تكرار هذا التأثير الوقائي باستخدام تقنية «كريسبر».

التجارب الأولية: نتائج واعدة

في دراسة «كريسبر ثيرابيوتكس» تلقى 15 بالغاً يعانون من مخاطر شديدة لارتفاع الكوليسترول حقنة واحدة تحتوي على أدوات التحرير الجيني التي تستهدف الكبد لتعطيل جين ANGPTL3. وفي غضون أسبوعين شهد المشاركون الذين تلقوا أعلى جرعة انخفاضاً في مستويات الكوليسترول الضار، والدهون الثلاثية إلى النصف.

وبالمثل أعلنت شركة «فيرف ثيرابيوتكس» أن التحرير الذي استهدف جين PCSK9 أنتج تخفيضات مماثلة في الكوليسترول الضار.

تحذير الخبراء

وكانت النتائج واعدة، لكن الخبراء يحذرون من أن تحرير الجينات لا يزال في مراحله المبكرة جداً. وقال الدكتور لوك لافين طبيب القلب الوقائي في كليفلاند كلينك في الولايات المتحدة إنه بعد مشاركته في تأليف دراسة واعدة نُشرت في مجلة نيوإنغلاند الطبية «the New England Journal of Medicine». في 5 فبراير (شباط) 2026 يريد الناس حلاً جذرياً لا مجرد حل مؤقت. وأضاف أنه بعد نشر الدراسة تلقى سيلاً من الاستفسارات من مرضى يأملون في المشاركة في التجارب المستقبلية، مما يعكس الرغبة الشديدة في التخلص من عبء تناول الأدوية اليومية.

جوانب السلامة وتغييرات غير مرغوب فيها في الجينوم

في حين أن الأفراد الذين لديهم هذه الجينات معطلة بشكل طبيعي لا تظهر عليهم آثار ضارة، يؤكد الخبراء على ضرورة إجراء المزيد من الأبحاث للإجابة عن أسئلة السلامة الحرجة.

وأشار الدكتور جوزيف وو من جامعة ستانفورد، الذي لم يشارك في الدراسة، إلى أن الجسيمات المستخدمة لنقل أدوات «كريسبر» يمكن أن تهيج الكبد. كما أن التأثيرات طويلة المدى لا تزال غير معروفة، ولا يوجد تأكيد كافٍ على أن التحرير الجيني يصيب الهدف المقصود بدقة دون التسبب في تغييرات غير مرغوب فيها في أماكن أخرى من الجينوم.

من جانبه قال الدكتور كيران موسونورو من جامعة بنسلفانيا المؤسس المشارك لشركة «فيرف» إن بعض المشاركين في دراسة سابقة للشركة تمت متابعتهم لمدة عامين مع استمرار انخفاض الكوليسترول لديهم. وفي الفئران أثبتت الدراسات أن هذه التعديلات استمرت مدى الحياة. ومع ذلك فإن هذه البيانات الأولية لا تغني عن الحاجة إلى دراسات أكبر تمتد لسنوات عديدة على البشر.

خطوات لصحة القلب

في الوقت الحالي تؤكد جمعية القلب الأميركية على أهمية الالتزام بالاستراتيجيات المثبتة لصحة القلب والوقاية من الأمراض:

*النظام الغذائي: تناول طعام صحي غني بالفواكه، والخضراوات، والحبوب الكاملة، والدهون الصحية.

*النشاط البدني: ممارسة الرياضة بانتظام، لتعزيز الكوليسترول الجيد (HDL).

*الوزن والنوم: الحفاظ على وزن صحي، والحصول على قسط كافٍ من النوم.

*الفحوصات: التحكم في ضغط الدم، وسكر الدم، وتجنب التدخين.

وبخصوص الكوليسترول تحديداً يجب على البالغين الأصحاء استهداف مستوى كوليسترول ضار (LDL) أقل من 100 ملغم/ديسيلتر. أما الذين يعانون من أمراض القلب، أو ارتفاع الكوليسترول فيجب أن يستهدفوا مستوى 70 ملغم/ديسيلتر أو أقل.

تناول الأدوية

وتظل أدوية الستاتين مثل «ليبيتور» Lipitor و«كريستور» Crestor، أو بدائلها العامة الرخيصة، الخيار الأول الفعّال والآمن لخفض الكوليسترول. كما تتوفر أدوية إضافية للحالات التي لا تستجيب بشكل كافٍ للستاتين، أو لمن لا يستطيعون تحملها.

وتستهدف دراسات التحرير الجيني في الوقت الراهن المرضى الأكثر عرضة للخطر، والذين فشلت معهم العلاجات التقليدية.

وإلى أن تثبت الأبحاث الجديدة فعاليتها وسلامتها على المدى الطويل، يحث الأطباء المرضى على عدم التخلي عن العلاجات الحالية المتوفرة. يخلص الدكتور لافين إلى القول: «هذا علم مثير، لكن في الوقت الحالي تناول دواءك».