الذكاء الاصطناعي لا يحل محل البشر... بل يعيد تشكيل «أحكامهم العقلية»

تبنّيه الواسع يعتمد على استعداد الإنسان للوثوق بمخرجاته دون التحقق منها

الذكاء الاصطناعي لا يحل محل البشر... بل يعيد تشكيل «أحكامهم العقلية»
TT

الذكاء الاصطناعي لا يحل محل البشر... بل يعيد تشكيل «أحكامهم العقلية»

الذكاء الاصطناعي لا يحل محل البشر... بل يعيد تشكيل «أحكامهم العقلية»

لا يُلغي الذكاء الاصطناعي العمل البشري، بل يُغير طبيعة الحكم العقلي للعاملين؛ إذ إنه يبعد العاملين من جهة عن المهام الروتينية، لكنه يوجه العمل نحو مجالات دقيقة تتسم بالغموض، تكون فيها الأخطاء مكلفة، والثقة أساسية... لذا تظل الحاجة إلى وجود «حكم عقلي» حول النتائج، كما كتب يواف زيف(*).

يُفسر هذا التحول الفجوة المتزايدة في النقاش الدائر حول الذكاء الاصطناعي. فمن جهة، تتحسن النماذج بوتيرة مذهلة، ومن جهة أخرى، تتعثر العديد من تطبيقات الذكاء الاصطناعي الطموحة، أو تتوسع بوتيرة أبطأ من المتوقع، أو تعود بهدوء إلى أساليب العمل الهجينة.

مشكلة الثقة بالأدوات الذكية

إن المشكلة ليست في القدرة، بل في الثقة. فهناك فجوة الثقة التي تتجاهلها معظم استراتيجيات الذكاء الاصطناعي.

لا يتوقف تبني الذكاء الاصطناعي على قدرة النظام الذكي على أداء مهمة ما، بل على استعداد البشر للاعتماد على مخرجاته دون التحقق منها. هذه الفجوة بين الأداء والاعتماد، فجوة الثقة، هي ما يُحدد في نهاية المطاف أين يحل الذكاء الاصطناعي محل العمل، وأين يُعززه، وأين يبقى البشر لا غنى عنهم.

الغموض والمخاطر

وهناك عاملان يُشكلان هذه الفجوة أكثر من أي شيء آخر: الغموض والمخاطر.

يشير الغموض إلى مدى الحاجة إلى التفسير أو السياق أو التقدير في مهمة ما. أما المخاطر فتشير إلى ما يحدث في حال أخطأ النظام: مالياً، أو قانونياً، أو على مستوى السمعة، أو أخلاقياً.

عندما يكون الغموض والمخاطر منخفضين، يزدهر التشغيل الآلي. أما عندما يكون كلاهما مرتفعاً، فلا بد من بقاء العنصر البشري حاضراً بقوة. تقع معظم الأعمال في العالم الحقيقي في مكان ما بين هذين النقيضين، وهنا يُعاد تشكيل مستقبل العمل.

طريقة بسيطة لفهم مكانة الذكاء الاصطناعي

فكّر في العمل من خلال محورين: مدى الغموض، ومدى تكلفة الأخطاء.

* المهام ذات الغموض المنخفض والمخاطر المنخفضة، مثل التصنيف الأساسي، والوسم البسيط، والتوجيه الروتيني، ستُصبح مؤتمتة بالكامل بسرعة. هنا يحل الذكاء الاصطناعي محل العمل البشري بهدوء، غالباً دون جدل يُذكر.

* المهام ذات الغموض المنخفض والمخاطر العالية، مثل فحوصات الامتثال (للقواعد المرعية) أو التحقق من الهوية، تُؤتمت عادةً ولكن تخضع لمراقبة دقيقة. وهنا يقوم العنصر البشري بالتحقق والتدقيق والتدخل عند وجود أي خلل.

* الأعمال ذات الغموض العالي والمخاطر المنخفضة: مثل التصنيف الإبداعي، وتحليل المشاعر، والبحوث الاستكشافية، التي غالباً ما تستخدم الذكاء الاصطناعي مساعداً، تحتاج إلى إشراف بشري محدود.

* الغموض العالي والمخاطر العالية. وهذا هو الأهم، إذ إن هذه هي المهام التي يصعب فيها كسب الثقة: حالات الاحتيال الشاذة، والرقابة الحساسة لقواعد السلامة، والتفسير الطبي أو المالي، وقرارات البيانات التي تُحدد كيفية عمل نماذج الذكاء الاصطناعي في العالم الحقيقي.

هنا، لا يختفي العنصر البشري، بل يصبح أكثر توجيهاً وتخصصاً، وأكثر استجابةً للطلب.

العنصر البشري: اختفاء أم حضور؟

* نظم صوتية آلية. تُحسّن أنظمة الاستجابة الصوتية التفاعلية هذه التوجهات، فالاستجابة الصوتية التفاعلية هي حرفياً صوت الشركة لعملائها. وبمجرد أن أصبحت الأصوات الاصطناعية جيدة بما يكفي، أصبح من السهل الحكم على الجودة واختفت فجوة الثقة. كان ذلك وحده كافياً ليتولى الذكاء الاصطناعي زمام الأمور.

* مسارات الترجمة الآلية. اتخذت الترجمة مساراً مختلفاً. فالترجمة بطبيعتها غامضة، إذ توجد طرق متعددة لترجمة الجملة الواحدة. ونتيجةً لذلك، استوعبت الترجمة الآلية بسرعة المحتوى غير الرسمي والمنخفض المخاطر، مثل فيديوهات «تيك توك». مع ذلك، في السياقات البالغة الأهمية، كالعقود القانونية والتعليمات الطبية والتقارير المالية ورسائل العلامات التجارية العالمية، لا تنتقل الثقة بالكامل إلى الآلة.

في هذه المهام، لا يزال المترجمون المحترفون مطلوبين لتعزيز مخرجات الذكاء الاصطناعي الأولية. وبما أن الذكاء الاصطناعي يؤدي الآن الجزء الأكبر من العمل، فقد أصبح المترجمون المتفرغون نادرين. وبدلاً من ذلك، فإنهم يعملون بشكل متزايد ضمن شبكات الخبراء، ويتم توظيفهم «عند الحاجة» لضبط العملية والتحقق منها، ومن ثمّ سد فجوة الثقة.

*التحقق من صحة البيانات. ويحدث التحول نفسه الآن في كيفية إعداد البيانات والتحقق من صحتها لأنظمة الذكاء الاصطناعي نفسها. اعتمد التدريب المبكر للذكاء الاصطناعي على عمليات تصنيف بشرية ضخمة ومتفرغة. أما اليوم، فتتولى النماذج بشكل متزايد التقييم الروتيني. وتُحفظ الخبرة البشرية للقرارات الأكثر حساسية، تلك التي تحدد كيفية تصرف الذكاء الاصطناعي تحت الضغط.

مستقبل العمل

ماذا يعني هذا لمستقبل العمل؟ يصوّر الخطاب الشائع الذكاء الاصطناعي على أنه تقنية بديلة: الآلات في مواجهة البشر. إلا أن الواقع داخل المؤسسات يختلف اختلافاً جذرياً.

أصبح الذكاء الاصطناعي الخيار الأمثل للتوسع. أما البشر، فيتولون مهام التعامل مع الحالات الاستثنائية، واتخاذ القرارات في المواقف غير الواضحة، أو عندما تكون العواقب وخيمة، أو عندما يكون بناء الثقة على المحك.

* تغيّر دور الموظف. لا يعني هذا بالضرورة تقليل عدد الموظفين، بل يعني تغيير أدوارهم: تقليل الأعمال الروتينية، وزيادة الاعتماد على القرارات في الوقت المناسب. كما يعني وجود المزيد من الخبراء العاملين على أنظمة متعددة، وتقليل عدد الموظفين الملتزمين بمهام محددة بدقة.

* نجاح المؤسسات. لن تكون المؤسسات التي تنجح في توظيف الذكاء الاصطناعي هي تلك التي تعتمد على الأتمتة بشكل أكبر. بل ستنجح تلك التي تقوم بتحديد المجالات التي لا تحتاج إلى أتمتة، والتي تصمم مسارات عمل قادرة على الاستعانة بالخبرة البشرية في الوقت المناسب وبالمستوى الأمثل.

إن مستقبل العمل ليس صراعاً بين البشر والآلات، بل هو في توظيف الذكاء الاصطناعي على نطاق واسع، إضافة إلى الخبرة البشرية المُقدمة عبر شبكات الخبراء، وليس من خلال وظائف دائمة. وتُظهر كل من الترجمة ووسائل التحقق من صحة النماذج هذا النمط.

* مجلة «فاست كومباني».


مقالات ذات صلة

الذكاء الاصطناعي يبتلع 300 مليار دولار من شركات البرمجيات في يوم واحد

الاقتصاد لوغو لـ«أنثروبيك» (رويترز)

الذكاء الاصطناعي يبتلع 300 مليار دولار من شركات البرمجيات في يوم واحد

تحولت حالة الحذر التي كانت تسيطر على المستثمرين تجاه أسهم البرمجيات إلى ما يشبه «يوم القيامة» المالي، حيث شهدت الأسواق موجة بيع عنيفة.

علوم أهم 5 دروس في الذكاء الاصطناعي لعام 2025

أهم 5 دروس في الذكاء الاصطناعي لعام 2025

الأولوية للكفاءة... وأهمية وضع أطر لحدود الثقة والرقابة على الأدوات الذكية

«الشرق الأوسط» (واشنطن)
تكنولوجيا روبوت الدردشة التابع لشركة «إكس» المدعوم بالذكاء الاصطناعي «جروك» (أ.ف.ب)

روبوت الدردشة «جروك» يواصل إنتاج محتوى فاضح رغم القيود الجديدة

خلصت وكالة «رويترز» إلى أن روبوت الدردشة التابع لشركة «إكس» والمدعوم بالذكاء الاصطناعي «جروك» يواصل توليد صور فاضحة للأشخاص.

«الشرق الأوسط» (نيويورك)
تكنولوجيا شعار روبوت الدردشة «غروك» الذي يعتمد على الذكاء الاصطناعي يظهر إلى جانب شعار شركة «إكس ​إيه آي» (رويترز)

بسبب المحتوى الفاضح... بريطانيا تفتح تحقيقاً بشأن «غروك»

أطلقت هيئة مراقبة الخصوصية البريطانية، الثلاثاء، تحقيقاً رسمياً ​بشأن روبوت الدردشة «غروك» التابع لإيلون ماسك، والذي يعتمد على الذكاء الاصطناعي.

«الشرق الأوسط» (لندن)
الاقتصاد منظر عام للحي المالي في لندن (رويترز)

بعد قفزة إلى 4.9 تريليون دولار... توقعات باستمرار زخم صفقات الاندماج والاستحواذ في 2026

أفاد تقرير صادر عن «باين آند كومباني» الاستشارية، بأن نشاط صفقات الاندماج والاستحواذ عالمياً مرشح للحفاظ على زخمه خلال عام 2026، بعد أن سجل انتعاشاً قوياً في 20

«الشرق الأوسط» (الرياض)

أهم 5 دروس في الذكاء الاصطناعي لعام 2025

أهم 5 دروس في الذكاء الاصطناعي لعام 2025
TT

أهم 5 دروس في الذكاء الاصطناعي لعام 2025

أهم 5 دروس في الذكاء الاصطناعي لعام 2025

مع نضوج الذكاء الاصطناعي خلال عام 2025، استخلصت الشركات في مختلف القطاعات دروساً بالغة الأهمية حول قابلية التوسع، والكفاءة، والموثوقية، والتطبيق العملي. فبدلاً من السعي وراء اختراقات تكنولوجية هائلة أو نماذج ذكاء اصطناعي ضخمة، ركز العديد من المؤسسات على البنية التحتية، والقدرة على التنبؤ، وحل المشكلات التي من شأنها أن تسمح للذكاء الاصطناعي بالتوسع بشكل موثوق وفعَّال في الواقع، كما كتب كولاولي صموئيل أديبايو(*).

تحديات المرحلة وقدرات التكيّف

وقد أبرزت هذه الدروس التحديات المتنامية والتحولات في الاستراتيجية مع تكيف القطاع مع التحديات العملية بدلاً من الانسياق وراء الضجة الإعلامية المحيطة بالإمكانات التحويلية للذكاء الاصطناعي.

1. البنية التحتية أولاً. كان أهم ما تم استخلاصه في عام 2025 هو الحاجة إلى بنية تحتية قوية للذكاء الاصطناعي.

وهذا هو مثال ليئور بوزين، الرئيس التنفيذي لشركة AutoDS، وهي منصة لأتمتة التجارة الإلكترونية مدعومة بالذكاء الاصطناعي، الذي تعلَّم هذا الدرس بشكل مباشر. في البداية، أعطت شركته الأولوية للتوظيف السريع للذكاء الاصطناعي، معتقدةً أن السرعة هي مفتاح النجاح. مع ذلك، ومع نمو الشركة، اتضح جلياً أنه من دون حوكمة سليمة، وتنظيم بيانات فعَّال، وبنية تحتية متينة، لن تتمكن تقنيات الذكاء الاصطناعي من التوسع بكفاءة. لذا، حوَّلت الشركة تركيزها إلى إرساء الأساس الصحيح - بناء طبقات بيانات مشتركة وهياكل ملكية أكثر وضوحاً - ما سمح لميزات الذكاء الاصطناعي بأن تصبح جزءاً لا يتجزأ من عملياتها التجارية.

وبالمثل، واجهت شركة RavenDB، المتخصصة في قواعد البيانات، صعوبة في دمج الذكاء الاصطناعي بسبب ضعف البنية التحتية التي جعلت تدفق البيانات معقداً وغير موثوق. بوعد فشل تعاونها مع «مايكروسوفت» لبناء مساعد ذكاء اصطناعي للتوثيق، عمدت هذه الشركة إلى دمج الذكاء الاصطناعي بشكل أعمق في نظام قاعدة بياناتها، ما يضمن عمل النماذج بالقرب من البيانات التي تعتمد عليها، وبالتالي زيادة القدرة على التنبؤ والموثوقية.

وقد أدركت هذه الشركات أن الإمكانات الحقيقية للذكاء الاصطناعي لا يمكن إطلاقها إلا عند دمجه بسلاسة في الأنظمة القائمة ذات الأسس المتينة للبيانات.

الكفاءة أم القدرات العالية؟

2. كفاءة الذكاء الاصطناعي تفوق أهمية «القدرة الخام» له. بينما استمر العديد من العاملين في مجال الذكاء الاصطناعي في السعي وراء نماذج أكبر وموارد حوسبة أقوى، اتخذت شركات مثل Oculeus، وهي شركة برمجيات لقطاع الاتصالات، نهجاً مختلفاً، إذ أولى الرئيس التنفيذي أرند بارانوفسكي الأولوية لكفاءة أنظمة الذكاء الاصطناعي بدلاً من التركيز على قدرتها الحاسوبية.

في قطاع الاتصالات، حيث يُعدّ الكشف الفوري عن الاحتيال والكشف عن الحالات الشاذة أمراً بالغ الأهمية، تُعتبر الموثوقية والاتساق أساسيين. بالنسبة لبارانوفسكي، لم تكن «القدرة الخام» هي الحل، بل كان المهم: القدرة على التنبؤ والمخرجات المحددة. كانت أنظمة الذكاء الاصطناعي التي تُنتج نتائج متسقة أكثر قيمة بكثير من تلك القادرة على توليد مخرجات عشوائية.

وبالمثل، ردد مؤسس RavenDB، أورين إيني، هذا الرأي، مؤكداً أن الهدف لم يكن إنشاء ذكاء اصطناعي «أذكى»، بل بناء ذكاء اصطناعي قادر على التعامل مع المهام الروتينية بسلاسة. اكتسب هذا التركيز على الموثوقية والكفاءة بدلاً من قدرات الذكاء الاصطناعي الخام زخماً مع إدراك الشركات للتكاليف الباهظة للحوسبة واستهلاك الطاقة. ومع تزايد الطلب على الذكاء الاصطناعي الموفر للطاقة، ستأتي الموجة التالية من النجاح من أولئك القادرين على تحقيق أقصى أداء للذكاء الاصطناعي دون تكاليف إضافية غير ضرورية.

--------

* * مفتاح النجاح في عام 2025 لم يتمثل في الإنجازات البراقة بل التحسينات الحقيقية التي يمكن تطبيقها بفعالية على جميع العمليات * *

-------

حدود الثقة وأهمية الرقابة

3. الثقة تتطلب حدوداً. كان على صناعة الذكاء الاصطناعي في عام 2025 أيضاً أن تتعامل مع مسألة الثقة، إذ تُستخدم أنظمة الذكاء الاصطناعي بشكل متزايد في خدمة العملاء والمعاملات واتخاذ القرارات، غير أنها تفتقر إلى المساءلة التي يتمتع بها الموظفون البشريون.

وقد سلَّطت قضية روبوت الدردشة التابع لشركة طيران كندا، الذي وعد بخصم وهمي على تذاكر السفر في حالات الوفاة، الضوء على مخاطر أنظمة الذكاء الاصطناعي غير الخاضعة للرقابة. ولمعالجة هذه المشكلة، وضعت شركات مثل AutoDS وRavenDB ضوابط وإجراءات لضمان دقة وموثوقية وأمان مخرجات الذكاء الاصطناعي. فعلى سبيل المثال، شكَّلت الشركة الأولى فريقاً للتحقق من مخرجات الذكاء الاصطناعي، بينما طبقت الثانية سلسلة من إجراءات الموافقة للحد مما يمكن لأنظمة الذكاء الاصطناعي وعده.

أكد هذا الدرس على حقيقة أنه يجب التعامل مع الذكاء الاصطناعي، على الرغم من قوته، كأداة تتطلب ضوابط وإشرافاً وإدارة دقيقة. وتزداد الثقة في أنظمة الذكاء الاصطناعي عندما تحدد الشركات توقعات واضحة، وتضمن الشفافية. في عام 2026، ستحتاج الشركات إلى التعامل مع الذكاء الاصطناعي كقضية ثقة، لضمان أن تكون تطبيقات الذكاء الاصطناعي قائمة على حوكمة مسؤولة.

خطوات صغيرة... لا من برامج طموحة

4. حلول بسيطة تتفوق على المشاريع الطموحة. بينما كان قطاع الذكاء الاصطناعي لا يزال مفتوناً بالطموحات الكبيرة كالذكاء الاصطناعي العام (AGI) والمركبات ذاتية القيادة، ركزت الشركات التي حققت تقدماً ملموساً على حل المشكلات الصغيرة اليومية على نطاق واسع.

تمثلت الفكرة الرئيسية لعام 2025 في أن التحسينات التدريجية يمكن أن تؤدي إلى تغييرات جذرية. ففي شركة RavenDB، أتاحت فرص تمكين الموظفين العاديين من تطوير ميزات الذكاء الاصطناعي في غضون أيام - بدلاً من الاعتماد على كبار المهندسين - للشركة، تحقيق تقدم مستمر. وبالمثل، ركزت شركة AutoDS على جعل الموظفين أسرع وأكثر كفاءة، بدلاً من السعي وراء مشروعات مبهرة ولكنها غير قابلة للتوسع.

وكما قال أورين إيني، فإن إصلاح العديد من المشكلات الصغيرة يمكن أن يؤدي إلى تقدم شامل أكبر من محاولة حل تحدٍ واحد هائل. ومثلما أحدثت تقنيات مثل أجهزة الصراف الآلي ونقاط الدفع الذاتي ثورة في المهام اليومية، فإن حل المشكلات الصغيرة المزعجة باستخدام الذكاء الاصطناعي له تأثير تحويلي تراكمي.

لم يكن مفتاح النجاح في عام 2025 هو الإنجازات البراقة، بل التحسينات الحقيقية القابلة للقياس والتي يمكن تطبيقها بفعالية على جميع العمليات.

الاستعداد استباقاً للتطورات

5. الاستعداد أهم من رد الفعل. كشف الصعود السريع للذكاء الاصطناعي في عامي 2024 و2025 عن مدى عدم استعداد العديد من القطاعات لهذه التقنية الجديدة. لاحظ ستيف بريرلي، الرئيس التنفيذي لشركة الحوسبة الكمومية «ريفرلين»، كيف سارعت الشركات للتكيف مع أدوات الذكاء الاصطناعي مثل «تشات جي بي تي»، مما أجبرها على مواجهة تحديات تتعلق بالتنظيم، وقابلية التوسع، وجاهزية البيانات، وتدريب القوى العاملة. وكانت خلاصة رأيه أن على القطاعات أن تتعلم استباق التقنيات الناشئة كالذكاء الاصطناعي، بدلاً من انتظار رد الفعل بعد ظهور تأثيرها.

كما برزت الحاجة إلى استعداد أفضل في تنظيم الذكاء الاصطناعي. فمع دخول قوانين الذكاء الاصطناعي حيز التنفيذ في عام 2025، كافحت الشركات لترجمة المتطلبات القانونية إلى تغييرات تشغيلية قابلة للتنفيذ. وكانت المعايير الدولية لحوكمة الذكاء الاصطناعي ضرورية لتعزيز الثقة وضمان سلامة نشر الذكاء الاصطناعي من الناحيتين الأخلاقية والقانونية. وكانت الشركات التي استثمرت في الاستعداد لهذه التحديات مسبقاً أكثر قدرة على التعامل مع التعقيدات التي ظهرت لاحقاً.

نظرة مستقبلية

تُبرز الدروس المستفادة في عام 2025 قطاعاً للذكاء الاصطناعي أصبح أكثر رسوخاً في الواقع العملي. تركز الشركات حالياً على بناء بنية تحتية موثوقة، ووضع ضوابط، وحل مشكلات واقعية. مع ذلك، ومع ازدياد اندماج الذكاء الاصطناعي في المجتمع، تبرز تحديات جديدة، لا سيما في مجالي الأمن السيبراني والأخلاقيات، إذ يتزايد استغلال مجرمي الإنترنت لقدرات الذكاء الاصطناعي، مما يستدعي تعزيز إجراءات الحماية وأطر الحوكمة.

في عام 2026، سيتجاوز تطور الذكاء الاصطناعي مرحلة الإعجاب والضجة الأولية، ليصبح أداة موثوقة وشفافة، لا ابتكاراً ثورياً بقدر ما هو شريك هادئ يندمج بسلاسة في العمل اليومي. وسيتمحور مستقبل الذكاء الاصطناعي حول الاتساق والكفاءة والحلول العملية، بدلاً من السعي وراء مشروعات طموحة أو أحلام مثالية.

والشركات الناجحة هي تلك التي تفهم هذا الواقع الجديد وتتكيف معه.

* مجلة «فاست كومباني».


الصمت… بوصفه فضيلة طبية للخوارزميات

حين تختار الخوارزمية الصمت
حين تختار الخوارزمية الصمت
TT

الصمت… بوصفه فضيلة طبية للخوارزميات

حين تختار الخوارزمية الصمت
حين تختار الخوارزمية الصمت

في الطب التقليدي، كان الصمت قراراً بشرياً يتخذه الطبيب حين يرى أن الإفراط في التفسير قد يربك المريض أكثر مما ينفعه.

أما اليوم، وفي عصر الذكاء الاصطناعي الطبي، فقد أصبح السؤال أعمق: هل يمكن أن يكون الصمت جزءاً من هندسة الخوارزمية نفسها؟ وهل ينبغي أن نُعلّم الآلة أن تمتنع عن الكلام حين يكون كلامها مؤذياً؟

بين الشكّ البشري والثقة الرقمية

بحث 2026: الاعتراف بعدم اليقين

في يناير (كانون الثاني) 2026، نشر الباحث محمد رشاد الإسلام (Md Rashadul Islam) من قسم هندسة علوم الحاسوب في جامعة دافوديل الدولية (Daffodil International University) في دكا، بنغلاديش، دراسة على منصة «أركايف» (arXiv) بعنوان: «إطار الامتناع الانتقائي للذكاء الاصطناعي الواعي بعدم اليقين في تصوير السكتة الدماغية الحادة».

تناولت الدراسة تحدياً معروفاً في أنظمة الذكاء الاصطناعي الطبي، وهو أن النماذج - حتى الأكثر دقة - تُجبر على إصدار حكم تشخيصي في جميع الحالات، حتى عندما تكون درجة الثقة منخفضة.

لذا؛ اقترح الباحث إطاراً يدمج تقدير «عدم اليقين الاحتمالي» داخل نموذج تحليل صور السكتة الدماغية الحادة. وعندما تنخفض درجة الثقة عن حد معين، يمتنع النظام صراحةً عن إصدار توصية، ويُحيل القرار إلى الطبيب.

وأظهرت النتائج الأولية انخفاضاً في الأخطاء بالحالات الحدّية وارتفاعاً في أمان القرار السريري مقارنة بالنماذج التقليدية. ورغم أن الدراسة لا تزال منشورة بحثاً أولياً لم يخضع بعد للتحكيم النهائي، فإنها تعكس اتجاهاً بحثياً واضحاً نحو «ذكاء واعٍ بحدوده».

بين القدرة على التنبؤ وأخلاقيات الإفصاح

الذكاء الاصطناعي اليوم قادر على التنبؤ بمخاطر أمراض قبل سنوات من ظهورها، وقراءة الصور الشعاعية بدقة تتجاوز أحياناً العين البشرية. لكن السؤال لم يعد: هل يستطيع أن يتنبأ؟ بل: هل ينبغي أن يُعلن كل ما يتنبأ به؟

تخيّل نظاماً يخبر مريضاً باحتمال متوسط للإصابة بمرض خطير خلال عشر سنوات. الاحتمال غير حاسم، والتدخل غير مؤكد، لكن كلمة «خطر» وحدها قد تغيّر نظرته إلى ذاته ومستقبله. هنا تتحول المعلومة من رقم إحصائي إلى عبء نفسي.

ليس كل تنبؤ يستحق أن يتحول إنذاراً.

خطر الضجيج العلاجي

الأنظمة الذكية مصممة بطبيعتها لإنتاج نتائج. والنموذج الذي لا يُخرج توصية يُعدّ ناقصاً تقنياً. لكن الطب ليس سباقاً في عدد التنبيهات، بل مسؤولية في وزن العواقب.

وقد يقود الإفراط في الإنذار إلى فحوص غير ضرورية، وتشخيص زائد، وقلق مزمن. ومع إدماج الخوارزميات في السجلات الطبية الإلكترونية، تتحول التوصية إلى «خيار موصى به» تلقائياً، ويصبح الخروج عنه في حاجة إلى تبرير. هنا يحدث ما يمكن تسميته بالانزياح الصامت للمسؤولية؛ لا تُلغى حرية الطبيب، لكنها تُثقل تحت ضغط الثقة الرقمية.

مبدأ الصمت الخوارزمي

من هنا يبرز مفهوم «الصمت الخوارزمي» بوصفه فضيلة طبية ناشئة. وهو لا يعني إخفاء الحقيقة، بل ترشيحها عبر ميزان التناسب. فإذا كان التنبؤ عالي الدقة، والتدخل المبكر ينقذ حياة، فالإفصاح واجب. أما إذا كان الاحتمال متوسطاً، والفائدة غير محسومة، والضرر النفسي متوقعاً، فقد تكون المراقبة أكثر أخلاقية من الإنذار.

الفرق هنا بين القدرة على التنبؤ والحق في التدخل.

ضجيج الإنذارات

الشكّ المهني في عصر الخوارزميات

أحد أعمدة الطب هو الشكّ البنّاء، فالطبيب المتمرّس يعرف متى يتدخل ومتى ينتظر. لكن الخوارزمية، إن لم تُصمَّم بعناية، قد تُضعف هذا الشك؛ لأنها تعرض توصياتها بثقة رقمية تبدو عقلانية ومحايدة.

ومع الاعتياد، يتحول النظام مرجعيةً غير مُساءلة، لا لأنه يفرض نفسه، بل لأننا نعتاد عليه. وهنا تكمن الخطورة الحقيقية.

نحو ذكاء أكثر تواضعاً

الطب لا يحتاج إلى ذكاء أعلى فحسب، بل إلى ذكاء أكثر تواضعاً؛ ذكاء يعترف بدرجة عدم يقينه، ويُظهر حدوده بوضوح، ويمتنع عن الكلام حين يكون الكلام ضرراً.

فالخوارزمية لا ترى القلق في عيني المريض، ولا تتحمل تبعات القرار، ولا تعيش أثر الكلمة. الطبيب وحده من يزن الاحتمال في ضوء الإنسان الجالس أمامه.

ليست المشكلة أن تتكلم الخوارزمية، بل أن تتكلم حين لا ينبغي لها أن تفعل. فالذكاء الحقيقي لا يُقاس بعدد ما يقول، بل بقدر ما يعرف أن يمتنع.

ومستقبل الرعاية الصحية لن يُقاس بعدد ما تقوله الأنظمة الذكية، بل بقدرتها على معرفة متى تتراجع خطوة، وتترك للإنسان الكلمة الأخيرة.


الجينات وتجارب الحياة تحددان مصير العدوى داخل أجسامنا

الجينات وتجارب الحياة تحددان مصير العدوى داخل أجسامنا
TT

الجينات وتجارب الحياة تحددان مصير العدوى داخل أجسامنا

الجينات وتجارب الحياة تحددان مصير العدوى داخل أجسامنا

كشفت دراسة علمية حديثة أن الاختلاف الكبير في استجابة الناس للأمراض المعدية يعود إلى تفاعل معقّد بين الجينات التي نرثها، وتجارب الحياة التي ممرنا أو نمرّ بها، مثل العدوى السابقة، واللقاحات، والعوامل البيئية. وأظهرت الدراسة أن هذه العوامل تترك بصمات جزيئية دائمة على خلايا الجهاز المناعي تتحكم في كيفية عمل الجينات، واستجابة الجسم للأمراض.

فهرس «غير جيني» لخلايا المناعة البشرية

ُشرت الدراسة التي أجراها باحثون من معهد سالك للأبحاث في كاليفورنيا الولايات المتحدة في مجلة «Nature Genetics» في 27 يناير (كانون الثاني) 2026 حيث قدّم العلماء أول فهرس غير جيني مفصّل لخلايا المناعة البشرية، ما يفتح الباب أمام تطوير علاجات أكثر دقة، وتخصيصاً لكل فرد.

وتبرز أهمية هذه النتائج بوضوح بعد أن أظهرت جائحة كوفيد-19 حقيقة لافتة هي أن الأشخاص المصابين بالفيروس نفسه قد يمرّون بتجارب صحية مختلفة تماماً. فبينما يعاني بعضهم أعراضاً خفيفة، يصاب آخرون بمضاعفات خطيرة. وهذا ما أعاد طرح سؤال جوهري ألا وهو لماذا تؤثر العدوى نفسها على الناس بطرق متباينة؟

الطبقة الخفية وراء الحمض النووي

رغم أن جميع خلايا الجسم تحمل الحمض النووي «دي إن إيه» نفسه، فإنها لا تؤدي الوظائف نفسها. فالخلية الجلدية تختلف تماماً عن الخلية المناعية. ويعود هذا الاختلاف إلى ما يُعرف بـاللاجينوم Epigenome.

واللاجينوم عبارة عن علامات كيميائية صغيرة ترتبط بالحمض النووي، وتعمل بوصفها مفاتيح تشغيل أو إيقاف للجينات. وهي لا تغيّر الشيفرة الوراثية نفسها، لكنها تتحكم في طريقة عمل الخلايا.

وعلى عكس الجينات يتميز اللاجينوم بالمرونة، إذ تُورَّث بعض علاماته، بينما تتشكل أخرى نتيجة التعرض للعدوى، واللقاحات، والعوامل البيئية عبر مراحل الحياة.

الطبيعة والتجربة داخل خلايا المناعة

ولفهم تأثير الجينات، وتجارب الحياة على الجهاز المناعي، حلّل فريق البحث بقيادة جوزيف إيكر من مختبر التحليل الجينومي معهد سالك للدراسات البيولوجية في الولايات المتحدة الأميركية عينات دم من 110 أشخاص ذوي خلفيات متنوعة. وشملت هذه العينات أشخاصاً تعرضوا لعدوى مختلفة، مثل الإنفلونزا، وكوفيد-19، وفيروس نقص المناعة البشرية، إضافة إلى تلقي بعضهم لقاحات، والتعرض لمواد كيميائية بيئية.

وركّز الباحثون على أربعة أنواع رئيسة من خلايا المناعة هي: الخلايا التائية T cells، والخلايا البائية B cells التي تحتفظ بذاكرة طويلة الأمد للعدوى السابقة، ثم الخلايا الوحيدة Monocytes، والخلايا القاتلة الطبيعية natural killer cells التي تستجيب بسرعة، وبصورة أوسع.

ثم قاموا برسم خريطة للتغيرات اللاجينية، خاصة أنماط مثيلة الحمض النووي داخل كل نوع من هذه الخلايا.

نوعان من البصمات اللاجينية

وكشفت الدراسة عن وجود نوعين واضحين من التغيرات اللاجينية هي تغيرات مرتبطة بالوراثة الجينية، وتغيرات ناتجة عن تجارب الحياة، والتعرض البيئي.

وتبيّن أن هذين النوعين يظهران في مناطق مختلفة من الجينوم. إذ تترك التأثيرات الوراثية بصمتها في مناطق مستقرة، خاصة في الخلايا المناعية طويلة العمر، مثل الخلايا التائية، والبائية. في المقابل تظهر تأثيرات التجارب الحياتية في مناطق تنظيمية أكثر مرونة تساعد الخلايا على الاستجابة السريعة للتهديدات.

وتشير هذه النتائج إلى أن الجينات تضع الأساس طويل الأمد لعمل الجهاز المناعي، بينما تعدّل التجارب الحياتية الاستجابة المناعية بحسب الظروف.

ربط خطر الأمراض بخلايا مناعية محددة

وأوضحت الدراسة أن بعض الاختلافات الجينية المرتبطة بالأمراض لا تُسبب المرض بشكل مباشر، بل تعمل من خلال التأثير على «مفاتيح» كيميائية دقيقة تتحكم في نشاط الجينات داخل أنواع معيّنة من خلايا الجهاز المناعي. ويساعد هذا الفهم العلماء على معرفة أيّ الخلايا تبدأ منها الأمراض، وكيف تتطور على المستوى الجزيئي، ما يمهّد الطريق لتشخيص أدقّ، وعلاجات أكثر استهدافاً بدل التأثير في الجهاز المناعي بأكمله.

نحو طب مناعي شخصي

من أبرز آفاق هذا البحث إمكانية استخدام الخرائط اللاجينية للتنبؤ بكيفية استجابة الأشخاص للعدوى. فمع توفر عدد أكبر من البيانات قد يصبح بالإمكان تحليل بصمة الشخص المناعية، وتوقع شدة المرض لديه، وربما حتى قبل التعرض للعدوى.

وفي المستقبل قد يستخدم الأطباء هذه التواقيع اللاجينية لتحديد الأشخاص الأكثر عرضة للمضاعفات، وتصميم استراتيجيات وقائية أو علاجية مخصصة لهم.

خريطة طريق للمستقبل

يوفّر هذا الأطلس اللاجيني الجديد لخلايا المناعة مورداً علمياً بالغ الأهمية لدراسة الأمراض المعدية والوراثية على حد سواء. ومن خلال كشف كيفية تفاعل الجينات، وتجارب الحياة داخل خلايا المناعة، تقرّب هذه الدراسة الطب من مفهوم العلاج الشخصي الحقيقي.

ومع توسّع هذا الفهرس في السنوات المقبلة قد يساعد الأطباء ليس فقط على فهم أسباب المرض، بل أيضاً على حماية المرضى بطرق أكثر فاعلية، ودقة.