«الذكاء الاصطناعي الخفي» ينذر بمخاطر كبرى

استخدام الموظفين لأدوات غير معتمدة يزيد احتمالات التهديدات الداخلية

«الذكاء الاصطناعي الخفي» ينذر بمخاطر كبرى
TT

«الذكاء الاصطناعي الخفي» ينذر بمخاطر كبرى

«الذكاء الاصطناعي الخفي» ينذر بمخاطر كبرى

جذبت القوة التحويلية والانتشار السريع للذكاء الاصطناعي، المستخدمين والشركات على حد سواء. وبحلول عام 2030، ستتجاوز سوق الذكاء الاصطناعي 826 مليار دولار. مع ازدياد اعتماد الذكاء الاصطناعي التوليدي، أفادت شركة «غارتنر» بأنه بحلول العام المقبل ستقوم 30 في المائة من الشركات بأتمتة نصف حركة مرور شبكاتها على الأقل، كما كتب ستيو سيورمان*

استخدام تطبيقات غير معتمدة

ولكن هنا يأتي عامل السرعة. مع توفر أدوات الذكاء الاصطناعي على نطاق واسع، يستخدم الموظفون أدوات ذكاء اصطناعي غير معتمدة (غير مصرَّح بها من قِبَل الشركات)، مثل روبوتات الدردشة القائمة على الذكاء الاصطناعي، ونماذج التعلم الآلي لتحليل البيانات، ومساعدي مراجعة الترميز.

ووفقاً لدراسة أجرتها «مايكروسوفت»، استخدم 80 في المائة من الموظفين تطبيقات غير مصرح بها العام الماضي.

«الذكاء الاصطناعي الخفي» يُسرِّع وتيرة التهديدات الداخلية

ونظراً لأن 38 في المائة من المستخدمين يتبادلون معلومات حساسة مع أدوات الذكاء الاصطناعي دون موافقة الشركة (التي يعملون فيها)، فإن تهديداً جديداً يُعرف

باسم «الذكاء الاصطناعي الخفي» (Shadow AI) يُنذر بمخاطر أمنية واسعة النطاق، بما في ذلك كشف البيانات، واتخاذ قرارات عمل غير دقيقة، ومشكلات الامتثال.

يُدمج مزيد من الموظفين أدوات الذكاء الاصطناعي في روتين عملهم اليومي. وتجد فرق التسويق مثلاً سِحر «جي بي تي» مفيداً لأتمتة حملات البريد الإلكتروني ووسائل التواصل الاجتماعي وإنشاء الصور. بينما تستخدم فرق الأعمال المالية أدوات تصور بيانات الذكاء الاصطناعي لإنشاء أنماط تُقدم نظرة أعمق على نفقات الشركة. وعلى الرغم من النتائج المُبهرة، فإن هذه الأدوات عُرضة لمخاطر «الذكاء الاصطناعي الخفي» إذا لم تكن المؤسسات على دراية باستخدام التطبيقات.

وبدلاً من سحب المواد المُعتمدة من الشركة، قد يُفصح فريق خدمة العملاء الذي يلجأ إلى روبوتات دردشة الذكاء الاصطناعي غير المُصرح بها، عند الإجابة على استفسار العميل، عن معلومات غير مُتسقة أو مُضللة، ما قد يُشارك بيانات سرية أو خاصة.

ثغرات أمنية

ومن دون تغيير طبيعة العمل، يحل الذكاء الاصطناعي الخفي محل العمل البشري، ويُمنح الذكاء الاصطناعي مزيداً من الاستقلالية، ما يُؤدي إلى ثغرات أمنية جديدة. وعلى سبيل المثال، وفي ظروف تكنولوجيا المعلومات الخفية هذه، يظل برنامج محلل «Salesforce» يؤدي العمل الأساسي نفسه، إلا أن المحلل نفسه الذي يستخدم أدوات ذكاء اصطناعي غير مصرح بها لتفسير سلوك العملاء، بناءً على مجموعة بيانات خاصة، يمكن أن يكشف عن معلومات حساسة دون قصد في هذه العملية.

تهديدات داخلية وبيانات حساسة

ونظراً لإساءة استخدام الذكاء الاصطناعي الخفي، يعتقد معظم مسؤولي أمن المعلومات (75 في المائة) أن التهديدات الداخلية تشكل خطراً أكبر من الهجمات الخارجية.

في مارس (آذار) 2024، كان أكثر من ربع البيانات (27 في المائة) التي استخدمها الموظفون من مستخدمي أدوات الذكاء الاصطناعي، بيانات حساسة، بزيادة عن 10.7 في المائة في العام السابق. وأكثر أنواع البيانات الحساسة شيوعاً هي دعم العملاء (16.3 في المائة)، يليه شيفرة المصدر (12.7 في المائة)، ومحتوى البحث والتطوير (10.8 في المائة)، والاتصالات الداخلية السرية (6.6 في المائة)، وسجلات الموارد البشرية والموظفين (3.9 في المائة). ومن المعروف أن تقنية الذكاء الاصطناعي تعدُّ أيضاً مفضلة لدى الجهات الخبيثة، بما في ذلك المطلعون على بواطن الأمور.

تأمين المؤسسات من الذكاء الاصطناعي الخفي

لا داعي للمساس بالسرعة من أجل الأمان. يمكن للمؤسسات تبني الابتكار مع تقليل مخاطر الذكاء الاصطناعي الخفي وحماية البيانات القيِّمة.

وفيما يلي 4 طرق لذلك:

1- وضع سياسة للاستخدام المقبول للذكاء الاصطناعي: يقول نصف الموظفين فقط إن سياسات شركتهم المتعلقة باستخدام الذكاء الاصطناعي «واضحة»، بينما يُقر 57 في المائة منهم باستخدام الذكاء الاصطناعي بما يتعارض مع سياسات الشركة. يجب إطلاع المستخدمين على أنواع المعلومات التي يُمكن إدخالها أو لا يُمكن إدخالها في أدوات الذكاء الاصطناعي.

يُقترح تصنيف أدوات الذكاء الاصطناعي إلى فئات: مُعتمَدة، ومحدودة الاستخدام، ومحظورة. وقبل النشر، يجب فحص جميع مشاريع الذكاء الاصطناعي الجديدة، واعتمادها من قِبل قسم تكنولوجيا المعلومات. يجب اعتبار السياسة وثيقة حيوية تُطوِّر استجابة للتحديات والفرص الجديدة، مع الحفاظ على توافقها مع سياسات الأمن الخاصة بالمؤسسة.

معالجة البيانات

2- وضع متطلبات واضحة لمعالجة البيانات: من خلال تصنيف البيانات وتحديد أنواع المعلومات التي لا ينبغي معالجتها بواسطة عروض الذكاء الاصطناعي المُستضافة بشكل عام أو خاص. يُمكن تقليل مخاطر كشف البيانات وتطبيق الحوكمة.

يُمكن استخدام عروض الذكاء الاصطناعي المحلية للبيانات شديدة الحساسية؛ حيث لا تتجاوز البيانات حدود الشركة. وبدلاً من نقل البيانات إلى خدمات الذكاء الاصطناعي السحابية، يُمكن نشر الإمكانات؛ حيث توجد البيانات.

تدريب وتوعية وثقافة آمنة

3- إجراء تدريب توعوي متواصل: من أفضل الطرق للحد من مخاطر الذكاء الاصطناعي الخفي تثقيف الموظفين حول مخاطر الذكاء الاصطناعي وأفضل الممارسات.

ويفتقر أكثر من نصف الموظفين (55 في المائة) إلى التدريب على مخاطر الذكاء الاصطناعي، ويشعر 65 في المائة منهم بالقلق إزاء الجرائم الإلكترونية المدعومة بالذكاء الاصطناعي. ينبغي إعطاء الأولوية للتدريب على التوعية بالأمن السيبراني، ودعمه بمحاكاة هجمات تصيد احتيالي، لتحديد مؤشرات تهديدات الذكاء الاصطناعي، ومساعدة المستخدمين على الاستجابة المناسبة.

4- بناء ثقافة ذكاء اصطناعي آمنة: الذكاء الاصطناعي الخفي ثقافي أكثر من كونه تقنيّاً. وبناء ثقافة استخدام مسؤولة للذكاء الاصطناعي يأتي من خلال رفع مستوى الوعي بعواقب استخدام أدوات الذكاء الاصطناعي غير المصرَّح بها. قد يدفع هذا الوعي الموظفين إلى البحث عن بدائل معتمدة أو طلب المشورة من قسم تكنولوجيا المعلومات، قبل تطبيق تطبيقات جديدة.

يجب على المؤسسات دمج جميع أنظمة وأدوات الذكاء الاصطناعي في الإجراءات الرسمية، لمنع التعرُّض للاختراقات السيبرانية والمشكلات القانونية ومشكلات الامتثال.

من خلال معالجة المخاطر الأساسية للذكاء الاصطناعي الخفي، من خلال سياسة رسمية لاستخدام الذكاء الاصطناعي، وتدريب المستخدمين وتوعيتهم، ووضع توقعات واضحة بشأن استخدام البيانات الحساسة، وإرساء ثقافة واضحة للذكاء الاصطناعي، يمكن للمؤسسات تحسين الذكاء الاصطناعي وتحقيق ميزة تنافسية.

* «إنك»، خدمات «تريبيون ميديا».


مقالات ذات صلة

كيف يفهم الذكاء الاصطناعي مبادئ أخلاقيات الطب؟

علوم العدالة في زمن الذكاء الاصطناعي الطبي- المبادئ الاربعة: الاستقلالية، العدالة، المنفعة ، وعدم الإضرار

كيف يفهم الذكاء الاصطناعي مبادئ أخلاقيات الطب؟

لم يعد الذكاء الاصطناعي في الطب مجرد أداة تحليلية تعمل في الخلفية خلف الشاشات، بل أصبح حاضراً في لحظة القرار ذاتها؛ في غرف الطوارئ، وفي أنظمة دعم التشخيص

د. عميد خالد عبد الحميد (الرياض)
حصاد الأسبوع أليكس كارب، الرئيس التنفيذي لـ"بالانتير" (غيتي)

«بالانتير»... صعود شركة تحوّلت من مقاول بيانات إلى لاعب دفاعي

تبدو شركة «بالانتير» اليوم مثالاً مكثّفاً على التحوّل الذي يعيشه الاقتصاد الأميركي. مثال شركات بدأت كبرمجيات «تحليل بيانات»، ثم اكتشفت أن الدولة،

«الشرق الأوسط» (واشنطن)
تكنولوجيا وصل معدل نقل البيانات في التجربة إلى نحو 2.6 غيغابت في الثانية مع اتصال مستقر خلال تحرك الطائرة (إيرباص للدفاع والفضاء)

لأول مرة... اتصال ليزري عالي السرعة بين طائرة وقمر اصطناعي في المدار الثابت

نجاح تجربة أول اتصال ليزري عالي السرعة بين طائرة وقمر اصطناعي في المدار الثابت، يمهِّد لتطوير شبكات اتصالات فضائية أسرع.

نسيم رمضان (لندن)
تكنولوجيا روبوت «شخصي»... لاستكشاف نشاطات روبوتات الدردشة في منصة «مولتبوك»

روبوت «شخصي»... لاستكشاف نشاطات روبوتات الدردشة في منصة «مولتبوك»

تستطيع روبوتات الدردشة التحدث معك... ولكن ماذا لو استطاعت التحدث فيما بينها، تتساءل إيف واشنطن(*)؟ شبكة تواصل اجتماعي لروبوتات الدردشة هذه هي الفكرة وراء …

«الشرق الأوسط» (نيويورك)

كيف يفهم الذكاء الاصطناعي مبادئ أخلاقيات الطب؟

العدالة في زمن الذكاء الاصطناعي الطبي- المبادئ الاربعة: الاستقلالية، العدالة، المنفعة ، وعدم الإضرار
العدالة في زمن الذكاء الاصطناعي الطبي- المبادئ الاربعة: الاستقلالية، العدالة، المنفعة ، وعدم الإضرار
TT

كيف يفهم الذكاء الاصطناعي مبادئ أخلاقيات الطب؟

العدالة في زمن الذكاء الاصطناعي الطبي- المبادئ الاربعة: الاستقلالية، العدالة، المنفعة ، وعدم الإضرار
العدالة في زمن الذكاء الاصطناعي الطبي- المبادئ الاربعة: الاستقلالية، العدالة، المنفعة ، وعدم الإضرار

لم يعد الذكاء الاصطناعي في الطب مجرد أداة تحليلية تعمل في الخلفية خلف الشاشات، بل أصبح حاضراً في لحظة القرار ذاتها؛ في غرف الطوارئ، وفي أنظمة دعم التشخيص، وفي منصات تقييم المخاطر التي قد ترجّح خياراً علاجياً على آخر. وتقترح الأنظمة الذكية اليوم احتمالات علاجية، وتحسب نسب المضاعفات، وتقدّر فرص النجاة.

هنا يتغير السؤال جذرياً. لم يعد السؤال؛ هل يستخدم الطب الذكاء الاصطناعي؟ بل أصبح؛ كيف يمكن لهذه الأنظمة أن تعمل داخل المنظومة الأخلاقية التي صاغت الممارسة الطبية عبر قرون طويلة؟ كيف يمكن لخوارزمية أن تفهم، أو على الأقل أن تُحاط بمبادئ الإحسان، وعدم الإضرار، واحترام الاستقلالية، وتحقيق العدالة؟

حين تدخل الخوارزمية غرفة القرار، فإنها لا تدخل فراغاً تقنياً، بل تدخل تاريخاً أخلاقياً ممتداً من قوانين حمورابي، إلى قسم أبقراط، إلى تنظيرات ابن سينا، وصولاً إلى مواثيق الأخلاقيات الطبية الحديثة. والسؤال اليوم ليس عن قدرة الآلة على الحساب، بل عن قدرتنا نحن على إدماجها في هذا الإرث الأخلاقي دون أن يتصدّع.

أخلاقيات الطب من المسمار الطيني إلى الخوارزمية

جذور أخلاقيات الطب

> من حمورابي إلى ابن سينا. ظهرت أولى محاولات تنظيم المسؤولية الطبية في شريعة الملك حمورابي في بلاد الرافدين قبل نحو 4 آلاف عام، حيث رُبط الفعل الطبي بنتائجه، وحددت مسؤولية الطبيب القانونية بوضوح غير مسبوق في تاريخ الحضارات. وكان الطب هنا فعلاً يخضع للمساءلة، لا مجرد مهارة تقنية.

وفي الصين القديمة، أكّد كونفوشيوس مركزية الفضيلة والواجب الأخلاقي في علاقة المعالج بالمريض. ثم جاء أبقراط في اليونان ليضع الإطار الأكثر رسوخاً لفكرة الالتزام الأخلاقي للطبيب، عبر مبدأ «عدم الإضرار» والسعي لمنفعة المريض، مؤسساً لفكرة أن الغاية من المعرفة الطبية هي حماية الإنسان، لا استعراض المهارة.

وفي الحضارة الإسلامية، رسّخ ابن سينا في كتابه «القانون في الطب» تصوراً أكثر تكاملاً، حيث لا تنفصل المعرفة الطبية عن الحكمة، ولا المهارة عن الضمير الإنساني. فالطبيب عنده ليس حافظاً للمعلومات فحسب، بل صاحب رؤية أخلاقية توازن بين العقل والرحمة.

> طبّ بين المعرفة والمسؤولية. لم يكن الطب يوماً صراعاً بين الإنسان والأداة، بل علاقة متواصلة بين التقدم العلمي والمسؤولية الأخلاقية. فمع كل تطور تقني - من المشرط الجراحي إلى الأشعة السينية ثم إلى التصوير الجزيئي - ازدادت دقة التشخيص واتسعت إمكانات العلاج، لكن في المقابل تعمّق عبء القرار الطبي وتعقّد. فالأداة لا تعفي الطبيب من المسؤولية، بل تضيف طبقة جديدة من المساءلة؛ كيف تُستخدم؟ ومتى؟ ولصالح من؟

اليوم يختلف الذكاء الاصطناعي عن الأدوات السابقة في أنه لا يساعد اليد فقط، بل يقترب من مجال التفكير السريري ذاته. إنه لا يكتفي بتوفير صورة أو نتيجة مختبرية، بل يقترح تفسيراً، ويرجّح احتمالاً، ويعيد ترتيب الخيارات العلاجية. وهنا يصبح السؤال الأخلاقي أكثر حساسية؛ إذا كانت الأداة تشارك في التحليل، فمن يملك القرار؟ ومن يتحمل مسؤوليته؟

الضمير في قلب الخوارزمية

حدود الذكاء الاصطناعي

> قصور في الاعتبارات الأخلاقية. لم يعد النقاش حول أخلاقيات الذكاء الاصطناعي نظرياً أو افتراضياً، بل أصبح مدعوماً بتحليل تجريبي لحوادث واقعية. ففي دراسة نُشرت في فبراير (شباط) 2026 بعنوان «كشف المخاطر الخفية للذكاء الاصطناعي: vتحليل تجريبي للحوادث المرتبطة بالأنظمة الصحية الذكية»، في مجلة الذكاء الاصطناعي في الطب (Artificial Intelligence in Medicine)، أجرى باحثون من معهد أخلاقيات الذكاء الاصطناعي بجامعة أكسفورد في المملكة المتحدة مراجعة منهجية لحوادث ارتبطت باستخدام أنظمة ذكية في بيئات الرعاية الصحية.

وكشفت النتائج أن عدداً كبيراً من الإخفاقات لم يكن ناتجاً عن خلل تقني مباشر في الخوارزمية، بل عن قصور في الاعتبارات الأخلاقية أثناء تصميم النظام، أو عن تطبيقه خارج السياق السريري المناسب. ففي بعض الحالات، جرى استخدام النظام في فئات مرضية لم تُدرَّب الخوارزمية عليها بما يكفي، أو دون مراعاة الفروق الاجتماعية والاقتصادية بين المرضى، ما أدى إلى توصيات غير عادلة أو غير ملائمة.

تلك النتائج تعيدنا إلى جوهر السؤال؛ الذكاء الاصطناعي قد يكون دقيقاً من الناحية الحسابية، لكن من دون إطار أخلاقي واضح يوجّه تصميمه واستخدامه، قد يتحول من أداة مساعدة إلى مصدر خطر غير مقصود.

> الاستقلالية: قرار المريض في عصر الخوارزمية. يقوم مبدأ الاستقلالية على حق المريض في اتخاذ قراره بعد فهم الخيارات العلاجية المتاحة، وموازنة فوائدها ومخاطرها وفق قِيَمه وظروفه الخاصة. وهو مبدأ انتقل بالطب من نموذج «الوصاية» إلى نموذج الشراكة بين الطبيب والمريض.

في هذا السياق، يمكن للذكاء الاصطناعي أن يكون أداة داعمة للاستقلالية، عبر تبسيط المعلومات الطبية المعقدة، وعرض بدائل علاجية متعددة، وتوضيح احتمالات النجاح والمضاعفات بلغة مفهومة. كما يمكنه أن يمكّن المريض من الاطلاع على سيناريوهات مختلفة تساعده على اتخاذ قرار أكثر وعياً.

غير أن التحدي الأخلاقي يظهر حين تتحول توصيات النظام إلى سلطة غير مرئية. فالمريض، وأحياناً الطبيب، قد يميلان إلى الثقة المفرطة بالتوصية الرقمية باعتبارها «محايدة» أو «موضوعية»، حتى إن كانت مبنية على بيانات غير مكتملة أو منحازة. هنا قد يتقلص المجال الحقيقي للاختيار، دون أن يبدو ذلك واضحاً.

الاستقلالية في عصر الخوارزمية لا تعني توفير الخيارات فقط، بل ضمان ألا تتحول الخوارزمية إلى مرجعية صامتة تُعيد تشكيل القرار من وراء الستار.

التقييم في عصر الطب الرقمي

> الإحسان وعدم الإضرار. يشكّل مبدأ الإحسان، أي السعي إلى تحقيق منفعة المريض ومبدأ عدم الإضرار وتجنّب الأذى قدر الإمكان، حجر الزاوية في الأخلاقيات الطبية منذ أبقراط. وفي هذا الإطار، تبدو الأنظمة الذكية حليفاً طبيعياً لهذين المبدأين. فهي قادرة على تحليل كميات هائلة من البيانات السريرية، والتنبؤ بالمضاعفات المحتملة، ورصد الأنماط الدقيقة التي قد تفوت العين البشرية.

غير أن هذه القدرة الحسابية لا تعمل في فراغ. فجودة التوصيات تبقى رهينة جودة البيانات التي دُرّبت عليها الخوارزميات، وتمثيلها العادل لمختلف الفئات السكانية، ودقة السياق السريري الذي تُستخدم فيه. فإذا كانت البيانات ناقصة أو منحازة، فإن التوصية مهما بدت دقيقة قد تحمل في طياتها خطراً غير مرئي.

يضاف إلى ذلك ما يُعرف بـ«الانحياز الآلي»؛ حيث قد يميل الطبيب إلى منح ثقة مفرطة للتوصية الرقمية، فيتردد في مخالفتها رغم وجود شك سريري مشروع. هنا يتحول النظام من أداة داعمة إلى مرجعية صامتة قد تضعف الجرأة المهنية على السؤال أو المراجعة.

إن الإحسان في عصر الذكاء الاصطناعي لا يعني تحسين التنبؤ فقط، وعدم الإضرار لا يتحقق بمجرد انخفاض نسبة الخطأ الإحصائي، بل يتطلبان وعياً نقدياً مستمراً يوازن بين ما تقترحه الخوارزمية وما يقتضيه الضمير السريري.

> العدالة في الطب الرقمي. يحمل الذكاء الاصطناعي وعداً حقيقياً بتوسيع الوصول إلىر الرعاية الصحية، من خلال دعم التشخيص في المناطق محدودة الموارد، وتقليل الفوارق في الوصول إلى الخبرة الطبية. غير أن هذا الوعد الأخلاقي يرتبط بشرط أساسي بعدالة البيانات التي تتعلم منها الأنظمة الذكية.

إن الخوارزميات لا تعمل بمعزل عن الواقع الاجتماعي، بل تعكسه. وإذا كانت بيانات التدريب تمثل فئات سكانية محدودة، أو أنظمة صحية متقدمة دون غيرها، فقد تنتج توصيات أقل دقة لدى مجتمعات أخرى، ما يعيد إنتاج التفاوتات الصحية بدلاً من تقليصها.

لهذا تصبح مراجعة النماذج والخوارزميات، وتقييم مصادر البيانات، وضمان تمثيل التنوع البشري والثقافي، جزءاً لا يتجزأ من المسؤولية الأخلاقية في الطب الرقمي. فالعدالة لم تعد مسألة توزيع الخدمات فقط، بل مسألة تصميم خوارزمي واعٍ يضمن تكافؤ فرص التشخيص والعلاج بين مختلف المرضى والمجتمعات.

> الطب يبقى فعلاً إنسانياً. من شريعة حمورابي التي ربطت الفعل الطبي بالمسؤولية، إلى قسم أبقراط الذي جعل عدم الإضرار مبدأً مهنياً، إلى ابن سينا الذي جمع بين المعرفة والحكمة، ظلّ الطب قائماً على علاقة أخلاقية بين إنسان وإنسان. لم يكن يوماً مجرد تقنية، بل التزاماً ومسؤولية وقراراً يُتخذ في لحظة حساسة قد تغيّر مصير حياة.

اليوم، ومع صعود الخوارزميات القادرة على تحليل ملايين البيانات في ثوانٍ، يتسع أفق الرؤية الطبية، لكن جوهر القرار لا يتغير، لكنها لا تتحمل عبء الاختيار الأخلاقي، ولا تقف أمام المريض لتحمل تبعات القرار.

قد تساعد التقنية الطبيب على أن يرى بوضوح أكبر، لكنها لا تعفيه من أن يختار. والطب، في نهاية المطاف، لا يُقاس بذكاء النظام المستخدم، بل بوعي الإنسان الذي يوجّهه. ومهما تطورت الخوارزميات، يبقى القرار الطبي فعلاً إنسانياً، ومسؤولية لا يمكن تفويضها بالكامل للآلة.


لماذا تصبح الجراثيم القاتلة خطراً على بعض الناس دون غيرهم؟

لماذا تصبح الجراثيم القاتلة خطراً على بعض الناس دون غيرهم؟
TT

لماذا تصبح الجراثيم القاتلة خطراً على بعض الناس دون غيرهم؟

لماذا تصبح الجراثيم القاتلة خطراً على بعض الناس دون غيرهم؟

تكشف الدراسات الحديثة أن ما كان يُعتقد يوماً مجرد حظ عاثر أمام الأمراض الشديدة أصبح اليوم يمكن تفسيره وعلاجه. فمنذ ثمانينات القرن الماضي تمكن الباحثون من جمع قائمة مطولة من الطفرات الجينية النادرة التي تصيب مئات الجينات مسببةً «الأخطاء المناعية الفطرية»، إذ تقوم هذه الأخطاء بتعطيل وظيفة الخلايا المناعية لتجعل حامليها عرضة لأمراض معدية يكون معظم الناس في مأمن منها. واليوم بات بإمكان الأطباء إجراء فحوص جينية للكشف عن هذه الطفرات وتعويض العوامل المناعية المفقودة.

وقد أظهرت جائحة «كوفيد - 19» هذا اللغز بوضوح. فبينما اكتفى كثيرون من المصابين بأعراض خفيفة عانى آخرون من فشل تنفسي ومضاعفات مميتة. ومع ازدياد الأبحاث اتضح أن السبب لا يكمن في الجرثومة وحدها بل في أجسامنا نفسها.

خلل جيني خفي

• عندما تكشف المأساة خللاً خفياً. في أوائل ثمانينات القرن الماضي أُصيب طفل في مالطا بعدوى شديدة اجتاحت جسده وأدت إلى فشل عدة أعضاء. وبعد نقله إلى لندن تبيّن أن المسبب بكتيريا شائعة توجد في الماء والتربة يتعرض لها معظم الناس دون أن تسبب أي مرض. لكن الطفل توفي رغم العلاج المكثف. ولاحقاً اكتشف الأطباء أنه كان يحمل طفرة جينية نادرة أضعفت جزءاً أساسياً من جهازه المناعي.

• عندما تكون المناعة مكتوبة في الجينات. يعرف العلماء اليوم أن ملايين الأشخاص حول العالم يحملون تغيّرات وراثية تؤثر في كفاءة جهازهم المناعي وهي حالات تعرف باسم «أخطاء المناعة الخَلقية» inborn errors of immunity (IEIs). وقد رُبط أكثر من 500 جين بهذه الاضطرابات. فبعض الطفرات تُضعف قدرة الجسم على مقاومة الجراثيم بينما تؤدي أخرى إلى استجابة مناعية مفرطة تسبب التهابات خطيرة. ولا تعني هذه الطفرات ضعفاً عاماً بل تزيد الخطر تجاه ميكروبات محددة مثل بكتيريا السل وفيروسات الإنفلونزا والهربس.

• دروس قاسية من جائحة «كورونا». خلال الجائحة قاد عالم المناعة جان لوران كازانوفا في جامعة روكفلر بالولايات المتحده اتحاداً علمياً كشف أن حوالي 10 بالمائة من الحالات الشديدة للمرض كانت مرتبطة بخلل مناعي خفي يتمثل في وجود «أجسام مضادة ذاتية» تهاجم الجسم نفسه بدل الفيروس. ولم يقتصر هذا الاكتشاف على «كوفيد - 19»، بل تبيّن أن هذه الأجسام تظهر أيضاً في حالات الإنفلونزا الشديدة.

الطبقة الخفية وراء الجينات

• تأثيرات بيئية وغذائية على الجينات. أضافت دراسة حديثة من «معهد سالك للأبحاث» نُشرت في مجلة «Nature Genetics 14» يناير (كانون الثاني) 2026 برئاسة دوسان بوغونوفيتش، عالم مناعة الأطفال في جامعة كولومبيا في مدينة نيويورك بالولايات المتحدة، أضافت قطعة أساسية إلى هذا اللغز. فقد أظهرت الدراسة أن استجابة الجسم للعدوى تتأثر أيضاً بـ«علم التخلق أو اللاجينوم» (Epigenetics)، وهي عملية تنظيم الجينات التي لا تعتمد على تغيير تسلسل الحمض النووي (دي إن إيه)، بل تقوم على إضافة طبقة من العلامات الكيميائية فوق الحمض النووي. وتعمل هذه العلامات كمفاتيح تحكم دقيقة تشغّل جينات معينة أو توقفها دون تغيير الشفرة الوراثية الأساسية. ويتأثر هذا النشاط بالعوامل البيئية والغذاء والتوتر والعدوى السابقة واللقاحات ومراحل النمو.

• كيف تترك الحياة بصمتها داخل خلايا المناعة؟ حلّل الباحثون عينات دم من 110 أشخاص تعرضوا لعدوى وتجارب صحية مختلفة، ودرسوا أربعة أنواع رئيسية من خلايا المناعة. ووجدوا أن التأثيرات الوراثية تترك بصمتها في مناطق مستقرة من الجينوم، خاصة في خلايا المناعة طويلة العمر. بينما تُحدث العدوى والتجارب الحياتية تغييرات مرنة تساعد الجهاز المناعي على الاستجابة السريعة عند الحاجة. باختصار الجينات تضع الأساس لكن تجارب الحياة تعدّل طريقة عمل الجهاز المناعي بمرور الزمن.

• أين يبدأ المرض فعلياً؟ كشفت الدراسة أن العديد من المتغيرات الجينية المرتبطة بالأمراض لا تؤدي إلى المرض بشكل مباشر بل تعمل من خلال إحداث تغييرات في العلامات اللاجينية داخل أنواع محددة من الخلايا المناعية، حيث يتيح هذا الاكتشاف للعلماء تحديد الخلايا والمسارات الجزيئية التي ينطلق منها المرض بدقة.

طريقة جديدة لفهم العدوى

يرى بعض العلماء اليوم أن العدوى الشديدة غالباً ما تنجم عن خلل مناعي كامن، سواء وُجد منذ الولادة أم تطور مع الزمن، وأن الجراثيم تعمل كمحفّز للمرض أكثر من كونها السبب الوحيد. في المقابل يؤكد آخرون أن العمر والبيئة والحالة الصحية العامة وخصائص الجرثومة نفسها تلعب أدواراً حاسمة. فالأمراض المعدية هي نتاج تفاعل ديناميكي بين نظامين يتطوران معاً هي الإنسان والميكروب.

ويغيّر هذا الفهم نظرتنا إلى العدوى فبدل اعتبارها مجرد «سوء حظ» باتت تُرى كنتيجة تفاعل معقد بين الجينات وتجارب الحياة والجراثيم. وفي المستقبل قد تتيح الخرائط الجينية واللاجينية للأطباء التنبؤ بكيفية استجابة الشخص للعدوى قبل حدوثها وتصميم علاجات ووسائل وقاية مخصصة لكل فرد. وهكذا يقودنا العلم خطوة إضافية نحو طب أكثر دقة يفهم لماذا يمرض بعض الناس بشدة وربما يمنع ذلك قبل فوات الأوان.


جميعنا نخفي 9 أسرار تُنهك أرواحنا من الداخل

جميعنا نخفي 9 أسرار تُنهك أرواحنا من الداخل
TT

جميعنا نخفي 9 أسرار تُنهك أرواحنا من الداخل

جميعنا نخفي 9 أسرار تُنهك أرواحنا من الداخل

يُخفي الشخص العادي 9 أنواع من الأسرار، تتراوح بين الكذب والرغبات العاطفية الخفيّة، وقد يُشكل هذا عبئاً ثقيلاً؛ لأن للأسرار عادةً مُقلقةً؛ تتمثل في تبادرها إلى الذهن دون سابق إنذار. وقد يُخفف الاعتراف بها من وطأة الأمر، لكن بعض الأسرار حساس للغاية؛ فلا يُمكن مشاركته، كما كتبت أليس كلاين في مجلة «نيو ساينتست» البريطانية.

العبء النفسي لإخفاء الأسرار

تقول فال بيانكي، من جامعة ملبورن في أستراليا: «قد تُفكر في الأسرار خلال الاستحمام، أو عند غسل الأطباق، أو حتى في طريقك إلى العمل».

وأمضت بيانكي سنوات في دراسة العبء النفسي لإخفاء الأسرار وسبل تخفيفه، وقد مُوِّل أحدث أبحاثها من قِبَل «مكتب الاستخبارات الوطنية الأسترالي». وتضيف أن على عملاء الاستخبارات الحفاظ على أسرار بالغة الحساسية لحماية الأمن القومي، لذا؛ فهم بحاجة إلى استراتيجيات لتحمل هذه المسؤولية.

دراسة 38 فئة من الأسرار

لفهم تأثير الأسرار على رفاهية الأفراد بشكل أفضل، استقطبت بيانكي وزملاؤها 240 شخصاً عبر الإنترنت، وطلبوا منهم ملء استبيان عن أسرارهم. أشار المشاركون إلى ما إذا كانوا يخفون أي أسرار من 38 فئة، بما في ذلك: الكذب، والخيانة الزوجية، والسرقة، والإدمان.

الكذب والعيوب الجسدية والسلوكيات الجنسية

في المتوسط، احتفظ المشاركون بـ9 أنواع من الأسرار، وكان أوسعها شيوعاً الكذب (78 في المائة من المشاركين)، والشعور بعدم الرضا عن جانب جسدي شخصي (71 في المائة). وشملت الأسرار الشائعة الأخرى الأمور المالية (70 في المائة)، والرغبات العاطفية (63 في المائة)، والسلوكيات الجنسية (57 في المائة).

أهم الأسرار... مقلق

بعد ذلك، طُلب من المشاركين تحديد أهم سر لديهم وكتابة يوميات لمدة أسبوعين بشأن شعورهم تجاهه. أفاد المشاركون عموماً بأن أهم أسرارهم سلبية، وعند التفكير فيها، تتشتت أفكارهم نحو مخاوف أو قلق يساورهم بشأنها، كما جاء في الدراسة المنشورة في دورية «PsyArXiv, doi.org/qs6j»

تسلل الأسرار إلى الذهن

خلصت أبحاث بيانكي السابقة إلى أن الأسرار المهمة تميل إلى التسلل إلى أفكار الناس مرة كل نحو ساعتين. وتقول: «غالباً ما تخطر هذه الأسرار على البال خلال فعل شيء لا يتطلب كامل انتباهك... لأن ذهنك يجد متسعاً للتفكير في السر والتأمل فيه».

البوح بالأسرار

وتضيف بيانكي أن البوح بالأسرار قد يوفر بعض الراحة في بعض الحالات، لا سيما عند إخبار أشخاص غير متأثرين بشكل مباشر بمحتواها، ويتسمون بالتعاطف، مثل رجال الدين أو المعالجين النفسيين.

من جهة أخرى، لا يمكن البوح ببعض الأسرار لأي شخص؛ بما في ذلك المعلومات السرية للغاية التي يحتفظ بها ضباط المخابرات. وفي هذه الحالات، قد يكون من المفيد لحامل السر التحدث مع شخص ما عن مشاعره تجاه السر، دون الكشف عن محتواه الفعلي، كما تقول بيانكي.

تدوين المذكرات اليومية... علاج نافع

يقول جيمس بينيباكر، من جامعة تكساس في أوستن بالولايات المتحدة، الذي أثبت أن تدوين المشاعر في مذكرات يومية غالباً ما يكون علاجياً، إن خياراً آخر قد يكون متاحاً للأشخاص الذين لا يعملون في مجال الاستخبارات، هو الكتابة سراً عن مشاعرهم وكيف تؤثر عليهم. ويضيف: «بدأ بحثي بملاحظة أن الأشخاص الذين مروا بأي نوع من الاضطرابات الكبيرة كانوا أكبر عرضة لمشكلات صحية إذا لم يتحدثوا عن هذه الأحداث مقارنةً بمن تحدثوا عنها».