مَن هم المتحكّمون بمقدرات الذكاء الاصطناعي؟

طروحات تعدُّه سباقاً جيوسياسياً للغلبة والفوز وليس نظاماً مجتمعياً ينبغي إدارته بحكمة

الذكاء الاصطناعي قد يوظف للغلبة والفوز.. رغم استفادة كل المجتمعات من مزاياه الفريدة
الذكاء الاصطناعي قد يوظف للغلبة والفوز.. رغم استفادة كل المجتمعات من مزاياه الفريدة
TT

مَن هم المتحكّمون بمقدرات الذكاء الاصطناعي؟

الذكاء الاصطناعي قد يوظف للغلبة والفوز.. رغم استفادة كل المجتمعات من مزاياه الفريدة
الذكاء الاصطناعي قد يوظف للغلبة والفوز.. رغم استفادة كل المجتمعات من مزاياه الفريدة

في قاعات مجالس إدارة وادي السيليكون، تباشر مجموعة صغيرة من المديرين التنفيذيين في هدوء اتخاذ قرارات ستُشكّل مسار حياة المليارات من البشر. ومعظمنا لن يعرف ما هي تلك القرارات إلا بعد فوات الأوان لتغييرها.

خطة أميركية للذكاء الاصطناعي

نشر البيت الأبيض، في يوليو (تموز) الماضي، «خطة عمل الذكاء الاصطناعي الأميركية»، وهي وثيقة من 28 صفحة تبدو أشبه بسياسة صناعية لسباق تسلح جديد.

يكمن في الركيزة الأولى سطر يُخبرك بالضبط إلى أين تتجه سياسة الولايات المتحدة: «مراجعة إطار عمل إدارة مخاطر الذكاء الاصطناعي التابع للمعهد الوطني للمعايير والتقنية (NIST) لإزالة الإشارات إلى المعلومات المضللة، والتنوع، والمساواة، والشمول، وتغيرات المناخ».

عندما تبدأ الحكومات في شطب هذه الكلمات عن قصد، من الإنصاف أن نتساءل: مَن الذي يضع شروط مستقبلنا التكنولوجي - ولمن تكون الفائدة؟تخفيف الرقابة... وسباق جيوسياسي

هذا أكثر من مجرد كلام. تتباهى الخطة نفسها بإلغاء أمر الإدارة الأميركية السابقة بشأن الذكاء الاصطناعي، وتخفيف الرقابة، وتسريع وتيرة البنية التحتية والطاقة لمراكز البيانات. إنها تُعيد صياغة الذكاء الاصطناعي بصورة أساسية بوصفه سباقاً جيوسياسياً «للغلبة والفوز»، وليس بوصفه نظاماً مجتمعياً تنبغي إدارته. إنه منظور أقل تركيزاً حول الإشراف وأكثر توجهاً صوب إبرام الصفقات، وهو أسلوب حوكمة يُعامل السياسة العامة معاملة وثيقة الشروط. هذا التأطير مهم: فعندما يكون الهدف السياسي هو السرعة والهيمنة، تصبح المساءلة مجرد «شيء جميل مُضاف».

المسار الأوروبي

اختارت أوروبا مساراً مختلفاً تماماً: فرض القيود أولاً، ثم التوسع. دخل قانون الاتحاد الأوروبي للذكاء الاصطناعي حيز التنفيذ في أغسطس (آب) من عام 2024، ويفرض التزامات تدريجية حتى عام 2026، مع تصميم إنفاذ القانون بناءً على المخاطر. فهل هو منقوص؟ بكل تأكيد. لكن الرسالة لا لبس فيها: يتعين على المؤسسات الديمقراطية - وليس فقط على إدارات العلاقات العامة للشركات - تحديد الاستخدامات، والإفصاحات، والمسؤوليات المقبولة قبل أن تنتشر التكنولوجيا في كل مكان.

الشركات تتحكم بالذكاء الاصطناعي

في الآونة ذاتها، يتركز ثقل الذكاء الاصطناعي في قبضة عدد قليل من الشركات التي تتحكم في قدرات الحوسبة، والنماذج، والتوزيع. لنتحدث عن الحوسبة مثالاً - أي سعة الحوسبة القائمة على الأدوات المسرعة (التي تسرّع وقت وحدة معالجة الرسوميات/وحدة المعالجة المركزية المسرّعة) اللازمة لتدريب وتشغيل الذكاء الاصطناعي الحديث - بالإضافة إلى النماذج والتوزيع.

لا يزال المحللون يُقدِّرون حصة شركة «إنفيديا» الأميركية من مسرعات الذكاء الاصطناعي بنحو 90 في المائة، وتستحوذ شركات الحوسبة السحابية الكبرى على السعة لسنوات مقدماً. وهذه الندرة تُشكل مَن يستطيع التجربة، ومَن لا يستطيعها، ومن يدفع لمن مقابل الوصول إليها. وعندما يتعامل رئيس الدولة مع السياسة التكنولوجية مثل مصرفي استثماري، فإن تلك المفاوضات لا تدور حول المصلحة العامة؛ وإنما حول تعظيم الصفقة، غالباً لمصلحة خزينة الدولة، وأحياناً لتحقيق مكاسب سياسية.

غموض وتعقيد

وما يزيد الغموض والتعقيد، التفاف الشركات وانعدام شفافيتها، إذ يرفض التقرير التقني الخاص ببرنامج «تشات جي بي تي 4» الخاص بشركة «أوبن إيه آي» الكشف عن بيانات التدريب، أو حجم النموذج، أو قدرات الحوسبة المستخدمة، مستشهدا صراحة بالمنافسة والسلامة.

وبغض النظر عن رأيك في هذا المنطق، فإن ذلك يعني أن الشركات تطلب من المجتمع قبول أنظمة ذات تبعات كبيرة بينما يبقى المجتمع إلى حد كبير جاهلاً بما يدخل في تكوينها. إن عبارة «ثقوا بنا» ليست أسلوباً للحوكمة الحكيمة.

سلطة مُركزة

إذا كنت تريد مثالاً صغيراً ولكنه واضح عن كيفية تأثير الخيارات الخاصة على الحياة العامة، فانظر إلى ما حدث عندما أطلقت شركة «أوبن إيه آي» صوتاً جذاباً يُدعى «سكاي - Sky» اعتقد الكثيرون أنه يشبه صوت الممثلة سكارليت جوهانسون. بعد رد فعل عنيف من الجمهور، أوقفت الشركة هذا الصوت مؤقتاً.

وهنا نلاحظ أنه لم تُرسم حدود ثقافية من قِبل جهة تنظيمية أو محكمة، بل من قِبل فريق منتجات، وقرار شركة. وهذا يمثل قدراً كبيراً للغاية من السلطة لمجموعة صغيرة للغاية من الناس.

أضرار بيئية

تظهر السلطة أيضاً في فواتير الخدمات. يربط أحدث تقرير بيئي لشركة «غوغل» زيادة بنسبة 48 في المائة في انبعاثات الغازات الدفيئة منذ عام 2019 بنمو مراكز البيانات للذكاء الاصطناعي، ويوثق استخدام 6.1 مليار غالون من المياه في عام 2023 لأغراض التبريد - وهي أرقام سترتفع مع التوسع. يذهب تحليل دورة حياة «ميسترال - Mistral» إلى أبعد من ذلك، حيث يُقدّر استهلاك الطاقة والمياه لكل استعلام «prompt» لنماذجها. كل «استعلام للنموذج» له بصمة؛ إذا تضاعفت هذه الأرقام بالمليارات، فلن تتمكن من التظاهر بأنها مجانية، مهما كنتَ مُنكراً للتغيرات المناخية.

إذن، أجل، الولايات المتحدة «تفوز بالسباق». إلا أن تركيز القرارات التي تؤثر على حرية التعبير، والتوظيف، والتعليم، والبيئة في دائرة صغيرة للغاية من قاعات مجالس الإدارة. والنتيجة هي عجز ديمقراطي. فهنا يُختزل الجمهور إلى مجرد متفرجين، يتفاعلون مع الحقائق المفروضة بدلاً من وضع القواعد.بدائل وخيارات

ماذا لو عكسنا الوضع؟ نبدأ بمعاملة الذكاء الاصطناعي بصفته بنيةً تحتية تتطلب قدرات عامة، وليس فقط نفقات رأسمالية خاصة. تعكس مبادرة «المورد الوطني لأبحاث الذكاء الاصطناعي» التجريبية «National AI Research Resource pilot» التوجه الصحيح:

* أستاذ في جامعة آي إي، مدريد. مجلة «طفاست كومباني» - خدمات «تريبيون ميديا»• أولاً - امنح الباحثين والشركات الناشئة وصولاً مشتركاً إلى قدرات الحوسبة والبيانات والأدوات؛ حتى لا تكون الأبحاث مقيدة بعقود مع شركات الحوسبة السحابية الكبرى. اجعل الوصول مستمراً، وممولاً جيداً، ومستقلاً؛ لأن العلم المفتوح يموت عندما يصبح الوصول إليه مرهوناً باتفاقيات عدم الإفصاح.

• ثانياً - اربط الأموال والمشتريات العامة بشروط. إذا كانت الوكالات والمدارس ستشتري الذكاء الاصطناعي، فيجب أن تطلب إفصاحات أساسية: ما هي البيانات التي استُخدمت للتدريب؛ ما هي الضوابط التي تحكم المخرجات؛ ما هي الاختبارات المستقلة التي اجتازها النموذج؛ وسجل للطاقة والمياه مرتبط بالزمان والمكان، وليس بالمعدلات السنوية. إذا لم يستطع البائع تلبية هذه الشروط، فإنه لا يحصل على العقود. هذا ليس «معاداة للابتكار»، بل هو انضباط السوق الذي يتسق مع القيم العامة.

• ثالثاً - افصل الطبقات لكبح الاحتكار. لا ينبغي لمقدمي الخدمات السحابية أن يكونوا قادرين على فرض استخدام نموذجهم لرقائقهم لتشغيل خدماتهم كخيار افتراضي. إن قابلية التشغيل البيني ونقل البيانات ليستا مثاليات رومانسية؛ بل هما السبيل للحفاظ على قطاع تنافسي عندما تتحكم ثلاث شركات في البنية بأكملها.

أهمية الشفافية

• رابعاً - يجب أن تعني الشفافية أكثر من مجرد «بطاقات النماذج» التي يكتبها البائع. بالنسبة للأنظمة التي تتجاوز حجماً معيناً، يجب أن نطلب إفصاحات قابلة للتدقيق لأطراف ثالثة مؤهلة - حول مصدر بيانات التدريب، ومجموعات التقييم، وأداء ما بعد النشر. إذا كان هذا يبدو مرهقاً؛ فذلك لأن العواقب على نطاق واسع مرهقة كذلك. لقد تعلمنا هذا في كل بنية تحتية حيوية أخرى.

• خامساً - اجعل السرد البيئي يتواءم مع الواقع. يجب أن تكون إفصاحات المياه والطاقة فورية، وخاصة بالمنشأة، وموثقة.

إن «توفير المياه بحلول عام 2030» لا يساعد بلدة ما تُستنزف طبقة المياه الجوفية لديها في هذا العقد. إذا كانت الشركات تريد أن تكون سبّاقة في طرح النماذج الرائدة، فيجب أن تكون أيضاً الأولى في تطبيق شراء الطاقة الخالية من الكربون على مدار الساعة، وتحديد ميزانيات مياه صارمة ذات صلة بالعلوم المحلية لحركة وتوزيع وإدارة المياه.

خطر أعمق

هناك خطر أعمق عندما تُدار الاستراتيجية التكنولوجية الوطنية مثلما تدار محفظة الأعمال: إذ تصبح الكفاءة والإيرادات هي المقاييس الأساسية؛ ما يطغى على احتياجات المواطنين التي يصعب قياسها كمياً.

في القطاع الخاص، يمكن تبرير التضحية بالأخلاق أو الشفافية أو الاستقرار على المدى الطويل من أجل صفقة مربحة بأنها تهدف إلى زيادة قيمة المساهمين. أما في الحكومة، فتؤدي هذه المقايضة نفسها إلى تآكل الديمقراطية ذاتها؛ ما يركز القرارات في أيدي أقل، ويجعل منظور «الربح أولاً» طبيعياً في مسائل يجب أن تركز على الحقوق، والضمانات، وثقة الجمهور.

ليس الهدف هو إبطاء الذكاء الاصطناعي. وإنما أن نقرر، علناً، أي نوع من الذكاء الاصطناعي نريده وبأي شروط.

إن الولايات المتحدة قادرة على الجمع بين الطموح وضبط النفس في آن واحد؛ لقد فعلنا ذلك في مجالات الطيران، والطب، والتمويل. يجب ألا يكون الذكاء الاصطناعي مختلفاً عن ذلك. إذا تركنا الخيارات الكبرى لعدد قليل من الشركات وعدد قليل من المُعينين السياسيين، فسوف نحصل على مستقبل صُنع لأجلنا، وليس بواسطتنا. وسوف يكون ثمن إعادة كتابته لاحقاً أعلى مما يعترف به أي إنسان اليوم.* أستاذ في جامعة آي إي، مدريد. مجلة «طفاست كومباني» - خدمات «تريبيون ميديا»


مقالات ذات صلة

كاميرا للسيارات وسماعات لاسلكية مطورة

تكنولوجيا  كاميرا "إس 1- 4 كيه إنفينيت"

كاميرا للسيارات وسماعات لاسلكية مطورة

إليكم اثنين من أحدث الأجهزة الجديدة: كاميرا للسيارات بالذكاء الاصطناعي . تعدّ كاميرا لوحة القيادة للسيارات dashcam من شركة «فيرويد»، «إس 1-4 كيه إنفينيت» …

غريغ إيلمان (واشنطن)
تكنولوجيا كيف تشاهد البث المباشر مجاناً على هاتفك أو جهازك اللوحي؟

كيف تشاهد البث المباشر مجاناً على هاتفك أو جهازك اللوحي؟

تتوفر الكثير من الخيارات لمشاهدة الفيديوهات عبر الإنترنت بفضل خدمات البث المباشر المتوفرة بكثرة، لكن ماذا لو كنت تبحث عن مشاهدة البث التلفزيوني المباشر

جي دي بيرسدورفر (نيويورك)
تكنولوجيا وصل معدل نقل البيانات في التجربة إلى نحو 2.6 غيغابت في الثانية مع اتصال مستقر خلال تحرك الطائرة (إيرباص للدفاع والفضاء)

لأول مرة... اتصال ليزري عالي السرعة بين طائرة وقمر اصطناعي في المدار الثابت

نجاح تجربة أول اتصال ليزري عالي السرعة بين طائرة وقمر اصطناعي في المدار الثابت، يمهِّد لتطوير شبكات اتصالات فضائية أسرع.

نسيم رمضان (لندن)
تكنولوجيا لم يعد الاحتيال الرقمي حوادث فردية بل تحول إلى منظومة اقتصادية عالمية تتسارع مع التحول الرقمي والذكاء الاصطناعي (غيتي)

تقرير عالمي: 74 % من احتيال الهويّة باتت تعتمد أدوات الذكاء الاصطناعي

يتحول الاحتيال الرقمي إلى منظومة عالمية مدعومة بالذكاء الاصطناعي مع تضاعف احتيال العملاء، وازدهار أسواق الإنترنت المظلم، وتسارع المدفوعات الرقمية

نسيم رمضان (لندن)
الاقتصاد أحد مراكز البيانات التابعة لـ«أمازون ويب سيرفسز» (الشركة)

ماذا يعني تعطل خدمات «أمازون» في الإمارات والبحرين؟

تعطل خدمات «أمازون ويب سيرفسز» في الإمارات والبحرين يوقف الأنشطة المرتبطة بهذه المراكز في المنطقة، ويؤثر على استمرارية عمل الشركات.

«الشرق الأوسط» (الرياض)

كيف يفهم الذكاء الاصطناعي مبادئ أخلاقيات الطب؟

العدالة في زمن الذكاء الاصطناعي الطبي- المبادئ الاربعة: الاستقلالية، العدالة، المنفعة ، وعدم الإضرار
العدالة في زمن الذكاء الاصطناعي الطبي- المبادئ الاربعة: الاستقلالية، العدالة، المنفعة ، وعدم الإضرار
TT

كيف يفهم الذكاء الاصطناعي مبادئ أخلاقيات الطب؟

العدالة في زمن الذكاء الاصطناعي الطبي- المبادئ الاربعة: الاستقلالية، العدالة، المنفعة ، وعدم الإضرار
العدالة في زمن الذكاء الاصطناعي الطبي- المبادئ الاربعة: الاستقلالية، العدالة، المنفعة ، وعدم الإضرار

لم يعد الذكاء الاصطناعي في الطب مجرد أداة تحليلية تعمل في الخلفية خلف الشاشات، بل أصبح حاضراً في لحظة القرار ذاتها؛ في غرف الطوارئ، وفي أنظمة دعم التشخيص، وفي منصات تقييم المخاطر التي قد ترجّح خياراً علاجياً على آخر. وتقترح الأنظمة الذكية اليوم احتمالات علاجية، وتحسب نسب المضاعفات، وتقدّر فرص النجاة.

هنا يتغير السؤال جذرياً. لم يعد السؤال؛ هل يستخدم الطب الذكاء الاصطناعي؟ بل أصبح؛ كيف يمكن لهذه الأنظمة أن تعمل داخل المنظومة الأخلاقية التي صاغت الممارسة الطبية عبر قرون طويلة؟ كيف يمكن لخوارزمية أن تفهم، أو على الأقل أن تُحاط بمبادئ الإحسان، وعدم الإضرار، واحترام الاستقلالية، وتحقيق العدالة؟

حين تدخل الخوارزمية غرفة القرار، فإنها لا تدخل فراغاً تقنياً، بل تدخل تاريخاً أخلاقياً ممتداً من قوانين حمورابي، إلى قسم أبقراط، إلى تنظيرات ابن سينا، وصولاً إلى مواثيق الأخلاقيات الطبية الحديثة. والسؤال اليوم ليس عن قدرة الآلة على الحساب، بل عن قدرتنا نحن على إدماجها في هذا الإرث الأخلاقي دون أن يتصدّع.

أخلاقيات الطب من المسمار الطيني إلى الخوارزمية

جذور أخلاقيات الطب

> من حمورابي إلى ابن سينا. ظهرت أولى محاولات تنظيم المسؤولية الطبية في شريعة الملك حمورابي في بلاد الرافدين قبل نحو 4 آلاف عام، حيث رُبط الفعل الطبي بنتائجه، وحددت مسؤولية الطبيب القانونية بوضوح غير مسبوق في تاريخ الحضارات. وكان الطب هنا فعلاً يخضع للمساءلة، لا مجرد مهارة تقنية.

وفي الصين القديمة، أكّد كونفوشيوس مركزية الفضيلة والواجب الأخلاقي في علاقة المعالج بالمريض. ثم جاء أبقراط في اليونان ليضع الإطار الأكثر رسوخاً لفكرة الالتزام الأخلاقي للطبيب، عبر مبدأ «عدم الإضرار» والسعي لمنفعة المريض، مؤسساً لفكرة أن الغاية من المعرفة الطبية هي حماية الإنسان، لا استعراض المهارة.

وفي الحضارة الإسلامية، رسّخ ابن سينا في كتابه «القانون في الطب» تصوراً أكثر تكاملاً، حيث لا تنفصل المعرفة الطبية عن الحكمة، ولا المهارة عن الضمير الإنساني. فالطبيب عنده ليس حافظاً للمعلومات فحسب، بل صاحب رؤية أخلاقية توازن بين العقل والرحمة.

> طبّ بين المعرفة والمسؤولية. لم يكن الطب يوماً صراعاً بين الإنسان والأداة، بل علاقة متواصلة بين التقدم العلمي والمسؤولية الأخلاقية. فمع كل تطور تقني - من المشرط الجراحي إلى الأشعة السينية ثم إلى التصوير الجزيئي - ازدادت دقة التشخيص واتسعت إمكانات العلاج، لكن في المقابل تعمّق عبء القرار الطبي وتعقّد. فالأداة لا تعفي الطبيب من المسؤولية، بل تضيف طبقة جديدة من المساءلة؛ كيف تُستخدم؟ ومتى؟ ولصالح من؟

اليوم يختلف الذكاء الاصطناعي عن الأدوات السابقة في أنه لا يساعد اليد فقط، بل يقترب من مجال التفكير السريري ذاته. إنه لا يكتفي بتوفير صورة أو نتيجة مختبرية، بل يقترح تفسيراً، ويرجّح احتمالاً، ويعيد ترتيب الخيارات العلاجية. وهنا يصبح السؤال الأخلاقي أكثر حساسية؛ إذا كانت الأداة تشارك في التحليل، فمن يملك القرار؟ ومن يتحمل مسؤوليته؟

الضمير في قلب الخوارزمية

حدود الذكاء الاصطناعي

> قصور في الاعتبارات الأخلاقية. لم يعد النقاش حول أخلاقيات الذكاء الاصطناعي نظرياً أو افتراضياً، بل أصبح مدعوماً بتحليل تجريبي لحوادث واقعية. ففي دراسة نُشرت في فبراير (شباط) 2026 بعنوان «كشف المخاطر الخفية للذكاء الاصطناعي: vتحليل تجريبي للحوادث المرتبطة بالأنظمة الصحية الذكية»، في مجلة الذكاء الاصطناعي في الطب (Artificial Intelligence in Medicine)، أجرى باحثون من معهد أخلاقيات الذكاء الاصطناعي بجامعة أكسفورد في المملكة المتحدة مراجعة منهجية لحوادث ارتبطت باستخدام أنظمة ذكية في بيئات الرعاية الصحية.

وكشفت النتائج أن عدداً كبيراً من الإخفاقات لم يكن ناتجاً عن خلل تقني مباشر في الخوارزمية، بل عن قصور في الاعتبارات الأخلاقية أثناء تصميم النظام، أو عن تطبيقه خارج السياق السريري المناسب. ففي بعض الحالات، جرى استخدام النظام في فئات مرضية لم تُدرَّب الخوارزمية عليها بما يكفي، أو دون مراعاة الفروق الاجتماعية والاقتصادية بين المرضى، ما أدى إلى توصيات غير عادلة أو غير ملائمة.

تلك النتائج تعيدنا إلى جوهر السؤال؛ الذكاء الاصطناعي قد يكون دقيقاً من الناحية الحسابية، لكن من دون إطار أخلاقي واضح يوجّه تصميمه واستخدامه، قد يتحول من أداة مساعدة إلى مصدر خطر غير مقصود.

> الاستقلالية: قرار المريض في عصر الخوارزمية. يقوم مبدأ الاستقلالية على حق المريض في اتخاذ قراره بعد فهم الخيارات العلاجية المتاحة، وموازنة فوائدها ومخاطرها وفق قِيَمه وظروفه الخاصة. وهو مبدأ انتقل بالطب من نموذج «الوصاية» إلى نموذج الشراكة بين الطبيب والمريض.

في هذا السياق، يمكن للذكاء الاصطناعي أن يكون أداة داعمة للاستقلالية، عبر تبسيط المعلومات الطبية المعقدة، وعرض بدائل علاجية متعددة، وتوضيح احتمالات النجاح والمضاعفات بلغة مفهومة. كما يمكنه أن يمكّن المريض من الاطلاع على سيناريوهات مختلفة تساعده على اتخاذ قرار أكثر وعياً.

غير أن التحدي الأخلاقي يظهر حين تتحول توصيات النظام إلى سلطة غير مرئية. فالمريض، وأحياناً الطبيب، قد يميلان إلى الثقة المفرطة بالتوصية الرقمية باعتبارها «محايدة» أو «موضوعية»، حتى إن كانت مبنية على بيانات غير مكتملة أو منحازة. هنا قد يتقلص المجال الحقيقي للاختيار، دون أن يبدو ذلك واضحاً.

الاستقلالية في عصر الخوارزمية لا تعني توفير الخيارات فقط، بل ضمان ألا تتحول الخوارزمية إلى مرجعية صامتة تُعيد تشكيل القرار من وراء الستار.

التقييم في عصر الطب الرقمي

> الإحسان وعدم الإضرار. يشكّل مبدأ الإحسان، أي السعي إلى تحقيق منفعة المريض ومبدأ عدم الإضرار وتجنّب الأذى قدر الإمكان، حجر الزاوية في الأخلاقيات الطبية منذ أبقراط. وفي هذا الإطار، تبدو الأنظمة الذكية حليفاً طبيعياً لهذين المبدأين. فهي قادرة على تحليل كميات هائلة من البيانات السريرية، والتنبؤ بالمضاعفات المحتملة، ورصد الأنماط الدقيقة التي قد تفوت العين البشرية.

غير أن هذه القدرة الحسابية لا تعمل في فراغ. فجودة التوصيات تبقى رهينة جودة البيانات التي دُرّبت عليها الخوارزميات، وتمثيلها العادل لمختلف الفئات السكانية، ودقة السياق السريري الذي تُستخدم فيه. فإذا كانت البيانات ناقصة أو منحازة، فإن التوصية مهما بدت دقيقة قد تحمل في طياتها خطراً غير مرئي.

يضاف إلى ذلك ما يُعرف بـ«الانحياز الآلي»؛ حيث قد يميل الطبيب إلى منح ثقة مفرطة للتوصية الرقمية، فيتردد في مخالفتها رغم وجود شك سريري مشروع. هنا يتحول النظام من أداة داعمة إلى مرجعية صامتة قد تضعف الجرأة المهنية على السؤال أو المراجعة.

إن الإحسان في عصر الذكاء الاصطناعي لا يعني تحسين التنبؤ فقط، وعدم الإضرار لا يتحقق بمجرد انخفاض نسبة الخطأ الإحصائي، بل يتطلبان وعياً نقدياً مستمراً يوازن بين ما تقترحه الخوارزمية وما يقتضيه الضمير السريري.

> العدالة في الطب الرقمي. يحمل الذكاء الاصطناعي وعداً حقيقياً بتوسيع الوصول إلىر الرعاية الصحية، من خلال دعم التشخيص في المناطق محدودة الموارد، وتقليل الفوارق في الوصول إلى الخبرة الطبية. غير أن هذا الوعد الأخلاقي يرتبط بشرط أساسي بعدالة البيانات التي تتعلم منها الأنظمة الذكية.

إن الخوارزميات لا تعمل بمعزل عن الواقع الاجتماعي، بل تعكسه. وإذا كانت بيانات التدريب تمثل فئات سكانية محدودة، أو أنظمة صحية متقدمة دون غيرها، فقد تنتج توصيات أقل دقة لدى مجتمعات أخرى، ما يعيد إنتاج التفاوتات الصحية بدلاً من تقليصها.

لهذا تصبح مراجعة النماذج والخوارزميات، وتقييم مصادر البيانات، وضمان تمثيل التنوع البشري والثقافي، جزءاً لا يتجزأ من المسؤولية الأخلاقية في الطب الرقمي. فالعدالة لم تعد مسألة توزيع الخدمات فقط، بل مسألة تصميم خوارزمي واعٍ يضمن تكافؤ فرص التشخيص والعلاج بين مختلف المرضى والمجتمعات.

> الطب يبقى فعلاً إنسانياً. من شريعة حمورابي التي ربطت الفعل الطبي بالمسؤولية، إلى قسم أبقراط الذي جعل عدم الإضرار مبدأً مهنياً، إلى ابن سينا الذي جمع بين المعرفة والحكمة، ظلّ الطب قائماً على علاقة أخلاقية بين إنسان وإنسان. لم يكن يوماً مجرد تقنية، بل التزاماً ومسؤولية وقراراً يُتخذ في لحظة حساسة قد تغيّر مصير حياة.

اليوم، ومع صعود الخوارزميات القادرة على تحليل ملايين البيانات في ثوانٍ، يتسع أفق الرؤية الطبية، لكن جوهر القرار لا يتغير، لكنها لا تتحمل عبء الاختيار الأخلاقي، ولا تقف أمام المريض لتحمل تبعات القرار.

قد تساعد التقنية الطبيب على أن يرى بوضوح أكبر، لكنها لا تعفيه من أن يختار. والطب، في نهاية المطاف، لا يُقاس بذكاء النظام المستخدم، بل بوعي الإنسان الذي يوجّهه. ومهما تطورت الخوارزميات، يبقى القرار الطبي فعلاً إنسانياً، ومسؤولية لا يمكن تفويضها بالكامل للآلة.


لماذا تصبح الجراثيم القاتلة خطراً على بعض الناس دون غيرهم؟

لماذا تصبح الجراثيم القاتلة خطراً على بعض الناس دون غيرهم؟
TT

لماذا تصبح الجراثيم القاتلة خطراً على بعض الناس دون غيرهم؟

لماذا تصبح الجراثيم القاتلة خطراً على بعض الناس دون غيرهم؟

تكشف الدراسات الحديثة أن ما كان يُعتقد يوماً مجرد حظ عاثر أمام الأمراض الشديدة أصبح اليوم يمكن تفسيره وعلاجه. فمنذ ثمانينات القرن الماضي تمكن الباحثون من جمع قائمة مطولة من الطفرات الجينية النادرة التي تصيب مئات الجينات مسببةً «الأخطاء المناعية الفطرية»، إذ تقوم هذه الأخطاء بتعطيل وظيفة الخلايا المناعية لتجعل حامليها عرضة لأمراض معدية يكون معظم الناس في مأمن منها. واليوم بات بإمكان الأطباء إجراء فحوص جينية للكشف عن هذه الطفرات وتعويض العوامل المناعية المفقودة.

وقد أظهرت جائحة «كوفيد - 19» هذا اللغز بوضوح. فبينما اكتفى كثيرون من المصابين بأعراض خفيفة عانى آخرون من فشل تنفسي ومضاعفات مميتة. ومع ازدياد الأبحاث اتضح أن السبب لا يكمن في الجرثومة وحدها بل في أجسامنا نفسها.

خلل جيني خفي

• عندما تكشف المأساة خللاً خفياً. في أوائل ثمانينات القرن الماضي أُصيب طفل في مالطا بعدوى شديدة اجتاحت جسده وأدت إلى فشل عدة أعضاء. وبعد نقله إلى لندن تبيّن أن المسبب بكتيريا شائعة توجد في الماء والتربة يتعرض لها معظم الناس دون أن تسبب أي مرض. لكن الطفل توفي رغم العلاج المكثف. ولاحقاً اكتشف الأطباء أنه كان يحمل طفرة جينية نادرة أضعفت جزءاً أساسياً من جهازه المناعي.

• عندما تكون المناعة مكتوبة في الجينات. يعرف العلماء اليوم أن ملايين الأشخاص حول العالم يحملون تغيّرات وراثية تؤثر في كفاءة جهازهم المناعي وهي حالات تعرف باسم «أخطاء المناعة الخَلقية» inborn errors of immunity (IEIs). وقد رُبط أكثر من 500 جين بهذه الاضطرابات. فبعض الطفرات تُضعف قدرة الجسم على مقاومة الجراثيم بينما تؤدي أخرى إلى استجابة مناعية مفرطة تسبب التهابات خطيرة. ولا تعني هذه الطفرات ضعفاً عاماً بل تزيد الخطر تجاه ميكروبات محددة مثل بكتيريا السل وفيروسات الإنفلونزا والهربس.

• دروس قاسية من جائحة «كورونا». خلال الجائحة قاد عالم المناعة جان لوران كازانوفا في جامعة روكفلر بالولايات المتحده اتحاداً علمياً كشف أن حوالي 10 بالمائة من الحالات الشديدة للمرض كانت مرتبطة بخلل مناعي خفي يتمثل في وجود «أجسام مضادة ذاتية» تهاجم الجسم نفسه بدل الفيروس. ولم يقتصر هذا الاكتشاف على «كوفيد - 19»، بل تبيّن أن هذه الأجسام تظهر أيضاً في حالات الإنفلونزا الشديدة.

الطبقة الخفية وراء الجينات

• تأثيرات بيئية وغذائية على الجينات. أضافت دراسة حديثة من «معهد سالك للأبحاث» نُشرت في مجلة «Nature Genetics 14» يناير (كانون الثاني) 2026 برئاسة دوسان بوغونوفيتش، عالم مناعة الأطفال في جامعة كولومبيا في مدينة نيويورك بالولايات المتحدة، أضافت قطعة أساسية إلى هذا اللغز. فقد أظهرت الدراسة أن استجابة الجسم للعدوى تتأثر أيضاً بـ«علم التخلق أو اللاجينوم» (Epigenetics)، وهي عملية تنظيم الجينات التي لا تعتمد على تغيير تسلسل الحمض النووي (دي إن إيه)، بل تقوم على إضافة طبقة من العلامات الكيميائية فوق الحمض النووي. وتعمل هذه العلامات كمفاتيح تحكم دقيقة تشغّل جينات معينة أو توقفها دون تغيير الشفرة الوراثية الأساسية. ويتأثر هذا النشاط بالعوامل البيئية والغذاء والتوتر والعدوى السابقة واللقاحات ومراحل النمو.

• كيف تترك الحياة بصمتها داخل خلايا المناعة؟ حلّل الباحثون عينات دم من 110 أشخاص تعرضوا لعدوى وتجارب صحية مختلفة، ودرسوا أربعة أنواع رئيسية من خلايا المناعة. ووجدوا أن التأثيرات الوراثية تترك بصمتها في مناطق مستقرة من الجينوم، خاصة في خلايا المناعة طويلة العمر. بينما تُحدث العدوى والتجارب الحياتية تغييرات مرنة تساعد الجهاز المناعي على الاستجابة السريعة عند الحاجة. باختصار الجينات تضع الأساس لكن تجارب الحياة تعدّل طريقة عمل الجهاز المناعي بمرور الزمن.

• أين يبدأ المرض فعلياً؟ كشفت الدراسة أن العديد من المتغيرات الجينية المرتبطة بالأمراض لا تؤدي إلى المرض بشكل مباشر بل تعمل من خلال إحداث تغييرات في العلامات اللاجينية داخل أنواع محددة من الخلايا المناعية، حيث يتيح هذا الاكتشاف للعلماء تحديد الخلايا والمسارات الجزيئية التي ينطلق منها المرض بدقة.

طريقة جديدة لفهم العدوى

يرى بعض العلماء اليوم أن العدوى الشديدة غالباً ما تنجم عن خلل مناعي كامن، سواء وُجد منذ الولادة أم تطور مع الزمن، وأن الجراثيم تعمل كمحفّز للمرض أكثر من كونها السبب الوحيد. في المقابل يؤكد آخرون أن العمر والبيئة والحالة الصحية العامة وخصائص الجرثومة نفسها تلعب أدواراً حاسمة. فالأمراض المعدية هي نتاج تفاعل ديناميكي بين نظامين يتطوران معاً هي الإنسان والميكروب.

ويغيّر هذا الفهم نظرتنا إلى العدوى فبدل اعتبارها مجرد «سوء حظ» باتت تُرى كنتيجة تفاعل معقد بين الجينات وتجارب الحياة والجراثيم. وفي المستقبل قد تتيح الخرائط الجينية واللاجينية للأطباء التنبؤ بكيفية استجابة الشخص للعدوى قبل حدوثها وتصميم علاجات ووسائل وقاية مخصصة لكل فرد. وهكذا يقودنا العلم خطوة إضافية نحو طب أكثر دقة يفهم لماذا يمرض بعض الناس بشدة وربما يمنع ذلك قبل فوات الأوان.


جميعنا نخفي 9 أسرار تُنهك أرواحنا من الداخل

جميعنا نخفي 9 أسرار تُنهك أرواحنا من الداخل
TT

جميعنا نخفي 9 أسرار تُنهك أرواحنا من الداخل

جميعنا نخفي 9 أسرار تُنهك أرواحنا من الداخل

يُخفي الشخص العادي 9 أنواع من الأسرار، تتراوح بين الكذب والرغبات العاطفية الخفيّة، وقد يُشكل هذا عبئاً ثقيلاً؛ لأن للأسرار عادةً مُقلقةً؛ تتمثل في تبادرها إلى الذهن دون سابق إنذار. وقد يُخفف الاعتراف بها من وطأة الأمر، لكن بعض الأسرار حساس للغاية؛ فلا يُمكن مشاركته، كما كتبت أليس كلاين في مجلة «نيو ساينتست» البريطانية.

العبء النفسي لإخفاء الأسرار

تقول فال بيانكي، من جامعة ملبورن في أستراليا: «قد تُفكر في الأسرار خلال الاستحمام، أو عند غسل الأطباق، أو حتى في طريقك إلى العمل».

وأمضت بيانكي سنوات في دراسة العبء النفسي لإخفاء الأسرار وسبل تخفيفه، وقد مُوِّل أحدث أبحاثها من قِبَل «مكتب الاستخبارات الوطنية الأسترالي». وتضيف أن على عملاء الاستخبارات الحفاظ على أسرار بالغة الحساسية لحماية الأمن القومي، لذا؛ فهم بحاجة إلى استراتيجيات لتحمل هذه المسؤولية.

دراسة 38 فئة من الأسرار

لفهم تأثير الأسرار على رفاهية الأفراد بشكل أفضل، استقطبت بيانكي وزملاؤها 240 شخصاً عبر الإنترنت، وطلبوا منهم ملء استبيان عن أسرارهم. أشار المشاركون إلى ما إذا كانوا يخفون أي أسرار من 38 فئة، بما في ذلك: الكذب، والخيانة الزوجية، والسرقة، والإدمان.

الكذب والعيوب الجسدية والسلوكيات الجنسية

في المتوسط، احتفظ المشاركون بـ9 أنواع من الأسرار، وكان أوسعها شيوعاً الكذب (78 في المائة من المشاركين)، والشعور بعدم الرضا عن جانب جسدي شخصي (71 في المائة). وشملت الأسرار الشائعة الأخرى الأمور المالية (70 في المائة)، والرغبات العاطفية (63 في المائة)، والسلوكيات الجنسية (57 في المائة).

أهم الأسرار... مقلق

بعد ذلك، طُلب من المشاركين تحديد أهم سر لديهم وكتابة يوميات لمدة أسبوعين بشأن شعورهم تجاهه. أفاد المشاركون عموماً بأن أهم أسرارهم سلبية، وعند التفكير فيها، تتشتت أفكارهم نحو مخاوف أو قلق يساورهم بشأنها، كما جاء في الدراسة المنشورة في دورية «PsyArXiv, doi.org/qs6j»

تسلل الأسرار إلى الذهن

خلصت أبحاث بيانكي السابقة إلى أن الأسرار المهمة تميل إلى التسلل إلى أفكار الناس مرة كل نحو ساعتين. وتقول: «غالباً ما تخطر هذه الأسرار على البال خلال فعل شيء لا يتطلب كامل انتباهك... لأن ذهنك يجد متسعاً للتفكير في السر والتأمل فيه».

البوح بالأسرار

وتضيف بيانكي أن البوح بالأسرار قد يوفر بعض الراحة في بعض الحالات، لا سيما عند إخبار أشخاص غير متأثرين بشكل مباشر بمحتواها، ويتسمون بالتعاطف، مثل رجال الدين أو المعالجين النفسيين.

من جهة أخرى، لا يمكن البوح ببعض الأسرار لأي شخص؛ بما في ذلك المعلومات السرية للغاية التي يحتفظ بها ضباط المخابرات. وفي هذه الحالات، قد يكون من المفيد لحامل السر التحدث مع شخص ما عن مشاعره تجاه السر، دون الكشف عن محتواه الفعلي، كما تقول بيانكي.

تدوين المذكرات اليومية... علاج نافع

يقول جيمس بينيباكر، من جامعة تكساس في أوستن بالولايات المتحدة، الذي أثبت أن تدوين المشاعر في مذكرات يومية غالباً ما يكون علاجياً، إن خياراً آخر قد يكون متاحاً للأشخاص الذين لا يعملون في مجال الاستخبارات، هو الكتابة سراً عن مشاعرهم وكيف تؤثر عليهم. ويضيف: «بدأ بحثي بملاحظة أن الأشخاص الذين مروا بأي نوع من الاضطرابات الكبيرة كانوا أكبر عرضة لمشكلات صحية إذا لم يتحدثوا عن هذه الأحداث مقارنةً بمن تحدثوا عنها».