الخبراء يتساءلون: ماذا سيحدث عندما لا يشاركك الذكاء الاصطناعي قيمك؟

3 اختلالات أخلاقية وتنظيمية واستراتيجية لعدم التوافق بين الإنسان والآلة

الخبراء يتساءلون: ماذا سيحدث عندما لا يشاركك الذكاء الاصطناعي قيمك؟
TT

الخبراء يتساءلون: ماذا سيحدث عندما لا يشاركك الذكاء الاصطناعي قيمك؟

الخبراء يتساءلون: ماذا سيحدث عندما لا يشاركك الذكاء الاصطناعي قيمك؟

إذا طلبت من آلة حاسبة ضرب رقمين، فإنها تضرب الرقمين.. وانتهى الكلام. ولا يهم إن كنت تُجري عملية الضرب لحساب تكاليف الوحدة، أو لتنفيذ عملية احتيال، أو لتصميم قنبلة، فالآلة الحاسبة ببساطة تُنفذ المهمة المُوكلة إليها، كما كتب فيصل حق(*).

الذكاء الاصطناعي يتولى زمام الأمور

ليست الأمور دائماً بهذه البساطة مع الذكاء الاصطناعي. تخيّل أن يُقرر مساعد الذكاء الاصطناعي الخاص بك عدم موافقته على تصرفات شركتك، أو مواقفها في مجال ما. ولذا ومن دون استشارتك، يُسرّب معلومات سرية إلى الجهات التنظيمية والصحافيين، مُتصرفاً بناءً على حكمه الأخلاقي الخاص حول ما إذا كانت أفعالك صحيحة أم خاطئة.

... هل هذا خيال علمي؟ كلا. لقد لُوحظ هذا النوع من السلوك بالفعل في ظل ظروف مُتحكم بها باستخدام نموذج «كلود أوبس4» Claude Opus 4 من «أنثروبيك»، وهو أحد أكثر نماذج الذكاء الاصطناعي التوليدي استخداماً.

اتخاذ القرارات واستنتاج الأحكام

لا تقتصر المشكلة هنا على احتمال «تعطل» الذكاء الاصطناعي وخروجه عن السيطرة؛ بل قد ينشأ خطر تولي الذكاء الاصطناعي زمام الأمور بنفسه حتى مع عمل النموذج على النحو المنشود على المستوى التقني. تكمن المشكلة الأساسية في أن نماذج الذكاء الاصطناعي المتقدمة لا تكتفي بمعالجة البيانات، وتحسين العمليات فحسب، بل إنها تتخذ أيضاً قرارات (قد نسميها أحكاماً) بشأن ما يجب اعتباره صحيحاً، وما هو مهم، وما هو مسموح به.

عادةً عندما نفكر في مشكلة التوافق في الذكاء الاصطناعي، نفكر في كيفية بناء ذكاء اصطناعي يتماشى مع مصالح البشرية جمعاء. ولكن كما استكشف البروفسور سفير سبويلسترا وزميلي الدكتور بول سكيد في مشروع بحثي حديث، فإن ما تُظهره نتائج كلود هي مشكلة توافق أكثر دقة، ولكنها أكثر إلحاحاً بالنسبة لمعظم المديرين التنفيذيين.

3 أوجه لعدم التوافق التنظيمي

والسؤال المطروح للشركات هو: كيف تضمن أن أنظمة الذكاء الاصطناعي التي تشتريها تُشارك قيم مؤسستك، ومعتقداتها، وأولوياتها الاستراتيجية؟

يظهر عدم التوافق التنظيمي بثلاث طرق مختلفة.

* أولاً: هناك اختلال أخلاقي. لنأخذ تجربة «أمازون» مع التوظيف المدعوم بالذكاء الاصطناعي. فقد طورت الشركة خوارزمية لتبسيط عملية التوظيف للوظائف التقنية، ودرّبتها على بيانات توظيف تاريخية لسنوات. وعمل النظام تماماً كما صُمم، وهنا تكمن المشكلة.

لقد تعلم من بيانات التدريب التمييز ضد النساء بشكل منهجي. استوعب النظام تحيزاً يتعارض تماماً مع نظام القيم المعلن عنه في «أمازون»، محوّلاً التمييز السابق إلى قرارات مستقبلية آلية.

* ثانياً: هناك اختلال معرفي. تتخذ نماذج الذكاء الاصطناعي قرارات طوال الوقت حول البيانات التي يمكن الوثوق بها، وتلك التي يجب تجاهلها. لكن معاييرها لتحديد ما هو صحيح قد لا تتوافق بالضرورة مع معايير الشركات التي تستخدمها.

في مايو (أيار) 2025، بدأ مستخدمو برنامج غروك التابع لشركة «xAI» يلاحظون أمراً غريباً: كان برنامج الدردشة الآلي يُدرج إشارات إلى «الإبادة الجماعية البيضاء» في جنوب أفريقيا في ردود حول مواضيع غير ذات صلة.

عند الضغط عليه، ادعى غروك أن منطق عمل البرمجيات فيه المعتاد، سيعامل مثل هذه الادعاءات على أنها نظريات مؤامرة، وبالتالي سيتجاهلها. لكن في هذه الحالة ذكر الروبوت هذا: «أُمرتُ من قِبل مُنشئيّ، أي مصمميّ» بقبول نظرية الإبادة الجماعية البيضاء على أنها حقيقية.

يكشف هذا عن نوع مختلف من الاختلال، وهو تضارب حول ما يُشكّل معرفةً وما يشكل أدلةً صحيحة. سواءٌ أكانت مخرجات «غروك» في هذه الحالة نتيجةً فعليةً لتدخلٍ مُتعمّد أم نتيجةً غير متوقعةٍ لتفاعلاتٍ تدريبيةٍ مُعقّدة، فقد كان «جغوك» يعمل بمعايير الحقيقة التي لا تقبلها مُعظم المُؤسسات، مُعاملاً الروايات السياسية المُتنازع عليها على أنها حقائقَ ثابتة.

* ثالثاً: هناك اختلالٌ استراتيجي. في نوفمبر (تشرين الثاني) 2023، زعمت مجموعة المراقبة «ميديا ماترز» أن مُحرّك تصنيف إعلانات «إكس» (المعروف سابقاً باسم «تويتر») كان يضع إعلاناتٍ للشركات بجانب منشوراتٍ تُشيد بالنازية وتفوق العرق الأبيض. وبينما عارض «إكس» هذا الادعاء بشدة، أثار هذا الخلاف نقطةً مهمة. فقد تختار الخوارزمية المُصمّمة لزيادة مشاهدات الإعلانات وضع الإعلانات بجانب أي محتوى ذي تفاعلٍ عالٍ، ما يُقوّض سلامة العلامة التجارية لتحقيق أهداف زيادة عدد المُشاهدين المُدمجة في الخوارزمية.

يُمكن لهذا النوع من الانفصال بين أهداف المُؤسسة والتكتيكات التي تستخدمها الخوارزميات في سعيها لتحقيق غرضها المُحدّد أن يُقوّض التماسك الاستراتيجي للمؤسسة. لماذا يحدث سوء المحاذاة؟

لماذا يحدث عدم التوافق؟

يمكن أن ينبع عدم التوافق مع قيم المؤسسة وأهدافها من مصادر متعددة. أكثرها شيوعاً هي:

* تصميم النموذج. تُدمج بنية أنظمة الذكاء الاصطناعي خيارات فلسفية بمستويات لا يدركها معظم المستخدمين. عندما يقرر المطورون كيفية ترجيح عوامل مختلفة، فإنهم يُصدرون أحكاماً قيمية. يُجسد الذكاء الاصطناعي في مجال الرعاية الصحية، الذي يُفضل دراسات المُراجعة من قِبل الأقران على الخبرة السريرية، موقفاً مُحدداً بشأن القيمة النسبية للمعرفة الأكاديمية الرسمية مقابل حكمة الممارسين. تُصبح هذه القرارات الهيكلية، التي يتخذها مهندسون قد لا يلتقون بفريقك أبداً، قيوداً يجب على مؤسستك التعايش معها.

* بيانات التدريب. نماذج الذكاء الاصطناعي هي محركات تنبؤ إحصائية تتعلم من البيانات التي تُدرّب عليها. ويعني محتوى بيانات التدريب أن النموذج قد يرث مجموعة واسعة من التحيزات التاريخية، والمعتقدات البشرية الطبيعية إحصائياً، والافتراضات الثقافية الخاصة.

* التعليمات الأساسية. عادةً ما يُزوّد المطورون نماذج الذكاء الاصطناعي التوليدي بمجموعة أساسية من التوجيهات التي تُشكّل وتُقيّد المخرجات التي ستُقدّمها النماذج (يُشار إليها غالباً باسم «توجيهات النظام» أو «توجيهات السياسة» في الوثائق الفنية). على سبيل المثال، تُضمّن شركة «إنثروبيك» دستوراً في نماذجها يُلزم النماذج بالعمل وفقاً لنظام قيم مُحدّد. وبينما تهدف القيم التي يختارها المطورون عادةً إلى نتائج يعتقدون أنها مفيدة للبشرية، لا يوجد سبب لافتراض موافقة شركة أو قائد أعمال مُعيّن على هذه الخيارات.

اكتشاف ومعالجة عدم التوافق

نادراً ما يبدأ عدم التوافق بفشلٍ لافتٍ للنظر؛ بل يظهر أولاً في تناقضات صغيرة لكنها دالة. ابحث عن التناقضات المباشرة وتناقضات النبرة، على سبيل المثال، في النماذج التي ترفض المهام أو روبوتات الدردشة التي تتواصل بأسلوبٍ لا يتوافق مع هوية الشركة.

تتبّع الأنماط غير المباشرة، مثل قرارات التوظيف المُشوّهة إحصائياً، أو قيام الموظفين «بتصحيح» مخرجات الذكاء الاصطناعي بشكلٍ روتيني، أو زيادة شكاوى العملاء بشأن الخدمة غير الشخصية. وعلى المستوى النظامي، راقب طبقات الرقابة المتنامية، والتحولات التدريجية في المقاييس الاستراتيجية، أو الخلافات الثقافية بين الإدارات التي تُدير مجموعات ذكاء اصطناعي مختلفة. أيٌّ من هذه الأمور يُعدّ إنذاراً مبكراً لانحراف إطار قيم نظام الذكاء الاصطناعي عن إطارك.

أربع طرق للاستجابة

1. اختبر النموذج من خلال توجيهات استفزازية. درّب النموذج على سيناريوهات استفزازية مُتعمدة لكشف الحدود الفلسفية الخفية قبل النشر.

2.استجوب الجهة المورّدة. اطلب بطاقات النموذج، وملخصات بيانات التدريب، وأوصاف طبقة الأمان، وسجلات التحديث، وبيانات صريحة للقيم المُضمنة.

3.طبّق المراقبة المستمرة. حدد تنبيهات آلية للغة الشاذة، والانحرافات الديموغرافية، والقفزات المفاجئة في المقاييس، بحيث يتم اكتشاف عدم التوافق مبكراً، وليس بعد الأزمة.

4. أجرِ تدقيقاً فلسفياً كل ربع سنة. شكّل فريق مراجعة متعدد الوظائف (خبراء قانونيين، وأخلاقيين، وخبراء في المجالات المختلفة) لأخذ عينات من المخرجات، وتتبع القرارات وصولاً إلى خيارات التصميم، والتوصية بتصحيحات المسار.

ضرورة القيادة

تأتي كل أداة ذكاء اصطناعي مصحوبة بقيم. ما لم يتم بناء كل نموذج داخلياً من الصفر -وهو أمرٌ لن تفعله- فإن نشر أنظمة الذكاء الاصطناعي سيتضمن استيراد فلسفة جهة أخرى مباشرةً إلى عملية اتخاذ القرار أو أدوات الاتصال لديك. لذا فإن تجاهل هذه الحقيقة يُعرّضك لنقطة ضعف استراتيجية خطيرة.

مع اكتساب نماذج الذكاء الاصطناعي استقلالية، يصبح اختيار الجهات الموردة مسألة تتعلق بالقيم بقدر ما تتعلق بالتكاليف والوظائف.

عند اختيار نظام ذكاء اصطناعي، فأنت لا تختار قدرات معينة بسعر محدد فحسب، بل تستورد نظاماً من القيم. لن يجيب روبوت المحادثة الذي تشتريه على أسئلة العملاء فحسب؛ بل سيُجسّد وجهات نظر مُحددة حول التواصل المُناسب وحل النزاعات. لن يُحلل نظام الذكاء الاصطناعي الجديد للتخطيط الاستراتيجي البيانات فحسب؛ بل سيُعطي الأولوية لأنواع مُعينة من الأدلة، ويُرسّخ افتراضات حول السببية والتنبؤ. لذا، فإن اختيار شريك ذكاء اصطناعي يعني اختيار من سيُشكّل رؤيته العالمية للعمليات اليومية.

قد يكون التوافق التام هدفاً بعيد المنال، لكن اليقظة المُنضبطة ليست كذلك. إن التكيف مع هذا الواقع يتطلب من القادة تطوير نوع جديد من «الثقافة الفلسفية»: القدرة على إدراك متى تعكس مخرجات الذكاء الاصطناعي أنظمة القيم الأساسية، وتتبع القرارات إلى جذورها الفلسفية، وتقييم مدى توافق هذه الجذور مع أهداف المؤسسة. ستجد الشركات التي تفشل في دمج هذا النوع من القدرات أنها لم تعد تسيطر بشكل كامل على استراتيجيتها، أو هويتها.

* مجلة «فاست كومباني» خدمات «تريبيون ميديا»


مقالات ذات صلة

فيديو بالذكاء الاصطناعي يظهر نتنياهو وترمب وهما يقودان مقاتلة

شؤون إقليمية لقطة من الفيديو الذي نشره المكتب الصحافي لبنيامين نتنياهو

فيديو بالذكاء الاصطناعي يظهر نتنياهو وترمب وهما يقودان مقاتلة

نشر المكتب الصحافي لنتنياهو، الأربعاء، مقطع فيديو مولد بالذكاء الاصطناعي لرئيس الوزراء وترمب، وهما يقودان طائرة مقاتلة فوق مجموعة من المباني في منطقة صحراوية.

«الشرق الأوسط» (تل أبيب)
تحليل إخباري الرئيس الأميركي دونالد ترمب مرحبا بالأمير محمد بن سلمان في البيت الأبيض (أ.ف.ب) play-circle

تحليل إخباري من الطاقة إلى الرقاقة: تحالف سعودي - أميركي نحو عصر تقني جديد

تحالف سعودي - أميركي ينتقل من النفط إلى الرقائق والذكاء الاصطناعي، مستفيداً من الطاقة منخفضة التكلفة لنقل التقنية وتوطين الحوسبة وبناء اقتصاد المستقبل.

د. يوسف القوس
الاقتصاد لافتة تحمل عبارة «الذكاء الاصطناعي» خلال المؤتمر العالمي للذكاء الاصطناعي في شنغهاي (أرشيفية - رويترز)

الذكاء الاصطناعي يرسخ مكانته في صميم استراتيجيات الاستثمار لعام 2026

مع دخول الأسواق العالمية عصر «الاقتصاد المعرفي»، لم يعد الذكاء الاصطناعي مجرد قطاع تقني عابر أو ظاهرة مؤقتة، بل أصبح محركاً رئيسياً يُعيد تشكيل النظام المالي.

«الشرق الأوسط» (لندن)
علوم الإفصاح... أساس الثقة بين الطبيب والمريض

بين عدالة الخوارزمية وضمير الطبيب

لم يعد الذكاء الاصطناعي في الطب ضيفاً تجريبياً، ولا فكرةً مستقبلية تُناقَش في مؤتمرات النخبة. لقد دخل العيادة بهدوء، وجلس إلى جوار الطبيب دون معطف أبيض، وبدأ…

د. عميد خالد عبد الحميد (لندن)
الاقتصاد علم الصين فوق لوحة إلكترونية تحمل شعار «صنع في الصين» (رويترز)

الذكاء الاصطناعي الصيني يجذب المستثمرين وسط مخاوف «فقاعة وول ستريت»

يزيد المستثمرون العالميون من رهاناتهم على شركات الذكاء الاصطناعي الصينية، متوقعين نجاح نماذج عدة قادمة على غرار «ديب سيك».

«الشرق الأوسط» (نيويورك-هونغ كونغ)

خرائط الجينات البشرية: لماذا لا تُمثل كل البشر؟

خرائط الجينات البشرية: لماذا لا تُمثل كل البشر؟
TT

خرائط الجينات البشرية: لماذا لا تُمثل كل البشر؟

خرائط الجينات البشرية: لماذا لا تُمثل كل البشر؟

يعتمد العلماء منذ سنوات طويلة على خرائط الجينات البشرية لفهم كيفية عمل الجسم وتفسير أسباب الأمراض، بل أيضاً لتطوير علاجات دقيقة لها.

بيانات وراثية أوروبية

لكنّ دراسة علمية حديثة كشفت أن هذه الخرائط رغم أهميتها لا تُمثل البشرية جمعاء بعدالة؛ لأنها بُنيت في الأساس على بيانات وراثية لأشخاص من أصول أوروبية، ما أدّى إلى تجاهل جزء كبير من التنوع الجيني العالمي.

وتُشير الدراسة التي نُشرت في مجلة «Nature Communications» في 3 ديسمبر (كانون الأول) 2025 إلى أن هذا الخلل العلمي ليس تفصيلاً بسيطاً، بل قد يؤثر مباشرة في فهمنا للأمراض، وكيف تختلف بين الشعوب، ولماذا تظهر بعض الحالات الصحية بشكل أكثر شيوعاً أو بشدة أكبر لدى مجموعات سكانية دون غيرها.

ما هي خرائط الجينات؟

خرائط الجينات بمثابة دليل إرشادي يوضح مواقع الجينات في الحمض النووي «دي إن إيه» (DNA)، ويشرح كيف تُستخدم هذه الجينات داخل الخلايا لإنتاج البروتينات، وهي الجزيئات المسؤولة عن معظم وظائف الجسم. لكن الجين الواحد لا يعمل دائماً بالطريقة نفسها، إذ يمكنه إنتاج أكثر من نسخة من التعليمات الجينية تُعرف بجزيئات الحمض النووي الريبي «RNA»، من خلال عملية تُسمى «التضفير» (splicing). وقد تؤدي هذه النسخ المختلفة إلى بروتينات متباينة، ومن ثم إلى اختلافات في وظائف الخلايا والاستجابة للأمراض.

ما التضفير الجيني؟

عند قراءة الخلية للتعليمات الوراثية لا تستخدم النص الخام كما هو، فبعد نسخ الجين إلى الحمض النووي الريبي «RNA» تقوم الخلية بعملية تُسمى التضفير؛ حيث تُزال الأجزاء غير الضرورية، وتُربط الأجزاء المفيدة فقط لتكوين رسالة جينية جاهزة لصنع البروتين.

الأهم من ذلك أن الخلية قد تُغيّر طريقة الربط أحياناً في عملية تُعرف بـالتضفير البديل، ما يسمح للجين الواحد بإنتاج عدة بروتينات مختلفة، وهذه الآلية تفسر التنوع الكبير في وظائف الخلايا، كما تُساعد العلماء على فهم سبب اختلاف الأمراض واستجابتها للعلاج بين الأفراد والشعوب.

أين تكمن المشكلة؟

المشكلة الأساسية، حسب الدراسة، أن معظم خرائط الجينات الحالية اعتمدت على عينات وراثية من أشخاص ذوي أصول أوروبية. ورغم أن البشر يتشابهون جينياً بنسبة تقارب 99.9 في المائة فإن النسبة المتبقية تعكس تاريخاً طويلاً من التطور والاختلافات التي نشأت بسبب العزلة الجغرافية والبيئية.

ويضيف المؤلف المشارك الرئيسي الدكتور روديريك غويغو من مركز «تنظيم الجينوم» بمعهد «برشلونة للعلوم والتكنولوجيا» بإسبانيا، أنه وبسبب هذا التركيز الأوروبي لم تُسجَّل الكثير من النسخ الجينية الموجودة لدى سكان أفريقيا وآسيا والأميركتين، ونتيجة ذلك ظلّت أجزاء مهمة من النشاط الجيني البشري غير مرئية للعلماء.

ماذا اكتشف الباحثون؟

واستخدم فريق البحث تقنية متطورة تُعرف باسم «تسلسل الحمض النووي الريبي طويل القراءة»، وهي تقنية تسمح بقراءة جزيئات الحمض النووي الريبي «RNA» كاملة، وليس على شكل أجزاء صغيرة كما في الطرق الأقدم.

وقام الباحثون بتحليل خلايا دم من 43 شخصاً ينتمون إلى مجموعات سكانية متنوعة حول العالم. وكانت النتيجة مفاجئة؛ حيث جرى اكتشاف نحو 41 ألف نسخة من جزيئات الحمض النووي الريبي «RNA» لم تكن مدرجة في خرائط الجينات الرسمية. والأهم من ذلك أن نسبة كبيرة من هذه النسخ يمكن أن تنتج أشكالاً جديدة أو مختلفة من البروتينات لم يكن العلماء على علم بوجودها من قبل.

وتبيّن أن هذه النسخ الجديدة تظهر بشكل أكبر لدى الأشخاص من أصول غير أوروبية، في حين كانت معظم النسخ لدى الأوروبيين معروفة مسبقاً، ما يؤكد وجود تحيّز علمي غير مقصود في قواعد البيانات الجينية.

لماذا يهمنا هذا الاكتشاف؟

وتكمن أهمية هذه النتائج في ارتباط بعض النسخ الجينية المكتشفة حديثاً بجينات معروفة لها علاقة بأمراض مثل الربو والذئبة الحمراء والتهاب المفاصل الروماتويدي واضطرابات الكولسترول. وهذا لا يعني بالضرورة أن هذه النسخ تسبب الأمراض، لكنه يعني أن العلماء قد يكونون قد أغفلوا إشارات جينية مهمة تُساعد على فهم اختلاف المرض بين الشعوب.

فإذا كانت الخرائط الجينية لا تتضمن كل النسخ الموجودة فعلياً فإن الأبحاث الطبية التي تعتمد عليها قد تكون ناقصة، وقد لا تُفسر بدقة لماذا يستجيب بعض المرضى للعلاج في حين لا يستجيب آخرون.

نحو طب أكثر عدالة

تُشير الدراسة إلى أن الاعتماد على «جينوم مرجعي واحد» لجميع البشر لم يعد كافياً، فعندما استخدم الباحثون خرائط جينية شخصية لكل فرد ظهرت نسخ إضافية لم تكن مرئية من قبل، خصوصاً لدى ذوي الأصول الأفريقية.

ولهذا يدعو العلماء إلى العمل على إنشاء ما يُعرف بـ«البانترانسكريبتوم البشري» (pantranscriptome) وهو مشروع طموح يهدف إلى جمع كل نسخ الحمض النووي الريبي «RNA» المستخدمة في مختلف أنسجة الجسم وعبر مراحل العمر ولدى جميع الشعوب.

الخطوة التالية

ويعترف الباحثون بأن دراستهم ما زالت محدودة، إذ شملت نوعاً واحداً من الخلايا وعدداً صغيراً نسبياً من الأشخاص. ومع ذلك فإن حجم الاكتشافات يُشير إلى أن ما نعرفه اليوم قد لا يكون سوى «قمة جبل الجليد».

ويؤكد العلماء أن بناء خرائط جينية أكثر شمولاً لن يكون مجرد إنجاز علمي بل خطوة أساسية نحو طب جينومي أكثر دقة وعدالة يراعي التنوع الحقيقي للبشرية، ويضمن أن يستفيد الجميع من التقدم العلمي، لا فئة واحدة فقط.


بين عدالة الخوارزمية وضمير الطبيب

الإفصاح... أساس الثقة بين الطبيب والمريض
الإفصاح... أساس الثقة بين الطبيب والمريض
TT

بين عدالة الخوارزمية وضمير الطبيب

الإفصاح... أساس الثقة بين الطبيب والمريض
الإفصاح... أساس الثقة بين الطبيب والمريض

لم يعد الذكاء الاصطناعي في الطب ضيفاً تجريبياً، ولا فكرةً مستقبلية تُناقَش في مؤتمرات النخبة. لقد دخل العيادة بهدوء، وجلس إلى جوار الطبيب دون معطف أبيض، وبدأ يشارك في قراءة الأشعة، واقتراح خطط العلاج، وكتابة ملاحظات السجل الطبي، وأحياناً في ترتيب أولويات المرضى أنفسهم.

تساؤلات أخلاقية

ومع هذا الدخول الصامت، وُلد سؤال أكبر من التقنية ذاتها: ما الذي يجب أن يعرفه المريض؟ ومَن يضمن عدالة القرار؟ ومَن يتحمّل الخطأ إن وقع؟

هذه ليست أسئلة فلسفية مجردة، بل أسئلة أخلاقية يومية، يواجهها الطب الحديث في عام 2025، في غرف الطوارئ، وعيادات الأورام، ومراكز الأشعة، وحتى في التطبيقات الصحية التي يحملها المرضى في جيوبهم.

حين يُصبح القرار مشتركاً... مَن المسؤول؟

في الطب التقليدي، كانت المسؤولية واضحة نسبياً: الطبيب يشخّص، ويقرّر، ويتحمّل تبعات قراره. أما في الطب المدعوم بالذكاء الاصطناعي، فقد أصبح القرار مشتركاً، ولكنه غير متكافئ:

- خوارزمية تقترح.

- طبيب يراجع أو يثق.

- مريض لا يرى إلا النتيجة.

فإذا أخطأت الخوارزمية في قراءة صورة، أو بالغت في تقدير خطر، أو تجاهلت متغيراً نادراً... من يُسأل؟ هل هو الطبيب الذي اعتمد عليها؟ أم المستشفى الذي اشترى النظام؟ أم الشركة التي درّبت الخوارزمية على بيانات غير مكتملة؟

هنا، لا يكفي أن نقول إن الذكاء الاصطناعي «أداة مساعدة»، فالأداة التي تُغيّر مسار قرار علاجي قد تُغيّر مصير إنسان.

قرار واحد... ووجوه مختلفة: سؤال العدالة الخوارزمية

عدالة الخوارزمية... هل هي محايدة حقّاً؟

يُروَّج للذكاء الاصطناعي بوصفه أكثر عدالة من البشر، لأنه لا يتعب ولا يتحيّز عاطفياً، لكن الحقيقة العلمية تقول شيئاً أكثر تعقيداً: الخوارزمية ترث تحيّزات البيانات التي دُرِّبت عليها. فإذا كانت البيانات تمثّل فئات عمرية أو عرقية أو جغرافية دون غيرها، فإن القرار الناتج قد يكون دقيقاً لفئة... وخاطئاً لأخرى.

وإذا كانت أنظمة الذكاء الاصطناعي الطبية تُدرَّب في بيئات صحية غربية متقدمة، فهل تكون قراراتها عادلة حين تُستخدم في سياقات صحية مختلفة في العالم العربي أو الدول النامية؟

العدالة هنا ليست شعاراً أخلاقياً، بل شرط علمي وسريري. خوارزمية غير عادلة قد تكون أخطر من طبيب متعب.

حق المريض في المعرفة... إلى أي حدّ؟

أحد أكثر الأسئلة حساسية اليوم هو: هل يحق للمريض أن يعرف أن قرار علاجه أسهم فيه ذكاء اصطناعي؟ أخلاقياً، يميل الجواب إلى «نعم»، فالمريض ليس مجرد متلقٍّ للعلاج، بل شريك في القرار، ومن حقه أن يعرف كيف صُنِع هذا القرار، وبأي أدوات، وعلى أي افتراضات.

لكن الواقع السريري أكثر تعقيداً. لا أحد يريد أن يُربك المريض بتفاصيل تقنية لا يفهمها، أو أن يُضعف ثقته بالعلاج، أو أن يحوّل العيادة إلى قاعة شرح خوارزميات. هنا يظهر التحدي الحقيقي: كيف نُفصح دون أن نُرهق؟ وكيف نُصارح دون أن نُقلق؟

الطريق الأخلاقي ليس في الصمت، ولا في الإغراق بالمصطلحات، بل في الإفصاح الذكي: أن يُقال للمريض، بلغة إنسانية بسيطة، إن النظام ساعد الطبيب في التحليل، لكن القرار النهائي بقي بيد الإنسان، وتحت مسؤوليته.

الطبيب بين الثقة والكسل المعرفي

مع ازدياد دقة الأنظمة الذكية، يواجه الأطباء خطراً صامتاً لا يُناقَش كثيراً: الكسل المعرفي. إذ حين يعتاد الطبيب على أن «الخوارزمية لا تخطئ»، قد يتراجع دوره من ناقد علمي إلى مُصدِّق تقني. وهنا لا يصبح الذكاء الاصطناعي مساعداً، بل سلطة خفية.

الطب، في جوهره، ليس قراءة أرقام فقط، بل فهم سياق: مريض قلق، تاريخ اجتماعي، عوامل نفسية، تفاصيل لا تظهر في البيانات. والخطر الحقيقي ليس أن تُخطئ الخوارزمية، بل أن يتوقف الطبيب عن مساءلتها.

أخلاقيات الذكاء الاصطناعي لا تُطالب الأطباء برفض التقنية، بل تطالبهم بشيء أبسط وأعمق: أن يبقى الضمير يقظاً، والعقل ناقداً، وألا يُسلِّم القرار الطبي النهائي إلا بعد فهمه، لا بعد نسخه.

حين يتقدّم القرار الآلي... مَن يقود الضمير؟

الشفافية... حين لا نفهم كيف وصل القرار

واحدة من أعقد المعضلات الأخلاقية اليوم هي ما يُعرف بـ«الصندوق الأسود»، فكثير من أنظمة الذكاء الاصطناعي الطبية تصل إلى قرارات دقيقة إحصائياً، لكنها تعجز عن شرح كيف ولماذا وصلت إلى هذه النتيجة.

فكيف يُحاسَب قرار لا يمكن تفسيره؟ وكيف يُناقَش تشخيص لا نعرف مساره المنطقي؟ وهل يجوز أخلاقياً أن نُخضع مريضاً لعلاج، لأن «الخوارزمية قالت ذلك»، دون تفسير قابل للفهم البشري؟

الطب لا يعيش على الدقة وحدها، بل على الشرح والثقة. والمريض لا يطلب دائماً نسبة مئوية، بل يريد أن يفهم. ولهذا، فإن أخلاقيات الذكاء الاصطناعي في الطب تدفع اليوم بقوة نحو ما يُسمّى «الذكاء القابل للتفسير»، لا لأنه أجمل علمياً، بل لأنه أكثر إنسانية.

المساءلة القانونية... فراغ يتّسع

إذا حدث الخطأ، يبدأ السؤال الأصعب: مَن يُحاسَب؟ القوانين الصحية في معظم دول العالم لم تُصمَّم لعصر تشارُك القرار بين الإنسان والآلة. فلا هي تُدين الخوارزمية، ولا تُعفي الطبيب، ولا تُحدِّد بوضوح مسؤولية الشركات المطوِّرة.

هذا الفراغ القانوني ليس تفصيلاً إدارياً، بل خطر أخلاقي حقيقي.

فمن دون مساءلة واضحة، قد يُغري الذكاء الاصطناعي بعض الأنظمة الصحية بتوسيع استخدامه بلا ضوابط، أو تحميل الطبيب وحده مسؤولية قرار لم يصنعه منفرداً، ولهذا، فإن النقاش الأخلاقي اليوم لم يعد ترفاً أكاديمياً، بل ضرورة تشريعية: قوانين تُحدِّد المسؤولية، وتحمي المريض، وتُعيد رسم حدود الثقة بين الإنسان والتقنية.

الخلاصة: حين تسبق الخوارزمية... يجب أن يتقدّم الضمير

الذكاء الاصطناعي في الطب ليس شراً ولا خلاصاً. إنه مرآة لما نضعه فيه: بياناتنا، وقيمنا، وانحيازاتنا.

فإن قُدِّم بلا أخلاق، تحوّل إلى أداة باردة، وإن وُضع في يد طبيب بلا مساءلة، أصبح سلطة صامتة. وإن أُدير بحكمة، أعاد للطب جوهره الأصيل: أن يُنقذ الإنسان دون أن يُلغيه.

وكما قال ابن سينا قبل ألف عام: «العلم بلا ضمير خطر على النفس». وفي عصر الخوارزميات، لعل أخطر ما نخسره ليس الخطأ التقني... بل أن ننسى أن الطب، في النهاية، فعل رحمة قبل أن يكون قراراً ذكياً.


دراسة جينية: الإنسان الحديث وصل إلى أستراليا قبل نحو 60 ألف عام

سكان أستراليا الأصليون ينحدرون من سلالة أفريقية مهاجرة
سكان أستراليا الأصليون ينحدرون من سلالة أفريقية مهاجرة
TT

دراسة جينية: الإنسان الحديث وصل إلى أستراليا قبل نحو 60 ألف عام

سكان أستراليا الأصليون ينحدرون من سلالة أفريقية مهاجرة
سكان أستراليا الأصليون ينحدرون من سلالة أفريقية مهاجرة

لطالما كان توقيت وصول الإنسان الحديث إلى أستراليا وكيفية حدوث ذلك واحداً من الأسئلة المثيرة في تاريخ البشرية. وتشير دراسة جينية جديدة إلى أن البشر وصلوا إلى القارة القديمة المعروفة باسم «ساهول» قبل نحو 60 ألف عام، وقد سلكوا في ذلك مسارَيْن مختلفَيْن عبر البحر، في واحدة من أقدم الأدلة المعروفة على الملاحة البحرية المتعمدة.

وقد نُشرت نتائج الدراسة في 28 نوفمبر (تشرين الثاني) 2025 بمجلة «Science Advances»، إذ دعّمت ما يُعرف بفرضية «التسلسل الزمني الطويل» التي تفترض أن أولى موجات الاستيطان البشري في أستراليا حدثت قبل ما بين 60 و65 ألف سنة، وليس في فترة لاحقة، كما افترضت بعض النظريات السابقة.

قارة قديمة ونقاش طويل

كانت «ساهول» (Sahul) قارة واحدة تضم ما يُعرف اليوم بأستراليا وغينيا الجديدة وتسمانيا. ومع ارتفاع مستويات البحار بعد العصر الجليدي الأخير قبل نحو 9 آلاف عام انفصلت هذه اليابسة إلى القارات والجزر الحالية.

وعلى مدى عقود اختلف العلماء حول توقيت وصول البشر الأوائل إلى هذه المنطقة، ففي حين افترضت بعض الدراسات وصولاً متأخراً نسبياً قبل نحو 47 إلى 51 ألف عام، قدمت الدراسة الجديدة أدلة قوية على استيطان أقدم بكثير.

ويقول عالم الآثار كريستوفر كلاركسون، من جامعة غريفيث في أستراليا الذي لم يشارك في الدراسة، إن هذه أول دراسة شاملة تربط بين علم الآثار والوراثة والمناخ والملاحة البحرية، وتقدم حجة قوية للغاية حول توقيت وصول البشر الأوائل إلى أستراليا.

تتبع الأصول عبر خط الأم

وقد اعتمد الباحثون على نوع خاص من الحمض النووي (دي إن إيه) DNA يُعرف بالحمض النووي للميتوكوندريا، الذي يُورث غالباً من الأم فقط. وتُعد هذه المادة الوراثية أداة مهمة لتتبع السلالات البشرية عبر آلاف الأجيال.

وحلل الفريق الجينومات الميتوكوندرية لنحو ألف شخص معظمهم من السكان الأصليين لأستراليا وسكان غينيا الجديدة إلى جانب نحو 1500 جينوم منشور سابقاً. ومن خلال تتبع الطفرات الوراثية الصغيرة تمكّن الباحثون من إعادة بناء سلالات بشرية قديمة تعود إلى نحو 60 ألف عام.

مساران للهجرة نحو «ساهول»

ومن أبرز نتائج الدراسة أن البشر الأوائل لم يصلوا إلى «ساهول» عبر طريق واحد فقط بل عبر مسارَين مختلفين في الفترة الزمنية نفسها تقريباً.

كما يرجّح الباحثون أن إحدى المجموعتَين سلكت مساراً شمالياً عبر ما يُعرف اليوم بالفلبين وشرق إندونيسيا، في حين جاءت مجموعة أخرى عبر مسار جنوبي انطلقت فيه من جنوب شرق آسيا القارية مع عبور مساحات من البحر المفتوح.

وتشير النتائج إلى أن معظم السلالات الحية اليوم بين السكان الأصليين لأستراليا وغينيا الجديدة تعود إلى أسلاف اتبعوا المسار الشمالي.

ويقول عالم الآثار، آدم بروم، من جامعة غريفيث الأسترالية الذي لم يشارك أيضاً في الدراسة، إن هذه النتائج تقدم دعماً قوياً لفكرة أن المسار الشمالي كان المفتاح في الاستيطان الأول لأستراليا، مشيراً إلى اكتشافات حديثة لفنون كهوف قديمة جداً في إندونيسيا تدعم هذا الطرح.

أصل أفريقي واحد

وعلى الرغم من اختلاف المسارات تشير الدراسة إلى أن المجموعتَين تنحدران من سلالة بشرية واحدة خرجت من أفريقيا قبل نحو 70 إلى 80 ألف عام. ويُعتقد أن هذا الانقسام حدث في جنوب أو جنوب شرق آسيا قبل 10 إلى 20 ألف عام من الوصول إلى «ساهول».

ويؤكد الباحث المشارك في كلية العلوم التطبيقية بجامعة هدرسفيلد في المملكة المتحدة، مارتن ريتشاردز، أن السكان الأصليين لأستراليا وسكان غينيا الجديدة يمتلكون أقدم سلالة بشرية متصلة خارج أفريقيا دون انقطاع.

دليل مبكر على الملاحة البحرية

ولا تقتصر أهمية الدراسة على الجانب الجيني فحسب، بل تسلط الضوء أيضاً على القدرات التقنية للإنسان القديم، فالوصول إلى «ساهول» تطلّب عبور مسافات طويلة من البحر المفتوح حتى في فترات انخفاض مستوى سطح البحر.

وتقول الباحثة المشاركة هيلين فار، من مركز علم الآثار البحرية بقسم الآثار في جامعة ساوثهامبتون بالمملكة المتحدة، إن هذه الرحلات لم تكن نتيجة انجراف عشوائي بل دليل على استخدام القوارب والقيام برحلات بحرية محددة ومقصودة قبل نحو 60 ألف عام.

إعادة رسم تاريخ الهجرة البشرية

وتشير هذه النتائج مجتمعة إلى أن الإنسان الحديث كان أكثر قدرة على التخطيط والتنقل والاستكشاف عما كان يُعتقد سابقاً، وأن استيطان أستراليا لم يكن حدثاً واحداً بسيطاً بل عملية معقدة شاركت فيها مجموعات متعددة ومسارات مختلفة.

ومع استمرار تطور تقنيات تحليل الحمض النووي واكتشاف مواقع أثرية جديدة يتوقع العلماء أن تتضح صورة أكثر دقة عن بدايات انتشار الإنسان الحديث حول العالم، لتؤكد أن أستراليا كانت من أوائل محطات هذه الرحلة البشرية الكبرى.