هل يرث الإنسان «تحيزات» الذكاء الاصطناعي؟

مخاوف من تأثيراتها السلبية البالغة على القرارات البشرية

تستخدم العديد من المجالات الآن أدوات الذكاء الاصطناعي لدعم القرارات البشرية
تستخدم العديد من المجالات الآن أدوات الذكاء الاصطناعي لدعم القرارات البشرية
TT

هل يرث الإنسان «تحيزات» الذكاء الاصطناعي؟

تستخدم العديد من المجالات الآن أدوات الذكاء الاصطناعي لدعم القرارات البشرية
تستخدم العديد من المجالات الآن أدوات الذكاء الاصطناعي لدعم القرارات البشرية

رفعت النتائج المذهلة التي حققتها أنظمة الذكاء الاصطناعي مؤخراً، وقدرتها على الدخول في حوارات ممتدة مع البشر، من سقف توقعاتنا للأدوار التي يمكن أن تلعبها في حياتنا في المستقبل القريب. ويقوم كثير من المجالات المهنية الآن بتطبيق أدوات تعتمد على الذكاء الاصطناعي؛ لدعم عملية صنع القرار لدى المتخصصين، وتقليل الأخطاء المحتمل ارتكابها. ومع ذلك، ينبغي معرفة أن هذه التكنولوجيا لا تخلو من المخاطر؛ بسبب احتمالات «التحيز» التي بدأت تظهر ضمن نتائجها يوماً بعد آخر.

أخطاء تولِّد أخطاء

يجب الأخذ في الاعتبار أن البيانات المستخدمة لتدريب نماذج الذكاء الاصطناعي تعكس قرارات بشرية؛ فإذا كانت هذه البيانات تتضمن أنماطاً من الأخطاء المنهجية، فسوف تتعلم خوارزميات الذكاء الاصطناعي هذه الأخطاء وتعيد إنتاجها مجدداً.

ويشير كثير من الأدلة العلمية، بالفعل، إلى أن أنظمة الذكاء الاصطناعي ترث التحيزات البشرية. غير أن الجديد علميّاً هو ما توصلت إليه نتائج الدراسة المنشورة في دورية «ساينتفيك روبوتس» في 3 أكتوبر (تشرين الأول)، من أن التأثير المعاكس قد يحدث، أي أن البشر أيضاً يرثون تحيزات الذكاء الاصطناعي، وهو ما يعني أن تلك التقنيات لن ترث تحيزاتها من البيانات البشرية فحسب، بل يمكن للبشر أن يرثوا تلك التحيزات مجدداً، وبالتالي زيادة خطر الوقوع في حلقة مفرغة لا تنتهي.

وتقول الباحثة الأولى المشاركة في الدراسة، لوسيا فيسنتي، من قسم علم النفس بجامعة ديوستو الإسبانية: «هناك قلق كبير بشأن احتمال قيام الذكاء الاصطناعي بنشر تلك التحيزات في القرارات البشرية». وأضافت لـ«الشرق الأوسط»: «يمكن لمجموعات البيانات المستخدمة لتدريب هذه النماذج أن تخفي أنماطاً من الأخطاء المنهجية وأوجه عدم المساواة، بحيث يتعلم الذكاء الاصطناعي، في كثير من الأحيان، الأخطاء البشرية ويعيد إنتاجها، كما يمكن للبشر توليد تلك التحيزات حتى بعد مرور بعض الوقت على انتهاء التفاعل مع هذه النظم».

وفي سلسلة تجارب ثلاث أجراها باحثو الدراسة، أجرى متطوعون تشخيصاً طبيّاً (أظهر خطأ منهجيّاً) بمساعدة نظام ذكاء اصطناعي متحيز، في حين لم تحصل مجموعة أخرى ضابطة على أي مساعدة. لقد كانت مهمة التشخيص الطبي بواسطة الذكاء الاصطناعي وهمية. كانت الإعدادات بأكملها عبارة عن محاكاة لتجنب التدخل عند الحاجة لذلك.

وكشفت النتائج أن الأطباء ارتكبوا بمساعدة النماذج التقنية المتحيزة، الأخطاء نفسها التي ارتكبها الذكاء الاصطناعي، في حين لم ترتكب المجموعة الضابطة هذه الأخطاء، وهو ما يعني أن توصيات الذكاء الاصطناعي أثرت على قرارات الأطباء.

تحيز موروث

ومع ذلك، تبقى النتيجة الأكثر أهمية أنه بعد انتهاء عمليات التفاعل مع نظام الذكاء الاصطناعي، استمر هؤلاء الأطباء في محاكاة خطئه المنهجي، حتى عندما تحولوا إلى أداء مهمة التشخيص دون مساعدته. بمعنى آخر، إن الأطباء الذين تلقوا المساعدة أولاً من الذكاء الاصطناعي المتحيز كرروا تحيزهم في سياق آخر جديد من دون هذا الدعم، وبالتالي أظهروا ما يطلق عليه علميّاً «تحيزاً موروثاً». في حين لم تتم ملاحظة هذا التأثير بالنسبة لأطباء المجموعة الضابطة، الذين قاموا بالمهمة دون مساعدة الذكاء الاصطناعي منذ البداية.

وتقول الباحثة المشاركة في الدراسة، الدكتورة هيلينا ماتوتي، من قسم علم النفس بجامعة ديوستو الإسبانية: «توضح هذه النتائج أن المعلومات المتحيزة بواسطة نموذج الذكاء الاصطناعي يمكن أن يكون لها تأثير سلبي دائم على القرارات البشرية». وأضافت لـ«الشرق الأوسط»: «هذا يعني أن الذكاء الاصطناعي لن يرث تحيزاته من البيانات البشرية فحسب، بل يمكن للأشخاص أن يرثوا تلك التحيزات منه، وهو ما ينذر بخطر وقوع البشر في فخ حلقة خطيرة من الأخطاء الممنهجة».

ويشير اكتشاف إمكانية توريث تأثير تحيزات الذكاء الاصطناعي إلى الحاجة لمزيد من الأبحاث النفسية ودراسات متعددة التخصصات حول عمليات التفاعل بين الذكاء الاصطناعي والإنسان. علاوة على ذلك، هناك حاجة إلى التنظيم القائم على الأدلة العلمية؛ لضمان «الوصول إلى تقنيات ذكاء اصطناعي عادلة وأخلاقية»، مع الأخذ في الاعتبار الجوانب النفسية للأنشطة التي ترتكز على التعاون بينه وبين البشر، وليس الميزات التقنية له فقط.

وعن إمكانية تفادي تلك الأخطاء، قالت ماتوتي: «من الضروري تحقيق فهم أفضل لكيفية بناء نماذج الذكاء الاصطناعي للتوقعات والنتائج، والأهم من ذلك نشر المستويات الفعلية لكل من الدقة والأخطاء في تلك النماذج».

وهو ما علقت عليه فيسنتي بالقول: «يمكن لزيادة المعرفة بأخطاء الذكاء الاصطناعي أن تقلل من ثقة الناس المفرطة في تلك النماذج، وربما يمكنهم اكتشاف تحيزاته ومواجهتها مبكراً». وأضافت: «يجب أن يحصل المتخصصون الذين يتعاونون مع الذكاء الاصطناعي على التدريب والوقت اللازمين لاكتشاف أخطائه، وكذلك التقييم الصحيح للنتائج والإجراءات المتولدة عنه عندما يكونون في شك منها».

وتفضل فيسنتي بدلاً من تنبيه البشر للأخطاء المحتملة للذكاء الاصطناعي أن «يتم تنفيذ تلك المهام من قِبل البشر، مع تنبيه نظم الذكاء الاصطناعي للأخطاء المحتملة، ومن ثم تدريبه على تلافيها».



مجتمعات كاملة وتجارب إنسانية... لا تزال خارج نطاق الذكاء الاصطناعي

نافذة على عالمين_ أحدهما لا يفهم الآخر
نافذة على عالمين_ أحدهما لا يفهم الآخر
TT

مجتمعات كاملة وتجارب إنسانية... لا تزال خارج نطاق الذكاء الاصطناعي

نافذة على عالمين_ أحدهما لا يفهم الآخر
نافذة على عالمين_ أحدهما لا يفهم الآخر

في القاعات الكبرى، حيث تُصاغ البيانات وتُعلن المبادئ بلغة تبدو مكتملة، يظهر الذكاء الاصطناعي كأنه يسير بثقة نحو مستقبل أكثر عدلاً وإنصافاً. تُرفع شعارات الشفافية، وتُكرَّر مفاهيم الحوكمة، وتُقدَّم العدالة الخوارزمية كأنها حقيقة قريبة لا جدال فيها.

لكن خلف هذا الانسجام الظاهري، يبقى سؤال أكثر إزعاجاً، وأقل حضوراً:

هل ما يُقال في هذه القاعات يعكس فعلاً ما يحدث خارجها، أم أنه يكتفي بصياغة عالمٍ مثالي لا وجود له في الواقع؟

أخلاقيات داخل حدود البيانات

تركّز معظم النقاشات العالمية حول أخلاقيات الذكاء الاصطناعي على قضايا تبدو مكتملة: التحيّز، والخصوصية، والشفافية، والمسؤولية. وهي دون شك قضايا حقيقية، لكنها تنطلق من افتراض خفيّ نادراً ما يُناقش: أن المشكلة تكمن في كيفية استخدام البيانات، لا في حدودها.

لكن السؤال الأكثر عمقاً، والأقل طرحاً، هو: ماذا عن أولئك الذين لا تُمثّلهم البيانات أصلاً؟ فالذكاء الاصطناعي، مهما بلغ من تعقيد، لا يرى العالم كما هو، بل كما يُقدَّم له. وما لا يدخل في بياناته، لا يدخل في حساباته... ولا في قراراته. وهنا لا يكون الخطأ في الخوارزمية، بل في العالم الذي اختُصر داخلها.

ما لا تراه الخوارزميات

عالم خارج الرؤية الخوارزمية

في مساحات واسعة من هذا العالم، لا تُقاس المعاناة ولا تُسجَّل، ولا تتحول إلى بيانات يمكن للآلة أن تفهمها. هناك أمراض لا تصل إلى مرحلة التشخيص، وصدمات لا تُوثَّق، وواقع صحي كامل يظل خارج أي نموذج تنبؤي.

في مثل هذه البيئات، لا يكون التحيّز نتيجة خلل تقني في الخوارزمية، بل نتيجة غياب الصورة من الأساس. فالمشكلة ليست في طريقة التحليل... بل فيما لم يُحلَّل أصلاً.

وهنا يتبدّل معنى العدالة نفسها. فكيف يمكن الحديث عن «عدالة خوارزمية» في عالمٍ لم يُمثَّل رقمياً بعد؟ وهل يمكن للذكاء الاصطناعي أن يكون منصفاً... إذا كان لا يرى الجميع؟

عندما لا تكفي الأخلاقيات

في القمم العالمية، يُقدَّم الذكاء الاصطناعي كأداة يمكن تهذيبها أخلاقياً، وكأن المشكلة تكمن فقط في ضبط سلوك الخوارزمية من داخل النظام الذي أنشأها. تُناقش المبادئ، وتُصاغ الأطر، ويبدو وكأن الحل يكمن في تحسين ما هو قائم. لكن هذا التصور يخفي افتراضاً أعمق: أن جميع المشكلات قابلة للحل من داخل النظام نفسه. بينما يهمس الواقع بشيء مختلف تماماً.

فهناك معاناة لا تنتظر «حوكمة» الخوارزمية... بل تنتظر أن تُرى. وهناك بشر لا يحتاجون إلى خوارزميات أكثر عدلاً، بل إلى أن يدخلوا أصلاً في مجال رؤيتها.

ما بين الخطاب والواقع: درس من قمة الهند

كما ظهر في نقاشات القمة العالمية للذكاء الاصطناعي في الهند، التي رفعت شعار «الذكاء الاصطناعي المسؤول»، بدا أن التركيز ينصب على مبادئ الحوكمة، والشفافية، وتقليل التحيّز داخل الأنظمة. لكن ما تكشفه هذه النقاشات، رغم أهميتها، هو فجوة أعمق: أن الخطاب الأخلاقي العالمي يفترض وجود عالم ممثَّل بالكامل داخل البيانات... بينما الواقع مختلف تماماً. فما لا يُقال في هذه القاعات، ليس فقط حدود التقنية، بل حدود الرؤية نفسها... إذ توجد مجتمعات كاملة خارج نطاق النماذج، وتجارب إنسانية لا تصل إلى أنظمة الذكاء الاصطناعي، وبالتالي لا تدخل في أي إطار أخلاقي يُناقش.

* عدم الاستقرار البيئي أو الضغوط النفسية من العوامل التي لا يمكن قياسها ولا تدخل إلى الأدوات الذكية *

حدود ما يمكن قياسه

في دراسة حديثة نُشرت عام 2026 في مجلة «نيتشر ميديسن» (Nature Medicine)، أظهرت نماذج تنبؤية طوّرها باحثون في جامعة ستانفورد قدرة متقدمة على تحليل البيانات الصحية، واستباق المخاطر قبل حدوثها. ومع ذلك، توقفت هذه النماذج عند حدود واضحة عندما يتعلق الأمر بعوامل لا تُقاس بسهولة، مثل عدم الاستقرار البيئي أو الضغوط النفسية التي لا تجد طريقها إلى السجلات الطبية.

وهنا لا تنكشف حدود التقنية فحسب، بل حدود الفكرة التي تقوم عليها.

فالمشكلة ليست في دقة ما نقيس، بل في افتراضٍ أعمق: أن كل ما هو مهم... يمكن قياسه.

لكن الواقع أكثر تعقيداً من ذلك. فبعض أهم محددات الصحة لا تُكتب في البيانات، ولا تُترجم إلى أرقام، ومع ذلك تظل الأكثر تأثيراً في حياة الإنسان.

ما بعد الأخلاقيات

قد تنجح القمم في صياغة مبادئ أخلاقية للذكاء الاصطناعي، وتبدو هذه المبادئ مكتملة في نصوصها ومنطقها. لكن التحدي الحقيقي لا يبدأ داخل هذه الأطر، بل خارجها.

في تلك المساحات التي لا تصلها البيانات، ولا تلامسها النماذج، ولا تختزلها الأرقام، هناك يتغيّر السؤال نفسه. فلا يعود السؤال:

هل الذكاء الاصطناعي أخلاقي؟ بل يصبح أكثر عمقاً وإلحاحاً: هل يستطيع أن يرى ما يجب أن يكون أخلاقياً تجاهه؟


أول مهمة مأهولة إلى القمر منذ 50 عاماً

شكل تصويري لمركبة «أوريون» قرب القمر
شكل تصويري لمركبة «أوريون» قرب القمر
TT

أول مهمة مأهولة إلى القمر منذ 50 عاماً

شكل تصويري لمركبة «أوريون» قرب القمر
شكل تصويري لمركبة «أوريون» قرب القمر

سترسل وكالة الطيران والفضاء الاميركية ناسا، أربعة رواد فضاء في مهمة أرتميس 2 في رحلة تستغرق 10 أيام حول القمر للتمهيد لهبوط على سطحه في المستقبل وإقامة قواعد دائمة عليه.


اختراق علمي مزدوج يكشف عن كيف تبدأ الحياة… ومتى تتوقف

اختراق علمي مزدوج يكشف عن كيف تبدأ الحياة… ومتى تتوقف
TT

اختراق علمي مزدوج يكشف عن كيف تبدأ الحياة… ومتى تتوقف

اختراق علمي مزدوج يكشف عن كيف تبدأ الحياة… ومتى تتوقف

في تطورين علميين لافتين، أعلن باحثون اكتشافين يسلطان الضوء على أسرار الحياة من جانبين متناقضين. ففي حين نجح فريق علمي في بناء واحدة من أكثر المحاكاة الرقمية اكتمالاً لخلية حيّة، تمكَّن فريق آخر من تحديد المفتاح الجزيئي الذي يحدد متى تتوقف الخلايا البشرية عن الانقسام، والتكاثر.

ورغم اختلاف المسارين يجتمع هذان الإنجازان ليقدما صورة أوضح للحياة سواء في أبسط صورها أو أعقدها، هي أنها تعمل وفق نظام دقيق ومترابط يفوق ما كان يُعتقد سابقاً.

خلية «حيّة» على شاشة الكمبيوتر

لأول مرة تمكن الباحثون بقيادة زين ثورنبورغ، من معهد «بيكمان للعلوم والتكنولوجيا المتقدمة» في جامعة «إلينوي» بالولايات المتحدة الأميركية، من إنشاء نموذج حاسوبي يتتبع كل جزيء داخل خلية بكتيرية بسيطة في أثناء عملية نسخ حمضها النووي «دي ان ايه DNA» وانقسامها إلى خليتين، في دراسة نُشرت في مجلة «سيل Cell» في 9 مارس (آذار) 2026. وقد تم تقليص المادة الجينية لهذه الخلية إلى 493 جيناً فقط مما جعلها نموذجاً مثالياً لفهم كيفية نشوء الحياة من مكوّناتها الأساسية.

وأعادت المحاكاة الرقمية بناء جميع العمليات الحيوية بما فيها تضاعف الحمض النووي (دي إن إيه)، وتصنيع البروتينات ونشاط الريبوسومات وتغيرات الغشاء الخلوي. ومع تحرّك الجزيئات واصطدامها داخل «الخلية الافتراضية virtual cell» فإنها اتبعت نفس السلوك الذي تفعله الخلايا الحقيقية. وبعد محاولات عديدة لتحسين النموذج، استطاعت الخلية الافتراضية إكمال دورة خلوية كاملة. واستغرقت 105 دقائق، وهو وقت مطابق تقريباً لوقت الخلية الحقيقية.

ولم تكن هذه العملية مجرد رسوم متحركة بل خريطة تفصيلية لما يجعل الخلية حيّة. ويفتح ذلك الباب أمام ابتكار مضادات حيوية جديدة وفهم تطور الحياة المبكرة وتصميم كائنات دقيقة مبرمجة لأغراض طبية أو بيئية. لكن فهم كيفية بدء الحياة لا يقل أهمية عن فهم كيفية توقفها.

بروتين واحد يتحكم بساعة الشيخوخة داخل خلايانا

كانت دراسة منفصلة نُشرت في مجلة «Molecular Cell» بتاريخ 18 ديسمبر (كانون الأول) 2025 قد اكتشفت أن بروتيناً واحداً يسمّى «ATM»، هو المسؤول عن اتخاذ القرار المصيري الذي يُجبر الخلايا البشرية على التوقف عن الانقسام في عملية تُعرف بـ«الشيخوخة التكاثرية أو التشيّخ replicative senescence». وقاد الدراسة تيتيا دي لانغ، رئيسة مختبر بيولوجيا الخلية وعلم الوراثة في جامعة «روكفلر» في نيويورك.

ولفترة طويلة اعتقد الباحثون أن بروتينَي «ATM» و«ATR» يعملان معاً لاستشعار قِصَر التيلوميرات، وهي الأغطية الواقية في نهايات الكروموسومات التي تقصر مع كل انقسام خلوي. لكن الدراسة الجديدة نقضت هذه الفكرة تماماً. وأكدت أن بروتين «ATM» هو وحده المسيطر على عملية التوقف.

وعندما عطّل العلماء هذا البروتين واصلت الخلايا الانقسام حتى عندما أصبحت تيلوميراتها قصيرة جداً. والأدهى من ذلك أن تعطيل بروتين «ATM» في خلايا «مسنّة» أعاد قدرتها على الانقسام، مما يعني أن الشيخوخة الخلوية ليست نهاية حتمية بل مفتاح يمكن تشغيله ووقفه.

نقطة التقاطع: البيئة المحيطة تغيّر مصير الخلية

ما يجمع بين الاكتشافين هو عنصر واحد مهم وهو الأكسجين، حيث أظهرت الخلية الافتراضية أن التغيرات البسيطة في بيئة الخلية تؤثر بعمق على سلوك مكوّناتها الجزيئية. وينطبق الأمر نفسه على الخلايا البشرية.

وتعيش معظم الأنسجة في جسم الإنسان في بيئة تحتوي على 3 في المائة فقط من الأكسجين. لكن في المختبر تُزرع الخلايا عادةً في 20 في المائة منه وهو مستوى الهواء المحيط. ولطالما حيّر العلماء سبب «شيخوخة» الخلايا في المختبر بسرعة أكبر مما يحدث داخل الجسم.

وقدّمت الدراسة الجديدة الإجابة، حيث إن نسبة الأكسجين العالية تجعل بروتين «ATM» حساساً بشكل زائد، فيدفع الخلايا إلى التوقف عن الانقسام أسرع من الطبيعي. ولكن عند مستويات الأكسجين الهادئة داخل الجسم يصبح البروتين «ATM» أقل نشاطاً وتتمكن الخلايا من الانقسام لفترات أطول.

رسالة موحّدة: الحياة تعمل وفق شبكة دقيقة من القواعد

وعند جمع النتائج معاً تتضح صورة مذهلة هي أن الحياة، من أبسط الخلايا إلى أعقدها، محكومة بدوائر جزيئية دقيقة تتأثر بكل ما يحيط بها. فالخلية الافتراضية تكشف عن كيف تنشأ الحياة من مجموعة صغيرة من الجينات. واكتشاف بروتين «ATM يوضح كيف يمكن لجزيء واحد أن يتحكم بالحدّ الفاصل بين الشباب والشيخوخة. وكلاهما يُظهر أن سلوك الخلايا ليس قدراً ثابتاً بل استجابة مرنة للبيئة.

تمهيد لعصر جديد في علم الأحياء

تُبشّر هذه الاكتشافات بمرحلة متطورة تتيح لنا اختبار الخلايا افتراضياً قبل إجراء التجارب الفعلية عليها. والنظر إلى الشيخوخة بوصفها حالة قابلة للتعديل وليس كمصير محتوم. ومن ثم تصميم علاجات أكثر دقة للأمراض كالسرطان والأمراض التنكسية والعدوى.

سواء من خلال محاكاة خلية بكتيرية كاملة أو فك أسرار الساعة البيولوجية للشيخوخة، تُؤكّد لنا هذه الإنجازات حقيقة واحدة هي أن قوانين الحياة لم تعد طيَّ الكتمان بل تُفكَّك طلاسمها خطوة بعد خطوه وبوتيرة أسرع من أي وقت مضى.