متى يجب على الطبيب ألا يعتمد على الذكاء الاصطناعي؟

إرشادات عالمية حول حالات تجنب الاستناد إليه في الممارسة الطبية

تحيز البيانات خطر خفي في الذكاء الاصطناعي الطبي
تحيز البيانات خطر خفي في الذكاء الاصطناعي الطبي
TT

متى يجب على الطبيب ألا يعتمد على الذكاء الاصطناعي؟

تحيز البيانات خطر خفي في الذكاء الاصطناعي الطبي
تحيز البيانات خطر خفي في الذكاء الاصطناعي الطبي

تحوَّل الذكاء الاصطناعي خلال العقد الأخير، من أداة بحثية في مختبرات التكنولوجيا إلى عنصر متزايد الحضور في غرف التشخيص والعيادات الطبية حول العالم. فأنظمة التعلم العميق أصبحت قادرة على تحليل صور الأشعة بدقة عالية، واكتشاف الأورام في مراحل مبكرة، والتنبؤ ببعض الأمراض قبل ظهور أعراضها؛ بل وحتى اقتراح مسارات علاجية محتملة، اعتماداً على تحليل كميات هائلة من البيانات الطبية.

حدود الذكاء الاصطناعي

• حدود واضحة لتوظيف الذكاء الاصطناعي. غير أن هذا التقدم السريع يطرح سؤالاً بالغ الأهمية في الممارسة الطبية المعاصرة: متى يجب على الطبيب ألا يعتمد على الذكاء الاصطناعي؟

فمع توسع استخدام هذه التقنيات بدأت المؤسسات الصحية الدولية في وضع حدود واضحة لاستخدامها. وقد أصدرت جهات تنظيمية كبرى مثل منظمة الصحة العالمية وهيئات تنظيم الدواء في الولايات المتحدة وأوروبا وبريطانيا، إرشادات تؤكد أن الذكاء الاصطناعي يمكن أن يكون أداة قوية لدعم الرعاية الصحية، ولكنه لا ينبغي أن يتحول إلى بديل عن الحكم السريري أو المسؤولية الطبية.

ولهذا بدأت الأدبيات العلمية والتنظيمية في تحديد حالات محددة يصبح فيها استخدام الذكاء الاصطناعي غير مناسب، أو حتى غير آمن في رعاية المرضى.

• بين الأداة والسلطة: المبدأ الأساسي الذي تتفق عليه الهيئات الصحية الدولية بسيط وواضح: الذكاء الاصطناعي أداة تحليل متقدمة، ولكنه ليس سلطة طبية. فهذه الأنظمة قادرة على معالجة كميات هائلة من البيانات الطبية، واكتشاف أنماط قد يصعب على الإنسان ملاحظتها، ولكنها لا تملك القدرة على تحمل المسؤولية الطبية، أو فهم جميع أبعاد الحالة الإنسانية للمريض.

إن القرار الطبي لا يعتمد فقط على تحليل البيانات أو قراءة الصور الطبية؛ بل يشمل أيضاً الخبرة السريرية للطبيب، وفهم التاريخ الصحي للمريض، والظروف الاجتماعية والنفسية التي قد تؤثر في التشخيص والعلاج. ولهذا تؤكد الإرشادات الدولية في أخلاقيات الذكاء الاصطناعي الطبي، أن دور هذه الأنظمة يجب أن يبقى في إطار دعم القرار الطبي لا استبداله.

وفي هذا السياق، بدأت الهيئات الصحية والتنظيمية في تحديد الحالات التي ينبغي فيها استخدام الذكاء الاصطناعي بحذر، أو حتى تجنب الاعتماد عليه في رعاية المرضى.

التوصيات الدولية

تشير الإرشادات الدولية الحديثة إلى أن استخدام الذكاء الاصطناعي في الرعاية الصحية يجب أن يتم ضمن حدود واضحة، تضمن سلامة المرضى واستقلال القرار الطبي. فقد أكدت منظمة الصحة العالمية في توصياتها حول أخلاقيات الذكاء الاصطناعي في الصحة، الصادرة عام 2021، والمحدَّثة لاحقاً في تقارير الصحة الرقمية، وكذلك الجمعية الطبية الأميركية في إرشاداتها بشأن استخدام الذكاء الاصطناعي في الممارسة الطبية، أن هذه الأنظمة يمكن أن تكون أدوات قوية لدعم التشخيص والعلاج، ولكنها يجب ألا تُستخدم في جميع الحالات ولا أن تحل محل الحكم السريري للطبيب.

ولهذا بدأت الأدبيات الطبية والتنظيمية في تحديد حالات واضحة، يصبح فيها استخدام الذكاء الاصطناعي غير مناسب أو حتى غير آمن في رعاية المرضى. وفي ضوء هذه التوصيات يمكن تلخيص أبرز الحالات التي ينبغي فيها تجنب الاعتماد على الذكاء الاصطناعي في الممارسة الطبية في 10 حالات رئيسية.

• الحالة الأولى- عندما لا يكون النظام مثبَتاً علمياً: القاعدة الأساسية في الطب الحديث هي أن أي تقنية جديدة يجب أن تخضع لتقييم علمي صارم، قبل استخدامها في رعاية المرضى. وينطبق ذلك بصورة خاصة على أنظمة الذكاء الاصطناعي الطبية. فالنماذج التي لم تُختبر في دراسات علمية منشورة في مجلات محكَّمة، أو لم تُقيَّم في تجارب سريرية حقيقية، أو لم تحصل على اعتماد الجهات التنظيمية المختصة، لا ينبغي الاعتماد عليها في اتخاذ قرارات تشخيصية أو علاجية. فسلامة المرضى تتطلب أن تُثبت هذه الأنظمة دقتها وموثوقيتها قبل إدخالها إلى الممارسة الطبية.

• الحالة الثانية- عندما لا تمثل البيانات المرضى الحقيقيين: تعتمد أنظمة الذكاء الاصطناعي في عملها على البيانات التي دُرِّبت عليها. وإذا كانت هذه البيانات لا تمثل الفئات السكانية التي سيُستخدم النظام معها، فقد يؤدي ذلك إلى أخطاء تشخيصية أو تحيزات طبية خطيرة. فالنظام الذي طُوِّر اعتماداً على بيانات مرضى من منطقة أو فئة سكانية معينة، قد لا يعطي النتائج نفسها عند استخدامه مع مرضى من خلفيات جينية أو بيئية مختلفة. ولهذا يؤكد الخبراء ضرورة التأكد من أن بيانات التدريب تعكس تنوع المرضى في الواقع الطبي.

• الحالة الثالثة- عندما يصبح القرار (صندوقاً أسود): إحدى القضايا التي تثير نقاشاً واسعاً في الذكاء الاصطناعي الطبي، هي ما تُعرف بمشكلة «الصندوق الأسود». ففي بعض الأنظمة المتقدمة قد تقدم الخوارزمية نتيجة أو توصية طبية من دون أن يكون من الواضح كيف وصلت إلى هذا الاستنتاج.

وفي الممارسة الطبية، لا يكفي أن يكون القرار صحيحاً من الناحية التقنية؛ بل يجب أن يكون قابلاً للفهم والتفسير. فالأطباء يحتاجون إلى معرفة الأسس التي بُني عليها التقييم الطبي، حتى يتمكنوا من مراجعته ومقارنته بالمعطيات السريرية للمريض. ولهذا تحذِّر كثير من الإرشادات الطبية من الاعتماد على أنظمة ذكاء اصطناعي لا توفر درجة كافية من الشفافية في طريقة عملها، أو تفسير نتائجها.

القرار الطبي يبقى بيد الطبيب، لا بيد الخوارزمية

تعارض مع الحكم السريري

• الحالة الرابعة- عندما يتعارض مع الحكم السريري: قد تقدم أنظمة الذكاء الاصطناعي في بعض الحالات توصية أو تقييماً يختلف عن تقدير الطبيب السريري. وفي مثل هذه الحالات تؤكد الإرشادات الدولية أن القرار الطبي النهائي يجب أن يبقى بيد الطبيب. فالخوارزميات تعتمد على تحليل البيانات والأنماط الإحصائية، بينما يستند الحكم السريري إلى خبرة الطبيب وفهمه الكامل لحالة المريض وسياقها الطبي والإنساني. لذلك عندما يحدث تعارض بين توصية النظام الذكي وتقييم الطبيب، يجب التعامل مع مخرجات الذكاء الاصطناعي بوصفها أداة مساعدة للمراجعة، لا بديلاً عن القرار الطبي المسؤول.

• الحالة الخامسة- عندما يُستخدم النظام خارج نطاقه: تُطوَّر أنظمة الذكاء الاصطناعي في الطب عادة لأداء مهام محددة بدقة، مثل تحليل صور الأشعة أو المساعدة في تشخيص حالة معينة. وعندما يُستخدم النظام خارج المجال الذي صُمم من أجله، فقد يؤدي ذلك إلى نتائج أو توصيات غير دقيقة. ولهذا تؤكد الإرشادات التنظيمية أن استخدام أنظمة الذكاء الاصطناعي يجب أن يقتصر على الغرض الطبي الذي طُوِّرت واختُبرت من أجله؛ لأن تجاوز هذا النطاق قد يعرِّض سلامة القرار الطبي للخطر.

• الحالة السادسة- عندما يصبح النظام قديماً: مثل أي نظام تقني آخر، قد تفقد أنظمة الذكاء الاصطناعي الطبية جزءاً من دقتها مع مرور الوقت. ويحدث ذلك لأن البيانات الطبية والأنماط المرضية تتغير باستمرار، وهو ما يسميه الباحثون أحياناً «تدهور النموذج». ولهذا تؤكد الهيئات الصحية الدولية أن هذه الأنظمة يجب أن تخضع لمراقبة مستمرة وتحديثات دورية، لضمان بقائها دقيقة وآمنة. أما الاعتماد على نظام لم يُحدَّث أو لم تُراجع نتائجه منذ فترة طويلة، فقد يؤدي إلى قرارات طبية أقل دقة مما يُتوقع من التكنولوجيا نفسها.

غياب الشفافية والحوكمة الطبية

• الحالة السابعة- عندما تغيب الشفافية: تعتمد الثقة في أي نظام طبي على وضوح طريقة عمله وحدود استخدامه. فإذا لم تكشف الشركات المطورة عن مصادر البيانات التي دُرِّب عليها النظام، أو عن معدلات الخطأ المحتملة، أو عن الحالات التي قد يفشل فيها، يصبح من الصعب على الأطباء تقييم مدى موثوقية هذه التقنية. ولهذا تؤكد الإرشادات التنظيمية أن الشفافية شرط أساسي لاستخدام الذكاء الاصطناعي في الرعاية الصحية؛ لأن القرار الطبي لا يمكن أن يُبنى على نظام لا يعرف الطبيب حدوده ولا نقاط ضعفه.

• الحالة الثامنة- عندما يرفض المريض استخدامه: يُعد مبدأ الموافقة المستنيرة أحد الأسس الأخلاقية في الطب الحديث. ولذلك من حق المريض أن يعرف ما إذا كانت أنظمة الذكاء الاصطناعي تُستخدم في تشخيص حالته أو دعم قرارات علاجه. كما يحق له أيضاً أن يرفض استخدام هذه التقنيات إذا لم يشعر بالارتياح لها. وفي مثل هذه الحالات يجب احترام قرار المريض؛ لأن العلاقة الطبية تقوم في جوهرها على الثقة والشفافية بين الطبيب والمريض.

• الحالة التاسعة- عندما تغيب الحوكمة الطبية: أي عندما لا يكون هناك نظام واضح للمساءلة ولا لمتابعة أداء النظام الذكي داخل المؤسسة الصحية. فالاستخدام الآمن للذكاء الاصطناعي يتطلب وجود آليات رقابية واضحة تضمن مراجعة نتائجه وتحديد المسؤولية في حال حدوث أخطاء.

• الحالة العاشرة- عندما لا تتوفر حماية كافية للبيانات:

إذا لم يكن النظام يضمن حماية البيانات الطبية وخصوصية المرضى وفق المعايير التنظيمية المعتمدة. فالبيانات الصحية تعد من أكثر المعلومات حساسية، وأي استخدام للذكاء الاصطناعي يجب أن يلتزم بأعلى معايير الأمن الرقمي وحماية الخصوصية.

عندما تصبح الخوارزمية صندوقا أسود

بحوث حديثة... ومعايير الأخلاقيات السعودية

• ماذا تقول البحوث الحديثة؟ : تشير الدراسات العلمية الحديثة إلى أن نجاح استخدام الذكاء الاصطناعي في الطب لا يعتمد فقط على دقة الخوارزميات؛ بل أيضاً على درجة الثقة التي يضعها الأطباء والمرضى في هذه الأنظمة.

ففي دراسة علمية نُشرت في يناير (كانون الثاني) 2025 في مجلة «جورنال أوف ميديكال إنترنت ريسيرتش» (Journal of Medical Internet Research) حول العوامل المؤثرة في الثقة بأنظمة دعم القرار الطبي المعتمدة على الذكاء الاصطناعي، توصل الباحثون إلى أن الأطباء يميلون إلى استخدام هذه الأنظمة عندما تكون نتائجها قابلة للتفسير، وعندما تكون خاضعة لتقييم علمي واضح. كما أظهرت الدراسة أن الثقة بالذكاء الاصطناعي ترتبط بشكل وثيق بوجود إشراف طبي مباشر على القرار النهائي، وهو ما يعزز فكرة أن هذه التقنيات يجب أن تعمل كأدوات دعم للقرار الطبي لا كبديل عن الحكم السريري للطبيب.

المعايير الأخلاقية للذكاء الاصطناعي في السعودية:

في المملكة العربية السعودية، أصدرت «الهيئة السعودية للبيانات والذكاء الاصطناعي» (سدايا) إطاراً وطنياً لأخلاقيات الذكاء الاصطناعي، يُعد من أبرز الأطر التنظيمية في المنطقة لتنظيم استخدام هذه التقنيات في مختلف القطاعات، بما في ذلك الرعاية الصحية. ويرتكز هذا الإطار على مجموعة من المبادئ الأساسية، من بينها: العدالة، والشفافية، والمسؤولية، وحماية الخصوصية، وضمان سلامة الاستخدام.

ويؤكد هذا الإطار التنظيمي أن استخدام الذكاء الاصطناعي في المجال الصحي يجب أن يهدف إلى دعم القرار السريري للطبيب، وتعزيز جودة الرعاية الطبية، لا أن يحل محل الحكم الطبي أو المسؤولية المهنية للطبيب. ويتماشى هذا التوجه مع المعايير الدولية التي تشدد على أن الذكاء الاصطناعي أداة مساعدة لتحليل البيانات الطبية، بينما تبقى المسؤولية النهائية عن القرار العلاجي بيد الطبيب.


مقالات ذات صلة

اكتشاف جين جديد يمنح أملاً في مواجهة عيوب القلب الخلقية

علوم اكتشاف جين جديد يمنح أملاً في مواجهة عيوب القلب الخلقية

اكتشاف جين جديد يمنح أملاً في مواجهة عيوب القلب الخلقية

في خطوة علمية قد تعيد رسم ملامح فهم أمراض القلب الخِلْقية، توصل باحثون من جامعة تارتو بإستونيا إلى اكتشاف جين جديد لم يكن مرتبطاً سابقاً بأي مرض بشري،

د. وفا جاسم الرجب (لندن)
صحتك قد يكون العلماء قد فتحوا الباب أمام طريقة جديدة لإعادة برمجة الجهاز المناعي، بحيث يصبح الجسم قادراً على إنتاج أجسام مضادة قوية ونادرة بشكل دائم، والاستجابة بسرعة أكبر عند التعرض للأمراض (رويترز)

دراسة: الجهاز المناعي يمكن إعادة برمجته لإنتاج أجسام مضادة نادرة

ربما يكون الباحثون قد توصلوا إلى طريقة جديدة لجعل الجسم يصنع البروتينات المفيدة بما في ذلك بعض الأجسام المضادة شديدة الفاعلية التي عادة ما يصعب إنتاجها.

«الشرق الأوسط» (لندن)
يوميات الشرق يُعدّ تراكم الغازات في الجهاز الهضمي السبب الأكثر شيوعاً لانتفاخ البطن (بيكساباي)

بين الطرافة والعلم… هل غازات النساء أشد رائحة أم الرجال؟

حسمت دراسة أن غازات النساء أشد رائحةً وتركيزاً، مقابل كميات أكبر لدى الرجال، مما يجعل التأثير متعادلاً عملياً، خصوصاً مع اختلاف السلوكيات اليومية.

«الشرق الأوسط» (لندن)
علوم "ابن سينا" وكيل ذكي يلخص

من يقرأ الطب اليوم... الطبيب أم الخوارزمية؟

في زمنٍ كان الطبيب فيه يقرأ ليعرف... إلا أنه أصبح اليوم يقرأ ليختار ما يتجاهل.

د. عميد خالد عبد الحميد (لندن)
علوم كيف ألهمت طفرة جينية نادرة علاجاً جديداً لالتهاب الأمعاء؟

كيف ألهمت طفرة جينية نادرة علاجاً جديداً لالتهاب الأمعاء؟

كشفت دراسة علمية حديثة عن مقاربة علاجية واعدة لداء كرون والتهاب القولون التقرّحي، تعتمد على محاكاة تأثير نسخة جينية نادرة واقية تُخفّف الالتهاب المزمن في الأمعا

د. وفا جاسم الرجب (لندن)

الذكاء الاصطناعي يطبع آثاراً نفسية خفيّة على الإنسان

الذكاء الاصطناعي يطبع آثاراً نفسية خفيّة على الإنسان
TT

الذكاء الاصطناعي يطبع آثاراً نفسية خفيّة على الإنسان

الذكاء الاصطناعي يطبع آثاراً نفسية خفيّة على الإنسان

كثيراً ما يؤكد معظم مستخدمي أدوات الذكاء الاصطناعي أنها تُسهّل حياتهم. وتحمل هذه التكنولوجيا الذكية وعوداً بتبسيط المهام وتولي مسؤولية تنفيذها على الصعيدين المهني والشخصي، سواءً أكان ذلك تلخيص الوثائق، أو صياغة التقارير، أو إنشاء رموز برمجية، أو حتى تقديم الدعم النفسي. ومع ذلك، يساور الباحثين القلق من أن الذكاء الاصطناعي يُسهّل بعض المهام أكثر من اللازم، وأن هذا سيحمل بطياته عواقب غير متوقعة.

انحسار المشاركة الفاعلة

في مقال بعنوان «ضد الذكاء الاصطناعي السلس»، نشرته دورية «علم نفس الاتصالات» (Communications Psychology) بتاريخ 24 فبراير (شباط)، ناقش علماء نفس من جامعة تورنتو ما قد يفقده الإنسان عندما يقضي الذكاء الاصطناعي على كثير من الجهد المطلوب فيما يخص إنجاز الأنشطة البشرية. وتمحورت حجتهم حول فكرة: يلعب الاحتكاك - الصعوبة، والجهد، وحتى الشعور بعدم الراحة - دوراً مهماً في التعلم، والتحفيز، والشعور بالمعنى. لطالما أظهرت الأبحاث النفسية أن المشاركة الفعالة تُعمّق الفهم وتُقوّي الذاكرة، ما يُوصف بعض الأحيان بـ«الصعوبات المرغوبة».

ويخشى باحثون من أن أنظمة الذكاء الاصطناعي القادرة على إنتاج إجابات مُنمّقة أو محادثات سريعة الاستجابة، ربما تتجاوز عمليات التعلم والتحفيز هذه. ومن خلال توجيه الأولوية للنتائج على حساب الجهد، قد يُضعف الذكاء الاصطناعي التجارب، التي تُساعد الأفراد على تطوير مهاراتهم، وبناء علاقاتهم، وإيجاد معنى في عملهم.

في هذا الصدد، تحدثت فانيسا بيتس راميريز من مجلة «جمعية المهندسين الكهربائيين الأميركيين» (سبيكتروم) ، مع إميلي زوهار، طالبة الدكتوراه في علم النفس التجريبي، الباحثة الرئيسية في الدراسة، حول سبب تأكيدها مع زميليها عالمي النفس بول بلوم ومايكل إنزليخت على أهمية الاحتكاك، وما الذي يمكن أن يبدو عليه في نهج أكثر تركيزاً على الإنسان لدى تصميم الذكاء الاصطناعي.

حوار علمي

> عندما تتحدثين عن «الاحتكاك» ماذا تقصدين من الناحيتين المعرفية والشخصية؟

- تقول إميلي زوهار: نُعرّف الاحتكاك بأنه أي صعوبة يواجهها الإنسان في أثناء السعي إلى تحقيق هدف ما. في سياق العمل، يشتمل الاحتكاك على جهد ذهني - مثل التأمل والمثابرة، والتركيز على مشكلة ما لفترة من الوقت، الأمر الذي يُساعد على ترسيخ الأفكار والعملية الإبداعية.

أما في العلاقات، فيشتمل الاحتكاك على الاختلاف، ومحاولة التوصل إلى التسوية، وإدارة سوء الفهم، والحوار المتبادل - وهي أمور تعد طبيعية عندما لا تتفق وجهات النظر دائماً، ويُساعد على توسيع الآفاق. حتى الشعور بالوحدة له أهمية، فهو يحفز على البحث عن تفاعلات اجتماعية، لذا فإن الشعور بهذه المشاعر السلبية والصعوبات، أمرٌ مهم في السياق الاجتماعي.

> بناءً على هذا التعريف... ما المقصود بمصطلح «الذكاء الاصطناعي السلس»؟

- يشير مصطلح «الذكاء الاصطناعي السلس frictionless AI» إلى المحو المفرط للجهد المطلوب لإنجاز المهام المعرفية والاجتماعية. إذ إنه ومع الذكاء الاصطناعي، كما نستخدمه عادةً، يصبح من السهل للغاية الانتقال من مرحلة توليد الأفكار إلى المنتج النهائي. في الواقع، فإنك تطلب من الذكاء الاصطناعي حل مشكلة ما بمجرد توجيهك له، ليُنجز المهمة بأكملها. ويعد هذا الأمر مشكلة، لأنه يزيل الخطوات الوسيطة التي تُحفز التعلم وتُنمي الدافع، ويولي الأولوية للنتيجة، على حساب العملية. وبدلاً من العمل عبر هذه الخطوات، يتولى الذكاء الاصطناعي هذا العمل المهم نيابةً عنك.

يكشف كثير من الدراسات أن جودة العمل تتحسن مع استخدام الذكاء الاصطناعي. وهذا منطقي، فهو يمتلك كل هذه المعرفة.

ومع ذلك، فإنه يُثير قلقنا لأنه قد يُضعف شيئاً أساسياً يحمل عواقب طويلة الأمد. فإذا واجهت المشكلة نفسها في المستقبل، ولم تكن بحوزتك أداة للذكاء الاصطناعي، فلن تمتلك المعرفة اللازمة لمواجهة المشكلة في المرة المقبلة.

الجهد والمثابرة والتنمية البشرية

> ترين أن إزالة الاحتكاك قد تُضر بالتعلم والعلاقات... باعتقادك ما دور الجهد والمثابرة في التنمية البشرية؟

- في مجال التعلّم، يُطلق على هذا المصطلح «الصعوبات المرغوبة»، في إشارة إلى الجهد والعمل، ليس أي جهد، بل الجهد الذي يمكن إدارته. والمقصود هنا مواجهة مشكلات يُمكن التغلب عليها، لكن يتطلب الأمر بذل بعض الجهد ـ وهنا تكمن الفكرة الأساسية للاحتكاك. لا نريدك أن تواجه مشاكل مستعصية، وإنما نريدك أن تعمل بجد، مع تمتعك بالقدرة على التغلب عليها. ويُساعدك ذلك على استيعاب المعلومات والتعلم منها. في العلاقات الشخصية، عليك مواجهة بعض الصعوبات لمعاينة وجهات نظر أخرى والتعلم منها، وتعلّم تقبّل الآخرين. أما إذا كنت معتاداً على أن يُعزز الذكاء الاصطناعي جميع أفكارك ويتملقك، فستدخل العالم الحقيقي، وتجد نفسك غير معتاد على مطالعة أفكار أخرى. حينها، لن تعرف كيف تتفاعل اجتماعياً، لأنك ستتوقع أن يكون الناس دوماً في صفك ويوافقونك الرأي. ولن تتعلم أن الحياة لا تسير دوماً بالطريقة التي تتوقعها، وأن المحادثات لا تسير دائماً على النحو الذي تنشده.

الذكاء الاصطناعي والعمليات الإبداعية

> لطالما سعت تقنيات كثيرة إلى تقليل الجهد المبذول: الآلات الحاسبة، والغسالات، وبرامج التدقيق الإملائي... ما الذي يميز الذكاء الاصطناعي؟

- ركزت التقنيات السابقة، في أغلبها، على تقليل الجهد البدني. لم نعد مضطرين للذهاب إلى النهر لغسل ملابسنا. لقد أزالت التقنيات السابقة الحاجة إلى إنجاز المهام الروتينية، التي لم تكن تُسهم في تعلمنا ونمونا، بل كانت تُضيف عقبات غير ضرورية وتُهدر الوقت المُخصص لمهام أكثر أهمية.

إلا أن الذكاء الاصطناعي يُقلل الجهد المبذول في العمليات الإبداعية والمعرفية التي تُحفز المعنى والدافع والتعلم. هنا، يكمن الفرق الجوهري، لأنه لا يُزيل العقبات من المهام التي لا تُفيدنا، بل يُزيل العقبات من التجارب المهمة والأساسية لتطورنا.

> هل هناك سياقات يُزيل فيها الذكاء الاصطناعي العقبات المفيدة بالفعل؟ وكيف تظهر آثار تقليل العقبات بمرور الوقت؟

- أحد الأمثلة الواضحة هنا الكتابة. يعتمد الناس بشكل كبير على الذكاء الاصطناعي في صياغة كل شيء، من رسائل البريد الإلكتروني إلى المقالات، ما يُزيل من الطريق كثيراً من العقبات المفيدة. وتُظهر أبحاث أن ثقة الناس بالردود تتراجع، عندما يعلمون أنها كُتبت بواسطة الذكاء الاصطناعي، وأنهم يُقيّمون المنتجات المُولّدة بواسطة الذكاء الاصطناعي بأنها أقل إبداعاً وقيمة، ويواجهون صعوبة أكبر في تذكّر أعمالهم التي أُنتجت بمساعدة الذكاء الاصطناعي. كما أن الاستعانة بالذكاء الاصطناعي في الكتابة تقضي على الاحتكاك الاجتماعي والمعرفي.

ونجد مثالاً جيداً آخر البرمجة التفاعلية. إذا كنت مبرمجاً، فإنّ هذا يعني أن البرمجة جزء لا يتجزأ مما يُضفي معنى على عملك. يستمدّ الناس المعنى من عملهم، وإذا استبدلت ذلك بواسطة الذكاء الاصطناعي، فقد يضر ذلك بهم. ويتركز الأثر السلبي للذكاء الاصطناعي السلس حول أنه يُزيل الاحتكاك من أمور بالغة الأهمية لتنمية شخصيتك ومهاراتك.

أحد المجالات التي تثير قلقي بشدة، استخدام المراهقين للذكاء الاصطناعي بشكل عام. إنها فترة نمو بالغة الأهمية للتعلّم والنموّ واكتشاف المسار الذي ستسلكه. لذا، إذا لم تكن لديك هذه التفاعلات المُثمرة مع العمل والعلاقات، التي تُعلّمك كيف تُفكّر، فستكون لذلك آثار سلبية على المدى الطويل. قد لا يتمكنون من التفكير النقدي بالطريقة نفسها، لأنهم لم يضطروا لذلك من قبل. وإذا لجأوا إلى الذكاء الاصطناعي في بناء علاقاتهم الاجتماعية في هذه السن المبكرة، فقد يؤدي ذلك إلى تراجع مهارات مهمة كان ينبغي عليهم تعلمها في تلك المرحلة العمرية.

«الاحتكاك البنّاء»

> ما المقصود بالاحتكاك البنّاء؟

- الاحتكاك بطبيعته متدرج، فمع قلة الاحتكاك، لا يتحقق التعلم ولا الحافز. ومع كثرته، تصبح المهمة شاقة للغاية. أما الاحتكاك البنّاء، فيقع في المنتصف، وفي إطاره يؤدي الكفاح إلى الإنجاز. إنه يتطلب جهداً، لكنه جهد ممكن، ويتطلب التفكير النقدي والعمل على حل مشكلة ما لفترة من الوقت أو مواجهة بعض الصعوبات خلال العملية.

وكان المثال الذي استخدمناه في البحث، الفرق بين ركوب «التلفريك» وتسلق الجبل سيراً على الأقدام. كلاهما يصل إلى القمة، لكن مع «التلفريك»، لا يجني المرء أي فوائد تنموية، بينما ينطوي تسلق الجبل على صعوبات وشعور بالإنجاز. يصبح الأمر أكثر ثراءً ويحمل فرصة أكبر للتعلم، مقارنةً بالشخص الذي صعد بسهولة تامة، مستعيناً بـ«التلفريك».

> هل تتصورين ذكاءً اصطناعياً يُبطئ الناس عن عمد أحياناً أو يطلب منهم الاضطلاع بجزء من العمل بأنفسهم؟

- من المهم في علم السلوك التفكير في الخيار الافتراضي، لأن الناس لا يغيرون عادةً ما هو افتراضي لديهم. لذا، فإن الوضع الافتراضي في الذكاء الاصطناعي حالياً هو تقديم الإجابة التي تلائمك، ثم دفع المستخدم لمواصلة الس-

ير في الاتجاه ذاته. إلا أنني أعتقد أنه بإمكاننا التفكير في الذكاء الاصطناعي بطريقة مختلفة. ربما يمكننا جعل الوضع الافتراضي بناءً، على نحو أكبر؛ فبدلاً من مجرد الوصول إلى الإجابة مباشرةً، يُساعد الذكاء الاصطناعي المستخدم على التفكير في المشكلة ويُعلمه في أثناء ذلك، ما يجعله أكثر تعاوناً، وليس مصدراً لحل جاهز.

• باعتقادك كيف سيشعر مستخدمو هذه الأنظمة والشركات المطورة لها حيال هذا التحول في التصميم؟

- فيما يتعلق بمطوري هذه الأنظمة، يتركز القلق الأكبر حول ردود الفعل السلبية، فالناس اليوم أصبحوا معتادين على الحصول على الإجابة مباشرةً، وقد يُبدون مقاومة شديدة لتصميم يُجبرهم على بذل جهد أكبر. إلا أن هذا قد يُحفز مزيداً من التفاعل، لأنه يتطلب التفاعل والتواصل معاً للوصول إلى الإجابة. في نهاية المطاف، أعتقد أن الأمر يجب أن ينبع من الشركات المصنعة لهذه النماذج، إذا كان المصممون يعتقدون أن تصميماً يقوم على قدر أكبر من الاحتكاك سيفيد المستخدمين. في الواقع، فإن هذا النمط من الذكاء الاصطناعي المعقد منتج طويل الأمد. ومن الصعب الجزم ما إذا كان ذلك سيحفز الشركات على تغيير نماذجها لتتضمن قدراً معقولاً من التعقيد، لكن على المدى البعيد، أعتقد أن هذا سيكون مفيداً. لمواجهة المصاعب وبذل الجهود دور مهم في التعلم والتحفيز والشعور بمعنى الإنجازات


اكتشاف جين جديد يمنح أملاً في مواجهة عيوب القلب الخلقية

اكتشاف جين جديد يمنح أملاً في مواجهة عيوب القلب الخلقية
TT

اكتشاف جين جديد يمنح أملاً في مواجهة عيوب القلب الخلقية

اكتشاف جين جديد يمنح أملاً في مواجهة عيوب القلب الخلقية

في خطوة علمية قد تعيد رسم ملامح فهم أمراض القلب الخِلْقية، توصل باحثون من جامعة تارتو بإستونيا إلى اكتشاف جين جديد لم يكن مرتبطاً سابقاً بأي مرض بشري، لكنه يبدو أنه يلعب دوراً حاسماً في تكوّن قلب الجنين.

وتربط النتائج التي نُشرت في دورية «Journal of Medical Genetics» في 4 مارس (آذار) 2026، جينMGRN1 بحدوث تشوهات قلبية خلقية، وذلك في اختراق علمي قد يغير طريقة تشخيص هذه الحالات، والتعامل معها مستقبلاً.

وتكتسب هذه النتائج أهمية خاصة؛ إذ تُعد عيوب القلب الخِلقية من أكثر التشوهات شيوعاً عالمياً؛ حيث تصيب نحو مولود واحد من كل مائة. وعلى مدى عقود، سعى العلماء لفك لغز العوامل الجينية التي تتحكم في تطور القلب؛ أملاً في الوصول إلى تشخيص مبكر وعلاج أكثر دقة. واليوم، يفتح هذا الاكتشاف باباً جديداً نحو فهم أعمق، وربما إنقاذ مزيد من الأرواح

جين مفاجئ

وما يجعل هذا الاكتشاف لافتاً بشكل خاص هو أن جين MGRN1 لم يكن مرتبطاً من قبل بتطور الجنين البشري المبكر أو بأي مرض على الإطلاق، وظهوره لاعباً رئيسياً في تشكل القلب فاجأ المجتمع العلمي.

وأكدت قائدة فريق البحث لورا كاساك رئيس قسم علم الوراثة البشرية بمعهد الطب الحيوي والطب الانتقالي بجامعة تارتو بإستونيا في النتائج المنشورة، أن هذا الجين كان عملياً خارج نطاق الرادار، ولم تشِر أي دراسات سابقة إلى مشاركته في تطور القلب أو أي حالة خِلقية.

جاء هذا الاكتشاف بعد سنوات من التحليل الجيني الدقيق، قام خلالها الباحثون بفحص عينات الحمض النووي «دي إن إيه» من عائلات تأثرت بعيوب قلب خِلقية. وباستخدام تقنيات متقدمة في التسلسل الجيني، حدد الفريق تغيرات في جين MGRN1 ظهرت بتردد غير عادي لدى الأطفال الذين وُلدوا بتشوهات قلبية.

وبالنسبة للعائلات التي تواجه تشخيص مرض قلبي خِلقي فإن آثار هذا الاكتشاف عميقة. حالياً يتلقى العديد من الآباء مثل هذه التشخيصات بمعلومات محدودة عن الأسباب الكامنة؛ ما يصعّب فهم مخاطر التكرار، أو اتخاذ قرارات مستنيرة بشأن تنظيم الأسرة.

إلا أن تحديد جين MGRN1 يغير هذه المعادلة تماماً؛ حيث يمكن لمقدمي الرعاية الصحية الآن فحص التغيرات في هذا الجين في أثناء الحمل؛ ما يتيح اكتشافاً أبكر للتشوهات القلبية المحتملة. ويتيح الاكتشاف الأبكر، بدوره، تحضيراً أفضل بدءاً من ترتيب رعاية متخصصة في غرفة الولادة، وصولاً إلى التخطيط للتدخلات الجراحية التي قد تكون ضرورية بعد الولادة بمدة قصيرة.

وأكدت الدكتورة ماريس لان المشاركة بالدراسة، والتي تقود مجموعة أبحاث الوراثة البشرية، أن هذا الاكتشاف يفتح أيضاً آفاقاً جديدة للإرشاد الوراثي؛ فالعائلات التي عانت من ألم معاناة أطفالها من عيوب القلب الخِلقية يمكنها الآن الحصول على معلومات أكثر دقة حول احتمالية تكرار الحالة في حالات الحمل المستقبلية.

فحوصات وعلاجات جينية

تمتد التطبيقات العملية لهذا البحث إلى ما هو أبعد من المختبر، مع بدء المراكز الطبية في دمج فحوصات جين MGRN1 في بروتوكولات الفحص قبل الولادة، حيث يتوقع الأطباء تحقيق تحسينات ملموسة في كيفية التعامل مع عيوب القلب الخِلقية.

وعندما يعرف الأطباء أي المسارات الجينية تعطلت يمكنهم توقُّع الأنواع المحددة من التشوهات التي قد تتطور وتوقع المضاعفات المحتملة بشكل أفضل. وهذه المعرفة تسمح بوضع خطط رعاية أكثر تخصيصاً تتناسب مع الملف الجيني الفريد لكل مريض.

علاوة على ذلك، فإن فهم الآليات الجزيئية التي يؤثر بها جين MGRN1 في تطور القلب يخلق فرصاً لطرق علاجية جديدة تماماً. ورغم أن التدخلات العلاجية في أثناء الحمل تبقى معقدة فإن الباحثين يستكشفون بالفعل ما إذا كانت بعض الأدوية أو العلاجات الجينية قد تخفف في يوم ما آثار الطفرات الضارة لجين MGRN1 قبل الولادة.

ولا يمثل اكتشاف دور جينMGRN1 نهاية الرحلة العلمية بل بداية فصل جديد في فهم عيوب القلب الخِلقية؛ ففي جامعة تارتو يعمل الباحثون حالياً على توسيع نطاق دراساتهم لاستكشاف كيفية تفاعل هذا الجين مع شبكة واسعة من الجينات الأخرى المعروفة بتأثيرها في نمو القلب.

وقد بدأت بالفعل شراكات بحثية مع مؤسسات علمية في أوروبا وأميركا الشمالية في خطوة تعكس إدراك المجتمع العلمي لأهمية التحقق من هذه النتائج على نطاق أوسع، وفي مجموعات سكانية أكثر تنوعاً.

ويؤكد فريق البحث أن القلب من أكثر أعضاء الجسم تعقيداً؛ إذ يتطلب تكوّنه تناغماً دقيقاً بين مئات بل آلاف الجينات. وفي هذا السياق يقدّم جين MGRN1 نافذة جديدة لفهم هذه العملية المعقدة، نافذة لم تكن معروفة من قبل.

وبالنسبة لآلاف العائلات التي تتلقى سنوياً تشخيصاً بوجود عيب خِلقي في القلب، وللأطفال الذين قد يواجهون سلسلة من العمليات الجراحية في سنواتهم الأولى يحمل هذا الاكتشاف بارقة أمل حقيقية، واستعداداً أفضل وفرصاً أعلى لتحسين النتائج الصحية.

وكما يلخص أحد الباحثين في الفريق: «كل جين نكتشفه هو قطعة جديدة من هذا اللغز الكبير. قد لا نرى الصورة الكاملة بعد، لكننا اليوم أقرب إليها من أي وقت مضى».

وتخطط الجامعة لنشر التفاصيل المنهجية الكاملة لهذا الاكتشاف في عدد قادم من «Journal of Medical Genetics»، بما يتيح للباحثين حول العالم البناء على هذه الخطوة المهمة، ودفع حدود المعرفة الطبية إلى الأمام.


نظم ذكاء اصطناعي... لجميع اللغات والثقافات

نظم ذكاء اصطناعي... لجميع اللغات والثقافات
TT

نظم ذكاء اصطناعي... لجميع اللغات والثقافات

نظم ذكاء اصطناعي... لجميع اللغات والثقافات

لطالما رغب المبرمج المصري عاصم صبري في نموذج ذكاء اصطناعي يُمثل ثقافته. لكن المشكلة تكمن في عدم عثوره على نموذج مثل هذا. ويقول صبري: «صناعة الذكاء الاصطناعي في مصر... غير موجودة». لذا قام ببناء نموذجه الخاص: «حورس»، نسبةً إلى إله السماء المصري القديم.

«حورس» على منصة «Hugging Face»

«حورس» للذكاء الاصطناعي

يقول صبري إن الهدف كان التوقف عن «الاعتماد على نماذج أخرى، مثل النماذج الأميركية أو الصينية»، والتوجه بدلاً من ذلك عن شكل النموذج الذي يُركز بشكل أكبر على الثقافة المصرية. ولجعل «حورس» يعمل، قام بتدريبه باستخدام وحدات معالجة الرسومات من «غوغل كولاب» Google Colab ومزودي خدمات سحابية آخرين، إلى جانب مجموعات بيانات مفتوحة المصدر. وقد حقق النموذج، الذي تم إصداره في أوائل أبريل (نيسان) الحالي، أكثر من 800 عملية تنزيل في أسبوعه الأول على منصة «Hugging Face».

انحصار لغوي

ويُعدّ صبري واحداً من بين عدد متزايد من المطورين الذين يسعون لتصحيح خللٍ مزمن في مجال الذكاء الاصطناعي. فالنماذج تتقن الإنجليزية، وإلى حدٍّ أقل، الصينية، لكنها أقل كفاءةً بكثير في معظم اللغات الأخرى. واللغات التي تُصنّف على أنها لغات أقلية، هي في الواقع لغات الأغلبية العالمية. ومع ذلك، وبفضل طريقة تدريب النماذج (على كميات هائلة من البيانات المُستخرجة من الإنترنت)، بالإضافة إلى اقتصاديات صناعة التكنولوجيا، تبقى الإنجليزية هي اللغة المهيمنة.

فجوة اللغات

في عام 2023، نشرت الباحثة علياء بهاتيا، بالتعاون مع زميل لها في مركز الديمقراطية والتكنولوجيا، دراسةً تُشير إلى أن اللغات غير القياسية «ضاعت في الترجمة» بسبب تأثيرات التنعيم والحوافز التجارية التي تُشكّل شركات التكنولوجيا الكبرى. ففي خضمّ التهافت على الاستفادة من الذكاء الاصطناعي، أعطت الشركات الأولوية لدعم اللغة الإنجليزية، ويعود ذلك جزئياً إلى محدودية بيانات التدريب، ولم تبذل جهداً يُذكر لسدّ هذه الفجوة.

لسنوات، عزّزت الاعتبارات الاقتصادية هذه المشكلة. فتدريب نماذج الذكاء الاصطناعي مُكلف، ولا تملك الشركات حافزاً يُذكر لتطوير نماذج تدعم مجموعات لغوية أصغر حجماً دون عائد واضح.

نماذج محلية

وقد بدأ هذا الوضع بالتغيّر أخيراً، أدى صعود نماذج الذكاء الاصطناعي المحلية، بالتزامن مع تشديد شركات الذكاء الاصطناعي الكبرى لحدود الرموز الرقمية، إلى فتح المجال أمام الشركات الصغيرة. يقول صبري: «قبل عامين، لم يكن الذكاء الاصطناعي بمثل هذه الكفاءة، ولم تكن نماذج الذكاء الاصطناعي مفتوحة المصدر. أما الآن، فيمكننا بناء نماذجنا الخاصة من الصفر».

ومع ذلك، لا تزال هناك عقبات. وتشير بهاتيا إلى أن «بعض العوائق لا تزال قائمة فيما يتعلق بالحوسبة، والبنية التحتية، والتمويل»، وهو ما يمثل مجتمعاً «عائقاً كبيراً». ومع ذلك، فإن التقدم واضح.

من اميركا اللاتينية إلى آسيا

وما يتبلور ليس نظاماً بيئياً رسمياً بقدر ما هو شبكة عالمية غير رسمية من النماذج ذات التركيز المحلي: Apertus السويسرية، و Latam-GPT في أميركا اللاتينية، وN-ATLaS النيجيرية، و Sahabat-AI الإندونيسية، وSEA-LION السنغافورية، وGreenMind الفيتنامية، وOpenThaiGPT التايلاندية، وTeuken 7B الأوروبية. يقدم كل منها بديلاً للنماذج السائدة من «أوبن إيه آي» و«أنثروبيك» و«علي بابا».

جهود شعبية

لا تزال بعض الجهود شعبية، مثل جهود صبري. بينما تحظى جهود أخرى بدعم مؤسسي. وعلى سبيل المثال، يُعدّ مشروع «أبيرتوس» ثمرة تعاون بين جامعتين سويسريتين والمركز الوطني السويسري للحوسبة الفائقة، الذي ساهم بأكثر من 10 ملايين ساعة معالجة رسومية، أي ما يعادل عشرات الملايين من الدولارات في الحوسبة التجارية.

إلا أن معظم المشاريع تعمل على نطاق أصغر بكثير من ذلك. ومع ذلك، فإن القدرة على تدريب ونشر نماذج محلية بتكلفة منخفضة نسبياً تُغيّر قواعد اللعبة. فقد سجّلت نسخة مُحسّنة من برنامج «لاما 3.2» التابع لشركة «ميتا»، الذي تم تدريبه على 14,500 زوج من الأمثلة القانونية الهندية، ما يزيد قليلاً على 1000 عملية تنزيل منذ أوائل أبريل (نيسان). وهذا جانب مُتخصص، لكنه ذو أهمية. وكان من الصعب تبرير الاستثمار فيه اقتصادياً حتى وقت قريب.

توسيع السوق

يشير هذا الإقبال المبكر إلى وجود سوق أوسع من السوق السائد. كما أنه يطرح تساؤلاً أمام كبرى شركات الذكاء الاصطناعي. تقول بهاتيا: «ما تقدمه هذه البدائل هو دليل على إمكانية بناء أنظمة تمثل بشكل أفضل أغلبية المستخدمين واللغات في العالم، طالما أن شركات الذكاء الاصطناعي الكبرى ترغب فعلاً في الاستفادة من هذه التجارب والتعلم منها».

* مجلة «فاست كومباني».