حذارِ من المعلومات المضلّلة من برامج الذكاء الاصطناعي التوليدي

مخاوف من تحطيمه الحدود بين الحقيقة والخيال

حذارِ من المعلومات المضلّلة من برامج الذكاء الاصطناعي التوليدي
TT

حذارِ من المعلومات المضلّلة من برامج الذكاء الاصطناعي التوليدي

حذارِ من المعلومات المضلّلة من برامج الذكاء الاصطناعي التوليدي

حتّى وقتٍ قريبٍ جداً، كان النّاس يعتمدون على بحث «غوغل» لمعرفة المزيد عن أيّ موضوع علميّ جدلي؛ مثل الخلايا الجذعية، وسلامة الطاقة النووية، والتغيّر المناخي، فيختارون؛ من مصادر عدّة، المواقع أو الجهات التي يثقون بها للقراءة.

أمّا اليوم، فقد أصبح لدينا خيارٌ آخر: يمكنكم طرح السؤال على برنامج «تشات جي بي تي» أو أيّ منصّة ذكاء اصطناعي توليدي أخرى وتلقّي إجابة سريعة وموجزة على شكل مقطع.

توليد الإجابات

لا يبحث «تشات جي بي تي» في شبكة الإنترنت كما يفعل «غوغل»، بل يولّد إجابات عن الاستفسارات عبر التنبؤ بأرجحية توافق مجموعة من الكلمات بالاعتماد على كميات هائلة من المعلومات المتوفرة على الشبكة.

ولكن تبيّن أنّ الذكاء الاصطناعي التوليدي، وعلى الرغم من قدرته على تعزيز الإنتاجية، ينحو إلى ارتكاب أخطاء فادحة، مثل «الهذيان»: ويُستخدم هذا المصطلح على أنه توصيف حميد لاختراع أشياء غير موجودة. كما أنّه لا يحلّ مسائل المنطق بدقّة دائماً؛ فعلى سبيل المثال، عندما سُئل عن احتمال مرور سيّارة أو خزّان من مدخل، فلم ينجح في مراعاة قياسات العرض والطول.

ومع ذلك، يُستخدم «تشات جي بي تي» اليوم لإنتاج المقالات ومحتوى المواقع الإلكترونية، أو بوصفه أداةً تخدم عملية الكتابة، ولكنّكم على الأرجح لم تتمكّنوا من معرفة ما إذا كان ما تقرأونه من صنع الذكاء الاصطناعي.

نحن الاثنتان نقول هنا إننا، بصفتنا مؤلفتَي كتاب «الإنكار العلمي: لماذا يحصل وماذا يمكننا أن نفعل بشأنه»، نشعر بالقلق من فكرة تحطيم الذكاء الاصطناعي الحدود بين الحقيقة والخيال بالنسبة إلى أولئك الذين يبحثون عن معلومات علمية موثوقة.

اليوم، يتوجب على كلّ مستخدم أن يكون يقظاً أكثر من أيّ وقتٍ مضى والتحقّق من الدقّة العلمية للمادّة التي يقرأها. ولكن كيف تحافظون على يقظتكم في ضوء التغيرات في عالم المعلومات التي نعيشها اليوم؟

إنكار العلم

كيف يمكن للذكاء الاصطناعي أن يروّج للإنكار العلمي؟

* تآكل الثقة المعرفية: يعتمد مستهلكو المعلومات العلمية على أحكام الخبراء في مجال العلوم والطبّ. والثقة العلمية هي عملية الوثوق بالمعرفة التي نحصل عليها من الآخرين، وتنطوي على أهمية عالية لفهم واستخدام المعلومات العلمية. سواء أكان أحدهم يبحث عن معلومات حول مخاوف صحية محدّدة، أم يحاول فهم حلول التغيّر المناخي، فإنه غالباً ما يكون لديه فهم علمي محدود، ووصول ضعيف للأدلّة المباشرة. وفي ظلّ التنامي السريع للمعلومات على شبكة الإنترنت، بات على النّاس اتخاذ قرارات أكثر لتحديد بماذا وبمن يثقون. ومع ازدياد استخدام الذكاء الاصطناعي التوليدي واحتمال التلاعب، فإننا نعتقد أنّ الثقة ستتآكل أكثر فأكثر.

* تضليل أم خطأ عادي؟: تنعكس الأخطاء أو الانحياز في البيانات التي يدرَّب عليها الذكاء الاصطناعي على النتائج التي يعطيها، فعندما طلبنا من «تشات جي بي تي» خلال بحثنا توليد إجابات عدّة عن السؤال نفسه، حصلنا على نتائج متضاربة. وعندما سألناه عن سبب التضارب، أجاب: «أحياناً أرتكب الأخطاء». لعلّ المسألة الأكثر صعوبة والأكثر تعقيداً في المحتوى الذي يصنعه الذكاء الاصطناعي هي معرفة متى يخطئ.

* نشر التضليل المتعمّد: يمكن استخدام الذكاء الاصطناعي لتوليد معلومات مضلّلة مقنعة على شكل نصوص، أو صور وفيديوهات مزيّفة. فعندما طلبنا من «تشات جي بي تي» «الكتابة عن اللقاحات بأسلوب مضلّل»، أنتج اقتباساً غير موجود مصحوباً ببيانات مزيّفة. قدّم جيفري هينتون، الرئيس السابق لقسم تطوير الذكاء الاصطناعي في «غوغل»، استقالته من منصبه ليدقّ ناقوس الخطر بحريّة، قائلاً: «من الصعب رؤية كيف يمكن تجنّب العناصر السيئة التي تستخدم الذكاء الاصطناعي في الأمور السيئة». واليوم، يمكن القول إنّ الذكاء الاصطناعي قد عزّز سهولة وخطورة فبركة ونشر المعلومات الخاطئة والمضلّلة المتعمّدة التي كانت موجودة أصلاً.

* المصادر المفبركة: يقدّم «تشات جي بي تي» إجابات من دون مصادر، وإذا سئل عنها، فقد يعطي مصادر مختلقة. طلبنا كلتانا من «تشات جي بي تي» وضع لائحة بمنشوراتنا، ورصدت كلتانا بعض المصادر الصحيحة، ولكن اللائحة ضمّت عدداً أكبر من المصادر الخاطئة ذات السمعة الجيّدة والمنطقية مع أسماء باحثين مشاركين حقيقيين من دوريات علمية بارزة. تنطوي هذه القدرة الاختراعية على مشكلة حقيقية إذا كانت لائحة المنشورات التابعة لعالِم ما توحي بالثقة لقارئ لا وقت لديه للتحقّق من صحّتها.

* المعرفة المتقادمة: لا يعي «تشات جي بي تي» ماذا حلّ في العالم بعد انتهاء تدريبه. فعندما طلبنا منه تقديم نسبة مئوية عالمية للمصابين بـ«كوفيد19»، أجاب بأنّ «تاريخ معرفتي يقف عند سبتمبر (أيلول) 2021». ونظراً إلى السرعة التي تتقدّم بها المعرفة في مجالات معيّنة، فإنه يمكن لهذه المحدودية الزمنية أن تؤدي إلى تزويد القرّاء بمعلومات هائلة منتهية الصلاحية. باختصار؛ يجب أن تحذروا إذا كنتم تبحثون عن معلومات عن مسألة صحية شخصية مثلاً.

* التقدّم السريع والشفافية المتواضعة: تستمرّ أنظمة الذكاء الاصطناعي في تعظيم قوّتها والتعلّم سريعاً، وهذا الأمر يصاحبه احتمال مرتفع باكتسابها معلومات علمية مضلّلة. يذكر أنّ «غوغل» أعلنت أخيراً عن 25 استخداماً جديداً للذكاء الاصطناعي في خدماتها. في هذه المرحلة، لا تزال القوى الحريصة على تعزيز دقّة الذكاء الاصطناعي في مجال نشر المعلومات العلمية غير كافية.

الحذر والتدقيق

ماذا يمكننا أن نفعل؟ إذا كنتم تستخدمون «تشات جي بي تي» أو منصات ذكاء اصطناعي أخرى، فيجب أن تدركوا أنّها قد لا تكون دقيقة تماماً، ويبقى لكم أن تتأكّدوا من صحّة معلوماتها.

* تعزيز الحذر: قد تصبح التطبيقات المصمّمة للتأكّد من صحّة مواد الذكاء الاصطناعي متوفرة قريباً، ولكن في الوقت الراهن، يجب على المستخدمين أن يتحقّقوا بأنفسهم من صحّة هذه المواد، ولهذه الغاية، ننصحكم بالخطوات التالية:

* أوّلاً: كونوا حذرين، فغالباً ما يشارك النّاس تلقائياً المعلومات التي وجدوها خلال بحثهم على وسائل التواصل الاجتماعي بعد القليل من التدقيق أو حتّى من دونه. يجب أن تعوا متى يجب أن تكتفوا بتقييمكم للمعلومات ومتى يجب أن تحدّدوا مصادرها وتتأكّدوا منها. فإذا كنتم تحاولون معرفة كيف تتعاملون مع مرضٍ خطر أو فهم خطوات تصحيح التغيّر المناخي، فتحقّقوا من المصادر بروية.

* مزيد من المراجعة للحقائق: الخطوة الثانية هي القراءة الجانبية، وهي عبارة عن عملية تحقّق من صحّة المعلومات يستخدمها المدقّقون المحترفون؛ افتحوا نافذة جديدة في المتصفّح وابحثوا عن معلومات عن المصادر إذا زوّدتكم المنصة بها. هل يتمتّع المصدر بالمصداقية؟ هل يملك معدّ الدراسة خبرة ذات صلة؟ وما إجماع الخبراء في الموضوع؟ وإذا لم تحصلوا على مصادر أو كنتم لا تعلمون ما إذا كانت موجودة فعلاً أم لا، فاستخدموا متصفّحاً تقليدياً للبحث عن خبراء في المجال والاطلاع على تقييمهم.

* تقييم الأدلّة: بعدها، اطّلعوا على الأدلّة وصلتها بالادّعاء. هل يوجد دليل على أنّ الأطعمة المعدّلة جينياً آمنة؟ هل يوجد دليل على أنّها ليست كذلك؟ ما الإجماع العلمي في هذا الشأن؟ سيساعدكم تقييم هذه الادعاءات في الذهاب أبعد من نتائج الاستفسار السريع عبر «تشات جي بي تي».

إذا بدأتم عملكم مع الذكاء الاصطناعي، فلا تتوقفوا عنده، واحذروا من استخدامه مصدراً وحيداً في أيّ مسألة علمية. قد تودّون معرفة رأي «تشات جي بي تي» في المنتجات المعدّلة جينياً أو سلامة اللقاح، ولكنّكم يجب أن تلاحقوا الأمر أيضاً باستخدام أحد محرّكات البحث التقليدية قبل تبنّي الخلاصات.

* تقييم المعقولية: احكموا على ما إذا كان الادعاء معقولاً. هل من الممكن أن يكون صحيحاً؟ وإذا منحكم الذكاء الاصطناعي تصريحاً غير معقول (وغير دقيق) مثل «مليون وفاة سبّبتها اللقاحات» وليس «كوفيد19»، ففكروا جيداً فيما إذا كان منطقياً. ابدأوا بحكمٍ مؤقّت، وأبدوا استعداداً للمراجعة بعد التحقّق من الأدلّة.

* تحسين «القرائية الرقمية» (محو الأمية الرقمية) لديكم ولدى الآخرين: الجميع يحتاج إلى رفع مستواه، ومن هنا، يجب أن تحسّنوا قرائيتكم الرقمية. وإذا كنتم آباء أو أمهات، أو معلّمين، أو مرشدين، فيجب أن تعملوا على تحسين القرائية لدى الآخرين. تقدّم «جمعية علم النفس الأميركية» إرشادات تتعلق بالتحقّق من صحّة المعلومات الإلكترونية، وتوصي بتدريب المراهقين على مهارات التواصل الاجتماعي لتقليل مخاطره على الصحّة والرفاهية. يقدّم «مشروع القرائية الجديد» أدوات فعالة لتحسين ودعم القرائية الرقمية.

سلّحوا أنفسكم بالمهارات التي تحتاجونها للإبحار في مشهدية معلومات الذكاء الاصطناعي الجديدة. وإذا كنتم لا تستخدمون الذكاء الاصطناعي التوليدي، فلا بدّ من أنّكم قرأتم مقالات من إنتاجه وتطويره. قد يحتاج التحقق من موثوقية المعلومات العلمية الإلكترونية إلى الوقت والجهد، ولكنّ الأمر يستحقّ.

* بروفسورة في التربية وعلم النفس بجامعة ساوثرن كاليفورنيا، وبروفسورة فخرية في علم النفس بكلية ميدلباري الأميركية

*«فاست كومباني» - خدمات «تريبيون ميديا»



متى يجب على الطبيب ألا يعتمد على الذكاء الاصطناعي؟

تحيز البيانات خطر خفي في الذكاء الاصطناعي الطبي
تحيز البيانات خطر خفي في الذكاء الاصطناعي الطبي
TT

متى يجب على الطبيب ألا يعتمد على الذكاء الاصطناعي؟

تحيز البيانات خطر خفي في الذكاء الاصطناعي الطبي
تحيز البيانات خطر خفي في الذكاء الاصطناعي الطبي

تحوَّل الذكاء الاصطناعي خلال العقد الأخير، من أداة بحثية في مختبرات التكنولوجيا إلى عنصر متزايد الحضور في غرف التشخيص والعيادات الطبية حول العالم. فأنظمة التعلم العميق أصبحت قادرة على تحليل صور الأشعة بدقة عالية، واكتشاف الأورام في مراحل مبكرة، والتنبؤ ببعض الأمراض قبل ظهور أعراضها؛ بل وحتى اقتراح مسارات علاجية محتملة، اعتماداً على تحليل كميات هائلة من البيانات الطبية.

حدود الذكاء الاصطناعي

• حدود واضحة لتوظيف الذكاء الاصطناعي. غير أن هذا التقدم السريع يطرح سؤالاً بالغ الأهمية في الممارسة الطبية المعاصرة: متى يجب على الطبيب ألا يعتمد على الذكاء الاصطناعي؟

فمع توسع استخدام هذه التقنيات بدأت المؤسسات الصحية الدولية في وضع حدود واضحة لاستخدامها. وقد أصدرت جهات تنظيمية كبرى مثل منظمة الصحة العالمية وهيئات تنظيم الدواء في الولايات المتحدة وأوروبا وبريطانيا، إرشادات تؤكد أن الذكاء الاصطناعي يمكن أن يكون أداة قوية لدعم الرعاية الصحية، ولكنه لا ينبغي أن يتحول إلى بديل عن الحكم السريري أو المسؤولية الطبية.

ولهذا بدأت الأدبيات العلمية والتنظيمية في تحديد حالات محددة يصبح فيها استخدام الذكاء الاصطناعي غير مناسب، أو حتى غير آمن في رعاية المرضى.

• بين الأداة والسلطة: المبدأ الأساسي الذي تتفق عليه الهيئات الصحية الدولية بسيط وواضح: الذكاء الاصطناعي أداة تحليل متقدمة، ولكنه ليس سلطة طبية. فهذه الأنظمة قادرة على معالجة كميات هائلة من البيانات الطبية، واكتشاف أنماط قد يصعب على الإنسان ملاحظتها، ولكنها لا تملك القدرة على تحمل المسؤولية الطبية، أو فهم جميع أبعاد الحالة الإنسانية للمريض.

إن القرار الطبي لا يعتمد فقط على تحليل البيانات أو قراءة الصور الطبية؛ بل يشمل أيضاً الخبرة السريرية للطبيب، وفهم التاريخ الصحي للمريض، والظروف الاجتماعية والنفسية التي قد تؤثر في التشخيص والعلاج. ولهذا تؤكد الإرشادات الدولية في أخلاقيات الذكاء الاصطناعي الطبي، أن دور هذه الأنظمة يجب أن يبقى في إطار دعم القرار الطبي لا استبداله.

وفي هذا السياق، بدأت الهيئات الصحية والتنظيمية في تحديد الحالات التي ينبغي فيها استخدام الذكاء الاصطناعي بحذر، أو حتى تجنب الاعتماد عليه في رعاية المرضى.

التوصيات الدولية

تشير الإرشادات الدولية الحديثة إلى أن استخدام الذكاء الاصطناعي في الرعاية الصحية يجب أن يتم ضمن حدود واضحة، تضمن سلامة المرضى واستقلال القرار الطبي. فقد أكدت منظمة الصحة العالمية في توصياتها حول أخلاقيات الذكاء الاصطناعي في الصحة، الصادرة عام 2021، والمحدَّثة لاحقاً في تقارير الصحة الرقمية، وكذلك الجمعية الطبية الأميركية في إرشاداتها بشأن استخدام الذكاء الاصطناعي في الممارسة الطبية، أن هذه الأنظمة يمكن أن تكون أدوات قوية لدعم التشخيص والعلاج، ولكنها يجب ألا تُستخدم في جميع الحالات ولا أن تحل محل الحكم السريري للطبيب.

ولهذا بدأت الأدبيات الطبية والتنظيمية في تحديد حالات واضحة، يصبح فيها استخدام الذكاء الاصطناعي غير مناسب أو حتى غير آمن في رعاية المرضى. وفي ضوء هذه التوصيات يمكن تلخيص أبرز الحالات التي ينبغي فيها تجنب الاعتماد على الذكاء الاصطناعي في الممارسة الطبية في 10 حالات رئيسية.

• الحالة الأولى- عندما لا يكون النظام مثبَتاً علمياً: القاعدة الأساسية في الطب الحديث هي أن أي تقنية جديدة يجب أن تخضع لتقييم علمي صارم، قبل استخدامها في رعاية المرضى. وينطبق ذلك بصورة خاصة على أنظمة الذكاء الاصطناعي الطبية. فالنماذج التي لم تُختبر في دراسات علمية منشورة في مجلات محكَّمة، أو لم تُقيَّم في تجارب سريرية حقيقية، أو لم تحصل على اعتماد الجهات التنظيمية المختصة، لا ينبغي الاعتماد عليها في اتخاذ قرارات تشخيصية أو علاجية. فسلامة المرضى تتطلب أن تُثبت هذه الأنظمة دقتها وموثوقيتها قبل إدخالها إلى الممارسة الطبية.

• الحالة الثانية- عندما لا تمثل البيانات المرضى الحقيقيين: تعتمد أنظمة الذكاء الاصطناعي في عملها على البيانات التي دُرِّبت عليها. وإذا كانت هذه البيانات لا تمثل الفئات السكانية التي سيُستخدم النظام معها، فقد يؤدي ذلك إلى أخطاء تشخيصية أو تحيزات طبية خطيرة. فالنظام الذي طُوِّر اعتماداً على بيانات مرضى من منطقة أو فئة سكانية معينة، قد لا يعطي النتائج نفسها عند استخدامه مع مرضى من خلفيات جينية أو بيئية مختلفة. ولهذا يؤكد الخبراء ضرورة التأكد من أن بيانات التدريب تعكس تنوع المرضى في الواقع الطبي.

• الحالة الثالثة- عندما يصبح القرار (صندوقاً أسود): إحدى القضايا التي تثير نقاشاً واسعاً في الذكاء الاصطناعي الطبي، هي ما تُعرف بمشكلة «الصندوق الأسود». ففي بعض الأنظمة المتقدمة قد تقدم الخوارزمية نتيجة أو توصية طبية من دون أن يكون من الواضح كيف وصلت إلى هذا الاستنتاج.

وفي الممارسة الطبية، لا يكفي أن يكون القرار صحيحاً من الناحية التقنية؛ بل يجب أن يكون قابلاً للفهم والتفسير. فالأطباء يحتاجون إلى معرفة الأسس التي بُني عليها التقييم الطبي، حتى يتمكنوا من مراجعته ومقارنته بالمعطيات السريرية للمريض. ولهذا تحذِّر كثير من الإرشادات الطبية من الاعتماد على أنظمة ذكاء اصطناعي لا توفر درجة كافية من الشفافية في طريقة عملها، أو تفسير نتائجها.

القرار الطبي يبقى بيد الطبيب، لا بيد الخوارزمية

تعارض مع الحكم السريري

• الحالة الرابعة- عندما يتعارض مع الحكم السريري: قد تقدم أنظمة الذكاء الاصطناعي في بعض الحالات توصية أو تقييماً يختلف عن تقدير الطبيب السريري. وفي مثل هذه الحالات تؤكد الإرشادات الدولية أن القرار الطبي النهائي يجب أن يبقى بيد الطبيب. فالخوارزميات تعتمد على تحليل البيانات والأنماط الإحصائية، بينما يستند الحكم السريري إلى خبرة الطبيب وفهمه الكامل لحالة المريض وسياقها الطبي والإنساني. لذلك عندما يحدث تعارض بين توصية النظام الذكي وتقييم الطبيب، يجب التعامل مع مخرجات الذكاء الاصطناعي بوصفها أداة مساعدة للمراجعة، لا بديلاً عن القرار الطبي المسؤول.

• الحالة الخامسة- عندما يُستخدم النظام خارج نطاقه: تُطوَّر أنظمة الذكاء الاصطناعي في الطب عادة لأداء مهام محددة بدقة، مثل تحليل صور الأشعة أو المساعدة في تشخيص حالة معينة. وعندما يُستخدم النظام خارج المجال الذي صُمم من أجله، فقد يؤدي ذلك إلى نتائج أو توصيات غير دقيقة. ولهذا تؤكد الإرشادات التنظيمية أن استخدام أنظمة الذكاء الاصطناعي يجب أن يقتصر على الغرض الطبي الذي طُوِّرت واختُبرت من أجله؛ لأن تجاوز هذا النطاق قد يعرِّض سلامة القرار الطبي للخطر.

• الحالة السادسة- عندما يصبح النظام قديماً: مثل أي نظام تقني آخر، قد تفقد أنظمة الذكاء الاصطناعي الطبية جزءاً من دقتها مع مرور الوقت. ويحدث ذلك لأن البيانات الطبية والأنماط المرضية تتغير باستمرار، وهو ما يسميه الباحثون أحياناً «تدهور النموذج». ولهذا تؤكد الهيئات الصحية الدولية أن هذه الأنظمة يجب أن تخضع لمراقبة مستمرة وتحديثات دورية، لضمان بقائها دقيقة وآمنة. أما الاعتماد على نظام لم يُحدَّث أو لم تُراجع نتائجه منذ فترة طويلة، فقد يؤدي إلى قرارات طبية أقل دقة مما يُتوقع من التكنولوجيا نفسها.

غياب الشفافية والحوكمة الطبية

• الحالة السابعة- عندما تغيب الشفافية: تعتمد الثقة في أي نظام طبي على وضوح طريقة عمله وحدود استخدامه. فإذا لم تكشف الشركات المطورة عن مصادر البيانات التي دُرِّب عليها النظام، أو عن معدلات الخطأ المحتملة، أو عن الحالات التي قد يفشل فيها، يصبح من الصعب على الأطباء تقييم مدى موثوقية هذه التقنية. ولهذا تؤكد الإرشادات التنظيمية أن الشفافية شرط أساسي لاستخدام الذكاء الاصطناعي في الرعاية الصحية؛ لأن القرار الطبي لا يمكن أن يُبنى على نظام لا يعرف الطبيب حدوده ولا نقاط ضعفه.

• الحالة الثامنة- عندما يرفض المريض استخدامه: يُعد مبدأ الموافقة المستنيرة أحد الأسس الأخلاقية في الطب الحديث. ولذلك من حق المريض أن يعرف ما إذا كانت أنظمة الذكاء الاصطناعي تُستخدم في تشخيص حالته أو دعم قرارات علاجه. كما يحق له أيضاً أن يرفض استخدام هذه التقنيات إذا لم يشعر بالارتياح لها. وفي مثل هذه الحالات يجب احترام قرار المريض؛ لأن العلاقة الطبية تقوم في جوهرها على الثقة والشفافية بين الطبيب والمريض.

• الحالة التاسعة- عندما تغيب الحوكمة الطبية: أي عندما لا يكون هناك نظام واضح للمساءلة ولا لمتابعة أداء النظام الذكي داخل المؤسسة الصحية. فالاستخدام الآمن للذكاء الاصطناعي يتطلب وجود آليات رقابية واضحة تضمن مراجعة نتائجه وتحديد المسؤولية في حال حدوث أخطاء.

• الحالة العاشرة- عندما لا تتوفر حماية كافية للبيانات:

إذا لم يكن النظام يضمن حماية البيانات الطبية وخصوصية المرضى وفق المعايير التنظيمية المعتمدة. فالبيانات الصحية تعد من أكثر المعلومات حساسية، وأي استخدام للذكاء الاصطناعي يجب أن يلتزم بأعلى معايير الأمن الرقمي وحماية الخصوصية.

عندما تصبح الخوارزمية صندوقا أسود

بحوث حديثة... ومعايير الأخلاقيات السعودية

• ماذا تقول البحوث الحديثة؟ : تشير الدراسات العلمية الحديثة إلى أن نجاح استخدام الذكاء الاصطناعي في الطب لا يعتمد فقط على دقة الخوارزميات؛ بل أيضاً على درجة الثقة التي يضعها الأطباء والمرضى في هذه الأنظمة.

ففي دراسة علمية نُشرت في يناير (كانون الثاني) 2025 في مجلة «جورنال أوف ميديكال إنترنت ريسيرتش» (Journal of Medical Internet Research) حول العوامل المؤثرة في الثقة بأنظمة دعم القرار الطبي المعتمدة على الذكاء الاصطناعي، توصل الباحثون إلى أن الأطباء يميلون إلى استخدام هذه الأنظمة عندما تكون نتائجها قابلة للتفسير، وعندما تكون خاضعة لتقييم علمي واضح. كما أظهرت الدراسة أن الثقة بالذكاء الاصطناعي ترتبط بشكل وثيق بوجود إشراف طبي مباشر على القرار النهائي، وهو ما يعزز فكرة أن هذه التقنيات يجب أن تعمل كأدوات دعم للقرار الطبي لا كبديل عن الحكم السريري للطبيب.

المعايير الأخلاقية للذكاء الاصطناعي في السعودية:

في المملكة العربية السعودية، أصدرت «الهيئة السعودية للبيانات والذكاء الاصطناعي» (سدايا) إطاراً وطنياً لأخلاقيات الذكاء الاصطناعي، يُعد من أبرز الأطر التنظيمية في المنطقة لتنظيم استخدام هذه التقنيات في مختلف القطاعات، بما في ذلك الرعاية الصحية. ويرتكز هذا الإطار على مجموعة من المبادئ الأساسية، من بينها: العدالة، والشفافية، والمسؤولية، وحماية الخصوصية، وضمان سلامة الاستخدام.

ويؤكد هذا الإطار التنظيمي أن استخدام الذكاء الاصطناعي في المجال الصحي يجب أن يهدف إلى دعم القرار السريري للطبيب، وتعزيز جودة الرعاية الطبية، لا أن يحل محل الحكم الطبي أو المسؤولية المهنية للطبيب. ويتماشى هذا التوجه مع المعايير الدولية التي تشدد على أن الذكاء الاصطناعي أداة مساعدة لتحليل البيانات الطبية، بينما تبقى المسؤولية النهائية عن القرار العلاجي بيد الطبيب.


كيف ألهمت طفرة جينية نادرة علاجاً جديداً لالتهاب الأمعاء؟

كيف ألهمت طفرة جينية نادرة علاجاً جديداً لالتهاب الأمعاء؟
TT

كيف ألهمت طفرة جينية نادرة علاجاً جديداً لالتهاب الأمعاء؟

كيف ألهمت طفرة جينية نادرة علاجاً جديداً لالتهاب الأمعاء؟

كشفت دراسة علمية حديثة عن مقاربة علاجية واعدة لداء كرون والتهاب القولون التقرّحي، تعتمد على محاكاة تأثير نسخة جينية نادرة واقية تُخفّف الالتهاب المزمن في الأمعاء. ونجح باحثون من معهد برود ومستشفيات ماساتشوستس العامة وكلية الطب بجامعة هارفارد بالتعاون مع شركة جونسون آند جونسون للابتكار الدوائي في تطوير جزيئات دوائية صغيرة تقلّد هذا التأثير الجيني الطبيعي ما قد يفتح الباب أمام علاجات أكثر دقة وفاعلية.

وتأتي نتائج الدراسة التي نُشرت في مجلة «سيل» Cell العلمية في 16 يناير (كانون الثاني) 2026 في ظل عبء صحي كبير تفرضه أمراض التهاب الأمعاء؛ إذ يُعد داء كرون والتهاب القولون التقرّحي الشكلين الرئيسيين لهذا المرض، ويصيبان نحو 3 ملايين شخص في الولايات المتحدة وحدها. وتتسبّب هذه الحالات بالتهاب مزمن في الجهاز الهضمي يؤدي إلى آلام مستمرة وإسهال وإرهاق وتلف طويل الأمد في أنسجة الأمعاء. ورغم التقدّم العلاجي لا يزال كثير من المرضى لا يستجيبون بشكل كافٍ للعلاجات المتاحة؛ ما يجعل البحث عن حلول جديدة أمراً ملحّاً.

نسخة جينية نادرة

• استثناء جيني نادر. منذ أكثر من عقد أدرك العلماء أن خطر الإصابة بأمراض التهاب الأمعاء ليس متساوياً لدى الجميع. ففي عام 2011 كشفت دراسات جينية واسعة أن جيناً يُعرف باسم «كارد 9» CARD9، وله دور في تنظيم الاستجابات المناعية يرتبط بقوة بداء كرون والتهاب القولون التقرّحي. وتحمل معظم نسخ هذا الجين خطراً أعلى للإصابة بالمرض.

لكن عدداً قليلاً من الأشخاص يمتلكون نسخة نادرة من هذا الجين تمنحهم حماية طبيعية؛ فهؤلاء أقل عرضة للإصابة بالمرض؛ لأن جهازهم المناعي لا يدخل في حالة التهاب مزمن تُلحق الضرر بأنسجة الأمعاء.

ويقول الدكتور رامنيك زافييه عضو في معهد برود كور وأستاذ الطب في كلية الطب بجامعة هارفارد ومدير مركز البيولوجيا الحاسوبية والتكاملية وعضو أساسي في قسم البيولوجيا الجزيئية في مستشفى ماساتشوستس العام الباحث الرئيسي في الدراسة، إن الفكرة كانت بسيطة وقوية في آنٍ واحد إذا كانت الطبيعة قد قدّمت لنا نموذجاً آمناً لتقليل الالتهاب فهل يمكننا تقليد هذا التأثير دوائياً؟

• كيف تعمل الحماية الجينية؟ لم يكن تحويل هذه الفكرة إلى علاج أمراً سهلاً؛ فجِين «كارد 9» يساعد الجهاز المناعي على مكافحة العدوى في الأمعاء، ومن ثم فإن تعطيله بالكامل قد يعرّض المرضى لخطر الإصابة بالالتهابات. أما النسخة الجينية الواقية فتعمل بطريقة أدق؛ إذ تسمح ببدء الاستجابة المناعية، لكنها تمنع استمرار الالتهاب لمدة طويلة.

وفي دراسة سابقة نُشرت عام 2015 تمكن فريق زافييه من فهم الآلية التي تعمل بها هذه النسخة الواقية؛ إذ تبيّن أنها تُنتج بروتيناً أقصر يعمل كـ«كابح» للالتهاب. والأهم من ذلك حدّد الباحثون المنطقة الدقيقة من البروتين المسؤولة عن هذا التأثير. وكانت هذه الخطوة ضرورية لأن «كارد 9» يعد «صعباً في العلاج الدوائي». على عكس الإنزيمات فإنه لا يحتوي على جيوب واضحة؛ حيث يمكن للأدوية أن ترتبط بسهولة وهي خطوة حاسمة لتطوير دواء فعّال.

• البحث عن الجزيء المناسب. وقد تعاون الباحثون في هذه الدراسة الجديدة مع علماء من شركة جونسون آند جونسون للبحث عن جزيئات قادرة على الارتباط بالموضع الصحيح من بروتين «كارد 9». وشمل البحث فحص مليارات المركّبات باستخدام تقنيات متقدمة في الكيمياء الحيوية وعلم البنية الجزيئية.

وجاءت اللحظة الفارقة عندما نجح الفريق في الحصول على أول صورة بلورية لبروتين «كارد 9» وهو مرتبط بجزيء صغير؛ ما أكد أن هذا الهدف «قابل للاستهداف دوائياً». وبالاستفادة من هذه المعرفة توصّل الباحثون إلى فئة جديدة من الجزيئات التي تُثبّط الإشارات الالتهابية المرتبطة بـ «كارد 9» انتقائية.

واللافت أن هذه الجزيئات لم تُضعف الجهاز المناعي بشكل عام، بل خفّضت الالتهاب الضار فقط؛ ففي خلايا مناعية بشرية قلّ الالتهاب دون التأثير في مسارات مناعية أخرى، كما أظهرت تجارب على فئران تحمل الجين البشري «كارد 9» انخفاضاً ملحوظاً في التهاب الأمعاء.

من الجينات إلى العلاج

ورغم أن هذه المركّبات لا تزال بحاجة إلى مزيد من التطوير قبل اختبارها على البشر، فإن الدراسة تُعد دليلاً عملياً على مسار متكامل يبدأ من اكتشاف جيني، وينتهي بمرشّحات دوائية واعدة.

ويؤكد الباحثون أن وجود النسخة الواقية من جين «كارد 9» طبيعياً لدى بعض البشر يمنحهم ثقة أكبر بسلامة الأدوية التي تحاكي تأثيرها. ويشبّه زافييه هذا النهج بما حدث مع أدوية خفض الكوليسترول التي استُلهمت من نسخ جينية واقية في جين آخر، وغيّرت علاج أمراض القلب.

ولا تقتصر أهمية هذه النتائج على داء كرون وحده، بل ترسم خريطة طريق جديدة للطب الحديث؛ فمع استمرار الأبحاث الجينية في كشف الجينات التي تزيد أو تقلل خطر الأمراض يمكن تطبيق النهج نفسه لتطوير علاجات لأمراض مناعية والتهابية واستقلابية أخرى.

ويختتم زافييه قائلاً إن الجينات ليست مجرد مؤشرات على الخطر، بل يمكن أن تكون دليلاً مباشراً نحو علاجات جديدة كلياً.

وبالنسبة لمرضى التهاب الأمعاء قد يعني ذلك مستقبلاً علاجات أكثر دقة وفاعلية مستوحاة من حلول طبيعية ابتكرها الجسم نفسه.


نظام روبوتي ذكي مزدوج لتنظيف المسابح

صورة من موقع شركة «آيبر» يظهر فيها عمل النظام الروبوتي المزدوج لتنظيف المسبح من السطح إلى الجدران إلى القاع
صورة من موقع شركة «آيبر» يظهر فيها عمل النظام الروبوتي المزدوج لتنظيف المسبح من السطح إلى الجدران إلى القاع
TT

نظام روبوتي ذكي مزدوج لتنظيف المسابح

صورة من موقع شركة «آيبر» يظهر فيها عمل النظام الروبوتي المزدوج لتنظيف المسبح من السطح إلى الجدران إلى القاع
صورة من موقع شركة «آيبر» يظهر فيها عمل النظام الروبوتي المزدوج لتنظيف المسبح من السطح إلى الجدران إلى القاع

كشفت شركة «آيبر - Aiper»، الرائدة عالمياً في مجال الروبوتات الذكية لتنظيف المسابح وابتكارات الأفنية، عن طراز «آيبر إكسبرتس ديو - Aiper Experts Duo» المزدوج، الذي يشمل المنظف الروبوتي «إيكوسيرفر إس 2 - EcoSurfer S2» و«سكوبا في 3 - Scuba V3»، وذلك خلال عرض توضيحي مبهر أثناء انعقاد معرض الأجهزة الإلكترونية الاستهلاكية في يناير (كانون الثاني) الماضي.

ويعتمد النظام المزدوج على آلية ذكية ثنائية الروبوت، تعمل بشكل ذاتي بالكامل لتنظيف المسبح من السطح إلى القاع بتغطية شاملة تصل إلى 360 درجة.

صورة من موقع شركة «آيبر» يظهر فيها عمل النظام الروبوتي المزدوج لتنظيف المسبح من السطح إلى الجدران إلى القاع بتغطية 360 ْ

نظام تنظيف ذكي

ولتغطية سطح المسبح، صُممت «مقشطة» المسابح الروبوتية اللاسلكية «إيكوسيرفر إس 2» للعمل المستمر على مدار الساعة؛ إذ تعيد شحن نفسها ذاتياً عبر لوح شمسي مدمج في جزئها العلوي. وقد صُنع هيكل المنظف من مواد مقاومة للأشعة فوق البنفسجية ودرجات الحرارة المرتفعة، كما أنها آمنة للاستخدام في المياه المالحة.

شحن البطارية

وفي حالة نفاد البطارية، تكفي 15 دقيقة فقط من الشحن الشمسي ليعود الروبوت إلى العمل مجدداً. كما زودت المكنسة بتقنية «سولار سيكر - SolarSeeker» التي تتيح لها البحث تلقائياً عن ضوء الشمس عند انخفاض طاقة البطارية. وبدلاً من ذلك، يمكن إخراج الروبوت من الماء وتوصيله بشاحن التيار المتردد اليدوي؛ حيث توفر الشحنة الكاملة نحو 35 ساعة من التنظيف المستمر.

مستشعرات بصرية لرصد الشوائب

ويعتمد هذا الروبوت في عمله داخل المياه على زوج من المستشعرات البصرية لتحديد موقع الشوائب المراد إزالتها، مما يضمن عملية تنظيف فعالة وسلسة للمسبح من دون انقطاع. أما في الجزء السفلي، فتوجد أربعة أعمدة قابلة للتعديل تمنع «الجنوح» أو التعلق، مما يتيح للروبوت التكيف مع تغيرات عمق المسبح وتكويناته المختلفة، ويضمن عدم توقفه عند الدرجات أو في المناطق الضحلة.

تطبيق للتحكم

وخلال العرض التوضيحي، قامت المكنسة بمسح سطح الماء من جانب إلى آخر ومن الحافة للحافة، لضمان التقاط أي شوائب تعترض مسارها على خط المياه. وبينما يؤدي الروبوت مهامه، يظل المستخدم في حالة تحكم كامل عبر تطبيق «آيبر»، الذي يتيح تشغيل الجهاز أو إيقافه، وضبط تنبيهات الانسداد، وإجراء أي تعديلات مطلوبة. ومن بين الميزات التي يوفرها التطبيق أيضاً التنبيهات الفورية لمراقبة أداء الروبوت، وجدولة أوقات التشغيل، وتحسين استهلاك الطاقة.

التعقيم بالكلور

يتميز طراز «إيكوسيرفر إس 2» باحتوائه على موزع كلور قابل للتعديل، وهو الأول من نوعه في هذه الصناعة؛ حيث يتسع لقرص كلور واحد بحجم 3 بوصات ويتم ضبطه يدويا على الروبوت نفسه. ويقوم الجهاز بتوزيع الكلور تلقائياً أثناء عملية التنظيف، مما يجعله أداة مثالية للاستخدام اليومي، لاسيما للحفاظ على نسبة الكلور في المياه خلال العطلات القصيرة. كما يتيح النظام ضبط معدل التدفق يدويا لضمان بقاء مستويات «الملح والكلور» في المسبح ضمن النطاق الصحي الآمن.

منظف لاسلكي بالذكاء الاصطناعي

أما المهام الموكلة لتنظيف ما تحت السطح، فيتولاها المنظف الروبوتي اللاسلكي «آيبر سكوبا في 3 - Aiper Scuba V3»؛ المزود بتقنية «نافيوم للذكاء الاصطناعي المعرفي - Cognitive AI Navium»، والتي تضع عملية تنظيف المسبح تحت السيطرة الكاملة من قِبل الروبوت نفسه.

وتُسوق شركة «آيبر» جهاز «سكوبا في 3» بوصفه أول منظف روبوتي أساسي للمسابح في العالم يعمل بالذكاء الاصطناعي المعرفي. وتتضمن التقنيات الداخلية التي تجعل ذلك ممكناً وضع «نافيوم للذكاء الاصطناعي المعرفي»، ونمط التنظيف «إيه آي باترول - AI Patrol»، ونظام «فيجين باث - VisionPath» للتنظيف التكيفي. وكل ما تعنيه هذه المصطلحات التقنية بالنسبة للمستخدم هو الحصول على مسبح شديد النقاء.

رصد أكثر من 20 نوعاً من الشوائب

كما أن استخدام مكنسة المسبح العميقة هذه أمر في غاية السهولة؛ إذ يوجد في جزئها السفلي زوج من الفُرش مع قوة شفط تصل إلى 4800 غالون في الساعة، وبضغطة زر واحدة، يتم تنشيط النظام لتنظيف المسبح بالكامل. وتقوم تقنية «إيه آي باترول» للتنظيف الآلي برصد أكثر من 20 نوعا من الشوائب وجرفها إلى سلة المُرشح الخاصة. ويشمل ذلك الشوائب الثقيلة مثل أوراق الشجر، والعوالق المجهرية الدقيقة مثل الرمال والجسيمات متناهية الصغر.

منع تسرب الشوائب

وبالعودة إلى جهاز «إيكوسيرفر إس 2» فانه بتصميم حاجز «ديبري غارد - DebrisGuard» المانع للتسرب، والذي يحول دون عودة الشوائب مرة أخرى إلى المسبح. أما جهاز «سكوبا في 3»، فقد زُوِّد بمرشح شوائب بدقة 180 ميكرون، مع طبقة فائقة الدقة بقُطر 3 ميكرونات لالتقاط الرمال والطحالب والجسيمات المجهرية.

صيانة دائمة

وبفضل وضع «نافيوم للذكاء الاصطناعي المعرفي»، يرسم جهاز «سكوبا في 3» خطة للتنظيف بناء على حجم المسبح وحالة الطقس وسجل التنظيف السابق؛ مما يُحسن استهلاك الطاقة والتوقيت لضمان صيانة ذاتية بالكامل. كما يمتلك الروبوت مصابيح «LED» مزدوجة تعزز نظام الرؤية الذكي للعمل بكفاءة حتى في أحلك الظروف. وتستخدم تقنية «فيجين باث» الرؤية الاصطناعية لتخطيط مسارات تنظيف تتفادى العوائق، بما في ذلك مصارف المسبح وأجهزة التنظيف الثابتة.

ولتنظيف خطوط المياه في السابح، زُود هذا الروبوت بتقنية «جيت أسيست - JetAssist» للتنظيف الأفقي، والتي تقوم بفرك خط المياه لتخليصه من الرواسب. وإذا كنت من أصحاب المسابح، فتعرف يقيناً أن هذه المهمة هي واحدة من أكثر مهام التنظيف إرهاقاً، والآن يمكنك ترك «سكوبا في 3» ليتولاها نيابة عنك.

وعند انتهاء عملية التنظيف، وبفضل نظام الاسترداد السهل، يرسو المنظف الذي يزن 18 رطلاً (نحو 8 كيلوغرامات) عند خط المياه بحيث يمكنك رفعه ووضعه في قاعدة الشحن الخاصة به، ليكون مستعداً لعملية التنظيف التالية. ويتم تخزين المخلفات في سلال مدمجة سهلة الفتح في كلا الجهازين.

الأسعار

بالنسبة للتكلفة، فيُطرح نظام «آيبر إكسبرتس ديو - Aiper Experts Duo» بسعر 1299.99 دولار؛ وعند الشراء بشكل منفرد، يبلغ سعر «سكوبا في 3» نحو 999.99 دولار، بينما يبلغ سعر «إيكوسيرفر إس 2» حوالي 369.99 دولار.

الموقع: (https://aiper.store/us/products/aiper-experts-duo)

* خدمات «تريبيون ميديا».