متى يجب على الطبيب ألا يعتمد على الذكاء الاصطناعي؟

إرشادات عالمية حول حالات تجنب الاستناد إليه في الممارسة الطبية

تحيز البيانات خطر خفي في الذكاء الاصطناعي الطبي
تحيز البيانات خطر خفي في الذكاء الاصطناعي الطبي
TT

متى يجب على الطبيب ألا يعتمد على الذكاء الاصطناعي؟

تحيز البيانات خطر خفي في الذكاء الاصطناعي الطبي
تحيز البيانات خطر خفي في الذكاء الاصطناعي الطبي

تحوَّل الذكاء الاصطناعي خلال العقد الأخير، من أداة بحثية في مختبرات التكنولوجيا إلى عنصر متزايد الحضور في غرف التشخيص والعيادات الطبية حول العالم. فأنظمة التعلم العميق أصبحت قادرة على تحليل صور الأشعة بدقة عالية، واكتشاف الأورام في مراحل مبكرة، والتنبؤ ببعض الأمراض قبل ظهور أعراضها؛ بل وحتى اقتراح مسارات علاجية محتملة، اعتماداً على تحليل كميات هائلة من البيانات الطبية.

حدود الذكاء الاصطناعي

• حدود واضحة لتوظيف الذكاء الاصطناعي. غير أن هذا التقدم السريع يطرح سؤالاً بالغ الأهمية في الممارسة الطبية المعاصرة: متى يجب على الطبيب ألا يعتمد على الذكاء الاصطناعي؟

فمع توسع استخدام هذه التقنيات بدأت المؤسسات الصحية الدولية في وضع حدود واضحة لاستخدامها. وقد أصدرت جهات تنظيمية كبرى مثل منظمة الصحة العالمية وهيئات تنظيم الدواء في الولايات المتحدة وأوروبا وبريطانيا، إرشادات تؤكد أن الذكاء الاصطناعي يمكن أن يكون أداة قوية لدعم الرعاية الصحية، ولكنه لا ينبغي أن يتحول إلى بديل عن الحكم السريري أو المسؤولية الطبية.

ولهذا بدأت الأدبيات العلمية والتنظيمية في تحديد حالات محددة يصبح فيها استخدام الذكاء الاصطناعي غير مناسب، أو حتى غير آمن في رعاية المرضى.

• بين الأداة والسلطة: المبدأ الأساسي الذي تتفق عليه الهيئات الصحية الدولية بسيط وواضح: الذكاء الاصطناعي أداة تحليل متقدمة، ولكنه ليس سلطة طبية. فهذه الأنظمة قادرة على معالجة كميات هائلة من البيانات الطبية، واكتشاف أنماط قد يصعب على الإنسان ملاحظتها، ولكنها لا تملك القدرة على تحمل المسؤولية الطبية، أو فهم جميع أبعاد الحالة الإنسانية للمريض.

إن القرار الطبي لا يعتمد فقط على تحليل البيانات أو قراءة الصور الطبية؛ بل يشمل أيضاً الخبرة السريرية للطبيب، وفهم التاريخ الصحي للمريض، والظروف الاجتماعية والنفسية التي قد تؤثر في التشخيص والعلاج. ولهذا تؤكد الإرشادات الدولية في أخلاقيات الذكاء الاصطناعي الطبي، أن دور هذه الأنظمة يجب أن يبقى في إطار دعم القرار الطبي لا استبداله.

وفي هذا السياق، بدأت الهيئات الصحية والتنظيمية في تحديد الحالات التي ينبغي فيها استخدام الذكاء الاصطناعي بحذر، أو حتى تجنب الاعتماد عليه في رعاية المرضى.

التوصيات الدولية

تشير الإرشادات الدولية الحديثة إلى أن استخدام الذكاء الاصطناعي في الرعاية الصحية يجب أن يتم ضمن حدود واضحة، تضمن سلامة المرضى واستقلال القرار الطبي. فقد أكدت منظمة الصحة العالمية في توصياتها حول أخلاقيات الذكاء الاصطناعي في الصحة، الصادرة عام 2021، والمحدَّثة لاحقاً في تقارير الصحة الرقمية، وكذلك الجمعية الطبية الأميركية في إرشاداتها بشأن استخدام الذكاء الاصطناعي في الممارسة الطبية، أن هذه الأنظمة يمكن أن تكون أدوات قوية لدعم التشخيص والعلاج، ولكنها يجب ألا تُستخدم في جميع الحالات ولا أن تحل محل الحكم السريري للطبيب.

ولهذا بدأت الأدبيات الطبية والتنظيمية في تحديد حالات واضحة، يصبح فيها استخدام الذكاء الاصطناعي غير مناسب أو حتى غير آمن في رعاية المرضى. وفي ضوء هذه التوصيات يمكن تلخيص أبرز الحالات التي ينبغي فيها تجنب الاعتماد على الذكاء الاصطناعي في الممارسة الطبية في 10 حالات رئيسية.

• الحالة الأولى- عندما لا يكون النظام مثبَتاً علمياً: القاعدة الأساسية في الطب الحديث هي أن أي تقنية جديدة يجب أن تخضع لتقييم علمي صارم، قبل استخدامها في رعاية المرضى. وينطبق ذلك بصورة خاصة على أنظمة الذكاء الاصطناعي الطبية. فالنماذج التي لم تُختبر في دراسات علمية منشورة في مجلات محكَّمة، أو لم تُقيَّم في تجارب سريرية حقيقية، أو لم تحصل على اعتماد الجهات التنظيمية المختصة، لا ينبغي الاعتماد عليها في اتخاذ قرارات تشخيصية أو علاجية. فسلامة المرضى تتطلب أن تُثبت هذه الأنظمة دقتها وموثوقيتها قبل إدخالها إلى الممارسة الطبية.

• الحالة الثانية- عندما لا تمثل البيانات المرضى الحقيقيين: تعتمد أنظمة الذكاء الاصطناعي في عملها على البيانات التي دُرِّبت عليها. وإذا كانت هذه البيانات لا تمثل الفئات السكانية التي سيُستخدم النظام معها، فقد يؤدي ذلك إلى أخطاء تشخيصية أو تحيزات طبية خطيرة. فالنظام الذي طُوِّر اعتماداً على بيانات مرضى من منطقة أو فئة سكانية معينة، قد لا يعطي النتائج نفسها عند استخدامه مع مرضى من خلفيات جينية أو بيئية مختلفة. ولهذا يؤكد الخبراء ضرورة التأكد من أن بيانات التدريب تعكس تنوع المرضى في الواقع الطبي.

• الحالة الثالثة- عندما يصبح القرار (صندوقاً أسود): إحدى القضايا التي تثير نقاشاً واسعاً في الذكاء الاصطناعي الطبي، هي ما تُعرف بمشكلة «الصندوق الأسود». ففي بعض الأنظمة المتقدمة قد تقدم الخوارزمية نتيجة أو توصية طبية من دون أن يكون من الواضح كيف وصلت إلى هذا الاستنتاج.

وفي الممارسة الطبية، لا يكفي أن يكون القرار صحيحاً من الناحية التقنية؛ بل يجب أن يكون قابلاً للفهم والتفسير. فالأطباء يحتاجون إلى معرفة الأسس التي بُني عليها التقييم الطبي، حتى يتمكنوا من مراجعته ومقارنته بالمعطيات السريرية للمريض. ولهذا تحذِّر كثير من الإرشادات الطبية من الاعتماد على أنظمة ذكاء اصطناعي لا توفر درجة كافية من الشفافية في طريقة عملها، أو تفسير نتائجها.

القرار الطبي يبقى بيد الطبيب، لا بيد الخوارزمية

تعارض مع الحكم السريري

• الحالة الرابعة- عندما يتعارض مع الحكم السريري: قد تقدم أنظمة الذكاء الاصطناعي في بعض الحالات توصية أو تقييماً يختلف عن تقدير الطبيب السريري. وفي مثل هذه الحالات تؤكد الإرشادات الدولية أن القرار الطبي النهائي يجب أن يبقى بيد الطبيب. فالخوارزميات تعتمد على تحليل البيانات والأنماط الإحصائية، بينما يستند الحكم السريري إلى خبرة الطبيب وفهمه الكامل لحالة المريض وسياقها الطبي والإنساني. لذلك عندما يحدث تعارض بين توصية النظام الذكي وتقييم الطبيب، يجب التعامل مع مخرجات الذكاء الاصطناعي بوصفها أداة مساعدة للمراجعة، لا بديلاً عن القرار الطبي المسؤول.

• الحالة الخامسة- عندما يُستخدم النظام خارج نطاقه: تُطوَّر أنظمة الذكاء الاصطناعي في الطب عادة لأداء مهام محددة بدقة، مثل تحليل صور الأشعة أو المساعدة في تشخيص حالة معينة. وعندما يُستخدم النظام خارج المجال الذي صُمم من أجله، فقد يؤدي ذلك إلى نتائج أو توصيات غير دقيقة. ولهذا تؤكد الإرشادات التنظيمية أن استخدام أنظمة الذكاء الاصطناعي يجب أن يقتصر على الغرض الطبي الذي طُوِّرت واختُبرت من أجله؛ لأن تجاوز هذا النطاق قد يعرِّض سلامة القرار الطبي للخطر.

• الحالة السادسة- عندما يصبح النظام قديماً: مثل أي نظام تقني آخر، قد تفقد أنظمة الذكاء الاصطناعي الطبية جزءاً من دقتها مع مرور الوقت. ويحدث ذلك لأن البيانات الطبية والأنماط المرضية تتغير باستمرار، وهو ما يسميه الباحثون أحياناً «تدهور النموذج». ولهذا تؤكد الهيئات الصحية الدولية أن هذه الأنظمة يجب أن تخضع لمراقبة مستمرة وتحديثات دورية، لضمان بقائها دقيقة وآمنة. أما الاعتماد على نظام لم يُحدَّث أو لم تُراجع نتائجه منذ فترة طويلة، فقد يؤدي إلى قرارات طبية أقل دقة مما يُتوقع من التكنولوجيا نفسها.

غياب الشفافية والحوكمة الطبية

• الحالة السابعة- عندما تغيب الشفافية: تعتمد الثقة في أي نظام طبي على وضوح طريقة عمله وحدود استخدامه. فإذا لم تكشف الشركات المطورة عن مصادر البيانات التي دُرِّب عليها النظام، أو عن معدلات الخطأ المحتملة، أو عن الحالات التي قد يفشل فيها، يصبح من الصعب على الأطباء تقييم مدى موثوقية هذه التقنية. ولهذا تؤكد الإرشادات التنظيمية أن الشفافية شرط أساسي لاستخدام الذكاء الاصطناعي في الرعاية الصحية؛ لأن القرار الطبي لا يمكن أن يُبنى على نظام لا يعرف الطبيب حدوده ولا نقاط ضعفه.

• الحالة الثامنة- عندما يرفض المريض استخدامه: يُعد مبدأ الموافقة المستنيرة أحد الأسس الأخلاقية في الطب الحديث. ولذلك من حق المريض أن يعرف ما إذا كانت أنظمة الذكاء الاصطناعي تُستخدم في تشخيص حالته أو دعم قرارات علاجه. كما يحق له أيضاً أن يرفض استخدام هذه التقنيات إذا لم يشعر بالارتياح لها. وفي مثل هذه الحالات يجب احترام قرار المريض؛ لأن العلاقة الطبية تقوم في جوهرها على الثقة والشفافية بين الطبيب والمريض.

• الحالة التاسعة- عندما تغيب الحوكمة الطبية: أي عندما لا يكون هناك نظام واضح للمساءلة ولا لمتابعة أداء النظام الذكي داخل المؤسسة الصحية. فالاستخدام الآمن للذكاء الاصطناعي يتطلب وجود آليات رقابية واضحة تضمن مراجعة نتائجه وتحديد المسؤولية في حال حدوث أخطاء.

• الحالة العاشرة- عندما لا تتوفر حماية كافية للبيانات:

إذا لم يكن النظام يضمن حماية البيانات الطبية وخصوصية المرضى وفق المعايير التنظيمية المعتمدة. فالبيانات الصحية تعد من أكثر المعلومات حساسية، وأي استخدام للذكاء الاصطناعي يجب أن يلتزم بأعلى معايير الأمن الرقمي وحماية الخصوصية.

عندما تصبح الخوارزمية صندوقا أسود

بحوث حديثة... ومعايير الأخلاقيات السعودية

• ماذا تقول البحوث الحديثة؟ : تشير الدراسات العلمية الحديثة إلى أن نجاح استخدام الذكاء الاصطناعي في الطب لا يعتمد فقط على دقة الخوارزميات؛ بل أيضاً على درجة الثقة التي يضعها الأطباء والمرضى في هذه الأنظمة.

ففي دراسة علمية نُشرت في يناير (كانون الثاني) 2025 في مجلة «جورنال أوف ميديكال إنترنت ريسيرتش» (Journal of Medical Internet Research) حول العوامل المؤثرة في الثقة بأنظمة دعم القرار الطبي المعتمدة على الذكاء الاصطناعي، توصل الباحثون إلى أن الأطباء يميلون إلى استخدام هذه الأنظمة عندما تكون نتائجها قابلة للتفسير، وعندما تكون خاضعة لتقييم علمي واضح. كما أظهرت الدراسة أن الثقة بالذكاء الاصطناعي ترتبط بشكل وثيق بوجود إشراف طبي مباشر على القرار النهائي، وهو ما يعزز فكرة أن هذه التقنيات يجب أن تعمل كأدوات دعم للقرار الطبي لا كبديل عن الحكم السريري للطبيب.

المعايير الأخلاقية للذكاء الاصطناعي في السعودية:

في المملكة العربية السعودية، أصدرت «الهيئة السعودية للبيانات والذكاء الاصطناعي» (سدايا) إطاراً وطنياً لأخلاقيات الذكاء الاصطناعي، يُعد من أبرز الأطر التنظيمية في المنطقة لتنظيم استخدام هذه التقنيات في مختلف القطاعات، بما في ذلك الرعاية الصحية. ويرتكز هذا الإطار على مجموعة من المبادئ الأساسية، من بينها: العدالة، والشفافية، والمسؤولية، وحماية الخصوصية، وضمان سلامة الاستخدام.

ويؤكد هذا الإطار التنظيمي أن استخدام الذكاء الاصطناعي في المجال الصحي يجب أن يهدف إلى دعم القرار السريري للطبيب، وتعزيز جودة الرعاية الطبية، لا أن يحل محل الحكم الطبي أو المسؤولية المهنية للطبيب. ويتماشى هذا التوجه مع المعايير الدولية التي تشدد على أن الذكاء الاصطناعي أداة مساعدة لتحليل البيانات الطبية، بينما تبقى المسؤولية النهائية عن القرار العلاجي بيد الطبيب.


مقالات ذات صلة

ديون العلاج... شبح يطارد المرضى الليبيين في مصر وتونس

شمال افريقيا ليبيون أمام إحدى المصحات التونسية خلال وقفة احتجاجية هذا الأسبوع (لقطة من تسجيل مصور)

ديون العلاج... شبح يطارد المرضى الليبيين في مصر وتونس

لم تتوقف استغاثات المرضى الليبيين العالقين في رحلات العلاج بالخارج، خصوصاً بمصر، وتونس، والتي تحولت إلى وقفات احتجاجية متكررة لأجساد أنهكها المرض.

علاء حموده (القاهرة)
أوروبا  وزيرة الصحة الفرنسية ستيفاني ريست (أ.ب) p-circle

فرنسا: تحور سلالة فيروس «هانتا» على السفينة الموبوءة غير مؤكد

كشفت وزيرة الصحة الفرنسية ستيفاني ريست أنه ليس من ​المؤكد ما إذا كانت سلالة فيروس «هانتا» المرتبطة بتفشي المرض على متن سفينة الرحلات البحرية «هونديوس» تحورت.

«الشرق الأوسط» (باريس)
علوم رسم كاريكاتيري يظهر تفاعلا بين تلميذ وروبوت دردشة يعمل بالذكاء الاصطناعي _جامعة ديوك_

مخاطر نفسية وإدراكية للاعتماد المفرط على روبوتات الدردشة

يشهد استخدام روبوتات الدردشة المعتمدة على الذكاء الاصطناعي انتشاراً متسارعاً بين مختلف الفئات العمرية، ولا سيما المراهقون والشباب،

محمد السيد علي (القاهرة)
علوم شكل تصويري لخلايا الدم البيضاء تهاجم ورما سرطانيا

اختراقان علميان يرسمان ملامح جديدة لعلاج السرطان

في تطورين علميين متزامنين يبدو أن الطب يقترب من تحول جذري في مواجهة أخطر تحديات علاج السرطان ممثلة في الأورام الصلبة التي لطالما قاومت أبرز العلاجات المناعية ال

د. وفا جاسم الرجب (لندن)
علوم من العرق إلى الخوارزمية: رحلة الجسد من البساطة إلى التعقيد

حين يتحدّث العَرق... جسدك يكشف عن مرضك قبل أن تشعر به

لوقتٍ طويل، لم يكن التعرّق أكثر من استجابة طبيعية للحرارة أو الجهد... قطرات تظهر على الجلد ثم تختفي، دون أن نمنحها اهتماماً يُذكر.

د. عميد خالد عبد الحميد (الرياض)

القادة يثقون بأدوات الذكاء الاصطناعي أكثر من ثقتهم بالبشر

القادة يثقون بأدوات الذكاء الاصطناعي أكثر من ثقتهم بالبشر
TT

القادة يثقون بأدوات الذكاء الاصطناعي أكثر من ثقتهم بالبشر

القادة يثقون بأدوات الذكاء الاصطناعي أكثر من ثقتهم بالبشر

أصبح الذكاء الاصطناعي جزءاً لا يتجزأ من العمليات الحديثة... من تطوير المنتجات إلى تخطيط القوى العاملة. إذ إن وعوده جذابة، فهو سيُؤتمت عمل المؤسسات ويُحسّنه على جميع المستويات لدفع عملية صنع القرار القائمة على البيانات، وزيادة الإنتاجية، وتحسين تجارب العملاء... ولكن ثمة مخاطر كامنة وراء هذه المكاسب، كما كتبت لويز ك. ألين(*).

اتخاذ القرار بالنيابة

إن استخدام أدوات الذكاء الاصطناعي لاتخاذ قرارات أفضل- أمر، غير أن الاعتماد عليه لاتخاذ القرارات نيابةً عنك- أمر آخر.

وقد اتضح أن العديد من المديرين التنفيذيين يميلون إلى الخيار الثاني، حيث وجدت شركة SAP أن 74 في المائة من المديرين التنفيذيين الذين شملهم الاستطلاع قالوا إنهم يثقون في مخرجات الذكاء الاصطناعي أكثر من النصائح البشرية. بالإضافة إلى ذلك، فإن ما يقرب من نصفهم سيسمحون للذكاء الاصطناعي بتجاوز قرارهم الشخصي كانوا قد اتخذوه بالفعل.

وقد يُعرّض هذا التوجه نحو الثقة بالأدوات الذكية، القادة لمساءلة في المستقبل، ما يُقوّض مصداقيتهم ومهاراتهم في سعيهم لتحقيق الكفاءة.

تأثير الذكاء الاصطناعي على العقل

إن هذا النمط مألوف. إذ غالباً ما تندفع الشركات نحو أطر عمل وأدوات وعمليات جديدة، متوقعةً أن مجرد تبنيها كافٍ لتحقيق النتائج، دون مراعاة التداعيات الأوسع.

ولقد حدث هذا من قبل. ففي العديد من عمليات نقل البيانات إلى الحوسبة السحابية المبكرة، على سبيل المثال، تم تحديث الأنظمة، لكن العمليات ظلت على حالها.

ويسلك الذكاء الاصطناعي مساراً مشابهاً، سواء في الاستخدام الشخصي أو التجاري. إذ يُسوَّق له على أنه طريق مختصر لاتخاذ قرارات مثلى. وقد تقبّل الجمهور، بشكل عام، هذا الطرح دون تمحيص.

القرارات لا تُتخذ بمعزل عن السياق

تكمن المشكلة في أن القرارات لا تُتخذ بمعزل عن السياق. فهي تتطلب سياقاً وحكماً وتحليلاً. عندما يعتاد الناس على الاعتماد على مخرجات الذكاء الاصطناعي، تتضاءل مهارات الفهم والاستدلال مع ازدياد اعتمادهم على الأدوات في إنجاز العمل.

تشير الأبحاث بالفعل إلى مخاطر هذه الديناميكية. وقد أظهرت دراسة أجراها مختبر الإعلام في معهد ماساتشوستس للتكنولوجيا أن اعتماد الأفراد بشكل كبير على أدوات الذكاء الاصطناعي لإنجاز المهام التي تتطلب تفكيراً مكثفاً، أدى إلى انخفاض مستوى مشاركتهم الإدراكية. وكانت هذه الآثار بالغة الأهمية لدرجة أن المشاركين أظهروا ضعفاً في قدرتهم على تذكر محتوى أعمالهم.

السرعة أم الحكمة؟

والأمر الأكثر إثارة للقلق هو أن هذه الآثار لم تختفِ عند إزالة الأدوات، بل استمرت. وهذا يشير إلى أن الإفراط في الاعتماد على أدوات الذكاء الاصطناعي قد يؤثر على النتائج في لحظتها، ويُضعف المهارات المكتسبة بمرور الوقت.

في المناصب القيادية العليا، قد تكون تداعيات هذا التشويش المنهجي على سير العمل وخيمة. فمهمة القادة هي تحديد التوجه رغم الغموض، وتوحيد جهود الأفراد حول هذا الهدف المشترك.

باختصار، فإن القرارات التي يتخذها القائد يجب أن تكون أقل أهمية من جوانب التعاطف والسلطة والمصداقية التي تُبنى عليها هذه القرارات.

إن كل قرار يُعهد به إلى جهة خارجية يُعد فرصة ضائعة لصقل مهارات التفكير والتواصل.

* قيم المؤسسة وثقافتها وأهدافها طويلة الأجل هي وظائف بشرية في جوهرها*

إعادة صياغة دور الذكاء الاصطناعي

يُخاطر القادة الذين يُطلقون العنان لأدوات الذكاء الاصطناعي بشكل كامل بتقويض نجاحهم. تُتيح هذه الأدوات توسيع نطاق المدخلات التي يأخذها القادة في الاعتبار، وتحدي الافتراضات، وتسريع التحليل. مع ذلك، فإنَّ الموازنة بين الأولويات المتنافسة وإدارة التنفيذ بطرق تُجسّد قيم المؤسسة وثقافتها وأهدافها طويلة الأجل هي وظائف بشرية في جوهرها. وكلما زاد غموض هذا الخط الفاصل بين العمل والتنفيذ، زادت المخاطر التي تواجهها المؤسسات.

الانضباط عند اتخاذ القرار

ستكون المؤسسات الأكثر استفادة من الذكاء الاصطناعي هي تلك التي تتسم بالانضباط في اتخاذ قراراتها. وهذا يتطلب تركيزاً مُتجدداً على أساسيات القيادة: وضوح النية والقدرة على تطبيق الحكم السليم في المواقف التي تكون فيها البيانات غير مكتملة أو غامضة. قد يبدو هذا التمييز فلسفياً، ولكنه في الواقع عملي وواقعي.

الحفاظ على الطابع الإنساني للقرارات

إنّ أولئك الذين يُفكرون ملياً في كيفية استخدام الذكاء الاصطناعي ومتى، وما يجب على القادة الاستمرار في تحمّل مسؤولياته، سيحققون نتائج أفضل من أولئك الذين يُركّزون كلياً على الكفاءة.

ذكاء «محايد ومتفاعل وخصم»

هذا يعني التخلي عن فكرة اعتبار الذكاء الاصطناعي صانع قرار أو مالك مشروع، والنظر إليه بدلاً من ذلك على النحو التالي:

1. طرف ثالث محايد: تستطيع أدوات الذكاء الاصطناعي معالجة البيانات وتلخيصها بسرعة، ما يساعد على إبراز الأنماط الموضوعية، ولكن على القادة تفسير الأرقام في ضوء تاريخ المؤسسة وثقافتها وخصوصياتها.

2. منصة تفاعلية لتبادل الآراء: استخدم الذكاء الاصطناعي لمناقشة الخيارات، وجمع المعلومات حول سيناريوهات مماثلة، وتطوير أساليب تفكير جديدة، مع الاحتفاظ بمسؤولية الحكم والتوجيه النهائي والتواصل.

3. خصمٌ شرس: دع الذكاء الاصطناعي يلعب دور المُعارض. اطلب منه أن يُشكك في أفكارك، وأن يختبر خططك بدقة، وأن يُحلل ثغرات تفكيرك من منظور مختلف أصحاب المصلحة، وذلك لفهم كيفية استقبال الآخرين لرؤيتك الاستراتيجية.

يُساعد هذا التغيير في التفكير على ترسيخ وتوضيح دور الذكاء الاصطناعي في سير العمل التنفيذي، وجعله عاملاً مُساعداً لا مُتحكماً في الخطوات اللاحقة. ففي نهاية المطاف، القيادة تعني تحمُّل مسؤولية التوجيه والأفراد والنتائج.

يُمكن للذكاء الاصطناعي دعم هذا العمل، لكنه لا يستطيع القيام به. سيجد المديرون التنفيذيون الذين يسمحون للذكاء الاصطناعي باتخاذ القرارات بدلاً من تقديم المعلومات، أنفسهم، حتماً تقريباً، يُعيدون صياغة رؤاهم وفقاً لصورة التكنولوجيا، مُتجاهلين حدودها. وهذا يُشكل خطراً، استراتيجياً وشخصياً.

* «إنك»، خدمات «تريبيون ميديا».


حضور الذكاء الاصطناعي في الاجتماعات... قنبلة موقوتة

حضور الذكاء الاصطناعي في الاجتماعات... قنبلة موقوتة
TT

حضور الذكاء الاصطناعي في الاجتماعات... قنبلة موقوتة

حضور الذكاء الاصطناعي في الاجتماعات... قنبلة موقوتة

يقوم جيفري جيفورد، وهو محامٍ في سان أنطونيو، متخصص في حوكمة الشركات والأوراق المالية وعمليات الاندماج والاستحواذ في مكتب دايكيما للمحاماة بدور حارس أمن... قبل بدء الاجتماعات الافتراضية! كما كتبت سارة كيسل(*).

ويقول لموقع «ديل بوك»: «قبل بدء الاجتماع، عندما أرى برنامج تدوين الملاحظات الذكي يظهر، أقول (للمشاركين): (مرحباً مايك، جيم، باربرا، لقد رأيت برنامج تدوين الملاحظات الذكي. سأقوم بإيقافه وإخراجه من الاجتماع)».

إن هذا الأمر يتكرر حالياً بشكل متزايد. ويضيف يفورد: «الجميع يستخدم هذه البرامج، من المديرين التنفيذيين إلى أعضاء مجالس الإدارة ورجال الأعمال غير التنفيذيين».

رواج «الإنتاجية المدعومة بالذكاء الاصطناعي»

يُطلق على عملية تخطّي الاجتماعات وعدم المشاركة فيها، وإرسال مُدوّن ملاحظات يعمل بالذكاء الاصطناعي اسم «أحدث صيحة في عالم الأعمال». وقد أصبحت أجهزة التسجيل صغيرة الحجم التي تستخدم الذكاء الاصطناعي لتسجيل التفاعلات المباشرة من فئة المنتجات الرائجة. بل إنّ أحد الرؤساء التنفيذيين على الأقل أيّد فكرة إضافة عضو مجلس إدارة يعمل بالذكاء الاصطناعي (ربما كان مُبرمجاً ليتصرف مثل وارن بافيت - رجل الاعمال الشهير).

ذكاء اصطناعي في الاجتماعات- قنبلة موقوتة

لكن بالنسبة لمحامين مثل جيفورد، فإنّ دعوة روبوت ذكاء اصطناعي إلى الاجتماعات تُشكّل قنبلة موقوتة من المخاطر القانونية.

تعليقات عفوية... ودعاوى قضائية

النصوص المُولّدة بالذكاء الاصطناعي، التي تُتيح بعض تطبيقات مكالمات الفيديو للمستخدمين تفعيلها افتراضياً، تحفظ أنواعاً مختلفة من المعلومات - كالتعليقات العفوية، والتصريحات المُصحّحة بسرعة، والنكات - التي نادراً ما يُدوّنها البشر في محاضر الاجتماعات. وتظهر هذه النصوص في اجتماعات ما كانت لتُسجّل لولا ذلك.

وفي الدعاوى القضائية أو التحقيقات، قد يُصبح كل ما يُقال قابلاً للكشف.

بل الأسوأ من ذلك، كما يقول محامو الشركات إنّ «مشاركة الاجتماع مع روبوت ذكاء اصطناعي قد تُبطِل سرية العلاقة بين المحامي وموكله؛ ما يجعل المحادثات التي ما كانت لتخضع للكشف في الظروف العادية، متاحةً للطعن في الدعوى القضائية».

تحذيرات حقوقية من حضور الروبوت في الاجتماع

أصدرت نقابة المحامين في مدينة نيويورك، العام الماضي، رأياً رسمياً بشأن برامج تدوين الملاحظات المدعومة بالذكاء الاصطناعي، وحثت المحامين على «النظر فيما إذا كان تسجيل المحاضر وتفريغها وتلخيصها إجراءً تكتيكياً مناسباً في الظروف الخاصة بكل حالة»، ونصحوا الزبائن الذين يستخدمون هذه الأدوات (بالتمعّن) «بمساوئ القيام بذلك».

ومن بين المخاوف دقة هذه البرامج؛ فعلى سبيل المثال، قد يسجل برنامج تدوين الملاحظات المدعوم بالذكاء الاصطناعي عبارة «مهم» على أنها «غير مهم». وإذا ما طُرحت هذه الجملة في المحكمة بعد سنوات، فقد يصعب تذكُّر الخطأ.

كما يشعر محامو الشركات بالقلق إزاء افتقار برامج تدوين الملاحظات المدعومة بالذكاء الاصطناعي إلى فهم السياق والتقدير. فعلى سبيل المثال، قد يكون تسجيل كل كلمة في اجتماع مجلس الإدارة، مهما كانت الملاحظة هامشية، أمراً محفوفاً بالمخاطر القانونية.

مشكلات «امتياز السرية القانونية»

يتوقع المسؤولون التنفيذيون ومجالس الإدارة عموماً أن تتمتع المحادثات مع فريقهم القانوني بشأن المسائل القانونية، بامتياز السرية بين المحامي والموكل. ويفقدون هذه الحماية إذا شاركوا المعلومات نفسها مع جهات خارجية، ومن المحتمل أن يكون لبرامج تدوين الملاحظات المدعومة بالذكاء الاصطناعي التأثير نفسه.

ويُزعم أن الشركات التي تُصنّع هذه الأدوات قد تتمكن من الوصول إلى نصوص المحادثات والبيانات المتعلقة بها.

اجتهادات القضاة

وبينما لم تتناول المحاكم هذه المسألة بشكل مباشر، فقد نظرت في مسائل مماثلة. ففي فبراير (شباط) الماضي، وعندما طلب المدعى عليه استشارة قانونية منه، قضى القاضي جيد س. راكوف، من المحكمة الجزئية الأميركية للمنطقة الجنوبية من نيويورك، بأن نصوص المحادثات التي تم إنشاؤها باستخدام تطبيق «كلود» للذكاء الاصطناعي لا تتمتع بامتياز السرية بين المحامي والموكل.

وكتب القاضي أنه لا يحق للمدعى عليه توقع أي خصوصية عند استخدام نموذج مُدرّب على مدخلات المستخدم، الذي يتضمن إخلاء مسؤولية صريحاً في سياسة الخصوصية الخاصة به بشأن قدرته على مشاركة المعلومات مع جهات خارجية (بما في ذلك «السلطات التنظيمية الحكومية«).

من جهة أخرى، اتخذ القاضي غيرشوين أ. درين، من محكمة المقاطعة الأميركية في ديترويت، نهجاً مختلفاً؛ فقد قضى، في فبراير أيضاً، بأنه لا يمكن إجبار المدعية التي مثّلت نفسها بفعالية في المحكمة على تسليم نصوص محاضر جلسات «تشات جي بي تي» المتعلقة بالقضية.

* باختصار، خدمة «نيويورك تايمز».


تطورات «كريسبر»: من قصّ الجينات إلى قراءة عقل الخلية

خطوات محورية في دراسة السرطان واضطرابات المناعة
خطوات محورية في دراسة السرطان واضطرابات المناعة
TT

تطورات «كريسبر»: من قصّ الجينات إلى قراءة عقل الخلية

خطوات محورية في دراسة السرطان واضطرابات المناعة
خطوات محورية في دراسة السرطان واضطرابات المناعة

أظهرت دراسات علمية حديثة أن تقنية «كريسبر» لم تعد تُستخدَم فقط لتعديل الجينات بدقة، بل أصبحت أداة أساسية لفهم كيفية تصرّف الخلايا المعقّدة واختلاف استجابتها للتعديل الجيني من نسيج إلى آخر. وقد بيّنت هذه الأبحاث أن نجاح التعديل لا يعتمد على «قصّ» الجين بحد ذاته، بل على السياق الخلوي والبيولوجي الذي يحدث فيه هذا التغيير.

هذه النتائج التي كشفت عنها ثلاث دراسات نُشرت خلال العام الماضي ترسم ملامح مرحلة جديدة في تطوّر «كريسبر»، مرحلة يتقدّم فيها الذكاء البيولوجي والنماذج الأكثر واقعية إلى الواجهة ليصبح فهم الخلية وآلياتها الداخلية بأهمية القدرة التقنية نفسها على تعديل الجينات.

خلايا الدماغ تتميز عن بقية الخلايا

لماذا تستجيب الخلايا العصبية لـ«كريسبر» بطريقة مختلفة عن بقية خلايا الجسم؟ أحدث هذه الدراسات زمنياً نُشرت في مجلة Nature Communications بتاريخ 17 نوفمبر (تشرين الثاني) 2025، وركّزت على أحد أكبر التحديات في الطب الجيني: لماذا يصعب استخدام «كريسبر» لعلاج أمراض الدماغ؟قاد الدراسة بروس كونكلين من معهد الجينوميات المبتكرة في جامعة كاليفورنيا. وخلص فريقه إلى أن السبب لا يعود إلى أداة «كريسبر» نفسها، بل إلى طبيعة الخلايا العصبية. فالخلايا العصبية تُعدّ خلايا غير منقسمة، أي أنها لا تتجدد باستمرار مثل خلايا الجلد أو الدم.

وعندما يُحدِث «كريسبر» قطعاً في الحمض النووي داخل هذه الخلايا، فإن آلية إصلاح الضرر تختلف جذرياً عن الخلايا المنقسمة. فقد تبيّن أن تأثير التعديل الجيني في الخلايا العصبية يستمر لفترة أطول؛ ما يزيد فرص نجاح العلاج، لكنه في الوقت نفسه قد يرفع مخاطر حدوث تعديلات غير مقصودة.

كما كشفت الدراسة عن أن الخلايا العصبية تعتمد على عدد أقل من مسارات إصلاح الحمض النووي؛ وهو ما يجعل نتائج التعديل أكثر قابلية للتنبؤ إذا جرى التحكم بهذه المسارات بدقة. واستطاع الباحثون بالفعل تحسين دقة التعديل الجيني، بل ونجحوا في تطبيق الاستراتيجية نفسها على خلايا أخرى غير منقسمة مثل خلايا عضلة القلب.

وتشير هذه النتائج إلى أن علاج الأمراض العصبية باستخدام «كريسبر» ممكن، لكنه يتطلب فهماً خاصاً لطبيعة كل نوع من الخلايا بدل استخدام نهج واحد للجميع.

حين تُشوّه الأداة نفسها نتائج أبحاث السرطان

كيف دفع الجهاز المناعي العلماء إلى «إخفاء كريسبر» داخل الخلايا؟

وكشفت دراسة أخرى من سويسرا نُشرت في مجلة Cell في 7 نوفمبر 2025 عن تحدٍ مختلف، لكنه لا يقل أهمية هذه المرة في أبحاث السرطان.

وفي دراسة قادها نيكولا أسيتو، أستاذ علم الأورام الجزيئي في المعهد الفيدرالي السويسري للتكنولوجيا في زيوريخ، تبيّن أن أداة «كريسبر» نفسها قد تؤثر في نتائج التجارب.

إن بروتين (كاس9) Cas9 المستخدم على نطاق واسع في «كريسبر»، ذو أصل بكتيري؛ ما يعني أنه قد يثير الجهاز المناعي في النماذج الحيوانية. وهذا التفاعل المناعي قد يؤدي إلى رفض الخلايا المعدّلة جينياً أو تقليل قدرتها على تكوين أورام، وبالتالي إعطاء انطباع مضلل حول فاعلية التعديلات الجينية.

ولتجاوز هذه المشكلة؛ طوّر الباحثون ما أطلقوا عليه «العباءة الجزيئية»، وهي استراتيجية تجعل الخلايا المعدّلة جينياً أقل وضوحاً للجهاز المناعي. وبفضل هذا الأسلوب أصبح بالإمكان إجراء تجارب «كريسبر» في نماذج حيوانية ذات جهاز مناعي سليم أقرب إلى الحالة البشرية الواقعية.

وأسفر هذا النهج عن نتائج لافتة؛ إذ تمكّن الفريق من تحديد جينين يؤدي تعطيلهما إلى انخفاض كبير في انتشار سرطان الثدي. وتؤكد هذه الدراسة أن دقة أدوات البحث لا تقل أهمية عن التعديل الجيني نفسه، خصوصاً في مجال معقّد مثل السرطان.

جيل جديد من أدوات «كريسبر» لفهم الأمراض المعقّدة

اتجاه آخر هو تعديل شبكة كاملة من الجينات بدل جين واحد. فقد تناولت الدراسة الثالثة والمنشورة في مجلة Nature Biomedical Engineering في 20 مارس (آدار) 2025 سؤالاً أساسياً هو: كيف يمكن لـ«كريسبر» أن يتعامل مع أمراض لا يسببها خلل جين واحد، بل شبكة كاملة من الجينات؟

في هذه الدراسة قاد سيدي تشين، الأستاذ المشارك في علم الوراثة وجراحة الأعصاب في كلية الطب بجامعة ييل الاميركيه، فريقاً طوّر جيلاً جديداً من أدوات «كريسبر» يعتمد على بروتين (كاس12 إيه)Cas12a بدلاً من «كاس9» التقليدي.

ويتميّز هذا النظام بقدرته على تعديل جينات عدة في الوقت نفسه، وهي خطوة محورية في دراسة أمراض مثل السرطان واضطرابات المناعة، حيث تتفاعل مسارات جينية متعددة لإحداث المرض.

ولتحقيق ذلك؛ أنشأ الباحثون سلالات جديدة من فئران معدّلة وراثياً تسمح بتشغيل أو إيقاف مجموعات من الجينات بدقة عالية. وقد مكّن هذا النهج العلماء من نمذجة أمراض معقّدة بسرعة أكبر ودراسة كيفية تفاعل الخلايا المناعية مع تغييرات جينية متعددة في آن واحد.

ويرى تشين أن هذه النماذج تمثّل قفزة نوعية في فهم الأمراض المعقّدة، وقد تسرّع تطوير علاجات تستهدف أكثر من مسار جيني بدل التركيز على هدف واحد فقط.

نماذج أقرب إلى الواقع البشري

تُظهر هذه الدراسات الثلاث أن تقنية «كريسبر» تمر اليوم بمرحلة جديدة أكثر نضجاً وواقعية. فالتحدي لم يعد في القدرة على تعديل الجينات، بل في معرفة متى وكيف وأين يتم هذا التعديل.

ومن فهم خصوصية الخلايا العصبية إلى تجنّب تداخل الجهاز المناعي في أبحاث السرطان، وصولاً إلى تعديل شبكات جينية كاملة يتضح أن مستقبل الطب الجيني يعتمد على الجمع بين القوة التقنية والفهم البيولوجي العميق.

ويرى الباحثون أن هذه التطورات ستسهِم في تحسين نمذجة الأمراض وتسريع اكتشاف العلاجات ودفع الطب الدقيق نحو علاجات مصمّمة خصيصاً لكل مريض ونوع خلية. ومع هذا التقدّم يقترب العلم خطوة إضافية من تحقيق وعد «كريسبر»، ألا وهو «علاج المرض من جذوره الجزيئية بأمان ودقة غير مسبوقين».