كيف يفهم الذكاء الاصطناعي مبادئ أخلاقيات الطب؟

رحلة عبر التاريخ من حمورابي إلى عصر قرارات الخوارزمية

العدالة في زمن الذكاء الاصطناعي الطبي- المبادئ الاربعة: الاستقلالية، العدالة، المنفعة ، وعدم الإضرار
العدالة في زمن الذكاء الاصطناعي الطبي- المبادئ الاربعة: الاستقلالية، العدالة، المنفعة ، وعدم الإضرار
TT

كيف يفهم الذكاء الاصطناعي مبادئ أخلاقيات الطب؟

العدالة في زمن الذكاء الاصطناعي الطبي- المبادئ الاربعة: الاستقلالية، العدالة، المنفعة ، وعدم الإضرار
العدالة في زمن الذكاء الاصطناعي الطبي- المبادئ الاربعة: الاستقلالية، العدالة، المنفعة ، وعدم الإضرار

لم يعد الذكاء الاصطناعي في الطب مجرد أداة تحليلية تعمل في الخلفية خلف الشاشات، بل أصبح حاضراً في لحظة القرار ذاتها؛ في غرف الطوارئ، وفي أنظمة دعم التشخيص، وفي منصات تقييم المخاطر التي قد ترجّح خياراً علاجياً على آخر. وتقترح الأنظمة الذكية اليوم احتمالات علاجية، وتحسب نسب المضاعفات، وتقدّر فرص النجاة.

هنا يتغير السؤال جذرياً. لم يعد السؤال؛ هل يستخدم الطب الذكاء الاصطناعي؟ بل أصبح؛ كيف يمكن لهذه الأنظمة أن تعمل داخل المنظومة الأخلاقية التي صاغت الممارسة الطبية عبر قرون طويلة؟ كيف يمكن لخوارزمية أن تفهم، أو على الأقل أن تُحاط بمبادئ الإحسان، وعدم الإضرار، واحترام الاستقلالية، وتحقيق العدالة؟

حين تدخل الخوارزمية غرفة القرار، فإنها لا تدخل فراغاً تقنياً، بل تدخل تاريخاً أخلاقياً ممتداً من قوانين حمورابي، إلى قسم أبقراط، إلى تنظيرات ابن سينا، وصولاً إلى مواثيق الأخلاقيات الطبية الحديثة. والسؤال اليوم ليس عن قدرة الآلة على الحساب، بل عن قدرتنا نحن على إدماجها في هذا الإرث الأخلاقي دون أن يتصدّع.

أخلاقيات الطب من المسمار الطيني إلى الخوارزمية

جذور أخلاقيات الطب

> من حمورابي إلى ابن سينا. ظهرت أولى محاولات تنظيم المسؤولية الطبية في شريعة الملك حمورابي في بلاد الرافدين قبل نحو 4 آلاف عام، حيث رُبط الفعل الطبي بنتائجه، وحددت مسؤولية الطبيب القانونية بوضوح غير مسبوق في تاريخ الحضارات. وكان الطب هنا فعلاً يخضع للمساءلة، لا مجرد مهارة تقنية.

وفي الصين القديمة، أكّد كونفوشيوس مركزية الفضيلة والواجب الأخلاقي في علاقة المعالج بالمريض. ثم جاء أبقراط في اليونان ليضع الإطار الأكثر رسوخاً لفكرة الالتزام الأخلاقي للطبيب، عبر مبدأ «عدم الإضرار» والسعي لمنفعة المريض، مؤسساً لفكرة أن الغاية من المعرفة الطبية هي حماية الإنسان، لا استعراض المهارة.

وفي الحضارة الإسلامية، رسّخ ابن سينا في كتابه «القانون في الطب» تصوراً أكثر تكاملاً، حيث لا تنفصل المعرفة الطبية عن الحكمة، ولا المهارة عن الضمير الإنساني. فالطبيب عنده ليس حافظاً للمعلومات فحسب، بل صاحب رؤية أخلاقية توازن بين العقل والرحمة.

> طبّ بين المعرفة والمسؤولية. لم يكن الطب يوماً صراعاً بين الإنسان والأداة، بل علاقة متواصلة بين التقدم العلمي والمسؤولية الأخلاقية. فمع كل تطور تقني - من المشرط الجراحي إلى الأشعة السينية ثم إلى التصوير الجزيئي - ازدادت دقة التشخيص واتسعت إمكانات العلاج، لكن في المقابل تعمّق عبء القرار الطبي وتعقّد. فالأداة لا تعفي الطبيب من المسؤولية، بل تضيف طبقة جديدة من المساءلة؛ كيف تُستخدم؟ ومتى؟ ولصالح من؟

اليوم يختلف الذكاء الاصطناعي عن الأدوات السابقة في أنه لا يساعد اليد فقط، بل يقترب من مجال التفكير السريري ذاته. إنه لا يكتفي بتوفير صورة أو نتيجة مختبرية، بل يقترح تفسيراً، ويرجّح احتمالاً، ويعيد ترتيب الخيارات العلاجية. وهنا يصبح السؤال الأخلاقي أكثر حساسية؛ إذا كانت الأداة تشارك في التحليل، فمن يملك القرار؟ ومن يتحمل مسؤوليته؟

الضمير في قلب الخوارزمية

حدود الذكاء الاصطناعي

> قصور في الاعتبارات الأخلاقية. لم يعد النقاش حول أخلاقيات الذكاء الاصطناعي نظرياً أو افتراضياً، بل أصبح مدعوماً بتحليل تجريبي لحوادث واقعية. ففي دراسة نُشرت في فبراير (شباط) 2026 بعنوان «كشف المخاطر الخفية للذكاء الاصطناعي: vتحليل تجريبي للحوادث المرتبطة بالأنظمة الصحية الذكية»، في مجلة الذكاء الاصطناعي في الطب (Artificial Intelligence in Medicine)، أجرى باحثون من معهد أخلاقيات الذكاء الاصطناعي بجامعة أكسفورد في المملكة المتحدة مراجعة منهجية لحوادث ارتبطت باستخدام أنظمة ذكية في بيئات الرعاية الصحية.

وكشفت النتائج أن عدداً كبيراً من الإخفاقات لم يكن ناتجاً عن خلل تقني مباشر في الخوارزمية، بل عن قصور في الاعتبارات الأخلاقية أثناء تصميم النظام، أو عن تطبيقه خارج السياق السريري المناسب. ففي بعض الحالات، جرى استخدام النظام في فئات مرضية لم تُدرَّب الخوارزمية عليها بما يكفي، أو دون مراعاة الفروق الاجتماعية والاقتصادية بين المرضى، ما أدى إلى توصيات غير عادلة أو غير ملائمة.

تلك النتائج تعيدنا إلى جوهر السؤال؛ الذكاء الاصطناعي قد يكون دقيقاً من الناحية الحسابية، لكن من دون إطار أخلاقي واضح يوجّه تصميمه واستخدامه، قد يتحول من أداة مساعدة إلى مصدر خطر غير مقصود.

> الاستقلالية: قرار المريض في عصر الخوارزمية. يقوم مبدأ الاستقلالية على حق المريض في اتخاذ قراره بعد فهم الخيارات العلاجية المتاحة، وموازنة فوائدها ومخاطرها وفق قِيَمه وظروفه الخاصة. وهو مبدأ انتقل بالطب من نموذج «الوصاية» إلى نموذج الشراكة بين الطبيب والمريض.

في هذا السياق، يمكن للذكاء الاصطناعي أن يكون أداة داعمة للاستقلالية، عبر تبسيط المعلومات الطبية المعقدة، وعرض بدائل علاجية متعددة، وتوضيح احتمالات النجاح والمضاعفات بلغة مفهومة. كما يمكنه أن يمكّن المريض من الاطلاع على سيناريوهات مختلفة تساعده على اتخاذ قرار أكثر وعياً.

غير أن التحدي الأخلاقي يظهر حين تتحول توصيات النظام إلى سلطة غير مرئية. فالمريض، وأحياناً الطبيب، قد يميلان إلى الثقة المفرطة بالتوصية الرقمية باعتبارها «محايدة» أو «موضوعية»، حتى إن كانت مبنية على بيانات غير مكتملة أو منحازة. هنا قد يتقلص المجال الحقيقي للاختيار، دون أن يبدو ذلك واضحاً.

الاستقلالية في عصر الخوارزمية لا تعني توفير الخيارات فقط، بل ضمان ألا تتحول الخوارزمية إلى مرجعية صامتة تُعيد تشكيل القرار من وراء الستار.

التقييم في عصر الطب الرقمي

> الإحسان وعدم الإضرار. يشكّل مبدأ الإحسان، أي السعي إلى تحقيق منفعة المريض ومبدأ عدم الإضرار وتجنّب الأذى قدر الإمكان، حجر الزاوية في الأخلاقيات الطبية منذ أبقراط. وفي هذا الإطار، تبدو الأنظمة الذكية حليفاً طبيعياً لهذين المبدأين. فهي قادرة على تحليل كميات هائلة من البيانات السريرية، والتنبؤ بالمضاعفات المحتملة، ورصد الأنماط الدقيقة التي قد تفوت العين البشرية.

غير أن هذه القدرة الحسابية لا تعمل في فراغ. فجودة التوصيات تبقى رهينة جودة البيانات التي دُرّبت عليها الخوارزميات، وتمثيلها العادل لمختلف الفئات السكانية، ودقة السياق السريري الذي تُستخدم فيه. فإذا كانت البيانات ناقصة أو منحازة، فإن التوصية مهما بدت دقيقة قد تحمل في طياتها خطراً غير مرئي.

يضاف إلى ذلك ما يُعرف بـ«الانحياز الآلي»؛ حيث قد يميل الطبيب إلى منح ثقة مفرطة للتوصية الرقمية، فيتردد في مخالفتها رغم وجود شك سريري مشروع. هنا يتحول النظام من أداة داعمة إلى مرجعية صامتة قد تضعف الجرأة المهنية على السؤال أو المراجعة.

إن الإحسان في عصر الذكاء الاصطناعي لا يعني تحسين التنبؤ فقط، وعدم الإضرار لا يتحقق بمجرد انخفاض نسبة الخطأ الإحصائي، بل يتطلبان وعياً نقدياً مستمراً يوازن بين ما تقترحه الخوارزمية وما يقتضيه الضمير السريري.

> العدالة في الطب الرقمي. يحمل الذكاء الاصطناعي وعداً حقيقياً بتوسيع الوصول إلىر الرعاية الصحية، من خلال دعم التشخيص في المناطق محدودة الموارد، وتقليل الفوارق في الوصول إلى الخبرة الطبية. غير أن هذا الوعد الأخلاقي يرتبط بشرط أساسي بعدالة البيانات التي تتعلم منها الأنظمة الذكية.

إن الخوارزميات لا تعمل بمعزل عن الواقع الاجتماعي، بل تعكسه. وإذا كانت بيانات التدريب تمثل فئات سكانية محدودة، أو أنظمة صحية متقدمة دون غيرها، فقد تنتج توصيات أقل دقة لدى مجتمعات أخرى، ما يعيد إنتاج التفاوتات الصحية بدلاً من تقليصها.

لهذا تصبح مراجعة النماذج والخوارزميات، وتقييم مصادر البيانات، وضمان تمثيل التنوع البشري والثقافي، جزءاً لا يتجزأ من المسؤولية الأخلاقية في الطب الرقمي. فالعدالة لم تعد مسألة توزيع الخدمات فقط، بل مسألة تصميم خوارزمي واعٍ يضمن تكافؤ فرص التشخيص والعلاج بين مختلف المرضى والمجتمعات.

> الطب يبقى فعلاً إنسانياً. من شريعة حمورابي التي ربطت الفعل الطبي بالمسؤولية، إلى قسم أبقراط الذي جعل عدم الإضرار مبدأً مهنياً، إلى ابن سينا الذي جمع بين المعرفة والحكمة، ظلّ الطب قائماً على علاقة أخلاقية بين إنسان وإنسان. لم يكن يوماً مجرد تقنية، بل التزاماً ومسؤولية وقراراً يُتخذ في لحظة حساسة قد تغيّر مصير حياة.

اليوم، ومع صعود الخوارزميات القادرة على تحليل ملايين البيانات في ثوانٍ، يتسع أفق الرؤية الطبية، لكن جوهر القرار لا يتغير، لكنها لا تتحمل عبء الاختيار الأخلاقي، ولا تقف أمام المريض لتحمل تبعات القرار.

قد تساعد التقنية الطبيب على أن يرى بوضوح أكبر، لكنها لا تعفيه من أن يختار. والطب، في نهاية المطاف، لا يُقاس بذكاء النظام المستخدم، بل بوعي الإنسان الذي يوجّهه. ومهما تطورت الخوارزميات، يبقى القرار الطبي فعلاً إنسانياً، ومسؤولية لا يمكن تفويضها بالكامل للآلة.


مقالات ذات صلة

«كما تقضي على العشب»... ترمب يرى المشروبات الغازية الدايت علاجاً للسرطان

صحتك الرئيس الأميركي دونالد ترمب أثناء تناوله مشروباً غازياً (أ.ف.ب)

«كما تقضي على العشب»... ترمب يرى المشروبات الغازية الدايت علاجاً للسرطان

دافع الرئيس الأميركي دونالد ترمب عن استهلاكه للمشروبات الغازية الدايت، مُشيراً إلى أنها قد تُساعد في الوقاية من السرطان.

«الشرق الأوسط» (واشنطن)
صحتك  تناول وجبات خفيفة بشكل متكرر يرتبط بانخفاض ملحوظ في شدة أعراض متلازمة القولون العصبي (بيكسلز)

سرّ بسيط في طريقة أكلك قد يخفف آلام القولون العصبي

تُعدّ متلازمة القولون العصبي من الاضطرابات الهضمية الشائعة التي تُلقي بظلالها على الحياة اليومية للمصابين بها.

«الشرق الأوسط» (واشنطن)
صحتك الخضراوات الورقية تُعدّ مصدراً غنياً بالمغنسيوم (بيكسلز)

زيادة الخضراوات الورقية في غذائك… هل تخفض ضغط الدم؟

الخضراوات لا تقتصر أهميتها على قيمتها الغذائية العالية، بل تمتد لتشمل تأثيرات فسيولوجية مباشرة قد تسهم في تحسين صحة القلب والأوعية الدموية.

«الشرق الأوسط» (واشنطن)
صحتك اليود يوجد في مجموعة من الأطعمة الشائعة مثل البيض والمأكولات البحرية مثل القريدس والتونة وسمك القد (بيكسلز)

هل تحصل على ما يكفي من اليود؟ عنصر أساسي قد تهمله

قد يغفل كثيرون عن أهمية بعض العناصر الدقيقة مثل اليود رغم دوره المحوري في الحفاظ على توازن الجسم ووظائفه الحيوية

«الشرق الأوسط» (واشنطن)
صحتك يواصل الباحثون والأطباء في مستشفى هيوستن ميثوديست جهودهم لتوحيد مسارات البحث والتكنولوجيا ورعاية المرضى (الشرق الأوسط)

خطوات متقدمة نحو فكّ أسرار الخرف… وأمل جديد لعلاجات مستقبلية

في إطار مساعٍ علمية متسارعة لفهم الأسباب العميقة لمرض الخرف والتنكس العصبي والعمل على الوقاية منه وإمكانية عكس مساره مستقبلاً

«الشرق الأوسط» (هيوستن)

«الذكاء المُتذبذب» أهم سمات الذكاء الاصطناعي

«الذكاء المُتذبذب» أهم سمات الذكاء الاصطناعي
TT

«الذكاء المُتذبذب» أهم سمات الذكاء الاصطناعي

«الذكاء المُتذبذب» أهم سمات الذكاء الاصطناعي

لطالما قورن الذكاء الاصطناعي بالذكاء البشري، لكن هذه المقارنة قد لا تكون الأنسب؛ فما يُجيده الذكاء الاصطناعي حالياً يُمكن أن يُساعد في التنبؤ بالوظائف التي قد يحلّ محلّها.

تلميذ رياضيات متفوق

يمكنك أن تقول اليوم ما تريد عن إمكانية وصول الذكاء الاصطناعي يوماً ما إلى ذكاء الإنسان. على سبيل المثال أصبح الذكاء الاصطناعي بالفعل تلميذاً مُتفوقاً في الرياضيات؛ ففي الصيف الماضي، أجاب نظام ذكاء اصطناعي من تطوير «غوغل» و«أوبن إيه آي» إجابة صحيحة على خمسة من أصل ستة أسئلة مُعقدة في أولمبياد الرياضيات الدولي، وهي مُسابقة سنوية لأفضل طلاب المدارس الثانوية في العالم.

قصور وسذاجة

مع ذلك، قد يكون المنطق السليم للذكاء الاصطناعي ما زال قاصراً بعض الشيء؛ فبعد بضعة أشهر، لاحظ أنورادها ويرامان، مهندس برمجيات في سريلانكا، أن أنظمة الذكاء الاصطناعي الرائدة تُعاني في الإجابة عن سؤالٍ بسيطٍ للغاية، قد يبدو مُضحكاً للبعض. فعندما أخبر عدداً من برامج الدردشة الآلية أنه بحاجة إلى أخذ سيارته بهدف تصليحها في ورشة تبعد 50 متراً فقط، وسألها إن كان عليه المشي أم القيادة، نصحته البرامج بالمشي!

«الذكاء المتذبذب»

إنّ الطريقة الغريبة التي يبدو بها الذكاء الاصطناعي عبقرياً في لحظة، وغبياً في أخرى، هي ما يُطلِق عليه الباحثون والمهندسون والاقتصاديون مصطلح «الذكاء المتذبذب» (jagged intelligence) (حرفياً «الذكاء المسنّن» أي غير الانسيابي - المحرِّر) . وهم يستخدمون هذا المصطلح لتفسير سبب تقدّم الذكاء الاصطناعي بسرعة في بعض المجالات، كالرياضيات وبرمجة الحاسوب، بينما لا يزال يُكافح لتحقيق تقدّم في مجالات أخرى.

قد يُساعد هذا المصطلح، الشائع الاستخدام بين مُطوّري الذكاء الاصطناعي ومُحلّلي آثاره، في إعادة صياغة النقاش الدائر حول ما إذا كانت هذه الأنظمة تُصبح بذكاء البشر، أو حتى أذكى منهم.

أفضل... وأقل ذكاء

ويرى الباحثون أن الذكاء الاصطناعي شيء مختلف تماماً؛ فهو أفضل بكثير من البشر في بعض المهام، وأقل ذكاءً بكثير في مهام أخرى. كما يُمكن أن يُساعد فهم نقاط القوة والضعف هذه الاقتصاديين على فهم أفضل لما يعنيه الذكاء الاصطناعي لمستقبل العمل؛ إذ وبينما يوجد سببٌ للقلق لدى المُبرمجين المبتدئين بشأن وظائفهم على سبيل المثال، فليس من الواضح - على الأقل في الوقت الراهن - كيف سيؤثر الذكاء الاصطناعي على أنواع العمل الأخرى.

لكن مُراقبة المجالات التي يبدأ فيها الذكاء الاصطناعي بتحقيق تحسينات سريعة قد تُساعد في التنبؤ بأنواع الوظائف التي ستتأثر بهذه التقنية.

وقال ويرامان: «يختلف أداء هذه الأنظمة، وليس من السهل التنبؤ بموعد عجزها عن أداء مهام يستطيع الإنسان القيام بها».

الدماغ البشري: ترابط المعارف وقدرات حل المشكلات

وقد صاغ مصطلح «الذكاء المتذبذب» أندريه كارباثي، أحد الباحثين المؤسسين لشركة «أوبن ايه آي»، والرئيس السابق لقسم تكنولوجيا القيادة الذاتية في شركة «تسلا»، وأحد أبرز المعلقين على صعود الذكاء الاصطناعي على وسائل التواصل الاجتماعي. وكتب على وسائل التواصل الاجتماعي عام 2024: «بعض الأشياء تعمل بكفاءة عالية (وفقاً للمعايير البشرية)، بينما تفشل بعضها الآخر فشلاً ذريعاً (أيضاً وفقاً للمعايير البشرية)، وليس من السهل دائماً التمييز بينهما».

وكتب أن هذا يختلف عن الدماغ البشري، «حيث تترابط كثير من المعارف وقدرات حل المشكلات ترابطاً وثيقاً وتتحسن بشكل خطي معاً، من الولادة إلى البلوغ».

التأثير على الوظائف

منذ أن بدأت «أوبن أيه آي» في مجال الذكاء الاصطناعي. مع ازدهار قطاع التكنولوجيا في عام 2022، تذبذبت تصريحات المسؤولين التنفيذيين في شركات التكنولوجيا بين التحذير من أن ابتكاراتهم الجديدة قد يكون لها تأثير مدمّر على وظائف ذوي الياقات البيضاء، والتقليل من شأن تأثيرها طويل الأمد على التوظيف.

حتى الآن، وخارج قطاع التكنولوجيا، لا توجد سوى أدلّة متفرقة تشير إلى أن الذكاء الاصطناعي أصبح سبباً في فقدان الوظائف. ولكن بالنظر إلى سرعة تطور هذه التكنولوجيا، يرى العديد من خبراء التكنولوجيا أن مسألة استبدال الذكاء الاصطناعي لأنواع أخرى من العاملين في وظائف ذوي الياقات البيضاء ليست مسألة «هل سيحدث ذلك؟»، بل «متى سيحدث؟».

قبل بضع سنوات فقط، كانت هذه الأنظمة لا تزال في بداياتها، تُظهر مهارات برمجية بدائية للغاية. يقول أليكس إيماس، الخبير الاقتصادي في كلية بوث للأعمال بجامعة شيكاغو: «لقد شهدت هذه الأنظمة تحسينات هائلة. في كل مرة يُطرَح فيها إصدار جديد رئيسي، يُفاجأ الناس بقدراته الهائلة». لكن التكنولوجيا التي تُضيف إلى ما يمكن للعاملين القيام به دون استبدالهم لها سوابق كثيرة، وهذا ما يتوقعه بعض باحثي الذكاء الاصطناعي والاقتصاديين.

أهمية العنصر البشري

منذ ستينات القرن الماضي، كانت الآلة الحاسبة الجيبية قادرة على الجمع والطرح والضرب بسرعة تفوق سرعة الإنسان بكثير. لكن هذا لم يكن يعني أن الآلة الحاسبة يمكن أن تحل محل المحاسب. أما الآن؛ فبإمكان أنظمة مثل «كلود» من أنثروبيك و«كودكس» من «أوبن إيه آي» كتابة برامج حاسوبية بسرعة أكبر بكثير أيضاً. لكنها لا تجيد فهم كيفية اندماج كل جزء من الرموز الكومبيوترية في تطبيق برمجي أكبر؛ فهي تحتاج إلى مساعدة بشرية في ذلك.

يقول الدكتور إيماس: «إذا كانت الوظيفة تتضمن مجموعة من المهام المختلفة - ومعظم الوظائف كذلك - فستتم أتمتة بعض المهام، بينما لن تُؤتمت أخرى. وفي هذه الحالة، قد يتوفر للعامل وقت أطول للقيام بأمور أهم».

في الشهر الماضي، أطلق فرانسوا شوليه، الباحث البارز في مجال الذكاء الاصطناعي، اختباراً رقمياً جديداً يُسمى «ARC-AGI 3»، ويطلب الاختبار حلولاً لمئات الألغاز الشبيهة بالألعاب دون تقديم أي تعليمات لحلها. يستطيع أي شخص عادي غير مُدرَّب حل جميع الألغاز، لكن أنظمة الذكاء الاصطناعي الرائدة تعجز عن إتقان أي منها، وفقاً لاختبارات أجراها شوليه.

يقول خبراء مثل شوليه إنه بمجرد أن يُدرك الناس أن الذكاء الاصطناعي ذكاء غير مُتطوّر، فإنهم يُطوّرون فهماً أفضل لكيفية تطوّر الذكاء الاصطناعي في السنوات المقبلة، وما قد يكون له من تأثير على سوق العمل. ويقول الدكتور إيماس: «سيعتمد هذا على المهام التي يُؤتمتها، وكيف ومتى».

حدود نتاجات الذكاء الاصطناعي

إن نظم الذكاء الاصطناعي، مثل «كلود» و«تشات جي بي تي» تتعلم مهاراتها، من خلال تحديد الأنماط في البيانات الرقمية، بما في ذلك مقالات ويكيبيديا، والأخبار، وبرامج الحاسوب، وغيرها من النصوص المُجمّعة من الإنترنت.. لكن هذا لا يكفي.

لا تُمثّل الإنترنت سوى جزء ضئيل من المعرفة البشرية، فهي تُسجّل ما يفعله الناس في العالم الرقمي، ولكنها تحتوي على معلومات قليلة نسبياً عمّا يحدث في العالم المادي.

لا تخطيط ولا أفكار جديدة

وهذا يعني أن هذه الأنظمة قادرة على كتابة رسائل البريد الإلكتروني، والإجابة عن الأسئلة، والتعليق على أي موضوع تقريباً، وتوليد رموز برمجية. ولكن نظراً لأن أنظمة الذكاء الاصطناعي تُعيد إنتاج الأنماط التي تجدها في البيانات الرقمية، فإنها لا تُجيد التخطيط المُسبق، أو توليد أفكار جديدة، أو التعامل مع مهام لم تُصادفها من قبل.

* لا يمتلك الذكاء الاصطناعي ذكاءً عاماً بل مجموعة واسعة من المهارات المختلفة*

يقول شوليه: «لا يمتلك الذكاء الاصطناعي ذكاءً عاماً، بل يمتلك مجموعة واسعة من المهارات المختلفة».

والآن، تُعلّم شركات مثل «أنثروبيك» و«أوبن ايه آي» هذه الأنظمة مهارات إضافية باستخدام تقنية تُسمى التعلّم المُعزّز. فمن خلال حلّ آلاف المسائل الرياضية، على سبيل المثال، يُمكنها تعلّم أيّ الطرق تُؤدي إلى الإجابة الصحيحة وأيّها لا تُؤدي إليها.

«نعم» في الرياضيات... «لا» في الكتابة الإبداعية

يُجدي هذا الأسلوب نفعاً في مجالاتٍ كالرياضيات وبرمجة الحاسوب، حيث تستطيع شركات الذكاء الاصطناعي تحديد السلوك الجيد والسيئ بوضوح؛ فإجابة المسألة الرياضية إما صحيحة أو خاطئة، وكذلك الأمر بالنسبة لبرنامج الحاسوب، فإما أن يجتاز اختبار الأداء أو يفشل.

لكن التعلم المعزز لا يُجدي نفعاً في مجالاتٍ كالكتابة الإبداعية أو الفلسفة أو حتى بعض العلوم، حيث يصعب التمييز بين الجيد والسيئ.

يقول جوشوا غانز، الخبير الاقتصادي في كلية روتمان للإدارة بجامعة تورنتو: «البرمجة - التي يُبدي الجميع حماساً لها حالياً - لا تُمثل كل ما يفعله الذكاء الاصطناعي. ففي البرمجة، يسهل استخدام حلقة التغذية الراجعة لتحديد ما يُجدي وما لا يُجدي».

تطور التكنولوجيا

أما بالنسبة للمستخدمين؛ فغالباً ما يصعب عليهم تحديد ما يُجيده الذكاء الاصطناعي وما لا يُجيده. وعندما يُدرك الناس تماماً نقاط قوة وضعف الأنظمة، تتغير التكنولوجيا.

قال الدكتور غانز: «إنّ عدم استقرار الذكاء الاصطناعي يعني أن المشكلات قد تنشأ من أي مكان. هناك ثغرات، ولا نعرف دائماً أين تكمن». لكن العامل الحاسم هو أن الذكاء الاصطناعي يتطور بسرعة. فالعديد من نقاط الضعف التي أشار إليها الدكتور كارباثي وآخرون في عامي 2024 وبداية 2025 لم تعد موجودة. وستكتشف الشركات أوجه قصور أخرى وتعمل على إصلاحها أيضاً... لذا فان «ثغرات التكنولوجيا تتقلص»، كما قال الدكتور إيماس.

* خدمة «نيويورك تايمز».


منصة فضائية بأذرع آلية لتزويد الأقمار الاصطناعية بالوقود

منصة «ميدنايت» من شركة «إم دي إيه»
منصة «ميدنايت» من شركة «إم دي إيه»
TT

منصة فضائية بأذرع آلية لتزويد الأقمار الاصطناعية بالوقود

منصة «ميدنايت» من شركة «إم دي إيه»
منصة «ميدنايت» من شركة «إم دي إيه»

يبدو أن الجميع يطمح للسيطرة على الفضاء. ولكن المشكلة تتمثل في أنه وكلما زاد عدد الأقمار الاصطناعية التي تطلقها الجيوش وتعتمد عليها، ازدادت الحاجة إلى نظام رقابي فعَّال لحماية تلك الأقمار، كما كتبت لورين سي. ويليامز(*).

منصة دعم فضائية

وهنا يأتي دور نظام جديد لقمر اصطناعي مزود بذراع آلية قادرة على تزويد الأقمار بالوقود اللازم: منصة«ميدنايت» من شركة «إم دي إيه» MDA Midnight الكندية هذه، التي كُشف عنها النقاب في ندوة الفضاء في كولورادو هذا الأسبوع. وقالت هولي جونسون، نائبة رئيس قسم الروبوتات والعمليات الفضائية في الشركة، لموقع «ديفنس وان»: «يستطيع هذا القمر الاصطناعي المزوَّد بذراع آلية، الاقتراب من السفن الفضائية الأخرى لفحصها، ومراقبة محيطها، واستكشاف الأجسام المقتربة، والدفاع ضد التهديدات المحتملة عند الحاجة».

التزويد بالوقود بسلامة

وأضافت جونسون أن هذه المنصة تستطيع أيضاً تزويد الأقمار الاصطناعية الأخرى بالوقود باستخدام ذراعه مع الحفاظ على مسافة آمنة من القمر الاصطناعي الذي يحتاج إلى التزويد بالوقود، وضمان استمرارية عمله.

وتابعت: «يتصل الذراع بواجهة تزويد الأقمار الاصطناعية بالوقود، بينما ستعوِّض الروبوتات معدلات الانحراف النسبي لهاتين المنصتين، لتأمين تزوبد القمر الاصطناعي بالوقود بسلاسة تامة».

10 آلاف قمر اصطناعي

وأضافت جونسون: «هناك مساعٍ حثيثة للحصول على مزيد من المعلومات حول الأجسام الموجودة في الفضاء - بما في ذلك ما يزيد عن 10 آلاف قمر اصطناعي - وما تقوم به، ومن يملكها، وأي تهديدات محتملة... ولكن الجزء المفقود من الوعي بالمجال الفضائي كان القدرة على اتخاذ أي إجراء حيال ذلك».

التنافس مع الصين

يأتي إطلاق هذا المنتج بعد أن أعرب الجنرال ستيفن وايتينغ قائد القيادة الفضائية الأميركية عن مخاوفه بشأن تجارب الصين الأخيرة في تزويد الأقمار الاصطناعية بالوقود؛ كما شدَّد في الآونة الأخيرة على ضرورة القدرة على نقل الأقمار الاصطناعية.

وقال وايتينغ أمام لجنة القوات المسلحة بمجلس الشيوخ الشهر الماضي: «ما يقلقني هو أنه إذا طوَّروا هذه القدرة، فسيكون لديهم القدرة على المناورة لتحقيق التفوق كما فعلت الولايات المتحدة لعقود - براً وبحراً وجوَّاً - حيث استخدمنا المناورة لصالحنا». وأضاف: «نحن بحاجة إلى تطوير قدراتنا الخاصة في حرب المناورة لضمان قدرتنا على الاستفادة من المزايا التي طوَّرتها القوات المشتركة على مدى عقود في الفضاء، كما فعلنا في مجالات أخرى».

* مجلة «ديفنس وان»، خدمات «ترييون ميديا».


روبوتات الدردشة المدعومة بالذكاء الاصطناعي تقدِّم نصائح طبية مضللة

روبوتات الدردشة المدعومة بالذكاء الاصطناعي تقدِّم نصائح طبية مضللة
TT

روبوتات الدردشة المدعومة بالذكاء الاصطناعي تقدِّم نصائح طبية مضللة

روبوتات الدردشة المدعومة بالذكاء الاصطناعي تقدِّم نصائح طبية مضللة

كشفت دراسة جديدة أن روبوتات الدردشة المدعومة بالذكاء الاصطناعي تقدِّم للمستخدمين نصائح طبية خاطئة في نحو نصف الحالات، ما يسلط الضوء على المخاطر الصحية لهذه التقنية التي باتت جزءاً لا يتجزأ من حياتنا اليومية.

تقييم 5 نماذج ذكية

وأجرى باحثون من الولايات المتحدة وكندا والمملكة المتحدة تقييماً لـ5 منصات شائعة: «تشات جي بي تي»، و«جيميناي»، و«ميتا إيه آي»، و«غروك»، و«ديب سيك» من خلال طرح 10 أسئلة على كل منها، ضمن 5 فئات صحية.

نصف الإجابات خاطئة

ووفقاً للنتائج المنشورة هذا الأسبوع في المجلة الطبية «BMJ Open»، اعتُبر نحو 50 في المائة من إجمالي الإجابات خاطئاً، بما في ذلك ما يقرب من 20 في المائة كانت إجابات خاطئة للغاية، وفقاً لتقرير نشرته وكالة «بلومبرغ».

وأظهرت الدراسة أن أداء روبوتات الدردشة كان أفضل نسبياً في الإجابة عن الأسئلة المغلقة، والأسئلة المتعلقة باللقاحات والسرطان، بينما كان أداؤها أسوأ في الإجابة عن الأسئلة المفتوحة وفي مجالات مثل الخلايا الجذعية والتغذية.

إجابات بثقة... من دون مراجع

أفاد الباحثون بأن الإجابات كانت تُقدَّم غالباً بثقة ويقين، مع أن أياً من برامج الدردشة الآلية لم يُقدِّم قائمة مراجع كاملة ودقيقة استجابةً لأي سؤال. ولم يُسجَّل سوى رفضين للإجابة عن سؤال، وكلاهما من نموذج «ميتا».

افتقار النماذج للخبرة الطبية

تُسلِّط هذه النتائج الضوء على القلق المتزايد بشأن كيفية استخدام الناس لمنصات الذكاء الاصطناعي التوليدي، التي لا تملك ترخيصاً لتقديم المشورة الطبية، وتفتقر إلى الخبرة السريرية اللازمة للتشخيص.

200 مليون يستشيرون «الطبيب جي بي تي» أسبوعياً

وقد أدى النمو الهائل لبرامج الدردشة الآلية التي تعمل بالذكاء الاصطناعي إلى تحويلها لأداة شائعة للأشخاص الذين يبحثون عن إرشادات بشأن أمراضهم. وصرَّحت شركة «أوبن إيه آي» بأن أكثر من 200 مليون شخص يطرحون أسئلة حول الصحة والعافية على منصة «تشات جي بي تي» أسبوعياً.

وكانت المنصة قد أعلنت في يناير (كانون الثاني) الماضي عن أدوات صحية لكل من المستخدمين العاديين والأطباء. وفي الشهر نفسه أعلنت شركة «أنثروبيك» عن إطلاق منتجها «كلاود» كخدمة جديدة للرعاية الصحية.

تضخيم المعلومات المضللة

وأشار مؤلفو الدراسة إلى أن أحد المخاطر الرئيسية لنشر برامج الدردشة الآلية دون توعية عامة ورقابة، هو أنها قد تُضخِّم المعلومات المضللة. وكتب الباحثون أن النتائج «تُسلِّط الضوء على قيود سلوكية مهمة، وعلى ضرورة إعادة تقييم كيفية استخدام روبوتات الدردشة المدعومة بالذكاء الاصطناعي في التواصل الصحي والطبي الموجَّه للجمهور». وأضافوا أن هذه الأنظمة قد تُنتج «ردوداً تبدو موثوقة، ولكنها قد تكون معيبة».