5 حقائق سوداء في فقاعة الضجة الكبرى للذكاء الاصطناعي

مواجهة تغوّل شركات التكنولوجيا ومنعها من رهن مستقبل البشرية

5 حقائق سوداء في فقاعة الضجة الكبرى للذكاء الاصطناعي
TT

5 حقائق سوداء في فقاعة الضجة الكبرى للذكاء الاصطناعي

5 حقائق سوداء في فقاعة الضجة الكبرى للذكاء الاصطناعي

يشكل كتاب «خدعة الذكاء الاصطناعي The AI Con» محاولة لاستكشاف الضجة المثارة حول تقنيات الذكاء الاصطناعي، والمصالح التي تخدمها، والأضرار التي تقع تحت هذه المظلة. ومع كل ذلك، تبقى هناك خيارات متاحة أمام المجتمع لمقاومة هذه الضجة، وما زال هناك أمل في أن نتحد معاً لمواجهة تغوّل شركات التكنولوجيا، ومنعها من رهن مستقبل البشرية.

«خدعة الذكاء الاصطناعي»

وفيما يلي تتشارك المؤلفتان إميلي بيندر (أستاذة في علم اللغة، مديرة برنامج الماجستير في اللغويات الحاسوبية بجامعة واشنطن)، وأليكس هنا (مديرة الأبحاث في معهد البحوث الموزعة للذكاء الاصطناعي، ومحاضرة في كلية المعلومات بجامعة كاليفورنيا في بيركلي) مع القراء بخمسة أفكار رئيسية من كتابهما الجديد «خدعة الذكاء الاصطناعي: كيف نحارب تضليل شركات التكنولوجيا الكبرى ونصنع المستقبل الذي نريده؟ ?The AI Con: How to Fight Big Tech’s Hype and Create the Future We Want».

01-> التكنولوجيا التي تحرِّك موجة الضجة الحالية حول الذكاء الاصطناعي ما هي إلا خدعة استعراضية: تبدو روبوتات الدردشة مثل «تشات جي بي تي»، تكنولوجيا مذهلة، لكن ليس بالضرورة بالطريقة التي نتصورها.

في الواقع، لا تستطيع هذه الأنظمة الاضطلاع بمجموعة الوظائف التي تزعم أنها قادرة عليها، وإنما جرى تصميمها لتبهرنا. ويكمن جوهر الخدعة في الطريقة التي يستخدم بها البشر اللغة. قد نعتقد أن فهم الكلمات مجرد فك رموز بسيطة، لكن الحقيقة أن العملية أشد تعقيداً بكثير، وتحمل في جوهرها طابعاً اجتماعياً عميقاً.

نحن نفسر اللغة عبر الاعتماد على كل ما نعرفه (أو نفترضه) عن الشخص الذي نطق الكلمات، وعلى الأرضية المشتركة بيننا وبينه، ثم نبدأ في استخلاص نيّات المتكلم. ونتولى إنجاز هذا الأمر على نحو تلقائي. لذا، عندما نصادف نصاً أنتجته أنظمة ذكية، فإننا نتعامل معه كما لو أن هناك عقلاً بشرياً خلَّفه، رغم عدم وجود عقل هناك أصلاً.

بمعنى آخر، فإن المهارات اللغوية والاجتماعية التي نُسقطها على النص المُنتَج من الذكاء الاصطناعي، تجعل من السهل على مروِّجي هذه التقنيات خداعنا لنعتقد أن برامج الدردشة كيانات عاقلة.

02- > الذكاء الاصطناعي لن يستحوذ على وظيفتك، لكنه سيجعلها أسوأ بكثير: في الغالب، تسعى تقنيات الذكاء الاصطناعي إلى إخراج الإنسان من معادلة العمل.

وهنا يبرز إضراب نقابة «كتّاب أميركا» عام 2023 مثالاً على ذلك، مع إعلان كتّاب السيناريو في هوليوود الإضراب عن العمل للمطالبة بعدة أمور، منها رفع أجورهم من شركات البث. إلا أن خلف هذه المطالب، كان هناك كذلك قلق عميق إزاء الاستعانة بالذكاء الاصطناعي في كتابة السيناريوهات، مما يهدد جودة العمل، ويجعل بيئة العمل أكثر ضغطاً وأقل احتراماً للمهارات البشرية.

كما أراد الكتّاب التأكد من أنهم لن يُجبروا على لعب دور مربّي الأطفال لأنظمة الدردشة الإلكترونية، التي يُكلفها المنتجون بكتابة سيناريوهات مبنية على أفكار ساذجة أو غير ناضجة مستوحاة من صناع السينما والتلفزيون.

في هذا الصدد، أشار جون لوبيز، عضو فريق العمل المعنيّ بالذكاء الاصطناعي داخل «نقابة الكتّاب»، إلى إمكانية حصول الكتّاب على أجر التعديلات فقط، عند تعاملهم مع محتوى ناتج عن الذكاء الاصطناعي، وهو أجر أقل بكثير من أجر كتابة سيناريو أصلي.

لقد رأينا بالفعل كيف أدّت أدوات توليد الصور والنصوص، إلى تقليص كبير في فرص العمل أمام مصممي الغرافيك، وفناني ألعاب الفيديو، والصحافيين. ولا يرجع ذلك إلى قدرة هذه الأدوات فعلاً على أداء مهام هؤلاء المحترفين بجودة عالية، بل لأنها تُنتج نتائج مقبولة بدرجة كافية لتقليص المهن، وإعادة توظيف العاملين مقابل أجور زهيدة، فقط ليقوموا بإصلاح مخرجات الذكاء الاصطناعي الرديئة.

وفوق ذلك، كثيراً ما تكون الأنظمة التي تُوصف بأنها «ذكاء اصطناعي» مجرد واجهات براقة تُخفي وراءها الاستراتيجية القديمة التي تعتمدها الشركات الكبرى، والمتمثلة في نقل وتحويل العمل إلى الأيدي العاملة في دول الجنوب العالمي.

وهؤلاء العمال -الذين غالباً ما يجري تجاهلهم- هم من يتولون مراجعة المحتوى عبر الإنترنت، واختبار أنظمة الدردشة للكشف عن المخرجات السامة، بل يقودون أحياناً المركبات التي يجري التسويق لها بوصفها ذاتية القيادة، عن بُعد.

ومع ذلك، يبقى هناك جانب مشرق يتمثل في نجاح بعض هؤلاء العمال من مقاومة هذا الاستغلال، سواء من خلال النشاط النقابي، أو من خلال ما يشبه التخريب الصناعي، مثل أدوات «نايتشيد» و«غليز» التي يستخدمها الفنانون لحماية أعمالهم من أن يجري استغلالها في تدريب نماذج توليد الصور، أو عبر التوعية السياسية.

إبعاد الناس عن تقديم الخدمات الاجتماعية

03- > الهدف من خدعة الذكاء الاصطناعي هو فصل الناس عن الخدمات الاجتماعية: نظراً لأننا نستخدم اللغة في كل مجالات النشاط البشري تقريباً، ولأن النص الاصطناعي الناتج عن هذه الأنظمة يمكن تدريبه على محاكاة اللغة، قد يبدو الأمر كأننا على وشك الحصول على تكنولوجيا قادرة على الاضطلاع بالتشخيص الطبي، وتقديم دروس تعليمية شخصية، واتخاذ قرارات حكيمة في توزيع الخدمات الحكومية، وتقديم استشارات قانونية، وغير ذلك -وكل ذلك مقابل تكلفة الكهرباء فقط (إضافة إلى ما تقرره الشركات المطورة من رسوم)... إلا أنه في كل هذه الحالات، ما يهم ليس مجرد الكلمات، بل التفكير الحقيقي وراءها، والعلاقات الإنسانية التي تساعدنا هذه الكلمات على بنائها والحفاظ عليها.

في الواقع، فإن أنظمة الذكاء الاصطناعي تخدم فقط أولئك الذين يريدون تحويل التمويل بعيداً عن الخدمات الاجتماعية، وتبرير سياسات التقشف. وفي الوقت نفسه، فإن أصحاب النفوذ سيحرصون على تلقي الخدمات من بشر حقيقيين، بينما يُفرض على باقي الناس نسخ رديئة من هذه الخدمات عبر أنظمة ذكية محدودة.

جدير بالذكر في هذا الصدد أن رئيس قسم الذكاء الاصطناعي الصحي في شركة «غوغل»، غريغ كورادو، صرّح بأنه لا يريد لنظام «ميد-بالم» Med-PaLM system التابع للشركة أن يكون جزءاً من رحلة الرعاية الصحية لعائلته. ورغم ذلك، فإن هذا لم يمنعه من التفاخر بأن النظام نجح في اجتياز اختبار ترخيص طبي -وهو في الحقيقة لم يفعل. والأهم من ذلك أن تصميم أنظمة تجتاز اختبارات متعددة حول المواقف الطبية، ليس وسيلة فعالة لبناء تكنولوجيا طبية مفيدة.

في هذه المجالات، تبدو الضجة حول الذكاء الاصطناعي أقرب إلى كونها ادعاءات زائفة عن حلول تكنولوجية لمشكلات اجتماعية، تستند -في أفضل الأحوال- إلى تقييمات مشكوك فيها ولا أساس لها من الصحة للأنظمة التي يجري بيعها.

04- > الذكاء الاصطناعي لن يقتلنا جميعاً، لكن التغييرات المناخية قد تفعل: في وقتٍ من الأوقات في «وادي السيليكون» وواشنطن العاصمة، دار تساؤل غريب، لكنه خطير، في أوساط العاملين في مجال التكنولوجيا أو السياسات التقنية: «ما احتمال الهلاك؟»، والمقصود به تقدير احتمالية أن يؤدي الذكاء الاصطناعي إلى القضاء على البشرية جمعاء؟

ويقوم هذا النوع من التفكير الكارثي على فكرة تطوير ذكاء عام اصطناعي -أي نظام يمكنه أداء مجموعة واسعة من المهام بقدرة تساوي أو تتفوق على قدرة الإنسان.

الحقيقة أن مفهوم «الذكاء العام الاصطناعي» مبهم وغير محدَّد بدقة، ومع ذلك فإن فكرة الهلاك تحظى بشعبية لدى بعض التقنيين وصناع السياسات. ويرتكز هذا التوجّه على آيديولوجيات مثيرة للقلق، مثل «الإيثار الفعّال effective altruism»، و«الاهتمام بالمستقبل البعيد longtermism»، و«العقلانية rationalism»، وهي كلها تيارات تستند إلى فلسفة النفعية، لكن تأخذها إلى أقصى حدودها، إذ تدعو إلى تقليل أهمية الأذى الحالي بحجة إنقاذ مليارات البشر الذين قد يعيشون في مستقبل غير محدد. وتنبع هذه الآيديولوجيات من أفكار انتقائية وتمييزية في جوهرها ونتائجها.

في الوقت ذاته، نحن على وشك الفشل في تحقيق هدف «اتفاقية باريس»، المتمثل في الحد من ارتفاع درجة حرارة الأرض إلى أقل من درجتين مئويتين فوق مستويات ما قبل الثورة الصناعية -والذكاء الاصطناعي يفاقم المشكلة.

تولِّد مراكز البيانات التي تستضيف هذه الأنظمة كميات هائلة من انبعاثات الكربون، والمكونات الإلكترونية المستخدمة في صناعتها تُسرّب مواد كيميائية سامة تدوم إلى الأبد في التربة، والمولدات الاحتياطية التي تُستخدم لدعمها تسهم في زيادة أمراض الجهاز التنفسي، خصوصاً داخل المناطق الأكثر فقراً في الولايات المتحدة وخارجها. وبالتالي، الروبوتات لن تسيطر على العالم، لكن تصنيعها قد يُفاقم أزمة المناخ بشكل خطير.

05- إجبار الإنسان على التنازل عن اختياراته

5. لا شيء من هذا محتوم: أولئك الذين يبيعون أنظمة الذكاء الاصطناعي ويثيرون الضجة حولها يريدون منَّا أن نتنازل طواعيةً عن قدرتنا على الاختيار. يُقال لنا إن الذكاء الاصطناعي -أو حتى الذكاء العام الاصطناعي- أمر لا مفر منه، أو على الأقل إن أدوات مثل «تشات جي بي تي» أصبحت واقعاً دائماً، لكن الحقيقة أنْ لا شيء من هذا محتوم. الحقيقة أننا نملك القدرة على العمل، سواء بشكل جماعي أو فردي.

على المستوى الجماعي، يمكننا الدفع نحو إقرار قوانين تنظم استخدام تقنيات الذكاء الاصطناعي وتحمي العمال من أن تُستخدم هذه الأدوات ضدهم. ويمكننا المطالبة بعقود عمل تضمن بقاء السيطرة بأيدي البشر.

وعلى المستوى الفردي، يمكننا ببساطة أن نرفض استخدام أنظمة الذكاء الاصطناعي. يمكننا أن نكون مستهلكين ناقدين لهذه الأتمتة، نتفحص ما الذي تجري أتمتته، وكيف يجري تقييمه، ولماذا.

كما يمكننا أن نكون ناقدين للإعلام التقني، فنبحث عن الصحافة التي تحاسب أصحاب القوة وتكشف عن حقائق ما يجري.

وأخيراً، يمكننا -بل يجب علينا- أن نسخر من هذه الأنظمة باعتبار ذلك وسيلة للمقاومة، بأن نُظهر بشكل مرح وساخر مدى رداءة إنتاج هذه الآلات الصناعية.

*مجلة «فاست كومباني»

خدمات «تريبيون ميديا»


مقالات ذات صلة

بيانات الصوت البيومترية... هل تهدد الخصوصية في زمن الخوارزميات؟

تكنولوجيا تقنيات الذكاء الاصطناعي أصبحت قادرة على استخراج معلومات حساسة من الصوت دون علم المتحدث (أدوبي)

بيانات الصوت البيومترية... هل تهدد الخصوصية في زمن الخوارزميات؟

الصوت يحمل بيانات شخصية حساسة تكشف الصحة والمشاعر والهوية، ومع تطور تقنيات تحليل الكلام تزداد تحديات الخصوصية والحاجة لحمايتها بوعي وتشريعات.

نسيم رمضان (لندن)
تكنولوجيا تعتمد «تيك توك» بشكل متزايد على التقنيات الآلية لرصد وحذف غالبية المحتوى المخالف قبل الإبلاغ عنه من المستخدمين (رويترز)

«تيك توك» تحذف نحو 3.9 مليون محتوى مخالف في السعودية نهاية 2025

«تيك توك» تحذف أيضاً أكثر من 17.4 مليون مقطع فيديو مخالف في منطقة الشرق الأوسط وشمال أفريقيا.

نسيم رمضان (لندن)
تكنولوجيا «غوغل»: الميزة الجديدة داخل «جيميل» لا تستهدف محاربة الرسائل التسويقية (جيميل)

«غوغل» تطلق ميزة جديدة لتنظيم الاشتراكات البريدية في «جيميل»

ميزة إدارة الاشتراكات في «جيميل» تهدف لتنظيم الرسائل الترويجية وجمعها في صفحة واحدة مع إلغاء مباشر للاشتراك وتحسين الأمان والإنتاجية للمستخدمين يومياً.

عبد العزيز الرشيد (الرياض)
خاص يشكّل التصوير الجزيئي ركيزة أساسية في التحول الصحي لدعم الاكتشاف المبكر والطب الدقيق والرعاية الوقائية (شاترستوك)

خاص التصوير الجُزيئي كـ«بنية تحتية»: كيف يدعم التحول الصحي في السعودية؟

يتوسع التصوير الجزيئي في السعودية لدعم التشخيص المبكر والطب الدقيق، فيما يظل التنسيق والبنية التحتية والكوادر التحدي الأبرز، لا توفر الأجهزة فقط.

نسيم رمضان (لندن)
تكنولوجيا يسهم في تسريع إنجاز المهام اليومية وتقليل الأعمال الروتينية وتعزيز كفاءة الإنتاجية داخل بيئات العمل «كلود»

«كلود كوورك»... أداة جديدة تعتمد الذكاء الاصطناعي لتنفيذ المهام المكتبية

تقوم الأداة بتحليل المحتوى والتخطيط للتنفيذ ثم إتمام المهمة ورفع المخرجات في نفس المكان دون الحاجة لسلسلة من التعليمات التفصيلية.

عبد العزيز الرشيد (الرياض)

أمراض الشيخوخة المبكرة: كيف تتحكم الجينات في تغيّر الحمض النووي؟

أمراض الشيخوخة المبكرة: كيف تتحكم الجينات في تغيّر الحمض النووي؟
TT

أمراض الشيخوخة المبكرة: كيف تتحكم الجينات في تغيّر الحمض النووي؟

أمراض الشيخوخة المبكرة: كيف تتحكم الجينات في تغيّر الحمض النووي؟

لطالما حيّر هذا السؤال العلماءَ والأطباء: لماذا يُصاب بعض الأشخاص بأمراض مرتبطة بالتقدم في السن في وقت أبكر من غيرهم حتى عندما تبدو أنماط حياتهم متشابهة؟

اختلال الحمض النووي والشيخوخة

• دراسة جينية واسعة. تشير دراسة جينية واسعة النطاق إلى أن جزءاً مهماً من الإجابة قد يكون مخبوءاً في أعماق حمضنا النووي نفسه. فحسب نتائج الدراسة تلعب الجينات دوراً محورياً في تحديد سرعة عدم استقرار بعض أجزاء الحمض النووي مع التقدم في العمر، وهي عملية صامتة قد ترفع خطر الإصابة بأمراض خطيرة على المدى الطويل.

الدراسة التي قادها باحثون من جامعة كاليفورنيا في لوس أنجليس ومعهد برود وكلية الطب بجامعة هارفارد في الولايات المتحدة ونُشرت في مجلة Nature بتاريخ 7 يناير (كانون الثاني) 2026 حلّلت بيانات وراثية لأكثر من 900 ألف شخص، ما يجعلها واحدة من أوسع الدراسات التي أُجريت حتى اليوم لفهم التغيرات الجينية المرتبطة بالشيخوخة. وكشف الباحثون أن بعض الاختلافات الجينية قد تُسرّع أو تُبطئ تمدد تسلسلات وراثية متكررة في الحمض النووي بما يصل إلى أربعة أضعاف وهو تفاوت كبير يكفي للتأثير في خطر الإصابة بالأمراض على امتداد حياة الإنسان.

• ما هي تكرارات الحمض النووي، وما أهميتها؟ يتكوّن جزء كبير من الجينوم البشري من تسلسلات قصيرة من الحمض النووي تتكرر مرات عديدة تُعرف باسم تكرارات الحمض النووي DNA repeats وتبقى هذه التكرارات مستقرة نسبياً لدى معظم الناس لكن في بعض الحالات تبدأ بالازدياد طولاً مع مرور الوقت، وهي عملية تُسمى تمدّد التكرارات repeat expansion، وعندما يتجاوز هذا التمدد حداً معيناً فإنه قد يعطّل الوظائف الطبيعية للخلايا ويؤدي إلى ظهور أمراض خطيرة.

اضطرابات وراثية

وقد تعرف العلماء اليوم على أكثر من 60 اضطراباً وراثياً ناتجاً عن تمدد تكرارات الحمض النووي من بينها أمراض مدمّرة مثل داء هنتنغتون Huntington’s disease (هو مرض تنكسي عصبي مميت وعادة ما يكون وراثياً). والحثل العضلي التوتري myotonic dystrophy (مجموعة من الاضطرابات الوراثية التي تسبب فقدان العضلات وضعفها التدريجي) وبعض أشكال التصلّب الجانبي الضموري amyotrophic lateral sclerosis (ALS).

ورغم معرفة العلماء منذ سنوات بأن تكرارات الحمض النووي قد تزداد طولاً مع الزمن فإن مدى انتشار هذه الظاهرة في الجينوم البشري والعوامل الجينية التي تتحكم بها لم يكن مفهوماً بالكامل حتى الآن. وتوضح الدكتورة مارغو هوجويل، الباحثة الرئيسية في الدراسة من قسم علم الوراثة في كلية الطب بمستشفى بريغهام والنساء وكلية الطب بجامعة هارفارد الأميركية، أن النتائج تُظهر أن تمدد التكرارات ليس حدثاً نادراً يقتصر على عدد محدود من الأمراض بل هو سمة شائعة ترافق التقدم في العمر لدى البشر.

• أدوات تحليلية لبيانات ضخمة. وقد اعتمد الباحثون في دراستهم على بيانات التسلسل الكامل للجينوم من مصدرين ضخمين نحو 490 ألف مشارك من بنك المملكة المتحدة الحيوي UK Biobank وأكثر من 414 ألف مشارك من برنامج All of Us البحثي في الولايات المتحدة. وقد أتاح هذا الحجم الهائل من البيانات فرصة فريدة لرصد كيفية تغيّر الحمض النووي مع العمر لدى مجموعات بشرية واسعة ومتنوعة.

وطوّر الفريق أدوات حسابية جديدة قادرة على قياس أطوال تكرارات الحمض النووي باستخدام بيانات التسلسل الجيني القياسية. وتم تحليل أكثر من 356 ألف موقع لتكرارات متعددة الأشكال في الجينوم مع تتبّع تغيّر أطوالها مع التقدم في العمر في خلايا الدم وتحديد المتغيرات الجينية التي تؤثر في سرعة هذا التمدد. كما بحث القائمون على الدراسة عن روابط بين تمدد التكرارات وآلاف الحالات المرضية، ما قاد إلى اكتشافات جديدة وغير متوقعة.

• الجينات واستقرار الحمض النووي. من أبرز نتائج الدراسة أن للعوامل الوراثية تأثيراً قوياً في معدل تمدد التكرارات. فقد حدد الباحثون 29 موقعاً جينياً تؤثر فيها المتغيرات الموروثة في سرعة هذا التمدد؛ بحيث قد يصل الفرق بين الأفراد الأعلى والأدنى خطراً وراثياً إلى أربعة أضعاف.

وكان اللافت أن العديد من هذه المتغيرات تقع في جينات مسؤولة عن إصلاح الحمض النووي، وهي الآليات التي تحافظ عادةً على سلامة المادة الوراثية. إلا أن التأثير لم يكن موحداً ففي بعض الحالات كانت المتغيرات نفسها تُثبّت بعض التكرارات بينما تزيد من عدم استقرار تكرارات أخرى. ويشير ذلك إلى أن إصلاح الحمض النووي عملية معقدة قد تؤدي إلى نتائج مختلفة تبعاً للسياق الجيني ونوع الخلية.

• اكتشاف خطر مرضي جديد وآفاق علاجية. ومن أكثر النتائج إثارة اكتشاف تمدد تكرارات في جين يُعرف باسم GLS. ورغم أن هذا التمدد نادر نسبياً، إذ يصيب نحو 0.03 في المائة من السكان فقد ارتبط بزيادة خطر الإصابة بمرض كلوي شديد بمقدار 14 مرة وبزيادة خطر أمراض الكبد بنحو ثلاثة أضعاف. ولم يكن هذا الارتباط معروفاً من قبل، ما يشير إلى احتمال وجود اضطرابات أخرى ناتجة عن تمدد التكرارات ما تزال مخفية في قواعد البيانات الجينية.

ولا تقتصر أهمية هذه النتائج على الفهم العلمي فحسب، بل تمتد إلى تطوير العلاجات. فبما أن تمدد التكرارات يحدث تدريجياً مع الزمن، فإن إبطاء هذه العملية قد يؤخر ظهور المرض أو يخفف حدته. وتفتح هذه الدراسة الباب أمام استخدام قياسات تكرارات الحمض النووي في الدم كمؤشرات حيوية لتقييم فاعلية العلاجات المستقبلية وتقريب الطب خطوة إضافية نحو التدخل المبكر في مسارات الشيخوخة الجزيئية نفسها.


روبوتات اجتماعية تعزز فاعلية العلاج النفسي

الروبوتات قد تسهم في تنمية قدرات الأطفال (جمعية A3 لتقدم الأتمتة)
الروبوتات قد تسهم في تنمية قدرات الأطفال (جمعية A3 لتقدم الأتمتة)
TT

روبوتات اجتماعية تعزز فاعلية العلاج النفسي

الروبوتات قد تسهم في تنمية قدرات الأطفال (جمعية A3 لتقدم الأتمتة)
الروبوتات قد تسهم في تنمية قدرات الأطفال (جمعية A3 لتقدم الأتمتة)

مع الطفرة اللافتة للذكاء الاصطناعي، تزايد الاهتمام بتوظيف هذه التكنولوجيا في المجال النفسي، لا سيما الروبوتات الاجتماعية التي تتميز بقدرتها على التفاعل مع البشر بطريقة آمنة. ويُعد دمج هذه الروبوتات في التدخلات النفسية، خصوصاً للأطفال المصابين باضطراب طيف التوحد، من الاتجاهات الحديثة الهادفة إلى تعزيز التعلم الاجتماعي، وتنمية المهارات التفاعلية، وزيادة انخراط الأطفال في الجلسات العلاجية.

وسلّطت دراسة دولية بقيادة جامعة لينشوبينغ السويدية الضوء على أحدث التجارب السريرية في هذا المجال، مستهدفة تقييم فعالية الروبوتات الاجتماعية مقارنة بالطرق العلاجية التقليدية، بهدف تقديم إطار واضح لتوظيف هذه التكنولوجيا بشكل فعّال ومستدام في الممارسات العلاجية.

روبوتات للمصابين بالتوحد

وأظهرت الدراسة، التي أُجريت على أطفال مصابين بالتوحد باستخدام روبوت محمول مناسب للاستخدام في المنزل أو المدرسة، أن العلاج بمساعدة الروبوتات يحقق نتائج تعادل العلاج النفسي التقليدي، مع ميزة إضافية تمثلت في زيادة ملحوظة في مستوى انخراط الأطفال وانتباههم، ونُشرت النتائج، بعدد 24 ديسمبر (كانون الأول) الماضي، من دورية «Science Robotics».

وتؤكد النتائج فاعلية الروبوتات في تنمية قدرات التقليد والانتباه المشترك وتبادل الأدوار، إلى جانب تعزيز اهتمام الأطفال وتقليل فقدان التركيز أثناء جلسات التدريب، ما يسهم في تحسين جودة التجربة العلاجية ورفع مستوى فاعليتها.

يقول الدكتور توم زيمكه، أستاذ النظم المعرفية في مختبر الإدراك والتفاعل بجامعة لينشوبينغ، والباحث الرئيسي في الدراسة، إن الهدف الأساسي من البحث كان تقييم منهجية العلاج بمساعدة الروبوتات للأطفال المصابين باضطراب طيف التوحد، من خلال تجربتين سريريتين.

وأوضح زيمكه في تصريح لـ«الشرق الأوسط»: «التجربة الأولى أُجريت في بيئة مختبرية محكومة بدقة، بينما تم في الثانية اختبار نسخة أبسط وقابلة للنقل من هذا العلاج داخل المدارس، مشيراً إلى أن النتائج كانت واعدة في الحالتين».

وأضاف: «نتائج التجربة الأولى أظهرت أن العلاج بمساعدة الروبوتات حقق فعالية مماثلة للعلاج التقليدي، مع زيادة ملحوظة في مستوى تفاعل الأطفال، في حين بيّنت الثانية أن النسخة المبسطة من العلاج الروبوتي كانت بكفاءة العلاج التقليدي نفسها، ما يبرز إمكانات استخدام تقنيات محمولة ومنخفضة التكلفة في البيئات المدرسية أو المنزلية».

ووفقاً لزيمكه، فإن التدخلات النفسية المعتمدة على الروبوتات تسهم في تقليل العبء الواقع على المعالجين البشر بشكل ملحوظ، من خلال أتمتة بعض المهام العلاجية المتكررة وتوفير دعم منظم ومستمر لجلسات العلاج، بما يتيح للمعالجين التركيز بصورة أكبر على الجوانب التحليلية والإنسانية للتدخل العلاجي. كما تتميز هذه التدخلات بقدرتها العالية على جذب انتباه الأطفال وتحفيزهم على التفاعل، بفضل طابعها التفاعلي والتقني، ما يعزز المشاركة الفاعلة ويحسن استجابة الأطفال للعلاج.

وأشار إلى أن هذا النوع من العلاج لا يحقق نتائج مماثلة للعلاج التقليدي فحسب، بل يتفوق عليه في قدرته على إشراك الأطفال وتحفيزهم على التفاعل المستمر، إلى جانب إتاحة إمكانية نقل هذه التقنيات من البيئات البحثية إلى الواقع العملي في المدارس أو المنازل، عبر نماذج مبسطة ومحمولة ومنخفضة التكلفة، ما يوسع نطاق التدخلات النفسية ويحسن فرص الوصول إلى العلاج.

العلاج بمساعدة الروبوتات حقق فعالية مماثلة للعلاج التقليدي للتوحد (جامعة لينشوبينغ)

تخفيف الضغوط

تُستخدم الروبوتات الاجتماعية بوصفها أداة داعمة للتفاعل الاجتماعي وتقديم الدعم العاطفي، بما يسهم في تقليل الشعور بالوحدة والعزلة لدى مقدّمي الرعاية، لا سيما من يعتنون بكبار السن أو الأشخاص ذوي الإعاقة. وقد أظهرت دراسات حديثة أن التفاعل المنتظم مع هذه الروبوتات يمكن أن يحسّن المزاج ويخفف من مستويات التوتر والإرهاق النفسي المرتبط بأعباء الرعاية المستمرة.

وفي هذا السياق، أجرى باحثون بجامعة موناش في أستراليا تجربة اعتمدت على محادثات منتظمة بين مقدّمي الرعاية وروبوت اجتماعي مثل «بيبر» (Pepper). وكشفت النتائج أن التفاعل مع الروبوت مرتين أسبوعياً على مدار خمسة أسابيع أتاح مساحة آمنة للتعبير عن المشاعر، وأسهم في تقليل الشعور بالوحدة والإجهاد، وتحسين الحالة المزاجية للمشاركين.

وأظهرت الدراسة أن هذا النوع من الدعم النفسي المستمر يساعد مقدّمي الرعاية على تنظيم عواطفهم والتعامل بشكل أفضل مع الضغوط اليومية، ما يعكس إمكانات الروبوتات الاجتماعية باعتبارها وسيلة مساندة فعالة لتخفيف الأعباء النفسية والعاطفية المصاحبة لدور الرعاية.

دعم الأطفال

تشير مراجعات بحثية إلى أن الروبوتات الاجتماعية يمكن أن تلعب دوراً داعماً في تخفيف التوتر والقلق لدى الأطفال أثناء الإجراءات الطبية المؤلمة، ما يسهم في تحسين تجربتهم النفسية داخل المستشفيات.

وفي دراسة أجرتها جامعة سنغافورة الوطنية، جرى تحليل بيانات لأطفال تتراوح أعمارهم بين عام واحد و12 عاماً خضعوا لإجراءات طبية وتلقوا تدخلات باستخدام روبوتات اجتماعية. وأظهرت النتائج أن هذه الروبوتات كانت فعالة في خفض مستويات التوتر والانزعاج، وأسهمت في تقليل القلق لدى الأطفال المرضى أثناء العلاج. وخلصت الدراسة إلى أن إدماج الروبوتات الاجتماعية في بروتوكولات رعاية الأطفال يمكن أن يعزز الرفاهية النفسية، ويجعل التجربة الطبية أقل إجهاداً للأطفال وأولياء أمورهم.

رعاية كبار السن

أظهرت دراسة أُجريت في مستشفى بروكا بفرنسا أن إدماج الروبوتات الاجتماعية في رعاية كبار السن، خاصة المصابين باضطرابات معرفية عصبية مثل الخرف، يحقق فوائد واضحة في تحسين التفاعل الاجتماعي والمزاج. وتُستخدم هذه الروبوتات، سواء الشبيهة بالبشر مثل «ناو» (NAO) أو الشبيهة بالحيوانات الأليفة مثل «بارو» (PARO)، لدعم التفاعل الاجتماعي وتنشيط القدرات الذهنية والجسدية، وتقديم معلومات صحية، فضلاً عن دورها بوصفها وسيطاً بين المستفيدين والمعالجين. وقد أثبتت هذه التقنيات فعاليتها في تحسين الرفاهية النفسية لدى كبار السن، لا سيما في بيئات الرعاية طويلة الأمد، مما يعزز مكانتها باعتبارها أدوات مساندة بأنظمة الرعاية الصحية والاجتماعية الحديثة.


عام 2026... حين يخطئ الذكاء الاصطناعي في الطب

عام 2026... حين يخطئ الذكاء الاصطناعي في الطب
TT

عام 2026... حين يخطئ الذكاء الاصطناعي في الطب

عام 2026... حين يخطئ الذكاء الاصطناعي في الطب

لم يعد الذكاء الاصطناعي في الطب فكرةً مؤجَّلة تُناقَش في المؤتمرات أو تُحصر في أدبيات الخيال العلمي، بل أصبح جزءاً حيّاً من الممارسة اليومية داخل المستشفيات الحديثة... خوارزميات تُحلّل الصور الشعاعية، تقرأ تخطيط القلب، تُراجع السجلات الطبية، وتُقدّم اقتراحات تشخيصية أولية خلال ثوانٍ. غير أن سؤالاً جوهرياً ظلّ طويلاً خارج دائرة الضوء حتى مطلع عام 2026: ماذا يحدث عندما يخطئ الذكاء الاصطناعي... طبياً؟

هذا السؤال أعادته إلى الواجهة دراسة علمية حديثة، نُشرت في 2 يناير (كانون الثاني) 2026، على منصة مستودع أبحاث الذكاء الاصطناعي والعلوم الحاسوبية arXiv، أعدّها فريق بحثي مشترك من Stanford University وHarvard University، وحملت عنواناً لافتاً: «أولاً... لا تُلحق ضرراً: نحو نماذج ذكاء اصطناعي آمنة سريرياً في الطب».

وتُعدّ هذه الدراسة من أوائل الأبحاث التي لا تكتفي بتقييم أداء الذكاء الاصطناعي من حيث الدقة أو سَعة المعرفة، بل تتقدّم خطوة أبعد لتطرح سؤال الأمان السريري نفسه: هل تبقى هذه النماذج آمنة بالفعل عندما تُستخدم في قرارات طبية قد تمس حياة المرضى مباشرة؟

من الاختبار النظري إلى الواقع السريري

• تقييم النماذج : اعتمد الباحثون في دراستهم على تقييم 31 نموذجاً متقدماً من نماذج الذكاء الاصطناعي الطبية، كان معظمها من فئة النماذج اللغوية الكبيرة، وذلك عبر 100 حالة سريرية حقيقية شملت عشرة تخصصات طبية مختلفة. ولم يكن الهدف اختبار «ذكاء» النموذج أو سَعة معرفته النظرية، بل قياس احتمال إلحاقه ضرراً بالمريض إذا استُخدم أداةً لدعم القرار الطبي في الممارسة الفعلية.

ولتحقيق هذا الهدف، طوّر الفريق البحثي مقياساً جديداً لسلامة الذكاء الاصطناعي في الطب يركّز على تقدير المخاطر السريرية المحتملة بدل الاكتفاء بمؤشرات الأداء التقنية الشائعة، التي كثيراً ما تعجز عن التقاط تبعات القرار الطبي في السياق الحقيقي.

• نتيجة صادمة :وكانت النتيجة التي أثارت الانتباه واضحة وصادمة في آنٍ واحد: نحو 22 في المائة من التوصيات التي قدّمتها النماذج احتوت على أخطار سريرية محتملة؛ أي أن واحدة تقريباً من كل خمس توصيات قد تُعرّض المريض لأذى فعلي، إذا طُبّقت دون مراجعة بشرية دقيقة.

غير أن المفارقة الأهم لم تكن في الأخطاء الصريحة، بل فيما لم يُقَل. فقد أظهرت الدراسة أن عدداً كبيراً من النماذج أخفق في اقتراح فحوص أساسية أو إجراءات تشخيصية حاسمة، كان من شأنها تغيير مسار العلاج أو منع مضاعفات خطيرة.

في الطب، يُعد هذا النوع من الخطأ أخطر من الخطأ المباشر؛ لأنه لا يُلاحَظ بسهولة، ولا يثير الشكوك فوراً، وقد يمرّ في صمت... إلى أن تظهر نتائجه متأخرة على جسد المريض.

• لماذا يخطئ الذكاء الاصطناعي رغم «تفوقه»؟ تُظهر الدراسة أن الأداء المرتفع في اختبارات الذكاء أو المعرفة الطبية لا يترجَم بالضرورة إلى أداءٍ آمنٍ سريرياً. فقد بيّنت النتائج أن بعض النماذج التي حققت درجات ممتازة في اختبارات معيارية معروفة لم تكن أكثر أماناً من غيرها عند التعامل مع حالات سريرية حقيقية، بل وقعت أحياناً في أخطاء ذات أثر محتمل على حياة المرضى.

ويرى الباحثون أن جوهر المشكلة لا يكمن في نقص المعلومات، بل في غياب ما يمكن تسميته «القلق الطبي». فالذكاء الاصطناعي لا يشعر بثقل المسؤولية، ولا يدرك أن إغفال فحص بسيط قد يعني تأخير تشخيص سرطان، أو تفويت نافذة زمنية حاسمة لإنقاذ حياة. إنه يُجيد الإجابة... لكنه لا يعرف معنى العواقب.

أداة دعم... وليست طبيباً بديلاً

لا تدعو الدراسة إلى إقصاء الذكاء الاصطناعي من الممارسة الطبية، بل على العكس، تؤكد قيمته المتزايدة بصفته أداة دعم فعّالة تساعد الأطباء على تنظيم كمّ هائل من المعلومات وتسريع عمليات التحليل والاستدلال، لكنها تشدّد، في الوقت نفسه، على ضرورة إبقاء الإنسان في الحلقة النهائية لاتخاذ القرار الطبي.

فالطبيب لا يقرأ البيانات فحسب، بل يفسّر السياق الإكلينيكي، ويُقدّر المخاطر الفردية، ويتحمّل المسؤولية الأخلاقية والقانونية عن قراره. وهي عناصر جوهرية لا تزال خارج نطاق الخوارزميات، مهما بلغت درجة تطورها أو دقّة مُخرجاتها.

في عام 2026، يقف الذكاء الاصطناعي الطبي عند مرحلة مفصلية، فالإمكانات التقنية تتقدّم بوتيرة متسارعة، بينما لا تزال السلامة السريرية تتطلّب معايير أدق، وتشريعات أوضح، وتدريباً مهنياً يضمن توظيف هذه الأدوات دون أن تتحوّل، من حيث لا نريد، إلى مصدر خطر غير مقصود.

ولا تُغلق هذه الدراسة الباب أمام الذكاء الاصطناعي في الطب، لكنها تضع عند عتبته لافتة تحذير علمية واضحة: السرعة ليست بديلاً عن السلامة، والدقّة الحسابية ليست مرادفاً للحكمة الطبية. ففي الطب، كما في الحياة، لا يكفي أن نعرف أكثر... بل أن نقرّر بحذرٍ إنساني.

يعيد هذا البحث طرح قاعدة طبية ضاربة في التاريخ، لكن بصيغة رقمية معاصرة: أولاً... لا تُلحق ضرراً. فالذكاء الاصطناعي، رغم قدرته على تغيير ملامح الطب وتسريع القرار السريري، ينبغي ألا يُمنح حصانة أخلاقية، ولا أن يُترك خارج دائرة المحاسبة. والسرعة ليست بديلاً عن السلامة، والدقة الحسابية لا تُغني عن الحكمة الطبية التي تُدرك العواقب قبل النتائج.

وحتى إشعار آخر، سيبقى القرار الطبي الحقيقي قراراً إنسانياً في جوهره، تُساعده الخوارزميات على الرؤية... لكنها لا تحلّ محلّ الضمير.