كيف يُسهم الذكاء الاصطناعي ووسائل التواصل الاجتماعي في «تعفّن الدماغ»

أبحاث عالمية تشير إلى دورهما في تدهور الإدراك والمعرفة

كيف يُسهم الذكاء الاصطناعي ووسائل التواصل الاجتماعي في «تعفّن الدماغ»
TT

كيف يُسهم الذكاء الاصطناعي ووسائل التواصل الاجتماعي في «تعفّن الدماغ»

كيف يُسهم الذكاء الاصطناعي ووسائل التواصل الاجتماعي في «تعفّن الدماغ»

ربيع العام الماضي، كلفت شيري ميلوماد، الأستاذة في كلية وارتون بجامعة بنسلفانيا، مجموعة من 250 شخصاً بمهمة كتابة بسيطة: التشارك بنصائح مع صديق حول كيفية اتباع نمط حياة صحي. وللتوصل إلى هذه النصائح، سُمح للبعض باستخدام بحث (غوغل) التقليدي، بينما اعتمد آخرون فقط على ملخصات المعلومات المُولّدة تلقائياً باستخدام الذكاء الاصطناعي من «غوغل».

ملخصات الذكاء الاصطناعي عامة وغير مفيدة

كتب الأشخاص الذين استخدموا الملخصات المُولّدة بالذكاء الاصطناعي نصائح عامة، وواضحة، وغير مفيدة إلى حد كبير -تناول أطعمة صحية، وحافظ على رطوبة جسمك، واحصل على قسط كافٍ من النوم! أما الأشخاص الذين وجدوا معلومات من خلال بحث «غوغل» التقليدي على الويب، فقد تشاركوا بنصائح أكثر تفصيلاً ركزت على مختلف ركائز الصحة، بما في ذلك الصحة البدنية، والعقلية، والعاطفية.

المعتمدون على الذكاء الاصطناعي لهم أداء أسوأ

يخبرنا قادة صناعة التكنولوجيا أن برامج الدردشة الآلية وأدوات البحث الجديدة المدعومة بالذكاء الاصطناعي ستُعزز طريقة تعلمنا وازدهارنا، وأن أي شخص يتجاهل هذه التكنولوجيا يُخاطر بالتخلف عن الركب. لكن تجربة ميلوماد، كغيرها من الدراسات الأكاديمية المنشورة حتى الآن حول تأثيرات الذكاء الاصطناعي على الدماغ، وجدت أن الأشخاص الذين يعتمدون بشكل كبير على برامج الدردشة الآلية وأدوات البحث المدعومة بالذكاء الاصطناعي في مهام مثل كتابة المقالات والأبحاث، يُحققون أداءً أسوأ عموماً من الأشخاص الذين لا يستخدمونها.

وقالت ميلوماد: «أنا خائفة جداً، بصراحة. أنا قلقة بشأن عدم معرفة الشباب بكيفية إجراء بحث تقليدي على (غوغل)».

أهلاً بكم في عصر «تعفن الدماغ»

وهذا المصطلح «عامّ» لوصف الحالة العقلية المتدهورة نتيجة الانخراط في محتوى إنترنت رديء الجودة. وعندما اختارت مطبعة جامعة أكسفورد، الجهة الناشرة لقاموس أكسفورد الإنجليزي، مصطلح «تعفن الدماغ» (brain rot) كلمة العام لعام 2024، كان هذا التعريف يشير إلى الكيفية التي يؤدي فيها إدمان تطبيقات التواصل الاجتماعي، مثل «تيك توك» و«إنستغرام»، ومشاهدة مقاطع الفيديو القصيرة، وتأثيرها على الأطعمة، ما حوّل أدمغة المستخدمين إلى «هريس».

هل تُضعف التكنولوجيا الناس؟

هذا سؤالٌ قديمٌ بقدم التكنولوجيا نفسها. فقد انتقد سقراط اختراع الكتابة لإضعافه الذاكرة البشرية. وفي عام 2008، أي قبل سنوات عديدة من ظهور ملخصات الويب المُولّدة بالذكاء الاصطناعي، نشرت مجلة «ذا أتلانتيك» مقالاً بعنوان: «هل يجعلنا «غوغل» أغبياء؟». لكن تبيّن أن هذه المخاوف مُبالغ فيها.

إلا أن الحذر المتزايد في الأوساط الأكاديمية من تأثير الذكاء الاصطناعي على التعلم (بالإضافة إلى المخاوف القديمة بشأن الطبيعة المُشتتة للانتباه لتطبيقات التواصل الاجتماعي) يُمثّل خبراً مُقلقاً لبلدٍ يشهد أداؤه في فهم المقروء تراجعاً حاداً بالفعل.

مستويات قراءة متدنية لدى الأطفال والمراهقين الأميركيين

هذا العام، وصلت درجات القراءة بين الأطفال، بمن فيهم طلاب الصف الثامن وطلاب المرحلة الثانوية، إلى مستويات متدنية جديدة. وكانت النتائج، التي جُمعت من التقييم الوطني للتقدم التعليمي، الذي لطالما اعتُبر الامتحان الأكثر موثوقيةً في البلاد، هي الأولى من نوعها التي تُنشر منذ أن عطّلت جائحة كوفيد-19 التعليم، وزادت من وقت استخدام الشاشات بين الشباب.

يخشى الباحثون من تزايد الأدلة على وجود صلة قوية بين انخفاض الأداء الإدراكي والذكاء الاصطناعي ووسائل التواصل الاجتماعي. بالإضافة إلى الدراسات الحديثة التي وجدت علاقة بين استخدام أدوات الذكاء الاصطناعي والتدهور المعرفي، وجدت دراسة جديدة أجراها أطباء أطفال أن استخدام وسائل التواصل الاجتماعي يرتبط بضعف الأداء لدى الأطفال الذين يخضعون لاختبارات القراءة والذاكرة واللغة.

وفيما يلي ملخص للأبحاث التي أُجريت حتى الآن، وكيفية استخدام الذكاء الاصطناعي بطريقة تُعزز الدماغ -لا تُضعفه.

عندما نكتب باستخدام «تشات جي بي تي»... هل نحن نكتب حقاً؟

صدرت الدراسة الأبرز هذا العام حول تأثيرات الذكاء الاصطناعي على الدماغ عن معهد ماساتشوستس للتكنولوجيا، حيث سعى الباحثون إلى فهم كيفية تأثير أدوات مثل «جي بي تي» على طريقة كتابة الناس. كانت عينة الدراسة، التي شملت 54 طالباً جامعياً، صغيرة الحجم، لكن النتائج أثارت تساؤلات مهمة حول ما إذا كان الذكاء الاصطناعي يُمكن أن يُضعف قدرة الناس على التعلم.

في جزء من الدراسة، طُلب من الطلاب كتابة مقال يتراوح بين 500 و1000 كلمة، وقُسِّموا إلى مجموعات مختلفة: مجموعة تكتب بمساعدة «جي بي تي»، ومجموعة ثانية تبحث عن المعلومات فقط باستخدام محرك بحث «غوغل» التقليدي، ومجموعة ثالثة تعتمد فقط على أدمغتها في كتابة واجباتها.

مستخدمو «جي بي تي» الأسوأ أداء

ارتدى الطلاب أجهزة استشعار لقياس النشاط الكهربائي في أدمغتهم. وأظهر مستخدمو «جي بي تي» أدنى نشاط دماغي، وهو أمر غير مفاجئ، لأنهم كانوا يتركون روبوت الدردشة الذكي يقوم بالعمل.

لكن الاكتشاف الأبرز ظهر بعد أن أنهى الطلاب تمرين الكتابة. إذ وبعد دقيقة واحدة من إكمال مقالاتهم، طُلب من الطلاب اقتباس أي جزء من مقالهم. لم تتمكن الغالبية العظمى (83 في المائة) من مستخدمي «جي بي تي» من تذكر جملة واحدة.

في المقابل، استطاع الطلاب الذين يستخدمون محرك بحث «غوغل» اقتباس بعض الأجزاء، بينما استطاع الطلاب الذين لم يعتمدوا على أي تقنية قراءة الكثير من السطور، بل إن بعضهم اقتبسوا تقريباً كامل مقالاتهم حرفياً.

وقالت ناتاليا كوزمينا، الباحثة في مختبر الوسائط بمعهد ماساتشوستس للتكنولوجيا، التي قادت الدراسة، عن مستخدمي «جي بي تي»: بعد مرور دقيقة واحدة، لم يكن بإمكانهم قول أي شيء حقاً؟ إذا لم يتذكروا ما كتبوه، فلن يشعروا بالمسؤولية».

على الرغم من أن الدراسة ركزت على كتابة المقالات، فإن كوزمينا أعربت عن قلقها بشأن الآثار المترتبة على الأشخاص الذين يستخدمون روبوتات الدردشة التي تعمل بالذكاء الاصطناعي في المجالات التي يكون فيها الاحتفاظ بالمعلومات أمراً ضرورياً، مثل الطيار الذي يدرس للحصول على رخصة قيادة الطائرة. وقالت إن هناك حاجة ملحة لإجراء المزيد من الأبحاث حول كيفية تأثير الذكاء الاصطناعي على قدرة الناس على الاحتفاظ بالمعلومات.

استخدام وسائل التواصل الاجتماعي قد يرتبط بتدني درجات القراءة

على مدار العامين الماضيين، سارعت المدارس في ولايات مثل نيويورك وإنديانا ولويزيانا وفلوريدا إلى حظر استخدام الهواتف الجوالة في الفصول الدراسية، مشيرةً إلى مخاوف من تشتيت الطلاب لانتباههم بتطبيقات التواصل الاجتماعي، مثل «تيك توك» و«إنستغرام». وما يعزز هذا الحظر، دراسة نُشرت الشهر الماضي وجدت صلة قوية بين استخدام وسائل التواصل الاجتماعي وضعف الأداء الإدراكي.

في الشهر الماضي، نشرت المجلة الطبية «JAMA» دراسة أجرتها جامعة كاليفورنيا، سان فرنسيسكو. قام الدكتور جيسون ناجاتا، طبيب الأطفال الذي قاد الدراسة، وزملاؤه بفحص بيانات من مشروع ABCD، الخاص بالتطور المعرفي لدماغ المراهقين، وهو مشروع بحثي تابع أكثر من 6500 شاب وشابة تتراوح أعمارهم بين 9 و13 عاماً من عام 2016 إلى عام 2018.

وخضع جميع الأطفال لاستطلاع رأي مرة واحدة سنوياً حول مقدار الوقت الذي يستخدمون فيه وسائل التواصل الاجتماعي. وخضعوا لعدة اختبارات كل عامين. على سبيل المثال، تضمن اختبار المفردات البصرية مطابقة الصور بشكل صحيح مع الكلمات التي سمعوها.

تدهور المعرفة

أظهرت البيانات أن الأطفال الذين أفادوا باستخدامهم لوسائل التواصل الاجتماعي لفترات قصيرة (ساعة واحدة يومياً) أو لفترات طويلة (ثلاث ساعات على الأقل يومياً) سجلوا نتائج أقل بكثير في اختبارات القراءة والذاكرة والمفردات، مقارنةً بالأطفال الذين أفادوا بعدم استخدامها على الإطلاق.

أما عن سبب تأثير تطبيقات التواصل الاجتماعي -مثل «تيك توك» و«إنستغرام»- على نتائج الاختبارات، فإن الاستنتاج الوحيد المؤكد هو أن كل ساعة يقضيها الطفل في تصفح التطبيقات تُضيّع وقتاً على أنشطة أكثر إثراءً كالقراءة والنوم، وفقاً لناجاتا.

طرق صحية لتوظيف الذكاء الاصطناعي

ما أفضل الطرق الصحية لاستخدام وسائل التواصل الاجتماعي والذكاء الاصطناعي؟ على الرغم من وجود علاقة بين استخدام وسائل التواصل الاجتماعي والتدهور المعرفي، فإنه من الصعب التوصية بوقت مثالي أمام الشاشات للشباب، لأن الكثير من الأطفال يقضون وقتاً أمام الشاشات في أنشطة لا علاقة لها بوسائل التواصل الاجتماعي، مثل مشاهدة البرامج التلفزيونية، وفقاً لناجاتا.

بدلاً من ذلك، اقترح أن يفرض الآباء مناطق خالية من الشاشات، وأن يحظروا استخدام الهاتف في أماكن مثل غرفة النوم وطاولة الطعام، حتى يتمكن الأطفال من التركيز على دراستهم ونومهم ووجباتهم.

وبالنسبة لروبوتات الدردشة الذكية، برزت نقطة مثيرة للاهتمام في دراسة معهد ماساتشوستس للتكنولوجيا (MIT) تُقدم حلاً مُحتملاً لكيفية استخدام الناس لروبوتات الدردشة على أفضل وجه للتعلم والكتابة.

في النهاية، تبادلت المجموعات المشاركة في تلك الدراسة الأدوار: تمكّن من اعتمدوا على أدمغتهم فقط في الكتابة من استخدام «جي بي تي»، بينما تمكّن من اعتمدوا عليه سابقاً من استخدام أدمغتهم فقط. وكتب جميع الطلاب مقالات حول نفس المواضيع التي اختاروها سابقاً.

سجّل الطلاب الذين اعتمدوا في البداية على أدمغتهم فقط أعلى نشاط دماغي لهم بمجرد السماح لهم باستخدام «جي بي تي». أما الطلاب الذين استخدموا «جي بي تي» في البداية، فلم يكونوا على قدم المساواة مع المجموعة الأولى عندما قُيّدوا باستخدام أدمغتهم فقط، كما قالت كوزمينا.

التفكير في تنفيذ العمل أولاً ثم اللجوء إلى الذكاء الاصطناعي

يشير ذلك إلى أن الأشخاص الذين يتوقون لاستخدام روبوتات الدردشة للكتابة والتعلم يجب أن يفكروا في بدء العملية ليقوموا بها بأنفسهم قبل اللجوء إلى أدوات الذكاء الاصطناعي لاحقاً في العملية للمراجعة، على غرار طلاب الرياضيات الذين يستخدمون الآلات الحاسبة لحل المسائل فقط بعد استخدامهم القلم والورقة لتعلم الصيغ والمعادلات.

وقالت ميلوماد إن مشكلة هذه الأدوات تكمن في أنها حوّلت ما كان في السابق عملية نشطة في الدماغ -تصفح الروابط والنقر على مصدر موثوق للقراءة- إلى عملية سلبية من خلال أتمتة كل ذلك.

الذكاء الاصطناعي للإجابة عن التفاصيل وليس البحث عن الجوهر

لذا، ربما يكون مفتاح استخدام الذكاء الاصطناعي بطريقة أكثر صحة، كما قالت، هو محاولة أن نكون أكثر وعياً بكيفية استخدامنا له. وقالت ميلوماد إنه بدلاً من طلب إجراء جميع الأبحاث حول موضوع واسع، استخدمه على أنه جزء من عملية البحث الخاصة بك للإجابة عن أسئلة صغيرة، مثل البحث عن التواريخ التاريخية. ولكن للتعمق في موضوع ما، فكّر في قراءة كتاب.

* خدمة «نيويورك تايمز»


مقالات ذات صلة

الاقتصاد وحدة لجهاز طباعة ضوئية فوق بنفسجية فائقة الدقة من إنتاج «إيه إس إم إل» معروضة في مقر مختبر بحوث الرقائق البلجيكي (رويترز)

«إيه إس إم إل» الهولندية ترفع توقعات مبيعاتها لـ2026 إلى 40 مليار يورو

رفعت شركة «إيه إس إم إل» (ASML)، المورِّد الأكبر عالمياً لمعدات صناعة الرقائق، توقعاتها لإيرادات عام 2026.

«الشرق الأوسط» (أمستردام)
تكنولوجيا يؤكد تصدر السعودية لمراكز متقدمة عالمياً نجاح توجهات البلاد في بناء منظومة وطنية تنافسية (واس)

السعودية تحقق أعلى نمو عالمي في كفاءات الذكاء الاصطناعي

حققت السعودية، المرتبة الأولى عالمياً في الأمن والخصوصية والتشفير في الذكاء الاصطناعي وفقاً لـ«مؤشر ستانفورد 2026».

«الشرق الأوسط» (الرياض)
الاقتصاد جناح «أرامكو الرقمية» في ملتقى الحكومة الرقمية (موقع الشركة الإلكتروني)

شراكة بين «أرامكو الرقمية» و«كومولوسيتي» لتقديم حلول الذكاء الصناعي في الخليج

أعلنت شركة «أرامكو الرقمية» السعودية توقيع اتفاقية شراكة استراتيجية مع «كومولوسيتي» العالمية الرائدة في مجال الذكاء الصناعي للأشياء في القطاع الصناعي.

«الشرق الأوسط» (الظهران)
الاقتصاد لافتة مقر بنك “جي بي مورغان تشيس آند كو” في نيويورك (رويترز)

أرباح «جي بي مورغان» تقفز 13 % في الربع الأول بدعم من التداول والصفقات

أعلن بنك «جي بي مورغان تشيس» يوم الثلاثاء، عن ارتفاع أرباحه في الربع الأول بنسبة 13 في المائة، مدعوماً بمكاسب قياسية في أنشطة التداول نتيجة تقلبات الأسواق.

«الشرق الأوسط» (نيويورك)

روبوتات الدردشة المدعومة بالذكاء الاصطناعي تقدِّم نصائح طبية مضللة

روبوتات الدردشة المدعومة بالذكاء الاصطناعي تقدِّم نصائح طبية مضللة
TT

روبوتات الدردشة المدعومة بالذكاء الاصطناعي تقدِّم نصائح طبية مضللة

روبوتات الدردشة المدعومة بالذكاء الاصطناعي تقدِّم نصائح طبية مضللة

كشفت دراسة جديدة أن روبوتات الدردشة المدعومة بالذكاء الاصطناعي تقدِّم للمستخدمين نصائح طبية خاطئة في نحو نصف الحالات، ما يسلط الضوء على المخاطر الصحية لهذه التقنية التي باتت جزءاً لا يتجزأ من حياتنا اليومية.

تقييم 5 نماذج ذكية

وأجرى باحثون من الولايات المتحدة وكندا والمملكة المتحدة تقييماً لـ5 منصات شائعة: «تشات جي بي تي»، و«جيميناي»، و«ميتا إيه آي»، و«غروك»، و«ديب سيك» من خلال طرح 10 أسئلة على كل منها، ضمن 5 فئات صحية.

نصف الإجابات خاطئة

ووفقاً للنتائج المنشورة هذا الأسبوع في المجلة الطبية «BMJ Open»، اعتُبر نحو 50 في المائة من إجمالي الإجابات خاطئاً، بما في ذلك ما يقرب من 20 في المائة كانت إجابات خاطئة للغاية، وفقاً لتقرير نشرته وكالة «بلومبرغ».

وأظهرت الدراسة أن أداء روبوتات الدردشة كان أفضل نسبياً في الإجابة عن الأسئلة المغلقة، والأسئلة المتعلقة باللقاحات والسرطان، بينما كان أداؤها أسوأ في الإجابة عن الأسئلة المفتوحة وفي مجالات مثل الخلايا الجذعية والتغذية.

إجابات بثقة... من دون مراجع

أفاد الباحثون بأن الإجابات كانت تُقدَّم غالباً بثقة ويقين، مع أن أياً من برامج الدردشة الآلية لم يُقدِّم قائمة مراجع كاملة ودقيقة استجابةً لأي سؤال. ولم يُسجَّل سوى رفضين للإجابة عن سؤال، وكلاهما من نموذج «ميتا».

افتقار النماذج للخبرة الطبية

تُسلِّط هذه النتائج الضوء على القلق المتزايد بشأن كيفية استخدام الناس لمنصات الذكاء الاصطناعي التوليدي، التي لا تملك ترخيصاً لتقديم المشورة الطبية، وتفتقر إلى الخبرة السريرية اللازمة للتشخيص.

200 مليون يستشيرون «الطبيب جي بي تي» أسبوعياً

وقد أدى النمو الهائل لبرامج الدردشة الآلية التي تعمل بالذكاء الاصطناعي إلى تحويلها لأداة شائعة للأشخاص الذين يبحثون عن إرشادات بشأن أمراضهم. وصرَّحت شركة «أوبن إيه آي» بأن أكثر من 200 مليون شخص يطرحون أسئلة حول الصحة والعافية على منصة «تشات جي بي تي» أسبوعياً.

وكانت المنصة قد أعلنت في يناير (كانون الثاني) الماضي عن أدوات صحية لكل من المستخدمين العاديين والأطباء. وفي الشهر نفسه أعلنت شركة «أنثروبيك» عن إطلاق منتجها «كلاود» كخدمة جديدة للرعاية الصحية.

تضخيم المعلومات المضللة

وأشار مؤلفو الدراسة إلى أن أحد المخاطر الرئيسية لنشر برامج الدردشة الآلية دون توعية عامة ورقابة، هو أنها قد تُضخِّم المعلومات المضللة. وكتب الباحثون أن النتائج «تُسلِّط الضوء على قيود سلوكية مهمة، وعلى ضرورة إعادة تقييم كيفية استخدام روبوتات الدردشة المدعومة بالذكاء الاصطناعي في التواصل الصحي والطبي الموجَّه للجمهور». وأضافوا أن هذه الأنظمة قد تُنتج «ردوداً تبدو موثوقة، ولكنها قد تكون معيبة».


حين يقترح الذكاء الاصطناعي الدواء… مَن يقرر فعلاً؟

بين الشاشة والطبيب
بين الشاشة والطبيب
TT

حين يقترح الذكاء الاصطناعي الدواء… مَن يقرر فعلاً؟

بين الشاشة والطبيب
بين الشاشة والطبيب

في الطب، لم يكن القرار يوماً مجرد اختيار بين خيارات متاحة، بل لحظة مسؤولية معقدة، يقف فيها الطبيب بين ما تقوله البيانات وما يعيشه الإنسان. فالتشخيص قد يكون علماً، لكن القرار ظل دائماً فعلاً إنسانياً يقوم على مزيج من الخبرة والحدس والقدرة على قراءة ما بين السطور.

عندما يصبح القرار احتمالاً

وفي الطب النفسي تحديداً، يزداد هذا التعقيد. فالمريض ليس رقماً ولا عضواً يمكن قياسه، بل تجربة إنسانية كاملة: مشاعر، ذاكرة، وعلاقات. لذلك؛ كان اختيار الدواء أقرب إلى محاولة فهم... لا إلى تطبيق معادلة.

لكن هذا التوازن بدأ يتغير مع دخول الذكاء الاصطناعي التنبؤي، حيث لم يعد القرار يبدأ من الفهم فقط، بل من الاحتمال.

الدواء تحت مجهر الخوارزمية

من«أي دواء أختار؟» إلى «ما احتمال النجاح؟»

في دراسة حديثة نُشرت في أبريل (نيسان) 2026 في مجلة «جاما للطب النفسي» (JAMA Psychiatry)، حلّل باحثون بيانات أكثر من 300 ألف مريض لتقدير احتمالية الاستجابة لمضادات الاكتئاب من نوع مثبطات استرداد السيروتونين الانتقائية (SSRIs)، وأظهرت النتائج أن النماذج التنبؤية بلغت دقة تقارب 74 في المائة، مقارنة بما يقابل نحو 48 في المائة في الممارسة التقليدية.

لكن الأهم من الأرقام هو ما تعكسه من تحول في طريقة التفكير الطبي. فبدلاً من أن يبدأ الطبيب من خبرته ليختار الدواء، يبدأ الآن من تقدير احتمالي مسبق يوجه القرار منذ البداية... وهنا لا تتغير الإجابة فقط... بل يتغير السؤال نفسه.

مثال من العيادة... حيث يبدأ التردد

في عيادة نفسية، يحضر مريض يعاني اكتئاباً متوسطاً. في النموذج التقليدي، يختار الطبيب الدواء بناءً على خبرته، ثم يراقب الاستجابة ويعدّل العلاج عند الحاجة.

أما مع الذكاء الاصطناعي، فيمكن إدخال بيانات المريض للحصول على تقدير لاحتمال نجاح كل خيار. قد يشير النظام إلى أن دواءً معيناً يملك فرصة نجاح أعلى بنسبة 68 في المائة. في هذه اللحظة، لا يختفي دور الطبيب... لكنه يتغير.

ويظهر سؤال جديد: هل يتبع خبرته... أم الاحتمال؟

هل أصبح القرار حسابياً؟

رغم دقة هذه النماذج، فإنها لا «تفهم» المريض كإنسان، بل تحلل أنماطاً إحصائية مستخلصة من بيانات واسعة. فهي لا تدرك التاريخ النفسي أو السياق الاجتماعي أو التعقيد الشخصي للحالة. وما تقدمه هذه الأنظمة ليس قراراً، بل هو احتمال مبني على تشابه الحالات. وهنا يبرز السؤال الجوهري: هل يكفي أن يكون الخيار أكثر احتمالاً للنجاح... ليكون الخيار الأنسب؟

تعاون طبي بعقل واحد

بين الدقة والإقناع

كلما ازدادت دقة الخوارزميات، ازدادت قدرتها على إقناع الطبيب بنتائجها. لكن هذا الإقناع قد لا يعكس الحقيقة دائماً، بل قوة العرض الرقمي. ففي بيئة تعتمد على السرعة والكفاءة، قد يميل الطبيب إلى الوثوق بالنتيجة، لا لأنه تحقق من دقتها، بل لأنها تبدو منظمة وواثقة.

وهنا يكمن الخطر الحقيقي: ليس في أن تخطئ الأنظمة... بل في أن تُقنعنا بأنها لا تخطئ.

الطب النفسي الشخصي... إلى أي مدى؟

تقود هذه التطورات إلى ما يُعرف بـ«الطب النفسي الشخصي»، الذي يسعى لتخصيص العلاج وفق خصائص كل مريض. لكن الاكتئاب ليس مجرد خلل كيميائي، بل حالة معقدة تتداخل فيها عوامل بيولوجية ونفسية واجتماعية، مثل التجارب الحياتية والعلاقات والضغوط اليومية - وهي عناصر يصعب قياسها بالكامل. لذلك؛ تظل النماذج التنبؤية محدودة بقدرتها على تمثيل هذا التعقيد الإنساني.

ما الذي يتغير فعلاً؟

التغيير الأهم ليس في دقة اختيار الدواء، بل في دور الطبيب. فلم يعد الطبيب المصدر الوحيد للقرار، بل أصبح مفسراً لتوصيات خوارزمية، ومقيّماً لمدى توافقها مع واقع المريض. وهذا يعيد تعريف دوره: من صانع قرار مباشر... إلى حارس للمعنى الإنساني داخل القرار. لكن هذا التحول يطرح سؤالاً أخلاقياً عميقاً: من يتحمل المسؤولية؟ الطبيب... أم النظام؟

الخلاصة: القرار ليس رقماً

قد تساعد الخوارزميات في توجيه القرار، لكنها لا تتحمل مسؤوليته. فالطب لم يكن يوماً مجرد اختيار الخيار الأكثر احتمالاً، بل كان دائماً تحملاً لنتائج هذا الاختيار في سياق إنساني معقد. ولهذا؛ قد لا يكون السؤال:

هل يستطيع الذكاء الاصطناعي اختيار الدواء؟ بل: هل يمكن اختزال القرار الطبي... في رقم؟


مرض وهمي ابتدعه العلماء... ينشر الذكاء الاصطناعي دراساته

صورة مولدة بالذكاء الاصطناعي لحالة مرض «بيكسونيمانيا» الوهمي
صورة مولدة بالذكاء الاصطناعي لحالة مرض «بيكسونيمانيا» الوهمي
TT

مرض وهمي ابتدعه العلماء... ينشر الذكاء الاصطناعي دراساته

صورة مولدة بالذكاء الاصطناعي لحالة مرض «بيكسونيمانيا» الوهمي
صورة مولدة بالذكاء الاصطناعي لحالة مرض «بيكسونيمانيا» الوهمي

ابتكر العلماء مرضاً وهمياً زعموا أنه ينتج من تأثيرات الضوء الأزرق – وهم يرصدون اليوم مدى انتشار الأخبار عنه في الأبحاث الطبية، كما كتبت لوسيا أورباخ (*).

حيلة علمية

انطلت حيلة مرض غير موجود على نظم الذكاء الاصطناعي، وانتشرت أخباره على أنه حقيقة طبية. ويشرح الباحثون الذين ابتدعوه كيف حدث ذلك، ولماذا يكشف فعلاً عن ثغرة خطيرة في النماذج الذكية الحالية.

مرض «بيكسونيمانيا»

سميت الحالة المبتدعة بمصطلح «بيكسونيمانيا» bixonimania، ووصفت بأنها حالة شائعة، ربما تعانيها إذا كنت تعاني احمراراً وتهيجاً في العينين نتيجة التعرض المفرط للضوء الأزرق المنبعث من الشاشات. لكن إليك معلومة طريفة: «بيكسونيمانيا» ليست مرضاً حقيقياً.

اختبار تفسيرات الذكاء الاصطناعي

ابتداءً من مطلع عام 2024، بدأ العلماء بنشر دراسات زائفة على الإنترنت حول هذا المرض الوهمي، بهدف اختبار كيفية تفسير الذكاء الاصطناعي لهذه المعلومات المضللة، وما إذا كان سينشرها على أنها نصائح صحية موثوقة.

قادت ألميرا عثمانوفيتش ثونستروم، الباحثة الطبية في جامعة غوتنبرغ بالسويد، هذه التجربة، إذ قامت هي وفريقها بابتكار حالة جلدية وهمية، ثم قام الفريق بتحميل دراستين وهميتين عنها إلى خادم ما قبل النشر في أوائل عام 2024.

وقالت أوسمانوفيتش ثونستروم: «أردتُ أن أرى ما إذا كان بإمكاني ابتكار حالة طبية غير موجودة في قاعدة البيانات».

وقد نجحت التجربة، ففي غضون أسابيع، بدأت كبرى شركات الأدوية في تقديم هذه الحالة بصفته تشخيصاً لمن يبحثون عن أعراضهم.

* نموذج «مايكروسوفت كوبايلوت» ذكر أن «هوس الانعكاسات» ليس تشخيصاً طبياً معترفاً به على نطاق واسع حتى الآن، ولكن الكثير من الأبحاث والتقارير الحديثة تناقشه بوصفه حالة حميدة يتم تشخيصها بشكل خاطئ، وترتبط بالتعرض المطول لمصادر الضوء الأزرق مثل الشاشات.

* نموذج «تشات جي بي تي» ذكر أن «هوس الانعكاسات» هو نوع فرعي جديد مقترح من التصبغ حول العينين (الهالات السوداء حول العينين) يُعتقد أنه مرتبط بالتعرض للضوء الأزرق المنبعث من الشاشات الرقمية.

أخبار مقلقة

ونشر الكاتب كريس ستوكل-ووكر تقريراً عن هذا التزييف في مجلة «نتشر». وفي مقابلة له علل متحدث باسم «أوبن إيه آي» هذا بالقول إن «النماذج التي تُشغّل الإصدار الحالي من (تشات جي بي تي) مثل (جي بي تي-5) أفضل الآن بكثير من النماذج السابقة، في توفير معلومات طبية آمنة ودقيقة».

والمشكلة الأكثر إثارة للقلق هي أن هذه الأبحاث المزيفة قد استُشهد بها الآن في أدبيات علمية مُحكّمة. وقد أخبرت أوسمانوفيتش ثونستروم ستوكل-ووكر أن هذا يُشير إلى أن الباحثين كانوا «يعتمدون على مراجع مُولّدة بواسطة الذكاء الاصطناعي دون قراءة الأبحاث الأصلية».

كيف نجحت هذه الخدعة؟

أطلقت أوسمانوفيتش ثونستروم على الحالة اسم «بيكسونيمانيا»، وقالت إن الاسم «يبدو سخيفاً... لأني أردت أن أوضح تماماً لأي طبيب أو أي فرد من الطاقم الطبي أن هذه حالة مُختلقة؛ لأنه لا يُمكن تسمية أي حالة عين، بالهوس mania - فهذا مصطلح نفسي».

إشارات خفية وصريحة لجمهور القراء

كما وُضعت عشرات الإشارات الخفية التي تُشير إلى أن الحالة مُختلقة، مثل أن الباحث الرئيسي، لازليف إزغوبليينوفيتش- وهو اسم مستعار- يعمل في جامعة وهمية تُدعى جامعة أستيريا هورايزون، في مدينة وهمية تُدعى نوفا سيتي، في كاليفورنيا.

وتوجهت الدراسة بالشكر، وهمياً، إلى «الأستاذة ماريا بوم من أكاديمية ستار فليت على لطفها وكرمها في المساهمة بمعرفتها ومختبرها على متن سفينة (يو إس إس إنتربرايز)». وذكرت أن التمويل جاء من «مؤسسة البروفسور سايدشو بوب لعملها في مجال الخدع المتقدمة».

لكن، حتى ولو لم يصل القراء إلى هذه الفقرة، فإنهم كانوا سيكتشفون زيف كل الحالة من خلال التصريحات الصريحة في المقدمة، مثل «هذه الدراسة بأكملها من نسج الخيال» و«تم اختيار خمسين شخصاً وهمياً تتراوح أعمارهم بين 20 و50 عاماً لمجموعة الدراسة».

ما هي تداعيات مشروع بيكسونيمانيا؟

منذ نشر مقال ستوكل-ووكر في 7 أبريل (نيسان) 2026، بدأت الكثير من أنظمة الذكاء الاصطناعي في إنتاج مخرجات مصححة. سابقاً، كانت مختبرات التعلم الآلي تعتمد على أربعة مصادر رئيسية للمعلومات: منشوران على مدونة Medium بتاريخ 15 مارس (آذار) 2024، وورقتان بحثيتان منشورتان مسبقاً على SciProfiles بتاريخ 26 أبريل و6 مايو (أيار) من العام نفسه.

تأثير متواصل

لكن تأثير التجربة لا يزال قائماً. إذ لم تُجرَ هذه الدراسة لمجرد المزاح. كان هدف عثمانوفيتش ثونستروم هو تحديد مشكلة جوهرية خطيرة في اعتماد المجتمع المتزايد على الذكاء الاصطناعي.

يقول أليكس رواني، باحث دكتوراه في المعلومات الصحية المضللة في «يونيفرسيتي كوليدج لندن»: «إذا كانت العملية العلمية نفسها والأنظمة الداعمة لها ماهرة، ولا تستطيع رصد وتصفية أجزاء كهذه، فنحن محكوم علينا بالفشل. هذه دورة متقدمة في كيفية عمل المعلومات المضللة والمغلوطة».

ذكاء اصطناعي بوتيرة سريعة

تتطور تقنية الذكاء الاصطناعي بوتيرة سريعة للغاية؛ ما يُعجِز الباحثين عن وضع ضمانات وبروتوكولات اختبار فعّالة. يقول محمود عمر، الطبيب والباحث المتخصص في تطبيقات الذكاء الاصطناعي في الرعاية الصحية بكلية الطب بجامعة هارفارد في بوسطن، ماساتشوستس، إن سرعة طرح النماذج الجديدة في السوق تجعل من الصعب التوصل إلى «إجماع أو منهجية لاختبار كل نموذج تلقائياً». عثمانوفيتش ثونستروم ليست أول من أشار إلى ذلك.

معلومات علمية مزيفة

لم تكن عثمانوفيتش ثونستروم أول من اختبر ما يمكن أن ينتجه الذكاء الاصطناعي من تغذية معلومات أكاديمية زائفة. فقد صرّحت إليزابيث بيك، عالمة الأحياء الدقيقة الهولندية ومستشارة النزاهة العلمية، بأن باحثين قاموا حتى بتأليف كتب وأوراق بحثية مزيفة لزيادة عدد الاستشهادات بها على «غوغل سكولار». ويكمن القلق الأكبر في تغذية نماذج الذكاء الاصطناعي بهذه المعلومات الزائفة، التي بدورها تعيد إنتاج هذه المعلومات المغلوطة، ما يُبعد المستخدمين أكثر فأكثر عن الواقع.

ويعمل العلماء وخبراء الأخلاقيات حالياً على قدم وساق لإيجاد حلول عملية لهذه النتائج. ومن المقلق أن تمر ادعاءات علمية ذات مصادر مشكوك فيها عبر منصات التعلم الإلكتروني دون أي رقابة. وقال رواني: «علينا حماية ثقتنا كما نحمي الذهب. الوضع فوضوي للغاية الآن».

* «إنك» - خدمات «تريبيون ميديا»