كيف تستطيع المدارس التعامل مع نظم الذكاء الاصطناعي؟

في خضم موجة الحماس والارتباك من توظيفه في التعليم

كيف تستطيع المدارس التعامل مع نظم الذكاء الاصطناعي؟
TT

كيف تستطيع المدارس التعامل مع نظم الذكاء الاصطناعي؟

كيف تستطيع المدارس التعامل مع نظم الذكاء الاصطناعي؟

عند إطلاق «تشات جي بي تي» في نوفمبر (تشرين الثاني) الماضي، شعرت مدارس كثيرة وكأنّ نيزكا ضربها. ففي منتصف العام الدراسي، أُجبر المعلّمون، ومن دون سابق إنذار، على مواجهة التقنية الجديدة والغريبة التي أتاحت للطلّاب كتابة مقالات بمستوى جامعي، وحلّ مسائل معقّدة، والتفوّق في اختبارات معيارية.

ارتباك وحماس

استجابت بعض المدارس - بشكلٍ غير حكيم، في ذلك الوقت - عبر منع «تشات جي بي تي» والأدوات التي تشبهه. ولكنّ هذا المنع لم ينجح لأنّ الطلّاب استطاعوا وببساطة استخدام التقنية على هواتفهم المحمولة وأجهزة الكومبيوتر في منازلهم. ومع مضي العام الدراسي، عادت معظم المدارس التي منعت «تشات جي بي تي»، و«بينغ»، و«بارد» وغيرها من الأدوات، عن قرارها.

الآن، ومع اقتراب بداية العام الدراسي الجديد، تحدّثنا مع معلّمين في جميع المراحل الدراسية، وإداريين، وأعضاء الهيئة التدريسية عمّا يدور في خلدهم عن الذكاء الاصطناعي، فوجدنا الكثير من الارتباك والرهبة المجتمعين مع قدرٍ كبيرٍ من الفضول والحماس. وتبيّن أيضاً أنّ المعلّمين يريدون أن يعرفوا كيف يستطيعون استخدام هذه التقنية لمساعدة الطلّاب على التعلّم بدل القلق من استخدامها للغش؟

نصائح أساسية متصورة

بوصفنا ممثلي صحافة تقنية، لا نملك جميع الإجابات خصوصاً فيما يتعلّق بالتأثيرات الطويلة الأمد للذكاء الاصطناعي على التعليم، ولكن يمكننا أن نقدّم بعض النصائح الأساسية والنافعة على المدى القصير للمدارس التي تحاول تبيان كيف يجب التعامل مع الذكاء الاصطناعي التوليدي في الموسم المدرسي الحالي.

* أولاً، نشجّع المعلّمين - خصوصاً في المرحلتين الثانوية والجامعية - على الافتراض بأنّ جميع طلّابهم يستخدمون «تشات جي بي تي» وغيره من أدوات الذكاء الاصطناعي التوليدي في كلّ واجب وموضوع، إلّا في الحالات التي يكونون فيها تحت إشراف المدرسة أو الكليّة.

هذا الترجيح لن ينطبق على كلّ المدارس طبعاً لأنّ الكثير من الطلّاب لن يستخدموا الذكاء الاصطناعي بسبب هواجسهم الأخلاقية المتعلّقة به، ولأنّه ليس مفيداً في بعض الواجبات، أو لأنّهم لا يملكون الأدوات أو يخافون من فكرة الضبط.

ولكن فرضية استخدام الجميع للذكاء الاصطناعي خارج غرفة الصف ستكون أقرب إلى الحقيقة مّما يتوقّع المعلّمون. (فقد كتب أحد الطلّاب في جامعة كولومبيا في مقال أخير: لا يمكنكم أن تتخيّلوا كم نستخدم تشات جي بي تي). علاوةً على ذلك، تساعد هذه الفرضية المعلّمين في محاولة إيجاد طريقة لتكييف وسائلهم في التعليم. فلماذا قد يعطي المعلّم واجباً منزلياً لطلّابه لكتابة مقال عن رواية أو كاتب معيّن وهو يعلم أنّ جميعهم - باستثناء المهووسين بتطبيق القانون، ربّما - سيستخدمون الذكاء الاصطناعي لإتمامه؟ لماذا لا يُستبدل هذا النوع من النشاطات بواسطة أخرى في الصفّ، فردية أو مجموعات، لا سيّما أنّ «تشات جي بي تي» بات منتشراً بقدر «إنستغرام» و«سناب تشات» بين الطلّاب؟

* ثانياً، يجب على المدارس أن تتوقّف عن الاعتماد على برامج رصد الذكاء الاصطناعي لضبط الغشّاشين. تحتوي السوق اليوم على العشرات من الأدوات التي تدّعي أنّها قادرة على رصد الكتابات المصنوعة باستخدام الذكاء الاصطناعي رغم أنّ ولا واحدة منها موثوقة الأداء. تولّد هذه الأدوات الكثير من النتائج الإيجابية الزائفة، فضلاً عن أنّها تُخدع بسهولة بتقنيات إعادة الصياغة. هل تشكّون بالأمر؟ اسألوا شركة «أوبن إي آي»، صانعة «تشات جي بي تي»، عن سبب إيقافها لأداتها الخاصة المصمّمة لرصد كتابات الذكاء الاصطناعي هذا العام، وستجيبكم بأنّه «انخفاض معدّل الدقّة».

قد تعمد شركات الذكاء الاصطناعي في المستقبل إلى دمغ منتجات أدواتها بما يُعرف بـ«العلامات المائية» لتسهيل رصدها، أو قد نشهد على بروز أدوات أفضل لرصد الذكاء الاصطناعي. ولكن في الوقت الحالي، يجب اعتبار معظم أدوات الذكاء الاصطناعي غير قابلة للرصد، ويجب على المدارس تخصيص وقتها وميزانياتها لمجالات أخرى.

قوة تعليمية

> في النصيحة الثالثة، والتي ستكون السبب غالباً في تلقّينا الكثير من الرسائل الإلكترونية الغاضبة من المعلّمين، نوصيهم بضرورة تخفيف تركيزهم على تحذير الطلّاب من نقائص الذكاء الاصطناعي التوليدي عوضاً عن تبيان مواطن قوّته.

حاولت مدارس كثيرة العام الماضي تخويف الطلاب من استخدام الذكاء الاصطناعي بتحذيرهم من أنّ الأدوات الشبيهة بـ«تشات جي بي تي» ليست فعالة وميّالة لتوليد إجابات غير منطقية. قد تنطبق هذه الانتقادات على النماذج المبكّرة من روبوتات المحادثة المدعومة بالذكاء الاصطناعي، ولكنّها أقلّ واقعيّة بالنسبة للنماذج المحدّثة منها، فضلاً عن أنّ الطلّاب الأذكياء باتوا يعرفون كيف يحصلون على أفضل النتائج من خلال حثّ النماذج بأوامر واضحة ودقيقة.

ساهم هذا الأمر في تفوّق كثير من الطلّاب على أساتذتهم في مجال فهم الذكاء الاصطناعي التوليدي وقدراته إذا ما استُخدم بالشكل الصحيح. علاوةً على ذلك، يمكن القول إنّ جميع التحذيرات من عيوب الذكاء الاصطناعي التوليدي التي ذاعت العام الماضي باتت فارغة هذا العام على اعتبار أنّ «جي بي تي 4» نجح في تجاوز اختبارات في جامعة «هارفارد».

من جهته، اعتبر أليكس كوتران، الرئيس التنفيذي لمشروع «إي آي إيدوكيشن بروجيكت» غير الربحي الذي يساعد المدارس في تبنّي الذكاء الاصطناعي، أنّ على الأساتذة إمضاء بعض الوقت في استخدام الذكاء الاصطناعي التوليدي بأنفسهم لتقدير فوائده والسرعة التي تحسّن بها.

وقال كوتران: «لا يزال معظم النّاس ينظرون إلى تشات جي بي تي على أنّه حيلة احتفالية. إذا كنتم لا تقدّرون عمق هذه الأداة، فلن تتمكّنوا من القيام بجميع الخطوات المطلوبة».

توجد بعض المصادر التي تساعد الأساتذة المستعجلين للحاق بتطوّر الذكاء الاصطناعي، حتّى أن بعض المعلّمين بدأوا بجمع توصيات لمساعدة زملائهم في هذا الشأن على مواقع إلكترونية مخصصة تقدّم نصائح عملية حول الذكاء الاصطناعي التوليدي للأساتذة.

شخصياً، نرى أنّه لا غنى عن التجربة الشخصية، لذا ننصح الأساتذة بالبدء باستكشاف «تشات جي بي تي» وغيره من أدوات الذكاء الاصطناعي بأنفسهم لتعزيز مهاراتهم في استخدامها واللحاق بكثير من تلاميذهم.

نقدّم هذه النصيحة الأخيرة للمدارس التي لا تزال مذهولة بالذكاء الاصطناعي التوليدي: تعاملوا مع هذه السنة - أي أوّل عام أكاديمي بعد بداية عصر «تشات جي بي تي» - على أنّه تجربة للتعلّم ولا تتوقّعوا أن تسير كلّ الأمور على ما يرام.

غرفة الصف المقلوبة

يستطيع الذكاء الاصطناعي تغيير غرفة الصف بأشكال كثيرة. يرى إيثان مولّيك، أستاذ في كليّة «وارتون» التابعة لجامعة بنسلفانيا، أنّ التقنية ستقود مزيدا من الأساتذة إلى تبنّي مقاربة «غرفة الصفّ المقلوبة» - أي حثّ الطلّاب على تعلّم المواد خارج غرفة الصف وتطبيقها في الداخل - والتي تعطيهم الأفضلية في مقاومة مسألة الغش. وتحدّث أساتذة آخرون تواصلنا معهم عن استكشاف فكرة تحويل الذكاء الاصطناعي التوليدي إلى شريك في غرفة الصف، أو إلى وسيلة ليمارس الطلاب مهاراتهم في المنزل بمساعدة أستاذ خصوصي مدعوم بالذكاء الاصطناعي.

بعض هذه التجارب ستفشل طبعاً، وبعضها الآخر سينجح، لأنّنا ما زلنا جميعنا في طور التأقلم مع هذه التقنية الغريبة، ولا بدّ من التعثّر في الطريق.

يحتاج الطلّاب إلى الإرشاد عندما يتعلّق الأمر بالذكاء الاصطناعي التوليدي، ولكنّ تعامل المدارس معه على أنّه بدعة عابرة - أو عدوٍّ يجب قهره - سيفوّت عليها الفرصة لمساعدتهم.

وأخيراً، يختم مولّيك بالقول: «أمورٌ كثيرة ستظهر، ولهذا السبب، يجب أن تقرّر ماذا سنفعل بدل مقاومة الهزيمة أمام الذكاء الاصطناعي».

*خدمة «نيويورك تايمز»


مقالات ذات صلة

تقرير: إيران تُعيد تأهيل منصات إطلاق صواريخ مدفونة وسط هدنة هشة

شؤون إقليمية علم إيراني يظهر بالقرب من مبنى سكني تضرر جراء غارة جوية على طهران (رويترز) p-circle

تقرير: إيران تُعيد تأهيل منصات إطلاق صواريخ مدفونة وسط هدنة هشة

في ظلّ هدنة مؤقتة بين إيران من جهة، والولايات المتحدة وإسرائيل من جهة أخرى، تكشف المعطيات الميدانية عن سباق خفي لإعادة ترتيب القدرات العسكرية.

«الشرق الأوسط» (لندن)
الولايات المتحدة​ الرئيس الأميركي دونالد ترمب ونظيره الصيني شي جينبينغ (أ.ب) p-circle

ترمب: طلبت من الرئيس الصيني عدم تزويد إيران بالأسلحة

قال الرئيس الأميركي دونالد ترمب لشبكة «فوكس بيزنس» خلال مقابلة بُثت اليوم الأربعاء إنه طلب من نظيره الصيني شي جينبينغ في رسالة ألا يزود إيران بالأسلحة

«الشرق الأوسط» (واشنطن)
شؤون إقليمية طائرة حربية أميركية تقلع من حاملة طائرات لتنفيذ غارات على إيران (القيادة المركزية الأميركية)

تقرير: أميركا سترسل آلاف القوات الإضافية إلى الشرق الأوسط 

قالت صحيفة «واشنطن بوست» اليوم الأربعاء، نقلاً عن مسؤولين أميركيين مطلعين، إن الولايات المتحدة سترسل آلاف القوات الإضافية للشرق الأوسط.

«الشرق الأوسط» ( واشنطن)
شؤون إقليمية الصواريخ الإيرانية تُعرَض في متحف القوة الجوية الفضائية لـ«الحرس الثوري» في طهران بإيران يوم 15 نوفمبر 2024 (رويترز)

تقرير: إيران استخدمت قمر تجسس صينياً لاستهداف قواعد أميركية

ذكرت صحيفة «فاينانشال تايمز» اليوم (الأربعاء) أن إيران استخدمت سراً قمراً صناعياً صينياً للتجسس، ما منح طهران قدرة جديدة على استهداف القواعد العسكرية الأميركية.

«الشرق الأوسط» (لندن)
الولايات المتحدة​ ضباط شرطة وأفراد أمن في مبنى البنك المركزي الفنزويلي في كاراكاس بفنزويلا 20 يونيو 2016 (رويترز)

أميركا تعلن رفع العقوبات عن المصرف المركزي الفنزويلي

أعلنت وزارة الخزانة الأميركية، في بيان الثلاثاء، رفع العقوبات المفروضة على المصرف المركزي الفنزويلي بالإضافة إلى 3 مؤسسات مصرفية أخرى في البلاد.

«الشرق الأوسط» (واشنطن)

روبوتات الدردشة المدعومة بالذكاء الاصطناعي تقدِّم نصائح طبية مضللة

روبوتات الدردشة المدعومة بالذكاء الاصطناعي تقدِّم نصائح طبية مضللة
TT

روبوتات الدردشة المدعومة بالذكاء الاصطناعي تقدِّم نصائح طبية مضللة

روبوتات الدردشة المدعومة بالذكاء الاصطناعي تقدِّم نصائح طبية مضللة

كشفت دراسة جديدة أن روبوتات الدردشة المدعومة بالذكاء الاصطناعي تقدِّم للمستخدمين نصائح طبية خاطئة في نحو نصف الحالات، ما يسلط الضوء على المخاطر الصحية لهذه التقنية التي باتت جزءاً لا يتجزأ من حياتنا اليومية.

تقييم 5 نماذج ذكية

وأجرى باحثون من الولايات المتحدة وكندا والمملكة المتحدة تقييماً لـ5 منصات شائعة: «تشات جي بي تي»، و«جيميناي»، و«ميتا إيه آي»، و«غروك»، و«ديب سيك» من خلال طرح 10 أسئلة على كل منها، ضمن 5 فئات صحية.

نصف الإجابات خاطئة

ووفقاً للنتائج المنشورة هذا الأسبوع في المجلة الطبية «BMJ Open»، اعتُبر نحو 50 في المائة من إجمالي الإجابات خاطئاً، بما في ذلك ما يقرب من 20 في المائة كانت إجابات خاطئة للغاية، وفقاً لتقرير نشرته وكالة «بلومبرغ».

وأظهرت الدراسة أن أداء روبوتات الدردشة كان أفضل نسبياً في الإجابة عن الأسئلة المغلقة، والأسئلة المتعلقة باللقاحات والسرطان، بينما كان أداؤها أسوأ في الإجابة عن الأسئلة المفتوحة وفي مجالات مثل الخلايا الجذعية والتغذية.

إجابات بثقة... من دون مراجع

أفاد الباحثون بأن الإجابات كانت تُقدَّم غالباً بثقة ويقين، مع أن أياً من برامج الدردشة الآلية لم يُقدِّم قائمة مراجع كاملة ودقيقة استجابةً لأي سؤال. ولم يُسجَّل سوى رفضين للإجابة عن سؤال، وكلاهما من نموذج «ميتا».

افتقار النماذج للخبرة الطبية

تُسلِّط هذه النتائج الضوء على القلق المتزايد بشأن كيفية استخدام الناس لمنصات الذكاء الاصطناعي التوليدي، التي لا تملك ترخيصاً لتقديم المشورة الطبية، وتفتقر إلى الخبرة السريرية اللازمة للتشخيص.

200 مليون يستشيرون «الطبيب جي بي تي» أسبوعياً

وقد أدى النمو الهائل لبرامج الدردشة الآلية التي تعمل بالذكاء الاصطناعي إلى تحويلها لأداة شائعة للأشخاص الذين يبحثون عن إرشادات بشأن أمراضهم. وصرَّحت شركة «أوبن إيه آي» بأن أكثر من 200 مليون شخص يطرحون أسئلة حول الصحة والعافية على منصة «تشات جي بي تي» أسبوعياً.

وكانت المنصة قد أعلنت في يناير (كانون الثاني) الماضي عن أدوات صحية لكل من المستخدمين العاديين والأطباء. وفي الشهر نفسه أعلنت شركة «أنثروبيك» عن إطلاق منتجها «كلاود» كخدمة جديدة للرعاية الصحية.

تضخيم المعلومات المضللة

وأشار مؤلفو الدراسة إلى أن أحد المخاطر الرئيسية لنشر برامج الدردشة الآلية دون توعية عامة ورقابة، هو أنها قد تُضخِّم المعلومات المضللة. وكتب الباحثون أن النتائج «تُسلِّط الضوء على قيود سلوكية مهمة، وعلى ضرورة إعادة تقييم كيفية استخدام روبوتات الدردشة المدعومة بالذكاء الاصطناعي في التواصل الصحي والطبي الموجَّه للجمهور». وأضافوا أن هذه الأنظمة قد تُنتج «ردوداً تبدو موثوقة، ولكنها قد تكون معيبة».


حين يقترح الذكاء الاصطناعي الدواء… مَن يقرر فعلاً؟

بين الشاشة والطبيب
بين الشاشة والطبيب
TT

حين يقترح الذكاء الاصطناعي الدواء… مَن يقرر فعلاً؟

بين الشاشة والطبيب
بين الشاشة والطبيب

في الطب، لم يكن القرار يوماً مجرد اختيار بين خيارات متاحة، بل لحظة مسؤولية معقدة، يقف فيها الطبيب بين ما تقوله البيانات وما يعيشه الإنسان. فالتشخيص قد يكون علماً، لكن القرار ظل دائماً فعلاً إنسانياً يقوم على مزيج من الخبرة والحدس والقدرة على قراءة ما بين السطور.

عندما يصبح القرار احتمالاً

وفي الطب النفسي تحديداً، يزداد هذا التعقيد. فالمريض ليس رقماً ولا عضواً يمكن قياسه، بل تجربة إنسانية كاملة: مشاعر، ذاكرة، وعلاقات. لذلك؛ كان اختيار الدواء أقرب إلى محاولة فهم... لا إلى تطبيق معادلة.

لكن هذا التوازن بدأ يتغير مع دخول الذكاء الاصطناعي التنبؤي، حيث لم يعد القرار يبدأ من الفهم فقط، بل من الاحتمال.

الدواء تحت مجهر الخوارزمية

من«أي دواء أختار؟» إلى «ما احتمال النجاح؟»

في دراسة حديثة نُشرت في أبريل (نيسان) 2026 في مجلة «جاما للطب النفسي» (JAMA Psychiatry)، حلّل باحثون بيانات أكثر من 300 ألف مريض لتقدير احتمالية الاستجابة لمضادات الاكتئاب من نوع مثبطات استرداد السيروتونين الانتقائية (SSRIs)، وأظهرت النتائج أن النماذج التنبؤية بلغت دقة تقارب 74 في المائة، مقارنة بما يقابل نحو 48 في المائة في الممارسة التقليدية.

لكن الأهم من الأرقام هو ما تعكسه من تحول في طريقة التفكير الطبي. فبدلاً من أن يبدأ الطبيب من خبرته ليختار الدواء، يبدأ الآن من تقدير احتمالي مسبق يوجه القرار منذ البداية... وهنا لا تتغير الإجابة فقط... بل يتغير السؤال نفسه.

مثال من العيادة... حيث يبدأ التردد

في عيادة نفسية، يحضر مريض يعاني اكتئاباً متوسطاً. في النموذج التقليدي، يختار الطبيب الدواء بناءً على خبرته، ثم يراقب الاستجابة ويعدّل العلاج عند الحاجة.

أما مع الذكاء الاصطناعي، فيمكن إدخال بيانات المريض للحصول على تقدير لاحتمال نجاح كل خيار. قد يشير النظام إلى أن دواءً معيناً يملك فرصة نجاح أعلى بنسبة 68 في المائة. في هذه اللحظة، لا يختفي دور الطبيب... لكنه يتغير.

ويظهر سؤال جديد: هل يتبع خبرته... أم الاحتمال؟

هل أصبح القرار حسابياً؟

رغم دقة هذه النماذج، فإنها لا «تفهم» المريض كإنسان، بل تحلل أنماطاً إحصائية مستخلصة من بيانات واسعة. فهي لا تدرك التاريخ النفسي أو السياق الاجتماعي أو التعقيد الشخصي للحالة. وما تقدمه هذه الأنظمة ليس قراراً، بل هو احتمال مبني على تشابه الحالات. وهنا يبرز السؤال الجوهري: هل يكفي أن يكون الخيار أكثر احتمالاً للنجاح... ليكون الخيار الأنسب؟

تعاون طبي بعقل واحد

بين الدقة والإقناع

كلما ازدادت دقة الخوارزميات، ازدادت قدرتها على إقناع الطبيب بنتائجها. لكن هذا الإقناع قد لا يعكس الحقيقة دائماً، بل قوة العرض الرقمي. ففي بيئة تعتمد على السرعة والكفاءة، قد يميل الطبيب إلى الوثوق بالنتيجة، لا لأنه تحقق من دقتها، بل لأنها تبدو منظمة وواثقة.

وهنا يكمن الخطر الحقيقي: ليس في أن تخطئ الأنظمة... بل في أن تُقنعنا بأنها لا تخطئ.

الطب النفسي الشخصي... إلى أي مدى؟

تقود هذه التطورات إلى ما يُعرف بـ«الطب النفسي الشخصي»، الذي يسعى لتخصيص العلاج وفق خصائص كل مريض. لكن الاكتئاب ليس مجرد خلل كيميائي، بل حالة معقدة تتداخل فيها عوامل بيولوجية ونفسية واجتماعية، مثل التجارب الحياتية والعلاقات والضغوط اليومية - وهي عناصر يصعب قياسها بالكامل. لذلك؛ تظل النماذج التنبؤية محدودة بقدرتها على تمثيل هذا التعقيد الإنساني.

ما الذي يتغير فعلاً؟

التغيير الأهم ليس في دقة اختيار الدواء، بل في دور الطبيب. فلم يعد الطبيب المصدر الوحيد للقرار، بل أصبح مفسراً لتوصيات خوارزمية، ومقيّماً لمدى توافقها مع واقع المريض. وهذا يعيد تعريف دوره: من صانع قرار مباشر... إلى حارس للمعنى الإنساني داخل القرار. لكن هذا التحول يطرح سؤالاً أخلاقياً عميقاً: من يتحمل المسؤولية؟ الطبيب... أم النظام؟

الخلاصة: القرار ليس رقماً

قد تساعد الخوارزميات في توجيه القرار، لكنها لا تتحمل مسؤوليته. فالطب لم يكن يوماً مجرد اختيار الخيار الأكثر احتمالاً، بل كان دائماً تحملاً لنتائج هذا الاختيار في سياق إنساني معقد. ولهذا؛ قد لا يكون السؤال:

هل يستطيع الذكاء الاصطناعي اختيار الدواء؟ بل: هل يمكن اختزال القرار الطبي... في رقم؟


مرض وهمي ابتدعه العلماء... ينشر الذكاء الاصطناعي دراساته

صورة مولدة بالذكاء الاصطناعي لحالة مرض «بيكسونيمانيا» الوهمي
صورة مولدة بالذكاء الاصطناعي لحالة مرض «بيكسونيمانيا» الوهمي
TT

مرض وهمي ابتدعه العلماء... ينشر الذكاء الاصطناعي دراساته

صورة مولدة بالذكاء الاصطناعي لحالة مرض «بيكسونيمانيا» الوهمي
صورة مولدة بالذكاء الاصطناعي لحالة مرض «بيكسونيمانيا» الوهمي

ابتكر العلماء مرضاً وهمياً زعموا أنه ينتج من تأثيرات الضوء الأزرق – وهم يرصدون اليوم مدى انتشار الأخبار عنه في الأبحاث الطبية، كما كتبت لوسيا أورباخ (*).

حيلة علمية

انطلت حيلة مرض غير موجود على نظم الذكاء الاصطناعي، وانتشرت أخباره على أنه حقيقة طبية. ويشرح الباحثون الذين ابتدعوه كيف حدث ذلك، ولماذا يكشف فعلاً عن ثغرة خطيرة في النماذج الذكية الحالية.

مرض «بيكسونيمانيا»

سميت الحالة المبتدعة بمصطلح «بيكسونيمانيا» bixonimania، ووصفت بأنها حالة شائعة، ربما تعانيها إذا كنت تعاني احمراراً وتهيجاً في العينين نتيجة التعرض المفرط للضوء الأزرق المنبعث من الشاشات. لكن إليك معلومة طريفة: «بيكسونيمانيا» ليست مرضاً حقيقياً.

اختبار تفسيرات الذكاء الاصطناعي

ابتداءً من مطلع عام 2024، بدأ العلماء بنشر دراسات زائفة على الإنترنت حول هذا المرض الوهمي، بهدف اختبار كيفية تفسير الذكاء الاصطناعي لهذه المعلومات المضللة، وما إذا كان سينشرها على أنها نصائح صحية موثوقة.

قادت ألميرا عثمانوفيتش ثونستروم، الباحثة الطبية في جامعة غوتنبرغ بالسويد، هذه التجربة، إذ قامت هي وفريقها بابتكار حالة جلدية وهمية، ثم قام الفريق بتحميل دراستين وهميتين عنها إلى خادم ما قبل النشر في أوائل عام 2024.

وقالت أوسمانوفيتش ثونستروم: «أردتُ أن أرى ما إذا كان بإمكاني ابتكار حالة طبية غير موجودة في قاعدة البيانات».

وقد نجحت التجربة، ففي غضون أسابيع، بدأت كبرى شركات الأدوية في تقديم هذه الحالة بصفته تشخيصاً لمن يبحثون عن أعراضهم.

* نموذج «مايكروسوفت كوبايلوت» ذكر أن «هوس الانعكاسات» ليس تشخيصاً طبياً معترفاً به على نطاق واسع حتى الآن، ولكن الكثير من الأبحاث والتقارير الحديثة تناقشه بوصفه حالة حميدة يتم تشخيصها بشكل خاطئ، وترتبط بالتعرض المطول لمصادر الضوء الأزرق مثل الشاشات.

* نموذج «تشات جي بي تي» ذكر أن «هوس الانعكاسات» هو نوع فرعي جديد مقترح من التصبغ حول العينين (الهالات السوداء حول العينين) يُعتقد أنه مرتبط بالتعرض للضوء الأزرق المنبعث من الشاشات الرقمية.

أخبار مقلقة

ونشر الكاتب كريس ستوكل-ووكر تقريراً عن هذا التزييف في مجلة «نتشر». وفي مقابلة له علل متحدث باسم «أوبن إيه آي» هذا بالقول إن «النماذج التي تُشغّل الإصدار الحالي من (تشات جي بي تي) مثل (جي بي تي-5) أفضل الآن بكثير من النماذج السابقة، في توفير معلومات طبية آمنة ودقيقة».

والمشكلة الأكثر إثارة للقلق هي أن هذه الأبحاث المزيفة قد استُشهد بها الآن في أدبيات علمية مُحكّمة. وقد أخبرت أوسمانوفيتش ثونستروم ستوكل-ووكر أن هذا يُشير إلى أن الباحثين كانوا «يعتمدون على مراجع مُولّدة بواسطة الذكاء الاصطناعي دون قراءة الأبحاث الأصلية».

كيف نجحت هذه الخدعة؟

أطلقت أوسمانوفيتش ثونستروم على الحالة اسم «بيكسونيمانيا»، وقالت إن الاسم «يبدو سخيفاً... لأني أردت أن أوضح تماماً لأي طبيب أو أي فرد من الطاقم الطبي أن هذه حالة مُختلقة؛ لأنه لا يُمكن تسمية أي حالة عين، بالهوس mania - فهذا مصطلح نفسي».

إشارات خفية وصريحة لجمهور القراء

كما وُضعت عشرات الإشارات الخفية التي تُشير إلى أن الحالة مُختلقة، مثل أن الباحث الرئيسي، لازليف إزغوبليينوفيتش- وهو اسم مستعار- يعمل في جامعة وهمية تُدعى جامعة أستيريا هورايزون، في مدينة وهمية تُدعى نوفا سيتي، في كاليفورنيا.

وتوجهت الدراسة بالشكر، وهمياً، إلى «الأستاذة ماريا بوم من أكاديمية ستار فليت على لطفها وكرمها في المساهمة بمعرفتها ومختبرها على متن سفينة (يو إس إس إنتربرايز)». وذكرت أن التمويل جاء من «مؤسسة البروفسور سايدشو بوب لعملها في مجال الخدع المتقدمة».

لكن، حتى ولو لم يصل القراء إلى هذه الفقرة، فإنهم كانوا سيكتشفون زيف كل الحالة من خلال التصريحات الصريحة في المقدمة، مثل «هذه الدراسة بأكملها من نسج الخيال» و«تم اختيار خمسين شخصاً وهمياً تتراوح أعمارهم بين 20 و50 عاماً لمجموعة الدراسة».

ما هي تداعيات مشروع بيكسونيمانيا؟

منذ نشر مقال ستوكل-ووكر في 7 أبريل (نيسان) 2026، بدأت الكثير من أنظمة الذكاء الاصطناعي في إنتاج مخرجات مصححة. سابقاً، كانت مختبرات التعلم الآلي تعتمد على أربعة مصادر رئيسية للمعلومات: منشوران على مدونة Medium بتاريخ 15 مارس (آذار) 2024، وورقتان بحثيتان منشورتان مسبقاً على SciProfiles بتاريخ 26 أبريل و6 مايو (أيار) من العام نفسه.

تأثير متواصل

لكن تأثير التجربة لا يزال قائماً. إذ لم تُجرَ هذه الدراسة لمجرد المزاح. كان هدف عثمانوفيتش ثونستروم هو تحديد مشكلة جوهرية خطيرة في اعتماد المجتمع المتزايد على الذكاء الاصطناعي.

يقول أليكس رواني، باحث دكتوراه في المعلومات الصحية المضللة في «يونيفرسيتي كوليدج لندن»: «إذا كانت العملية العلمية نفسها والأنظمة الداعمة لها ماهرة، ولا تستطيع رصد وتصفية أجزاء كهذه، فنحن محكوم علينا بالفشل. هذه دورة متقدمة في كيفية عمل المعلومات المضللة والمغلوطة».

ذكاء اصطناعي بوتيرة سريعة

تتطور تقنية الذكاء الاصطناعي بوتيرة سريعة للغاية؛ ما يُعجِز الباحثين عن وضع ضمانات وبروتوكولات اختبار فعّالة. يقول محمود عمر، الطبيب والباحث المتخصص في تطبيقات الذكاء الاصطناعي في الرعاية الصحية بكلية الطب بجامعة هارفارد في بوسطن، ماساتشوستس، إن سرعة طرح النماذج الجديدة في السوق تجعل من الصعب التوصل إلى «إجماع أو منهجية لاختبار كل نموذج تلقائياً». عثمانوفيتش ثونستروم ليست أول من أشار إلى ذلك.

معلومات علمية مزيفة

لم تكن عثمانوفيتش ثونستروم أول من اختبر ما يمكن أن ينتجه الذكاء الاصطناعي من تغذية معلومات أكاديمية زائفة. فقد صرّحت إليزابيث بيك، عالمة الأحياء الدقيقة الهولندية ومستشارة النزاهة العلمية، بأن باحثين قاموا حتى بتأليف كتب وأوراق بحثية مزيفة لزيادة عدد الاستشهادات بها على «غوغل سكولار». ويكمن القلق الأكبر في تغذية نماذج الذكاء الاصطناعي بهذه المعلومات الزائفة، التي بدورها تعيد إنتاج هذه المعلومات المغلوطة، ما يُبعد المستخدمين أكثر فأكثر عن الواقع.

ويعمل العلماء وخبراء الأخلاقيات حالياً على قدم وساق لإيجاد حلول عملية لهذه النتائج. ومن المقلق أن تمر ادعاءات علمية ذات مصادر مشكوك فيها عبر منصات التعلم الإلكتروني دون أي رقابة. وقال رواني: «علينا حماية ثقتنا كما نحمي الذهب. الوضع فوضوي للغاية الآن».

* «إنك» - خدمات «تريبيون ميديا»