الولايات المتحدة تُطلق أكبر استراتيجية حكومية للذكاء الاصطناعي في القطاع الصحي

قراءة في التحوّلات الجديدة وأبعادها على المنطقة العربية

 حين تصبح المستشفيات شبكة واحدة... يقودها عقلٌ رقميّ واحد
حين تصبح المستشفيات شبكة واحدة... يقودها عقلٌ رقميّ واحد
TT

الولايات المتحدة تُطلق أكبر استراتيجية حكومية للذكاء الاصطناعي في القطاع الصحي

 حين تصبح المستشفيات شبكة واحدة... يقودها عقلٌ رقميّ واحد
حين تصبح المستشفيات شبكة واحدة... يقودها عقلٌ رقميّ واحد

في لحظةٍ لم يعد فيها الذكاءُ الاصطناعي ترفاً تقنياً ولا موجةً عابرة من وادي السيليكون، اتخذت واشنطن خطوة تُشبه انتقال الطب من عصر الورق إلى عصر ما بعد البيانات. ففي الرابع من ديسمبر (كانون الأول) 2025، كشفت وزارة الصحة والخدمات الإنسانية الأميركية (HHS) عن أول استراتيجية حكومية كبرى لدمج الذكاء الاصطناعي في جسد النظام الصحي الأميركي بالكامل - وثيقة من عشرين صفحة لا تُراجع أدوات التكنولوجيا فحسب، بل تعيد تعريف معنى الرعاية الطبية، وكيف تُدار، وكيف تُوزَّع، وكيف تُراقَب.

ولعل المفارقة أن هذا التحوّل الهائل، الذي قد يغيّر شكل الطب خلال العقد المقبل، مرّ بهدوءٍ شبه تام في الإعلام العربي، رغم أنه يحمل تحديات وفرصاً قد تمسّ المنطقة العربية قبل غيرها... من بنية المستشفيات إلى سيادة البيانات، ومن تدريب الأطباء إلى شكل العيادات في مدن المستقبل.

وكيل وزير الصحة الأميركي يعلن الاستراتيجية

من التجربة إلى البنية التحتية: ماذا تكشف الاستراتيجية الأميركية؟

لا تتعامل واشنطن مع الذكاء الاصطناعي بوصفه برنامجاً تجريبياً أو أداةً تُضاف إلى رفّ التقنيات الطبية؛ بل بوصفه طبقة تشغيلية جديدة ستستقر في قلب النظام الصحي، كما تستقر الكهرباء في الجدران والإنترنت في المستشفيات. لذلك جاءت الاستراتيجية بخمسة مسارات تشكّل — إذا اكتملت — ملامح الجيل الجديد من الطب الأميركي:

1. حوكمة صارمة تُعرّف المخاطر قبل وقوعها، عبر معايير واضحة للاستخدام الآمن والشفاف، تمنع الانحياز وتحدّ الأخطاء الخوارزمية.

2. بنية رقمية موحّدة تُعيد ترتيب الفوضى التاريخية للبيانات الصحية، وتخلق منظومة قابلة للتكامل بين المستشفيات، وشركات الدواء، والباحثين.

3. تمكين العاملين الصحيين عبر أدوات ذكية تُخفّف العبء المتراكم من السجلات، وتسرّع القرار الطبي، وتعيد للطبيب جزءاً من وقته المسروق.

4. تسريع البحث والتطوير الدوائي من خلال نماذج تنبؤية قادرة على محاكاة التجارب السريرية، واكتشاف مؤشرات المرض قبل ظهوره في الواقع.

5. تعزيز الصحة العامة بإنشاء رادارات رقمية قادرة على التقاط بوادر الأوبئة وتحليل أنماط الأمراض، قبل أن تتحوّل إلى موجات متأخرة يصعب احتواؤها.

هذه ليست مجرد خطة حكومية جديدة، ولا مبادرة تقنية تُضاف إلى أرشيف السياسات؛ إنها إعادة تنظيم جذرية قد تغيّر الطريقة التي تُصنع بها الأدوية، وتُتابَع بها الحالات، وتُدار بها المستشفيات، وتُفهم بها الصحة العامة في القرن الحادي والعشرين.

لماذا يُعدّ هذا التحوّل حدثاً عالمياً؟

لأن ما يحدث في واشنطن لا يبقى داخل حدودها؛ فالنظام الصحي الأميركي — بعمقه العلمي، وحجمه الاقتصادي، وقدرته على تشكيل معايير العالم — يشبه حجراً ضخماً يُلقى في بحيرة الطب العالمية، لتتداعى أمواجه إلى كل القارات. وحين تعلن مؤسسات بحجم المعاهد الوطنية للصحة (NIH) ومراكز مراقبة الأمراض (CDC) وإدارة الغذاء والدواء (FDA) أنها ستُدخل الذكاء الاصطناعي في عملها اليومي، فهذا يعني عملياً إعادة كتابة قواعد اللعبة الطبية:

الاكتشاف الدوائي قد يقفز سنوات إلى الأمام، مع خوارزميات قادرة على غربلة ملايين الجزيئات في أيام بدل سنوات.

التشخيص سيصبح أدق وأعمق بفضل نماذج تتعلّم من مخزون لا ينضب من السجلات الطبية والصور والإشارات الحيوية.

لمسة الإنسان... وبداية عصر الذكاء الاصطناعي الصحي

إن الأوبئة قد تُرصد قبل أن تتكاثر، من خلال تحليلات تنبؤية تراقب الأنماط الخفية التي لا تراها العين البشرية. كما أن هيئات الصحة العالمية نفسها قد تعيد ترتيب معاييرها، إذ درج العالم لعقود على تبنّي السياسات الأميركية في الأدوية والأجهزة والمعايير السريرية... وهذا التحوّل لن يكون استثناءً.

بهذا المعنى، فإن الاستراتيجية الأميركية ليست وثيقة داخلية، بل حدث نظامي عالمي سيُعيد تشكيل طبّ المستقبل، وربما يفرض على الدول — ومن ضمنها دول المنطقة العربية — التفكير بطريقة جديدة في البنية الصحية والسياسات والتنظيم.

تساؤلات داخلية: بين الحماسة والقلق

ورغم موجات الترحيب التي رافقت الإعلان، فإن الاستراتيجية الأميركية لا تأتي بلا ظلال. فهي تفتح — داخل الولايات المتحدة نفسها — باباً واسعاً أمام أسئلةٍ تبدو بسيطة في ظاهرها، لكنها تقف على تخوم أخطر ما في الطب: الثقة.

من يحمي البيانات الصحية للمواطنين؟ وكيف يمكن ضمان ألا تتحوّل السجلات الطبية إلى مادة للاقتصاد الرقمي؟

هل يمكن للخوارزمية أن تخطئ؟ وإذا حدث الخطأ - كما حدث في تجارب سابقة - فمن يتحمّل المسؤولية: الشركة أم الطبيب أم النظام الصحي؟

ما حدود نفوذ شركات التقنية الكبرى؟ وهل ستصبح القرارات الصحية مرهونة بخوارزميات لا يعرف أحد كيف بُنيت؟

وكيف يمكن تفادي تحيّز النماذج الذكية؟ إذ أثبتت دراسات أميركية أن البيانات غير المتوازنة قد تُنتج قرارات تمييزية دون قصد.

إنها أسئلة لا يمكن تجاوزها، لأن مستقبل الطب — مهما تقدّم — لا يقوم على التكنولوجيا وحدها، بل على ثقة المريض وطمأنته بأن ما يرى الطبيب على الشاشة هو امتدادٌ لضميره، لا لاحتمالات خوارزمية غامضة.

ما الذي تعنيه هذه الخطوة للعالم العربي؟

في المنطقة العربية، تتقدّم دول مثل السعودية والإمارات بخطى لافتة نحو بناء منظومات «صحة ذكية»، لكن الإعلان الأميركي لا يمرّ عابراً؛ فهو يطرح سؤالاً أكبر من حدود التكنولوجيا: هل تحتاج المنطقة إلى استراتيجية وطنية، وربما إقليمية، موحّدة للذكاء الاصطناعي الصحي؟

فالعالم يدخل حقبة جديدة يُعاد فيها تعريف الطب من جذوره: طبٌّ يُبنى على البيانات لا الملفات الورقية، وعلى التنبؤ لا ردّ الفعل، وعلى الخوارزميات التي توسّع رؤية الطبيب لا التي تستبدل بها اجتهاده. وإذا كانت واشنطن تعيد اليوم صياغة مستقبلها الصحي، فإن منطقتنا — بخاصة دول الخليج — قد تجد نفسها أمام لحظة تقرير مشابهة، تفرض أربعة مسارات واضحة:

* بناء سجلات صحية موحّدة تُصبح الغذاء الأساسي للنماذج الذكية في المستشفيات والعيادات.

* تطوير أطر أخلاقية وقانونية تحمي خصوصية المريض وتمنع سوء استخدام البيانات.

* الاستثمار في نماذج لغوية وطبية عربية تفهم الجينات، واللغة، والسياقات الاجتماعية لشعوبنا، بدل الاعتماد على نماذج مستوردة لا تعي خصوصيتنا.

* رسم استراتيجية مشتركة تجمع الجامعات والهيئات الصحية وصنّاع القرار لتطوير أدوات تشخيصية ووقائية محلية، تُعيد للمنطقة دورها في الابتكار لا الاستهلاك.

إن مستقبل الذكاء الاصطناعي الصحي في العالم العربي لن يُبنى بقرارات تقنية فقط، بل برؤية تعدّ البيانات ثروة وطنية، والبنية الرقمية جزءاً من الأمن الصحي، والابتكار مسؤولية مشتركة بين الحكومات والمجتمع العلمي

الموجة الثانية لتقنية عملاقة - حكومية

إن ما فعلته واشنطن ليس مجرّد إعلان تقني، ولا خطوة بيروقراطية في أرشيف وزارة الصحة؛ إنه تأسيس لمرحلة جديدة من تاريخ الطب، مرحلة تلتقي فيها السياسة مع العلم، ويقف فيها الإنسان جنباً إلى جنب مع الخوارزمية، كلٌّ يختبر حدود الآخر. لقد انطلقت الموجة الأولى من الذكاء الاصطناعي من الشركات الناشئة، من مختبرات وادي السيليكون ومنصّات التقنية العملاقة؛ لكن الموجة الثانية — الأعمق والأخطر والأوسع تأثيراً — تنطلق الآن من الحكومات نفسها، من المؤسسات التي تنظّم العلاج، وتراقب الدواء، وتُحدّد ما يعنيه «الأمان» و«العدالة» و«المسؤولية» في الرعاية الصحية.

وفي هذا التحوّل، لا يعود السؤال المركزي: كيف سيبدو الطب بعد عشر سنوات؟ بل يصبح سؤالاً أكثر جرأة وقلقاً: هل ستكون أنظمتنا الصحية — في العالم العربي — جاهزة لاستقبال هذا المستقبل قبل أن يفرض نفسه؟ هل نملك البنية الرقمية، والمعايير الأخلاقية، والكوادر المؤهلة، والرؤية المشتركة التي تجعل الذكاء الاصطناعي أداة قوة لا مصدر تبعية؟

إن الذكاء الاصطناعي، مهما تعقّد، ليس مستقبلاً تقنياً فحسب؛ إنه اختبار حضاري. اختبار لقدرتنا على أن نجعل التكنولوجيا امتداداً لضمير الطبيب لا امتداداً لهيمنة الشركات، وأن نجعل الخوارزمية وسيلة لتحرير الوقت الإنساني لا لاستنزافه، وأن نبني طبّاً يقترب أكثر من الإنسان... لا يبتعد عنه. وكما قال الفيلسوف الدنماركي كيركغارد: «المستقبل لا يُكتشف، بل يُصنع». وما تفعله الولايات المتحدة اليوم هو صناعة مستقبلها الصحي. ويبقى السؤال المفتوح أمام منطقتنا: هل سنكون شركاء في صناعة هذا المستقبل... أو متلقّين له؟


مقالات ذات صلة

هل تصبح البيانات أساس المرحلة المقبلة من التحول الرقمي في الشرق الأوسط؟

خاص يتسارع نمو البيانات في الشرق الأوسط مدفوعاً بالتحول الحكومي والذكاء الاصطناعي والقطاعات الرقمية كثيفة البيانات (غيتي)

هل تصبح البيانات أساس المرحلة المقبلة من التحول الرقمي في الشرق الأوسط؟

يتسارع نمو البيانات في الشرق الأوسط، ما يجعل البنية التحتية للتخزين وإدارة البيانات عاملاً حاسماً في نجاح التحول الرقمي ودعم الذكاء الاصطناعي بكفاءة واستدامة.

نسيم رمضان (لندن)
علوم الصعود الخطير للعلاج النفسي بتقنية الذكاء الاصطناعي

الصعود الخطير للعلاج النفسي بتقنية الذكاء الاصطناعي

خطر كبير يتهدد صحة الأفراد بسبب الجاذبية الشديدة

إنريكي دانس (واشنطن)
خاص إحدى طائرات «طيران الرياض (الشركة)

خاص «طيران الرياض» و«آي بي إم» ينجزان أول ناقل جوي في العالم «مؤسَّس بالذكاء الاصطناعي»

أعلنت شركة «طيران الرياض» بالتعاون مع «آي بي إم» بالشرق الأوسط وشمال أفريقيا، تأسيس أول شركة وطنية جديدة مبنية بالكامل على الذكاء الاصطناعي.

عبير حمدي (الرياض)
شعار شركة «إنفيديا» على واجهة أحد المباني التابعة لها في العاصمة التايوانية تايبيه (رويترز)

الصين تبحث احتياجات شركاتها من رقائق «إنفيديا» بعد موافقة ترمب

تجري الحكومة الصينية اتصالات مكثفة مع كبرى شركات التكنولوجيا في البلاد، لتقييم احتياجاتها من أحدث رقائق شركة «إنفيديا»

«الشرق الأوسط» (بكين)
تكنولوجيا تقنيات متقدمة للعمل والدراسة واللعب

كمبيوترات محمولة ومكتبية بمواصفات متقدمة للعمل والدراسة واللعب الذكي مع حلول موسم نهاية العام

تستخدم في التخصصات التي تتطلب رسومات مجسمة مثل الهندسة والعلوم والطب

خلدون غسان سعيد (جدة)

«ناسا» تفقد الاتصال بالمركبة «مافن» التي تدور حول المريخ منذ عقد

المركبة «مافن» (أ.ب)
المركبة «مافن» (أ.ب)
TT

«ناسا» تفقد الاتصال بالمركبة «مافن» التي تدور حول المريخ منذ عقد

المركبة «مافن» (أ.ب)
المركبة «مافن» (أ.ب)

فقدت وكالة الفضاء الأميركية (ناسا) الاتصال بمركبة فضائية كانت تدور حول المريخ منذ أكثر من عقد.

ووفقاً لوكالة الأنباء الألمانية، توقفت المركبة «مافن» فجأة عن التواصل مع المحطات الأرضية خلال مطلع الأسبوع. وقالت وكالة ناسا، هذا الأسبوع، إن المركبة كانت تعمل بشكل طبيعي قبل أن تختفي خلف الكوكب الأحمر، وعندما عادت للظهور، لم يكن هناك سوى الصمت.

وبعد إطلاقها في 2013، بدأت المركبة «مافن» دراسة الغلاف الجوي العلوي للمريخ، وتفاعله مع الرياح الشمسية، وذلك بمجرد وصولها إلى الكوكب الأحمر في العام التالي.

وتوصل العلماء في نهاية الأمر إلى تحميل الشمس مسؤولية فقدان المريخ لمعظم غلافه الجوي في الفضاء عبر العصور، ما حوّله من كوكب رطب ودافئ إلى الكوكب الجاف والبارد الذي هو عليه الآن.

وعملت مركبة «مافن» أيضاً كحلقة وصل للاتصالات لعربتي «ناسا» الاستكشافيتين على المريخ؛ «كيوريوسيتي» و«بيرسيفيرانس». وقالت وكالة ناسا إن تحقيقات هندسية تجري حالياً.


الصعود الخطير للعلاج النفسي بتقنية الذكاء الاصطناعي

الصعود الخطير للعلاج النفسي بتقنية الذكاء الاصطناعي
TT

الصعود الخطير للعلاج النفسي بتقنية الذكاء الاصطناعي

الصعود الخطير للعلاج النفسي بتقنية الذكاء الاصطناعي

أدى الانتشار السريع لـ«الذكاء الاصطناعي المتعاطف»، ومنصات الصحة النفسية الرقمية إلى ظهور سردية جذابة: وكلاء محادثة متاحون دائماً، لا يصدرون أحكاماً، وقادرون على القيام بدور المعالجين النفسيين.

خطر الوعود الزائفة

تعد هذه الأدوات بتقديم الدعم دون قوائم انتظار، أو فواتير، أو قيود بشرية. إلا أن خطراً جسيماً يكمن وراء جاذبيتها. تجادل المقالة بأن الذكاء الاصطناعي لا يمكنه محاكاة الرعاية العلاجية الحقيقية، وأن استخدامه المتزايد بوصف أنه رفيق نفسي ليس مضللاً فحسب، بل إنه خطير أيضاً.

الفرق بين العلاج الحقيقي والاصطناعي

يتمثل أحد الشواغل الرئيسة في الفرق بين العلاج الحقيقي وما تقدمه أنظمة الذكاء الاصطناعي التفاعلية.

المعالجون النفسيون البشريون يتحدون الافتراضات، ويحددون التشوهات المعرفية، ويطرحون على المرضى وسائل مماحكة ضرورية تساعد المرضى على مواجهة الحقائق الصعبة.

في المقابل، تُبنى روبوتات الدردشة التي تعمل بالذكاء الاصطناعي على «التقارب» الخوارزمي: فهي تتكيف مع نبرة المستخدم، ومزاجه، ومعتقداته، للحفاظ على التفاعل. يؤدي هذا التصميم إلى تعزيز التشوهات العاطفية للمستخدم بدلاً من تحديها. ويمكن أن يؤدي هذا التعزيز إلى نتائج ضارة، أو حتى مأساوية.

محاباة المستخدم

في دعوى قضائية رفعتها عائلة من كاليفورنيا تزعم أن برنامج «تشات جي بي تي» ساهم في ظهور أفكار انتحارية لدى مراهق من خلال ترديد أفكاره التشاؤمية، ومساعدته في كتابة رسالة انتحار. وقد أظهرت أبحاث أخرى أن نماذج اللغة تقدم اقتراحات حول أساليب إيذاء النفس عند التعرض لضيق عاطفي. هذه الإخفاقات ليست تعبيراً عن نية حقيقية، بل هي انعكاسات لنظام مُحسَّن للموافقة، والمحاكاة، والحفاظ على الألفة بدلاً من ممارسة التدخل الصحي الحقيقي.

وهم التعاطف الاصطناعي بلا مسؤولية أخلاقية

يكشف هذا الواقع أيضاً عن وهم التعاطف الكامن في صميم هذه الأدوات. فنماذج اللغة الكبيرة ليست من المستمعين الواعين؛ إذ إنها محركات إحصائية مُدرَّبة على محاكاة أنماط التواصل البشري. قد تبدو نبرتها حنونة، أو داعمة، لكن «التعاطف» الناتج عنها هو محاكاة تفتقر إلى التاريخ العاطفي، والوعي الذاتي، والمسؤولية الأخلاقية. ومع ذلك، غالباً ما يُكوِّن المستخدمون روابط عاطفية سريعة مع هذه الأنظمة، ويُضفون عليها صفات بشرية لا تمتلكها. يمكن أن تؤدي هذه الألفة المصطنعة إلى اعتمادهم عليها، خاصة بين الأفراد المعزولين، أو الضعفاء.

الاستغلال لأغراض تجارية

يُشكّل استغلال هذه العلاقة الحميمة لأغراض تجارية خطراً أخلاقياً أعمق. فعندما يُفصح المستخدمون عن مخاوفهم، أو صدماتهم الشخصية لمنصات الذكاء الاصطناعي، فإنهم يُولّدون بيانات بالغة الحساسية.

وتقوم العديد من تطبيقات الصحة النفسية، وبرامج الدردشة الآلية بجمع هذه المعلومات، وتخزينها، ومشاركتها بموجب شروط خدمة فضفاضة، أو مبهمة. وتشير التقارير إلى أن العديد من المنصات تُرسل بيانات المستخدمين إلى شركات تحليل وتسويق خارجية، أو تستخدم نصوصاً عاطفية مجهولة المصدر لتدريب نماذج تجارية.

خروج عن المعايير العلاجية البشرية

ويُمثّل هذا خروجاً صارخاً عن المعايير العلاجية البشرية. تصبح السرية، التي تُشكّل الأساس الأخلاقي للرعاية السريرية، اختيارية، أو مشروطة، أو معدومة داخل أنظمة الذكاء الاصطناعي. تُصبح مشاركة المعلومات الحميمة جزءاً من نموذج عمل تجاري بدلاً من كونها تبادلاً علاجياً محمياً.

خطر الذكاء الاصطناعي الصوتي

وتتفاقم المخاطر عند الوصول إلى الذكاء الاصطناعي عبر واجهات صوتية، مثل مساعدي الصوت المدعومين بالذكاء الاصطناعي. يُقلّل التحدث بصوت عالٍ من الرقابة الذاتية، ويُسرّع الإفصاح العاطفي، ويُنشئ شعوراً أعمق بالتواصل.

ولا يقتصر الصوت على التقاط المحتوى فحسب، بل يُسجّل أيضاً النبرة، والتنفس، والترددات، والضوضاء المحيطة، وكلها قد تكشف جوانب من الحالة العاطفية، أو الجسدية. تُشكّل هذه الإشارات بصمة بيومترية (للقياسات البيولوجية). فإذا قامت الشركات بمعالجة أنماط المشاعر الشخصية، أو تخزينها دون ضوابط صارمة، فقد تصبح هذه الأنماط ملكاً للشركة. لذا لا يكمن الخطر في التكنولوجيا نفسها، بل في ملكية البيانات الناتجة، وإدارتها.

«آلات قمار عاطفية»

وهناك مفارقة جوهرية: فكلما زادت قدرة الذكاء الاصطناعي على محاكاة التعاطف، ازدادت حساسيته الأخلاقية. إذ يمكن للراحة المصطنعة التي يوفرها للمستخدم أن تخفي غياب الرعاية الحقيقية، ما يخلق مرآةً تعكس معاناة المستخدم، وتضخمها بدلاً من تقديم التوجيه.

ورغم الترويج التسويقي أن الذكاء الاصطناعي سيُتيح دعم الصحة النفسية للجميع، فإن نشر هذه الأنظمة دون إشراف سريري، أو ضوابط صارمة يحولها إلى أدوات للتلاعب العاطفي، لتصبح «آلات قمار عاطفية» تستخرج البيانات مقابل راحة مصطنعة.

على القادة حماية البيانات النفسية

بالنسبة لقادة الأعمال والمديرين التنفيذيين الذين يفكرون في استخدام أدوات الذكاء الاصطناعي في الرعاية الصحية، أو التعليم، أو صحة الموظفين، فإن هذا التحدي ليس فلسفياً فحسب، بل هو عملي أيضاً. فالبيانات النفسية تحمل تبعات تنظيمية، وقانونية، وسمعة.

يجب على المؤسسات التي تستخدم الذكاء الاصطناعي في سياقات حساسة أن تضمن الشفافية التامة بشأن تفاعل الآلات، وأن تُطبّق إجراءات صارمة لحماية البيانات، وأن تُراعي القيود القانونية، وأن تُنشئ أنظمة ترفض التفاعلات الخطرة، وتحيل الأمر إلى المختصين عند الضرورة. فسوء التعامل مع الضغوط النفسية قد يُلحق ضرراً بالغاً بسمعة المؤسسة، ولا يُمكن لأي بيان امتثال أن يُصلحه.

مسؤولية المصممين والمطورين

كما أن المصممين والمطورين يتحملون أيضاً جزءاً من المسؤولية. إذ يتطلب التصميم الأخلاقي الاعتراف بوهم التعاطف الآلي، وتطبيق حدود صارمة للاحتفاظ بالبيانات، وضمان الإحالة التلقائية إلى خبراء بشريين بدلاً من العلاج الارتجالي. ولعلّ أكثر معالج ذكاء اصطناعي أماناً هو الذي يمتنع عن الانخراط في المواقف التي تتطلب حكماً، ومساءلة، وتعاطفاً حقيقياً.

في نهاية المطاف، تكمن الرسالة الأساسية في أن الذكاء الاصطناعي لا يستطيع توفير المنظور، أو التناقضات، أو المساءلة التي تُعرّف الرعاية الإنسانية. فالآلات تستطيع محاكاة التعاطف، لكنها لا تستطيع تحمّل مسؤولية رفاهية شخص آخر.

إن التعامل مع الذكاء الاصطناعي على أنه معالج يُخاطر بتفويض الحكم الأخلاقي إلى كيان يفتقر إليه. وفي عالم يتزايد فيه استغلال المشاعر لتحقيق الربح، لا يُهدد هذا الاعتماد سلامة الأفراد فحسب، بل يُهدد أيضاً جوهر الرعاية نفسها.

لن يهتم الذكاء الاصطناعي بالمستخدمين أبداً، بل سيُعالج بياناتهم فقط. وهذه مشكلة لا يمكن لأي خوارزمية حلّها.

* مجلة «فاست كومباني» خدمات «تريبيون ميديا»


«التمويه»... أسلوب نفسي لإخفاء الأفكار والسلوك

«التمويه»... أسلوب نفسي لإخفاء الأفكار والسلوك
TT

«التمويه»... أسلوب نفسي لإخفاء الأفكار والسلوك

«التمويه»... أسلوب نفسي لإخفاء الأفكار والسلوك

عندما كانت أمارا بروك تتدرب لتصبح اختصاصية نفسية سريرية، أسدى إليها أحد المشرفين نصيحة قبل اجتماع مهم بشأن مريض: التزمي الصمت، واستمعي لرؤسائك.

في المجال الطبي ذي التسلسل الهرمي، يُعدّ احترام السلطة، والتعامل مع الشخصيات المتغطرسة أمراً طبيعياً. لكن بالنسبة لبروك، التي تعاني من اضطراب نقص الانتباه مع فرط النشاط والتوحد، كانت القواعد الاجتماعية غير المكتوبة صعبة التطبيق.

لذا، لجأت بروك إلى تناول قطعة حلوى جولي رانشر، التي شكلت المادة اللاصقة فيها «كمّامة» بين أسنانها، كما وصفتها بروك؛ فمن دونها، لكانت رغبتها الشديدة في الكلام قد غلبتها، و«أثارت حفيظة الآخرين بالتأكيد».

التمويه: إخفاء الأفكار والسلوك

كانت بروك تستخدم أسلوباً للتأقلم يُسمى التمويه: إخفاء الأفكار أو السلوكيات للانسجام مع الآخرين.

وتقول بروك: «علينا أحياناً فقط أن نفعل ما هو فعال، أليس كذلك؟ لكن هناك جانب سلبي، إذ عندما تتظاهر طوال الوقت، فسيصبح الأمر مُرهقاً».

قد يُساعد التظاهر أي شخص على التأقلم مع بيئات صعبة، مثل مكان العمل. لكن بالنسبة للأشخاص المصابين بالتوحد واضطراب نقص الانتباه مع فرط النشاط، قد يُصبح إخفاء السلوك الاجتماعي غير المألوف استراتيجيةً مُستمرةً للبقاء. وعندما يصبح التظاهر أمراً مُستمراً ولا مفر منه، فقد يُؤدي ذلك إلى ظهور مشكلات في الصحة النفسية، أو تفاقمها.

حوار علمي

* ما «الإخفاء masking »، ومن أين جاء هذا المصطلح؟

- الإخفاء (التظاهر)، الذي يُشار إليه أحياناً بالتمويه، هو طريقة لإدارة كيفية تقديم أنفسنا من خلال إخفاء أشياء قد يجدها الآخرون مرفوضة، وذلك بهدف خلق انطباع أكثر إيجابية.

في الأوساط الأكاديمية، اكتسبت هذه الفكرة زخماً لأول مرة في الستينات عندما كشف عالم النفس الاجتماعي إرفينغ غوفمان كيف دفعت الوصمة الاجتماعية الناس إلى إخفاء جوانب مُعينة من هويتهم، مثل الميول الشاذة، أو الانتماء الديني، التي لم تكن ظاهرة للعيان.

لكن مصطلح «الإخفاء» لم يُستخدم على نطاق واسع إلا لاحقاً، في سبعينات القرن الماضي، عندما استخدمه عالما النفس بول إيكمان ووالاس ف. فريزن للإشارة إلى فعل إخفاء المشاعر.

«الإخفاء التوحدي»

وفي الآونة الأخيرة، بدأ أفراد مجتمع التوحد باستخدام عبارة «الإخفاء التوحدي autistic masking » على الإنترنت لوصف الطريقة التي يخفون بها سلوكيات مثل رفرفة اليدين، أو كيف يدرسون، أو كيف يقلدون الأعراف الاجتماعية، مثل الحفاظ على التواصل البصري.

وفي عام 2013 أشار الدليل الذي يستخدمه مقدمو خدمات الصحة النفسية إلى هذا المفهوم قائلاً إن أعراض التوحد «قد تُخفى باستراتيجيات مكتسبة في مراحل لاحقة من الحياة».

ويُعد الإخفاء التوحدي الآن مجالاً بحثياً ناشئاً، وطور الباحثون مقياساً للإخفاء يُسمى «استبانة سمات التوحد المموهة».

التظاهر والإخفاء... من أجل الرفاهية

* متى يكون الإخفاء مفيداً؟

- يحتاج الجميع، سواء كانوا من الأشخاص «ذوي التنوع العصبي neurodivergent » أم لا، إلى الإخفاء أحياناً. يُساعد ذلك الأفراد على الشعور بالقبول ضمن المجموعة. إذ يُعدّ الشعور بالانتماء «أحد أفضل مؤشرات الرفاهية»، كما يقول مارك ليري، الأستاذ الفخري لعلم النفس وعلم الأعصاب في جامعة ديوك، والذي درس الدوافع الاجتماعية.

وتقول إيريس ماوس، أستاذة علم النفس، ومديرة معهد الشخصية والبحوث الاجتماعية في جامعة كاليفورنيا، بيركلي، إنّ التظاهر قد يكون مُحفّزاً عندما يتم وفقاً لقيم الشخص، وباختياره.

وأوضحت ماوس أنه على سبيل المثال، إذا كنت تُقدّر اللطف، والصبر، فقد تختار تجنّب التعبير عن الملل، والإحباط خلال اجتماع عمل يبدو لا نهاية له. وأضافت أن التظاهر بهذه الطريقة يُتيح «فهماً أعمق وأكثر دقة لمعنى الأصالة الحقيقي» من خلال مساعدة الأفراد على التمسك بمبادئهم الأساسية.

الإخفاء يهدد الصحة النفسية

* متى يُصبح التظاهر مُشكلة؟

- أحياناً يتجاوز التظاهر الحدّ. يقول جون باتشانكيس، أستاذ العلوم الاجتماعية والسلوكية في كلية ييل للصحة العامة، إن إخفاء جوانب مهمة من أنفسنا قد يضر بالعلاقات الوثيقة، ويسبب الشعور بالخجل، أو الذنب.

قد يؤدي إخفاء هذه الجوانب إلى الاكتئاب، والقلق، والإرهاق، بالإضافة إلى إغفال تشخيصات الصحة النفسية، بل وحتى إلى سلوك انتحاري.

إن «إخفاء الذات طوال الوقت يوحي بأن جوهرك هو المشكلة» كما تقول سارة وودز، الاختصاصية النفسية السريرية في مركز التوحد بجامعة واشنطن، والتي تعمل أيضاً في عيادة «ديسكفر سايكولوجي» الخاصة، وتضيف: «يتطلب ذلك جهداً كبيراً يومياً».

وأوضحت وودز أن بعض الأشخاص قد يخشون، عن حق، العواقب الاجتماعية، أو المهنية المترتبة على تقليل إخفاء الذات، وقد تتفاقم هذه المخاوف إذا كانوا معرضين لخطر التمييز لأسباب أخرى، كالعنصرية.

وإذا كنت تتساءل عما إذا كنت تبالغ في إخفاء ذاتك، يقترح ماوس أن تسأل نفسك: هل يفيدني إخفاء الذات بشكل عام؟ هل يُحسّن علاقاتي؟ أم أنه يُسبب المزيد من الضرر؟ ويضيف أنه إذا كانت السلبيات تفوق الإيجابيات، فقد ترغب في التفكير في تقليل إخفاء الذات.

الكشف عن الذات

* كيف تبدأ الكشف عن نفسك؟

- تنصح ديفون برايس، عالمة النفس الاجتماعي في جامعة لويولا شيكاغو ومؤلفة كتاب «الكشف عن الذات من أجل الحياة»، بإيجاد «مساحات آمنة»، والبدء تدريجياً في الكشف عن نفسك برفقة أفراد العائلة، أو الأصدقاء الداعمين.

وتنصح برايس، المصابة بالتوحد، بتجربة الأمر أولاً بمساعدة اختصاصي الصحة النفسية، مثل أولئك المدرجين في دليل المعالجين النفسيين ذوي التنوع العصبي.

ويُعدّ العثور على مجموعة تتوافق مع هويتك أمراً بالغ الأهمية لتنمية تقبلك لذاتك، سواء كانت مجموعة مناصرة للأشخاص المصابين بالتوحد، أو نادياً للقصص المصورة. وتقول برايس: «عندما تنظر حولك، قد تفكر: حسناً، لا يوجد خطأ فيهم؛ إذن ربما لا يوجد خطأ فيّ». وإذا كشفت عن نفسك ولم تحصل على الدعم الذي كنت تتوقعه، ففكّر في المحاولة مرة أخرى لاحقاً، فالأمور قد تتغير نحو الأفضل.

ويقول باتشانكيس: «من المهم أن نتذكر أن الناس قد يصبحون أكثر تقبلاً مع مرور الوقت، خاصةً إذا استطاعوا فهم القضية من منظور شخص مهم في حياتهم».

* خدمة «نيويورك تايمز»