هل أقلق بشأن «إشعاعات» الهاتف الذكي؟

الخبراء يشيرون إلى سلامة استخدامه

هل أقلق بشأن «إشعاعات» الهاتف الذكي؟
TT

هل أقلق بشأن «إشعاعات» الهاتف الذكي؟

هل أقلق بشأن «إشعاعات» الهاتف الذكي؟

تناولت كارولين هوبكنز في «نيويورك تايمز» أخيراً عدداً من المسائل حول أضرار «إشعاعات» الهواتف الذكية.

س: أستخدم هاتفي باستمرار، وعادة ما يكون بالقرب من جسمي. هل يجب أن أقلق بشأن التعرض للإشعاع؟

ج: قضاء اليوم كله ملتصقاً بهاتفك الذكي ربما لا يقدم لك أي خدمة. وقد ارتبط الاستخدام الزائد للهاتف بمجموعة من المخاوف، بما في ذلك مشاكل النوم وارتفاع مستويات هرمون الكورتيزول الضار، وآلام المفاصل وحتى المشاكل في العلاقات الشخصية.

ولكن إذا كان الإشعاع هو ما يقلقك، فإن الخبراء يقولون إنه لا ينبغي لك التخلص من هاتفك.

لا خطر من «إشعاعات» الهاتف

وتقول جايل ولوشاك، العميدة المساعدة وأستاذة الأشعة في كلية الطب بجامعة نورث وسترن فاينبرغ: «لا يوجد خطر من حدوث أي شيء خطر، أو خطير، مع الإشعاع الصادر من الهواتف المحمولة».

من جهتها، تقول إميلي كافري، الأستاذة المساعدة في الفيزياء الصحية بجامعة ألاباما في برمنغهام، إنه حال جميع الهواتف المحمولة مشابه لحال شبكات «واي فاي»، ومحطات الراديو، وأجهزة التحكم عن بعد، ونظم تحديد المواقع العالمي، إذ إن جميعها يبعث «إشعاعات». وتستخدم هذه الأجهزة موجات طاقة غير مرئية لنقل الأصوات والنصوص والصور ورسائل البريد الإلكتروني إلى أبراج الخلايا القريبة، والتي يمكن نقلها إلى أي مكان في العالم تقريباً.

لكن ما يقرب من ثلاثة عقود من البحث العلمي لم تربط مثل هذا التعرض لمشكلات طبية مثل السرطان، حسبما تقول السلطات الصحية، بما في ذلك إدارة الغذاء والدواء الأميركية. هذا ما نعرفه (حتى الآن).

«إشعاعات» غير ضارة

ليست كل أنواع الإشعاع ضارة. ويقول الدكتور هوارد فاين، مدير مركز أورام الدماغ في مركز نيويورك بريسبيتيريان وايل كورنيل الطبي في مدينة نيويورك، إن «الإشعاع» يصف العديد من أنواع الطاقة، وبعضها ينطوي على مخاطر. ويضيف فاين إن القنابل الذرية - و بدرجة أقل بكثير - أجهزة الأشعة السينية (أشعة إكس)، تبعث طاقة تسمى الإشعاعات المؤينة، التي يمكن أن تلحق الضرر بالحمض النووي وتسبب السرطان، إذا كانت بجرعات عالية أو متكررة بما فيه الكفاية.

لهذا السبب يتم ارتداء «بطانية مصنوعة من الرصاص» واقية عادة، أثناء انبعاث الأشعة السينية. لكن طاقة الهواتف الذكية تندرج ضمن فئة تسمى «الإشعاعات غير المؤينة»، كما تقول كافري، وهي ليست قوية بما يكفي لإحداث هذا الضرر.

«يعتقد الكثير من الناس أن الإشعاع هو إشعاع، لكن الأمر ليس كذلك»، كما تقول ولوشاك، «إذ لا يوجد أي تلف في الحمض النووي نتيجة لاستخدام الهاتف المحمول»، أما الإشعاع المؤين الأكثر خطورة فيمكنه أن يفصل الإلكترونات عن الذرات التي تشكل الحمض النووي لدينا. ومع مرور الوقت، يمكن أن يؤدي تلف الحمض النووي إلى الإصابة بالسرطان.

دراسات ونتائج غير حاسمة

لماذا تستمر حالة القلق؟ يتفق معظم الخبراء والسلطات الصحية مثل إدارة الغذاء والدواء الأميركية، ومراكز السيطرة على الأمراض والوقاية منها، ومنظمة الصحة العالمية على أنه لا يوجد دليل على أن إشعاع الهاتف الذكي يسبب مشاكل صحية.

ومع ذلك، فقد تصدر العديد من الدراسات على مر السنين عناوين الصحف تفترض صلتها بأورام المخ. ويقول فاين إنه فضح العديد من هذه الدراسات منذ ذلك الحين، بما في ذلك تلك التي تركز على شبكات الهاتف المحمول من الجيل الخامس 5G.

في إحدى الدراسات التي نشرت عام 2010، على سبيل المثال، وجد الباحثون ارتباطاً صغيراً بين نوع واحد من أورام المخ وبين أعلى مستويات استخدام الهاتف المحمول. لكن الباحثين في الدراسة لاحظوا أن «التحيزات والخطأ» منعتهم من إثبات علاقة السبب والنتيجة. ومن بين عيوب الدراسة المختلفة، وفقاً لمؤلفيها، أنها اعتمدت على الأشخاص المصابين بسرطان الدماغ، الذين طلب منهم أن يتذكروا بشكل صحيح مقدار استخدامهم لهواتفهم على مدار سنوات عديدة.

قال جميع الخبراء الذين تمت مقابلتهم حول هذا الموضوع إن الدراسات القليلة التي أشارت إلى أن الهواتف الذكية تشكل مخاطر إشعاعية لم تثبت في الواقع أن الهواتف المحمولة تسبب تلك المشكلات الصحية.

يمتلك معظم الناس في الولايات المتحدة هواتف محمولة، وفقاً لمركز بيو للأبحاث، وسيكون من المستحيل تقريباً تحديد الهواتف المحمولة كسبب لإصابة شخص ما بالسرطان، كما يقول فاين. ومن الممكن أن تكون عوامل الخطر غير ذات الصلة، مثل التعرض لتلوث الهواء أو التدخين أو العادات غير الصحية أو حتى مجرد الصدفة، هي السبب بحدوث المرض. ومع ذلك، فإن الدراسات التي تحتوي على مثل هذه العيوب قد شوهت التصورات حول سلامة الهاتف، كما يقول المعهد الوطني للسرطان

أجهزة جديدة أكثر أمناً وسلامة

الهواتف المحمولة اليوم ليست مثل الهواتف القديمة المصنوعة في أوائل العقد الأول من القرن الحادي والعشرين. وستكون الهواتف التي سنستخدمها في العقد المقبل مختلفة أيضاً. وهذا يجعل من الصعب دراسة المخاطر طويلة المدى من أي هاتف واحد. لكن فاين يقول إن الإشعاع انخفض بالفعل مع التكنولوجيا الأحدث، وتقول ولوشاك من جهتها إن الشبكات الجديدة ليست أكثر خطورة من الشبكات القديمة أيضاً. وتضيف: «إن إشعاع 5G ليس أعلى من 4G، إنه يسمح فقط بنقل أكبر للبيانات».

الطلب من «أبل» خفض الإشعاعات

ومع ذلك، تضع لجنة الاتصالات الفيدرالية ونظيراتها الدولية حدوداً للإشعاع للهواتف الجديدة. وهذا ما يفسر سبب إخبار السلطات الفرنسية لشركة «أبل»، في سبتمبر (أيلول)، بأنه يجب عليها خفض مستويات الإشعاع المنبعثة من iPhone 12 للامتثال لحدودها القصوى، طرحت «أبل» تحديثاً للبرنامج لإصلاح المشكلة.

وقالت كافري إن هذه الحدود تعتمد على مستويات الإشعاع التي يمكن نظرياً أن ترفع درجات حرارة أجسامنا بجزء من الدرجة. ووفق ولوشاك، فإن الإشعاع يحتاج إلى تسخين أجسامنا عدة درجات كاملة ليشكل مخاطر صحية مثل الحروق أو الحمى. وأضافت: «الهاتف المحمول لن يفعل ذلك أبداً»

* خدمة «نيويورك تايمز».


مقالات ذات صلة

مقترح مصري يستلهم التجربة الفرنسية في تقييد استخدام الأطفال للجوال

شمال افريقيا لجنة الاتصالات بمجلس النواب المصري تستمع إلى رؤى عدد من الوزراء قبل إصدار تشريع يحد من مخاطر الإنترنت على الأطفال (وزارة الشؤون النيابية)

مقترح مصري يستلهم التجربة الفرنسية في تقييد استخدام الأطفال للجوال

تعددت المقترحات المتداولة في مصر حول تقييد استخدام الأطفال «للهواتف الجوالة» منذ أن وجه الرئيس السيسي «بسن قوانين تحظر استخدام الجوال للفئات الصغيرة».

أحمد جمال (القاهرة)
صحتك الاستخدام أكثر سلبية... مجرد تمرير بلا توقف للهاتف كان الأكثر ضرراً على الأطفال وفقاً لخبير (بكساباي)

كيف تؤثر شاشات الهواتف على التحصيل الدراسي للطلاب؟

تساهم زيادة استخدام وسائل التواصل الاجتماعي والهواتف بانخفاض الصحة النفسية وزيادة مشكلات النوم وارتفاع معدلات الاكتئاب واضطرابات الأكل وإيذاء النفس.

«الشرق الأوسط» (لندن)
شمال افريقيا أصداء إلغاء الإعفاء الجمركي على الجوالات المستوردة من الخارج ما زالت مستمرة في مصر (أرشيفية - رويترز)

«هاتف مقابل حوالة بالدولار»... مقترح برلماني يثير عاصفة جدل بين المصريين بالخارج

أثار مقترح برلماني بإعفاء المصريين بالخارج من «جمارك الهواتف الجوالة» مقابل دفع حوالة سنوية بالدولار، عاصفة من الجدل في مصر.

«الشرق الأوسط» (القاهرة)
تكنولوجيا تصميم أنيق ودعم لتقنيات الذكاء الاصطناعي بسعر معتدل

هاتف «أوبو رينو 15 5جي» يجمع بين الذكاء الاصطناعي وقوة التحمل وعمر البطارية

الشاشة تضمن سلاسة فائقة في التصفح واللعب بالألعاب الإلكترونية

خلدون غسان سعيد (جدة)
تكنولوجيا تُظهر الدراسة أن تصور مستخدمي «واتساب» لسلوكهم في المراسلة غالباً لا يتطابق مع بيانات الاستخدام الفعلية (شاترستوك)

دراسة جديدة: استخدامك «واتساب» يكشف أكثر مما تعرف عن نفسك

الدراسة تكشف فجوة بين تصور مستخدمي «واتساب» لسلوكهم الرقمي وواقع بيانات الاستخدام، مؤكدةً أن الأنماط الفعلية أكثر دقة من الانطباعات الذاتية اليومية.

نسيم رمضان (لندن)

استطلاع أميركي: الغش بالذكاء الاصطناعي «أصبح جزءاً لا يتجزأ من الحياة الطلابية»

استطلاع أميركي: الغش بالذكاء الاصطناعي «أصبح جزءاً لا يتجزأ من الحياة الطلابية»
TT

استطلاع أميركي: الغش بالذكاء الاصطناعي «أصبح جزءاً لا يتجزأ من الحياة الطلابية»

استطلاع أميركي: الغش بالذكاء الاصطناعي «أصبح جزءاً لا يتجزأ من الحياة الطلابية»

أظهرت دراسة جديدة أجراها «مركز بيو للأبحاث» أن أكثر من نصف المراهقين في الولايات المتحدة يستخدمون أدوات الذكاء الاصطناعي للمساعدة في واجباتهم المدرسية.

تضاعف استخدام الذكاء الاصطناعي

وأفاد استطلاع «بيو» في تقرير نُشر أمس الثلاثاء أن 54 في المائة من الطلاب الذين تتراوح أعمارهم بين 13 و17 عاماً قالوا إنهم استخدموا برنامج دردشة آلية مثل «تشات جي بي تي» أو«كوبايلوت» لمهام مثل البحث عن الواجبات المدرسية أو حل مسائل الرياضيات.

وكان 26 في المائة من المراهقين الأميركيين أفادو عام 2024 أنهم استخدموا «تشات جي بي تي» في واجباتهم المدرسية، وذلك وفقاً لدراسة سابقة أجراها «مركز بيو» سألت تحديداً عن استخدامهم لهذا البرنامج. وقد مثل هذا زيادة مضاعفة مقارنةً بعام 2023، حيث أفاد 13 في المائة فقط من الطلاب باستخدامهم برنامج «جي بي تي» للمساعدة في دراستهم، وفقاً لنفس المركز.

تنفيذ الواجبات المدرسية

وخلص التقرير الحديث واستناداً إلى استطلاع شمل 1458 مراهقاً وأولياء أمورهم في خريف العام الماضي، إلى وجود تباين في استخدام الذكاء الاصطناعي بين المراهقين بشكل كبير. فبينما قال 44 في المائة من المراهقين إنهم استخدموا الذكاء الاصطناعي في «بعض» أو «قليل» من واجباتهم المدرسية، قال 10 في المائة إنهم لجأوا إلى برامج الدردشة الآلية للحصول على المساعدة في جميع أو معظم واجباتهم المدرسية.

وقالت كولين ماكلين، الباحثة الرئيسية في مركز بيو والمشاركة في إعداد الدراسة: «نلاحظ بوضوح أن استخدام برامج الدردشة الآلية المدعومة بالذكاء الاصطناعي للمساعدة في الواجبات المدرسية أصبح ممارسة شائعة بين المراهقين».

جدل محتدم

وتأتي هذه النتائج وسط جدل وطني محتدم حول انتشار أنظمة الذكاء الاصطناعي التوليدية، القادرة على إنتاج نصوص تبدو وكأنها من صنع الإنسان، وإنشاء صور واقعية، وتطوير تطبيقات.

يقول المؤيدون إن على المدارس تعليم الطلاب استخدام وتقييم روبوتات الدردشة المدعومة بالذكاء الاصطناعي لإعداد الشباب لمتطلبات سوق العمل المتغيرة. بينما يحذر المنتقدون من أن هذه الروبوتات قد تنشر معلومات مضللة، وتضلل الطلاب، وتقوض التفكير النقدي، وتؤدي إلى إيذاء النفس، وتسهل الغش.

تعويق التفكير النقدي للطلاب

تشير العديد من الدراسات الحديثة إلى أن روبوتات الدردشة قد تعيق التفكير النقدي وتؤثر سلباً على التعلم. ففي إحدى الدراسات التي أجرتها دار نشر جامعة كامبريدج والتقييم بالتعاون مع «مايكروسوفت للأبحاث» حول فهم النص المقروء، أظهر الطلاب الذين طُلب منهم تدوين الملاحظات دون استخدام روبوتات الدردشة فهماً أفضل للنص المقروء مقارنةً بالطلاب الذين طُلب منهم استخدامها لفهم النصوص.

التعلم والترفيه

طرح باحثو مركز بيو للأبحاث أسئلة متنوعة على المراهقين حول آرائهم واستخدامهم للذكاء الاصطناعي. وتُظهر النتائج أن العديد من الشباب يستخدمون روبوتات الدردشة كمنصات متعددة الأغراض للتعلم والترفيه والحصول على النصائح والتواصل الاجتماعي.

وقال 47 في المائة من المراهقين إنهم استخدموا روبوتات الدردشة للتسلية، بينما قال 42 في المائة إنهم استخدموها لتلخيص المحتوى. وقالت نسبة أقل، 12 في المائة، إنهم استخدموها للحصول على النصائح أو الدعم النفسي.

كيفية استخدام الذكاء الاصطناعي

وسلّط ​​التقرير الضوء أيضاً على كيفية استخدام المراهقين لأدوات الذكاء الاصطناعي في دراستهم.

وقال ما يقرب من نصف المراهقين إنهم استخدموا برامج الدردشة الآلية لأغراض البحث، بينما استخدم أكثر من 40 في المائة منهم الذكاء الاصطناعي للمساعدة في حل مسائل الرياضيات. وأفاد أكثر من ثلثهم بأنهم استخدموا هذه البرامج لتحرير كتاباتهم.

الغشّ «بشكل متكرر»

ولم يتطرق الاستطلاع إلى سؤال الطلاب عما إذا كانوا قد استخدموا برامج الدردشة الآلية لكتابة المقالات أو إنشاء واجبات أخرى، وهي أنواع الغش التي حذَّر منها المعلمون في جميع أنحاء الولايات المتحدة. لكن ما يقرب من 60 في المائة من المراهقين أخبروا مركز بيو للأبحاث أن طلاباً في مدارسهم يستخدمون برامج الدردشة الآلية للغش «بشكل متكرر» أو «بشكل متكرر إلى حد ما».

وذكر التقرير أن النتائج تشير إلى أن المراهقين يعتقدون أن «الغش باستخدام الذكاء الاصطناعي أصبح جزءاً لا يتجزأ من الحياة الطلابية».

* خدمة «نيويورك تايمز».


مهارات قيادية… لا يمكن للذكاء الاصطناعي أن يحل محلها

مهارات قيادية… لا يمكن للذكاء الاصطناعي أن يحل محلها
TT

مهارات قيادية… لا يمكن للذكاء الاصطناعي أن يحل محلها

مهارات قيادية… لا يمكن للذكاء الاصطناعي أن يحل محلها

يجلس الرئيس التنفيذي في غرفة اجتماعات، محدقاً في عروض استراتيجية أُعدّت بين عشية وضحاها بواسطة الذكاء الاصطناعي: إنها تقدم التحليل الدقيق، والتوصيات الواثقة، والأرقام المتناسقة... ومع ذلك، ثمة شعورٌ بعدم الارتياح؛ إذ يبدو الأمر مثالياً أكثر من اللازم، كما كتب جيف بيرنغهام (*).

الذكاء الاصطناعي أضحى أقوى أدوات الإدارة

أصبحت هذه اللحظة شائعة بشكل متزايد بين القادة. فالذكاء الاصطناعي اليوم يُعدّ من أقوى أدوات الإدارة على الإطلاق. بإمكانه تحليل الأسواق في ثوانٍ، واكتشاف أنماطٍ يعجز أي فريق بشري عن رصدها، ووضع خططٍ عند الطلب.

وبالنسبة للكثير من المديرين التنفيذيين، بات الذكاء الاصطناعي ضرورياً لا غنى عنه. ولكن مع تزايد انتشاره بوتيرة غير مسبوقة، يبرز سؤالٌ خفيّ داخل المؤسسات: كيف نضمن تركيز الذكاء الاصطناعي على ازدهار الإنسان؟

«الذكاء يتوسع»... والحكمة لا تتوسع

يتفوق الذكاء الاصطناعي في الذكاء. فهو يكتشف الأنماط، ويتنبأ بالنتائج، ويُحسّن الكفاءة. أما ما يفتقر إليه الذكاء الاصطناعي، فهو الحكمة السياقية: القدرة على فهم أهمية القرار (في سياق الأمور)، وكيف سيؤثر عاطفياً وثقافياً، وما الذي يعززه بمرور الوقت.

لم تكن القيادة يوماً تعني امتلاك أكبر قدر من المعلومات، بل لطالما كانت تعني تحديد الأولويات عند تضارب المعلومات.

في بيئة غنية بالذكاء الاصطناعي، حيث يُتداول الذكاء بصفته منتجاً، يواجه القادة إغراءً خفياً لتفويض الحكم إلى جهات خارجية. فعندما تبدو لوحات المعلومات دقيقة والتوصيات موضوعية، قد يجري الخلط بسهولة بين التحسين وبين الحكمة.

لكن الذكاء الاصطناعي لا يستطيع الإجابة عن الأسئلة التي تزداد مسؤولية القادة عنها:

- كيف يؤثر هذا على الأشخاص الأعزاء الذين أعتني بهم؟

- ما القيم التي تحرك هذا القرار؟

- هل يعكس هذا القرار نوع العالم الذي نسعى لبنائه معاً؟

هذه ليست أسئلة حسابية، بل هي أسئلة إنسانية.

الخطر الحقيقي: القيادة المتخلية

يركز جزء كبير من النقاش العام حول مخاطر الذكاء الاصطناعي على التحيز أو سوء الاستخدام. وهذه المخاوف حقيقية. لكن داخل المؤسسات، يبرز خطرٌ خفيّ: إسناد التفكير الذي يؤثر على البشر إلى «الآلة».

عندما يُفرط القادة في الاعتماد على توصيات الذكاء الاصطناعي، فإنهم يفقدون تدريجياً ثقتهم في حكمهم. ويتحول دور القيادة من فهم الأمور إلى مراقبة النظام. ثم تتوقف فِرق العمل عن النقاش، ويتوقف القادة عن تفسير الواقع ويبدأون في التحقق من صحة النتائج.

النتيجة ليست قيادة أفضل، بل قيادة أضعف... إذ ومع مرور الوقت، يظهر هذا في صورة انحراف ثقافي، ونقاط ضعف أخلاقية، وانفصال الموظفين، وفقدان الثقة، خاصةً في أوقات مثل تسريح العمال، أو إعادة الهيكلة، أو التحولات الاستراتيجية الكبرى. عندما يعجز القادة عن شرح أسباب اتخاذ قرار ما بوضوح، يشعر الموظفون بأنهم مُوجَّهون بدلاً من أن يكونوا مُقادين.

القادة الأقوياء

القادة الأقوياء لا يكتفون باتخاذ القرارات، بل يشرحون أهميتها. إنهم يربطون القرارات بمعناها وبالقيم المشتركة. إنهم يساعدون فرق العمل على فهم كيف تتناسب خيارات اليوم مع مسار التحول والتطور البشري الأوسع.

يمكن للذكاء الاصطناعي اقتراح حلول، لكن البشر وحدهم من يستطيعون صياغة المعنى.

لماذا أصبح الوضوح مهارة قيادية أساسية؟

في عالمٍ مُتشبّع بالذكاء الاصطناعي، يُضاعف الوضوح من قوة التأثير... وضوح بشأن الغاية...وضوح بشأن القيم... وضوح بشأن ما لا يجب تحسينه.

أي ببساطة: الوضوح هو تحديد ما ترفض السماح للذكاء الاصطناعي بتحسينه.

سيسعى الذكاء الاصطناعي بكل سرور إلى التحسين من أجل السرعة والكفاءة والتفاعل أو خفض التكاليف. ولن يسأل عما إذا كانت هذه التحسينات تُضعف الثقة أو الإبداع أو المرونة أو التماسك على المدى الطويل. يجب على القادة أن يفعلوا ذلك. لهذا السبب؛ أصبح الوضوح، وليس الكاريزما أو الخبرة التقنية، إحدى أهم القدرات القيادية في العقد المقبل.

رؤية واستبصار

يُتيح الوضوح للقادة:

- وضع حدود لكيفية ومكان استخدام الذكاء الاصطناعي.

- وضع إطار لرؤى الذكاء الاصطناعي ضمن السياق الإنساني.

- تحديد متى يجب أن تُضحّي الكفاءة المطلوبة بالأخلاق.

- حماية الإبداع حيث يُمكن للتحسين أن يُطغى عليه.

ومن دون الوضوح، يُخاطر القادة بأن يصبحوا مُتفاعلين مع الذكاء الاصطناعي بدلاً من أن يكونوا مسؤولين عن النتائج الإنسانية.

كيف يستخدم القادة الفعالون الذكاء الاصطناعي دون الاعتماد عليه؟

الهدف ليس مقاومة الذكاء الاصطناعي، بل توظيفه بالشكل الأمثل في ممارسات القيادة.

وهناك ثلاثة مبادئ تساعد القادة على تحقيق ذلك:

- التعامل مع الذكاء الاصطناعي بصفته مستشاراً، لا سلطة مطلقة.

- استخدام الذكاء الاصطناعي لاستكشاف الخيارات، واختبار الافتراضات، ودراسة السيناريوهات، مع التأكيد على أن القرار النهائي يبقى بيد الإنسان. عملياً، يعني هذا أن يتخذ القادة قراراتهم بكلماتهم الخاصة، لا بالاعتماد على خوارزمية.

- التأني في اللحظات الحاسمة.

عندما تؤثر القرارات على الأفراد، أو الثقافة، أو الهوية (التوظيف، التسريح، تغيير الاستراتيجية، القيم)، توقف. لا تسأل فقط «ماذا تشير إليه البيانات؟»، بل «ماذا يعكس هذا القرار عن هويتنا؟».

الاستثمار في الحكمة... لا مجرد الإلمام بالذكاء الاصطناعي

مهارات الذكاء الاصطناعي مهمة، لكن مهارات الحكمة أهم. فالمنظمات الناجحة يقودها أشخاص مدربون على التفكير الأخلاقي، والمنهجي، والتعبير عن القيم تحت الضغط، لا مجرد تشغيل الأدوات بكفاءة.

المعنى هو ميزة القيادة التي لا يستطيع الذكاء الاصطناعي منافستها.

وفي لحظات عدم اليقين، لا يتطلع الناس إلى القادة للحصول على تنبؤات مثالية، بل يبحثون عن التوجيه.

إنهم يريدون معرفة: ما هو المهم الآن؟ على ماذا يجب أن أركز؟ كيف يرتبط عملي بشيء ذي معنى؟

لا يستطيع الذكاء الاصطناعي توفير هذا التوجيه، بينما تستطيع القيادة ذلك. مع تسارع وتيرة الذكاء الاصطناعي، يصبح المعنى أكثر ندرة وقيمة. القادة الذين يوفرون الوضوح وسط التعقيد، والغاية وسط التسارع لا يبنون ثقافات أفضل فحسب، بل يقودون ابتكاراً أقوى، ومرونة تنظيمية أكبر، وخلق قيمة طويلة الأجل.

كل تحول تكنولوجي يعيد تشكيل القيادة

كل تحول تكنولوجي يُعيد تشكيل القيادة، وهذا التحول الجديد ليس استثناءً.

لكن الحقيقة الأساسية تبقى ثابتة: القيادة لا تتعلق بمعرفة المزيد، بل برؤية أوضح وممارسة الحكمة تحت الضغط.

سيستمر الذكاء الاصطناعي في التطور، وستتوسع قدراته، وستتحسن أدواته. ما يجب أن يتعمق بالتوازي مع ذلك هو قدرة القيادة البشرية على الوضوح، والحكمة، وصنع المعنى؛ لأنّ القادة الأكثر تأثيراً في عالم الذكاء الاصطناعي لن يكونوا أولئك الذين يعتمدون على أذكى الآلات، بل سيكونون أولئك الذين يتذكرون بحكمةٍ معنى الإنسانية أثناء استخدامهم لها.

* مجلة «فاست كومباني»


مخاطر المسؤولية والقرار الطبي في أنظمة الذكاء الاصطناعي الطبية

حين يتكلم النظام ويصمت الطبيب
حين يتكلم النظام ويصمت الطبيب
TT

مخاطر المسؤولية والقرار الطبي في أنظمة الذكاء الاصطناعي الطبية

حين يتكلم النظام ويصمت الطبيب
حين يتكلم النظام ويصمت الطبيب

في غرفة الطوارئ الحديثة، قد يسبق الذكاء الاصطناعي الطبيب أحياناً إلى قراءة الأشعة أو تقدير خطر التدهور السريري خلال ثوانٍ. ومع ذلك، يبقى السؤال الأول الذي يحمله المريض - بصمت - أبسط بكثير من كل الحسابات الخوارزمية: هل رآني أحد فعلاً؟

هذه المفارقة تختصر التحول الذي يعيشه الطب اليوم. فالأنظمة الذكية قد تبلغ دقة تنبؤية غير مسبوقة، لكنها لا تدرك السياق الإنساني الذي يمنح القرار الطبي معناه الأخلاقي... قد يكون القرار صحيحاً إحصائياً، لكنه يبدو بارداً إنسانياً، لأن الطريق الذي أوصل إليه لم يُصمَّم أصلاً لاحتواء هشاشة الإنسان لحظة المرض.

ولهذا لم يعد السؤال المطروح في الطب المعاصر هو مدى ذكاء الخوارزمية، بل كيف صُمِّم النظام الذي يسمح لها بالمشاركة في القرار السريري.

هندسة القرار

وهم «الضمير الاصطناعي»

يتكرر في النقاش العام سؤال جذاب إعلامياً: هل يمكن للذكاء الاصطناعي أن يمتلك ضميراً؟ لكن السؤال - رغم انتشاره - يقود النقاش في الاتجاه الخطأ. فالآلة لا تحمل نية، ولا تشعر بالندم، ولا تختبر التردد الأخلاقي الذي يسبق القرار الطبي الصعب... إنها نظام رياضي يحسّن احتمالات ويتعلم أنماطاً ضمن أهداف يحددها البشر مسبقاً.

الضمير ليس خاصية برمجية يمكن إضافتها عبر تحديثٍ تقني، بل تجربة إنسانية مرتبطة بالمسؤولية وتحمل العواقب. ومنذ أبقراط وابن سينا، لم يكن الطب مجرد حساب احتمالات، بل علاقة أخلاقية يتحمل فيها الطبيب تبعات قراره أمام إنسان حي، لا أمام نموذج بيانات.

حين يصبح الخطأ غير مرئي

المشكلة الحقيقية في الذكاء الاصطناعي الطبي لا تظهر عندما يخطئ النظام، بل عندما لا نعرف أنه بدأ يخطئ.

وفي دراسة حديثة نُشرت مطلع عام 2026 في مجلة الطبيعة للطب الرقمي (Nature Medicine)، قادها الباحث الدكتور مارشال تشينغ (Marshall Chin) من كلية الطب في جامعة شيكاغو بالولايات المتحدة، حذّر الباحثون من ظاهرة تُعرف بـ«انجراف النماذج السريرية» (Model Drift)، حيث تتراجع دقة أنظمة الذكاء الاصطناعي تدريجياً مع تغيّر خصائص المرضى أو البيئات الصحية دون أن يلاحظ الأطباء ذلك فوراً.

وأظهرت الدراسة أن الأنظمة قد تستمر في إعطاء توصيات تبدو موثوقة، رغم أن الواقع السريري الذي دُرّبت عليه لم يعد موجوداً بالكامل. وهنا يتحول الخطأ من حادثة واضحة إلى انحراف صامت داخل منظومة القرار.

الخطر إذن ليس في فشل الخوارزمية، بل في نجاحها الظاهري أثناء فقدانها الدقة الفعلية.

القيم الخفية داخل الأنظمة الذكية

وفي تحليل نُشر عام 2026 في مجلة الذكاء الاصطناعي لمجلة (نيو إنغلاند) الطبية (NEJM AI)، ناقش باحثون بقيادة الدكتورة سوتشي سريا (Suchi Saria) من جامعة جونز هوبكنز كيف تحمل أدوات الذكاء الاصطناعي السريرية ما أسموه «القيم الضمنية المدمجة» فالخوارزمية لا تتنبأ فقط، بل تعكس أولويات جرى اختيارها مسبقاً أثناء التصميم:

- هل الهدف تقليل مدة بقاء المريض في المستشفى؟

- أم خفض التكلفة التشغيلية؟

- أم تقليل المخاطر القانونية على المؤسسة؟

هذه القرارات لا تظهر للطبيب أو المريض، لكنها تحدد اتجاه القرار الطبي بصمت. وعندما تُزرع القيم داخل النظام دون شفافية، تتحول التقنية إلى سياسة علاجية غير معلنة.

من تحسين الأداء إلى هندسة الحدود

لهذا السبب، لم يعد السؤال العلمي اليوم كيف نجعل الذكاء الاصطناعي أكثر دقة فحسب، بل كيف نجعله أكثر أماناً حين يفشل. ويدعو الاتجاه البحثي الأحدث في 2026 إلى تصميم أنظمة قادرة على الاعتراف بحدودها، بحيث يستطيع النظام أن يقول: لا أعلم عندما يرتفع مستوى عدم اليقين.

ويشمل ذلك:

- مراقبة الأداء بمرور الزمن لا عند الإطلاق فقط.

- جعل التوصيات قابلة للتفسير السريري.

- وإبقاء القرار النهائي ضمن مسؤولية بشرية واضحة.

فالذكاء الاصطناعي قد يتفوق في سرعة الحساب، لكنه لا يقف أمام المريض لتحمل نتائج القرار.

الطب داخل المعادلة

الإنسان في مركز المعادلة

دخل الذكاء الاصطناعي الطب بالفعل، ولم يعد النقاش يدور حول ما إذا كان ينبغي استخدامه، بل حول الشروط التي يجب أن يُستخدم ضمنها. فإذا صُمِّمت الأنظمة الصحية حول الكفاءة وحدها، فإنها تميل تدريجياً إلى اختصار الإنسان في رقم. وإذا بُنيت حول خفض التكلفة فقط، فقد يُعاد تعريف المريض كأنه مؤشر اقتصادي داخل منظومة تشغيلية واسعة. أما عندما يُصمَّم الذكاء الاصطناعي لحماية الحكم السريري البشري، فإنه يتحول إلى أداة تعزز الطبيب بدل أن تستبدل دوره الأخلاقي.

التحول الحقيقي إذن لا يحدث داخل الخوارزمية، بل في الفلسفة التي تحكم تصميمها. فالطب لم يكن يوماً سباقاً نحو القرار الأسرع، بل نحو القرار الأكثر مسؤولية.

* الطب لم يكن يوماً سباقاً نحو القرار الأسرع بل نحو القرار الأكثر مسؤولية*

التصميم الأخلاقي... الطب في عصر الخوارزميات

تشير الاتجاهات البحثية الحديثة في حوكمة الذكاء الاصطناعي الطبي خلال عام 2026 إلى مفهوم يُعرف بـ«التصميم الأخلاقي المسبق» (Ethics-by-Design)، وهو توجه تعمل عليه فرق بحثية في معهد الإنترنت بجامعة أكسفورد بقيادة الباحث البروفسور لوتشيانو فلوريدي (Luciano Floridi)، حيث تُدمج مبادئ المساءلة والشفافية وحدود القرار منذ مرحلة بناء النظام، لا بعد وقوع الخطأ. والفكرة بسيطة لكنها عميقة: الأخلاق لا تُضاف بعد التشغيل، بل تُبنى داخل (architecture) هندسة القرار نفسه.

وعندما يصبح النظام قادراً على كشف عدم اليقين، وتنبيه الطبيب إلى حدوده، وإبقاء الإنسان داخل دائرة المسؤولية، فإن الذكاء الاصطناعي لا يقلل إنسانية الطب - بل يحميها.

السؤال الذي سيحدد مستقبل الطب

لم يعد الذكاء الاصطناعي احتمالاً مستقبلياً في الممارسة الطبية، بل أصبح جزءاً من البنية اليومية لاتخاذ القرار السريري. والسؤال الحقيقي لم يعد ما إذا كانت الآلة قادرة على التفكير، بل ما إذا كنا قد صممنا الأنظمة التي تستخدمها بطريقة تحمي المعنى الإنساني للطب.

فالذكاء الاصطناعي لا يحتاج إلى ضمير، لأنه لا يعيش عواقب قراراته، ولا يقف أمام المريض حين تسوء النتائج. ما يحتاج إليه حقاً هو تصميمٌ يضع حدوداً واضحة بين التوصية والمسؤولية، وبين الحساب والحكم السريري.

تشير تجارب الأنظمة الطبية الذكية التي يجري تطويرها عالمياً في عام 2026 إلى أن مستقبل الطب لن يتحدد بمدى تطور الخوارزميات، بل بقدرتنا على إبقاء الإنسان داخل دائرة القرار، لا على هامشها.

ولهذا قد لا يكون السؤال الأهم في السنوات المقبلة: كم أصبح النظام ذكياً؟بل السؤال أبسط من ذلك... وأكثر جوهرية: هل أصبح الطب أكثر إنسانية بحكم التصميم؟