من التحليل إلى التنبؤ... أحدث التقنيات لكبح حوادث الطرق

«المساعد الذكي للسلامة المرورية» يضمن تقليلها

التقنيات الذكية يمكنها الحد من تداعيات حوادث الطرق عالميا (جامعة جونز هوبكنز)
التقنيات الذكية يمكنها الحد من تداعيات حوادث الطرق عالميا (جامعة جونز هوبكنز)
TT

من التحليل إلى التنبؤ... أحدث التقنيات لكبح حوادث الطرق

التقنيات الذكية يمكنها الحد من تداعيات حوادث الطرق عالميا (جامعة جونز هوبكنز)
التقنيات الذكية يمكنها الحد من تداعيات حوادث الطرق عالميا (جامعة جونز هوبكنز)

رغم تقدُّم صناعة السيارات وشبكات النقل حول العالم، فإن حوادث الطرق لا تزال تُشكِّل أحد أبرز أسباب الوفيات والإصابات الخطيرة سنوياً؛ إذ تودي بحياة أكثر من 1.3 مليون شخص، وتتسبب في إصابة عشرات الملايين، وفق تقديرات منظمة الصحة العالمية. وتمتد آثار حوادث السيارات إلى خسائر اقتصادية ضخمة ناجمة عن العلاج وفقدان الإنتاجية وتلف البنية التحتية.

ومع تسارع التطورات التقنية، اتجهت أنظار الباحثين نحو التقنيات الحديثة، وفي مقدمتها تسخير الذكاء الاصطناعي وأجهزة الاستشعار وإنترنت الأشياء، لتحليل أسباب الحوادث والتنبؤ بها قبل وقوعها، ضمن توجه جديد نحو «السلامة المرورية الذكية».

مساعد مرور ذكي

وفي السياق، طوَّر باحثون من جامعة «جونز هوبكنز» نظاماً ذكياً جديداً يُعرف باسم «المساعد الذكي للسلامة المرورية» (SafeTraffic Copilot)، يهدف إلى التنبؤ بمخاطر الحوادث، وتحليل أسبابها بدقة عالية، في خطوة قد تسهم في إنقاذ الأرواح، وجعل الطرق أكثر أماناً. ويعتمد النظام على نماذج لغوية كبيرة (LLMs) مدرَّبة على نصوص عن ظروف الطرق، وبيانات رقمية مثل مستويات الكحول في الدم، وصور ميدانية وفضائية لمواقع الحوادث، ما يمكِّنه من تحليل عوامل الخطر بشكل متكامل وتفاعلي، وفق النتائج المنشورة بعدد 7 أكتوبر (تشرين الأول) 2025 من دورية «Nature Communications».

يتميز النموذج بقدرته على تحسين أدائه باستمرار مع إدخال بيانات جديدة، وتقدير مستوى موثوقية كل تنبؤ. وأظهرت النتائج أن دمج البيانات النصية والبصرية والرقمية في نظام واحد يزيد من دقة التنبؤ بشكل واضح مقارنة بالأنظمة التقليدية.

وكشف الدكتور هاو يانغ، أستاذ الهندسة المدنية والنظم في جامعة «جونز هوبكنز»، والباحث الرئيسي للدراسة، عن قدرة النظام الجديد على التعميم عبر الزمان والمكان؛ إذ أثبت فاعليته في ولايات أميركية لم يُدرَّب عليها، مثل مين وكارولاينا الشمالية وأوهايو، رغم تدريبه على بيانات من ولايات أخرى مثل إلينوي وواشنطن، من دون الحاجة إلى إعادة التدريب. ويُعزى ذلك إلى تصميمه القائم على الذكاء القاعدي والتحليل النصي الذي يمكِّنه من فهم السياقات المختلفة بدلاً من مجرد حفظ الأنماط.

ويضيف يانغ لـ«الشرق الأوسط»: النظام قابل للتكيُّف بسهولة على المستوى الدولي، مع أنماط المرور المحلية، من خلال ترجمة بيانات الحوادث إلى نصوص منظمة، وتعديل النموذج وفق القوانين والبيانات الإقليمية، ثم اختبار أدائه في بيئات مختلفة. وبفضل عمله على مستوى الفهم الدلالي للحوادث، يمكن للنظام التكيُّف مع البنى التحتية المتنوعة وأنماط القيادة المختلفة بجهد محدود، مما يجعله ملائماً للتطبيق في دول متعددة. ويؤكد يانغ أن الذكاء الاصطناعي وتحليلات البيانات الضخمة يمكن أن تُحدث تحولاً جذرياً في إدارة السلامة المرورية، عبر الانتقال من التحليل التفاعلي بعد وقوع الحوادث إلى إدارة استباقية وتنبؤية للمخاطر. ويوضح أن دمج بيانات متنوعة تشمل تقارير الحوادث، والصور، وأجهزة الاستشعار، وسلوك السائقين مع أنظمة ذكاء اصطناعي متقدمة، يتيح فهماً أعمق لأسباب الحوادث واتخاذ قرارات فورية قائمة على محاكاة سيناريوهات مختلفة. كما أشار إلى أن هذه التقنيات تسهم في تبادل المعرفة بين الدول وتحسين جودة البيانات باستمرار، ما يمكِّن من تطوير أنظمة نقل أكثر أماناً واستدامة.

تقنيات متقدمة

تشهد السنوات الأخيرة ثورة في استخدام الذكاء الاصطناعي وتعلم الآلة، لتحليل البيانات التاريخية للحوادث المرورية، مثل سرعة المركبات، وحالة الطقس، ونوع الطريق، وسلوك السائقين، بهدف التنبؤ بمواقع الحوادث المحتملة ومدى خطورتها.

وتُستخدم في هذا المجال نماذج مثل: «Extra Trees»، و«Random Forest»، و«SHAP»، لتحديد العوامل الأكثر تأثيراً في وقوع الحوادث، كـالسرعة الزائدة أو تصميم الطريق أو نوع المركبة.

وتشير دراسة لجامعة البنجاب في باكستان إلى أن دقة بعض النماذج تجاوزت 96 في المائة، مما يتيح لواضعي السياسات اتخاذ قرارات استباقية للحد من المخاطر على الطرق.

في هذا الإطار، استخدم باحثون في جامعة بنغلاديش للهندسة والتكنولوجيا أنظمة تعتمد على الذكاء الاصطناعي والرؤية الحاسوبية للكشف الفوري عن الحوادث، بالاعتماد على الكاميرات وأجهزة الاستشعار لاكتشاف الحوادث في لحظة وقوعها أو حتى قبلها، من خلال تحليل الصور وحركة المركبات باستخدام خوارزميات مثل «YOLOv11». وتُرسل هذه الأنظمة إشعارات فورية إلى فرق الطوارئ لتسريع الاستجابة وإنقاذ الأرواح، وقد أظهرت التجارب أن دمجها في أنظمة مساعدة السائق (ADAS) يحسِّن دقة الكشف في الزمن الحقيقي حتى في ظروف الإضاءة السيئة أو الزحام المروري.

أما على صعيد كشف العيوب في الطرق، فقد طوَّر باحثون في المعاهد الهندية لتكنولوجيا المعلومات نظاماً ذكياً يُعرف باسم «ETLNet»، وهو قادر على اكتشاف الحفر والتشققات وتصنيف حجمها، ثم إرسال تنبيه إلى السائقين والجهات المختصة عند وجود خلل خطير. ويستخدم النظام مستشعرات مدمجة في الهواتف الذكية لاكتشاف العيوب في سطح الطريق، دون الاعتماد على الصور البصرية فقط، ما يجعله فعالاً حتى في الطرق ذات الإضاءة الضعيفة أو التي تفتقر إلى كاميرات المراقبة.


مقالات ذات صلة

طريقة قيادتك للسيارة قد تكشف عن خطر الإصابة بألزهايمر مستقبلاً

صحتك طريقة قيادة للسيارة يمكن أن تكون مؤشراً مبكراً على التدهور الإدراكي (رويترز)

طريقة قيادتك للسيارة قد تكشف عن خطر الإصابة بألزهايمر مستقبلاً

كشفت دراسة جديدة عن أن طريقة قيادة للسيارة يمكن أن تكون مؤشراً مبكراً على التدهور الإدراكي وإمكانية الإصابة بألزهايمر في المستقبل.

«الشرق الأوسط» (واشنطن)
الاقتصاد تصميم داخلي لسيارة «تسلا موديل واي» في المركز الجديد للشركة في غورغرام بالهند (رويترز)

مبيعات «تسلا» تهبط في الأسواق الأوروبية الرئيسية... والنرويج تخالف الاتجاه

أظهرت بيانات رسمية أن تسجيلات سيارات «تسلا» انخفضت بشكل كبير في نوفمبر (تشرين الثاني) في فرنسا والسويد والدنمارك.

«الشرق الأوسط» (لندن)
يوميات الشرق إيلون ماسك... يعيش في بيت صغير وينفق الكثير على السيارات والطائرات الخاصة (رويترز – يوتيوب – شركة «غلف ستريم») play-circle 01:33

إيلون والتريليون... على ماذا ينفق ماسك ثروته الخيالية؟

قبل أيام احتفل إيلون ماسك بلقب «تريليونير» راقصاً مع الروبوتات على المسرح. فكيف ينفق أغنى شخص في العالم ثروته الطائلة؟

كريستين حبيب (بيروت)
الاقتصاد شعار شركة «نكسبيريا» الصينية (رويترز)

مفوض التجارة الأوروبي يرحب بإعفاءات تصدير رقائق «نيكسبيريا» الصينية

قالت هولندا إن الصين وافقت على استئناف شحنات رقائق «نكسبيريا» من المصانع في البلاد، مما يشير إلى انفراجة محتملة في خلاف كان على وشك أن يعرقل إنتاج السيارات.

«الشرق الأوسط» (برلين)
رياضة عالمية هاميلتون (أ.ف.ب)

هاميلتون يحذر ثنائي مكلارين من التراخي أمام فيرستابن

حذّر لويس هاميلتون سائق فيراري، ثنائي فريق مكلارين؛ أوسكار بياستري، ولاندو نوريس، من خطر خسارة لقب بطولة العالم لسباقات «فورمولا 1» للسيارات لصالح ماكس فرستابن.

«الشرق الأوسط» (مكسيكو سيتي)

الذكاء الاصطناعي يتسوّق لك... و«فيزا» تضمن عدم تعرضك للاحتيال

الذكاء الاصطناعي يتسوّق لك... و«فيزا» تضمن عدم تعرضك للاحتيال
TT

الذكاء الاصطناعي يتسوّق لك... و«فيزا» تضمن عدم تعرضك للاحتيال

الذكاء الاصطناعي يتسوّق لك... و«فيزا» تضمن عدم تعرضك للاحتيال

يُحدث ظهور أنظمة الذكاء الاصطناعي المستقلة تحولاً جذرياً في التسوق الإلكتروني. إذ يُمكن لهذه الأنظمة تصفح المنتجات، ومقارنة الأسعار، وإتمام عمليات الشراء نيابةً عن المستهلكين، ما يُدخل وسيطاً جديداً بين التجار والمشترين، كما كتبت إميلي برايس (*).

التسوق بيد الذكاء الاصطناعي

يُشكك هذا التحول في الافتراض السائد منذ زمن طويل بأن الإنسان هو الطرف الآخر في أي معاملة. فبدلاً من تصفح المواقع الإلكترونية يدوياً، يُوكل المستهلكون بشكل متزايد مهامّ مثل إيجاد أفضل العروض أو إتمام عمليات الشراء إلى أنظمة الذكاء الاصطناعي. وبينما يُوفر هذا الأمر الراحة، فإنه يُثير أيضاً تساؤلات جوهرية حول الثقة والمساءلة ومنع الاحتيال. الذكاء الاصطناعي يبدأ بالتسوق نيابةً عنك.

مشكلة الثقة

تُدخل التجارة الآلية حالة من عدم اليقين لدى كل من المستهلكين والتجار. فبالنسبة للمستهلكين، تُصبح النزاعات مُعقدة - من المسؤول إذا ارتكب نظام الذكاء الاصطناعي خطأً، مثل طلب منتج بلون خاطئ؟ أما بالنسبة للتجار، فيكمن التحدي في التحقق من النية والشرعية.

كشف الاحتيال التقليدي

صُممت الأنظمة في مجال التجارة للتفاعلات التي يقودها البشر، لا للبرمجيات المستقلة التي تعمل نيابةً عن المستخدمين. وهذا يُنشئ حاجة مُلحة لأُطر أمنية جديدة قادرة على التحقق من هوية كلٍّ من الإنسان ووكيل الذكاء الاصطناعي المُشارك في المعاملة.

تعاون استراتيجي بين «فيزا» و«أكامي»

لمواجهة هذه التحديات، تعاونت «فيزا» (Visa) و«أكامي تكنولوجيز» (Akamai Technologies) لدمج بروتوكول الوكيل الموثوق «Trusted Agent Protocol» من «فيزا» مع منصة الذكاء السلوكي من behavioral intelligence platform أكامي.

يهدف هذا التعاون إلى التحقق من هوية وكلاء الذكاء الاصطناعي، وربطهم بالمستهلكين الحقيقيين، وحظر حركة مرور البرامج الضارة قبل وصولها إلى أنظمة التجار الحساسة.

وتُوفر فيزا إشارات تحقق تُشير إلى ما إذا كان الوكيل مُصرحاً له وما هو الإجراء المقصود منه - التصفح أو الدفع - بينما تُعزز أكامي هذه الإشارات باستخدام بيانات سلوكية مُجمعة عبر الإنترنت. ويُساعد هذا النهج ثنائي الطبقات على بناء الثقة مُبكراً في مسار المعاملة، ما يُقلل من الاحتيال ومحاولات انتحال الشخصية.

حجم التحديات

تتزايد حركة التصفح المُدارة بواسطة الذكاء الاصطناعي بمعدل غير مسبوق، إذ كشف تقرير «أكامي» لعام 2025 حول الاحتيال الرقمي وإساءة الاستخدام أن «حركة مرور» برامج الروبوت المدعومة بالذكاء الاصطناعي نمت بأكثر من 300 في المائة خلال العام الماضي، حيث شهد قطاع التجارة وحده أكثر من 25 مليار طلب من هذه البرامج في شهرين فقط. ورغم أن هذا الحجم لا يزال يمثل جزءاً صغيراً من إجمالي حركة مرور الإنترنت، فإن القدرة على أتمتة الهجمات تجعلها مربحة للغاية لمجرمي الإنترنت.

وتؤكد كل من «فيزا» و«أكامي» على أهمية العمل على نطاق عالمي لمواجهة هذه التهديدات بفاعلية. وتعالج «فيزا» المعاملات في ما يقرب من 200 سوق، وتدير «أكامي» حركة المرور عبر الإنترنت، ما يُمكّنها من مواكبة وتيرة الأتمتة.

تكيّف التجار

على الرغم من أن المستهلكين سيستفيدون من تجارب تسوق أكثر سلاسة، فإن العبء الأكبر يقع على عاتق التجار. إذ يجب عليهم تكييف بنيتهم ​​التحتية لاستيعاب التفاعلات المدعومة بالذكاء الاصطناعي، وتحديد البيانات التي يمكن للوكلاء الوصول إليها، وكيفية عرض الأسعار والمخزون، وكيفية عمل برامج الولاء والتخصيص عندما يكون الذكاء الاصطناعي - وليس متصفحاً بشرياً - هو المحرك الرئيسي للتفاعل. وهذا يمثل تحدياً كبيراً، إذ إنه تحوّلٌ كبير في استراتيجية التجارة الإلكترونية، يُلزم التجار بإعادة النظر في أنظمتهم للحفاظ على قدرتهم التنافسية وأمانهم.

نظرة مستقبلية

لا تدّعي كلٌّ من «فيزا» و«أكامي» معرفة الشكل الدقيق للتجارة الإلكترونية القائمة على الوكلاء خلال ثلاث سنوات. ومع ذلك، فإنهما تُقدّمان بروتوكول الوكيل الموثوق به كطبقة توافق مصممة لمساعدة البنية التحتية للتجارة على التطور دون التضحية بالتحكم أو الأمان. ومع انتقال وكلاء الذكاء الاصطناعي من مجرد ابتكار إلى ضرورة، قد تُحدّد طبقة الثقة هذه ما إذا كان التجار سيتبنون التجارة الإلكترونية القائمة على الوكلاء أم سيرفضونها تماماً.

وسيعتمد مستقبل التسوق عبر الإنترنت على تحقيق التوازن بين الراحة والأمان، بما يضمن أن تُعزّز الأتمتة ثقة المستهلك بدلاً من تقويضها.

* باختصار، مجلة «فاست كومباني»، خدمات «تريبيون ميديا».


علاجات خلوية معدلة جينياً... للسرطان

العلاج الجيني: تعديل خلايا الدم البيضاء لمواجهة السرطان
العلاج الجيني: تعديل خلايا الدم البيضاء لمواجهة السرطان
TT

علاجات خلوية معدلة جينياً... للسرطان

العلاج الجيني: تعديل خلايا الدم البيضاء لمواجهة السرطان
العلاج الجيني: تعديل خلايا الدم البيضاء لمواجهة السرطان

في إحدى غرف الأبحاث الهادئة في جامعة «يونيفرسيتي كوليدج-لندن» (UCL)، جلس البروفيسور وسيم قاسم، أحد أبرز روّاد العلاج الجيني والعلاج الخلوي في أوروبا، يستعيد قصة بدأت بصراعٍ غير متكافئ بين طفلة رضيعة ومرضٍ شرس.

سرطان دم عدواني

قبل سنوات، كانت طفلة بريطانية لم تتجاوز عامها الأول تُواجه أحد أكثر أنواع سرطان الدم عدوانية، بعد أن فشلت العلاجات التقليدية، وضاقت الخيارات الطبية إلى حدّها الأقصى. أما اليوم، وبعد رحلة علمية دقيقة وطويلة، فإن هذه الطفلة تعيش، وقد بلغت السادسة عشرة، حياة طبيعية خالية من المرض، بفضل علاج خلوي متقدّم قائم على تعديل الجينات، طوّره فريق البروفيسور قاسم في مستشفى «غريت أورموند ستريت» بالتعاون مع الجامعة.

ليست هذه حكاية انتصارٍ درامي بقدر ما هي شهادة على تحوّل عميق في الطب الحديث: حين لا يعود العلاج مجرّد مواجهة مع المرض، بل محاولة لفهمه وإعادة توجيه جهاز المناعة نفسه ليقوم بالمهمة.

البروفيسور وسيم قاسم رائد العلاج الجيني والخلايا المناعية

علاج خلوي معدَّل جينياً

وفي مقابلة حصرية مع الشرق الأوسط يقول البروفيسور قاسم بهدوء العالم الذي يعرف حدود العلم بقدر ما يعرف قوّته: «العلاج الخلوي المعدَّل جينياً لم يعد طبّ المستقبل، بل أصبح واقعاً حاضراً لبعض أنواع السرطان»... إنه نافذة على زمنٍ جديد، يُدار فيه الصراع مع المرض داخل الخلية... لا خارجها.

تقنية تحرير الجينوم

لنبدأ من اللحظة الأولى... كيف اتُّخذ القرار باستخدام تقنية تحرير الجينوم لعلاج هذه الطفلة؟

- كانت الحالة بالغة التعقيد. الطفلة لم تستجب لأي من العلاجات التقليدية المتاحة، وكانت قد استنفدت معظم الخيارات الطبية، فيما كان عامل الوقت يضغط بقسوة. في تلك المرحلة، كنا نعمل منذ سنوات على تطوير خلايا مناعية تُعرف بـ«الخلايا التائية» (T cells)، يجري تعديلها جينياً داخل المختبر، وهي ما يُعرف بعلاج CAR-T، بحيث تفقد قدرتها على مهاجمة أنسجة المريض، وتكتسب في المقابل دقة عالية في استهداف الخلايا السرطانية وحدها.

بعد نقاشات علمية معمّقة، ومراجعات أخلاقية صارمة، وموافقات تنظيمية دقيقة، تقرر إدخال هذه الحالة ضمن التجربة العلاجية. لم يكن القرار سهلاً بأي حال، لكنه -في ذلك التوقيت- كان الفرصة الوحيدة المتاحة لإنقاذ حياة الطفلة.

* ما التقنية الدقيقة التي استخدمتموها في هذا العلاج؟

- اعتمدنا على «الخلايا التائية» التي جرى تعديلها جينياً داخل المختبر لتؤدي وظيفة علاجية محددة. وقد شمل هذا التعديل ثلاث خطوات رئيسية:

. تعطيل مستقبل يُسمّى «TCR»، وهو المفتاح الذي قد يدفع الخلية المناعية إلى مهاجمة جسم المريض نفسه، وذلك لتجنّب أي ردّ فعل مناعي ضار.

. تعطيل جين «CD52»، بهدف جعل الخلايا المعدّلة قادرة على تحمّل الأدوية التي تُستخدم لتهيئة جسم المريض قبل العلاج.

. إضافة مستقبل ذكي يُعرف بـ«CAR»، يعمل بوصفه جهاز توجيه يسمح للخلايا المناعية بالتعرّف بدقة على خلايا سرطان الدم (اللوكيميا) ومهاجمتها فقط.

العلاج الجيني... أمل واعد

جراحة دقيقة داخل الشفرة الوراثية

بهذا المعنى، كانت العملية أشبه بجراحة دقيقة داخل الشفرة الوراثية للخلية، جراحة لم تستهدف المرض فحسب، بل أعادت تدريب جهاز المناعة على أداء مهمته... ونجحت في إنقاذ حياة.

* هل يمكن اعتبار هذه الحالة من أوائل حالات الشفاء طويل المدى باستخدام تعديل الجينات في بريطانيا؟

-نعم، تُعدّ من أوائل الحالات على مستوى بريطانيا، ومن الحالات المبكرة عالمياً في هذا المجال. والأهم من ذلك أنها لا تزال، بعد مرور ستة عشر عاماً، خالية تماماً من المرض، وهو ما يمنحنا مؤشراً إيجابياً على استدامة هذا النوع من العلاج عند تطبيقه بدقة وفي إطار تجارب سريرية محكومة.

* هل يمكن أن يصبح تحرير الجينات بديلاً عن العلاج الكيميائي في المستقبل؟

- نحن نتجه في هذا المسار، لكن بحذر. حتى الآن، يُستخدم تعديل الجينات بشكل أساسي في بعض سرطانات الدم، وليس في جميع أنواع السرطان. ولا يزال الطريق طويلاً قبل أن يصبح هذا النهج بديلاً واسع الانتشار.

لكن من الممكن، خلال العقد المقبل، أن تتحول بعض علاجات اللوكيميا إلى علاجات روتينية تعتمد على إعادة برمجة الجهاز المناعي، بدل الاعتماد الكامل على العلاج الكيماوي أو الإشعاعي.

جدل أخلاقي

* ماذا عن الجدل الأخلاقي المحيط بتعديل الجينات؟

- الأخلاقيات ليست جانباً ثانوياً في عملنا، بل هي في صميمه. ما نقوم به يقتصر على تعديل خلايا الدم البيضاء فقط بهدف علاج المرض، ولا يمسّ جوهر الإنسان أو صفاته الوراثية. هذه التعديلات علاجية ومؤقتة، ولا يمكن أن تنتقل إلى الأبناء.

من المهم التأكيد أن تحرير الجينوم يُستخدم هنا بوصفه أداة طبية دقيقة، لا وسيلة لتحسين الصفات أو تغيير الطبيعة البشرية. كما أنه لا توجد، في الوقت الراهن، حاجة علمية إلى تحرير الجينات الوراثية للأجنة، إذ يمكن في معظم الحالات تفادي الأمراض الوراثية بوسائل طبية أخرى أكثر أماناً.

التعاون مع العالم العربي

* يشهد العالم العربي، ولا سيما المملكة العربية السعودية، تطوراً متسارعاً في مجالات الطب الدقيق. هل ترون آفاقاً للتعاون في هذا المجال؟

-بلا شك. تشهد المملكة العربية السعودية تقدماً ملحوظاً في مجالات الطب الدقيق والبحوث الجينية، وهناك فرص حقيقية للتعاون العلمي والطبي. ويمكن أن يشمل هذا التعاون تدريب الكوادر الطبية على تقنيات العلاج الخلوي والجيني، وتطوير مراكز متخصصة للعلاجات المتقدمة، إلى جانب إطلاق برامج بحثية مشتركة تُعنى بأمراض منتشرة في المنطقة. وأرحّب شخصياً بأي فرصة للحوار والتعاون العلمي في هذا المجال.

وأخيراً

* ماذا تقول لطفلة تمر اليوم بتجربة مشابهة؟

-أقول لها إن الخوف مفهوم، لكن العلم اليوم يملك أدوات أقوى مما كان عليه في الماضي. هناك فرق طبية وعلمية تعمل بصبر ودقة، هدفها أن تمنح المرضى أفضل فرصة ممكنة للعلاج. وهي ليست وحدها في هذه الرحلة.

يعكس هذا الحوار ملامح مرحلة جديدة في الطب الحديث، مرحلة لا تكتفي بمواجهة المرض بأدواته التقليدية، بل تسعى إلى فهمه على مستوى الخلية وإعادة توجيه آليات الجسم نفسه لمقاومته.

والطفلة التي تعافت من سرطان الدم، وأصبحت اليوم شابة في السادسة عشرة، لا تمثل حالة فردية فحسب، بل مثالاً على ما يمكن أن يحققه التقدم العلمي حين يُطبَّق بدقة، وبحذر، وضمن أطر أخلاقية صارمة.


إتقان فن التعاون بين الذكاء الاصطناعي وبين الإنسان سيؤدي إلى الازدهار

إتقان فن التعاون بين الذكاء الاصطناعي وبين الإنسان سيؤدي إلى الازدهار
TT

إتقان فن التعاون بين الذكاء الاصطناعي وبين الإنسان سيؤدي إلى الازدهار

إتقان فن التعاون بين الذكاء الاصطناعي وبين الإنسان سيؤدي إلى الازدهار

هيمنت على النقاش الدائر حول الذكاء الاصطناعي في بيئة العمل فكرةٌ مبسطة مفادها أن الآلات ستحل حتماً محل البشر. إلا أن المؤسسات التي تحقق نتائج ملموسة بفضل الذكاء الاصطناعي قد تجاوزت هذا التصور تماماً. فهي تدرك أن أفضل تطبيقات الذكاء الاصطناعي لا تقوم على الاستبدال، بل على التعاون، كما كتب فيصل حقّ (*).

تتطور العلاقة بين الموظفين وأنظمة الذكاء الاصطناعي عبر مراحل متميزة، لكل منها خصائصها وفرصها ومخاطرها. لذا؛ فإن فهم موقع مؤسستك على هذا الطيف - وإلى أين تتجه - أمرٌ بالغ الأهمية للاستفادة من إمكانات الذكاء الاصطناعي وتجنب مخاطره.

المرحلة الأولى: الأدوات والأتمتة

هذه هي المرحلة التي تبدأ بها معظم المؤسسات. في هذه المرحلة، تؤدي أنظمة الذكاء الاصطناعي مهامَ روتينية محددة، بينما يحتفظ البشر بالسيطرة الكاملة وسلطة اتخاذ القرار. يعمل الذكاء الاصطناعي بشكل أساسي بوصفه أداةً لزيادة الإنتاجية، حيث يتولى مهام محددة بدقة وفق معايير واضحة.

تتعدد الأمثلة هنا: أنظمة تصنيف المستندات التي تفرز المراسلات الواردة تلقائياً، وبرامج الدردشة الآلية التي تجيب عن استفسارات العملاء المعتادة، والمساعدة في جدولة ترتيبات الاجتماعات، وأتمتة إدخال البيانات التي تستخرج المعلومات من النماذج.

السمة الرئيسية لهذه المرحلة هي أن الذكاء الاصطناعي يعمل ضمن حدود ضيقة. إذ يُدير البشر سير العمل العام ويتخذون جميع القرارات الجوهرية، بينما يتولى الذكاء الاصطناعي المهام الروتينية؛ ما يُتيح للبشر التفرغ لأعمال ذات قيمة أعلى.

الاعتبارات الأخلاقية الأساسية تتمثل في هذه المرحلة في ضمان الدقة ومنع الضرر الناجم عن العمليات الآلية. عندما يُوجّه نظام الذكاء الاصطناعي شكاوى العملاء تلقائياً أو يُشير إلى الطلبات للمراجعة، قد تؤثر الأخطاء على أشخاص حقيقيين. يجب على المؤسسات تطبيق ضوابط الجودة والمراقبة لاكتشاف الأخطاء قبل أن تُسبب ضرراً، لا سيما للفئات الأكثر عرضة للخطر التي قد تكون أقل قدرة على التعامل مع أخطاء النظام.

المرحلة الثانية: التعزيز وتقديم المشورة

مع ازدياد ثقة المؤسسات بأنظمة الذكاء الاصطناعي، فإنها عادةً ما تنتقل إلى نماذج لا يقتصر فيها الذكاء الاصطناعي على تنفيذ المهام فحسب، بل يُقدم أيضاً تحليلات وتوصيات تُسهم في اتخاذ القرارات البشرية.

تحليلات تنبؤية. في هذه المرحلة، قد تُحدد أدوات التحليلات التنبؤية أنماطاً ناشئة في سلوك العملاء؛ ما يُتيح استراتيجيات أعمال أكثر استباقية. قد تُحلل أنظمة تقييم المخاطر البيانات التاريخية لتحديد مشكلات الامتثال المحتملة. وقد تُشير التشخيصات المدعومة بالذكاء الاصطناعي إلى أسباب محتملة لأعطال المعدات أو أعراض المرضى.

يكمن الفرق الجوهري في أنه بينما يستطيع الذكاء الاصطناعي توليد رؤى لا يستطيع البشر التوصل إليها بمفردهم من خلال إيجاد أنماط في مجموعات بيانات ضخمة يصعب على أي شخص تحليلها، يبقى الحكم البشري هو المرجع النهائي لتفسير هذه الرؤى واتخاذ الإجراءات بناءً عليها.

مخاطر جديدة: هنا تبرز مخاطر جديدة. إذ يُصبح الاعتماد المفرط على توصيات الذكاء الاصطناعي خطراً حقيقياً. وقد يتسلل التحيز التأكيدي، حيث يقبل البشر بشكل انتقائي رؤى الذكاء الاصطناعي التي تتوافق مع آرائهم المسبقة، بينما يرفضون تلك التي تُشكك في افتراضاتهم.

يتطلب النهج المسؤول في هذه المرحلة من البشر فهم كيفية توصل الذكاء الاصطناعي إلى توصياته - ما هي البيانات التي دُرّب عليها، وما الذي قد يكون تغير منذ التدريب، وما إذا كان هناك أي سبب يدعو إلى الشك في وجود تحيز. وقد يكون الأمر إشكالياً بالقدر نفسه عندما يرفض البشر نصائح الذكاء الاصطناعي الجيدة لعدم فهمهم لها أو عدم ثقتهم بها، كما هو الحال عندما يقبلون النصائح السيئة دون تفكير.

المرحلة الثالثة: التعاون والشراكة

تمثل هذه المرحلة تحولاً أكثر جوهرية. إذ وبدلاً من وجود فصل واضح بين مهام الآلة وقرارات الإنسان، يعمل البشر والذكاء الاصطناعي كفريقين يتمتعان بقدرات متكاملة ومسؤولية مشتركة.

علاقة ديناميكية. تصبح العلاقة ديناميكية وتفاعلية. وهنا تتكيف أنظمة الذكاء الاصطناعي باستمرار بناءً على ملاحظات البشر، بينما يُعدّل البشر أساليبهم بناءً على الرؤى التي يُولدها الذكاء الاصطناعي. يتلاشى الحد الفاصل بين «عمل الذكاء الاصطناعي» و«عمل الإنسان».

لنأخذ على سبيل المثال سيناريوهات الاستجابة للطوارئ، حيث تعمل فرق بشرية جنباً إلى جنب مع أنظمة الذكاء الاصطناعي أثناء الأزمات. يراقب الذكاء الاصطناعي باستمرار تدفقات بيانات متعددة - أنماط الطقس، وحالة المرور، وتوافر الموارد، وبيانات الاستجابة السابقة - ويقترح تخصيص الموارد. ويقبل البشر هذه الاقتراحات أو يُعدّلونها أو يرفضونها بناءً على معرفة سياقية غير متاحة للنظام. يتعلم الذكاء الاصطناعي من هذه التدخلات البشرية؛ ما يُحسّن توصياته المستقبلية. يطور البشر حدساً حول متى يثقون بالذكاء الاصطناعي ومتى يعتمدون على حكمهم الخاص.

أهمية تحديد المسؤولية. هنا يصبح تحديد المسؤولية أمراً معقداً حقاً. عندما تنتج النتائج عن عمل مشترك بين الإنسان والذكاء الاصطناعي، من يتحمل مسؤولية الأخطاء؟ إذا أوصى الذكاء الاصطناعي بمسار عمل، ووافق عليه إنسان، ثم ساءت الأمور، فإن مسألة تحديد المسؤولية ليست واضحة على الإطلاق.

تحتاج المؤسسات العاملة في هذه المرحلة إلى أطر حوكمة جديدة تحافظ على وضوح خطوط المساءلة البشرية مع تمكين شراكات مثمرة. يتجاوز هذا مجرد تحديد المسؤولية القانونية؛ فهو أساسي للحفاظ على الثقة، داخل المنظمة ومع أصحاب المصلحة الخارجيين.

المرحلة الرابعة: الإشراف والحوكمة

• وضع المعايير. يتضمن نموذج العلاقة الأكثر تطوراً قيام البشر بوضع المعايير، والإشراف، وإدارة الاستثناءات، بينما تتولى أنظمة الذكاء الاصطناعي العمليات الروتينية بشكل مستقل.

يمثل هذا تطوراً كبيراً عن المراحل السابقة. ينتقل دور البشر من التنفيذ المباشر للمهام أو اتخاذ القرارات إلى دور يركز على وضع الحدود، ومراقبة الأداء، والتدخل عند الضرورة.

قد يقوم نظام الذكاء الاصطناعي بمعالجة مطالبات التأمين بشكل مستقل وفقاً للسياسات المعمول بها، مع مراجعة البشر للحالات غير الاعتيادية فقط أو القرارات المختارة عشوائياً لضمان مراقبة الجودة. قد تُنفذ خوارزمية التداول المعاملات ضمن معايير محددة، مع قيام المشرفين البشريين بمراقبة أي شذوذ وتعديل القيود مع تغير ظروف السوق.

يمكن أن تكون مكاسب الكفاءة هائلة، ولكن المخاطر كذلك.

خطر «الرضا عن الأتمتة». يزداد هذا الخطر بشكل كبير في هذه المرحلة. فقد يفشل المشرفون البشريون في الحفاظ على اليقظة اللازمة تجاه أنظمة الذكاء الاصطناعي التي تعمل عادةً بشكل صحيح. فعند الإشراف على نظام يتخذ القرار الصحيح بنسبة 99 في المائة من الوقت، يصبح من الصعب نفسياً البقاء متيقظاً للنسبة المتبقية (1 في المائة) من الحالات التي تتطلب تدخلاً. لذا؛ يجب على المؤسسات تطبيق آليات إشراف فعّالة تُبقي العنصر البشري منخرطاً بشكل هادف بدلاً من الاقتصار على دور إشرافي شكلي. وقد يُقدّم استخدام أسلوب اللعب في تحديد الأخطاء وتصحيحها مساراً قيّماً في هذا الصدد، من خلال إضافة طبقة من الأخطاء في لعبة لكشف المشرفين «النائمين» إلى أنظمة عالية الموثوقية، ونادراً ما تُخطئ.

التنقل بين مراحل التطور

لا تحتاج كل مؤسسة إلى المرور بالمراحل الأربع جميعها، ولا ينبغي أن تكون جميع وظائف المؤسسة في المرحلة نفسها. فالمستوى الأمثل للتعاون بين الإنسان والذكاء الاصطناعي يعتمد على المخاطر المترتبة، ونضج تقنية الذكاء الاصطناعي، وقدرة المؤسسة على الحوكمة.

تستدعي القرارات المصيرية - تلك التي تؤثر على حقوق الأفراد أو سلامتهم أو مصالحهم المالية المهمة - عموماً مشاركة بشرية أكبر من المهام الإدارية الروتينية، بينما تتطلب التطبيقات الجديدة للذكاء الاصطناعي- حيث لا تزال حدود هذه التقنية مفهومة جيداً بعد - إشرافاً بشرياً أدق من التطبيقات الراسخة ذات السجلات الحافلة بالإنجازات.

مبادئ عامة تنطبق على الجميع

وبغض النظر عن موقع مؤسستك على هذا الطيف، فإن هناك مبادئ عامة تنطبق على الجميع، تشمل:

• فهم قدرات الذكاء الاصطناعي وحدوده. في كل مرحلة، يتطلب التعاون الفعال وجود أفراد يفهمون، ليس فقط ما يمكن للذكاء الاصطناعي فعله، بل أيضاً مواطن قصوره المحتملة. ويزداد هذا الفهم أهميةً مع ازدياد استقلالية أنظمة الذكاء الاصطناعي.

• الحفاظ على مساءلة بشرية فعّالة. لا يتغير المبدأ الأساسي المتمثل في ضرورة بقاء البشر مسؤولين عن القرارات المصيرية مع تطور قدرات الذكاء الاصطناعي. ما يتغير هو كيفية هيكلة هذه المساءلة وممارستها.

• تصميم الأعمال لمواكبة التطور. العلاقة بين البشر وأنظمة الذكاء الاصطناعي ليست ثابتة. ينبغي للمؤسسات بناء أطر حوكمة قابلة للتكيف مع تطور قدرات الذكاء الاصطناعي، ومع ازدياد فهمها لكيفية عمل التعاون بين الإنسان والذكاء الاصطناعي في سياقها الخاص.

• الاستثمار في العنصر البشري. لا يُقدم نظام الذكاء الاصطناعي الأكثر تطوراً قيمةً تُذكر إذا لم يفهم البشر العاملون معه كيفية التعاون بفاعلية. يُعدّ التدريب والتطوير الثقافي والتصميم التنظيمي عناصر لا تقل أهمية عن التكنولوجيا نفسها.

لن تكون المؤسسات التي تزدهر في عصر الذكاء الاصطناعي هي تلك التي تكتفي بنشر أحدث الأنظمة، بل تلك التي تُتقن فنّ التعاون بين الإنسان والذكاء الاصطناعي، أي التي تُدرك متى تعتمد على قدرات الذكاء الاصطناعي، ومتى تُفعّل الحكم البشري، وكيفية بناء شراكات تستفيد من نقاط القوة المُميزة لكليهما.

* مقتبس من كتاب «إعادة تصور الحكومة: تحقيق وعد الذكاء الاصطناعي» Reimagining Government: Achieving the Promise of AI، تأليف فيصل هوك، وإريك نيلسون، وتوم دافنبورت، وآخرون. دار نشر بوست هيل. سيصدر في يناير (كانون الثاني) 2026.

مجلة «فاست كومباني» - خدمات «تريبيون ميديا»