3 خرافات تُقوّض نجاح الذكاء الاصطناعي

ضرورة توظيف وحدات الابتكار كمحفزات… وخلق ثقافة عمل جديدة للتواؤم معها

3 خرافات تُقوّض نجاح الذكاء الاصطناعي
TT

3 خرافات تُقوّض نجاح الذكاء الاصطناعي

3 خرافات تُقوّض نجاح الذكاء الاصطناعي

لا تتعلق قصة الذكاء الاصطناعي الحقيقية في معظم المؤسسات بالخوارزميات؛ بل بالعادات السائدة فيها.

روتين الأعمال يقضي على الإبداع

في حين تظهر أدوات جديدة مصحوبة بعروض مبهرة ووعود واثقة، فإن الروتين اليومي هو الذي يُحدد ما النظام وما الأمر الذي يجذب الانتباه، ومن الذي يُمكنه المخاطرة؛ لذا فإن ما يُعدّ «عملاً جيداً» يميل إلى البقاء على حاله، كما كتب فيصل حق (*).

وبينما يُنشئ القادة وحدات خاصة، أو يُطلقون دورات تدريبية، أو يبحثون عن مكاسب سريعة، فإنهم يجدون أن الثقافة القديمة تُعيد ضبط الشروط والظروف بهدوء. وعندما يحدث ذلك، تتلاشى المكاسب المبكرة، ويتوقف التبني للأدوات الجديدة، ويزداد التشكيك.

3

خرافات

تستند هذه المقالة إلى كتابي القادم للنظر في ثلاث خرافات متكررة تُساعد في دعم الثقافات القائمة، وتمنع التحولات العميقة اللازمة لدعم تطبيقات الذكاء الاصطناعي الناجحة.

إن تحويل الأعمال لتحقيق أقصى استفادة من الذكاء الاصطناعي يعني تجاوز هذه الجوانب المُريحة وتغيير الظروف التي تعمل في ظلها المؤسسة بأكملها.

1. الخرافة الأولى: «وحدات الابتكار ستنقذنا». بعد خمس سنوات من التشغيل، بدت خدمة الحكومة الرقمية Government Digital Service (GDS) في المملكة المتحدة قوية، فمنذ أن أُنشئت عام 2011، أحدثت ثورة في الخدمات الرقمية البريطانية. وبهدف إعادة تصوّر «الحكومة منصةً»؛ جمعت مئات المواقع الإلكترونية في بوابة واحدة سهلة الاستخدام، وخفّضت الهدر بإجبار الإدارات على توحيد منصاتها، وأثبتت أنه، بالنهج الصحيح، فإن حتى الهيئات الحكومية قادرة على التحرك بسرعة مشابهة للشركات الناشئة. وفي عام 2016، صُنّفت الخدمات الرقمية في المملكة المتحدة بوصفها أفضل الخدمات الرقمية في العالم. ومع ذلك، بحلول عام 2020، اختفت خدمة الحكومة الرقمية كقوة مؤثرة داخل حكومة المملكة المتحدة.

وحدات نخبوية... تتلاشى

يتكرر هذا النمط بانتظام في مختبرات الابتكار المؤسسية: إنشاء وحدة نخبة، ومنحها قواعد خاصة، والاحتفال بالإنجازات المبكرة، ثم تركها تتلاشى. يمكن لوحدة الابتكار أن تحقق نتائج استثنائية ما دام أنها تتمتع بحماية القيادة العليا، وموارد متدفقة بحرّية، وثقافة داخلية تجذب المواهب الاستثنائية. لكن هذا النموذج يحمل في طياته أيضاً بذور انهياره، فوضعية المؤسسة كجهة خارجية تُمكّن إدخال الابتكارات الرائدة تجعل الاستدامة واسعة النطاق شبه مستحيلة. وعندما يرحل الرعاة التنفيذيون، يسقط الدرع، وتبدأ الأجسام المضادة التنظيمية في إعادة تأكيد المعايير الثقافية السبقة.

وحدات الابتكار بصفتها محفزات... ومواءمة ثقافة العمل معها

لتنطبق دورة الحياة المتوقعة هذه على الفرق التي تُركز على الذكاء الاصطناعي بقدر ما تنطبق على الفرق التي تُحرك أي نوع آخر من التغيير التكنولوجي.

الدرس المستفاد من هذا ليس التخلي عن وحدات الابتكار، بل استخدامها استراتيجياً ومتابعة المكاسب التي تحققها. يجب النظر إلى وحدات الابتكار بصفتها محفزات، وليست حلولاً دائمة. وبينما تمضي هذه الفرق قُدماً بتحقيق مكاسب سريعة وإثبات مناهج جديدة، تحتاج المؤسسات أيضاً إلى تحويل ثقافتها الأوسع بالتوازي.

لا ينبغي أن يكون الهدف حماية وحدة الابتكار إلى أجل غير مسمى، بل مواءمة الثقافة التنظيمية مع المناهج المبتكرة التي تُطورها. فإذا كانت وحدات الابتكار بمثابة شرارات، فإن الثقافة هي الأكسجين. أنت في حاجة إلى كليهما معاً، وإلا انطفأت شعلة التغيير.

التدريب في أجواء الإبداع الفكري

2. الخرافة الثانية: «موظفونا في حاجة فقط إلى التدريب». تنفق الشركات الملايين لتعليم موظفيها استخدام أدوات الذكاء الاصطناعي، ثم تتساءل لماذا لا تحدث التحولات المطلوبة أبداً. والسبب هو أن المشكلة الأساسية لا تتعلق بالمهارات فحسب، بل بالخيال (الإبداع الفكري) اللازم لاستخدامها بفاعلية.

يمكنك تدريب قوى العمل لديك على استخدام التكنولوجيا الجديدة، لكن لا يمكنك تدريبها على الحماس لها أو الاهتمام بمستقبل العمل. وهذا يتطلب تغييراً على المستوى الثقافي.

الذكاء الاصطناعي شريكاً

عندما يتعلق الأمر بالذكاء الاصطناعي، فإن الفجوة الحقيقية تكمن في المفاهيم، وليست في التقنية. يحتاج الموظفون إلى التحول من عدّ الذكاء الاصطناعي أداةً أفضل إلى فهم دوره بصفته شريكاً فكرياً. وهذا يتطلب أكثر من مجرد دروس تعليمية. إنه يعني عرض كيفية مساهمة الذكاء الاصطناعي في تحويل سير العمل، ثم مكافأة استخدامه الإبداعي.

أظهِِر لفريق المبيعات كيف يمكن للذكاء الاصطناعي التنبؤ باحتياجات العملاء قبل المكالمات، وليس مجرد نسخها لاحقاً. وضِّح كيف يمكن للفرق القانونية التحول من مراجعة المستندات إلى الاستشارات الاستراتيجية. وعندما تطلب المؤسسات من موظفيها «استخدام الأدوات» دون تغيير الأعراف الاجتماعية المحيطة باستخدامها، قد يُعاقب الأفراد على قيامهم بما طلبته القيادة بالضبط.

ضعف تقييم العاملين مستخدمي الذكاء الاصطناعي

وجدت تجربة حديثة أجريت على 1026 مهندس برمجيات أنه عندما اعتقد المراجعون أن الرموز الكومبيوترية قد أُنتجت بمساعدة الذكاء الاصطناعي، فقد قيّموا كفاءة المبرمج المؤلف لها بنسبة أقل بنحو 9 في المائة على الرغم من أن نوع العمل كان متطابقاً. والأكثر إثارة للقلق هو أن العقوبة كانت أكبر للنساء والمهندسين الأكبر سناً، وهما فئتان لطالما عوملتا بمعاملة سلبية في التقييمات.

في استطلاع مصاحب شمل 919 مهندساً، أفاد الكثيرون بترددهم في استخدام الذكاء الاصطناعي؛ خوفاً من أن يُفهم تبنيه على أنه نقص في المهارة - ما يوضح سبب عدم ترجمة إتاحة الأدوات الذكية والتدريب عليها إلى إقبال كبير، في جو تشير فيه الثقافة السائدة إلى أن الاستخدام الواضح للذكاء الاصطناعي سيضر بالمصداقية.

إزاحة القوة العاملة

3. الخرافة الثالثة: «الذكاء الاصطناعي يُسهّل تقليص القوى العاملة».

هناك وعود مغرية تُسوق للشركات حالياً. يكمن السبيل لتحقيق قيمة كبرى للذكاء الاصطناعي ببساطة في استبدال أكبر عدد ممكن من الموظفين. إذن سرّح نصف موظفيك، واحتفظ بالمدخرات، ودع الآلات تُدير الباقي. حسابات بسيطة للعقول البسيطة.

الحقيقة المُربكة هي أن الذكاء الاصطناعي قادر، وسيُحلّ محلّ الكثير من الوظائف البشرية، لكنه لن يقوم بذلك بسلاسة، ولن يكون ذلك سهلاً. كما أن فكرة استبدال العنصر البشري في معظم الحالات بآلة، ببساطة لا تُجدي نفعاً.

تسريع الأتمتة سيقوض ركائز هيكل العمل

يعمل البشر معاً كأجزاء من هياكل اجتماعية متعددة الطبقات تطورت كنظم في وسطها المحيط. وغالباً ما يكون لتغيير جزء واحد عواقب وخيمة على جزء آخر. إذا تسرّعنا في الأتمتة، فإننا نُخاطر بتفكيك الركائز التي تُسند الهيكل بأكمله.

فكّر في الساعات المُرهقة التي يقضيها المُحللون المُبتدئون في تنظيف البيانات، وتدقيق الأرقام، وبناء النماذج من الصفر. أو العمل الذي سيقوم به المدير المُعيّن حديثاً، وهو الإشراف على الأداء وملء المستندات. نُسمّيه عملاً روتينياً، ولكنه في الواقع الطريقة التي يُطوّر بها البشر المهارات التي سيحتاجون إليها في المناصب العليا.

وظيفة المبتدئين... مسار يتخرج فيه القادة الكبار

إذا استغنيتَ عن وظائف المبتدئين، ستفقد المسار الوظيفي الذي يُخرّج قادةً كباراً ذوي مهارات عالية تحتاج إليهم. وإذا سمحتَ بـ«إعادة هيكلة المهارات» المدعومة بالذكاء الاصطناعي، فستفقد الحكمة البشرية والإشراف اللذين تعتمد عليهما المؤسسات.

مثال على قوة العمل البشري

وإليك هذا المثال: يُظهر مسار «كلارنا» Klarna كلا جانبي هذه المعادلة. في أوائل عام 2024، تعامل مساعد الذكاء الاصطناعي الخاص بها مع ثلثي محادثات العملاء، مُقدّماً أوقاتاً للحلول خلال أقل من دقيقتين، مع انخفاض بنسبة 25 في المائة في تكرار الاستفسارات. وبحلول عام 2025، أقرّت قيادة «كلارنا» علناً بحدود هذا النهج المُعتمد على الذكاء الاصطناعي فقط، وبدأت في إعادة فتح الأدوار البشرية، مُركّزة على تجربة خدمة العميل البشرية إلى جانب الأتمتة.

السؤال الحقيقي ليس عدد الأشخاص الذين يُمكنك الاستغناء عنهم. لتطبيق الذكاء الاصطناعي بفاعلية، عليك أن تُدرك أن البشر يُقدّمون مساهمات أساسية لا تظهر في توصيف وظائفهم.

دليل التحول الثقافي: تصحيح الخرافات

يعتمد تغيير الثقافة على العادات والحوافز والتوقعات، وليس مجرد إضافة أدوات جديدة. يقدم الدليل التالي خطوات ملموسة يمكن للقادة اتخاذها الآن لتجنب المخاطر التي تقع فيها كثير من الشركات.

• تنفيذ تحولات موازية (تصحيح الخرافة الأولى). تحقق وحدة الابتكار مكاسب سريعة، بينما تُحدث المبادرات المنفصلة عنها تحولاً في الثقافة الأوسع. يجب أن يحدث هذا في وقت واحد، وليس بالتتابع.

استخدم وضع وحدة الابتكار المحمي وانتصاراتها المبكرة لبناء ثقة مؤسسية بالتغيير، مع الاستثمار بالتساوي في إعداد الثقافة الرئيسية لما هو قادم. وبدون مسارات متوازية، تصبح وحدة الابتكار جزيرة معزولة من التميز، وستزول في النهاية.

• تغيير الطبقة الوسطى (تصحيح الخرافة الثانية). المدراء المتوسطون هم الحراس الحقيقيون لتغيير الثقافة. توقفوا عن إهدار الطاقة في محاولة تغيير المتشككين. بدلاً من ذلك، حددوا الفضوليين (أي الذين لديهم حب الاطلاع) وامنحوهم سلطة التجربة، وخصصوا ميزانية للفشل، وتجنّبوا الالتزام بالمعايير التقليدية.

حاولوا منح مدراء محددين ميثاقاً مصغراً لتطبيق التغيير في فرقهم، إلى جانب جلسة أسبوعية لعرض نتائج العمل (ما هو الذكاء الاصطناعي المستخدم، وما هو المقبول أو المرفوض، ولماذا؟) لمشاركة ما تعلموه مع زملائهم.

• بناء مسارات تعلم بديلة (تصحيح الخرافة الثالثة). إذا ألغى الذكاء الاصطناعي التجارب التي تبني الحكمة، فتجب عليك إعادة إنشائها بوعي. تُصبح عمليات المحاكاة عالية الدقة، وبرامج التدوير، و«أيام العمل البشرية» من دون الذكاء الاصطناعي ضروريات وجودية. حافظ صراحةً على الأنشطة التي تُنمّي القدرة على التعرّف على الأنماط وحس العمل. قد يبدو الاستثمار مُبذراً حتى تُدرك أن البديل هو قوة عاملة قادرة على تشغيل الأدوات، ولكنها لا تستطيع الاستجابة عند حدوث أي عطل.

الخيار الرئيسي

يُعدّ تغيير الثقافة أصعب من تطبيق التكنولوجيا. إنه أكثر تعقيداً وبطءً، ويستحيل التحكم فيه بالكامل. ستختار معظم الشركات المسار السهل: شراء الذكاء الاصطناعي، والتدريب على الأدوات، وإنشاء مختبر ابتكار، والأمل في الأفضل.

القلة التي تختار المسار الصعب - التحول المتوازي، والتطور الثقافي، والحفاظ على تجارب التعلم - ستكتسب مزايا تنافسية قوية. سيكون لديهم قوى عاملة لا تكتفي باستخدام الذكاء الاصطناعي، بل تفكر به، وثقافات لا تكتفي بتقبل التغيير، بل تتوقعه، ومنظمات لا تكتفي بالنجاة من التغيير، بل تقوده.

* مجلة «فاست كومباني» - خدمات «تريبيون ميديا»


مقالات ذات صلة

العولمة الجديدة وخطر السقوط في هاوية الاستبداد

تحليل إخباري الكمبيوتر العملاق «أندروميدا» من شركة «سيريبراس سيستمز» في مركز للبيانات في سانتا كلارا بولاية كاليفورنيا الأميركية (رويترز)

العولمة الجديدة وخطر السقوط في هاوية الاستبداد

خفت كثيراً وهج التعدد والتمايز، وصارت مجتمعات عديدة تتشابه إلى حد «الملل» مع ضمور العديد من العادات والتقاليد إلى حد تهديد الهويات.

أنطوان الحاج
تكنولوجيا يورينا نوغوتشي البالغة من العمر 32 عاماً تتحدث مع كلاوس شريكها في الذكاء الاصطناعي عبر تطبيق «شات جي بي تي» خلال تناول العشاء في منزلها بطوكيو (رويترز)

خبراء: الاعتماد على الذكاء الاصطناعي يقلل من نشاط الدماغ

أفاد تقرير بأن تفويض بعض المهام إلى الذكاء الاصطناعي يقلل من نشاط الدماغ؛ بل وقد يضر بمهارات التفكير النقدي وحل المشكلات.

«الشرق الأوسط» (لندن)
الاقتصاد متداولون يعملون في بورصة نيويورك (أ.ب)

«وول ستريت» ترتفع بعد تقرير التضخم الأميركي المشجع

ارتفعت الأسهم الأميركية يوم الخميس بعد صدور تقرير مُشجع بشأن التضخم، ما قد يتيح لمجلس الاحتياطي الفيدرالي مزيداً من المرونة في خفض أسعار الفائدة العام المقبل.

«الشرق الأوسط» (نيويورك)
العالم البابا ليو الرابع عشر يخاطب الناس في ساحة القديس بطرس بمدينة الفاتيكان يوم 17 ديسمبر 2025 (إ.ب.أ)

بابا الفاتيكان ينتقد توظيف الدين لتبرير العنف والنزعة القومية

انتقد البابا ليو الرابع عشر، بابا الفاتيكان، اليوم الخميس، الزعماء السياسيين الذين يستغلون المعتقدات الدينية لتبرير الصراعات أو السياسات القومية.

«الشرق الأوسط» (الفاتيكان)
الاقتصاد الوتيد رئيس «إس تي سي» وطارق أمين رئيس «هيومان» خلال توقيع الاتفاقية بحضور الأمير محمد بن خالد الفيصل رئيس مجلس «إس تي سي» ويزيد الحميد نائب محافظ الاستثمارات العامة (الشرق الأوسط)

«سنتر3» و«هيوماين» تعلنان عن مراكز بيانات للذكاء الاصطناعي بسعة 1 غيغاواط في السعودية

أعلنت شركة «سنتر3» التابعة لمجموعة «إس تي سي» وشركة «هيوماين» إطلاق مشروع مشترك استراتيجي لبناء مراكز بيانات مخصصة للذكاء الاصطناعي في السعودية

«الشرق الأوسط» (الرياض)

الذكاء الاصطناعي يتسوّق لك... و«فيزا» تضمن عدم تعرضك للاحتيال

الذكاء الاصطناعي يتسوّق لك... و«فيزا» تضمن عدم تعرضك للاحتيال
TT

الذكاء الاصطناعي يتسوّق لك... و«فيزا» تضمن عدم تعرضك للاحتيال

الذكاء الاصطناعي يتسوّق لك... و«فيزا» تضمن عدم تعرضك للاحتيال

يُحدث ظهور أنظمة الذكاء الاصطناعي المستقلة تحولاً جذرياً في التسوق الإلكتروني. إذ يُمكن لهذه الأنظمة تصفح المنتجات، ومقارنة الأسعار، وإتمام عمليات الشراء نيابةً عن المستهلكين، ما يُدخل وسيطاً جديداً بين التجار والمشترين، كما كتبت إميلي برايس (*).

التسوق بيد الذكاء الاصطناعي

يُشكك هذا التحول في الافتراض السائد منذ زمن طويل بأن الإنسان هو الطرف الآخر في أي معاملة. فبدلاً من تصفح المواقع الإلكترونية يدوياً، يُوكل المستهلكون بشكل متزايد مهامّ مثل إيجاد أفضل العروض أو إتمام عمليات الشراء إلى أنظمة الذكاء الاصطناعي. وبينما يُوفر هذا الأمر الراحة، فإنه يُثير أيضاً تساؤلات جوهرية حول الثقة والمساءلة ومنع الاحتيال. الذكاء الاصطناعي يبدأ بالتسوق نيابةً عنك.

مشكلة الثقة

تُدخل التجارة الآلية حالة من عدم اليقين لدى كل من المستهلكين والتجار. فبالنسبة للمستهلكين، تُصبح النزاعات مُعقدة - من المسؤول إذا ارتكب نظام الذكاء الاصطناعي خطأً، مثل طلب منتج بلون خاطئ؟ أما بالنسبة للتجار، فيكمن التحدي في التحقق من النية والشرعية.

كشف الاحتيال التقليدي

صُممت الأنظمة في مجال التجارة للتفاعلات التي يقودها البشر، لا للبرمجيات المستقلة التي تعمل نيابةً عن المستخدمين. وهذا يُنشئ حاجة مُلحة لأُطر أمنية جديدة قادرة على التحقق من هوية كلٍّ من الإنسان ووكيل الذكاء الاصطناعي المُشارك في المعاملة.

تعاون استراتيجي بين «فيزا» و«أكامي»

لمواجهة هذه التحديات، تعاونت «فيزا» (Visa) و«أكامي تكنولوجيز» (Akamai Technologies) لدمج بروتوكول الوكيل الموثوق «Trusted Agent Protocol» من «فيزا» مع منصة الذكاء السلوكي من behavioral intelligence platform أكامي.

يهدف هذا التعاون إلى التحقق من هوية وكلاء الذكاء الاصطناعي، وربطهم بالمستهلكين الحقيقيين، وحظر حركة مرور البرامج الضارة قبل وصولها إلى أنظمة التجار الحساسة.

وتُوفر فيزا إشارات تحقق تُشير إلى ما إذا كان الوكيل مُصرحاً له وما هو الإجراء المقصود منه - التصفح أو الدفع - بينما تُعزز أكامي هذه الإشارات باستخدام بيانات سلوكية مُجمعة عبر الإنترنت. ويُساعد هذا النهج ثنائي الطبقات على بناء الثقة مُبكراً في مسار المعاملة، ما يُقلل من الاحتيال ومحاولات انتحال الشخصية.

حجم التحديات

تتزايد حركة التصفح المُدارة بواسطة الذكاء الاصطناعي بمعدل غير مسبوق، إذ كشف تقرير «أكامي» لعام 2025 حول الاحتيال الرقمي وإساءة الاستخدام أن «حركة مرور» برامج الروبوت المدعومة بالذكاء الاصطناعي نمت بأكثر من 300 في المائة خلال العام الماضي، حيث شهد قطاع التجارة وحده أكثر من 25 مليار طلب من هذه البرامج في شهرين فقط. ورغم أن هذا الحجم لا يزال يمثل جزءاً صغيراً من إجمالي حركة مرور الإنترنت، فإن القدرة على أتمتة الهجمات تجعلها مربحة للغاية لمجرمي الإنترنت.

وتؤكد كل من «فيزا» و«أكامي» على أهمية العمل على نطاق عالمي لمواجهة هذه التهديدات بفاعلية. وتعالج «فيزا» المعاملات في ما يقرب من 200 سوق، وتدير «أكامي» حركة المرور عبر الإنترنت، ما يُمكّنها من مواكبة وتيرة الأتمتة.

تكيّف التجار

على الرغم من أن المستهلكين سيستفيدون من تجارب تسوق أكثر سلاسة، فإن العبء الأكبر يقع على عاتق التجار. إذ يجب عليهم تكييف بنيتهم ​​التحتية لاستيعاب التفاعلات المدعومة بالذكاء الاصطناعي، وتحديد البيانات التي يمكن للوكلاء الوصول إليها، وكيفية عرض الأسعار والمخزون، وكيفية عمل برامج الولاء والتخصيص عندما يكون الذكاء الاصطناعي - وليس متصفحاً بشرياً - هو المحرك الرئيسي للتفاعل. وهذا يمثل تحدياً كبيراً، إذ إنه تحوّلٌ كبير في استراتيجية التجارة الإلكترونية، يُلزم التجار بإعادة النظر في أنظمتهم للحفاظ على قدرتهم التنافسية وأمانهم.

نظرة مستقبلية

لا تدّعي كلٌّ من «فيزا» و«أكامي» معرفة الشكل الدقيق للتجارة الإلكترونية القائمة على الوكلاء خلال ثلاث سنوات. ومع ذلك، فإنهما تُقدّمان بروتوكول الوكيل الموثوق به كطبقة توافق مصممة لمساعدة البنية التحتية للتجارة على التطور دون التضحية بالتحكم أو الأمان. ومع انتقال وكلاء الذكاء الاصطناعي من مجرد ابتكار إلى ضرورة، قد تُحدّد طبقة الثقة هذه ما إذا كان التجار سيتبنون التجارة الإلكترونية القائمة على الوكلاء أم سيرفضونها تماماً.

وسيعتمد مستقبل التسوق عبر الإنترنت على تحقيق التوازن بين الراحة والأمان، بما يضمن أن تُعزّز الأتمتة ثقة المستهلك بدلاً من تقويضها.

* باختصار، مجلة «فاست كومباني»، خدمات «تريبيون ميديا».


علاجات خلوية معدلة جينياً... للسرطان

العلاج الجيني: تعديل خلايا الدم البيضاء لمواجهة السرطان
العلاج الجيني: تعديل خلايا الدم البيضاء لمواجهة السرطان
TT

علاجات خلوية معدلة جينياً... للسرطان

العلاج الجيني: تعديل خلايا الدم البيضاء لمواجهة السرطان
العلاج الجيني: تعديل خلايا الدم البيضاء لمواجهة السرطان

في إحدى غرف الأبحاث الهادئة في جامعة «يونيفرسيتي كوليدج-لندن» (UCL)، جلس البروفيسور وسيم قاسم، أحد أبرز روّاد العلاج الجيني والعلاج الخلوي في أوروبا، يستعيد قصة بدأت بصراعٍ غير متكافئ بين طفلة رضيعة ومرضٍ شرس.

سرطان دم عدواني

قبل سنوات، كانت طفلة بريطانية لم تتجاوز عامها الأول تُواجه أحد أكثر أنواع سرطان الدم عدوانية، بعد أن فشلت العلاجات التقليدية، وضاقت الخيارات الطبية إلى حدّها الأقصى. أما اليوم، وبعد رحلة علمية دقيقة وطويلة، فإن هذه الطفلة تعيش، وقد بلغت السادسة عشرة، حياة طبيعية خالية من المرض، بفضل علاج خلوي متقدّم قائم على تعديل الجينات، طوّره فريق البروفيسور قاسم في مستشفى «غريت أورموند ستريت» بالتعاون مع الجامعة.

ليست هذه حكاية انتصارٍ درامي بقدر ما هي شهادة على تحوّل عميق في الطب الحديث: حين لا يعود العلاج مجرّد مواجهة مع المرض، بل محاولة لفهمه وإعادة توجيه جهاز المناعة نفسه ليقوم بالمهمة.

البروفيسور وسيم قاسم رائد العلاج الجيني والخلايا المناعية

علاج خلوي معدَّل جينياً

وفي مقابلة حصرية مع الشرق الأوسط يقول البروفيسور قاسم بهدوء العالم الذي يعرف حدود العلم بقدر ما يعرف قوّته: «العلاج الخلوي المعدَّل جينياً لم يعد طبّ المستقبل، بل أصبح واقعاً حاضراً لبعض أنواع السرطان»... إنه نافذة على زمنٍ جديد، يُدار فيه الصراع مع المرض داخل الخلية... لا خارجها.

تقنية تحرير الجينوم

لنبدأ من اللحظة الأولى... كيف اتُّخذ القرار باستخدام تقنية تحرير الجينوم لعلاج هذه الطفلة؟

- كانت الحالة بالغة التعقيد. الطفلة لم تستجب لأي من العلاجات التقليدية المتاحة، وكانت قد استنفدت معظم الخيارات الطبية، فيما كان عامل الوقت يضغط بقسوة. في تلك المرحلة، كنا نعمل منذ سنوات على تطوير خلايا مناعية تُعرف بـ«الخلايا التائية» (T cells)، يجري تعديلها جينياً داخل المختبر، وهي ما يُعرف بعلاج CAR-T، بحيث تفقد قدرتها على مهاجمة أنسجة المريض، وتكتسب في المقابل دقة عالية في استهداف الخلايا السرطانية وحدها.

بعد نقاشات علمية معمّقة، ومراجعات أخلاقية صارمة، وموافقات تنظيمية دقيقة، تقرر إدخال هذه الحالة ضمن التجربة العلاجية. لم يكن القرار سهلاً بأي حال، لكنه -في ذلك التوقيت- كان الفرصة الوحيدة المتاحة لإنقاذ حياة الطفلة.

* ما التقنية الدقيقة التي استخدمتموها في هذا العلاج؟

- اعتمدنا على «الخلايا التائية» التي جرى تعديلها جينياً داخل المختبر لتؤدي وظيفة علاجية محددة. وقد شمل هذا التعديل ثلاث خطوات رئيسية:

. تعطيل مستقبل يُسمّى «TCR»، وهو المفتاح الذي قد يدفع الخلية المناعية إلى مهاجمة جسم المريض نفسه، وذلك لتجنّب أي ردّ فعل مناعي ضار.

. تعطيل جين «CD52»، بهدف جعل الخلايا المعدّلة قادرة على تحمّل الأدوية التي تُستخدم لتهيئة جسم المريض قبل العلاج.

. إضافة مستقبل ذكي يُعرف بـ«CAR»، يعمل بوصفه جهاز توجيه يسمح للخلايا المناعية بالتعرّف بدقة على خلايا سرطان الدم (اللوكيميا) ومهاجمتها فقط.

العلاج الجيني... أمل واعد

جراحة دقيقة داخل الشفرة الوراثية

بهذا المعنى، كانت العملية أشبه بجراحة دقيقة داخل الشفرة الوراثية للخلية، جراحة لم تستهدف المرض فحسب، بل أعادت تدريب جهاز المناعة على أداء مهمته... ونجحت في إنقاذ حياة.

* هل يمكن اعتبار هذه الحالة من أوائل حالات الشفاء طويل المدى باستخدام تعديل الجينات في بريطانيا؟

-نعم، تُعدّ من أوائل الحالات على مستوى بريطانيا، ومن الحالات المبكرة عالمياً في هذا المجال. والأهم من ذلك أنها لا تزال، بعد مرور ستة عشر عاماً، خالية تماماً من المرض، وهو ما يمنحنا مؤشراً إيجابياً على استدامة هذا النوع من العلاج عند تطبيقه بدقة وفي إطار تجارب سريرية محكومة.

* هل يمكن أن يصبح تحرير الجينات بديلاً عن العلاج الكيميائي في المستقبل؟

- نحن نتجه في هذا المسار، لكن بحذر. حتى الآن، يُستخدم تعديل الجينات بشكل أساسي في بعض سرطانات الدم، وليس في جميع أنواع السرطان. ولا يزال الطريق طويلاً قبل أن يصبح هذا النهج بديلاً واسع الانتشار.

لكن من الممكن، خلال العقد المقبل، أن تتحول بعض علاجات اللوكيميا إلى علاجات روتينية تعتمد على إعادة برمجة الجهاز المناعي، بدل الاعتماد الكامل على العلاج الكيماوي أو الإشعاعي.

جدل أخلاقي

* ماذا عن الجدل الأخلاقي المحيط بتعديل الجينات؟

- الأخلاقيات ليست جانباً ثانوياً في عملنا، بل هي في صميمه. ما نقوم به يقتصر على تعديل خلايا الدم البيضاء فقط بهدف علاج المرض، ولا يمسّ جوهر الإنسان أو صفاته الوراثية. هذه التعديلات علاجية ومؤقتة، ولا يمكن أن تنتقل إلى الأبناء.

من المهم التأكيد أن تحرير الجينوم يُستخدم هنا بوصفه أداة طبية دقيقة، لا وسيلة لتحسين الصفات أو تغيير الطبيعة البشرية. كما أنه لا توجد، في الوقت الراهن، حاجة علمية إلى تحرير الجينات الوراثية للأجنة، إذ يمكن في معظم الحالات تفادي الأمراض الوراثية بوسائل طبية أخرى أكثر أماناً.

التعاون مع العالم العربي

* يشهد العالم العربي، ولا سيما المملكة العربية السعودية، تطوراً متسارعاً في مجالات الطب الدقيق. هل ترون آفاقاً للتعاون في هذا المجال؟

-بلا شك. تشهد المملكة العربية السعودية تقدماً ملحوظاً في مجالات الطب الدقيق والبحوث الجينية، وهناك فرص حقيقية للتعاون العلمي والطبي. ويمكن أن يشمل هذا التعاون تدريب الكوادر الطبية على تقنيات العلاج الخلوي والجيني، وتطوير مراكز متخصصة للعلاجات المتقدمة، إلى جانب إطلاق برامج بحثية مشتركة تُعنى بأمراض منتشرة في المنطقة. وأرحّب شخصياً بأي فرصة للحوار والتعاون العلمي في هذا المجال.

وأخيراً

* ماذا تقول لطفلة تمر اليوم بتجربة مشابهة؟

-أقول لها إن الخوف مفهوم، لكن العلم اليوم يملك أدوات أقوى مما كان عليه في الماضي. هناك فرق طبية وعلمية تعمل بصبر ودقة، هدفها أن تمنح المرضى أفضل فرصة ممكنة للعلاج. وهي ليست وحدها في هذه الرحلة.

يعكس هذا الحوار ملامح مرحلة جديدة في الطب الحديث، مرحلة لا تكتفي بمواجهة المرض بأدواته التقليدية، بل تسعى إلى فهمه على مستوى الخلية وإعادة توجيه آليات الجسم نفسه لمقاومته.

والطفلة التي تعافت من سرطان الدم، وأصبحت اليوم شابة في السادسة عشرة، لا تمثل حالة فردية فحسب، بل مثالاً على ما يمكن أن يحققه التقدم العلمي حين يُطبَّق بدقة، وبحذر، وضمن أطر أخلاقية صارمة.


إتقان فن التعاون بين الذكاء الاصطناعي وبين الإنسان سيؤدي إلى الازدهار

إتقان فن التعاون بين الذكاء الاصطناعي وبين الإنسان سيؤدي إلى الازدهار
TT

إتقان فن التعاون بين الذكاء الاصطناعي وبين الإنسان سيؤدي إلى الازدهار

إتقان فن التعاون بين الذكاء الاصطناعي وبين الإنسان سيؤدي إلى الازدهار

هيمنت على النقاش الدائر حول الذكاء الاصطناعي في بيئة العمل فكرةٌ مبسطة مفادها أن الآلات ستحل حتماً محل البشر. إلا أن المؤسسات التي تحقق نتائج ملموسة بفضل الذكاء الاصطناعي قد تجاوزت هذا التصور تماماً. فهي تدرك أن أفضل تطبيقات الذكاء الاصطناعي لا تقوم على الاستبدال، بل على التعاون، كما كتب فيصل حقّ (*).

تتطور العلاقة بين الموظفين وأنظمة الذكاء الاصطناعي عبر مراحل متميزة، لكل منها خصائصها وفرصها ومخاطرها. لذا؛ فإن فهم موقع مؤسستك على هذا الطيف - وإلى أين تتجه - أمرٌ بالغ الأهمية للاستفادة من إمكانات الذكاء الاصطناعي وتجنب مخاطره.

المرحلة الأولى: الأدوات والأتمتة

هذه هي المرحلة التي تبدأ بها معظم المؤسسات. في هذه المرحلة، تؤدي أنظمة الذكاء الاصطناعي مهامَ روتينية محددة، بينما يحتفظ البشر بالسيطرة الكاملة وسلطة اتخاذ القرار. يعمل الذكاء الاصطناعي بشكل أساسي بوصفه أداةً لزيادة الإنتاجية، حيث يتولى مهام محددة بدقة وفق معايير واضحة.

تتعدد الأمثلة هنا: أنظمة تصنيف المستندات التي تفرز المراسلات الواردة تلقائياً، وبرامج الدردشة الآلية التي تجيب عن استفسارات العملاء المعتادة، والمساعدة في جدولة ترتيبات الاجتماعات، وأتمتة إدخال البيانات التي تستخرج المعلومات من النماذج.

السمة الرئيسية لهذه المرحلة هي أن الذكاء الاصطناعي يعمل ضمن حدود ضيقة. إذ يُدير البشر سير العمل العام ويتخذون جميع القرارات الجوهرية، بينما يتولى الذكاء الاصطناعي المهام الروتينية؛ ما يُتيح للبشر التفرغ لأعمال ذات قيمة أعلى.

الاعتبارات الأخلاقية الأساسية تتمثل في هذه المرحلة في ضمان الدقة ومنع الضرر الناجم عن العمليات الآلية. عندما يُوجّه نظام الذكاء الاصطناعي شكاوى العملاء تلقائياً أو يُشير إلى الطلبات للمراجعة، قد تؤثر الأخطاء على أشخاص حقيقيين. يجب على المؤسسات تطبيق ضوابط الجودة والمراقبة لاكتشاف الأخطاء قبل أن تُسبب ضرراً، لا سيما للفئات الأكثر عرضة للخطر التي قد تكون أقل قدرة على التعامل مع أخطاء النظام.

المرحلة الثانية: التعزيز وتقديم المشورة

مع ازدياد ثقة المؤسسات بأنظمة الذكاء الاصطناعي، فإنها عادةً ما تنتقل إلى نماذج لا يقتصر فيها الذكاء الاصطناعي على تنفيذ المهام فحسب، بل يُقدم أيضاً تحليلات وتوصيات تُسهم في اتخاذ القرارات البشرية.

تحليلات تنبؤية. في هذه المرحلة، قد تُحدد أدوات التحليلات التنبؤية أنماطاً ناشئة في سلوك العملاء؛ ما يُتيح استراتيجيات أعمال أكثر استباقية. قد تُحلل أنظمة تقييم المخاطر البيانات التاريخية لتحديد مشكلات الامتثال المحتملة. وقد تُشير التشخيصات المدعومة بالذكاء الاصطناعي إلى أسباب محتملة لأعطال المعدات أو أعراض المرضى.

يكمن الفرق الجوهري في أنه بينما يستطيع الذكاء الاصطناعي توليد رؤى لا يستطيع البشر التوصل إليها بمفردهم من خلال إيجاد أنماط في مجموعات بيانات ضخمة يصعب على أي شخص تحليلها، يبقى الحكم البشري هو المرجع النهائي لتفسير هذه الرؤى واتخاذ الإجراءات بناءً عليها.

مخاطر جديدة: هنا تبرز مخاطر جديدة. إذ يُصبح الاعتماد المفرط على توصيات الذكاء الاصطناعي خطراً حقيقياً. وقد يتسلل التحيز التأكيدي، حيث يقبل البشر بشكل انتقائي رؤى الذكاء الاصطناعي التي تتوافق مع آرائهم المسبقة، بينما يرفضون تلك التي تُشكك في افتراضاتهم.

يتطلب النهج المسؤول في هذه المرحلة من البشر فهم كيفية توصل الذكاء الاصطناعي إلى توصياته - ما هي البيانات التي دُرّب عليها، وما الذي قد يكون تغير منذ التدريب، وما إذا كان هناك أي سبب يدعو إلى الشك في وجود تحيز. وقد يكون الأمر إشكالياً بالقدر نفسه عندما يرفض البشر نصائح الذكاء الاصطناعي الجيدة لعدم فهمهم لها أو عدم ثقتهم بها، كما هو الحال عندما يقبلون النصائح السيئة دون تفكير.

المرحلة الثالثة: التعاون والشراكة

تمثل هذه المرحلة تحولاً أكثر جوهرية. إذ وبدلاً من وجود فصل واضح بين مهام الآلة وقرارات الإنسان، يعمل البشر والذكاء الاصطناعي كفريقين يتمتعان بقدرات متكاملة ومسؤولية مشتركة.

علاقة ديناميكية. تصبح العلاقة ديناميكية وتفاعلية. وهنا تتكيف أنظمة الذكاء الاصطناعي باستمرار بناءً على ملاحظات البشر، بينما يُعدّل البشر أساليبهم بناءً على الرؤى التي يُولدها الذكاء الاصطناعي. يتلاشى الحد الفاصل بين «عمل الذكاء الاصطناعي» و«عمل الإنسان».

لنأخذ على سبيل المثال سيناريوهات الاستجابة للطوارئ، حيث تعمل فرق بشرية جنباً إلى جنب مع أنظمة الذكاء الاصطناعي أثناء الأزمات. يراقب الذكاء الاصطناعي باستمرار تدفقات بيانات متعددة - أنماط الطقس، وحالة المرور، وتوافر الموارد، وبيانات الاستجابة السابقة - ويقترح تخصيص الموارد. ويقبل البشر هذه الاقتراحات أو يُعدّلونها أو يرفضونها بناءً على معرفة سياقية غير متاحة للنظام. يتعلم الذكاء الاصطناعي من هذه التدخلات البشرية؛ ما يُحسّن توصياته المستقبلية. يطور البشر حدساً حول متى يثقون بالذكاء الاصطناعي ومتى يعتمدون على حكمهم الخاص.

أهمية تحديد المسؤولية. هنا يصبح تحديد المسؤولية أمراً معقداً حقاً. عندما تنتج النتائج عن عمل مشترك بين الإنسان والذكاء الاصطناعي، من يتحمل مسؤولية الأخطاء؟ إذا أوصى الذكاء الاصطناعي بمسار عمل، ووافق عليه إنسان، ثم ساءت الأمور، فإن مسألة تحديد المسؤولية ليست واضحة على الإطلاق.

تحتاج المؤسسات العاملة في هذه المرحلة إلى أطر حوكمة جديدة تحافظ على وضوح خطوط المساءلة البشرية مع تمكين شراكات مثمرة. يتجاوز هذا مجرد تحديد المسؤولية القانونية؛ فهو أساسي للحفاظ على الثقة، داخل المنظمة ومع أصحاب المصلحة الخارجيين.

المرحلة الرابعة: الإشراف والحوكمة

• وضع المعايير. يتضمن نموذج العلاقة الأكثر تطوراً قيام البشر بوضع المعايير، والإشراف، وإدارة الاستثناءات، بينما تتولى أنظمة الذكاء الاصطناعي العمليات الروتينية بشكل مستقل.

يمثل هذا تطوراً كبيراً عن المراحل السابقة. ينتقل دور البشر من التنفيذ المباشر للمهام أو اتخاذ القرارات إلى دور يركز على وضع الحدود، ومراقبة الأداء، والتدخل عند الضرورة.

قد يقوم نظام الذكاء الاصطناعي بمعالجة مطالبات التأمين بشكل مستقل وفقاً للسياسات المعمول بها، مع مراجعة البشر للحالات غير الاعتيادية فقط أو القرارات المختارة عشوائياً لضمان مراقبة الجودة. قد تُنفذ خوارزمية التداول المعاملات ضمن معايير محددة، مع قيام المشرفين البشريين بمراقبة أي شذوذ وتعديل القيود مع تغير ظروف السوق.

يمكن أن تكون مكاسب الكفاءة هائلة، ولكن المخاطر كذلك.

خطر «الرضا عن الأتمتة». يزداد هذا الخطر بشكل كبير في هذه المرحلة. فقد يفشل المشرفون البشريون في الحفاظ على اليقظة اللازمة تجاه أنظمة الذكاء الاصطناعي التي تعمل عادةً بشكل صحيح. فعند الإشراف على نظام يتخذ القرار الصحيح بنسبة 99 في المائة من الوقت، يصبح من الصعب نفسياً البقاء متيقظاً للنسبة المتبقية (1 في المائة) من الحالات التي تتطلب تدخلاً. لذا؛ يجب على المؤسسات تطبيق آليات إشراف فعّالة تُبقي العنصر البشري منخرطاً بشكل هادف بدلاً من الاقتصار على دور إشرافي شكلي. وقد يُقدّم استخدام أسلوب اللعب في تحديد الأخطاء وتصحيحها مساراً قيّماً في هذا الصدد، من خلال إضافة طبقة من الأخطاء في لعبة لكشف المشرفين «النائمين» إلى أنظمة عالية الموثوقية، ونادراً ما تُخطئ.

التنقل بين مراحل التطور

لا تحتاج كل مؤسسة إلى المرور بالمراحل الأربع جميعها، ولا ينبغي أن تكون جميع وظائف المؤسسة في المرحلة نفسها. فالمستوى الأمثل للتعاون بين الإنسان والذكاء الاصطناعي يعتمد على المخاطر المترتبة، ونضج تقنية الذكاء الاصطناعي، وقدرة المؤسسة على الحوكمة.

تستدعي القرارات المصيرية - تلك التي تؤثر على حقوق الأفراد أو سلامتهم أو مصالحهم المالية المهمة - عموماً مشاركة بشرية أكبر من المهام الإدارية الروتينية، بينما تتطلب التطبيقات الجديدة للذكاء الاصطناعي- حيث لا تزال حدود هذه التقنية مفهومة جيداً بعد - إشرافاً بشرياً أدق من التطبيقات الراسخة ذات السجلات الحافلة بالإنجازات.

مبادئ عامة تنطبق على الجميع

وبغض النظر عن موقع مؤسستك على هذا الطيف، فإن هناك مبادئ عامة تنطبق على الجميع، تشمل:

• فهم قدرات الذكاء الاصطناعي وحدوده. في كل مرحلة، يتطلب التعاون الفعال وجود أفراد يفهمون، ليس فقط ما يمكن للذكاء الاصطناعي فعله، بل أيضاً مواطن قصوره المحتملة. ويزداد هذا الفهم أهميةً مع ازدياد استقلالية أنظمة الذكاء الاصطناعي.

• الحفاظ على مساءلة بشرية فعّالة. لا يتغير المبدأ الأساسي المتمثل في ضرورة بقاء البشر مسؤولين عن القرارات المصيرية مع تطور قدرات الذكاء الاصطناعي. ما يتغير هو كيفية هيكلة هذه المساءلة وممارستها.

• تصميم الأعمال لمواكبة التطور. العلاقة بين البشر وأنظمة الذكاء الاصطناعي ليست ثابتة. ينبغي للمؤسسات بناء أطر حوكمة قابلة للتكيف مع تطور قدرات الذكاء الاصطناعي، ومع ازدياد فهمها لكيفية عمل التعاون بين الإنسان والذكاء الاصطناعي في سياقها الخاص.

• الاستثمار في العنصر البشري. لا يُقدم نظام الذكاء الاصطناعي الأكثر تطوراً قيمةً تُذكر إذا لم يفهم البشر العاملون معه كيفية التعاون بفاعلية. يُعدّ التدريب والتطوير الثقافي والتصميم التنظيمي عناصر لا تقل أهمية عن التكنولوجيا نفسها.

لن تكون المؤسسات التي تزدهر في عصر الذكاء الاصطناعي هي تلك التي تكتفي بنشر أحدث الأنظمة، بل تلك التي تُتقن فنّ التعاون بين الإنسان والذكاء الاصطناعي، أي التي تُدرك متى تعتمد على قدرات الذكاء الاصطناعي، ومتى تُفعّل الحكم البشري، وكيفية بناء شراكات تستفيد من نقاط القوة المُميزة لكليهما.

* مقتبس من كتاب «إعادة تصور الحكومة: تحقيق وعد الذكاء الاصطناعي» Reimagining Government: Achieving the Promise of AI، تأليف فيصل هوك، وإريك نيلسون، وتوم دافنبورت، وآخرون. دار نشر بوست هيل. سيصدر في يناير (كانون الثاني) 2026.

مجلة «فاست كومباني» - خدمات «تريبيون ميديا»