3 من 4 موظفين يستخدمون «ذكاءهم الاصطناعي» في مكاتب العمل

يوظفونها لشتى المهام... والشركات تسارع لمواكبة هذا التطور

3 من 4 موظفين يستخدمون «ذكاءهم الاصطناعي» في مكاتب العمل
TT

3 من 4 موظفين يستخدمون «ذكاءهم الاصطناعي» في مكاتب العمل

3 من 4 موظفين يستخدمون «ذكاءهم الاصطناعي» في مكاتب العمل

عندما انتشر تطبيق «تشات جي بي تي» على نطاق واسع، سارعت فرق قيادة الشركات إلى فهمه، لكن موظفيها سبقوها في ذلك؛ إذ كان الموظفون يُجرّبون بالفعل أدوات الذكاء الاصطناعي سراً، مستخدمينها لتلخيص الملاحظات، وأتمتة المهام، وتحقيق أهداف الأداء بموارد محدودة، كما كتب سيندي رودريغيز كونستابل(*)... وما بدأ كأداة لتعزيز الإنتاجية بشكل مختصر، تطوّر إلى معيار جديد في مكان العمل.

الموظفون يستخدمون «ذكاءهم الاصطناعي»

وفقاً لمؤشر اتجاهات العمل من «مايكروسوفت»، يستخدم ثلاثة من كل أربعة موظفين الذكاء الاصطناعي في العمل، ويُحضر ما يقرب من 80 في المائة من مستخدمي الذكاء الاصطناعي في الشركات الصغيرة والمتوسطة أدواتهم الخاصة إلى مكان العمل، وتبلغ هذه النسبة 78 في المائة في الشركات الأكبر. وتتراوح هذه الأدوات من مُولّدات النصوص، مثل «جي بي تي»، إلى منصات الأتمتة وبرامج التصميم المُدعّمة بالذكاء الاصطناعي.

وتُعرف هذه الظاهرة التصاعدية باسم «أحضر ذكاءك الاصطناعي الخاص»، أو BYOAI إنه يعكس الأيام الأولى لسياسات «إحضار جهازك الخاص» (BYOD)، عندما بدأ الموظفون باستخدام هواتفهم الذكية وأجهزة الكمبيوتر المحمولة الشخصية لمهام العمل - غالباً قبل أن يضع أصحاب العمل بروتوكولات لإدارتها. وقد تطورت تلك السياسات في النهاية لمعالجة مخاوف الأمان وخصوصية البيانات والتحكم في الوصول. ولكن مع BYOAI، تكون المخاطر أعلى.

خوارزميات خارجية تجتاح أماكن العمل

بدلاً من الأجهزة المادية، يُدخل الموظفون خوارزميات في سير العمل؛ خوارزميات لم يتم فحصها من قبل قسم تكنولوجيا المعلومات الخاص بالشركة، أو الامتثال للقواعد، أو الشؤون القانونية. وفي ظل المناخ التنظيمي السريع الحركة اليوم، يمكن أن يُشكل ذلك مخاطر جسيمة؛ فقد اعترف ما يقرب من نصف الموظفين الذين يستخدمون الذكاء الاصطناعي في العمل بأنهم يفعلون ذلك بشكل «غير لائق»، مثل ثقتهم في جميع الإجابات التي يقدمها الذكاء الاصطناعي دون التحقق منها، أو تكليفه بمعلومات حساسة.

إن هذه التوجهات ليست سلوكاً هامشياً أو بدعة تقنية عابرة. إنها واقع سريع النمو في أماكن العمل الحديثة، مدفوعاً بالموظفين المرهقين، والفرق ذات الموارد المحدودة، وإمكانية الوصول المتزايدة إلى أدوات الذكاء الاصطناعي القوية.

وفي غياب سياسات أو رقابة، يتولى الموظفون زمام الأمور بأنفسهم، مستخدمين في كثير من الأحيان أدوات يجهلها أصحاب العمل. ورغم أن الهدف قد يكون تعزيز الإنتاجية، فإن هذا قد يُعرّض الشركات لتسريب البيانات ومشاكل أمنية أخرى.

6 من 10 موظفين أخطأوا بسبب الذكاء الاصطناعي

وسواء كان فريق للتسويق يُدخل بيانات العملاء في روبوت محادثة، أو رئيس فرقة عمليات يُؤتمت سير العمل باستخدام مكونات إضافية، فإن هذه الأدوات قد تفتح الباب بهدوء أمام انتهاكات الخصوصية، واتخاذ قرارات متحيزة، وانهيار العمليات.

يقول ما يقرب من ستة من كل عشرة موظفين إنهم ارتكبوا أخطاء في العمل بسبب أخطاء الذكاء الاصطناعي، كما أن كثيرين يستخدمونه بشكل غير صحيح (57 في المائة يعترفون بأخطائهم، و44 في المائة يُسيئون استخدامه عن عمد).

ومع ذلك، ووفقاً لتقرير صادر عن ديلويت عام 2024، الذي استطلعت فيه آراء المؤسسات الرائدة في مجال الذكاء الاصطناعي، أفادت 23 في المائة فقط من هذه المؤسسات بأنها تشعر بالاستعداد التام لإدارة المخاطر المتعلقة بالذكاء الاصطناعي. ووفقاً لشركة «KPMG»، فإن 6 في المائة فقط من الشركات لديها فريق متخصص يُركز على تقييم مخاطر الذكاء الاصطناعي وتطبيق إجراءات السلامة.

وتقول أليسون سبانيولو، كبيرة مسؤولي الخصوصية والمديرة الإدارية الأولى في شركة «غايدبوست سوليوشن»، المتخصصة في التحقيقات والامتثال التنظيمي والاستشارات الأمنية: «عندما يستخدم الموظفون خدمات الذكاء الاصطناعي الخارجية دون علم أصحاب العمل... فإننا نميل إلى التفكير في مخاطر مثل فقدان البيانات، وتسريب الملكية الفكرية، وانتهاكات حقوق النشر، والخروقات الأمنية».

كيف تتقدم الشركات ذات الرؤية المستقبلية؟

بدأت بعض المؤسسات في الاستجابة - ليس بحظر الذكاء الاصطناعي، بل بالعمل على تمكين الموظفين من استخدامه.

ووفقاً لتقرير ديلويت، تستثمر 43 في المائة من المؤسسات التي تستخدم الذكاء الاصطناعي في عمليات تدقيق داخلية للذكاء الاصطناعي، وتُدرّب 37 في المائة منها المستخدمين على إدراك المخاطر والتخفيف منها، وتُحافظ 33 في المائة منها على سجل رسمي لكيفية استخدام جيل الذكاء الاصطناعي، حتى يتمكن المديرون من القيادة بوضوح، دون ارتباك.

وفي الوقت نفسه، تُزوّد ​​«سيلزفورس» الموظفين بأدوات ذكاء اصطناعي آمنة ومعتمدة، مثل «سلاك للذكاء الاصطناعي Slack AI» و«آينشتاين Einstein»، التي تتكامل مع أنظمة البيانات الداخلية، مع الحفاظ على قيود صارمة على استخدام البيانات الحساسة وتقديم تدريب منتظم. لدى الشركة أيضاً إطار عمل لتقديم المشورة للشركات الأخرى حول كيفية وضع سياساتها الخاصة للاستخدام الداخلي للذكاء الاصطناعي.

تقول رينا ريشترمير، الشريكة في «CM Law PLLC»، وهي شركة متخصصة تُقدم الاستشارات للعملاء بشأن قضايا التكنولوجيا الناشئة: «إن أفضل استراتيجية هي في الواقع فتح قنوات التواصل مع الموظفين». وتضيف أنه لا ينبغي لأصحاب العمل رفض استخدام الذكاء الاصطناعي، بل عليهم بدلاً من ذلك تزويد الموظفين بحواجز ومعايير وتدريب. على سبيل المثال، قد يطلب أصحاب العمل من الموظفين استخدام البيانات العامة فقط و«استبعاد البيانات التي تُعتبر ملكية خاصة أو سرية تجارية أو متعلقة بالعملاء».

استخدام الذكاء الاصطناعي الخاص بك لن يختفي

إن استخدام الذكاء الاصطناعي الخاص بك ليس مجرد توجه تقني، بل هو تحدٍّ قيادي.

يجد المديرون أنفسهم الآن يشرفون على إنتاجية كلٍّ من البشر والآلات، غالباً دون تدريب رسمي على كيفية إدارة هذا المزيج بفاعلية. يجب عليهم تحديد متى يكون الذكاء الاصطناعي مناسباً، وكيفية تقييم استخدامه، وضمان الالتزام بالمعايير الأخلاقية ومعايير الأداء.

ثقافات استباقية

كما أن أفضل ما يمكن للشركات فعله هو التحول من السياسات التفاعلية إلى ثقافات استباقية؛ إذ يحتاج الموظفون إلى تواصل واضح حول ما هو آمن وما هو محظور، وأين يلجأون للحصول على التوجيه.

وتقول سبانيولو: «أعتقد أن وجود سياسة مخصصة للاستخدام المقبول للذكاء الاصطناعي مفيد للغاية... يمكنك إخبار موظفيك بدقة بالتوقعات، وما هي المخاطر التي قد تنجم عن تجاوزهم لهذه السياسة، وما هي العواقب».

والشركات التي ستستفيد أكثر من الذكاء الاصطناعي هي تلك التي تفهم كيفية تمكين موظفيها من استخدام الذكاء الاصطناعي والابتكار من خلاله. وهذا يتطلب من القادة التحول من سؤال الموظفين: «هل تستخدم الذكاء الاصطناعي؟» إلى «كيف يمكننا دعمك لاستخدامه بشكل جيد؟».

* مجلة «فاست كومباني» - خدمات «تريبيون ميديا»


مقالات ذات صلة

خبراء: الاعتماد على الذكاء الاصطناعي يقلل من نشاط الدماغ

تكنولوجيا يورينا نوغوتشي البالغة من العمر 32 عاماً تتحدث مع كلاوس شريكها في الذكاء الاصطناعي عبر تطبيق «شات جي بي تي» خلال تناول العشاء في منزلها بطوكيو (رويترز)

خبراء: الاعتماد على الذكاء الاصطناعي يقلل من نشاط الدماغ

أفاد تقرير بأن تفويض بعض المهام إلى الذكاء الاصطناعي يقلل من نشاط الدماغ؛ بل وقد يضر بمهارات التفكير النقدي وحل المشكلات.

«الشرق الأوسط» (لندن)
الاقتصاد رسم بياني لمؤشر الأسهم الألماني «داكس» يظهر في بورصة فرانكفورت (رويترز)

الأسهم الأوروبية تتجه لختام أسبوعي قوي رغم تباين الأداء

اتسم أداء الأسهم الأوروبية بالهدوء يوم الجمعة، حيث حدّت مكاسب البنوك الكبرى من خسائر أسهم التكنولوجيا والسلع الاستهلاكية.

«الشرق الأوسط» (لندن)
الاقتصاد متعاملو العملات يراقبون مؤشر «كوسبي» في غرفة تداول بنك هانا بسيول (أ.ب)

اهتزاز الثقة بقطاع الذكاء الاصطناعي يضغط على أسواق آسيا

تراجعت الأسهم الآسيوية يوم الخميس متأثرةً بخسائر «وول ستريت»، بعدما أدت مخاوف متزايدة بشأن قطاع الذكاء الاصطناعي إلى ضغوط حادة على أسهم شركات التكنولوجيا.

تكنولوجيا صورة مركبة عن الذكاء الاصطناعي (رويترز)

خبراء يحذرون: الذكاء الاصطناعي قد ينفذ هجمات إلكترونية بمفرده

حذرت مجموعة من الخبراء من قيام نماذج الذكاء الاصطناعي بتحسين مهاراتها في الاختراق، مشيرين إلى أن تنفيذها هجمات إلكترونية بمفردها يبدو أنه «أمر لا مفر منه».

«الشرق الأوسط» (نيويورك)
الاقتصاد متعاملون بالعملات يتابعون مؤشر «كوسبي» في غرفة تداول بنك «هانا» بسيول (أ.ب)

تباين في أداء الأسهم الآسيوية... وقطاع التكنولوجيا يدعم المؤشرات الرئيسية

تباين أداء الأسهم الآسيوية خلال تعاملات يوم الأربعاء؛ إذ أسهم الطلب القوي على أسهم التكنولوجيا في دعم بعض المؤشرات الرئيسية.

«الشرق الأوسط» (طوكيو)

الذكاء الاصطناعي يتسوّق لك... و«فيزا» تضمن عدم تعرضك للاحتيال

الذكاء الاصطناعي يتسوّق لك... و«فيزا» تضمن عدم تعرضك للاحتيال
TT

الذكاء الاصطناعي يتسوّق لك... و«فيزا» تضمن عدم تعرضك للاحتيال

الذكاء الاصطناعي يتسوّق لك... و«فيزا» تضمن عدم تعرضك للاحتيال

يُحدث ظهور أنظمة الذكاء الاصطناعي المستقلة تحولاً جذرياً في التسوق الإلكتروني. إذ يُمكن لهذه الأنظمة تصفح المنتجات، ومقارنة الأسعار، وإتمام عمليات الشراء نيابةً عن المستهلكين، ما يُدخل وسيطاً جديداً بين التجار والمشترين، كما كتبت إميلي برايس (*).

التسوق بيد الذكاء الاصطناعي

يُشكك هذا التحول في الافتراض السائد منذ زمن طويل بأن الإنسان هو الطرف الآخر في أي معاملة. فبدلاً من تصفح المواقع الإلكترونية يدوياً، يُوكل المستهلكون بشكل متزايد مهامّ مثل إيجاد أفضل العروض أو إتمام عمليات الشراء إلى أنظمة الذكاء الاصطناعي. وبينما يُوفر هذا الأمر الراحة، فإنه يُثير أيضاً تساؤلات جوهرية حول الثقة والمساءلة ومنع الاحتيال. الذكاء الاصطناعي يبدأ بالتسوق نيابةً عنك.

مشكلة الثقة

تُدخل التجارة الآلية حالة من عدم اليقين لدى كل من المستهلكين والتجار. فبالنسبة للمستهلكين، تُصبح النزاعات مُعقدة - من المسؤول إذا ارتكب نظام الذكاء الاصطناعي خطأً، مثل طلب منتج بلون خاطئ؟ أما بالنسبة للتجار، فيكمن التحدي في التحقق من النية والشرعية.

كشف الاحتيال التقليدي

صُممت الأنظمة في مجال التجارة للتفاعلات التي يقودها البشر، لا للبرمجيات المستقلة التي تعمل نيابةً عن المستخدمين. وهذا يُنشئ حاجة مُلحة لأُطر أمنية جديدة قادرة على التحقق من هوية كلٍّ من الإنسان ووكيل الذكاء الاصطناعي المُشارك في المعاملة.

تعاون استراتيجي بين «فيزا» و«أكامي»

لمواجهة هذه التحديات، تعاونت «فيزا» (Visa) و«أكامي تكنولوجيز» (Akamai Technologies) لدمج بروتوكول الوكيل الموثوق «Trusted Agent Protocol» من «فيزا» مع منصة الذكاء السلوكي من behavioral intelligence platform أكامي.

يهدف هذا التعاون إلى التحقق من هوية وكلاء الذكاء الاصطناعي، وربطهم بالمستهلكين الحقيقيين، وحظر حركة مرور البرامج الضارة قبل وصولها إلى أنظمة التجار الحساسة.

وتُوفر فيزا إشارات تحقق تُشير إلى ما إذا كان الوكيل مُصرحاً له وما هو الإجراء المقصود منه - التصفح أو الدفع - بينما تُعزز أكامي هذه الإشارات باستخدام بيانات سلوكية مُجمعة عبر الإنترنت. ويُساعد هذا النهج ثنائي الطبقات على بناء الثقة مُبكراً في مسار المعاملة، ما يُقلل من الاحتيال ومحاولات انتحال الشخصية.

حجم التحديات

تتزايد حركة التصفح المُدارة بواسطة الذكاء الاصطناعي بمعدل غير مسبوق، إذ كشف تقرير «أكامي» لعام 2025 حول الاحتيال الرقمي وإساءة الاستخدام أن «حركة مرور» برامج الروبوت المدعومة بالذكاء الاصطناعي نمت بأكثر من 300 في المائة خلال العام الماضي، حيث شهد قطاع التجارة وحده أكثر من 25 مليار طلب من هذه البرامج في شهرين فقط. ورغم أن هذا الحجم لا يزال يمثل جزءاً صغيراً من إجمالي حركة مرور الإنترنت، فإن القدرة على أتمتة الهجمات تجعلها مربحة للغاية لمجرمي الإنترنت.

وتؤكد كل من «فيزا» و«أكامي» على أهمية العمل على نطاق عالمي لمواجهة هذه التهديدات بفاعلية. وتعالج «فيزا» المعاملات في ما يقرب من 200 سوق، وتدير «أكامي» حركة المرور عبر الإنترنت، ما يُمكّنها من مواكبة وتيرة الأتمتة.

تكيّف التجار

على الرغم من أن المستهلكين سيستفيدون من تجارب تسوق أكثر سلاسة، فإن العبء الأكبر يقع على عاتق التجار. إذ يجب عليهم تكييف بنيتهم ​​التحتية لاستيعاب التفاعلات المدعومة بالذكاء الاصطناعي، وتحديد البيانات التي يمكن للوكلاء الوصول إليها، وكيفية عرض الأسعار والمخزون، وكيفية عمل برامج الولاء والتخصيص عندما يكون الذكاء الاصطناعي - وليس متصفحاً بشرياً - هو المحرك الرئيسي للتفاعل. وهذا يمثل تحدياً كبيراً، إذ إنه تحوّلٌ كبير في استراتيجية التجارة الإلكترونية، يُلزم التجار بإعادة النظر في أنظمتهم للحفاظ على قدرتهم التنافسية وأمانهم.

نظرة مستقبلية

لا تدّعي كلٌّ من «فيزا» و«أكامي» معرفة الشكل الدقيق للتجارة الإلكترونية القائمة على الوكلاء خلال ثلاث سنوات. ومع ذلك، فإنهما تُقدّمان بروتوكول الوكيل الموثوق به كطبقة توافق مصممة لمساعدة البنية التحتية للتجارة على التطور دون التضحية بالتحكم أو الأمان. ومع انتقال وكلاء الذكاء الاصطناعي من مجرد ابتكار إلى ضرورة، قد تُحدّد طبقة الثقة هذه ما إذا كان التجار سيتبنون التجارة الإلكترونية القائمة على الوكلاء أم سيرفضونها تماماً.

وسيعتمد مستقبل التسوق عبر الإنترنت على تحقيق التوازن بين الراحة والأمان، بما يضمن أن تُعزّز الأتمتة ثقة المستهلك بدلاً من تقويضها.

* باختصار، مجلة «فاست كومباني»، خدمات «تريبيون ميديا».


علاجات خلوية معدلة جينياً... للسرطان

العلاج الجيني: تعديل خلايا الدم البيضاء لمواجهة السرطان
العلاج الجيني: تعديل خلايا الدم البيضاء لمواجهة السرطان
TT

علاجات خلوية معدلة جينياً... للسرطان

العلاج الجيني: تعديل خلايا الدم البيضاء لمواجهة السرطان
العلاج الجيني: تعديل خلايا الدم البيضاء لمواجهة السرطان

في إحدى غرف الأبحاث الهادئة في جامعة «يونيفرسيتي كوليدج-لندن» (UCL)، جلس البروفيسور وسيم قاسم، أحد أبرز روّاد العلاج الجيني والعلاج الخلوي في أوروبا، يستعيد قصة بدأت بصراعٍ غير متكافئ بين طفلة رضيعة ومرضٍ شرس.

سرطان دم عدواني

قبل سنوات، كانت طفلة بريطانية لم تتجاوز عامها الأول تُواجه أحد أكثر أنواع سرطان الدم عدوانية، بعد أن فشلت العلاجات التقليدية، وضاقت الخيارات الطبية إلى حدّها الأقصى. أما اليوم، وبعد رحلة علمية دقيقة وطويلة، فإن هذه الطفلة تعيش، وقد بلغت السادسة عشرة، حياة طبيعية خالية من المرض، بفضل علاج خلوي متقدّم قائم على تعديل الجينات، طوّره فريق البروفيسور قاسم في مستشفى «غريت أورموند ستريت» بالتعاون مع الجامعة.

ليست هذه حكاية انتصارٍ درامي بقدر ما هي شهادة على تحوّل عميق في الطب الحديث: حين لا يعود العلاج مجرّد مواجهة مع المرض، بل محاولة لفهمه وإعادة توجيه جهاز المناعة نفسه ليقوم بالمهمة.

البروفيسور وسيم قاسم رائد العلاج الجيني والخلايا المناعية

علاج خلوي معدَّل جينياً

وفي مقابلة حصرية مع الشرق الأوسط يقول البروفيسور قاسم بهدوء العالم الذي يعرف حدود العلم بقدر ما يعرف قوّته: «العلاج الخلوي المعدَّل جينياً لم يعد طبّ المستقبل، بل أصبح واقعاً حاضراً لبعض أنواع السرطان»... إنه نافذة على زمنٍ جديد، يُدار فيه الصراع مع المرض داخل الخلية... لا خارجها.

تقنية تحرير الجينوم

لنبدأ من اللحظة الأولى... كيف اتُّخذ القرار باستخدام تقنية تحرير الجينوم لعلاج هذه الطفلة؟

- كانت الحالة بالغة التعقيد. الطفلة لم تستجب لأي من العلاجات التقليدية المتاحة، وكانت قد استنفدت معظم الخيارات الطبية، فيما كان عامل الوقت يضغط بقسوة. في تلك المرحلة، كنا نعمل منذ سنوات على تطوير خلايا مناعية تُعرف بـ«الخلايا التائية» (T cells)، يجري تعديلها جينياً داخل المختبر، وهي ما يُعرف بعلاج CAR-T، بحيث تفقد قدرتها على مهاجمة أنسجة المريض، وتكتسب في المقابل دقة عالية في استهداف الخلايا السرطانية وحدها.

بعد نقاشات علمية معمّقة، ومراجعات أخلاقية صارمة، وموافقات تنظيمية دقيقة، تقرر إدخال هذه الحالة ضمن التجربة العلاجية. لم يكن القرار سهلاً بأي حال، لكنه -في ذلك التوقيت- كان الفرصة الوحيدة المتاحة لإنقاذ حياة الطفلة.

* ما التقنية الدقيقة التي استخدمتموها في هذا العلاج؟

- اعتمدنا على «الخلايا التائية» التي جرى تعديلها جينياً داخل المختبر لتؤدي وظيفة علاجية محددة. وقد شمل هذا التعديل ثلاث خطوات رئيسية:

. تعطيل مستقبل يُسمّى «TCR»، وهو المفتاح الذي قد يدفع الخلية المناعية إلى مهاجمة جسم المريض نفسه، وذلك لتجنّب أي ردّ فعل مناعي ضار.

. تعطيل جين «CD52»، بهدف جعل الخلايا المعدّلة قادرة على تحمّل الأدوية التي تُستخدم لتهيئة جسم المريض قبل العلاج.

. إضافة مستقبل ذكي يُعرف بـ«CAR»، يعمل بوصفه جهاز توجيه يسمح للخلايا المناعية بالتعرّف بدقة على خلايا سرطان الدم (اللوكيميا) ومهاجمتها فقط.

العلاج الجيني... أمل واعد

جراحة دقيقة داخل الشفرة الوراثية

بهذا المعنى، كانت العملية أشبه بجراحة دقيقة داخل الشفرة الوراثية للخلية، جراحة لم تستهدف المرض فحسب، بل أعادت تدريب جهاز المناعة على أداء مهمته... ونجحت في إنقاذ حياة.

* هل يمكن اعتبار هذه الحالة من أوائل حالات الشفاء طويل المدى باستخدام تعديل الجينات في بريطانيا؟

-نعم، تُعدّ من أوائل الحالات على مستوى بريطانيا، ومن الحالات المبكرة عالمياً في هذا المجال. والأهم من ذلك أنها لا تزال، بعد مرور ستة عشر عاماً، خالية تماماً من المرض، وهو ما يمنحنا مؤشراً إيجابياً على استدامة هذا النوع من العلاج عند تطبيقه بدقة وفي إطار تجارب سريرية محكومة.

* هل يمكن أن يصبح تحرير الجينات بديلاً عن العلاج الكيميائي في المستقبل؟

- نحن نتجه في هذا المسار، لكن بحذر. حتى الآن، يُستخدم تعديل الجينات بشكل أساسي في بعض سرطانات الدم، وليس في جميع أنواع السرطان. ولا يزال الطريق طويلاً قبل أن يصبح هذا النهج بديلاً واسع الانتشار.

لكن من الممكن، خلال العقد المقبل، أن تتحول بعض علاجات اللوكيميا إلى علاجات روتينية تعتمد على إعادة برمجة الجهاز المناعي، بدل الاعتماد الكامل على العلاج الكيماوي أو الإشعاعي.

جدل أخلاقي

* ماذا عن الجدل الأخلاقي المحيط بتعديل الجينات؟

- الأخلاقيات ليست جانباً ثانوياً في عملنا، بل هي في صميمه. ما نقوم به يقتصر على تعديل خلايا الدم البيضاء فقط بهدف علاج المرض، ولا يمسّ جوهر الإنسان أو صفاته الوراثية. هذه التعديلات علاجية ومؤقتة، ولا يمكن أن تنتقل إلى الأبناء.

من المهم التأكيد أن تحرير الجينوم يُستخدم هنا بوصفه أداة طبية دقيقة، لا وسيلة لتحسين الصفات أو تغيير الطبيعة البشرية. كما أنه لا توجد، في الوقت الراهن، حاجة علمية إلى تحرير الجينات الوراثية للأجنة، إذ يمكن في معظم الحالات تفادي الأمراض الوراثية بوسائل طبية أخرى أكثر أماناً.

التعاون مع العالم العربي

* يشهد العالم العربي، ولا سيما المملكة العربية السعودية، تطوراً متسارعاً في مجالات الطب الدقيق. هل ترون آفاقاً للتعاون في هذا المجال؟

-بلا شك. تشهد المملكة العربية السعودية تقدماً ملحوظاً في مجالات الطب الدقيق والبحوث الجينية، وهناك فرص حقيقية للتعاون العلمي والطبي. ويمكن أن يشمل هذا التعاون تدريب الكوادر الطبية على تقنيات العلاج الخلوي والجيني، وتطوير مراكز متخصصة للعلاجات المتقدمة، إلى جانب إطلاق برامج بحثية مشتركة تُعنى بأمراض منتشرة في المنطقة. وأرحّب شخصياً بأي فرصة للحوار والتعاون العلمي في هذا المجال.

وأخيراً

* ماذا تقول لطفلة تمر اليوم بتجربة مشابهة؟

-أقول لها إن الخوف مفهوم، لكن العلم اليوم يملك أدوات أقوى مما كان عليه في الماضي. هناك فرق طبية وعلمية تعمل بصبر ودقة، هدفها أن تمنح المرضى أفضل فرصة ممكنة للعلاج. وهي ليست وحدها في هذه الرحلة.

يعكس هذا الحوار ملامح مرحلة جديدة في الطب الحديث، مرحلة لا تكتفي بمواجهة المرض بأدواته التقليدية، بل تسعى إلى فهمه على مستوى الخلية وإعادة توجيه آليات الجسم نفسه لمقاومته.

والطفلة التي تعافت من سرطان الدم، وأصبحت اليوم شابة في السادسة عشرة، لا تمثل حالة فردية فحسب، بل مثالاً على ما يمكن أن يحققه التقدم العلمي حين يُطبَّق بدقة، وبحذر، وضمن أطر أخلاقية صارمة.


إتقان فن التعاون بين الذكاء الاصطناعي وبين الإنسان سيؤدي إلى الازدهار

إتقان فن التعاون بين الذكاء الاصطناعي وبين الإنسان سيؤدي إلى الازدهار
TT

إتقان فن التعاون بين الذكاء الاصطناعي وبين الإنسان سيؤدي إلى الازدهار

إتقان فن التعاون بين الذكاء الاصطناعي وبين الإنسان سيؤدي إلى الازدهار

هيمنت على النقاش الدائر حول الذكاء الاصطناعي في بيئة العمل فكرةٌ مبسطة مفادها أن الآلات ستحل حتماً محل البشر. إلا أن المؤسسات التي تحقق نتائج ملموسة بفضل الذكاء الاصطناعي قد تجاوزت هذا التصور تماماً. فهي تدرك أن أفضل تطبيقات الذكاء الاصطناعي لا تقوم على الاستبدال، بل على التعاون، كما كتب فيصل حقّ (*).

تتطور العلاقة بين الموظفين وأنظمة الذكاء الاصطناعي عبر مراحل متميزة، لكل منها خصائصها وفرصها ومخاطرها. لذا؛ فإن فهم موقع مؤسستك على هذا الطيف - وإلى أين تتجه - أمرٌ بالغ الأهمية للاستفادة من إمكانات الذكاء الاصطناعي وتجنب مخاطره.

المرحلة الأولى: الأدوات والأتمتة

هذه هي المرحلة التي تبدأ بها معظم المؤسسات. في هذه المرحلة، تؤدي أنظمة الذكاء الاصطناعي مهامَ روتينية محددة، بينما يحتفظ البشر بالسيطرة الكاملة وسلطة اتخاذ القرار. يعمل الذكاء الاصطناعي بشكل أساسي بوصفه أداةً لزيادة الإنتاجية، حيث يتولى مهام محددة بدقة وفق معايير واضحة.

تتعدد الأمثلة هنا: أنظمة تصنيف المستندات التي تفرز المراسلات الواردة تلقائياً، وبرامج الدردشة الآلية التي تجيب عن استفسارات العملاء المعتادة، والمساعدة في جدولة ترتيبات الاجتماعات، وأتمتة إدخال البيانات التي تستخرج المعلومات من النماذج.

السمة الرئيسية لهذه المرحلة هي أن الذكاء الاصطناعي يعمل ضمن حدود ضيقة. إذ يُدير البشر سير العمل العام ويتخذون جميع القرارات الجوهرية، بينما يتولى الذكاء الاصطناعي المهام الروتينية؛ ما يُتيح للبشر التفرغ لأعمال ذات قيمة أعلى.

الاعتبارات الأخلاقية الأساسية تتمثل في هذه المرحلة في ضمان الدقة ومنع الضرر الناجم عن العمليات الآلية. عندما يُوجّه نظام الذكاء الاصطناعي شكاوى العملاء تلقائياً أو يُشير إلى الطلبات للمراجعة، قد تؤثر الأخطاء على أشخاص حقيقيين. يجب على المؤسسات تطبيق ضوابط الجودة والمراقبة لاكتشاف الأخطاء قبل أن تُسبب ضرراً، لا سيما للفئات الأكثر عرضة للخطر التي قد تكون أقل قدرة على التعامل مع أخطاء النظام.

المرحلة الثانية: التعزيز وتقديم المشورة

مع ازدياد ثقة المؤسسات بأنظمة الذكاء الاصطناعي، فإنها عادةً ما تنتقل إلى نماذج لا يقتصر فيها الذكاء الاصطناعي على تنفيذ المهام فحسب، بل يُقدم أيضاً تحليلات وتوصيات تُسهم في اتخاذ القرارات البشرية.

تحليلات تنبؤية. في هذه المرحلة، قد تُحدد أدوات التحليلات التنبؤية أنماطاً ناشئة في سلوك العملاء؛ ما يُتيح استراتيجيات أعمال أكثر استباقية. قد تُحلل أنظمة تقييم المخاطر البيانات التاريخية لتحديد مشكلات الامتثال المحتملة. وقد تُشير التشخيصات المدعومة بالذكاء الاصطناعي إلى أسباب محتملة لأعطال المعدات أو أعراض المرضى.

يكمن الفرق الجوهري في أنه بينما يستطيع الذكاء الاصطناعي توليد رؤى لا يستطيع البشر التوصل إليها بمفردهم من خلال إيجاد أنماط في مجموعات بيانات ضخمة يصعب على أي شخص تحليلها، يبقى الحكم البشري هو المرجع النهائي لتفسير هذه الرؤى واتخاذ الإجراءات بناءً عليها.

مخاطر جديدة: هنا تبرز مخاطر جديدة. إذ يُصبح الاعتماد المفرط على توصيات الذكاء الاصطناعي خطراً حقيقياً. وقد يتسلل التحيز التأكيدي، حيث يقبل البشر بشكل انتقائي رؤى الذكاء الاصطناعي التي تتوافق مع آرائهم المسبقة، بينما يرفضون تلك التي تُشكك في افتراضاتهم.

يتطلب النهج المسؤول في هذه المرحلة من البشر فهم كيفية توصل الذكاء الاصطناعي إلى توصياته - ما هي البيانات التي دُرّب عليها، وما الذي قد يكون تغير منذ التدريب، وما إذا كان هناك أي سبب يدعو إلى الشك في وجود تحيز. وقد يكون الأمر إشكالياً بالقدر نفسه عندما يرفض البشر نصائح الذكاء الاصطناعي الجيدة لعدم فهمهم لها أو عدم ثقتهم بها، كما هو الحال عندما يقبلون النصائح السيئة دون تفكير.

المرحلة الثالثة: التعاون والشراكة

تمثل هذه المرحلة تحولاً أكثر جوهرية. إذ وبدلاً من وجود فصل واضح بين مهام الآلة وقرارات الإنسان، يعمل البشر والذكاء الاصطناعي كفريقين يتمتعان بقدرات متكاملة ومسؤولية مشتركة.

علاقة ديناميكية. تصبح العلاقة ديناميكية وتفاعلية. وهنا تتكيف أنظمة الذكاء الاصطناعي باستمرار بناءً على ملاحظات البشر، بينما يُعدّل البشر أساليبهم بناءً على الرؤى التي يُولدها الذكاء الاصطناعي. يتلاشى الحد الفاصل بين «عمل الذكاء الاصطناعي» و«عمل الإنسان».

لنأخذ على سبيل المثال سيناريوهات الاستجابة للطوارئ، حيث تعمل فرق بشرية جنباً إلى جنب مع أنظمة الذكاء الاصطناعي أثناء الأزمات. يراقب الذكاء الاصطناعي باستمرار تدفقات بيانات متعددة - أنماط الطقس، وحالة المرور، وتوافر الموارد، وبيانات الاستجابة السابقة - ويقترح تخصيص الموارد. ويقبل البشر هذه الاقتراحات أو يُعدّلونها أو يرفضونها بناءً على معرفة سياقية غير متاحة للنظام. يتعلم الذكاء الاصطناعي من هذه التدخلات البشرية؛ ما يُحسّن توصياته المستقبلية. يطور البشر حدساً حول متى يثقون بالذكاء الاصطناعي ومتى يعتمدون على حكمهم الخاص.

أهمية تحديد المسؤولية. هنا يصبح تحديد المسؤولية أمراً معقداً حقاً. عندما تنتج النتائج عن عمل مشترك بين الإنسان والذكاء الاصطناعي، من يتحمل مسؤولية الأخطاء؟ إذا أوصى الذكاء الاصطناعي بمسار عمل، ووافق عليه إنسان، ثم ساءت الأمور، فإن مسألة تحديد المسؤولية ليست واضحة على الإطلاق.

تحتاج المؤسسات العاملة في هذه المرحلة إلى أطر حوكمة جديدة تحافظ على وضوح خطوط المساءلة البشرية مع تمكين شراكات مثمرة. يتجاوز هذا مجرد تحديد المسؤولية القانونية؛ فهو أساسي للحفاظ على الثقة، داخل المنظمة ومع أصحاب المصلحة الخارجيين.

المرحلة الرابعة: الإشراف والحوكمة

• وضع المعايير. يتضمن نموذج العلاقة الأكثر تطوراً قيام البشر بوضع المعايير، والإشراف، وإدارة الاستثناءات، بينما تتولى أنظمة الذكاء الاصطناعي العمليات الروتينية بشكل مستقل.

يمثل هذا تطوراً كبيراً عن المراحل السابقة. ينتقل دور البشر من التنفيذ المباشر للمهام أو اتخاذ القرارات إلى دور يركز على وضع الحدود، ومراقبة الأداء، والتدخل عند الضرورة.

قد يقوم نظام الذكاء الاصطناعي بمعالجة مطالبات التأمين بشكل مستقل وفقاً للسياسات المعمول بها، مع مراجعة البشر للحالات غير الاعتيادية فقط أو القرارات المختارة عشوائياً لضمان مراقبة الجودة. قد تُنفذ خوارزمية التداول المعاملات ضمن معايير محددة، مع قيام المشرفين البشريين بمراقبة أي شذوذ وتعديل القيود مع تغير ظروف السوق.

يمكن أن تكون مكاسب الكفاءة هائلة، ولكن المخاطر كذلك.

خطر «الرضا عن الأتمتة». يزداد هذا الخطر بشكل كبير في هذه المرحلة. فقد يفشل المشرفون البشريون في الحفاظ على اليقظة اللازمة تجاه أنظمة الذكاء الاصطناعي التي تعمل عادةً بشكل صحيح. فعند الإشراف على نظام يتخذ القرار الصحيح بنسبة 99 في المائة من الوقت، يصبح من الصعب نفسياً البقاء متيقظاً للنسبة المتبقية (1 في المائة) من الحالات التي تتطلب تدخلاً. لذا؛ يجب على المؤسسات تطبيق آليات إشراف فعّالة تُبقي العنصر البشري منخرطاً بشكل هادف بدلاً من الاقتصار على دور إشرافي شكلي. وقد يُقدّم استخدام أسلوب اللعب في تحديد الأخطاء وتصحيحها مساراً قيّماً في هذا الصدد، من خلال إضافة طبقة من الأخطاء في لعبة لكشف المشرفين «النائمين» إلى أنظمة عالية الموثوقية، ونادراً ما تُخطئ.

التنقل بين مراحل التطور

لا تحتاج كل مؤسسة إلى المرور بالمراحل الأربع جميعها، ولا ينبغي أن تكون جميع وظائف المؤسسة في المرحلة نفسها. فالمستوى الأمثل للتعاون بين الإنسان والذكاء الاصطناعي يعتمد على المخاطر المترتبة، ونضج تقنية الذكاء الاصطناعي، وقدرة المؤسسة على الحوكمة.

تستدعي القرارات المصيرية - تلك التي تؤثر على حقوق الأفراد أو سلامتهم أو مصالحهم المالية المهمة - عموماً مشاركة بشرية أكبر من المهام الإدارية الروتينية، بينما تتطلب التطبيقات الجديدة للذكاء الاصطناعي- حيث لا تزال حدود هذه التقنية مفهومة جيداً بعد - إشرافاً بشرياً أدق من التطبيقات الراسخة ذات السجلات الحافلة بالإنجازات.

مبادئ عامة تنطبق على الجميع

وبغض النظر عن موقع مؤسستك على هذا الطيف، فإن هناك مبادئ عامة تنطبق على الجميع، تشمل:

• فهم قدرات الذكاء الاصطناعي وحدوده. في كل مرحلة، يتطلب التعاون الفعال وجود أفراد يفهمون، ليس فقط ما يمكن للذكاء الاصطناعي فعله، بل أيضاً مواطن قصوره المحتملة. ويزداد هذا الفهم أهميةً مع ازدياد استقلالية أنظمة الذكاء الاصطناعي.

• الحفاظ على مساءلة بشرية فعّالة. لا يتغير المبدأ الأساسي المتمثل في ضرورة بقاء البشر مسؤولين عن القرارات المصيرية مع تطور قدرات الذكاء الاصطناعي. ما يتغير هو كيفية هيكلة هذه المساءلة وممارستها.

• تصميم الأعمال لمواكبة التطور. العلاقة بين البشر وأنظمة الذكاء الاصطناعي ليست ثابتة. ينبغي للمؤسسات بناء أطر حوكمة قابلة للتكيف مع تطور قدرات الذكاء الاصطناعي، ومع ازدياد فهمها لكيفية عمل التعاون بين الإنسان والذكاء الاصطناعي في سياقها الخاص.

• الاستثمار في العنصر البشري. لا يُقدم نظام الذكاء الاصطناعي الأكثر تطوراً قيمةً تُذكر إذا لم يفهم البشر العاملون معه كيفية التعاون بفاعلية. يُعدّ التدريب والتطوير الثقافي والتصميم التنظيمي عناصر لا تقل أهمية عن التكنولوجيا نفسها.

لن تكون المؤسسات التي تزدهر في عصر الذكاء الاصطناعي هي تلك التي تكتفي بنشر أحدث الأنظمة، بل تلك التي تُتقن فنّ التعاون بين الإنسان والذكاء الاصطناعي، أي التي تُدرك متى تعتمد على قدرات الذكاء الاصطناعي، ومتى تُفعّل الحكم البشري، وكيفية بناء شراكات تستفيد من نقاط القوة المُميزة لكليهما.

* مقتبس من كتاب «إعادة تصور الحكومة: تحقيق وعد الذكاء الاصطناعي» Reimagining Government: Achieving the Promise of AI، تأليف فيصل هوك، وإريك نيلسون، وتوم دافنبورت، وآخرون. دار نشر بوست هيل. سيصدر في يناير (كانون الثاني) 2026.

مجلة «فاست كومباني» - خدمات «تريبيون ميديا»