وكلاء الذكاء الاصطناعي... «ومضات من التألق والإحباط»

وعود ومخاطر أدوات المساعدة الرقمية المستقبلية

وكلاء الذكاء الاصطناعي... «ومضات من التألق والإحباط»
TT

وكلاء الذكاء الاصطناعي... «ومضات من التألق والإحباط»

وكلاء الذكاء الاصطناعي... «ومضات من التألق والإحباط»

تركتُ وكيل الذكاء الاصطناعي يدير شؤوني اليومية. لنتخيل أنك تجلس لتناول وجبة لم تطلبها مباشرة، لتكتشف أن اختيارها ودفع ثمنها وتسليمها إلى طاولتك، تمت بواسطة وكيل ذكاء اصطناعي يعمل نيابة عنك.

فجر الذكاء الاصطناعي الوكيل

لم يعد هذا السيناريو خيالاً علمياً. إذ يضج قطاع التكنولوجيا الآن بـ«وكلاء الذكاء الاصطناعي»: مساعدون رقميون يتولون مهام متنوعة مثل طلب الطعام وإدارة البريد الإلكتروني أو تجميع الرموز البرمجية. ويَعِدُ هؤلاء الوكلاء بتغيير الحياة اليومية من خلال أتمتة القرارات الروتينية واللوجستيات، ما يقدم لمحة عن مستقبل يُدار فيه الكثير من عالمنا الرقمي والمادي من خلال أنظمة ذكية.

وأنا أتحدث هنا عن تجربتي مع اثنين من وكلاء الذكاء الاصطناعي الرائدين: «أوبريتور - Operator»، الذي طورته شركة «أوبن إيه آي» التي طورت «تشات جي بي تي»، و«مانوس - Manus»، من تطوير شركة «باترفلاي إيفكت - Butterfly Effect»، وهي شركة صينية ناشئة.

ومن خلال التجربة والخطأ، وقدر لا بأس به من التخمينات، فاني سأشرع في الإجابة على سؤالين أساسيين: هل نحن مستعدون للثقة في وكلاء الذكاء الاصطناعي الذين يتحكمون بشكل كبير في حياتنا، وهل تفي هذه الأنظمة بوعودها؟

من «التوليدي» إلى «الوكيل»

الذكاء الاصطناعي التوليدي. إن أساس هذه القفزة التكنولوجية هو الذكاء الاصطناعي التوليدي، المدعوم بالنماذج اللغوية الكبيرة (LLMs) المدربة على مجموعات بيانات ضخمة جُمعت من الإنترنت. ومنذ عام 2023، احتل الذكاء الاصطناعي التوليدي عناوين الأخبار لقدرته على إنشاء محتوى أصلي - سواء كان نصاً أو صوراً أو رموزاً كومبيوترية - بناء على مطالبات اللغة الطبيعية. ومع ذلك، على الرغم من الطابع التحويلي لهذا الأمر، فقد اقتصر دور الذكاء الاصطناعي بصورة كبيرة على دور «مساعد الطيار»: إذ إنه يقترح المحتوى، ويقدم التوصيات، أو يجيب على الأسئلة.

> الذكاء الاصطناعي الوكيل، من جانبه مصمم لتجاوز الاقتراحات السلبية إلى مستوى اتخاذ القرارات وتنفيذها بصورة فعالة. ويشرح بيتر ستون، مؤسس «مجموعة أبحاث وكلاء التعلم» في جامعة تكساس في أوستن، أن الذكاء الاصطناعي الوكيل «يستشعر البيئة، ويقرر ما يجب فعله، ويتخذ الإجراء». وبدلاً من مجرد التوصية بطبق ما أو تحديد موقع مطعم، يمكن للذكاء الاصطناعي الوكيل الآن تصفح قوائم الطعام، وتقديم الطلبات، والدفع باستخدام بطاقة الائتمان خاصتك، وتنسيق عملية التسليم - كل ذلك بشكل مستقل.

كيف يعمل الذكاء الاصطناعي الوكيل؟

بينما يدعم الذكاء الاصطناعي التوليدي أساس هذه الأنظمة، يضيف الذكاء الاصطناعي الوكيل طبقات من التفاعل في العالم الحقيقي. عندما يُمنح هدفاً، مثل «طلب العشاء» أو «إنشاء تطبيق»، يضع الذكاء الاصطناعي خطة متعددة الخطوات، ويقرر أفضل طريقة لاستخدام الأدوات الرقمية مثل متصفحات الويب أو التطبيقات. في كل خطوة، يُعيد تقييم تقدمه، ويُعدل إجراءاته حتى يُقرر أن الهدف قد تحقق أو أنه غير قابل للتحقيق. حتى أنه يستخدم حلقة تغذية مرتدة - تسمى التعلم المعزز من التغذية البشرية الراجعة - للتعلم من النجاحات والأخطاء.

يلاحظ ستون أنه على الرغم من أن برامج الذكاء الاصطناعي مثل «ديب بلو - Deep Blue» من تطوير شركة «آي بي إم - IBM» قد تغلبت على بطل العالم في الشطرنج غاري كاسباروف في عام 1997، غير أن تلك الأنظمة لم تكن «وكيلة» حقاً. إذ لم يكن برنامج «ديب بلو» قادراً على التفاعل مع العالم الحقيقي في غياب المساعدة البشرية. وعلى النقيض من ذلك، يمكن للذكاء الاصطناعي الوكيل اليوم أن يعمل في الفضاءات الرقمية مع تدخل بشري طفيف أو لعله لا يُذكر بالمرة.

اختبار الوكلاء

للوقوف على كيفية عمل الذكاء الاصطناعي الوكيل في الواقع العملي، طلبت الحصول على حق الوصول التجريبي إلى نظامين حقيقيين: «أوبريتور» و«مانوس». ووافقت الشركتان على منحي حق الوصول. ويتمثل هدفي في استخدام هذين النظامين الوكيلين كمساعدين شخصيين، مما يُخفف عن المستخدم أكبر قدر ممكن من العمل الروتيني المكثف.

> نتائج متباينة وإحباطات للمستخدمين. كشفت التجارب عن مزيج من النجاحات المبهرة والإحباطات المؤثرة. إذ عند تحميل عرض تقديمي إلى «مانوس»، وطلب إعادة تنسيقه، أكمل الوكيل المهمة ولكن بطريقة تتطلب تصحيحاً يدوياً كبيراً - ما يجعل التعديلات المستقبلية مرهقة. كان أداء «مانوس» أفضل عند إنشاء وتجهيز تطبيق لمتجر التطبيقات، حيث استفاد من مختلف الأدوات الرقمية وواجهات سطر الأوامر بدرجة معتبرة من الكفاءة.

في الوقت نفسه، يواجه «أوبريتور» صعوبات في تنفيذ المهام الإدارية. فعند الطلب منه إدارة الفواتير الإلكترونية لي، يرتكب أخطاء أساسية - مثل إدخال نص في حقول رقمية ونسخ المعلومات بشكل غير صحيح، مما يؤدي إلى اقتراح إصدار فاتورة للناشر بمبلغ 8001 جنيه إسترليني مقابل مقال واحد. هذه الأخطاء أكثر من مجرد إزعاج؛ إنها تكشف عن الطبيعة الناشئة والقابلة للخطأ لوكلاء الذكاء الاصطناعي الحاليين. ومع ذلك، أصررت على المضي قدماً، حتى أنني كلفت «أوبريتور» بمهمة الترويج لهذا المقال على وجه التحديد.

يقوم الذكاء الاصطناعي بصياغة وإرسال رسائل البريد الإلكتروني إلى الخبراء الذين تُجرى معهم المقابلات، ولكن نبرة الرسائل واختيار الكلمات فيها غير ملائم - فهي رسمية للغاية، وأحياناً ساذجة، وتفتقر إلى المعلومات الأساسية. كما أن «أوبريتور» لا يكشف أن وكيل الذكاء الاصطناعي - وليس المؤلف - هو الذي كتب المراسلات، ما قد يؤدي إلى حدوث ارتباك أو عدم ثقة.

> نجاحات جزئية وردود فعل اجتماعية. من المثير للاهتمام أن رسائل البريد الإلكتروني التي أرسلها «أوبريتور» لم تكن فاشلة تماماً. فقد رد بعض المستلمين، مثل خبير الذكاء الاصطناعي بيتر ستون، بشكل إيجابي، وتقبلوا غرابة الذكاء الاصطناعي. وأشاد آخر بـ«dogfooding: الاختبار التجريبي» للمؤلف - وهو مصطلح صناعي يستخدم للإشارة إلى استخدام المرء لتقنيته التجريبية الخاصة. ومع ذلك، رفض خبير آخر المشاركة، مشيراً إلى القيود المؤسسية.

> الحقيقة وراء هذا التهويل. تروج شركات التكنولوجيا للذكاء الاصطناعي الوكيل باعتباره المساعد الذي لا يخطئ في المستقبل، لكن التجارب الحالية تشير إلى عكس ذلك. وبحسب كاريسا فيليز، اختصاصية الأخلاقيات في جامعة أكسفورد، يجب دراسة الحوافز الكامنة وراء هذه الأنظمة بمنتهى الدقة.

يجري إنتاج وكلاء الذكاء الاصطناعي من قبل شركات لها مصالح تجارية خاصة بها. وإذا تمت برمجة وكيل ما أو استخدامه في شراكة لتفضيل خدمات معينة (على سبيل المثال، إعطاء الأولوية لشركات طيران أو مصادر أخبار معينة)، فقد لا تتوافق توصياته دائماً مع مصالح المستخدم. وهنا فإني أستشهد بشراكات «أوبن إيه آي»، مشيراً إلى أن «أوبريتور» قد يفضل شركات أو مصادر بيانات بعينها عند أداء المهام.

> مخاطر الأمان والخصوصية. هناك مصدر قلق أكثر أهمية وهو الخصوصية. يتطلب الذكاء الاصطناعي الوكيل عادة وصولاً واسعاً إلى المعلومات الحساسة - الحسابات المالية، والاتصالات الاجتماعية، وكلمات المرور، وغير ذلك. وتحذر كاريسا فيليز من أن استخدام مثل هذه الوكلاء يستلزم كسر الحواجز الرقمية التي تحمي بياناتنا، ما يزيد من خطر الانتهاكات أو سوء الاستخدام.

ويزداد قلقي عندما يطلب «أوبريتور» بيانات حساسة، مثل معلومات بطاقة الائتمان، عبر واجهات غير مألوفة. الثقة المطلوبة من المستخدمين كبيرة، وبالتالي فإن احتمال سوء الاستخدام أو الخطأ مرتفع بالتبعية* مجلة «نيو ساينتست»،

خدمات «تريبيون ميديا»يدعم هذا القلق بحث أجراه تيانشي لي من جامعة نورث إيسترن، الذي اختبر وكلاء الذكاء الاصطناعي الرائدين، ووجد أنهم عرضة لهجمات بسيطة. على سبيل المثال، إذا تم إخفاء تعليمات ضارة في مستند، فقد يتبعها الوكيل من دون وعي، ويدخل بيانات الاعتماد أو ينقر على روابط خطيرة من دون علم المستخدم. يشير تيانشي لي إلى عدم وجود آليات فعالة للمستخدمين للتدخل أو تصحيح هذه السلوكيات.

> الحواجز الوقائية والإخطارات. للإقلال من المخاطر، صُمم بعض وكلاء الذكاء الاصطناعي بحيث يُخطرون المستخدمين باستمرار قبل اتخاذ أي إجراء. ورغم أن هذا يوفر طبقة إضافية من الأمان، فإنه قد يصبح عبئاً ثقيلاً، حيث يتطلب قدراً كبيراً من الإشراف بحيث تفقد أي مكاسب في الراحة. ونتيجة لذلك، بدلاً من أن يعمل الذكاء الاصطناعي كمساعد مستقل، قد يبدو وكأنه متدرب غير منضبط يتطلب إشرافاً مستمراً وتصحيحات وإدارة دقيقة.

> تكنولوجيا غير ناضجة بعد. تُقر كل من «أوبن إيه آي» و«باترفلاي إيفكت» بأن وكلائهما لا يزالان قيد التطوير. يعترف كولين جارفيس، قائد فريق الهندسة في «أوبن إيه آي»، بأن الذكاء الاصطناعي الوكيل الحالي يحتاج إلى «الكثير من العمل للحصول على تلك الموثوقية». في حين تصف شركة «باترفلاي إيفكت» الوكيل «مانوس» بأنه في مرحلة «تجريبية»، مع استمرار الجهود لتحسين أدائه.

تردد صدى هذه الاعترافات في سابقة تاريخية. ففي عام 2018، وعد الوكيل «دوبلكس - Duplex» من شركة «غوغل» بإحداث ثورة في الحجوزات الهاتفية الآلية، لكنه أخفق في تحقيق انتشاره على نطاق واسع. ولا تزال التحديات المتعلقة بالموثوقية وثقة المستخدم والتكامل السلس تشكل عقبات كبيرة أمامه.

الطريق إلى الأمام

> المبالغة الترويجية مقابل الواقع. على الرغم من هذه العيوب، يستمر الضجيج حول الذكاء الاصطناعي الوكيل في الازدياد. وارتفعت الإشارات إلى الذكاء الاصطناعي الوكيل في تقارير الأرباح المالية بصورة كبيرة - حيث ارتفعت 51 ضعفاً مع نهاية العام الماضي مقارنة بأوائل عام 2022. وتباشر شركات مثل «سيلز فورس» بالفعل نشر وكلاء الذكاء الاصطناعي للتفاعل مع العملاء، ليس فقط كأدوات دعم، وإنما كممثلي مبيعات في الخطوط الأمامية.

ومع ذلك، يُحذر الخبراء من المبالغة في استنتاجات الأداء المثير للإعجاب لأنظمة الذكاء الاصطناعي الحالية مثل «تشات جي بي تي»، إذ يُحذر بيتر ستون من «المبالغة في الترويج»، مشيراً إلى أنه على الرغم من أن الذكاء الاصطناعي الوكيل يمكن أن يكون رائعاً في سياقات محددة ومحدودة، فإنه بعيد كل البعد عن أن يكون جاهزاً ليحل محل العمال البشريين، أو يدير جميع جوانب الحياة بصفة مستقلة. سوف يتطلب بلوغ هذه الطموحات تحقيق اختراقات تقنية كبيرة للغاية.

> الوعود والمخاطر. تقدم تجربتي هذه مع وكلاء الذكاء الاصطناعي صورة مصغرة للتحديات التي يواجهها المجتمع مع انتشار هذه الأدوات. يمكن للذكاء الاصطناعي الوكيل، في بعض الأحيان، أن يقدم لمحات من البراعة - من خلال تنفيذ المهام بسرعة التي قد تكون مملة أو تستغرق وقتاً طويلاً. غير أن الإحباط وعدم اليقين والمخاطر غالبا ما تطغى على هذه الفوائد.

في النهاية، سوف تعتمد رغبتنا في منح وكلاء الذكاء الاصطناعي مسؤوليات أكبر على مدى نضج التكنولوجيا، وشفافية الشركات التي تقف وراءها، وتطوير آليات فعالة لضمان تحكم المستخدم وأمنه. حتى ذلك الحين، قد يكون من الأفضل التعامل مع حتى أبسط الأمور مثل طلب وجبة دجاج بشيء من الحذر الصحي، وربما إعادة التحقق يدوياً للتأكد من عدم نسيان إضافة مقرمشات الروبيان!


مقالات ذات صلة

بحث يحذر: محادثاتك مع الذكاء الاصطناعي قد لا تكون بالخصوصية التي تعتقدها

تكنولوجيا الدراسة تقول إن بعض منصات الذكاء الاصطناعي ترسل بيانات محادثات إلى أدوات تتبع خارجية (د.ب.أ)

بحث يحذر: محادثاتك مع الذكاء الاصطناعي قد لا تكون بالخصوصية التي تعتقدها

دراسة جديدة تحذر من أن محادثات منصات الذكاء الاصطناعي قد ترتبط بأدوات تتبع خارجية، ما يثير مخاوف أوسع على الخصوصية.

نسيم رمضان (لندن)
يوميات الشرق  برايان تشيسكي الرئيس التنفيذي لشركة «إير بي آن بي» (رويترز)

بدل القلق من الذكاء الاصطناعي... ما المهارات التي ينصح بها رئيس «إير بي آن بي»؟

في وقت تشهد فيه سوق العمل تحولات متسارعة بفعل التقدم الكبير في تقنيات الذكاء الاصطناعي، تتزايد مخاوف الطلاب والخريجين الجدد بشأن مستقبلهم المهني.

«الشرق الأوسط» (كاليفورنيا (الولايات المتحدة))
خاص ترى «آي بي إم» أن المرحلة التالية من الذكاء الاصطناعي المؤسسي لن تُحسم بعدد النماذج بل بقدرة الشركات على تشغيله فعلياً داخل الأعمال

خاص من التجارب إلى التشغيل... ماذا تقول «IBM» عن المرحلة التالية للذكاء الاصطناعي المؤسسي؟

ترى «آي بي إم» أن نجاح الذكاء الاصطناعي المؤسسي لم يعد في التجارب بل في التشغيل المنضبط والحوكمة والأمن والأثر القابل للقياس.

نسيم رمضان (بوسطن)
تكنولوجيا الاعتماد المتزايد على الذكاء الاصطناعي قد يقلل من الطلب على بعض الوظائف المبتدئة (رويترز)

سوق العمل يفرض الذكاء الاصطناعي... كيف تتعلمه وتواكب التغيير؟

بات أصحاب العمل في مختلف القطاعات يبحثون بشكل متزايد عن مرشحين يمتلكون فهماً عملياً لتقنيات الذكاء الاصطناعي وقدرة على استخدامها.

«الشرق الأوسط» (واشنطن)
الاقتصاد مهندس في إحدى المنشآت لـ«أرامكو» (موقع الشركة الإلكتروني)

تعاون بين «أرامكو» و«سلوشنز» بـ372.5 مليون دولار لتطوير الحواسيب العملاقة

أعلنت «أرامكو السعودية»، عن تعاون مع شركة «سلوشنز» التابعة لـ«إس تي سي» لتطوير جيل جديد لحاسوب عملاق عالي الأداء بقيمة 1.4 مليار ريال (372.5 مليون دولار).

«الشرق الأوسط» (الظهران)

ميزة جديدة في «شات جي بي تي» تُخطر المقربين عند الأزمات النفسية

عبارة «مرحباً بكم في أوبن إيه آي» تظهر على الصفحة الرئيسية لـ«شات جي بي تي» (د.ب.أ)
عبارة «مرحباً بكم في أوبن إيه آي» تظهر على الصفحة الرئيسية لـ«شات جي بي تي» (د.ب.أ)
TT

ميزة جديدة في «شات جي بي تي» تُخطر المقربين عند الأزمات النفسية

عبارة «مرحباً بكم في أوبن إيه آي» تظهر على الصفحة الرئيسية لـ«شات جي بي تي» (د.ب.أ)
عبارة «مرحباً بكم في أوبن إيه آي» تظهر على الصفحة الرئيسية لـ«شات جي بي تي» (د.ب.أ)

ضمن خطوة تعكس تنامي الاهتمام بسلامة المستخدمين في الفضاء الرقمي، أعلنت «أوبن إيه آي» عن إطلاق ميزة أمان جديدة ضمن تطبيق «شات جي بي تي»، تهدف إلى التدخل المبكر في حالات الطوارئ المرتبطة بالصحة النفسية. وتأتي هذه المبادرة استجابةً لمخاوف متزايدة بشأن تأثير تقنيات الذكاء الاصطناعي على المستخدمين، لا سيما في الظروف النفسية الحساسة؛ إذ تسعى إلى ربط الدعم الرقمي بالدعم الواقعي من خلال إشعار أشخاص موثوقين عند الحاجة.

ووفقاً لما أوردته صحيفة «إندبندنت»، تتيح ميزة «جهة الاتصال الموثوقة» للمستخدمين، اختيار شخص من الأصدقاء أو أفراد العائلة، ليتم إخطاره في حال أظهرت محادثاتهم مع النظام إشارات إلى إيذاء النفس، أو التفكير في الانتحار.

ويأتي هذا التحديث في سياق تزايد القلق حيال أدوات الذكاء الاصطناعي؛ مثل «شات جي بي تي»، التي يرى بعض المنتقدين أنها قد تسهم في تفاقم حالات الهوس أو الذهان، أو حتى المخاطر المرتبطة بالحياة.

وكشفت «أوبن إيه آي» العام الماضي، أن نحو 0.07 في المائة من المستخدمين المنتظمين لـ«شات جي بي تي»، أظهروا مؤشرات على «حالات طوارئ نفسية مرتبطة بالذهان أو الهوس». ومع وجود ما يقارب 900 مليون مستخدم نشط أسبوعياً، فإن هذه النسبة تعادل أكثر من نصف مليون شخص.

كما أفاد 0.15 في المائة من المستخدمين - أي ما يقارب 1.3 مليون شخص - بأنهم عبّروا عن مخاطر تتعلق بإيذاء النفس أو التفكير في الانتحار، وهو ما يعكس حجم التحدي الذي تحاول هذه الميزة الجديدة التعامل معه.

وتعتمد الخاصية المستحدثة على أنظمة مراقبة آلية داخل «شات جي بي تي»، ترصد الأنماط والسلوكيات التي قد تشير إلى وجود خطر حقيقي يهدد سلامة المستخدم. وعند اكتشاف مثل هذه المؤشرات، يتولى فريق متخصص مراجعة سجل المحادثات لتقييم الحالة، وتحديد ما إذا كان ينبغي إخطار «جهة الاتصال الموثوقة» للتدخل، أم لا.

وفي هذا السياق، قال آرثر إيفانز، الرئيس التنفيذي للجمعية الأميركية لعلم النفس: «يُظهر علم النفس باستمرار أن التواصل الاجتماعي يُعدّ عاملاً وقائياً قوياً، خصوصاً خلال فترات الضيق النفسي». وأضاف: «إن مساعدة الأفراد في تحديد شخص موثوق به مسبقاً، مع الحفاظ على استقلاليتهم وحقهم في الاختيار، يمكن أن يُسهّل وصولهم إلى الدعم في العالم الحقيقي عندما يكونون في أمسّ الحاجة إليه».

وتُبنى ميزة «جهة الاتصال الموثوقة» على منظومة الأمان الحالية في «شات جي بي تي»، التي تشمل أيضاً تقديم معلومات حول خطوط المساعدة المحلية عندما تشير التفاعلات إلى أن المستخدم يمرّ بأزمة نفسية


بحث يحذر: محادثاتك مع الذكاء الاصطناعي قد لا تكون بالخصوصية التي تعتقدها

الدراسة تقول إن بعض منصات الذكاء الاصطناعي ترسل بيانات محادثات إلى أدوات تتبع خارجية (د.ب.أ)
الدراسة تقول إن بعض منصات الذكاء الاصطناعي ترسل بيانات محادثات إلى أدوات تتبع خارجية (د.ب.أ)
TT

بحث يحذر: محادثاتك مع الذكاء الاصطناعي قد لا تكون بالخصوصية التي تعتقدها

الدراسة تقول إن بعض منصات الذكاء الاصطناعي ترسل بيانات محادثات إلى أدوات تتبع خارجية (د.ب.أ)
الدراسة تقول إن بعض منصات الذكاء الاصطناعي ترسل بيانات محادثات إلى أدوات تتبع خارجية (د.ب.أ)

كشفت دراسة بحثية منشورة على موقع «LeakyLM» عن مخاطر خصوصية قالت إنها تطول عدداً من أبرز منصات الذكاء الاصطناعي التوليدي، من بينها «شات جي بي تي» و«كلود» و«غروك» و«بيربلكسيتي»، عبر ما وصفه الباحثون بتسرب بيانات المحادثات والبيانات التعريفية إلى خدمات تتبع وإعلانات تابعة لجهات خارجية. ووفقاً للبحث، فإن المشكلة لا تتعلق فقط بوجود أدوات تحليل ومتابعة داخل هذه الخدمات، بل أيضاً بالطريقة التي يمكن أن ترتبط بها روابط المحادثات وبيانات المستخدمين بمعرفات إعلانية وملفات تعريف على الإنترنت.

ويقول القائمون على الدراسة إنهم اختبروا أربع منصات للذكاء الاصطناعي، ووجدوا أكثر من 13 أداة تتبع خارجية، مع الإشارة إلى أن جميع المنصات الأربع التي شملها الاختبار كانت متأثرة بدرجات مختلفة. كما يذكر الموقع أن هذه الممارسات لا تُشرح للمستخدمين بشكل مباشر وواضح، رغم أن سياسات الخصوصية الخاصة بالشركات تؤكد جمع المحادثات وبيانات الاستخدام والاعتماد على ملفات تعريف الارتباط الخاصة بجهات خارجية لأغراض تتعلق بالتحليلات والإعلانات.

الباحثون رصدوا أكثر من 13 أداة تتبع داخل أربع منصات شهيرة للذكاء الاصطناعي (أ.ف.ب)

روابط تكشف المحادثات

تتركز إحدى أكثر النقاط حساسية في الدراسة حول روابط المحادثات نفسها. فالباحثون يعدون أن روابط بعض المحادثات تُرسل إلى خدمات تتبع مثل «Meta Pixel» و«Google Analytics»، في حين قد تكون هذه الروابط، في بعض الحالات، كافية للوصول إلى محتوى المحادثة أو إلى معلومات تكشف موضوعها. ويضيف التقرير أن العناوين أو عناوين الصفحات الخاصة بالمحادثات يمكن أن تحمل بدورها مؤشرات حساسة حول اهتمامات المستخدم أو مشكلاته أو طبيعة الموضوع الذي يناقشه مع المساعد الذكي.

ووجد الباحثون أن «شات جي بي تي» كان يرسل رابط المحادثة الكامل وعنوان الصفحة إلى «Google Analytics» عند تحميل الصفحة للمستخدمين المسجلين ضمن الفئة المجانية، بصرف النظر عن قبول أو رفض ملفات تعريف الارتباط، وفقاً لما أورده التقرير. كما رصدوا في «Grok» تسرب رابط المحادثة وعنوانها إلى «Google Analytics» و«DoubleClick»، وفي بعض الحالات إلى «TikTok» و«Meta»، مع ملاحظة أن بعض المحادثات أو الصور المرتبطة بها قد تكون متاحة علناً في سياقات المشاركة.

أما في حالة «Claude»، فتشير الدراسة إلى وجود تسربات من نوع مختلف، منها إرسال عناوين البريد الإلكتروني وعنوان المحادثة إلى «Intercom»، إضافة إلى إشارات لربط نشاط المستخدم عبر أدوات متعددة على الجانب الخادمي عند قبول ملفات تعريف الارتباط غير الأساسية. وفي «Perplexity»، تقول الدراسة إن الشركة أوقفت «Meta Pixel» في أبريل (نيسان) 2026، لكن الباحثين رصدوا استمرار إرسال بيانات أخرى مثل عنوان البريد الإلكتروني الخام أو عنوان المحادثة وبيانات وصفية إلى أدوات مثل «Datadog» و«Singular».

التقرير يحذر من إمكانية ربط المحادثات بهوية المستخدم وملفه الإعلاني (رويترز)

ربط المحادثة بالهوية

يذهب التقرير إلى أن الخطر لا يتوقف عند نقل رابط أو عنوان صفحة فقط، بل يمتد إلى إمكانية الربط بين المحادثة وهوية المستخدم. ويشرح الباحثون أن بعض خدمات التتبع تتلقى مع روابط المحادثات ملفات تعريف ارتباط ومعرفات أخرى يمكن أن تساعد، وفق سياسات تلك الشركات نفسها، في ربط النشاط الإلكتروني بملفات تعريف سلوكية أو إعلانية. وفي بعض الحالات، يقول التقرير إن عمليات التتبع تتضمن أيضاً تجزئات للبريد الإلكتروني أو آليات مزامنة ملفات تعريف، بما قد يسهّل إعادة التعرف على المستخدم أو إزالة هويته المجهولة.

وتكتسب هذه النتائج حساسية أكبر، بحسب الدراسة؛ لأن مستخدمي المساعدات الذكية يشاركون معها كثيراً من المعلومات الشخصية والحساسة باعتبارها مساعدات موثوقة. ويشير الموقع إلى أبحاث سابقة أظهرت أن المستخدمين يكشفون للأنظمة التوليدية بيانات شخصية في سياقات غير متوقعة، تشمل مسائل صحية أو نفسية أو شخصية. ويرى الباحثون أن هذه المخاطر لا تقتصر على الأفراد، بل تمتد أيضاً إلى الشركات والقطاع العام؛ إذ يمكن أن تتسرب ملكية فكرية أو معلومات مؤسسية حساسة.

بعض روابط المحادثات قد تكشف موضوع النقاش أو تتيح الوصول إلى محتواه (الشركة)

ضبابية في الخصوصية

ينتقد البحث ما يصفه بالضبابية في أدوات الخصوصية. ويفيد بأن المنصات المدروسة توفر إعدادات للتحكم في الخصوصية ورؤية المحادثات، لكنها قد توحي بحماية أقوى مما يتم تطبيقه فعلياً في بعض السيناريوهات. ويضيف أن نماذج الموافقة على ملفات تعريف الارتباط نفسها تعاني من نقص في الشفافية؛ لأن الباحثين رصدوا حالات يحدث فيها التتبع رغم خيارات المستخدم، أو بطريقة يصعب رصدها عبر المتصفح بسبب استخدام قنوات تتبع خادمية.

ولا يزعم التقرير أنه يملك دليلاً على أن هذه الجهات الخارجية «تقرأ» المحادثات فعلاً، لكنه يقول إن إمكانية الوصول أو الربط موجودة من الناحية التقنية، وهذا في حد ذاته يخلق خطراً هيكلياً على الخصوصية. ومن هنا، يخلص الباحثون إلى أن ما يحدث يعكس انتقال نموذج الويب القائم على التتبع والإعلانات إلى بيئة المساعدات التوليدية أيضاً، في وقت تتوسع فيه هذه الخدمات بسرعة، وتصبح جزءاً أساسياً من حياة المستخدمين اليومية والعملية.

وتسلط الدراسة بذلك الضوء على جانب أقل بروزاً في سباق الذكاء الاصطناعي متعلق بأنه ليس فقط ماذا تستطيع هذه المنصات فعله، بل أيضاً بكيفية بنية اقتصاداتها الرقمية، وكيف تُدار محادثات المستخدمين داخلها، وإلى أي مدى تبقى هذه المحادثات خاصة بالفعل.


من التجارب إلى التشغيل... ماذا تقول «IBM» عن المرحلة التالية للذكاء الاصطناعي المؤسسي؟

ترى «آي بي إم» أن المرحلة التالية من الذكاء الاصطناعي المؤسسي لن تُحسم بعدد النماذج بل بقدرة الشركات على تشغيله فعلياً داخل الأعمال
ترى «آي بي إم» أن المرحلة التالية من الذكاء الاصطناعي المؤسسي لن تُحسم بعدد النماذج بل بقدرة الشركات على تشغيله فعلياً داخل الأعمال
TT

من التجارب إلى التشغيل... ماذا تقول «IBM» عن المرحلة التالية للذكاء الاصطناعي المؤسسي؟

ترى «آي بي إم» أن المرحلة التالية من الذكاء الاصطناعي المؤسسي لن تُحسم بعدد النماذج بل بقدرة الشركات على تشغيله فعلياً داخل الأعمال
ترى «آي بي إم» أن المرحلة التالية من الذكاء الاصطناعي المؤسسي لن تُحسم بعدد النماذج بل بقدرة الشركات على تشغيله فعلياً داخل الأعمال

في مؤتمر «IBM Think 2026» ببوسطن الذي يختتم فعالياته، الخميس، بدا جلياً أن المرحلة التالية من الذكاء الاصطناعي المؤسسي لن تُحسم بمن يملك الوصول إلى أكبر عدد من النماذج، بل بمَن يستطيع تشغيل الذكاء الاصطناعي فعلياً داخل الأعمال.

وفي حديثين منفصلين مع «الشرق الأوسط»، قدّم محمد علي، نائب الرئيس الأول ورئيس «IBM Consulting»، ومارك هيوز، الشريك الإداري العالمي لخدمات الأمن السيبراني في «IBM Consulting»، صورةً عن انتقال الشركات من مرحلة التجارب إلى مرحلة أصعب. يصفها الرجلان بمرحلة إعادة تصميم سير العمل، وتنظيم البيانات والسياق، وإدارة القوى العاملة الرقمية، وبناء الحوكمة والأمن اللازمين لإبقاء الذكاء الاصطناعي تحت السيطرة حين يبدأ التأثير في العمليات الفعلية.

محمد علي نائب الرئيس الأول ورئيس «IBM Consulting»

ما بعد التجارب

يقوم طرح محمد علي على فكرة أن كثيراً من المؤسسات لم تعد تتعثر بسبب نقص الأدوات، بل بسبب عدم تغيير طريقة تنظيم العمل داخلها. وقال: «ما أراه تحدياً لدى كثير من العملاء هو كيف يعيدون هندسة عملياتهم فعلاً من أجل تحقيق قيمة أفضل لأعمالهم».

وأوضح أن المرحلة الأولى من الذكاء الاصطناعي كانت تدور حول «أمور محددة جداً لوكلاء يؤدون مهام بسيطة فقط»، في حين تتطلب المرحلة التالية أن «تجمع» المؤسسات هؤلاء الوكلاء «بطريقة آمنة ومحكومة»، بما يُتيح تحويلهم إلى قيمة أعمال حقيقية داخل سير العمل الجديد.

وفي رأيه، هذا يُفسر سبب عجز كثير من الجهود المؤسسية في الذكاء الاصطناعي عن تجاوز مرحلة التجارب. وعدّ محمد علي أن واحدة من أكثر المشكلات شيوعاً هي أن الطموحات الأولى تكون واسعة أكثر من اللازم. وأضاف: «غالباً ما يُوعَد الذكاء الاصطناعي بالقيام بأشياء كثيرة، في حين يكون الوعد، من حيث النطاق الأولي، واسعاً أكثر مما ينبغي».

وفي شرحه، تبدأ المؤسسات الناجحة بحالات استخدام أضيق وأكثر ارتباطاً بالقيمة، ثم تربطها لاحقاً داخل سير عمل أوسع. وأشار أيضاً إلى أن مشكلة متكررة أخرى تتمثل في أن الشركات لا تُفكر بشكل منهجي في الحوكمة، وهي تنقل الذكاء الاصطناعي إلى الإنتاج. أما المشكلة الثالثة فهي ظهور ما سمّاه «الذكاء الاصطناعي الظلّي»، حين تتبنى بعض أجزاء المؤسسة أدوات أو وكلاء على نحو منفصل من دون رؤية كاملة لكيفية إعادة تصميم العملية المؤسسية الأوسع. وفي تلك الحالات، كما قال: «يكون هناك غالباً تدمير للقيمة» بدلاً من خلقها.

نموذج تشغيل جديد

من هنا، تنطلق الرسالة الأوسع التي تطرحها «آي بي إم» هذا العام تحت عنوان ما تسميه «نموذج تشغيل الذكاء الاصطناعي». الفكرة ليست ببساطة أن المؤسسات تحتاج إلى مزيد من الذكاء الاصطناعي، بل أن تتوقف عن التعامل معه على أنه مجموعة تجارب منفصلة، وأن تبدأ بدمجه في كيفية عمل المؤسسة نفسها.

وقال علي إن نضج الذكاء الاصطناعي جعل «حالات الاستخدام الفردية» تُربط الآن «بطريقة عاملية» تسمح للمؤسسات بأن «تُعيد هندسة طريقة إنجاز العمل على مستوى تأسيسي». وبرأيه، هنا يكمن الخط الفاصل الحقيقي بين الشركات التي لا تزال تختبر الأدوات وتلك التي بدأت تحوّل الذكاء الاصطناعي إلى قدرة تشغيلية.

وضرب علي مثالاً داخلياً من «آي بي إم» نفسها، مشيراً إلى أن الشركة بدأت قبل 3 سنوات في نشر الذكاء الاصطناعي على نطاق واسع داخل أعمالها، عبر تفكيك المؤسسة إلى 490 سير عمل، واختيار أهم 70 منها، وبناء 220 عاملاً رقمياً عبر تلك المسارات. وكان الهدف إعادة تصميم مجالات مثل الموارد البشرية والمالية وسلسلة الإمداد لتصبح «بشرية + رقمية». والنتيجة، وفقاً له، أن «آي بي إم» خفّضت إنفاقاً كان يقارب 25 مليار دولار في 2022 لمستوى «أقرب إلى 20 مليار دولار» بحلول 2025، بما يُعادل «نحو 4.5 مليار دولار» من الوفورات. وأضاف: «هذا لا يحدث إلا عندما تجعل الذكاء الاصطناعي جزءاً من نموذج التشغيل».

يقدم «طيران الرياض» مثالاً على بناء الذكاء الاصطناعي داخل نموذج التشغيل منذ اليوم الأول لا بوصفه طبقة تُضاف لاحقاً (الشركة)

«طيران الرياض» نموذجاً

وأشار محمد علي أيضاً إلى «طيران الرياض»، الذي وصفه بأنه «شركة طيران أولاً بالذكاء الاصطناعي تقريباً»، بوصفه حالة يمكن فيها بناء الذكاء الاصطناعي داخل نموذج التشغيل منذ اليوم الأول بدلاً من إضافته لاحقاً. وأهمية هذا المثال، في روايته، لا تعود فقط إلى أن «طيران الرياض» شركة طيران جديدة، بل إلى أنها تُبنى من دون ثقل الأنظمة القديمة التي تقيّد كثيراً من الشركات القائمة.

وقال إن عمل «آي بي إم» هناك بدأ ليس من الاستخدامات البرّاقة الموجهة للعميل، بل من العمليات المالية والداخلية، وتساءل: «كيف تُدير شركة طيران بوظائف مؤسسية أكثر كفاءة بكثير؟». وكانت الفكرة هي إعادة تصميم هذه المسارات أولاً، حتى يمكن لاحقاً توجيه مزيد من الموارد نحو الخدمة وتجربة العميل. ومن هناك، كما قال، يمكن للناقلة أن تبدأ استخدام وكلاء الذكاء الاصطناعي عبر رحلة العميل كلها، من شراء التذكرة إلى الوصول إلى المطار، ثم الصعود إلى الطائرة.

وقارن ذلك بأنظمة الطيران التقليدية التي وصفها بأنها قائمة على هياكل تعود إلى عقود مضت، معتبراً أن لدى «طيران الرياض» فرصة للبناء على نموذج رقمي مختلف منذ البداية. وفي لحظة لخص رؤيته للمشروع بهذه العبارة: «إنه يبني تجربة تجارة إلكترونية لديها 200 طائرة».

التغيير قبل التقنية

لكن حتى في هذه الأمثلة، كرر علي مراراً أن المسألة ليست ما إذا كانت الشركة تنشر الذكاء الاصطناعي أم لا، بل ما إذا كانت تُغيّر طريقة عملها. وعدّ أن أصعب حديث مع العملاء الآن لم يعد غالباً يتعلق فقط بما يستطيع الذكاء الاصطناعي فعله، ولا حتى بمن يتحمل المسؤولية، بل بشيء أكثر جوهرية: «كيف أغيّر نموذج التشغيل لديَّ؟ وكيف يمكنكم أن تدعموني في إدارة هذا التغيير؟». ونقل عن أحد العملاء تلخيصه المسألة بالقول إن «30 في المائة منها تقنية، و70 في المائة منها تتعلق بتحقيق التبني، وتغيير سير العمل، وتغيير كيفية إنجاز الناس للعمل».

وهذا هو أيضاً السبب الذي يجعل البشر، لا التقنية وحدها، في قلب القصة. فقد قال علي إن الذكاء الاصطناعي سيُغيّر سوق العمل بدلاً من أن يلغيها ببساطة. وأضاف: «أعتقد حقاً أن هناك مجموعة كاملة من الوظائف التي ستنشأ بسبب وجود الذكاء الاصطناعي»، معتبراً أن «الذين يتبنون الذكاء الاصطناعي ويستخدمونه أداةً سيتفوقون». ولاحقاً، حين سُئل عن المقاومة الثقافية، قال إن وجود راعٍ رفيع المستوى داخل المؤسسة يبقى غالباً شرطاً لا غنى عنه لنجاح التغيير واسع النطاق. وأضاف: «من المهم للغاية أن يكون هناك شخص كبير جداً في المؤسسة يرعى هذا، وإلا فلن يحدث».

مارك هيوز الشريك الإداري العالمي لخدمات الأمن السيبراني في «IBM Consulting»

الوكلاء تحت السيطرة

أما إذا كان حديث محمد علي يركز سبب مواجهة الشركات صعوبة في تحويل الذكاء الاصطناعي إلى تشغيل فعلي، فإن مارك هيوز شرح ما يحدث حين تبدأ هذه الشركات فعلاً في التوسع. ففكرته المركزية كانت أن الذكاء الاصطناعي المؤسسي يصبح أكثر صعوبة وأكثر حساسية حين ينتقل من استخدامات ضيقة إلى عدد كبير من الوكلاء المزروعين في سير العمل والتطبيقات واتخاذ القرار.

وفي هذا السياق، قال إن القضية لم تعد فقط ما إذا كانت أداة الذكاء الاصطناعي تعمل، بل ما إذا كان نشرها محكوماً. وأضاف: «يجب أن تكون الحوكمة موجودة»، مشيراً إلى ضوابط تتعلق بالتشفير والهوية والوصول والصلاحيات والبيانات والمراقبة وقت التشغيل. ومن دون هذا الغلاف حول نشر الوكلاء، كما قال، فإن «خطر عدم القيام بذلك كبير».

ورأى هيوز أن الفرق بين جهود التوسع الناجحة والفاشلة لا يكمن غالباً في النموذج نفسه، بل في انضباط النشر. وهو يلتقي هنا مع محمد علي في القول إن كثيراً من مشروعات الذكاء الاصطناعي تفشل؛ لأن النطاق الأولي واسع أكثر من اللازم، لكنه يضيف أن ضعف الحوكمة قد يكون بالقدر نفسه من الضرر.

ونوه إلى أن بعض المؤسسات لا تفهم جيداً «ما الذي يفعله الوكلاء، وكيف يؤدون»، وهذا يمكن أن «يضغط على فرامل تنفيذ الذكاء الاصطناعي لديها». وأردف أن بعضها الآخر تضعفه ظاهرة الذكاء الاصطناعي الظلّي والنشر المتشظي. وفي رأيه، فإن المؤسسات التي تنجح هي تلك التي «تفكر بشكل أكثر منهجية في كيفية إدخال الذكاء الاصطناعي إلى الإنتاج وتبني الحوكمة حوله». ومراده هنا ليس أن الذكاء الاصطناعي يخلق الخطر بحد ذاته، بل إن الذكاء الاصطناعي غير المحكوم هو الذي يفعل ذلك.

تعتبر «آي بي إم» أن الانتقال من التجارب إلى الإنتاج يبدأ من حالات استخدام ضيقة وواضحة القيمة لا من وعود واسعة أكثر من اللازم (غيتي)

إدارة الوكلاء الرقميين

تزداد هذه المسألة إلحاحاً مع انتقال الشركات من عدد محدود من المساعدين إلى أعداد كبيرة من الوكلاء داخل سير العمل الحقيقي. وفسّر هيوز أن أول مشكلة تحكم تظهر عادة هي «الرؤية». فقد تجد المؤسسات نفسها أمام وكلاء مختلفين من مزودين ومنصات مختلفة من «ساب» (SAP) و«سايلزفورس» (Salesforce) وأنظمة داخلية وغيرها من دون رؤية موحدة لما يفعله كل هؤلاء الوكلاء.

وتابع: «أنت غير قادر على رؤية كل هؤلاء في الوقت نفسه». وفي روايته، فإن المشكلة الإدارية الناشئة لا تتمثل فقط في إدارة العمال البشريين، بل أيضاً في إدارة عمال رقميين ينبغي فهم سلوكهم ومراقبته وضبطه. وقال: «مدير الغد سيتعين عليه فعلاً أن يعرف كيف يدير عمالاً بشريين وعمالاً رقميين»، واصفاً ذلك بأنه «مهارة لا يوجد تخطيط لها اليوم».

البيانات ثم الضوابط

وتقع البيانات في قلب طرح الرجُلين معاً. فقد قال محمد علي بوضوح إن «البيانات أساسية جداً جداً»، مضيفاً أن «النماذج نفسها جيدة جداً»، لكن ما يصنع النتيجة هو «خط أنابيب البيانات والسياق والعملية الذي يستفيد من النماذج».

وشرح كيف تُحاول «آي بي إم» تحسين ذلك، من خلال أدوات مثل «Context Studio»، التي لا تكتفي بمتجهة كميات كبيرة من بيانات الشركة، بل تبني طبقة من الأنطولوجيا والعلاقات يمكن للوكلاء استهلاكها بوصفها سياقاً. والمقصود برأيه ليس امتلاك البيانات فحسب، بل معالجتها على نحو يسمح للوكلاء بالعمل جيداً حتى عندما تكون البيانات المؤسسية الخام غير مكتملة أو غير مرتبة. وأضاف: «البيانات مهمة كثيراً، لكن الأمر يعتمد أيضاً على كيفية معالجتك للبيانات من أجل الحصول على وكيل جيد».

أما هيوز، فقد تناول المسألة من زاوية مختلفة، فبالنسبة إليه، لا يمكن فصل الحوكمة حول البيانات عن الحوكمة حول الوكلاء. وفي القطاعات الأكثر تنظيماً، أوضح أن البيانات نفسها وسلوك الوكيل حولها مهمان معاً. وأضاف: «كلاهما»، حين سُئل عما إذا كان التحكم في مكان البيانات أو التحكم في النماذج والوكلاء هو السؤال الأهم الآن. وأشار إلى طبقة السياق التي بنتها «آي بي إم» وإلى الجهد الأوسع في إدارة البيانات بوصفه جزءاً من الجواب. لكن تركيزه بقي منصباً على ضرورة وجود ضوابط ما قبل الإنتاج وضوابط وقت التشغيل، حتى تتمكن المؤسسات من مراقبة سلوك الوكلاء بعد دخولهم الخدمة.

«آي بي إم»: الخطر لا يكمن في الذكاء الاصطناعي نفسه بل في نشره من دون حوكمة واضحة ورؤية موحدة وضبط للصلاحيات والبيانات (رويترز)

الأمن والمساءلة

في رواية هيوز، لم يعد الأمن مجرد طبقة تضاف بعد نشر الذكاء الاصطناعي، بل أصبح جزءاً من نموذج التشغيل نفسه. وقال إن المؤسسات يجب ألا تنظر إلى الذكاء الاصطناعي على أنه يجعل الأمن «أصعب» فقط، بل على أنه يجعله مختلفاً. فمن جهة، يوسع الذكاء الاصطناعي سطح الهجوم بسبب زيادة عدد الأنظمة والوكلاء والعمليات الذاتية. واستشهد بأبحاث تشير إلى احتمال نشر 1.5 مليار وكيل داخل البيئات المؤسسية بحلول 2028. ومن جهة أخرى، قال إن الذكاء الاصطناعي يمنح المؤسسات أيضاً فرصة لإدارة الأمن «بصورة أسرع وأكثر ذاتية بكثير مما فعلناه في الماضي». والمعنى هنا أن التحول نفسه الذي يُغيّر سير العمل والعمليات يفرض أيضاً إعادة تصميم الأمن نفسه.

ولهذا السبب أيضاً عاد هيوز مراراً إلى مسألة المساءلة، فإذا ولّدت قرارات الذكاء الاصطناعي خطراً، فإن المسؤولية حسب اعتقاده يجب أن تبقى في مكان واضح. وقال: «لا يزال هناك الكثير مما يمكن أن نستفيد منه من الخبرات التي اكتسبناها في مجال عمليات تقنية المعلومات المؤسسية على مدى سنوات طويلة»، مضيفاً أنه كما أن للتطبيقات مالكين محددين، ينبغي أن يكون للوكلاء أيضاً مالكون واضحون، مع وجود خطة تحدد الجهة التي وفّرتهم والجهة التي تظل مسؤولة عنهم. وبمعنى آخر، قد تتوسع الأتمتة، لكن المسؤولية لا يمكن أن تختفي.

في هذا السياق، لم تعد قيمة الذكاء الاصطناعي في المؤسسات تُقاس بعدد المبادرات التي تُعلن أو بسرعة إطلاق التجارب، بل بقدرته على الدخول إلى العمليات الفعلية، والعمل داخلها بصورة منضبطة، وتحقيق أثر يمكن قياسه. هنا تحديداً يبدو أن المرحلة التالية بدأت.