وكلاء الذكاء الاصطناعي... «ومضات من التألق والإحباط»

وعود ومخاطر أدوات المساعدة الرقمية المستقبلية

وكلاء الذكاء الاصطناعي... «ومضات من التألق والإحباط»
TT

وكلاء الذكاء الاصطناعي... «ومضات من التألق والإحباط»

وكلاء الذكاء الاصطناعي... «ومضات من التألق والإحباط»

تركتُ وكيل الذكاء الاصطناعي يدير شؤوني اليومية. لنتخيل أنك تجلس لتناول وجبة لم تطلبها مباشرة، لتكتشف أن اختيارها ودفع ثمنها وتسليمها إلى طاولتك، تمت بواسطة وكيل ذكاء اصطناعي يعمل نيابة عنك.

فجر الذكاء الاصطناعي الوكيل

لم يعد هذا السيناريو خيالاً علمياً. إذ يضج قطاع التكنولوجيا الآن بـ«وكلاء الذكاء الاصطناعي»: مساعدون رقميون يتولون مهام متنوعة مثل طلب الطعام وإدارة البريد الإلكتروني أو تجميع الرموز البرمجية. ويَعِدُ هؤلاء الوكلاء بتغيير الحياة اليومية من خلال أتمتة القرارات الروتينية واللوجستيات، ما يقدم لمحة عن مستقبل يُدار فيه الكثير من عالمنا الرقمي والمادي من خلال أنظمة ذكية.

وأنا أتحدث هنا عن تجربتي مع اثنين من وكلاء الذكاء الاصطناعي الرائدين: «أوبريتور - Operator»، الذي طورته شركة «أوبن إيه آي» التي طورت «تشات جي بي تي»، و«مانوس - Manus»، من تطوير شركة «باترفلاي إيفكت - Butterfly Effect»، وهي شركة صينية ناشئة.

ومن خلال التجربة والخطأ، وقدر لا بأس به من التخمينات، فاني سأشرع في الإجابة على سؤالين أساسيين: هل نحن مستعدون للثقة في وكلاء الذكاء الاصطناعي الذين يتحكمون بشكل كبير في حياتنا، وهل تفي هذه الأنظمة بوعودها؟

من «التوليدي» إلى «الوكيل»

الذكاء الاصطناعي التوليدي. إن أساس هذه القفزة التكنولوجية هو الذكاء الاصطناعي التوليدي، المدعوم بالنماذج اللغوية الكبيرة (LLMs) المدربة على مجموعات بيانات ضخمة جُمعت من الإنترنت. ومنذ عام 2023، احتل الذكاء الاصطناعي التوليدي عناوين الأخبار لقدرته على إنشاء محتوى أصلي - سواء كان نصاً أو صوراً أو رموزاً كومبيوترية - بناء على مطالبات اللغة الطبيعية. ومع ذلك، على الرغم من الطابع التحويلي لهذا الأمر، فقد اقتصر دور الذكاء الاصطناعي بصورة كبيرة على دور «مساعد الطيار»: إذ إنه يقترح المحتوى، ويقدم التوصيات، أو يجيب على الأسئلة.

> الذكاء الاصطناعي الوكيل، من جانبه مصمم لتجاوز الاقتراحات السلبية إلى مستوى اتخاذ القرارات وتنفيذها بصورة فعالة. ويشرح بيتر ستون، مؤسس «مجموعة أبحاث وكلاء التعلم» في جامعة تكساس في أوستن، أن الذكاء الاصطناعي الوكيل «يستشعر البيئة، ويقرر ما يجب فعله، ويتخذ الإجراء». وبدلاً من مجرد التوصية بطبق ما أو تحديد موقع مطعم، يمكن للذكاء الاصطناعي الوكيل الآن تصفح قوائم الطعام، وتقديم الطلبات، والدفع باستخدام بطاقة الائتمان خاصتك، وتنسيق عملية التسليم - كل ذلك بشكل مستقل.

كيف يعمل الذكاء الاصطناعي الوكيل؟

بينما يدعم الذكاء الاصطناعي التوليدي أساس هذه الأنظمة، يضيف الذكاء الاصطناعي الوكيل طبقات من التفاعل في العالم الحقيقي. عندما يُمنح هدفاً، مثل «طلب العشاء» أو «إنشاء تطبيق»، يضع الذكاء الاصطناعي خطة متعددة الخطوات، ويقرر أفضل طريقة لاستخدام الأدوات الرقمية مثل متصفحات الويب أو التطبيقات. في كل خطوة، يُعيد تقييم تقدمه، ويُعدل إجراءاته حتى يُقرر أن الهدف قد تحقق أو أنه غير قابل للتحقيق. حتى أنه يستخدم حلقة تغذية مرتدة - تسمى التعلم المعزز من التغذية البشرية الراجعة - للتعلم من النجاحات والأخطاء.

يلاحظ ستون أنه على الرغم من أن برامج الذكاء الاصطناعي مثل «ديب بلو - Deep Blue» من تطوير شركة «آي بي إم - IBM» قد تغلبت على بطل العالم في الشطرنج غاري كاسباروف في عام 1997، غير أن تلك الأنظمة لم تكن «وكيلة» حقاً. إذ لم يكن برنامج «ديب بلو» قادراً على التفاعل مع العالم الحقيقي في غياب المساعدة البشرية. وعلى النقيض من ذلك، يمكن للذكاء الاصطناعي الوكيل اليوم أن يعمل في الفضاءات الرقمية مع تدخل بشري طفيف أو لعله لا يُذكر بالمرة.

اختبار الوكلاء

للوقوف على كيفية عمل الذكاء الاصطناعي الوكيل في الواقع العملي، طلبت الحصول على حق الوصول التجريبي إلى نظامين حقيقيين: «أوبريتور» و«مانوس». ووافقت الشركتان على منحي حق الوصول. ويتمثل هدفي في استخدام هذين النظامين الوكيلين كمساعدين شخصيين، مما يُخفف عن المستخدم أكبر قدر ممكن من العمل الروتيني المكثف.

> نتائج متباينة وإحباطات للمستخدمين. كشفت التجارب عن مزيج من النجاحات المبهرة والإحباطات المؤثرة. إذ عند تحميل عرض تقديمي إلى «مانوس»، وطلب إعادة تنسيقه، أكمل الوكيل المهمة ولكن بطريقة تتطلب تصحيحاً يدوياً كبيراً - ما يجعل التعديلات المستقبلية مرهقة. كان أداء «مانوس» أفضل عند إنشاء وتجهيز تطبيق لمتجر التطبيقات، حيث استفاد من مختلف الأدوات الرقمية وواجهات سطر الأوامر بدرجة معتبرة من الكفاءة.

في الوقت نفسه، يواجه «أوبريتور» صعوبات في تنفيذ المهام الإدارية. فعند الطلب منه إدارة الفواتير الإلكترونية لي، يرتكب أخطاء أساسية - مثل إدخال نص في حقول رقمية ونسخ المعلومات بشكل غير صحيح، مما يؤدي إلى اقتراح إصدار فاتورة للناشر بمبلغ 8001 جنيه إسترليني مقابل مقال واحد. هذه الأخطاء أكثر من مجرد إزعاج؛ إنها تكشف عن الطبيعة الناشئة والقابلة للخطأ لوكلاء الذكاء الاصطناعي الحاليين. ومع ذلك، أصررت على المضي قدماً، حتى أنني كلفت «أوبريتور» بمهمة الترويج لهذا المقال على وجه التحديد.

يقوم الذكاء الاصطناعي بصياغة وإرسال رسائل البريد الإلكتروني إلى الخبراء الذين تُجرى معهم المقابلات، ولكن نبرة الرسائل واختيار الكلمات فيها غير ملائم - فهي رسمية للغاية، وأحياناً ساذجة، وتفتقر إلى المعلومات الأساسية. كما أن «أوبريتور» لا يكشف أن وكيل الذكاء الاصطناعي - وليس المؤلف - هو الذي كتب المراسلات، ما قد يؤدي إلى حدوث ارتباك أو عدم ثقة.

> نجاحات جزئية وردود فعل اجتماعية. من المثير للاهتمام أن رسائل البريد الإلكتروني التي أرسلها «أوبريتور» لم تكن فاشلة تماماً. فقد رد بعض المستلمين، مثل خبير الذكاء الاصطناعي بيتر ستون، بشكل إيجابي، وتقبلوا غرابة الذكاء الاصطناعي. وأشاد آخر بـ«dogfooding: الاختبار التجريبي» للمؤلف - وهو مصطلح صناعي يستخدم للإشارة إلى استخدام المرء لتقنيته التجريبية الخاصة. ومع ذلك، رفض خبير آخر المشاركة، مشيراً إلى القيود المؤسسية.

> الحقيقة وراء هذا التهويل. تروج شركات التكنولوجيا للذكاء الاصطناعي الوكيل باعتباره المساعد الذي لا يخطئ في المستقبل، لكن التجارب الحالية تشير إلى عكس ذلك. وبحسب كاريسا فيليز، اختصاصية الأخلاقيات في جامعة أكسفورد، يجب دراسة الحوافز الكامنة وراء هذه الأنظمة بمنتهى الدقة.

يجري إنتاج وكلاء الذكاء الاصطناعي من قبل شركات لها مصالح تجارية خاصة بها. وإذا تمت برمجة وكيل ما أو استخدامه في شراكة لتفضيل خدمات معينة (على سبيل المثال، إعطاء الأولوية لشركات طيران أو مصادر أخبار معينة)، فقد لا تتوافق توصياته دائماً مع مصالح المستخدم. وهنا فإني أستشهد بشراكات «أوبن إيه آي»، مشيراً إلى أن «أوبريتور» قد يفضل شركات أو مصادر بيانات بعينها عند أداء المهام.

> مخاطر الأمان والخصوصية. هناك مصدر قلق أكثر أهمية وهو الخصوصية. يتطلب الذكاء الاصطناعي الوكيل عادة وصولاً واسعاً إلى المعلومات الحساسة - الحسابات المالية، والاتصالات الاجتماعية، وكلمات المرور، وغير ذلك. وتحذر كاريسا فيليز من أن استخدام مثل هذه الوكلاء يستلزم كسر الحواجز الرقمية التي تحمي بياناتنا، ما يزيد من خطر الانتهاكات أو سوء الاستخدام.

ويزداد قلقي عندما يطلب «أوبريتور» بيانات حساسة، مثل معلومات بطاقة الائتمان، عبر واجهات غير مألوفة. الثقة المطلوبة من المستخدمين كبيرة، وبالتالي فإن احتمال سوء الاستخدام أو الخطأ مرتفع بالتبعية* مجلة «نيو ساينتست»،

خدمات «تريبيون ميديا»يدعم هذا القلق بحث أجراه تيانشي لي من جامعة نورث إيسترن، الذي اختبر وكلاء الذكاء الاصطناعي الرائدين، ووجد أنهم عرضة لهجمات بسيطة. على سبيل المثال، إذا تم إخفاء تعليمات ضارة في مستند، فقد يتبعها الوكيل من دون وعي، ويدخل بيانات الاعتماد أو ينقر على روابط خطيرة من دون علم المستخدم. يشير تيانشي لي إلى عدم وجود آليات فعالة للمستخدمين للتدخل أو تصحيح هذه السلوكيات.

> الحواجز الوقائية والإخطارات. للإقلال من المخاطر، صُمم بعض وكلاء الذكاء الاصطناعي بحيث يُخطرون المستخدمين باستمرار قبل اتخاذ أي إجراء. ورغم أن هذا يوفر طبقة إضافية من الأمان، فإنه قد يصبح عبئاً ثقيلاً، حيث يتطلب قدراً كبيراً من الإشراف بحيث تفقد أي مكاسب في الراحة. ونتيجة لذلك، بدلاً من أن يعمل الذكاء الاصطناعي كمساعد مستقل، قد يبدو وكأنه متدرب غير منضبط يتطلب إشرافاً مستمراً وتصحيحات وإدارة دقيقة.

> تكنولوجيا غير ناضجة بعد. تُقر كل من «أوبن إيه آي» و«باترفلاي إيفكت» بأن وكلائهما لا يزالان قيد التطوير. يعترف كولين جارفيس، قائد فريق الهندسة في «أوبن إيه آي»، بأن الذكاء الاصطناعي الوكيل الحالي يحتاج إلى «الكثير من العمل للحصول على تلك الموثوقية». في حين تصف شركة «باترفلاي إيفكت» الوكيل «مانوس» بأنه في مرحلة «تجريبية»، مع استمرار الجهود لتحسين أدائه.

تردد صدى هذه الاعترافات في سابقة تاريخية. ففي عام 2018، وعد الوكيل «دوبلكس - Duplex» من شركة «غوغل» بإحداث ثورة في الحجوزات الهاتفية الآلية، لكنه أخفق في تحقيق انتشاره على نطاق واسع. ولا تزال التحديات المتعلقة بالموثوقية وثقة المستخدم والتكامل السلس تشكل عقبات كبيرة أمامه.

الطريق إلى الأمام

> المبالغة الترويجية مقابل الواقع. على الرغم من هذه العيوب، يستمر الضجيج حول الذكاء الاصطناعي الوكيل في الازدياد. وارتفعت الإشارات إلى الذكاء الاصطناعي الوكيل في تقارير الأرباح المالية بصورة كبيرة - حيث ارتفعت 51 ضعفاً مع نهاية العام الماضي مقارنة بأوائل عام 2022. وتباشر شركات مثل «سيلز فورس» بالفعل نشر وكلاء الذكاء الاصطناعي للتفاعل مع العملاء، ليس فقط كأدوات دعم، وإنما كممثلي مبيعات في الخطوط الأمامية.

ومع ذلك، يُحذر الخبراء من المبالغة في استنتاجات الأداء المثير للإعجاب لأنظمة الذكاء الاصطناعي الحالية مثل «تشات جي بي تي»، إذ يُحذر بيتر ستون من «المبالغة في الترويج»، مشيراً إلى أنه على الرغم من أن الذكاء الاصطناعي الوكيل يمكن أن يكون رائعاً في سياقات محددة ومحدودة، فإنه بعيد كل البعد عن أن يكون جاهزاً ليحل محل العمال البشريين، أو يدير جميع جوانب الحياة بصفة مستقلة. سوف يتطلب بلوغ هذه الطموحات تحقيق اختراقات تقنية كبيرة للغاية.

> الوعود والمخاطر. تقدم تجربتي هذه مع وكلاء الذكاء الاصطناعي صورة مصغرة للتحديات التي يواجهها المجتمع مع انتشار هذه الأدوات. يمكن للذكاء الاصطناعي الوكيل، في بعض الأحيان، أن يقدم لمحات من البراعة - من خلال تنفيذ المهام بسرعة التي قد تكون مملة أو تستغرق وقتاً طويلاً. غير أن الإحباط وعدم اليقين والمخاطر غالبا ما تطغى على هذه الفوائد.

في النهاية، سوف تعتمد رغبتنا في منح وكلاء الذكاء الاصطناعي مسؤوليات أكبر على مدى نضج التكنولوجيا، وشفافية الشركات التي تقف وراءها، وتطوير آليات فعالة لضمان تحكم المستخدم وأمنه. حتى ذلك الحين، قد يكون من الأفضل التعامل مع حتى أبسط الأمور مثل طلب وجبة دجاج بشيء من الحذر الصحي، وربما إعادة التحقق يدوياً للتأكد من عدم نسيان إضافة مقرمشات الروبيان!


مقالات ذات صلة

«تشات جي بي تي» يستعد لعرض إعلانات بناءً على محادثات المستخدمين

تكنولوجيا شعار تطبيق «تشات جي بي تي» (رويترز)

«تشات جي بي تي» يستعد لعرض إعلانات بناءً على محادثات المستخدمين

قد يبدأ تطبيق الدردشة المدعم بالذكاء الاصطناعي «شات جي بي تي» قريباً بعرض إعلانات لمنتجات وخدمات يُرجّح أنها تهم المستخدمين.

«الشرق الأوسط» (واشنطن)
تكنولوجيا تقنيات الذكاء الاصطناعي أصبحت قادرة على استخراج معلومات حساسة من الصوت دون علم المتحدث (أدوبي)

بيانات الصوت البيومترية... هل تهدد الخصوصية في زمن الخوارزميات؟

الصوت يحمل بيانات شخصية حساسة تكشف الصحة والمشاعر والهوية، ومع تطور تقنيات تحليل الكلام تزداد تحديات الخصوصية والحاجة لحمايتها بوعي وتشريعات.

نسيم رمضان (لندن)
تكنولوجيا يرى البعض أن الذكاء الاصطناعي يهدد ملايين الوظائف التقليدية (رويترز)

كيف يمكن أن يؤثر الذكاء الاصطناعي على البطالة والتوظيف في 2026؟

مع التسارع غير المسبوق في تطور تقنيات الذكاء الاصطناعي، تتزايد التساؤلات حول تأثير هذه الثورة التكنولوجية على سوق العمل العالمي.

«الشرق الأوسط» (لندن)
خاص خبراء: سيادة الذكاء الاصطناعي باتت محوراً استراتيجياً يُعاد عبرها تعريفه بوصفه بنية تحتية وطنية وصناعية لا أدوات تقنية منفصلة (شاترستوك)

خاص من التجارب إلى المصانع... كيف يتحول الذكاء الاصطناعي بنيةً تحتية وطنية؟

ينتقل الذكاء الاصطناعي في الخليج من مرحلة التجارب إلى أنظمة تشغيلية سيادية، تُبنى بوصفها بنيةً تحتية صناعية وطنية قادرة على التوسع والحوكمة وتحقيق قيمة اقتصادية

نسيم رمضان (لندن)
تكنولوجيا «ليغو» تسوِّق منهجاً لتعليم الأطفال الذكاء الاصطناعي بأنفسهم

«ليغو» تسوِّق منهجاً لتعليم الأطفال الذكاء الاصطناعي بأنفسهم

تهدف إلى نقل الصغار من المراحل الأولى لفهمه إلى مرحلة التجربة العملية.

«الشرق الأوسط» (واشنطن)

«تشات جي بي تي» يستعد لعرض إعلانات بناءً على محادثات المستخدمين

شعار تطبيق «تشات جي بي تي» (رويترز)
شعار تطبيق «تشات جي بي تي» (رويترز)
TT

«تشات جي بي تي» يستعد لعرض إعلانات بناءً على محادثات المستخدمين

شعار تطبيق «تشات جي بي تي» (رويترز)
شعار تطبيق «تشات جي بي تي» (رويترز)

قد يبدأ تطبيق الدردشة المدعم بالذكاء الاصطناعي «تشات جي بي تي» قريباً بعرض إعلانات لمنتجات وخدمات يُرجّح أنها تهم المستخدمين، وذلك استناداً إلى طبيعة محادثاتهم مع المنصة.

وأعلنت شركة «أوبن إيه آي»، أمس (الجمعة)، أنها ستختبر هذه الإعلانات في النسخة المجانية من تطبيق «تشات جي بي تي» للمستخدمين البالغين المسجلين في الولايات المتحدة. كما كشفت عن إطلاق باقة اشتراك جديدة تحمل اسم «Go» بسعر 8 دولارات شهرياً، تتضمن بعض الميزات المحسّنة، مثل ذاكرة أكبر وإمكانات أوسع لإنشاء الصور، وبسعر أقل من باقتي «Plus» (20 دولاراً شهرياً) و«Pro» (200 دولار شهرياً).

وبحسب شبكة «سي إن إن»، سيشاهد مشتركو باقة «Go» أيضاً إعلانات داخل الخدمة، في حين لن تُعرض أي إعلانات لمشتركي باقتي «Plus» و«Pro»، ولا لعملاء «أوبن إيه آي» من الشركات.

وكان سام ألتمان، الرئيس التنفيذي لشركة «أوبن إيه آي»، قد أعرب في وقت سابق، عن تحفظاته إزاء إدخال الإعلانات إلى «تشات جي بي تي». غير أن هذه الخطوة تأتي في سياق سعي الشركة الحثيث إلى إيجاد مصادر جديدة لزيادة الإيرادات من قاعدة مستخدميها التي تُقدَّر بنحو 800 مليون مستخدم شهرياً، وذلك للمساعدة في تغطية تكلفة البنية التحتية للذكاء الاصطناعي، التي تعتزم الشركة استثمار نحو 1.4 تريليون دولار فيها على مدى السنوات الثماني المقبلة.

وفي هذا السياق، قال ألتمان في نوفمبر (تشرين الثاني) الماضي، إن «أوبن إيه آي» تتوقع إنهاء عام 2025 بإيرادات سنوية تقارب 20 مليار دولار.

وكانت الشركة قد أطلقت العام الماضي، أداة تُعرف باسم «الدفع الفوري»، تتيح للمستخدمين شراء المنتجات مباشرةً من متاجر تجزئة مثل «وول مارت» و«إتسي» عبر «تشات جي بي تي». كما قدّمت أدوات في مجالات الصحة والتعليم وغيرها، في إطار مساعيها لجعل «تشات جي بي تي» جزءاً أساسياً من الحياة اليومية للمستخدمين، وربما تحفيزهم على الترقية إلى اشتراكات مدفوعة.

وقد تُثبت الإعلانات أنها استراتيجية مربحة لشركة «أوبن إيه آي»، إذ يمكن استغلال المعلومات المستخلصة من محادثات المستخدمين مع «تشات جي بي تي» لإنشاء إعلانات عالية الاستهداف. فعلى سبيل المثال، إذا طلب أحد المستخدمين المساعدة في التخطيط لرحلة، فقد تظهر له إعلانات متعلقة بفنادق أو أنشطة ترفيهية في الوجهة المقصودة.

وكجزء من هذا الاختبار، ستظهر الإعلانات أسفل إجابات «تشات جي بي تي» على استفسارات المستخدمين، مع تصنيفها بوضوح على أنها «إعلانات ممولة». وأكدت «أوبن إيه آي» أن هذه الإعلانات لن تؤثر في محتوى إجابات «تشات جي بي تي»، مشددة على أن المستخدمين «يجب أن يثقوا بأن الإجابات تستند إلى ما هو مفيد موضوعياً».

كما أوضحت الشركة أنها لن تبيع بيانات المستخدمين أو محادثاتهم للمعلنين، مؤكدةً أن بإمكان المستخدمين تعطيل تخصيص الإعلانات المبنية على محادثاتهم في أي وقت.


دراسة جديدة تكشف حدود الذكاء الاصطناعي في إنجاز مشاريع العمل عن بُعد

الدراسة تقدم «مؤشر العمل عن بُعد» كأول مقياس واقعي لقدرة الذكاء الاصطناعي على إنجاز مشاريع عمل حقيقية متكاملة (شاترستوك)
الدراسة تقدم «مؤشر العمل عن بُعد» كأول مقياس واقعي لقدرة الذكاء الاصطناعي على إنجاز مشاريع عمل حقيقية متكاملة (شاترستوك)
TT

دراسة جديدة تكشف حدود الذكاء الاصطناعي في إنجاز مشاريع العمل عن بُعد

الدراسة تقدم «مؤشر العمل عن بُعد» كأول مقياس واقعي لقدرة الذكاء الاصطناعي على إنجاز مشاريع عمل حقيقية متكاملة (شاترستوك)
الدراسة تقدم «مؤشر العمل عن بُعد» كأول مقياس واقعي لقدرة الذكاء الاصطناعي على إنجاز مشاريع عمل حقيقية متكاملة (شاترستوك)

أعاد التطور السريع في تقنيات الذكاء الاصطناعي طرح أسئلة قديمة متجددة حول الأتمتة ومستقبل العمل. فمن تطوير البرمجيات إلى إنتاج المحتوى، باتت أنظمة الذكاء الاصطناعي تُظهر قدرات لافتة في الاختبارات البحثية والمعايير التقنية. لكن فجوة أساسية ما زالت قائمة تتعلق بقدرة هذه الأنظمة على تنفيذ أعمال حقيقية ذات قيمة اقتصادية، كما هي مطلوبة في سوق العمل الفعلي.

دراسة جديدة تسعى للإجابة عن هذا السؤال عبر إطار قياس مبتكر يُعرف باسم «مؤشر العمل عن بُعد» (Remote Labor Index – RLI)، وهو أول معيار تجريبي يقيس بشكل منهجي قدرة وكلاء الذكاء الاصطناعي على أتمتة مشاريع عمل متكاملة مأخوذة من أسواق العمل الحر الحقيقية. وتأتي النتائج مفاجئة، وأكثر واقعية مما توحي به كثير من السرديات المتداولة حول قرب الاستغناء عن الوظائف البشرية.

ما بعد المعايير الاصطناعية

تركز معظم اختبارات الذكاء الاصطناعي الحالية على مهام محددة أو معزولة ككتابة شيفرات قصيرة أو الإجابة عن أسئلة تقنية أو تصفح الإنترنت أو تنفيذ أوامر حاسوبية مبسطة. ورغم أهمية هذه المعايير، فإنها غالباً لا تعكس التعقيد والتكامل والغموض الذي يميز العمل المهني الحقيقي.

من هنا جاء تطوير «مؤشر العمل عن بُعد»، الذي لا يختبر مهارات منفصلة، بل يقيس قدرة أنظمة الذكاء الاصطناعي على إنجاز مشاريع كاملة من البداية إلى النهاية، تماماً كما تُسند إلى محترفين يعملون لحساب عملاء حقيقيين. وتشمل هذه المشاريع مجالات مثل التصميم والهندسة المعمارية وإنتاج الفيديو وتحليل البيانات وتطوير الألعاب وإعداد الوثائق وغيرها من أشكال العمل عن بُعد التي تشكل جوهر الاقتصاد الرقمي المعاصر. وبهذا، تنقل الدراسة النقاش من مستوى القدرات النظرية إلى مستوى الأداء الفعلي القابل للقياس في السوق.

نتائج المؤشر تظهر أن الذكاء الاصطناعي ما زال عاجزاً عن أتمتة معظم مشاريع العمل عن بُعد بمستوى مهني مقبول (غيتي)

قياس مؤشر العمل عن بُعد

تتكون قاعدة بيانات المؤشر من 240 مشروع عمل حر مكتمل، يحتوي كل مشروع على ثلاثة عناصر رئيسية هي وصف تفصيلي للمهمة والملفات المدخلة اللازمة لتنفيذها ومخرجات نهائية أنجزها محترفون بشريون باعتبارها مرجعاً قياسياً. ولم تكتفِ الدراسة بالمخرجات فقط، بل جمعت أيضاً بيانات عن الوقت والتكلفة اللازمين لتنفيذ كل مشروع. وقد استغرق إنجاز المشروع الواحد، في المتوسط، نحو 29 ساعة من العمل البشري، بينما تجاوزت بعض المشاريع حاجز 100 ساعة. وتراوحت تكاليف المشاريع بين أقل من 10 دولارات وأكثر من 10 آلاف دولار، بإجمالي قيمة تتجاوز 140 ألف دولار وأكثر من 6 آلاف ساعة عمل فعلي.

ويعكس هذا التنوع والتعقيد المتعمد طبيعة العمل الحقيقي، بعيداً عن المهام المبسطة أو المتخصصة.

تقييم أداء الذكاء الاصطناعي

اختبر الباحثون عدة نماذج متقدمة من وكلاء الذكاء الاصطناعي باستخدام عملية تقييم بشرية دقيقة حيث مُنحت الأنظمة نفس أوصاف المشاريع والملفات التي حصل عليها المحترفون، وطُلب منها إنتاج مخرجات كاملة. ثم قام مقيمون مدربون بمقارنة نتائج الذكاء الاصطناعي بالمخرجات البشرية المرجعية، مع التركيز على سؤال جوهري يتعلق بمدى قبول العميل الحقيقي لهذا العمل باعتباره مكافئاً أو أفضل من عمل محترف بشري.

المقياس الأساسي في الدراسة هو «معدل الأتمتة» أي النسبة المئوية للمشاريع التي نجح الذكاء الاصطناعي في إنجازها بمستوى احترافي مقبول. كما استخدمت الدراسة نظام تصنيف شبيهاً بنظام «إيلو» لإجراء مقارنات دقيقة بين النماذج المختلفة، حتى في الحالات التي لم تصل فيها أي منها إلى مستوى الأداء البشري.

الأتمتة ما زالت محدودة جداً

على الرغم من التطورات الكبيرة في قدرات التفكير والتعامل متعدد الوسائط، تكشف النتائج أن أنظمة الذكاء الاصطناعي الحالية ما تزال بعيدة عن أتمتة العمل عن بُعد بشكل واسع. فقد بلغ أعلى معدل أتمتة تحقق 2.5 في المائة فقط، أي أن أقل من ثلاثة مشاريع من كل مائة وصلت إلى مستوى مقبول مقارنة بالعمل البشري. وتتحدى هذه النتيجة الافتراض السائد بأن التحسن في المعايير التقنية يعني بالضرورة قدرة فورية على استبدال العمل البشري. فحتى النماذج المتقدمة القادرة على كتابة الشيفرات أو توليد الصور والنصوص، غالباً ما تفشل عندما يُطلب منها دمج مهارات متعددة، أو الالتزام بتفاصيل معقدة أو تسليم ملفات متكاملة بجودة احترافية.

مستقبل العمل القريب يتجه نحو دعم الإنتاجية البشرية بالذكاء الاصطناعي بدلاً من استبدال الوظائف بالكامل (شاترستوك)

تعثر الذكاء الاصطناعي... ونجاحه

يكشف التحليل النوعي لأسباب الفشل عن مشكلات متكررة، أبرزها أخطاء تقنية أساسية مثل ملفات تالفة أو غير قابلة للاستخدام أو صيغ غير صحيحة أو مخرجات ناقصة وغير متسقة. وفي حالات أخرى، كانت المشاريع مكتملة شكلياً لكنها لا ترقى إلى المستوى المهني المتوقع في سوق العمل الحر.

في المقابل، رصدت الدراسة مجالات محدودة أظهر فيها الذكاء الاصطناعي أداءً أفضل نسبياً، لا سيما في المهام التي تتركز على معالجة النصوص أو توليد الصور أو التعامل مع الصوت كبعض أعمال التحرير الصوتي والتصميم البصري البسيط وكتابة التقارير وتصور البيانات المعتمد على الشيفرة البرمجية. وتشير هذه النتائج إلى أن الذكاء الاصطناعي يلعب بالفعل دوراً داعماً في بعض أنواع العمل، وإن لم يصل بعد إلى مرحلة الأتمتة الكاملة.

قياس التقدم دون تهويل

رغم انخفاض معدلات الأتمتة المطلقة، يُظهر المؤشر تحسناً نسبياً واضحاً بين النماذج المختلفة. فتصنيفات «إيلو» وهي نظام رياضي لتقييم الأداء النسبي، تشير إلى أن الأنظمة الأحدث تتفوق بشكل منهجي على سابقاتها، ما يعني أن التقدم حقيقي وقابل للقياس، حتى وإن لم يترجم بعد إلى إنجاز مشاريع كاملة. وتكمن قيمة «مؤشر العمل عن بُعد» في كونه أداة طويلة الأمد لمتابعة التطور، بعيداً عن التوقعات المبالغ فيها أو الأحكام الثنائية.

تشير نتائج الدراسة إلى أن الاستغناء الواسع عن العاملين في وظائف العمل عن بُعد ليس وشيكاً في الوقت الراهن. وبدلاً من ذلك، يُرجّح أن يكون الأثر القريب للذكاء الاصطناعي متمثلاً في تعزيز الإنتاجية على مستوى المهام، لا استبدال الوظائف بالكامل.

وسيظل الحكم البشري والقدرة على الدمج وضبط الجودة عناصر مركزية في العمل المهني. ومع ذلك، تحذر الدراسة من أن الذكاء الاصطناعي يختلف عن تقنيات الأتمتة السابقة؛ إذ يسعى إلى محاكاة قدرات معرفية عامة. وإذا تمكنت الأنظمة المستقبلية من سد الفجوة التي يكشفها المؤشر دون التكيّف المصطنع معه، فقد تكون الآثار على سوق العمل أعمق بكثير.

خط أساس جديد للنقاش

لا تدّعي هذه الدراسة التنبؤ بالمستقبل، لكنها تقدم خط أساس علمي وعملي لفهم موقع الذكاء الاصطناعي اليوم. ومن خلال ربط التقييم بعمل حقيقي وتكلفة فعلية ومعايير مهنية واقعية، تضع إطاراً أكثر دقة لنقاشات الأتمتة والعمل. ومع استمرار تطور الذكاء الاصطناعي، ستصبح أدوات مثل «مؤشر العمل عن بُعد» ضرورية للفصل بين التقدم الحقيقي والضجيج الإعلامي، وضمان أن يُبنى النقاش حول مستقبل العمل على الأدلة لا الافتراضات.


بيانات الصوت البيومترية... هل تهدد الخصوصية في زمن الخوارزميات؟

تقنيات الذكاء الاصطناعي أصبحت قادرة على استخراج معلومات حساسة من الصوت دون علم المتحدث (أدوبي)
تقنيات الذكاء الاصطناعي أصبحت قادرة على استخراج معلومات حساسة من الصوت دون علم المتحدث (أدوبي)
TT

بيانات الصوت البيومترية... هل تهدد الخصوصية في زمن الخوارزميات؟

تقنيات الذكاء الاصطناعي أصبحت قادرة على استخراج معلومات حساسة من الصوت دون علم المتحدث (أدوبي)
تقنيات الذكاء الاصطناعي أصبحت قادرة على استخراج معلومات حساسة من الصوت دون علم المتحدث (أدوبي)

نحن نتحدث يومياً دون أن نفكر كثيراً في مقدار ما تكشفه أصواتنا عنّا. فإلى جانب الكلمات التي نختارها، يحمل الصوت إشارات دقيقة عن هويتنا قد تكشف معلومات صحية وخلفيات ثقافية وحالات عاطفية، ومستوى التعليم وربما حتى ميولاً فكرية. وحتى وقت قريب، كان هذا الإدراك يقتصر على الحدس البشري؛ إذ يمكننا غالباً أن نميّز تعب صديق أو سعادته أو توتره من نبرة صوته فقط. لكن اليوم، باتت الأنظمة الحاسوبية قادرة على فعل ذلك وأكثر بدقة متزايدة.

ويحذّر باحثون في تقنيات الكلام واللغة من أن هذه القدرات تمثل تحدياً حقيقياً للخصوصية. فالصوت لم يعد مجرد وسيلة لإعطاء الأوامر للمساعدات الرقمية أو أداة للحوار، بل أصبح وعاءً غنياً بالمعلومات الشخصية التي تستطيع الخوارزميات الحديثة استخراجها، غالباً دون علم المتحدث أو موافقته.

لماذا يُعد الصوت بيانات شخصية؟

عندما نتحدث، لا تنتقل الرسالة اللغوية وحدها. فإيقاع الكلام ودرجة الصوت والتوقفات بين الكلمات وأنماط التنفس والخصائص الصوتية الأخرى، جميعها تحمل طبقات متعددة من المعلومات الشخصية. ويشير خبراء تقنيات الكلام إلى أن هذه المعلومات مدمجة مباشرة في الإشارة الصوتية نفسها، أي أنها تُفصح تلقائياً عن صاحبها بمجرد التحدث، دون أي نية واعية للكشف عنها.

وتستطيع هذه الخصائص الصوتية أن تعكس مؤشرات تتعلق بالصحة الجسدية أو النفسية، مثل الإرهاق أو مشكلات في الجهاز التنفسي. كما يمكن أن تشير إلى خلفية المتحدث الثقافية أو الجغرافية من خلال اللهجة ونمط النطق. إضافة إلى ذلك، تحمل الأصوات دلائل عاطفية تُمكّن الأنظمة المتقدمة من استنتاج ما إذا كان الشخص متوتراً أو هادئاً أو متحمساً أو مضطرباً. ولهذا، يُصنَّف الصوت ضمن فئة البيانات البيومترية أي البيانات الشخصية العميقة، الفريدة غالباً، والتي يصعب تغييرها أو استبدالها.

وبسبب هذه الحساسية، تُعامل البيانات الصوتية في العديد من التشريعات الحديثة باعتبارها بيانات محمية. ففي الاتحاد الأوروبي، على سبيل المثال، يمكن أن يندرج الصوت ضمن البيانات البيومترية الخاضعة لقواعد صارمة بموجب اللائحة العامة لحماية البيانات (GDPR)، ما يستلزم توفير ضمانات إضافية والحصول على موافقة صريحة في كثير من الحالات.

تحليل الصوت يطرح مخاطر تتعلق بالخصوصية قد تمتد إلى التوظيف والتأمين والتسويق والمراقبة (شاترستوك)

مخاطر الإفراط في كشف المعلومات

تثير القدرة على استخراج سمات شخصية من الصوت مخاوف تتجاوز مسألة الراحة أو التخصيص. فمع تطور تقنيات تحليل الصوت وانتشارها، قد تمتد آثارها إلى مجالات حساسة في حياة الأفراد. فقد تُستخدم الاستنتاجات المستخلصة من أنماط الكلام يوماً ما للتأثير في قرارات التوظيف أو تقييمات التأمين إذا أسيء استخدامها. كما يمكن للمعلنين استغلال الإشارات العاطفية أو السلوكية المستخلصة من الصوت لتقديم رسائل تسويقية شديدة الاستهداف، وربما ذات طابع تلاعبي.

وتتفاقم المخاطر مع احتمالات سوء الاستخدام، مثل المراقبة غير المشروعة أو التحرش أو تتبع الأفراد دون علمهم. ورغم أن هذه السيناريوهات ليست شائعة على نطاق واسع بعد، يؤكد الباحثون أن سرعة تطور التكنولوجيا تستدعي دق ناقوس الخطر مبكراً، قبل أن تصبح هذه الممارسات أمراً واقعاً يصعب احتواؤه.

قياس ما يكشفه صوتك

أحد التحديات الأساسية في حماية خصوصية الصوت هو فهم مقدار المعلومات التي يحتويها تسجيل صوتي واحد. ولهذا يعمل الباحثون على تطوير أدوات وأساليب لقياس مدى قابلية ربط عيّنة صوتية بسمات تعريفية محددة. وتهدف هذه المقاييس إلى تحديد مدى سهولة نسب الصوت إلى شخص بعينه أو إلى فئة ضيقة من الأشخاص، اعتماداً فقط على الخصائص الصوتية.

وتُعد هذه الأدوات ضرورية لتصميم أنظمة تراعي الخصوصية منذ البداية. فإذا تمكن المطورون من تقدير مستوى المخاطر المرتبطة بتسجيل صوتي معين، يصبح بإمكانهم اتخاذ قرارات مدروسة بشأن كيفية تخزينه أو معالجته أو مشاركته. ويدعم هذا التوجه مفهوم «الخصوصية بحكم التصميم»؛ حيث تُؤخذ المخاطر المحتملة في الحسبان قبل طرح التكنولوجيا للاستخدام الواسع.

الصوت ليس وسيلة تواصل فقط بل يحمل أيضاً بيانات شخصية عميقة تكشف الصحة والحالة النفسية والخلفية الثقافية (شاترستوك)

كيف يمكن حماية خصوصية الصوت؟

لا يدعو الخبراء إلى التخلي عن تقنيات الصوت، بل إلى تقليل التعرض غير الضروري للمعلومات الشخصية. ومن بين أكثر الاستراتيجيات فعالية تقليص كمية البيانات الصوتية الخام التي يتم مشاركتها. فبدلاً من إرسال تسجيلات كاملة، يمكن للأنظمة استخراج الحد الأدنى من المعلومات اللازمة لأداء مهمة محددة كتحويل الكلام إلى نص، ثم التخلص من بقية البيانات.

كما تُعد المعالجة المحلية للصوت خطوة مهمة في هذا السياق. فعندما يُحلل الصوت مباشرة على الجهاز، بدلاً من إرساله إلى خوادم سحابية بعيدة، تقل فرص إساءة الاستخدام أو الاعتراض أو الاستغلال الثانوي للبيانات. ويمنح هذا النهج المستخدمين قدراً أكبر من التحكم فيما يغادر أجهزتهم ومتى.

وتلعب الضوابط الفيزيائية والبيئية دوراً مكملاً. فالتقنيات التي تُظهر بوضوح متى يكون التسجيل نشطاً، أو التي تحصر التقاط الصوت في نطاقات محددة، أو تتطلب تفعيلاً مقصوداً من المستخدم، تساعد في منع التسجيل العرضي أو الخفي. ومجتمعةً، تسهم هذه الإجراءات في جعل التفاعل الصوتي مقصوداً لا متطفلاً.

الثقة والشفافية وتجربة المستخدم

الخصوصية ليست مسألة تقنية فحسب، بل هي قضية نفسية أيضاً. فمجرد الشعور بالمراقبة قد يؤثر في سلوك الأفراد وطريقة تعبيرهم عن أنفسهم. ويحذّر الباحثون من أن الإحساس الدائم بالرصد سواء أكان حقيقياً أم متوهماً، يمكن أن يقوّض الشعور بالكرامة والاستقلالية.

ومن هنا تبرز أهمية الشفافية؛ إذ ينبغي إبلاغ المستخدمين بوضوح متى يتم تسجيل أصواتهم، وما نوع المعلومات التي قد تُستخلص، وكيف ستُستخدم هذه البيانات. فالأنظمة التي تقدم إشارات واضحة وتحكماً مفهوماً في إعدادات الخصوصية تكون أقدر على كسب ثقة المستخدمين من تلك التي تعمل بصمت في الخلفية.

مستقبل مسؤول لتقنيات الصوت

توفر التقنيات المعتمدة على الصوت فوائد لا يمكن إنكارها، بدءاً من أدوات الوصول لذوي الإعاقة، مروراً بالحوسبة دون استخدام اليدين، ووصولاً إلى تفاعل أكثر طبيعية بين الإنسان والآلة. غير أن تعاظم حضور هذه التقنيات في الحياة اليومية يفرض مسؤولية متزايدة لحماية البيانات الصوتية.

ويواصل الباحثون تطوير أساليب لقياس المعلومات الشخصية الكامنة في الصوت وتقليلها والتحكم بها. وفي الوقت ذاته، يتعين على المطورين وصنّاع السياسات والمصممين العمل معاً لضمان تطور أطر الخصوصية بالتوازي مع الابتكار. فالتحدي ليس في إسكات التكنولوجيا، بل في ضمان أن تكون أصواتنا حين نتحدث مصدر تمكين لنا، لا بوابة لانتهاك خصوصيتنا.