الشركات تراقب موظفيها لتحليل سلوكهم أثناء العمل

قد يعتمد بعضها على أنظمة تسيء تفسيره

الشركات تراقب موظفيها لتحليل سلوكهم أثناء العمل
TT

الشركات تراقب موظفيها لتحليل سلوكهم أثناء العمل

الشركات تراقب موظفيها لتحليل سلوكهم أثناء العمل

تعمد بعض الشركات الخاصّة إلى مراقبة الموظّفين بأنظمة قد ترتكز على أسسٍ غير موثوقة في علم السلوك.
هل تشكّلون «تهديداً داخلياً»؟ قد ترغب الشركة التي تعملون فيها بمعرفة ما إذا كنتم كذلك، إذ يخشى بعض أرباب العمل من احتمال تسريب الموظفين للمعلومات، أو سماحهم لآخرين بالوصول إلى ملفّات سريّة، أو التواصل مع الزبائن بشكلٍ غير لائق، أو حتّى إحضار مسدّسٍ إلى المكتب.
تقييم آلي للسلوك
ولمعالجة هذه المخاوف، تُخضع بعض الشركات الموظّفين لتقييمات شبه آلية وشبه مستمرّة تركّز على الموثوقية من خلال استخدام أدوات علم السلوك وأبرزها التحليل النفسي.
تشبه اللغة المحيطة بهذا النوع من مراقبة الموظفين، تلك اللغة المستخدمة داخل الدوائر الحكومية، حيث تعكف مؤسسات القطاع العام على تقييم الموظّفين الحاصلين على تصريحات أمنية للتعامل مع معلومات حسّاسة مرتبطة بالاستخبارات أو الأمن القومي. وتقدّم المنظّمات المنتجة لبرمجيات المراقبة والتحليل السلوكي لصالح الوكالات الفيدرالية أدوات مشابهة للشركات الخاصّة، إمّا بشكلٍ منفصل أو في حزم تضمّ أدوات سيبرانية أوسع.
يقول توم ميلر، الرئيس التنفيذي لشركة «كلير فورس” التي تبيع خدمات رصد التهديد الداخلي لزبائن من القطاع الخاص: «عندما نفكّر بالتهديد الداخلي بشكلٍ عام، يبدأ الموضوع من الدوائر الحكومية، ومن ثمّ يتوسّع ليطال القطاع الخاص والقطاع التجاري».
سلوك كومبيوتري
ترصد هذه البرمجيات السلوك الكومبيوتري المثير للشكّ وتبحث بعمق في تقارير رصيد الموظّف وسجلّه العدلي وتحديثات وضعه الاجتماعي، كما تستطيع مراقبة موظف معيّن لمعرفة ما إذا كان يحمّل كميات كبيرة من البيانات السحابية، وتُجري تحليلاً لمشاعره لتبيان ما إذا كان يزداد غضباً مع الوقت. وتدّعي الشركات التي تراقب التهديدات الداخلية أنّ تحليل هذه البيانات يسهم في رصد مشكلات محتملة في مكان العمل.
ولكنّ الاهتمام برصد التهديدات الداخلية في القطاع الخاص يثير الكثير من المسائل الأخلاقية حول درجة المراقبة التي يجب أن يخضع لها الموظفون غير الحكوميين، بالإضافة إلى مسألة مهمّة أخرى وهي الارتكاز على أسسٍ علمية غير موثوقة.
اعتمدت عملية منح التراخيص الأمنية الصادرة عن الحكومات الفيدرالية لعقود على تقنيات نشأت في منتصف القرن العشرين. ويرى إيفان ليسير، مدير موقع «كليرنس جوبز» المتخصص في نشر فرص العمل التي تتطلّب تصاريح أمنية، والأخبار والاستشارات في هذا المجال، أنّ «هذه الطريقة يدوية جداً، وأنّ القيادة والذهاب لمقابلة النّاس شخصياً وسيلة قديمة وتتطلّب الكثير من الوقت».
ولكنّ في عام 2018، اعتمدت مبادرة فيدرالية تحت عنوان «قوى العمل الموثوقة 2.0» تحليلاً شبه آلي للموظفين الفيدراليين يُجرى في الوقت الحقيقي. يتيح هذا البرنامج للحكومة استخدام الذكاء الصناعي لإخضاع الموظفين الذي يطلبون تصاريح أمنية أو حازوها، لـ«تدقيقٍ وتقييمٍ متواصلين» –أي تقييم يحصل على المعلومات بشكلٍ متواصل، ويُصدر التحذيرات، ويشمل تقارير ذاتية وتحليلٍاً بشرياً.
من جهته، تساءل كريس غريجالفا، المدير التقني الأوّل في شركة «بيراتون» التي تركّز في عملها على الطرف الحكومي في التحليل الداخلي: «هل يمكننا بناء نظام يتحقّق من شخصٍ ما ويستمرّ في التحقّق منه، ويتنبّه إلى تغيّر منصبه في الأنظمة القانونية والسجلّات العامّة بشكلٍ متواصل؟ هكذا وُلدت فكرة التقييمات المستمرّة»
ولكنّ الشركات الخاصّة تمضي في طريقها باستخدام برمجياتها المعزّزة بالمراقبة. لفتت ليندي كايزر، من شركة «كليرنس جوبز»، إلى أنّ «موظفي القطاع الخاص لا يواجهون صرامة استمارات التصاريح التي تتألّف من أكثر من 136 صفحة، ولكنّ الشركات الخاصة تساعد في تطوير تقنيات (المراقبة المستمرّة) لصالح الحكومة الفيدرالية»، لافتةً إلى «أنّ أي حلّ من هذا النوع سيشمل تطبيقات من القطاع الخاص».+
أخلاقيات المراقبة
وتابعت كايزر أنّ «القانون يمنح أرباب العمل درجة عالية من الحريّة للمراقبة، ليس فقط في مكان العمل، بل خارجه أيضاً، مع تفاوت درجة صراحة المعلومات التي يحصلون عليها من المراقبة».
من جهته، اعترف إريك شاو، عالم نفس إكلينيكي وباحث مشارك في دراسة نُشرت عام 2015، بوجود نقاط ضعف في نموذج المراقبة هذا، أبرزها غياب مجموعة تفرض سيطرة كاملة على عمله. يصف هذا النموذج عناصر الخطر ولكنه لا يقدّم تنبؤات دقيقة حول الشخص الذي يمثّل تهديداً حقيقياً.
ويتساءل الدكتور شو: «ماذا عن الحالات التي يملك فيها الموظّف كلّ مؤشرات الخطر ولكنّه لم يتحوّل إلى تهديدٍ داخلي؟».
بدوره، ساعد إدوارد ستروز، زميل الدكتور شو وعميل سابق في مكتب التحقيقات الفيدرالية (إف بي آي)، في تطبيق مبادئ دقيقة المسار لتحليل التواصل عبر النصوص كرسائل البريد الإلكتروني والرسائل النصية بين أرباب العمل. أسّس ستروز شركة التحليل الجنائي السيبراني «ستروز فرايدبيرغ» التي عمل فيها الدكتور شو سابقاً كمحلّل نفسي استشاري.
تستخدم حزمة البرمجيات اللغوية المسمّاة «سكاوت SCOUT» التي تقدّمها الشركة، التحليل النفسي اللغوي للبحث عن إشارات وأمور أخرى قد تدلّ على وجود مشاعر السخط كالإيذاء والغضب والملامة. وفي هذا الإطار، اعتبر ستروز أنّ «اللغة تتغيّر بشكلٍ دقيق لا ينتبه له النّاس».
أظهر أحدث اختبار منشور لهذه البرمجيات –شمل 50 مليون رسالة من نحو 69 ألف مرسل– أنّ 383 رسالة من 137 مرسلاً أُحيلت بعد ترشيحها للمراجعة من محلّل متدرّب. ولفت ستروز إلى أنّ هذا الرقم الصغير يدلّ على أنّ هذا النظام يحمي خصوصية الأشخاص لأنّه يحيل الرسائل المقلقة فقط للمراجعة البشرية. وأضاف أنّ «العدد الصغير للرسائل الإلكترونية المرصودة لهذه الغاية يجب أن يُشعِر الناس بالراحة».
خلال التجربة، أعطى البرنامج نتائج إيجابية خاطئة بمعدّل الثلث، أي وسم أحدهم بالخطر حتّى ولو لم يوحِ بذلك. وأخيراً، شدّد ستروز على وجود وسائل تساعد في اعتماد هذه المراقبة بشكلٍ أخلاقي –كتطبيق الشفافية، وتقديم الفكرة على مراحل، والحفاظ على سريّة التحليل إلّا في حال ظهور مشكلات.
* خدمة «نيويورك تايمز»



«أبل» تعتزم فتح «سيري» أمام خدمات الذكاء الاصطناعي المنافِسة

يظهر شعار شركة «أبل» على مبنى في حي مانهاتن بمدينة نيويورك الأميركية (د.ب.أ)
يظهر شعار شركة «أبل» على مبنى في حي مانهاتن بمدينة نيويورك الأميركية (د.ب.أ)
TT

«أبل» تعتزم فتح «سيري» أمام خدمات الذكاء الاصطناعي المنافِسة

يظهر شعار شركة «أبل» على مبنى في حي مانهاتن بمدينة نيويورك الأميركية (د.ب.أ)
يظهر شعار شركة «أبل» على مبنى في حي مانهاتن بمدينة نيويورك الأميركية (د.ب.أ)

ذكرت «بلومبيرغ نيوز»، اليوم الخميس، أن «أبل» تخطط لفتح مساعدها الصوتي «سيري» أمام خدمات ​الذكاء الاصطناعي المنافِسة، بما يتجاوز شراكتها الحالية مع «تشات جي بي تي».

وقالت الوكالة، في تقريرها الذي نقلته عن مصادر مطّلعة، إن هذه الخطوة، المتوقعة ضِمن تحديث نظام التشغيل «آي أو إس 27» من «أبل»، ستسمح لتطبيقات الذكاء الاصطناعي التابعة لجهات خارجية بالاندماج مباشرة مع «سيري»، مما يمكّن المستخدمين من توجيه الاستفسارات إلى خدمات مثل «جيميناي» التابعة لشركة «ألفابت»، أو «كلود» التابعة لشركة «أنثروبيك» من داخل المساعد.

وهذا التغيير تحول مهم في استراتيجية «أبل» للذكاء الاصطناعي، إذ تسعى الشركة إلى اللحاق بركب نظيراتها في وادي السيليكون، ووضع «آيفون» كمنصة أوسع للذكاء الاصطناعي.

و«سيري»، الذي أُطلق لأول مرة منذ أكثر من عقد، عنصر أساسي في هذا المسعى. وأفادت «بلومبيرغ نيوز» بأن «أبل» تُطور أدوات تسمح لتطبيقات روبوتات الدردشة المثبتة عبر متجر التطبيقات الخاص بها بالعمل مع «سيري» وميزات أخرى ضِمن منصة «أبل إنتليجنس». وسيتمكن المستخدمون من اختيار خدمة الذكاء الاصطناعي التي تتولى معالجة كل طلب.

وذكر التقرير أن هذا التحديث قد يساعد «أبل» أيضاً على تحقيق مزيد من الإيرادات من خلال الحصول على حصة من الاشتراكات المبيعة عبر خدمات الذكاء الاصطناعي التابعة لجهات خارجية.

ومن المتوقع أن تستعرض «أبل» ميزات البرنامج الجديدة في مؤتمر المطورين العالمي الذي تعقده في يونيو (حزيران) المقبل، غير أن الخطط قد تتغير.


البرلمان الأوروبي يحظر أدوات ذكاء اصطناعي «تعرّي» أشخاصاً

شعار روبوت الدردشة «غروك» يظهر على شاشتين (أ.ف.ب)
شعار روبوت الدردشة «غروك» يظهر على شاشتين (أ.ف.ب)
TT

البرلمان الأوروبي يحظر أدوات ذكاء اصطناعي «تعرّي» أشخاصاً

شعار روبوت الدردشة «غروك» يظهر على شاشتين (أ.ف.ب)
شعار روبوت الدردشة «غروك» يظهر على شاشتين (أ.ف.ب)

أقرّ البرلمان الأوروبي، الخميس، قانوناً يحظّر استخدام الذكاء الاصطناعي لـ«تعرية» الأشخاص من دون موافقتهم.

وتمّ تبني القرار في نصّ أُقرّ بأغلبية ساحقة (569 صوتاً مقابل 45 صوتاً معارضاً) خلال جلسة عامة للبرلمان في بروكسل، وفقاً لـ«وكالة الصحافة الفرنسية».

وأوضح بيان صادر عن البرلمان أن الأمر يتعلّق بحظر برامج «التعرية» التي «تستخدم الذكاء الاصطناعي لإنشاء أو التلاعب بصور ذات إيحاءات جنسية واضحة، أو صور في وضع حميم تشبه شخصاً حقيقياً يمكن التعرّف عليه، من دون موافقة هذا الشخص».

ولا يطبّق النص على أنظمة الذكاء الاصطناعي المزوّدة «بتدابير أمنية فعّالة» تحول دون هذه الممارسات.

وكانت دول الاتحاد الأوروبي أقرّت هذا الشهر إجراء مشابهاً. وسيتعيّن عليها الآن التفاوض مع البرلمان للتوصل إلى صياغة متقاربة، قبل أن يصبح من الممكن تطبيق الإجراء.

وتأتي هذه المبادرات خصوصاً بعد إدخال خاصية قبل بضعة أشهر في تطبيق «غروك» للذكاء الاصطناعي تتيح للمستخدمين أن يطلبوا منه تركيب صور مزيفة قريبة جداً من الواقعية (ديب فيك) لنساء وأطفال عراة، انطلاقاً من صور حقيقية.

وأثارت هذه القضية موجة استنكار في العديد من الدول ودفعت الاتحاد الأوروبي إلى فتح تحقيق.

كما وافق البرلمان في النص ذاته، على إرجاء دخول قوانين أوروبية جديدة حيّز التنفيذ بشأن أنظمة الذكاء الاصطناعي ذات المخاطر العالية، أي تلك العاملة في مجالات حساسة كالأمن أو الصحة أو الحقوق الأساسية.

وكان من المفترض أن تدخل هذه القواعد حيّز التنفيذ في أغسطس (آب) 2026. وعلى غرار الدول الأعضاء، اقترح النواب الأوروبيون تاريخين محدّدين لهذا التأجيل، في حين كانت المفوضية الأوروبية تريد منح الشركات جدولاً زمنياً أكثر مرونة.

والتاريخان هما: الثاني من ديسمبر (كانون الأول) 2027 للأنظمة المستقلة ذات المخاطر العالية، والثاني من أغسطس (آب) 2028 للأنظمة المدمجة في برامج أو منتجات أخرى.


«هيوماين» و«Turing» تطلقان سوقاً عالمية لوكلاء الذكاء الاصطناعي للمؤسسات

تجمع الشراكة بين البنية التحتية والنماذج لدى «هيوماين» وخبرة «Turing» في تطوير وتقييم أنظمة الذكاء الاصطناعي (هيوماين)
تجمع الشراكة بين البنية التحتية والنماذج لدى «هيوماين» وخبرة «Turing» في تطوير وتقييم أنظمة الذكاء الاصطناعي (هيوماين)
TT

«هيوماين» و«Turing» تطلقان سوقاً عالمية لوكلاء الذكاء الاصطناعي للمؤسسات

تجمع الشراكة بين البنية التحتية والنماذج لدى «هيوماين» وخبرة «Turing» في تطوير وتقييم أنظمة الذكاء الاصطناعي (هيوماين)
تجمع الشراكة بين البنية التحتية والنماذج لدى «هيوماين» وخبرة «Turing» في تطوير وتقييم أنظمة الذكاء الاصطناعي (هيوماين)

في خطوة تعكس تسارع الاهتمام بتطبيقات الذكاء الاصطناعي داخل المؤسسات، أعلنت «هيوماين»، التابعة لصندوق الاستثمارات العامة، عن شراكة مع شركة «Turing» المتخصصة في تطوير أنظمة الذكاء الاصطناعي، بهدف إنشاء سوق عالمية لوكلاء الذكاء الاصطناعي ضمن منصة «HUMAIN ONE».

وتتمحور الفكرة حول توفير بيئة تمكّن الشركات من اكتشاف هذه الوكلاء وتطبيقها وتوسيع استخدامها عبر وظائف مختلفة، مثل الموارد البشرية والمالية والعمليات، في محاولة لتسريع الانتقال من استخدام أدوات رقمية تقليدية إلى نماذج تشغيل أكثر اعتماداً على الأتمتة الذكية.

يفتح المشروع المجال أمام المطورين لنشر حلولهم وبناء منظومة أوسع لما يُعرف بـ«اقتصاد الوكلاء» (شاترستوك)

منصات التشغيل الذكي

الشراكة تجمع بين ما تطوره «هيوماين» من بنية تحتية ونماذج ذكاء اصطناعي، وبين خبرة «Turing» في تقييم النماذج وضبطها وتطبيقها في بيئات العمل. الهدف المعلن هو الوصول إلى وكلاء ذكاء اصطناعي يمكن استخدامها على نطاق واسع داخل المؤسسات، وليس فقط في التجارب أو النماذج الأولية.

ويُتوقع أن يشكّل هذا السوق طبقة جديدة ضمن ما يُعرف بنماذج التشغيل القائمة على الوكلاء، حيث لا تقتصر البرمجيات على دعم سير العمل، بل تبدأ في تنفيذه بشكل مباشر. وفي هذا السياق، يمكن للمؤسسات الوصول إلى وكلاء متخصصين حسب الوظيفة أو القطاع، ضمن بيئة مصممة لتكون قابلة للتوسع ومراعية لمتطلبات الأمان.

كما يفتح هذا التوجه المجال أمام المطورين وشركات التقنية لنشر حلولهم عبر المنصة، ما قد يساهم في بناء منظومة أوسع لوكلاء الذكاء الاصطناعي، تتجاوز حدود المؤسسات الفردية إلى سوق أكثر تكاملاً.

وتشير «هيوماين» إلى أن هذه الخطوة تأتي ضمن رؤية أوسع لإعادة تعريف كيفية بناء البرمجيات واستخدامها داخل المؤسسات، عبر الانتقال من نموذج «البرمجيات كخدمة» إلى بيئات تعتمد على وكلاء قادرين على تنفيذ المهام والتعلم والتفاعل بشكل مستمر.

يعكس هذا التوجه تحولاً نحو نماذج تشغيل جديدة تعتمد على وكلاء أذكياء بدلاً من البرمجيات التقليدية داخل المؤسسات

اقتصاد الوكلاء الناشئ

من جانبه، يرى طارق أمين، الرئيس التنفيذي لـ«هيوماين»، أن المرحلة المقبلة ستشهد تحولاً في طبيعة البرمجيات المستخدمة داخل المؤسسات، قائلاً إن «المؤسسات في المستقبل لن تُبنى حول تطبيقات منفصلة، بل حول وكلاء أذكياء يعملون إلى جانب الإنسان». ويضيف أن هذه الشراكة تسعى إلى تسريع بناء سوق يربط بين قدرات المطورين واحتياجات المؤسسات.

بدوره، أشار جوناثان سيدهارث، الرئيس التنفيذي والشريك المؤسس لـ«Turing»، إلى أن تحويل قدرات الذكاء الاصطناعي المتقدمة إلى تطبيقات عملية يمثل التحدي الأساسي حالياً، موضحاً أن بناء سوق قائم على الوكلاء قد يسهم في جعل هذه التقنيات أكثر ارتباطاً بالإنتاجية الفعلية داخل المؤسسات.

وتأتي هذه الشراكة أيضاً في سياق أوسع يعكس طموح السعودية لتكون لاعباً في تطوير تقنيات الذكاء الاصطناعي، ليس فقط من حيث الاستخدام، بل كمصدر للمنصات والحلول التقنية.

وبينما لا تزال فكرة «اقتصاد الوكلاء» في مراحل مبكرة، فإن الاتجاه نحو بناء منصات تجمع بين المطورين والمؤسسات يشير إلى تحول محتمل في طريقة تطوير البرمجيات وتبنيها. فبدلاً من شراء أدوات جاهزة، قد تتجه المؤسسات مستقبلاً إلى تشغيل منظومات من الوكلاء القادرين على تنفيذ مهام متكاملة عبر مختلف أقسام العمل.

في هذا الإطار، تبدو «HUMAIN ONE» محاولة لبناء هذه الطبقة التشغيلية الجديدة، حيث لا تقتصر القيمة على التكنولوجيا نفسها، بل على كيفية تنظيمها وتكاملها داخل بيئات العمل.