الشركات تراقب موظفيها لتحليل سلوكهم أثناء العمل

قد يعتمد بعضها على أنظمة تسيء تفسيره

الشركات تراقب موظفيها لتحليل سلوكهم أثناء العمل
TT

الشركات تراقب موظفيها لتحليل سلوكهم أثناء العمل

الشركات تراقب موظفيها لتحليل سلوكهم أثناء العمل

تعمد بعض الشركات الخاصّة إلى مراقبة الموظّفين بأنظمة قد ترتكز على أسسٍ غير موثوقة في علم السلوك.
هل تشكّلون «تهديداً داخلياً»؟ قد ترغب الشركة التي تعملون فيها بمعرفة ما إذا كنتم كذلك، إذ يخشى بعض أرباب العمل من احتمال تسريب الموظفين للمعلومات، أو سماحهم لآخرين بالوصول إلى ملفّات سريّة، أو التواصل مع الزبائن بشكلٍ غير لائق، أو حتّى إحضار مسدّسٍ إلى المكتب.
تقييم آلي للسلوك
ولمعالجة هذه المخاوف، تُخضع بعض الشركات الموظّفين لتقييمات شبه آلية وشبه مستمرّة تركّز على الموثوقية من خلال استخدام أدوات علم السلوك وأبرزها التحليل النفسي.
تشبه اللغة المحيطة بهذا النوع من مراقبة الموظفين، تلك اللغة المستخدمة داخل الدوائر الحكومية، حيث تعكف مؤسسات القطاع العام على تقييم الموظّفين الحاصلين على تصريحات أمنية للتعامل مع معلومات حسّاسة مرتبطة بالاستخبارات أو الأمن القومي. وتقدّم المنظّمات المنتجة لبرمجيات المراقبة والتحليل السلوكي لصالح الوكالات الفيدرالية أدوات مشابهة للشركات الخاصّة، إمّا بشكلٍ منفصل أو في حزم تضمّ أدوات سيبرانية أوسع.
يقول توم ميلر، الرئيس التنفيذي لشركة «كلير فورس” التي تبيع خدمات رصد التهديد الداخلي لزبائن من القطاع الخاص: «عندما نفكّر بالتهديد الداخلي بشكلٍ عام، يبدأ الموضوع من الدوائر الحكومية، ومن ثمّ يتوسّع ليطال القطاع الخاص والقطاع التجاري».
سلوك كومبيوتري
ترصد هذه البرمجيات السلوك الكومبيوتري المثير للشكّ وتبحث بعمق في تقارير رصيد الموظّف وسجلّه العدلي وتحديثات وضعه الاجتماعي، كما تستطيع مراقبة موظف معيّن لمعرفة ما إذا كان يحمّل كميات كبيرة من البيانات السحابية، وتُجري تحليلاً لمشاعره لتبيان ما إذا كان يزداد غضباً مع الوقت. وتدّعي الشركات التي تراقب التهديدات الداخلية أنّ تحليل هذه البيانات يسهم في رصد مشكلات محتملة في مكان العمل.
ولكنّ الاهتمام برصد التهديدات الداخلية في القطاع الخاص يثير الكثير من المسائل الأخلاقية حول درجة المراقبة التي يجب أن يخضع لها الموظفون غير الحكوميين، بالإضافة إلى مسألة مهمّة أخرى وهي الارتكاز على أسسٍ علمية غير موثوقة.
اعتمدت عملية منح التراخيص الأمنية الصادرة عن الحكومات الفيدرالية لعقود على تقنيات نشأت في منتصف القرن العشرين. ويرى إيفان ليسير، مدير موقع «كليرنس جوبز» المتخصص في نشر فرص العمل التي تتطلّب تصاريح أمنية، والأخبار والاستشارات في هذا المجال، أنّ «هذه الطريقة يدوية جداً، وأنّ القيادة والذهاب لمقابلة النّاس شخصياً وسيلة قديمة وتتطلّب الكثير من الوقت».
ولكنّ في عام 2018، اعتمدت مبادرة فيدرالية تحت عنوان «قوى العمل الموثوقة 2.0» تحليلاً شبه آلي للموظفين الفيدراليين يُجرى في الوقت الحقيقي. يتيح هذا البرنامج للحكومة استخدام الذكاء الصناعي لإخضاع الموظفين الذي يطلبون تصاريح أمنية أو حازوها، لـ«تدقيقٍ وتقييمٍ متواصلين» –أي تقييم يحصل على المعلومات بشكلٍ متواصل، ويُصدر التحذيرات، ويشمل تقارير ذاتية وتحليلٍاً بشرياً.
من جهته، تساءل كريس غريجالفا، المدير التقني الأوّل في شركة «بيراتون» التي تركّز في عملها على الطرف الحكومي في التحليل الداخلي: «هل يمكننا بناء نظام يتحقّق من شخصٍ ما ويستمرّ في التحقّق منه، ويتنبّه إلى تغيّر منصبه في الأنظمة القانونية والسجلّات العامّة بشكلٍ متواصل؟ هكذا وُلدت فكرة التقييمات المستمرّة»
ولكنّ الشركات الخاصّة تمضي في طريقها باستخدام برمجياتها المعزّزة بالمراقبة. لفتت ليندي كايزر، من شركة «كليرنس جوبز»، إلى أنّ «موظفي القطاع الخاص لا يواجهون صرامة استمارات التصاريح التي تتألّف من أكثر من 136 صفحة، ولكنّ الشركات الخاصة تساعد في تطوير تقنيات (المراقبة المستمرّة) لصالح الحكومة الفيدرالية»، لافتةً إلى «أنّ أي حلّ من هذا النوع سيشمل تطبيقات من القطاع الخاص».+
أخلاقيات المراقبة
وتابعت كايزر أنّ «القانون يمنح أرباب العمل درجة عالية من الحريّة للمراقبة، ليس فقط في مكان العمل، بل خارجه أيضاً، مع تفاوت درجة صراحة المعلومات التي يحصلون عليها من المراقبة».
من جهته، اعترف إريك شاو، عالم نفس إكلينيكي وباحث مشارك في دراسة نُشرت عام 2015، بوجود نقاط ضعف في نموذج المراقبة هذا، أبرزها غياب مجموعة تفرض سيطرة كاملة على عمله. يصف هذا النموذج عناصر الخطر ولكنه لا يقدّم تنبؤات دقيقة حول الشخص الذي يمثّل تهديداً حقيقياً.
ويتساءل الدكتور شو: «ماذا عن الحالات التي يملك فيها الموظّف كلّ مؤشرات الخطر ولكنّه لم يتحوّل إلى تهديدٍ داخلي؟».
بدوره، ساعد إدوارد ستروز، زميل الدكتور شو وعميل سابق في مكتب التحقيقات الفيدرالية (إف بي آي)، في تطبيق مبادئ دقيقة المسار لتحليل التواصل عبر النصوص كرسائل البريد الإلكتروني والرسائل النصية بين أرباب العمل. أسّس ستروز شركة التحليل الجنائي السيبراني «ستروز فرايدبيرغ» التي عمل فيها الدكتور شو سابقاً كمحلّل نفسي استشاري.
تستخدم حزمة البرمجيات اللغوية المسمّاة «سكاوت SCOUT» التي تقدّمها الشركة، التحليل النفسي اللغوي للبحث عن إشارات وأمور أخرى قد تدلّ على وجود مشاعر السخط كالإيذاء والغضب والملامة. وفي هذا الإطار، اعتبر ستروز أنّ «اللغة تتغيّر بشكلٍ دقيق لا ينتبه له النّاس».
أظهر أحدث اختبار منشور لهذه البرمجيات –شمل 50 مليون رسالة من نحو 69 ألف مرسل– أنّ 383 رسالة من 137 مرسلاً أُحيلت بعد ترشيحها للمراجعة من محلّل متدرّب. ولفت ستروز إلى أنّ هذا الرقم الصغير يدلّ على أنّ هذا النظام يحمي خصوصية الأشخاص لأنّه يحيل الرسائل المقلقة فقط للمراجعة البشرية. وأضاف أنّ «العدد الصغير للرسائل الإلكترونية المرصودة لهذه الغاية يجب أن يُشعِر الناس بالراحة».
خلال التجربة، أعطى البرنامج نتائج إيجابية خاطئة بمعدّل الثلث، أي وسم أحدهم بالخطر حتّى ولو لم يوحِ بذلك. وأخيراً، شدّد ستروز على وجود وسائل تساعد في اعتماد هذه المراقبة بشكلٍ أخلاقي –كتطبيق الشفافية، وتقديم الفكرة على مراحل، والحفاظ على سريّة التحليل إلّا في حال ظهور مشكلات.
* خدمة «نيويورك تايمز»



مؤتمر «مايكروسوفت إغنايت 2024» يكشف عن أبرز نزعات الذكاء الاصطناعي المقبلة

يستعرض مؤتمر «مايكروسوفت إغنايت 2024» أبرز تقنيات الذكاء الاصطناعي المقبلة
يستعرض مؤتمر «مايكروسوفت إغنايت 2024» أبرز تقنيات الذكاء الاصطناعي المقبلة
TT

مؤتمر «مايكروسوفت إغنايت 2024» يكشف عن أبرز نزعات الذكاء الاصطناعي المقبلة

يستعرض مؤتمر «مايكروسوفت إغنايت 2024» أبرز تقنيات الذكاء الاصطناعي المقبلة
يستعرض مؤتمر «مايكروسوفت إغنايت 2024» أبرز تقنيات الذكاء الاصطناعي المقبلة

تنتهي اليوم فعاليات مؤتمر «مايكروسوفت إغنايت 2024» (Microsoft Ignite) السنوي في مدينة شيكاغو الأميركية، بحضور تجاوز 14 ألف زائر، الذي استعرضت «مايكروسوفت» خلال أيامه الثلاثة أكثر من 80 خدمة ومنتجاً وميزة مرتبطة بالذكاء الاصطناعي.

الذكاء الاصطناعي بخدمة الموظفين

طوّرت الشركة خدمة «مايكروسوفت 365 كوبايلوت» (Microsoft 365 Copilot) الخاصة بالشركات، مقدمة «أفعال كوبايلوت» (Copilot Actions) التي تسمح بأتمتة المهام اليومية في مجال العمل بأوامر بسيطة، مثل الحصول على ملخص اجتماعات «تيمز» (Teams) في ذلك اليوم أو إعداد التقارير الأسبوعية أو تلخيص ما الذي يجب القيام به حسب الرسائل الواردة إلى بريد المستخدم والاجتماعات التي حدثت قبل عودته من إجازته السنوية، وغيرها.

 

 

«عملاء مايكروسوفت»

كشفت الشركة كذلك ميزة «عملاء مايكروسوفت» (Microsoft Agents) التي تسمح بالبحث في ملفات الشركة وتحليلها والإجابة على أسئلة الموظفين أو العملاء بكل خصوصية، وتلخيص النتائج بهدف تسريع اتخاذ قرارات العمل. وتعمل هذه الميزة في خدمة «شيربوينت» (SharePoint) لكل شركة.

 

 

 

المترجم الفوري

ويمكن لعميل ذكاء اصطناعي اسمه «المترجم الفوري» (Interpreter) ترجمة محادثات الاجتماعات المرئية في «تيمز» بهدف كسر الحواجز اللغوية والتركيز على جوهر الاجتماع، مع القدرة على محاكاة صوت المستخدم بلغة الطرف الثاني. ويمكن لعميل ذكي آخر اسمه «المُيَسِّر» (Facilitator) تلخيص اجتماعات «تيمز» وأتمتة إدارة المشاريع عبر جميع مراحلها. كما يستطيع بعض عملاء الذكاء الاصطناعي مساعدة الموظفين على حلّ مشاكلهم التقنية دون الحاجة للعودة إلى قسم الدعم الفني، والإجابة على أسئلتهم المتعلقة بسياسات الشركة والموارد البشرية والمشتريات، وغيرها.

الذكاء الاصطناعي رفيق المبرمجين

ولتسهيل تضمين تقنيات الذكاء الاصطناعي في برامج الشركات والأفراد، تقدم «مايكروسوفت» ما تسميه بـ«مسبك آجور للذكاء الاصطناعي» (Azure AI Foundry) الذي يوفر مجموعة برمجية للذكاء الاصطناعي وبوابة لتطوير عملاء الذكاء الاصطناعي.

وتوفر هذه المجموعة البرمجية أكثر من 25 قالباً مسبق الإعداد (Template) للذكاء الاصطناعي تسمح بتطوير تطبيقات مدعومة بهذه التقنية وتبسيط عملية البرمجة ونشرها عبر منصات «غيتهاب» (Github) و«فيجوال ستوديو» (Visual Studio) و«كوبايلوت ستوديو» (Copilot Studio). وتسمح البوابة للمبرمجين اكتشاف خدمات وأدوات ونماذج ذكاء اصطناعي تناسب احتياجاتهم واحتياجات الشركات التي يعملون لديها.

حماية المستخدمين

حذّرت «مايكروسوفت» أن عدد الهجمات الإلكترونية التي تستهدف سرقة كلمات السرّ قد ارتفع خلال آخر 3 أعوام من 579 إلى أكثر من 7000 هجمة في كل ثانية، مع مضاعفة العدد في آخر سنة، ما يضع سبل الحماية التقليدية في موضع لا يسمح لها اللحاق بتقدم القراصنة.

مبادرة المستقبل الآمن

هذا الأمر يتطلب إعادة تطوير عملية حماية المستخدمين، ما دفع الشركة إلى إطلاق «مبادرة المستقبل الآمن» (Secure Future Initiative) التي طلبت من 34000 مهندس العمل على أكبر مشروع للأمن الرقمي بتاريخ البشرية وتطوير مقاومة البرامج ونظم التشغيل وأجهزة المستخدمين لطوفان الهجمات الرقمية الذي تتسارع وتيرته في كل يوم.

وكشفت كذلك عن عملها على تطوير «مايكروسوفت سيكيوريتي إكسبوجر مانجمنت» (Microsoft Security Exposure Management) الذي يقوم بتحليل آلية تواصل الأجهزة المختلفة والبيانات والهوية الرقمية والشبكات، بعضها مع بعض، داخل بيئة العمل واكتشاف العلاقات بينها وعرض مسار الاختراقات الممكنة لأي قرصان إلكتروني، وذلك لاكتشاف نقطة الضعف في البيئة المعقدة التي يمكن للقراصنة الدخول منها، وتوقع هدفهم وتتبع المسار المفترض لهم عبر الأجهزة المختلفة للوصول إلى الهوية الرقمية أو البيانات الحساسة، ومن ثم حماية ذلك المسار بشكل استباقي على صعيد سدّ الثغرات في الأجهزة أو البرامج أو نظام التشغيل أو الشبكة، وغيرها من العوامل الأخرى. كما يستطيع هذا المشروع التأكد من سلامة الاحتياطات الأمنية للفريق التقني داخل الشركة.

وأطلقت الشركة نظام «مايكروسوفت سيكيوريتي كوبايلوت» (Microsoft Security Copilot) المدعوم بالذكاء الاصطناعي للقيام بالوظائف الأمنية باستخدام الذكاء الاصطناعي بكل سلاسة وسهولة، حيث أظهرت الدراسات انخفاض معدل مدة حلّ المشاكل الأمنية لدى استخدام هذا النظام بنحو 30 في المائة.

أجهزة الذكاء الاصطناعي

واستعرضت الشركة أول جهاز من فئته، مصنوع خصيصاً للاتصال بأمان مع خدمة «ويندوز 365» السحابية، اسمه «ويندوز 365 لينك» (Windows 365 Link).

الجهاز بسيط وآمن، وسيتم إطلاقه في أبريل (نيسان) 2025 المقبل، بسعر 349 دولاراً أميركياً، ويسمح للمستخدمين بالعمل بأمان مع نظام التشغيل «ويندوز» السحابي بكل سرعة وموثوقية.

ولا يقوم الجهاز بتخزين أي بيانات داخله، ولا يقوم بتثبيت أي برامج فيه، مع تقديم وحدة معالجة للذكاء الاصطناعي مدمجة فيه لتسريع التفاعل مع البيانات والحصول على النتائج بكل سلاسة.

 

تحليل علوم الأرض

وعلى الصعيد نفسه، تعاونت وكالة الفضاء الأميركية «ناسا» مع «مايكروسوفت» لتطوير أداة مدعومة بالذكاء الاصطناعي اسمها «كوبايلوت الأرض» (Earth Copilot) تهدف إلى تبسيط عملية تحليل البيانات المرتبطة بعلوم الأرض التي تجمعها الأقمار الاصطناعية الخاصة بـ«ناسا». وسيتم نشر هذه البيانات المعقدة للجميع بهدف مشاركة المعلومات المهمة مع العلماء والباحثين والطلاب والمدرسين وصناع السياسات وعموم الناس.

وستستخدم الوكالة خدمة «آجور أوبين إيه آي» (Azure OpenAI Service) لتذليل العقبات التقنية وتمكين المجموعات المختلفة للمستخدمين من التفاعل مع البيانات العلمية لكوكب الأرض، ما يدل على الأبواب التي يفتحها الذكاء الاصطناعي لتسهيل وتبسيط عملية التعليم والبحث وتحليل مجموعات البيانات الضخمة في المجالات العلمية وسنّ السياسات، وفي مجالات الزراعة والتخطيط الحضري والاستجابة في حالات الكوارث، وغيرها.

ويمكن زيارة الموقع من هذا الرابط: www.earthdata.nasa.gov/dashboard