الشركات تراقب موظفيها لتحليل سلوكهم أثناء العمل

قد يعتمد بعضها على أنظمة تسيء تفسيره

الشركات تراقب موظفيها لتحليل سلوكهم أثناء العمل
TT

الشركات تراقب موظفيها لتحليل سلوكهم أثناء العمل

الشركات تراقب موظفيها لتحليل سلوكهم أثناء العمل

تعمد بعض الشركات الخاصّة إلى مراقبة الموظّفين بأنظمة قد ترتكز على أسسٍ غير موثوقة في علم السلوك.
هل تشكّلون «تهديداً داخلياً»؟ قد ترغب الشركة التي تعملون فيها بمعرفة ما إذا كنتم كذلك، إذ يخشى بعض أرباب العمل من احتمال تسريب الموظفين للمعلومات، أو سماحهم لآخرين بالوصول إلى ملفّات سريّة، أو التواصل مع الزبائن بشكلٍ غير لائق، أو حتّى إحضار مسدّسٍ إلى المكتب.
تقييم آلي للسلوك
ولمعالجة هذه المخاوف، تُخضع بعض الشركات الموظّفين لتقييمات شبه آلية وشبه مستمرّة تركّز على الموثوقية من خلال استخدام أدوات علم السلوك وأبرزها التحليل النفسي.
تشبه اللغة المحيطة بهذا النوع من مراقبة الموظفين، تلك اللغة المستخدمة داخل الدوائر الحكومية، حيث تعكف مؤسسات القطاع العام على تقييم الموظّفين الحاصلين على تصريحات أمنية للتعامل مع معلومات حسّاسة مرتبطة بالاستخبارات أو الأمن القومي. وتقدّم المنظّمات المنتجة لبرمجيات المراقبة والتحليل السلوكي لصالح الوكالات الفيدرالية أدوات مشابهة للشركات الخاصّة، إمّا بشكلٍ منفصل أو في حزم تضمّ أدوات سيبرانية أوسع.
يقول توم ميلر، الرئيس التنفيذي لشركة «كلير فورس” التي تبيع خدمات رصد التهديد الداخلي لزبائن من القطاع الخاص: «عندما نفكّر بالتهديد الداخلي بشكلٍ عام، يبدأ الموضوع من الدوائر الحكومية، ومن ثمّ يتوسّع ليطال القطاع الخاص والقطاع التجاري».
سلوك كومبيوتري
ترصد هذه البرمجيات السلوك الكومبيوتري المثير للشكّ وتبحث بعمق في تقارير رصيد الموظّف وسجلّه العدلي وتحديثات وضعه الاجتماعي، كما تستطيع مراقبة موظف معيّن لمعرفة ما إذا كان يحمّل كميات كبيرة من البيانات السحابية، وتُجري تحليلاً لمشاعره لتبيان ما إذا كان يزداد غضباً مع الوقت. وتدّعي الشركات التي تراقب التهديدات الداخلية أنّ تحليل هذه البيانات يسهم في رصد مشكلات محتملة في مكان العمل.
ولكنّ الاهتمام برصد التهديدات الداخلية في القطاع الخاص يثير الكثير من المسائل الأخلاقية حول درجة المراقبة التي يجب أن يخضع لها الموظفون غير الحكوميين، بالإضافة إلى مسألة مهمّة أخرى وهي الارتكاز على أسسٍ علمية غير موثوقة.
اعتمدت عملية منح التراخيص الأمنية الصادرة عن الحكومات الفيدرالية لعقود على تقنيات نشأت في منتصف القرن العشرين. ويرى إيفان ليسير، مدير موقع «كليرنس جوبز» المتخصص في نشر فرص العمل التي تتطلّب تصاريح أمنية، والأخبار والاستشارات في هذا المجال، أنّ «هذه الطريقة يدوية جداً، وأنّ القيادة والذهاب لمقابلة النّاس شخصياً وسيلة قديمة وتتطلّب الكثير من الوقت».
ولكنّ في عام 2018، اعتمدت مبادرة فيدرالية تحت عنوان «قوى العمل الموثوقة 2.0» تحليلاً شبه آلي للموظفين الفيدراليين يُجرى في الوقت الحقيقي. يتيح هذا البرنامج للحكومة استخدام الذكاء الصناعي لإخضاع الموظفين الذي يطلبون تصاريح أمنية أو حازوها، لـ«تدقيقٍ وتقييمٍ متواصلين» –أي تقييم يحصل على المعلومات بشكلٍ متواصل، ويُصدر التحذيرات، ويشمل تقارير ذاتية وتحليلٍاً بشرياً.
من جهته، تساءل كريس غريجالفا، المدير التقني الأوّل في شركة «بيراتون» التي تركّز في عملها على الطرف الحكومي في التحليل الداخلي: «هل يمكننا بناء نظام يتحقّق من شخصٍ ما ويستمرّ في التحقّق منه، ويتنبّه إلى تغيّر منصبه في الأنظمة القانونية والسجلّات العامّة بشكلٍ متواصل؟ هكذا وُلدت فكرة التقييمات المستمرّة»
ولكنّ الشركات الخاصّة تمضي في طريقها باستخدام برمجياتها المعزّزة بالمراقبة. لفتت ليندي كايزر، من شركة «كليرنس جوبز»، إلى أنّ «موظفي القطاع الخاص لا يواجهون صرامة استمارات التصاريح التي تتألّف من أكثر من 136 صفحة، ولكنّ الشركات الخاصة تساعد في تطوير تقنيات (المراقبة المستمرّة) لصالح الحكومة الفيدرالية»، لافتةً إلى «أنّ أي حلّ من هذا النوع سيشمل تطبيقات من القطاع الخاص».+
أخلاقيات المراقبة
وتابعت كايزر أنّ «القانون يمنح أرباب العمل درجة عالية من الحريّة للمراقبة، ليس فقط في مكان العمل، بل خارجه أيضاً، مع تفاوت درجة صراحة المعلومات التي يحصلون عليها من المراقبة».
من جهته، اعترف إريك شاو، عالم نفس إكلينيكي وباحث مشارك في دراسة نُشرت عام 2015، بوجود نقاط ضعف في نموذج المراقبة هذا، أبرزها غياب مجموعة تفرض سيطرة كاملة على عمله. يصف هذا النموذج عناصر الخطر ولكنه لا يقدّم تنبؤات دقيقة حول الشخص الذي يمثّل تهديداً حقيقياً.
ويتساءل الدكتور شو: «ماذا عن الحالات التي يملك فيها الموظّف كلّ مؤشرات الخطر ولكنّه لم يتحوّل إلى تهديدٍ داخلي؟».
بدوره، ساعد إدوارد ستروز، زميل الدكتور شو وعميل سابق في مكتب التحقيقات الفيدرالية (إف بي آي)، في تطبيق مبادئ دقيقة المسار لتحليل التواصل عبر النصوص كرسائل البريد الإلكتروني والرسائل النصية بين أرباب العمل. أسّس ستروز شركة التحليل الجنائي السيبراني «ستروز فرايدبيرغ» التي عمل فيها الدكتور شو سابقاً كمحلّل نفسي استشاري.
تستخدم حزمة البرمجيات اللغوية المسمّاة «سكاوت SCOUT» التي تقدّمها الشركة، التحليل النفسي اللغوي للبحث عن إشارات وأمور أخرى قد تدلّ على وجود مشاعر السخط كالإيذاء والغضب والملامة. وفي هذا الإطار، اعتبر ستروز أنّ «اللغة تتغيّر بشكلٍ دقيق لا ينتبه له النّاس».
أظهر أحدث اختبار منشور لهذه البرمجيات –شمل 50 مليون رسالة من نحو 69 ألف مرسل– أنّ 383 رسالة من 137 مرسلاً أُحيلت بعد ترشيحها للمراجعة من محلّل متدرّب. ولفت ستروز إلى أنّ هذا الرقم الصغير يدلّ على أنّ هذا النظام يحمي خصوصية الأشخاص لأنّه يحيل الرسائل المقلقة فقط للمراجعة البشرية. وأضاف أنّ «العدد الصغير للرسائل الإلكترونية المرصودة لهذه الغاية يجب أن يُشعِر الناس بالراحة».
خلال التجربة، أعطى البرنامج نتائج إيجابية خاطئة بمعدّل الثلث، أي وسم أحدهم بالخطر حتّى ولو لم يوحِ بذلك. وأخيراً، شدّد ستروز على وجود وسائل تساعد في اعتماد هذه المراقبة بشكلٍ أخلاقي –كتطبيق الشفافية، وتقديم الفكرة على مراحل، والحفاظ على سريّة التحليل إلّا في حال ظهور مشكلات.
* خدمة «نيويورك تايمز»



هل وصل الذكاء الاصطناعي إلى حدوده القصوى؟

لوغو تطبيق «شات جي بي تي» (رويترز)
لوغو تطبيق «شات جي بي تي» (رويترز)
TT

هل وصل الذكاء الاصطناعي إلى حدوده القصوى؟

لوغو تطبيق «شات جي بي تي» (رويترز)
لوغو تطبيق «شات جي بي تي» (رويترز)

هل وصلت نماذج الذكاء الاصطناعي التوليدي إلى طريق مسدود؟ منذ إطلاق «تشات جي بي تي» قبل عامين، بعث التقدم الهائل في التكنولوجيا آمالاً في ظهور آلات ذات ذكاء قريب من الإنسان... لكن الشكوك في هذا المجال تتراكم.

وتعد الشركات الرائدة في القطاع بتحقيق مكاسب كبيرة وسريعة على صعيد الأداء، لدرجة أن «الذكاء الاصطناعي العام»، وفق تعبير رئيس «أوبن إيه آي» سام ألتمان، يُتوقع أن يظهر قريباً.

وتبني الشركات قناعتها هذه على مبادئ التوسع، إذ ترى أنه سيكون كافياً تغذية النماذج عبر زيادة كميات البيانات وقدرة الحوسبة الحاسوبية لكي تزداد قوتها، وقد نجحت هذه الاستراتيجية حتى الآن بشكل جيد لدرجة أن الكثيرين في القطاع يخشون أن يحصل الأمر بسرعة زائدة وتجد البشرية نفسها عاجزة عن مجاراة التطور.

وأنفقت مايكروسوفت (المستثمر الرئيسي في «أوبن إيه آي»)، و«غوغل»، و«أمازون»، و«ميتا» وغيرها من الشركات مليارات الدولارات وأطلقت أدوات تُنتج بسهولة نصوصاً وصوراً ومقاطع فيديو عالية الجودة، وباتت هذه التكنولوجيا الشغل الشاغل للملايين.

وتعمل «إكس إيه آي»، شركة الذكاء الاصطناعي التابعة لإيلون ماسك، على جمع 6 مليارات دولار، بحسب «سي إن بي سي»، لشراء مائة ألف شريحة من تصنيع «نفيديا»، المكونات الإلكترونية المتطورة المستخدمة في تشغيل النماذج الكبيرة.

وأنجزت «أوبن إيه آي» عملية جمع أموال كبيرة بقيمة 6.6 مليار دولار في أوائل أكتوبر (تشرين الأول)، قُدّرت قيمتها بـ157 مليار دولار.

وقال الخبير في القطاع غاري ماركوس «تعتمد التقييمات المرتفعة إلى حد كبير على فكرة أن النماذج اللغوية ستصبح من خلال التوسع المستمر، ذكاء اصطناعياً عاماً». وأضاف «كما قلت دائماً، إنه مجرد خيال».

- حدود

وذكرت الصحافة الأميركية مؤخراً أن النماذج الجديدة قيد التطوير تبدو وكأنها وصلت إلى حدودها القصوى، ولا سيما في «غوغل»، و«أنثروبيك» (كلود)، و«أوبن إيه آي».

وقال بن هورويتز، المؤسس المشارك لـ«a16z»، وهي شركة رأسمال استثماري مساهمة في «أوبن إيه آي» ومستثمرة في شركات منافسة بينها «ميسترال»: «إننا نزيد (قوة الحوسبة) بالمعدل نفسه، لكننا لا نحصل على تحسينات ذكية منها».

أما «أورايون»، أحدث إضافة لـ«أوبن إيه آي» والذي لم يتم الإعلان عنه بعد، فيتفوق على سابقيه لكن الزيادة في الجودة كانت أقل بكثير مقارنة بالقفزة بين «جي بي تي 3» و«جي بي تي 4»، آخر نموذجين رئيسيين للشركة، وفق مصادر أوردتها «ذي إنفورميشن».

ويعتقد خبراء كثر أجرت «وكالة الصحافة الفرنسية» مقابلات معهم أن قوانين الحجم وصلت إلى حدودها القصوى، وفي هذا الصدد، يؤكد سكوت ستيفنسون، رئيس «سبيلبوك»، وهي شركة متخصصة في الذكاء الاصطناعي القانوني التوليدي، أن «بعض المختبرات ركزت كثيراً على إضافة المزيد من النصوص، معتقدة أن الآلة ستصبح أكثر ذكاءً».

وبفضل التدريب القائم على كميات كبيرة من البيانات المجمعة عبر الإنترنت، باتت النماذج قادرة على التنبؤ، بطريقة مقنعة للغاية، بتسلسل الكلمات أو ترتيبات وحدات البكسل. لكن الشركات بدأت تفتقر إلى المواد الجديدة اللازمة لتشغيلها.

والأمر لا يتعلق فقط بالمعارف: فمن أجل التقدم، سيكون من الضروري قبل كل شيء أن تتمكن الآلات بطريقة أو بأخرى من فهم معنى جملها أو صورها.

- «تحسينات جذرية»

لكنّ المديرين في القطاع ينفون أي تباطؤ في الذكاء الاصطناعي. ويقول داريو أمودي، رئيس شركة «أنثروبيك»، في البودكاست الخاص بعالم الكمبيوتر ليكس فريدمان «إذا نظرنا إلى وتيرة تعاظم القدرات، يمكننا أن نعتقد أننا سنصل (إلى الذكاء الاصطناعي العام) بحلول عام 2026 أو 2027».

وكتب سام ألتمان الخميس على منصة «إكس»: «ليس هناك طريق مسدود». ومع ذلك، أخّرت «أوبن إيه آي» إصدار النظام الذي سيخلف «جي بي تي - 4».

وفي سبتمبر (أيلول)، غيّرت الشركة الناشئة الرائدة في سيليكون فالي استراتيجيتها من خلال تقديم o1، وهو نموذج من المفترض أن يجيب على أسئلة أكثر تعقيداً، خصوصاً في مسائل الرياضيات، وذلك بفضل تدريب يعتمد بشكل أقل على تراكم البيانات مرتكزاً بدرجة أكبر على تعزيز القدرة على التفكير.

وبحسب سكوت ستيفنسون، فإن «o1 يمضي وقتاً أطول في التفكير بدلاً من التفاعل»، ما يؤدي إلى «تحسينات جذرية».

ويشبّه ستيفنسون تطوّر التكنولوجيا باكتشاف النار: فبدلاً من إضافة الوقود في شكل بيانات وقدرة حاسوبية، حان الوقت لتطوير ما يعادل الفانوس أو المحرك البخاري. وسيتمكن البشر من تفويض المهام عبر الإنترنت لهذه الأدوات في الذكاء الاصطناعي.