الشركات تراقب موظفيها لتحليل سلوكهم أثناء العمل

قد يعتمد بعضها على أنظمة تسيء تفسيره

الشركات تراقب موظفيها لتحليل سلوكهم أثناء العمل
TT

الشركات تراقب موظفيها لتحليل سلوكهم أثناء العمل

الشركات تراقب موظفيها لتحليل سلوكهم أثناء العمل

تعمد بعض الشركات الخاصّة إلى مراقبة الموظّفين بأنظمة قد ترتكز على أسسٍ غير موثوقة في علم السلوك.
هل تشكّلون «تهديداً داخلياً»؟ قد ترغب الشركة التي تعملون فيها بمعرفة ما إذا كنتم كذلك، إذ يخشى بعض أرباب العمل من احتمال تسريب الموظفين للمعلومات، أو سماحهم لآخرين بالوصول إلى ملفّات سريّة، أو التواصل مع الزبائن بشكلٍ غير لائق، أو حتّى إحضار مسدّسٍ إلى المكتب.
تقييم آلي للسلوك
ولمعالجة هذه المخاوف، تُخضع بعض الشركات الموظّفين لتقييمات شبه آلية وشبه مستمرّة تركّز على الموثوقية من خلال استخدام أدوات علم السلوك وأبرزها التحليل النفسي.
تشبه اللغة المحيطة بهذا النوع من مراقبة الموظفين، تلك اللغة المستخدمة داخل الدوائر الحكومية، حيث تعكف مؤسسات القطاع العام على تقييم الموظّفين الحاصلين على تصريحات أمنية للتعامل مع معلومات حسّاسة مرتبطة بالاستخبارات أو الأمن القومي. وتقدّم المنظّمات المنتجة لبرمجيات المراقبة والتحليل السلوكي لصالح الوكالات الفيدرالية أدوات مشابهة للشركات الخاصّة، إمّا بشكلٍ منفصل أو في حزم تضمّ أدوات سيبرانية أوسع.
يقول توم ميلر، الرئيس التنفيذي لشركة «كلير فورس” التي تبيع خدمات رصد التهديد الداخلي لزبائن من القطاع الخاص: «عندما نفكّر بالتهديد الداخلي بشكلٍ عام، يبدأ الموضوع من الدوائر الحكومية، ومن ثمّ يتوسّع ليطال القطاع الخاص والقطاع التجاري».
سلوك كومبيوتري
ترصد هذه البرمجيات السلوك الكومبيوتري المثير للشكّ وتبحث بعمق في تقارير رصيد الموظّف وسجلّه العدلي وتحديثات وضعه الاجتماعي، كما تستطيع مراقبة موظف معيّن لمعرفة ما إذا كان يحمّل كميات كبيرة من البيانات السحابية، وتُجري تحليلاً لمشاعره لتبيان ما إذا كان يزداد غضباً مع الوقت. وتدّعي الشركات التي تراقب التهديدات الداخلية أنّ تحليل هذه البيانات يسهم في رصد مشكلات محتملة في مكان العمل.
ولكنّ الاهتمام برصد التهديدات الداخلية في القطاع الخاص يثير الكثير من المسائل الأخلاقية حول درجة المراقبة التي يجب أن يخضع لها الموظفون غير الحكوميين، بالإضافة إلى مسألة مهمّة أخرى وهي الارتكاز على أسسٍ علمية غير موثوقة.
اعتمدت عملية منح التراخيص الأمنية الصادرة عن الحكومات الفيدرالية لعقود على تقنيات نشأت في منتصف القرن العشرين. ويرى إيفان ليسير، مدير موقع «كليرنس جوبز» المتخصص في نشر فرص العمل التي تتطلّب تصاريح أمنية، والأخبار والاستشارات في هذا المجال، أنّ «هذه الطريقة يدوية جداً، وأنّ القيادة والذهاب لمقابلة النّاس شخصياً وسيلة قديمة وتتطلّب الكثير من الوقت».
ولكنّ في عام 2018، اعتمدت مبادرة فيدرالية تحت عنوان «قوى العمل الموثوقة 2.0» تحليلاً شبه آلي للموظفين الفيدراليين يُجرى في الوقت الحقيقي. يتيح هذا البرنامج للحكومة استخدام الذكاء الصناعي لإخضاع الموظفين الذي يطلبون تصاريح أمنية أو حازوها، لـ«تدقيقٍ وتقييمٍ متواصلين» –أي تقييم يحصل على المعلومات بشكلٍ متواصل، ويُصدر التحذيرات، ويشمل تقارير ذاتية وتحليلٍاً بشرياً.
من جهته، تساءل كريس غريجالفا، المدير التقني الأوّل في شركة «بيراتون» التي تركّز في عملها على الطرف الحكومي في التحليل الداخلي: «هل يمكننا بناء نظام يتحقّق من شخصٍ ما ويستمرّ في التحقّق منه، ويتنبّه إلى تغيّر منصبه في الأنظمة القانونية والسجلّات العامّة بشكلٍ متواصل؟ هكذا وُلدت فكرة التقييمات المستمرّة»
ولكنّ الشركات الخاصّة تمضي في طريقها باستخدام برمجياتها المعزّزة بالمراقبة. لفتت ليندي كايزر، من شركة «كليرنس جوبز»، إلى أنّ «موظفي القطاع الخاص لا يواجهون صرامة استمارات التصاريح التي تتألّف من أكثر من 136 صفحة، ولكنّ الشركات الخاصة تساعد في تطوير تقنيات (المراقبة المستمرّة) لصالح الحكومة الفيدرالية»، لافتةً إلى «أنّ أي حلّ من هذا النوع سيشمل تطبيقات من القطاع الخاص».+
أخلاقيات المراقبة
وتابعت كايزر أنّ «القانون يمنح أرباب العمل درجة عالية من الحريّة للمراقبة، ليس فقط في مكان العمل، بل خارجه أيضاً، مع تفاوت درجة صراحة المعلومات التي يحصلون عليها من المراقبة».
من جهته، اعترف إريك شاو، عالم نفس إكلينيكي وباحث مشارك في دراسة نُشرت عام 2015، بوجود نقاط ضعف في نموذج المراقبة هذا، أبرزها غياب مجموعة تفرض سيطرة كاملة على عمله. يصف هذا النموذج عناصر الخطر ولكنه لا يقدّم تنبؤات دقيقة حول الشخص الذي يمثّل تهديداً حقيقياً.
ويتساءل الدكتور شو: «ماذا عن الحالات التي يملك فيها الموظّف كلّ مؤشرات الخطر ولكنّه لم يتحوّل إلى تهديدٍ داخلي؟».
بدوره، ساعد إدوارد ستروز، زميل الدكتور شو وعميل سابق في مكتب التحقيقات الفيدرالية (إف بي آي)، في تطبيق مبادئ دقيقة المسار لتحليل التواصل عبر النصوص كرسائل البريد الإلكتروني والرسائل النصية بين أرباب العمل. أسّس ستروز شركة التحليل الجنائي السيبراني «ستروز فرايدبيرغ» التي عمل فيها الدكتور شو سابقاً كمحلّل نفسي استشاري.
تستخدم حزمة البرمجيات اللغوية المسمّاة «سكاوت SCOUT» التي تقدّمها الشركة، التحليل النفسي اللغوي للبحث عن إشارات وأمور أخرى قد تدلّ على وجود مشاعر السخط كالإيذاء والغضب والملامة. وفي هذا الإطار، اعتبر ستروز أنّ «اللغة تتغيّر بشكلٍ دقيق لا ينتبه له النّاس».
أظهر أحدث اختبار منشور لهذه البرمجيات –شمل 50 مليون رسالة من نحو 69 ألف مرسل– أنّ 383 رسالة من 137 مرسلاً أُحيلت بعد ترشيحها للمراجعة من محلّل متدرّب. ولفت ستروز إلى أنّ هذا الرقم الصغير يدلّ على أنّ هذا النظام يحمي خصوصية الأشخاص لأنّه يحيل الرسائل المقلقة فقط للمراجعة البشرية. وأضاف أنّ «العدد الصغير للرسائل الإلكترونية المرصودة لهذه الغاية يجب أن يُشعِر الناس بالراحة».
خلال التجربة، أعطى البرنامج نتائج إيجابية خاطئة بمعدّل الثلث، أي وسم أحدهم بالخطر حتّى ولو لم يوحِ بذلك. وأخيراً، شدّد ستروز على وجود وسائل تساعد في اعتماد هذه المراقبة بشكلٍ أخلاقي –كتطبيق الشفافية، وتقديم الفكرة على مراحل، والحفاظ على سريّة التحليل إلّا في حال ظهور مشكلات.
* خدمة «نيويورك تايمز»



شركات الذكاء الاصطناعي التوليدي تلجأ إلى الكتب لتطوّر برامجها

شركات الذكاء الاصطناعي تتفق مع دور النشر بما يتيح لهذه الشركات استخدام الأعمال المنشورة لتدريب نماذجها القائمة على الذكاء الاصطناعي التوليدي (رويترز)
شركات الذكاء الاصطناعي تتفق مع دور النشر بما يتيح لهذه الشركات استخدام الأعمال المنشورة لتدريب نماذجها القائمة على الذكاء الاصطناعي التوليدي (رويترز)
TT

شركات الذكاء الاصطناعي التوليدي تلجأ إلى الكتب لتطوّر برامجها

شركات الذكاء الاصطناعي تتفق مع دور النشر بما يتيح لهذه الشركات استخدام الأعمال المنشورة لتدريب نماذجها القائمة على الذكاء الاصطناعي التوليدي (رويترز)
شركات الذكاء الاصطناعي تتفق مع دور النشر بما يتيح لهذه الشركات استخدام الأعمال المنشورة لتدريب نماذجها القائمة على الذكاء الاصطناعي التوليدي (رويترز)

مع ازدياد احتياجات الذكاء الاصطناعي التوليدي، بدأت أوساط قطاع النشر هي الأخرى في التفاوض مع المنصات التي توفر هذه التقنية سعياً إلى حماية حقوق المؤلفين، وإبرام عقود مع الجهات المعنية بتوفير هذه الخدمات لتحقيق المداخيل من محتواها.

واقترحت دار النشر «هاربر كولينز» الأميركية الكبرى أخيراً على بعض مؤلفيها، عقداً مع إحدى شركات الذكاء الاصطناعي تبقى هويتها طي الكتمان، يتيح لهذه الشركة استخدام أعمالهم المنشورة لتدريب نماذجها القائمة على الذكاء الاصطناعي التوليدي.

وفي رسالة اطلعت عليها «وكالة الصحافة الفرنسية»، عرضت شركة الذكاء الاصطناعي 2500 دولار لكل كتاب تختاره لتدريب نموذجها اللغوي «إل إل إم» لمدة 3 سنوات.

آراء متفاوتة

ولكي تكون برامج الذكاء الاصطناعي قادرة على إنتاج مختلف أنواع المحتوى بناء على طلب بسيط بلغة يومية، تنبغي تغذيتها بكمية مزدادة من البيانات.

وبعد التواصل مع دار النشر أكدت الأخيرة الموافقة على العملية. وأشارت إلى أنّ «(هاربر كولينز) أبرمت عقداً مع إحدى شركات التكنولوجيا المتخصصة بالذكاء الاصطناعي للسماح بالاستخدام المحدود لكتب معينة (...) بهدف تدريب نماذج الذكاء الاصطناعي وتحسين أدائها».

وتوضّح دار النشر أيضاً أنّ العقد «ينظّم بشكل واضح ما تنتجه النماذج مع احترامها حقوق النشر».

ولاقى هذا العرض آراء متفاوتة في قطاع النشر، إذ رفضه كتّاب مثل الأميركي دانييل كيبلسميث الذي قال في منشور عبر منصة «بلوسكاي» للتواصل الاجتماعي: «من المحتمل أن أقبل بذلك مقابل مليار دولار، مبلغ يتيح لي التوقف عن العمل، لأن هذا هو الهدف النهائي من هذه التكنولوجيا».

هامش تفاوض محدود

ومع أنّ «هاربر كولينز» هي إحدى كبرى دور النشر التي أبرمت عقوداً من هذا النوع، فإنّها ليست الأولى. فدار «ويلي» الأميركية الناشرة للكتب العلمية أتاحت لشركة تكنولوجية كبيرة «محتوى كتب أكاديمية ومهنية منشورة لاستخدام محدد في نماذج التدريب، مقابل 23 مليون دولار»، كما قالت في مارس (آذار) عند عرض نتائجها المالية.

ويسلط هذا النوع من الاتفاقيات الضوء على المشاكل المرتبطة بتطوير الذكاء الاصطناعي التوليدي، الذي يتم تدريبه على كميات هائلة من البيانات تُجمع من الإنترنت، وهو ما قد يؤدي إلى انتهاكات لحقوق الطبع والنشر.

وترى جادا بيستيلي، رئيسة قسم الأخلاقيات لدى «هاغينغ فايس»، وهي منصة فرنسية - أميركية متخصصة بالذكاء الاصطناعي، أنّ هذا الإعلان يشكل خطوة إلى الأمام، لأنّ محتوى الكتب يدرّ أموالاً. لكنها تأسف لأنّ هامش التفاوض محدود للمؤلفين.

وتقول: «ما سنراه هو آلية لاتفاقيات ثنائية بين شركات التكنولوجيا ودور النشر أو أصحاب حقوق الطبع والنشر، في حين ينبغي أن تكون المفاوضات أوسع لتشمل أصحاب العلاقة».

ويقول المدير القانوني لاتحاد النشر الفرنسي (SNE) جوليان شوراكي: «نبدأ من مكان بعيد جداً»، مضيفاً: «إنّه تقدم، فبمجرّد وجود اتفاق يعني أن حواراً ما انعقد وثمة رغبة في تحقيق توازن فيما يخص استخدام البيانات مصدراً، التي تخضع للحقوق والتي ستولد مبالغ».

مواد جديدة

وفي ظل هذه المسائل، بدأ الناشرون الصحافيون أيضاً في تنظيم هذا الموضوع. ففي نهاية 2023، أطلقت صحيفة «نيويورك تايمز» الأميركية اليومية ملاحقات ضد شركة «أوبن إيه آي» مبتكرة برنامج «تشات جي بي تي» وضد «مايكروسوفت» المستثمر الرئيسي فيها، بتهمة انتهاك حقوق النشر. وقد أبرمت وسائل إعلام أخرى اتفاقيات مع «أوبن إيه آي».

وربما لم يعد أمام شركات التكنولوجيا أي خيار لتحسين منتجاتها سوى باعتماد خيارات تُلزمها بدفع أموال، خصوصاً مع بدء نفاد المواد الجديدة لتشغيل النماذج.

وأشارت الصحافة الأميركية أخيراً إلى أنّ النماذج الجديدة قيد التطوير تبدو كأنها وصلت إلى حدودها القصوى، لا سيما برامج «غوغل» و«أنثروبيك» و«أوبن إيه آي».

ويقول جوليان شوراكي: «يمكن على شبكة الإنترنت، جمع المحتوى القانوني وغير القانوني، وكميات كبيرة من المحتوى المقرصن، مما يشكل مشكلة قانونية. هذا من دون أن ننسى مسألة نوعية البيانات».