كيف يراقبنا المديرون أثناء العمل من المنزل؟

برامج ترصد نشاط الكومبيوتر وتصفح الإنترنت

كيف يراقبنا المديرون أثناء العمل من المنزل؟
TT

كيف يراقبنا المديرون أثناء العمل من المنزل؟

كيف يراقبنا المديرون أثناء العمل من المنزل؟

آدم ساتاريانو مراسل التقنية لصحيفة «نيورك تايمز» في لندن، يقول: «في الثالث والعشرين من أبريل (نيسان)، بدأت العمل عند الساعة التاسعة إلّا عشر دقائق صباحاً، فقرأتُ الرسائل الإلكترونية وأجبتُ عليها، وتصفّحتُ الأخبار وراجعتُ جديد (تويتر). عند الساعة التاسعة وأربع عشرة دقيقة، أدخلتُ بعض التعديلات على قصّة أعددتها قبل نشرها، وقرأتُ بعض ملاحظات المقابلة التي أجريتها. عند الساعة العاشرة وتسع دقائق، تبدّد زخم العمل واتجهتُ لقراءة خبرٍ عن القرية الآيرلندية التي يمضي فيها الممثل مات دايمون فترة العزل المنزلي».
-- مديرون يراقبون
«هذه التفاصيل جميعُها، من المواقع الإلكترونية التي زرتُها إلى معلومات الـ(جي بي إس)، كانت متوفرة لدى مديري لمراجعتها. أما السبب، فهو ومع عمل الملايين مناً اليوم من المنازل في ظلّ وباء كورونا، تبحث الشركات عن وسائل تضمن فيها أننا نقوم بما يتوجب علينا القيام به. وقد ارتفع الطلب على البرمجيات التي تراقب الموظفين، والبرامج التي تتعقّب الكلمات التي نطبعها والصور التي نلتقطها بكاميرا الكومبيوتر، لتقدّم للمديرين تقييمات توضح من يمضي الكثير من الوقت على (فيسبوك) ومن يمضي وقتاً أقل من المطلوب في استخدام برنامج إكسل». تثير هذه التقنية أسئلة جدية ومخيفة متعلّقة بالخصوصية وحول ما إذا كان أرباب العمل قد انتهكوا الخطّ الفاصل بين الحفاظ على إنتاجية أفراد القوى العاملة من منازلهم، وبين المراقبة المريبة.
«وللإجابة على هذه الأسئلة، شغّلتُ برنامجاً تجسسياً لمراقبة نفسي. فقد حمّلتُ الشهر الماضي برنامجاً لمراقبة الموظفين من تطوير شركة «هاب ستاف» Hubstaff في إنديانابوليس. كلّ بضع دقائق، كان هذا البرنامج يلتقطُ صورة للمواقع التي تصفّحتُها والمستندات التي كتبتُها ومواقع التواصل الاجتماعي التي زرتُها. ومن خلال هاتفي، حدّد البرنامج الأماكن التي قصدتُها ومنها جولة مدّتها ساعتين بالدراجة الهوائية حول حديقة باترسي مع أولادي في منتصف يوم عمل».
-- برامج «تدخلية»
«ولاستكمال الاختبار، أعطيتُ زميلتي المحرّرة بوي - وينغ تام في سان فرانسيسكو مفاتيح برنامج (هاب ستاف) لتتمكّن من تعقّبي. وبعد مرور ثلاثة أسابيع من المراقبة الرقمية، تبيّن لكلينا أنّ مستقبل المراقبة خلال العمل يمكن وصفه بأنه (تدخلي) بشكل مفرط، حتّى أنّ زميلتي وصفته بالـ(مقرف)».
إليكم ما حدث في الأسبوع الأوّل.
> آدم: نزّلتُ «هاب ستاف» على اللابتوب والهاتف وأنا في وضع يساورني فيه الكثير من الشكّ. سمعتُ عن هذا النوع من الأدوات الذي استخدمته شركات «وول ستريت» لسنوات، لا سيّما في المجال الأمني مع موظفين نادراً ما كانوا يعرفون شيئاً عن المراقبة التي يتعرّضون لها.
وقال لي دايف نيفوغت، مؤسّس «هاب ستاف» ورئيسها التنفيذي «الذي منحني تجربة مجّانية لاختبار برنامجه الذي يفرض اشتراكاً على مستخدميه، إنّ العمل من المنزل خلال أزمة فيروس كورونا حوّل برامج مراقبة الموظفين إلى سلعة مطلوبة بشدّة. وكشف أنّ مبيعات برنامج (هاب ستاف) الذي يتراوح اشتراكه الشهري بين 7 دولارات و20 دولاراً، تضاعفت ثلاث مرّات منذ مارس (آذار)». وأضاف نيفوغت: «العالم يتغيّر. الموظفون يعرفون أنّهم مراقبون، مما يعني أنّ خصوصيتهم ليست منتهكة».
يضمّ برنامج «هاب ستاف» ميزات عديدة أبرزها مراقب للنشاط يزوّد ربّ العمل بصورة لما يفعله الموظّف. يقدّم النظام أيضاً نسبة مئوية للوقت الذي يمضيه الموظّف في الطباعة على لوحة المفاتيح أو في تحريك الفأرة... وتشير هذه النسبة المئوية إلى مستوى الإنتاجية. «حاولتُ أنّ أتقبّل التقييم. في كلّ يوم، كنتُ أتلقّى رسالة إلكترونية من بوي - وينغ تزوّدني فيها بمراجعة يومية تستعرض ساعات العمل ومستوى الإنتاجية والمواقع الإلكترونية والتطبيقات التي كنتُ أستخدمها.
في أحد أيّام الشهر الفائت، كنتُ أضع اللمسات الأخيرة على مقالة كتبتُها، فأمضيتُ ثلاث ساعات و35 دقيقة في تعديلها، وساعة داخل ملف لمراجعة نتائج البحث وملاحظات المقابلة، بالإضافة إلى 90 دقيقة أمضيتُها في استخدام البريد الإلكتروني. كان هذا اليوم واحداً من أكثر أيّامي إنتاجية، ولكنّ البرنامج استمرّ في تسجيل الأوقات التي تلهّيتُ فيها. فقد أظهر أنني استخدمتُ «تويتر» لـ35 دقيقة وخسرتُ 11 دقيقة في تصفّح (سبوتيفاي)، بالإضافة إلى 22 دقيقة أضعتُها في العمل على تطبيق (سلاك). في أيّام أخرى، شكّل الطعام وسيلة شائعة للتشتيت كتبديد عشر دقائق في الذهاب لجلب البيتزا. نجح برنامج «هاب ستاف» أيضاً في الدخول إلى بيانات الـ(جي بي إس). الخاصة بي من خلال ميزة قال نيفوغت إنّها تُستخدم من قبل الشركات التي تحاول ضمان أنّ مندوبي مبيعاتها يزورون منازل الزبائن. ولكنّ مع دخول العاصمة البريطانية لندن في إجراءات الحجر منذ أواخر مارس (آذار)، كانت تحرّكاتي التي تعقّبها البرنامج قليلة، لا تتعدّى الجري حول الحديقة القريبة والذهاب إلى متجر السلع».
-- مراقبة عن بعد
وشهد الأسبوع الثاني عمليات الإشراف المتبادل:
> آدم: بعد تأقلمي مع فكرة وضع حياتي تحت المراقبة، اتخذتُ قرار السماح لبوي - وينغ بالدخول إلى البرنامج. وفي رسالة إلكترونية كتبتُها مسبقاً، قلتُ لها: «بدخولك في هذا الاختبار، أنتِ توافقين على عدم التسبب بطردي أو الحكم علي أو ابتزازي مهما كانت النتيجة النهائية لهذا العمل».
> بوي - وينغ: شعرتُ بالفضول وأعترفُ بذلك. ولكنّني في الوقت نفسه شعرتُ بالتردّد لأنّني لم أعرف ما إذا كنتُ أريد حقّا أنّ أطّلع على مكان شخص ما في كلّ لحظة، أو أن أعرف أوقات استخدامه لـ«تويتر».
ولكن رغم هذا التردّد، فتحتُ البرنامج ورأيتُ لوحة تستعرض فئات متعدّدة كالصور الملتقطة لشاشة كومبيوتر آدم وجداوله الزمنية والتطبيقات والمواقع الإلكترونية التي زارها بالإضافة إلى بياناته المكانية. ثم ضغطتُ على الصور ووجدتُ أنّ آدم أمضى تسع ساعات و42 دقيقة و17 ثانية في استخدام الإنترنت يوم أمس. عرضت عشرات الصور الموجودة في الفئة لقطات لاتصال عبر «غوغل ميت كونفرنس» شارك فيه آدم بالإضافة إلى صورٍ قريبة للكثير من الزملاء.
بعدها، عدتُ بسرعة إلى اللوحة الرئيسية. هناك، رأيتُ أنّ نشاط آدم خلال الأسبوع كان مخيّباً للآمال نوعاً ما حيث إن إنتاجيته بلغت 45 في المائة. إلا أنه شرح لي لاحقاً أنّ هذا الرقم لا يعكس الوقت الحقيقي الذي أمضاه في العمل لأنّه سجّل الأوقات التي كان يطبع فيها على لوحة المفاتيح فقط، بعيداً عن الاتصالات أو أي عمل يقوم به بعيداً عن الكومبيوتر.
> آدم: تفهّمتُ الطلب المتنامي على «هاب ستاف» من قبل أرباب العمل الذين يخافون من تبديد أموالهم في اقتصاد هشّ، بعد أنّ عرّفني نيفوغت على كريس هيويتير، الذي يدير شركة تسويق اسمها «98 باك سوشيال» في مدينة جوبيتر، فلوريدا. أخبرني هيويتير أنّه لاحظ تراجعاً كبيراً في عدد ساعات العمل بعد أن سمح لموظفيه العشرين بالعمل من المنزل بسبب تفشّي فيروس كورونا. في ذلك الوقت، واجهت الشركة هبوطاً حاداً في مبيعاتها، حتّى أنّ بعض الموظفين كانوا بحسب هيويتير، لا يجيبون على هواتفهم قبل الساعة العاشرة صباحاً، مما أدّى إلى تراجع الردود على الزبائن أيضاً.
لهذا السبب، بدأ باستخدام «هاب ستاف» في 31 مارس (آذار)، لترتفع مستويات إنتاجية موظّفيه «بشكل فوري» بعدها. هنا، ربطتُ الأمور ببعضها. فقد لاحظتُ أنّ «هاب ستاف» كان قد بدأ بالتأثير على سلوكي أيضاً. في كلّ يوم، كنتُ أسجّل دخولي في البرنامج مبكّراً لأنني كنتُ أنتبه لنشاطي. ولأنني أعي أنّ نشاطي الإلكتروني قد يتعرّض للمراقبة، لم أمضِ وقتاً طويلاً في قراءة الأخبار الرياضية كما في السابق، وتراجع استخدامي لتطبيقات التراسل على اللابتوب لأنني كنتُ أشعر بالتوتر من فكرة الصور التي قد تلتقط أي محادثة خاصّة. ولكنّ نتائج إنتاجيتي لم تبارح مستوياتها المنخفضة وبقيت تترنّح بين 30 و45 في المائة. وفي الرابع عشر من أبريل (نيسان)، أظهر «هاب ستاف» أنني عملتُ 14 ساعة تقريباً ولكنّ مستوى إنتاجيتي لم يتجاوز 22 في المائة.
-- إحراجات العمل
أما نتائج الأسبوع الثالث فكانت كما يلي:
> آدم: في الثالث والعشرين من أبريل (نيسان) وفي الساعة الحادية عشرة والنصف تحديداً، عرفتُ أنني لم أعد أريد أن تتمّ مراقبتي بعد أن ضبطني «هاب ستاف» وأنا أشاهد صفاً للتمارين الرياضية. في ذلك الوقت، أدركتُ أنني لم أسجّل خروجي وأنّ البرنامج التقط صورة للمدرّبة التي كانت تعطي الصفّ من غرفة المعيشة في منزلها.
ورغم أنّ هذا الأمر لم يكن إلّا مجرّد اختبار، شعرتُ بالكثير من الإحراج والاختراق لأنّ الأمر يتجاوز فكرة ضبطي وأنا أتمرّن في منتصف النهار. هنا تساءلتُ: ماذا إذا كشفت اللقطات الأخرى معلومات صحية أو مالية حسّاسة عنّي؟
أثقُ ببوي - وينغ ولكنّ أنظمة المراقبة لا تحتوي على الكثير من ضوابط الحماية من الانتهاك، وغالباً ما تُستخدم من قبل مديرين يصدرون الأحكام ويمارسون الضغوطات.
> بوي - وينغ: لم أشاهد صفّ الرياضة الذي حضره آدم عبر الإنترنت. فبعد الاطلاع على المقاييس التي يعتمدها «هاب ستاف»، تبيّن لي أنّه لا يسجّل عمل آدم أثناء كتابة التقارير والتواصل مع المصادر، مما يعني أنّ البرنامج غير دقيق أو أنّه على الأقلّ لا يفهم طريقة عملنا.
وهل حدّثتكم عن النفور الذي شعرتُ به بعد مراقبة الكثير من المعلومات التي تتعلّق بشخص معيّن؟ ولهذا السبب لم أسجّل دخولي في البرنامج مرّة أخرى. من وقت إلى آخر، كنتُ أطلع على الرسائل الإلكترونية اليومية التي يرسلها «هاب ستاف» عن آدم، وقد أظهرت أنّ إنتاجيته سجّلت 30 في المائة، وأنّها أحياناً كانت تصل إلى 50 في المائة. وضحكتُ عندما لاحظتُ أنّه بدأ يمضي وقتاً أطول على المواقع الإخبارية بالتزامن مع التغيرات التي طرأت على سلوكه.
> آدم: في النهاية، وجدتُ نفسي أحاول تضليل نظام «هاب ستاف». فأثناء كتابتي لهذا المقال عند الساعة الحادية عشرة وثمانية وثلاثين دقيقة في صباح الرابع والعشرين من أبريل (نيسان)، كنتُ أتحضّر لتناول كوب قهوة وإمضاء الوقت مع أولادي. ولكنني كنتُ في الوقت نفسه أخطّط لترك برنامج «غوغل دوك» مفتوحاً على الكومبيوتر ليلتقط «هاب ستاف» صورة تجعلني أبدو وكأنني أعمل.
- خدمة «نيويورك تايمز».


مقالات ذات صلة

لقاح أنفي قد يحمي من «كورونا» والإنفلونزا والالتهاب الرئوي في آنٍ واحد

صحتك اللقاح يُعطى عن طريق الأنف عبر رذاذ أنفي (أرشيف - أ.ب)

لقاح أنفي قد يحمي من «كورونا» والإنفلونزا والالتهاب الرئوي في آنٍ واحد

طوَّر باحثون أميركيون لقاحاً جديداً قادراً على الوقاية من عدة فيروسات في آنٍ واحد، بما في ذلك «كوفيد-19» والإنفلونزا والالتهاب الرئوي.

«الشرق الأوسط» (نيويورك)
صحتك لقاح الكوفيد للحوامل لا يرتبط بمشكلات النمو العصبي لدى أطفالهن

لقاح الكوفيد للحوامل لا يرتبط بمشكلات النمو العصبي لدى أطفالهن

التطعيم يحمي الأم ووليدها

د. هاني رمزي عوض (القاهرة)
صحتك وفقاً للباحثين من «مركز تشارلز بيركنز» بجامعة سيدني يتميّز هذا الجزيء بقدرته العالية على الالتصاق ببروتينات «النتوء» الموجودة على سطح فيروسات كورونا (بيكسلز)

دراسة: اضطرابات «كورونا» أسهمت في ارتفاع حالات الوفاة بين مرضى السرطان

أعرب خبراء الصحة في الولايات المتحدة عن مخاوفهم، خلال السنوات الأولى لجائحة فيروس كورونا (كوفيد-19)، من أن الاضطرابات بتشخيص وعلاج السرطان تسببت في الوفاة.

«الشرق الأوسط» (نيويورك)
صحتك امرأة مسنة ترتدي كمامة تسير في أحد شوارع بكين (إ.ب.أ)

ما العلاقة بين «كوفيد-19» ومرض ألزهايمر؟

كشفت بعض التقارير عن أن فيروس «كوفيد-19» يزيد من خطر الإصابة بمرض ألزهايمر، خاصةً لدى الأشخاص الذين يعانون من عدوى شديدة.

«الشرق الأوسط» (واشنطن)
صحتك سجَّلت بريطانيا أحد أعلى معدلات الوفيات المرتبطة بجائحة «كورونا» في أوروبا إذ حصد «كوفيد-19» أرواح نحو 226 ألف شخص (رويترز)

كيف يبدو مستقبل «كوفيد-19» في 2026؟

يتوقع خبراء استمرار «كوفيد-19» في 2026، مع هيمنة متحوِّرات «أوميكرون» وأعراض مألوفة، محذِّرين من التهاون.

«الشرق الأوسط» (واشنطن)

دراسة تسأل: هل يحتاج الذكاء الاصطناعي إلى «الحكمة» ليصبح أكثر موثوقية؟

تقترح دراسة من جامعة واترلو إدماج عناصر من الحكمة البشرية في تصميم أنظمة الذكاء الاصطناعي (بيكسلز)
تقترح دراسة من جامعة واترلو إدماج عناصر من الحكمة البشرية في تصميم أنظمة الذكاء الاصطناعي (بيكسلز)
TT

دراسة تسأل: هل يحتاج الذكاء الاصطناعي إلى «الحكمة» ليصبح أكثر موثوقية؟

تقترح دراسة من جامعة واترلو إدماج عناصر من الحكمة البشرية في تصميم أنظمة الذكاء الاصطناعي (بيكسلز)
تقترح دراسة من جامعة واترلو إدماج عناصر من الحكمة البشرية في تصميم أنظمة الذكاء الاصطناعي (بيكسلز)

تزداد قدرات أنظمة الذكاء الاصطناعي بسرعة، لكنّ عدداً من الباحثين يرون أن القدرة الحسابية للذكاء الاصطناعي وحدها لا تكفي. فمع تطور هذه التقنيات، يبرز اتجاه بحثي جديد يدعو إلى التركيز على عنصر مختلف من خلال جعل الآلات أكثر حكمة في كيفية استخدام هذا الذكاء وليس أكثر ذكاءً فقط.

وفي هذا السياق، قدّم فريق بحثي متعدد التخصصات بقيادة باحثين من جامعة واترلو الكندية خريطة طريق تهدف إلى إدماج عناصر من «الحكمة البشرية» في أنظمة الذكاء الاصطناعي. ويجمع هذا العمل بين مجالات علم النفس وعلوم الحاسوب والهندسة، في محاولة لإعادة التفكير في كيفية اتخاذ الآلات للقرارات في البيئات المعقدة.

ما بعد الذكاء الحسابي

شهدت أنظمة الذكاء الاصطناعي الحديثة خصوصاً النماذج اللغوية الكبيرة، تقدماً لافتاً في مجالات مثل توليد النصوص وكتابة الشيفرات وتحليل البيانات. غير أن هذه الأنظمة لا تزال تواجه صعوبة عندما يتعلق الأمر بالمواقف الغامضة أو المشكلات التي تتطلب حكماً وتقديراً بدلاً من مجرد معالجة المعلومات.

ويرى الباحثون أن الفارق يكمن في التمييز بين الذكاء والحكمة. فالذكاء يمكّن الآلة من اكتشاف الأنماط وتحليل البيانات وإنتاج الإجابات، بينما تتضمن الحكمة مجموعة أوسع من القدرات المعرفية مثل إدراك حدود المعرفة، والنظر إلى القضايا من زوايا متعددة، والتكيف مع السياقات المتغيرة. وغالباً ما يعتمد البشر على هذه القدرات عند التعامل مع المواقف الاجتماعية المعقدة أو الأحداث غير المتوقعة، وهي مهارات ما زالت أنظمة الذكاء الاصطناعي تفتقر إليها رغم قوتها الحسابية.

يرى باحثون أن القدرة الحسابية للذكاء الاصطناعي وحدها لا تكفي لاتخاذ قرارات مناسبة في البيئات المعقدة (رويترز)

تعليم الآلات التفكير في تفكيرها

يقترح الباحثون أن أحد المسارات الممكنة لتطوير أنظمة ذكاء اصطناعي أكثر قدرة يتمثل في بناء نوع من «الميتامعرفة» (Metacognition)، أي قدرة النظام على التفكير في طريقة تفكيره الخاصة.

ويمكن لهذه القدرة أن تسمح للأنظمة الذكية بإدراك حدود معرفتها، والنظر في تفسيرات بديلة، وتعديل استجاباتها وفق السياق. وبدلاً من تقديم إجابة واحدة بثقة عالية، قد يكون النظام قادراً على التعبير عن درجة من عدم اليقين أو عرض عدة وجهات نظر محتملة. ويعتقد الباحثون أن إدماج مثل هذه الآليات قد يجعل الذكاء الاصطناعي أكثر موثوقية عند التعامل مع المشكلات التي لا تمتلك حلولاً واضحة أو محددة.

تحويل الحكمة إلى عناصر قابلة للقياس

يواجه مفهوم «الحكمة» تحدياً أساسياً، إذ غالباً ما يُنظر إليه باعتباره مفهوماً فلسفياً أو مجرداً. ولذلك يقترح الفريق البحثي تفكيكه إلى مكونات يمكن قياسها وتطبيقها في النماذج الحسابية.

من بين هذه المكونات ما يُعرف بالتواضع المعرفي، أي قدرة النظام على الاعتراف بأن المعلومات المتاحة قد تكون غير كاملة. كما يشمل ذلك البحث عن وجهات نظر متعددة قبل الوصول إلى نتيجة، إضافة إلى الحساسية للسياق، أي القدرة على تعديل طريقة التفكير حسب الظروف المحيطة. ويرى الباحثون أن ترجمة هذه الخصائص إلى أطر حاسوبية قد تسمح مستقبلاً بتصميم أنظمة ذكاء اصطناعي تتضمن هذه السمات ضمن آليات اتخاذ القرار.

يقترح الباحثون تحويل مفاهيم مثل التواضع المعرفي وفهم السياق إلى عناصر قابلة للقياس داخل النماذج الحسابية

الحاجة إلى معايير تقييم جديدة

جزء آخر من خريطة الطريق المقترحة يتعلق بتطوير أدوات تقييم جديدة لقياس مدى قدرة أنظمة الذكاء الاصطناعي على التعامل مع التفكير المعقد. فمعظم الاختبارات الحالية تركز على مهارات محددة مثل فهم اللغة أو حل الألغاز المنطقية. إلا أن الباحثين يرون أن هذه الاختبارات لا تعكس نوع الحكم المطلوب في البيئات الواقعية. ولهذا يقترحون تطوير معايير تقيس كيفية تعامل الأنظمة مع عدم اليقين أو المعلومات المتناقضة أو المعضلات الأخلاقية، وهي مجالات تتطلب نوعاً من التفكير الأقرب إلى الحكمة.

لكن لماذا يكتسب هذا التوجه أهمية الآن؟

تأتي الدعوة إلى تطوير «ذكاء اصطناعي أكثر حكمة» في وقت تتوسع فيه استخدامات هذه التقنيات في مجالات حساسة مثل الرعاية الصحية والتمويل وصنع السياسات العامة.

ومع دخول الخوارزميات في عمليات تؤثر بشكل مباشر في حياة البشر، يحذر الباحثون من أن الذكاء الحسابي وحده قد لا يكون كافياً. فالأنظمة يجب أن تكون قادرة أيضاً على التعامل مع التعقيد والمسؤولية بطريقة أكثر توازناً. فمن دون هذه القدرات، قد تنتج الأنظمة قرارات تبدو صحيحة تقنياً لكنها غير مناسبة للسياق الاجتماعي أو الإنساني، وهو ما قد يقوض الثقة في الأنظمة المؤتمتة.

نحو أنظمة أكثر مسؤولية

يشدد الباحثون على أن الهدف ليس إعادة إنتاج الحكمة البشرية بالكامل داخل الآلات، بل تطوير أنظمة قادرة على التعامل مع عدم اليقين بطريقة أكثر مسؤولية والتعاون بشكل أفضل مع المستخدمين البشر.

وقد يؤدي ذلك عملياً إلى تطوير أنظمة أكثر شفافية في طريقة تفكيرها، وأكثر قدرة على التكيف مع المواقف الجديدة، وأكثر انسجاماً مع الأهداف البشرية. كما قد يسهم هذا النهج في تحسين سلامة الأنظمة، إذ إن الأنظمة القادرة على إدراك حدودها أو تقييم عدة نتائج محتملة قد تكون أقل عُرضة لتقديم إجابات مضللة أو مفرطة في الثقة.

يبقى تطوير ذكاء اصطناعي قائم على مبادئ الحكمة تحدياً بحثياً طويل الأمد. فخريطة الطريق المقترحة تقدم إطاراً أولياً، لكنها تؤكد أن تحقيق هذه الرؤية سيتطلب تعاوناً واسعاً بين تخصصات متعددة. ومع استمرار تطور قدرات الذكاء الاصطناعي، قد يتحول السؤال الأساسي من مدى ذكاء الآلات إلى مدى قدرتها على استخدام هذا الذكاء بحكم وتبصر.


هاتف «روبوتي» يرقص ويتفاعل مع المستخدم (فيديو)

موقع «Honor»
موقع «Honor»
TT

هاتف «روبوتي» يرقص ويتفاعل مع المستخدم (فيديو)

موقع «Honor»
موقع «Honor»

قد يبدو الهاتف الجديد من شركة «Honor» الصينية كأي هاتف ذكي تقليدي للوهلة الأولى، لكن نظرةً أقرب تكشف عن مفاجأة لافتة: كاميرا خلفية تنبثق عبر ذراع آلية متحركة، تمنح الجهاز سلوكاً أقرب إلى «الروبوت» منه إلى الهاتف المعتاد. وفقاً لصحيفة «تليغراف».

هذه الكاميرا، التي تتحرك بسلاسة للحفاظ على ثبات التصوير، ليست مجرد أداة تقنية، بل هي جوهر الفكرة التي تراهن عليها الشركة. فالهاتف الجديد لا يكتفي بتنفيذ الأوامر الصوتية، بل يتفاعل مع ما يراه حوله، ويتجاوب مع المستخدم بحركات تعبيرية، بل يمكنه حتى الرقص على وقع الموسيقى، في محاولة لإضفاء طابع «شخصي» غير مألوف على الأجهزة الذكية.

وخلال معاينة أولية للجهاز في معرض «Mobile World Congress» في برشلونة، بدا واضحاً أن «Honor» تسعى إلى نقل الهاتف الذكي من مجرد أداة وظيفية إلى «رفيق رقمي» أكثر تفاعلاً وحضوراً.

شخصية رقمية... لا مجرد كاميرا

إضافة ذراع تثبيت (gimbal) إلى الهاتف لا تكفي وحدها لتحويله إلى «روبوت». ما يميز هذا الجهاز هو طبقة الذكاء الاصطناعي التي تقف خلف الكاميرا، مانحةً الهاتف قدراً من «الشخصية» الرقمية.

فالكاميرا هنا ليست فقط لالتقاط الصور، بل تؤدي دور وسيلة تحكم وتفاعل. الهاتف يتتبع وجه المستخدم في أثناء مكالمات الفيديو ليبقيه داخل الإطار، ويستجيب بحركات مثل الإيماء أو الالتفات، بل يُظهر ما تسميه الشركة «لغة جسد عاطفية».

يأتي هذا التوجه امتداداً لمسارٍ شهدته الهواتف في السنوات الأخيرة، حيث أصبح الذكاء الاصطناعي يقدم تجارب أكثر تخصيصاً للمستخدم. غير أن «Honor» تحاول الذهاب خطوةً أبعد، عبر تحويل التفاعل من نصوص جامدة إلى حركات فيزيائية محسوسة.

موقع «Honor»

استخدامات عملية... ولمسة استعراضية

من الناحية العملية، تتيح مرونة الكاميرا سيناريوهات مفيدة. فمثلاً، في أثناء الطهي أو الحركة داخل المنزل، يستطيع الهاتف تتبع المستخدم تلقائياً خلال مكالمة فيديو، مما يقلل الحاجة إلى تثبيت الجهاز يدوياً.

كما يمكن وضع الهاتف على أي سطح، لتقوم الكاميرا بالدوران وتحديد موقع المستخدم والتقاط الصور دون عناء. وتوفر الذراع الآلية مستويات ثبات وخيارات تصوير تتجاوز ما تقدمه الهواتف التقليدية.

لكن الجانب الأكثر إثارة وربما الأكثر جدلاً، هو ميزات «الرفيق الرقمي». فقد عُرض الهاتف وهو يرقص مع الموسيقى، ويتظاهر بالنوم كحيوان أليف لطيف بانتظار إيقاظه «للعب»، في محاولة واضحة لإضفاء بُعد عاطفي على العلاقة بين الإنسان والجهاز.

بل يمكن للمستخدم أن يسأل الهاتف، عبر الكاميرا المدعومة بالذكاء الاصطناعي، عن رأيه في مظهره، في تجربة تقول الشركة إنها تمنح الجهاز «شخصية» حقيقية... وإن كان مدى الثقة بالإجابة يبقى سؤالاً مفتوحاً.

موقع «Honor»

تقنية مصغّرة بطموح كبير

تعتمد الفكرة على ذراع تثبيت ثلاثية المحاور (pan وtilt وroll)، وهي تقنية معروفة في معدات التصوير الاحترافية والطائرات المسيّرة. وتقول «Honor» إنها نجحت في تقليص حجم محركات الذراع بنسبة 70 في المائة ليتسنى دمجها داخل الهاتف.

وعند إغلاق الذراع تحت الغطاء الخلفي المنزلق، يصبح حجم الهاتف قريباً من الهواتف الرائدة الحالية، مع تصميم لا يبتعد كثيراً عن المألوف.

Your Premium trial has endedYour Premium trial has ended


تقرير: نظارات «ميتا» تتجسس على مرتديها في المرحاض

إحدى نظارات «ميتا» في برشلونة (أ.ف.ب)
إحدى نظارات «ميتا» في برشلونة (أ.ف.ب)
TT

تقرير: نظارات «ميتا» تتجسس على مرتديها في المرحاض

إحدى نظارات «ميتا» في برشلونة (أ.ف.ب)
إحدى نظارات «ميتا» في برشلونة (أ.ف.ب)

زعم تقرير صحافي أن لقطات مصورة بنظارات «ميتا» الذكية المزودة بتقنية الذكاء الاصطناعي، التي تتضمن أشخاصاً يخلعون ملابسهم أو يجلسون في المرحاض، تُشاهد من قبل موظفين في مجال التكنولوجيا على بُعد آلاف الأميال، بهدف تحسين قدرة الذكاء الاصطناعي.

وأفادت صحيفة «تلغراف» البريطانية بأن مقاطع الفيديو الملتقطة بنظارات «ميتا»، التي يبلغ سعرها 300 جنيه إسترليني والمزودة بكاميرات وميكروفونات مدمجة، تُرسل إلى مراكز الاتصال في نيروبي بكينيا، للمراجعة.

ووفقاً لتقرير نشرته صحيفتا «غوتنبرغ بوستن» و«سفينسكا داغبلادت» السويديتان، ادعى موظفون في كينيا أنهم شاهدوا مقاطع فيديو يبدو أنها تتضمن أشخاصاً يذهبون إلى المرحاض، أو يخلعون ملابسهم، أو خلال لحظات تعري. وقال أحد الموظفين: «في بعض مقاطع الفيديو، يمكنك رؤية شخص يذهب إلى المرحاض، أو يخلع ملابسه. لا أعتقد أنهم يعلمون، لأنهم لو كانوا يعلمون لما قاموا بالتسجيل». وأدعى أحد العاملين: «نرى كل شيء، من غرف المعيشة إلى الأجساد العارية».

تتيح نظارات «ميتا» المدعومة بالذكاء الاصطناعي لمستخدميها التحدث إلى روبوت دردشة يعمل بالذكاء الاصطناعي بقول عبارة: «مرحباً ميتا». ويمكن استخدام الذكاء الاصطناعي لتفعيل الكاميرا المدمجة، مما يسمح لهم بإجراء مكالمات فيديو مباشرة أو التقاط الصور والفيديوهات.

تزعم «ميتا» أن نظاراتها الذكية «مصممة للحفاظ على الخصوصية»، وأن المستخدمين «يتحكمون» في بياناتهم. تحتوي النظارات الذكية على ضوء يضيء عند التسجيل.

مع ذلك، تشير سياسة خصوصية «ميتا» للذكاء الاصطناعي إلى: «في بعض الحالات، ستراجع (ميتا) تفاعلاتك مع أنظمة الذكاء الاصطناعي، بما في ذلك محتوى محادثاتك أو رسائلك معها، وقد تكون هذه المراجعة آلية أو يدوية (بشرية)». وتضيف سياسة الخصوصية: «لا تشارك معلومات لا ترغب في أن تستخدمها أنظمة الذكاء الاصطناعي أو تحتفظ بها، مثل المعلومات المتعلقة بمواضيع حساسة».

حسب التقرير، تُرسل مقاطع الفيديو الملتقطة بنظارات الذكاء الاصطناعي من شركة «ميتا» أحياناً إلى العاملين في شركة «سما»، وهي شركة تقنية. يعمل هؤلاء العاملون مُصنِّفين للبيانات، ويتقاضون أجراً مقابل مراجعة مقاطع الفيديو وتصنيفها.

وأفاد تقرير «تلغراف» بأن هذه الكمية الهائلة من بيانات الفيديو تُستخدم لتحسين برمجيات الذكاء الاصطناعي الخاصة بشركة التكنولوجيا العملاقة. ولم يتضح بعدُ ما إذا كانت لقطات قد تُعتبر حساسة ستُضمّن في بيانات التدريب هذه.

سبق أن اتُهمت شركات التكنولوجيا العملاقة بالتجسس على محادثات اعتبرها المستخدمون خاصة لتعزيز منتجاتها القائمة على الذكاء الاصطناعي. وذكرت صحيفة «الغارديان»، في عام 2019، أن شركة «آبل» كانت تراقب مقاطع من محادثات سيري لتحسين روبوت الدردشة الخاص بها. ودفعت «آبل» في نهاية المطاف تسوية بقيمة 95 مليون دولار (71.4 مليون جنيه إسترليني) بعد مزاعم بانتهاكات للخصوصية، على الرغم من أنها لم تُقرّ بارتكاب أي مخالفة.

كما تحتفظ تطبيقات روبوتات الدردشة التي تعمل بالذكاء الاصطناعي بسجل لجميع المحادثات، وقد أقرت باستخدام هذه البيانات لتحسين روبوتاتها. وتُعرّض الرسائل الشخصية مع هذه الروبوتات لخطر مشاركتها مع مراجعين بشريين في مختبرات الذكاء الاصطناعي، إما لتدريب تقنياتها وإما لإجراء فحوصات السلامة.

كما تم نشر آلاف المحادثات مع «روبوت الدردشة ميتا»، الذي يعمل بالذكاء الاصطناعي، دون علم المستخدمين العام الماضي بعد نقرهم على زر «مشاركة» الرسائل. وتضمنت العديد من هذه المحادثات تفاصيل شخصية خاصة أو محرجة.

قال متحدث باسم شركة «ميتا» لصحيفة «تلغراف»: «عندما يشارك المستخدمون محتوى مع (ميتا إيه آي)، كما تفعل الشركات الأخرى، نستعين أحياناً بمتعاقدين لمراجعة هذه البيانات بهدف تحسين تجربة المستخدمين مع النظارات، وفقاً لما هو منصوص عليه في سياسة الخصوصية الخاصة بنا. تُصفّى هذه البيانات أولاً لحماية خصوصية المستخدمين»، وأضاف: «نحن نولي حماية بيانات المستخدمين أهمية قصوى، ونسعى باستمرار إلى تطوير جهودنا وأدواتنا في هذا المجال».