كيف تمنعون أجهزة المساعدة الذكية من التنصّت عليكم؟

خطوات أساسية لحماية الخصوصية

كيف تمنعون أجهزة المساعدة الذكية من التنصّت عليكم؟
TT

كيف تمنعون أجهزة المساعدة الذكية من التنصّت عليكم؟

كيف تمنعون أجهزة المساعدة الذكية من التنصّت عليكم؟

كثيرون منّا يطلبون من أجهزة المساعدة الصوتية الرقمية في منازلهم، سواء كان «أليكسا» من «أمازون» أو «سيري» من «أبل» أو «مساعد غوغل»، القيام بمهام بسيطة، كضبط المؤقّت وتشغيل الموسيقى.
ولكن ما قد يغفل عنه معظمنا هو احتمال وجود أشخاص يتنصّتون علينا في بعض الأحيان.

تسجيل وتنصّت

في تقريرين منفصلين صدرا أخيراً في صحيفة الـ«غارديان» وموقع «بلومبرغ»، تحدّث الناشطون من كاشفي الفساد، عن استماعهم لتسجيلات لتفعيل «سيري» و«أليكسا» رصدت من دون قصد، لحظات حميمة بين زوجين، وكذلك سجلت اتفاقاً بين بعض موزّعي المخدرات. وفي منشور آخر، تحدّثت هيئة الإذاعة والتلفزيون الفلمنكية عن كيفية مشاركة أحد متعاقدي «غوغل» أكثر من ألف مقتطف من تسجيلات الشركة مع أشخاص آخرين، استخدمها صحافيون لاحقاً لتحديد هوية بعض الأفراد.
في صناعة التقنية، بات الجميع يعلم أنّ الذكاء الصناعي لم يصل إلى مستوى الذكاء التام بعد، إذ لا يزال تدريب أنظمة الحوسبة يتطلّب جهود كثير من البشر الذين يغربلون البيانات يدوياً.
وهذا يعني أنّ البشر هم من يختارون التسجيلات الصوتية لتدريب «أليكسا» و«سيري» و«غوغل» لفهم الفروقات الطفيفة في الكلام، والتمييز بين الكلمات المنطوقة، مثل كلمات «أوستن» و«بوسطن» أو «يو تو» و«يوتيوب».
ولكنّ شركات التقنية لا تبدي شفافية مطلقاً عند الكشف عن ممارساتها تجاه مستخدميها، حتى إنّها قد تتخطّى الحدود فيما يتعلّق بأنواع التسجيلات التي تجمعها.
منذ صدور التقريرين، اكتفت شركات «غوغل» و«أبل» و«أمازون» بالقول إنّ أقلّ من واحد في المائة من التسجيلات مفتوحة للمراجعة البشرية. كما صرّحت كلّ من «أبل» و«غوغل» بأنّهما أوقفتا العمل ببرامج المراجعة البشرية، بينما أكّدت «أمازون» أنّها وسّعت برنامج المساعد الصوتي «أليكسا» ليضمّ مجموعة من أدوات ضبط الخصوصية.
هذا الأمر دفعني إلى التساؤل: ماذا يمكننا أن نفعل مع أجهزة المساعدة الرقمية لحماية خصوصيتنا ودون أن نضطر إلى التخلّص منها نهائياً؟
الخبر الجيّد هنا أنّ هناك بعض الخطوات التي يمكننا القيام بها؛ إذ تتيح كلّ من «أمازون» و«غوغل» لمستخدميهما إمكانية تعطيل المراقبة البشرية في مساعداتها الشخصية. وكانت «أبل» قد صرّحت بأنّها تخطّط لإطلاق تحديث برمجي يتيح للنّاس الاشتراك في برنامجها الذي يعتمد على تصنيف بشري لنماذج «سيري» للتحقّق من النوعية بدل أن تستعين بموظفين يلعبون دوراً غيابياً في البرنامج.
وهناك أيضاً أمور أخرى يمكننا القيام بها، كحذف التسجيلات، وتعطيل أجهزة الاستشعار، لتقليص حجم المعلومات التي تتمّ مشاركتها مع الشركات.

حماية الخصوصية

فيما يلي، ستجدون دليلاً شاملاً لمّا يمكنكم القيام به لحماية خصوصيتكم مع كلّ واحد من المساعدات الذكية:
> كيف تقلّلون البيانات التي تشاركها «أليكسا» مع «أمازون»؟
من بين جميع أجهزة المساعدة الرقمية، تملك «أليكسا» أدوات ضبط الخصوصية الأكثر شمولية ووضوحاً. وقد أطلقت «أمازون» أخيراً «مركز خصوصية أليكسا» الذي يقدّم لكم شرحاً مفصلاً لأنواع البيانات التي يجمعها المساعد الرقمي وكيف يمكنكم تغيير إعدادات الخصوصية فيه.
إليكم كيف يمكنكم الحدّ من التدخّل البشري:
- افتحوا تطبيق «أليكسا» على هاتفكم الذكي وانقروا على «إعدادات»، ومن ثمّ اختاروا «خصوصية أليكسا».
- انقروا على «إدارة كيف تحسّن بياناتكم أداء (أليكسا)».
- انقروا على زرّ تعطيل أدوات التحكّم المسمّاة «ساعد (أمازون) على تحسين الخدمات» و«طوّر ميزات جديدة».
كيف تحذفون التسجيلات الصوتية:
- في لائحة «خيارات الخصوصية» نفسها في «أليكسا»، اختاروا «مراجعة التاريخ الصوتي».
- في «نطاق البيانات»، اختاروا الإطار الزمني للتسجيلات التي تريدون حذفها مثل «جميع التواريخ» مثلاً.
- انقروا على «حذف جميع التسجيلات لجميع التواريخ».
تدابير وقائية أخرى للكاميرات والميكروفونات:
- يضمّ جهاز «أليكسا» زرّاً لتعطيل الميكروفونات. انقروا على زرّ الإطفاء في أي وقت تجرون فيه محادثة حسّاسة. عندها، سترون في الجهاز ضوءاً أحمر يعلمكم بأنّه تمّ تعطيل الميكروفون.
- تأتي بعض أجهزة «أليكسا» كمنبّه «إيكو سبوت» مجهّزة بكاميرات مدمجة. إنّ الطريقة الأسهل لتعطيل هذه الكاميرات هي قول: «أليكسا: أطفئي الكاميرا». ولكن في حال كنتم ما زلتم غير مرتاحين لوجودها، فيمكنكم شراء غطاء للكاميرات الإلكترونية ووضعه فوق العدسة.
في تصريح لها، قالت شركة «أمازون» إنّها تأخذ خصوصية زبائنها على محمل الجدّ، لافتة إلى أنّ «موظفيها يراجعون باستمرار ممارسات الشركة وإجراءاتها لضمان تأمين أفضل التجارب وخيارات الخصوصية للزبائن».

مساعد «أبل»

كيف تحذفون تسجيلات مساعد «سيري» من «أبل»؟
يعد مساعد سيري الأضعف لجهة أدوات التحكّم في الخصوصية بين المساعدين الرقميين، فضلاً عن أنّ عملية التحكّم في بيانات مستخدميه هي الأقلّ وضوحاً وشفافية.
مثلاً، لا تقدّم «أبل» خياراً يتيح للناس الوصول إلى برنامج التصنيف فيها، رغم تصريحها بأنّها تخطط للقيام بذلك في تحديثاتها البرمجية المقبلة. علاوة على ذلك، لا تتيح لكم «أبل» مراجعة تسجيلات «سيري» المرتبطة بحسابكم، كما أنّ عملية حذف التسجيلات فيه شاقّة جدّاً.
ولكنّ مساعد «سيري» يعتمد بعض التدابير لإخفاء هويتكم. فقد كشفت الشركة أنّكم عندما تطلبون شيئاً من مساعدها عبر الـ«آيفون» مثلاً، فإن الجهاز يربط هذه الطلبات بمعرّف عشوائي بدل أن يربطها بهويتكم الموجودة في حساب «أبل». ولتعيين معرّف عشوائي جديد، يمكنكم إطفاء «سيري» وإعادة تشغيله من جديد.
يذكر أنّ تعطيل «سيري» سيؤدي إلى حذف بياناتكم المرتبطة به مع ما يشمله من تسجيلات.
إليكم فيما يلي كيفية تعطيل «سيري» على الـ«آيفون» لحذف البيانات وتعيين معرّف جديد:
- افتحوا تطبيق «إعدادات»، ثمّ انقروا على «عام»، وبعدها على «لوحات المفاتيح».
في أداة «تشغيل الإملاء»، انقروا على الزرّ لتحويله إلى وضع التعطيل.
- عودوا إلى تطبيق «إعدادات». اختاروا «سيري وبحث»، وبعدها، انقروا على أزرار «أنصت لمرحباً (سيري)» و«انقر على الزرّ الجانبي في (سيري)».
بعدها، سترون رسالة تسألكم عما إذا كنتم تريدون تعطيل المساعد، وتعلمكم بأنّ هذه الخطوة ستؤدي إلى حذف كلّ بياناتكم من خوادم «أبل». انقروا على «إيقاف تشغيل (سيري)» وسيتمّ تلقائياً حذف تاريخكم الموجود في المساعد الذكي.
- لتشغيل «سيري» من جديد، عودوا لكلّ واحد من هذه الإعدادات وأعيدوا تشغيله.
في بعض الحالات، تبيّن أن التسجيلات الحسّاسة المحمّلة على «سيري» تمّ حفظها عن طريق التشغيل غير المتعمّد، مثل عند الضغط على رأس ساعة «أبل» عن طريق الخطأ، ما يستدعي المساعد. (وفق تجربتي الخاصة، هذا الأمر قد يحصل عندما تسندون يديكم على وسادة).

* ساعة «أبل»... لهذا السبب، تعرّفوا فيما يلي على إجراء وقائي خاص بساعة «أبل»:
- لمنع رأس الساعة من تشغيل «سيري»، عطّلوا زرّ المساعد الجانبي في هاتف الـ«آيفون». في تطبيق «إعدادات»، انقروا على «سيري وبحث» ومن ثمّ انقروا لتحويل خيار «اضغط على زرّ (سيري) الجانبي» إلى وضع إيقاف التشغيل. هذه الخطوة ستؤدي إلى تعطيل اختصار المساعد في الساعة.
وكانت شركة «أبل» قد رفضت التعليق على تصريح أعلنت فيه وقف العمل ببرنامج «سيري» للتصنيف.

مساعد «غوغل»

كيف تحمون خصوصيتكم مع مساعد «غوغل هوم»؟
تقدّم لكم مجموعة «غوغل هوم» بعض أدوات التحكّم لتعديل إعدادات الخصوصية في مساعد «غوغل» على هواتف «آندرويد» ومكبّرات «غوغل هوم»... وغيرهما من المنتجات.
أوقفت «غوغل» برنامجها للمراجعة البشرية عن العمل، ولكن هذا لا يعني أنه لا يمكنكم العمل لضمان التخلّص منه شخصياً. تتيح لكم الشركة البحثية أيضاً حذف طلبات مساعد «غوغل» أوتوماتيكياً بعد فترة من طرحها.
فيما يلي، ستتعرفون إلى كيفية تعطيل المراجعات البشرية:
- زوروا أداة «غوغل» الإلكترونية المسمّاة «أدوات التحكّم بالنشاط».
- تصفحوا الخيارات الموجودة في «صوت» و«نشاط صوتي». حوّلوا الأزرار إلى وضع التعطيل.
كيف تضبطون التسجيلات على الحذف التلقائي؟
- من جديد، زوروا أداة «غوغل» الإلكترونية المسمّاة «أدوات التحكّم بالنشاط».
- في قسم «الشبكة ونشاط التطبيقات»، انقروا على «إدارة النشاط».
- انقروا على «اختيار الحذف التلقائي» ومن ثمّ على «الاحتفاظ بالتسجيلات لثلاثة أشهر ومن ثمّ حذفها».
وكان متحدث باسم «غوغل» قد رفض التعليق على الأمر، وطلب مني مراجعة تدوينة فصّلت فيها الشركة تعاملها مع مراجعي اللغة البشرية لتحسين ميزة التعرّف على الصوت.
* خدمة «نيويورك تايمز»



فيديو: «مدرسة الروبوتات» بالصين… آلات تتعلّم الحياة اليومية بعيون البشر

مشاهدون يتابعون عرضاً للروبوتات في العاصمة الصينية بكين (رويترز)
مشاهدون يتابعون عرضاً للروبوتات في العاصمة الصينية بكين (رويترز)
TT

فيديو: «مدرسة الروبوتات» بالصين… آلات تتعلّم الحياة اليومية بعيون البشر

مشاهدون يتابعون عرضاً للروبوتات في العاصمة الصينية بكين (رويترز)
مشاهدون يتابعون عرضاً للروبوتات في العاصمة الصينية بكين (رويترز)

في مختبر متطور بمدينة Wuhan الصينية، تبدو المشاهد أقرب إلى فصل دراسي غير مألوف: صفٌّ من الروبوتات الشبيهة بالبشر يقف في انتظار التعليمات، بينما يقف أمامها مدربون بشريون يوجّهون حركاتها خطوةً خطوة. هنا، فيما يشبه «مدرسة للروبوتات»، تتعلم الآلات كيف تعيش تفاصيل الحياة اليومية كما يفعل البشر. وفقاً لموقع «يورونيوز».

يعتمد الباحثون الصينيون على تقنيات الواقع الافتراضي لتدريب هذه الروبوتات على أداء مهام متنوعة، تبدأ من إعداد فنجان قهوة، ولا تنتهي بالأعمال المنزلية البسيطة. ويرتدي المدربون نظارات الواقع الافتراضي ويمسكون بأجهزة تحكم يدوية، فتتحول حركاتهم مباشرةً إلى أوامر تنفذها الروبوتات في الوقت الفعلي.

وتشرح كو تشيونغبين، وهي مدربة روبوتات تعمل في مجال الذكاء الاصطناعي، طبيعة هذه التجربة قائلة إن المدربين «يرتدون نظارات الواقع الافتراضي ويمسكون بأجهزة تحكم في أيديهم، لتصبح اليدان اليمنى واليسرى بمثابة ذراعي الروبوت. وهكذا يتعلم الروبوت حركاتنا وأوضاعنا عبر تقليدها».

وتضيف أن البيانات الناتجة عن هذه الحركات تُرفع لاحقاً إلى السحابة الإلكترونية، حيث تُراجع وتُعتمد ضمن قاعدة بيانات، قبل أن تُحمّل مجدداً إلى الروبوت ليبدأ التعلم منها.

لكن التجربة لا تخلو من بعدٍ إنساني. تقول تشيونغبين إن أكثر ما يمنحها شعوراً بالرضا هو لحظة نجاح الروبوت في إنجاز المهمة: «الأمر ممتع للغاية. أشعر بإنجاز حقيقي عندما ينجح الروبوت في تنفيذ ما تعلمه، وكأنني أعلّم طفلي شيئاً جديداً وأراه يتطور أمامي».

ويقع هذا المشروع في منطقة تطوير التكنولوجيا الفائقة لبحيرة الشرق، المعروفة أيضاً باسم «وادي البصريات في الصين»، حيث تُنشأ بيئات تدريب تحاكي الواقع بدقة. ففي قاعات المختبر، يمكن مشاهدة غرف معيشة أو ورش عمل صناعية أُعدّت خصيصاً لتدريب الروبوتات على التعامل مع تفاصيل الحياة اليومية.

ويعتمد التدريب على التكرار المكثف؛ إذ يعيد المدربون الحركة نفسها مئات أو آلاف المرات، من أجل بناء قاعدة بيانات ضخمة تمكّن الروبوتات من تعلم المهارات تدريجياً.

ويقول يانغ شينيي، قائد المشروع في شركة «Data Fusion Technology»، إن الهدف من هذه العملية هو «إنشاء سيناريوهات واقعية تحاكي الحياة اليومية». ويضيف أن المدرب قد يضطر أحياناً إلى تكرار حركة واحدة عشرات الآلاف من المرات حتى يكتسب الروبوت القدرة على فهمها وتنفيذها بدقة.

ويؤكد الباحثون أن هذه الجهود تمثل خطوة مهمة نحو تسريع تطوير الروبوتات الشبيهة بالبشر القادرة على العمل والتفاعل داخل البيئات الواقعية، سواء في المنازل أو المصانع.

ولم يعد الأمر مقتصراً على المختبرات فحسب؛ إذ بات بإمكان الزوار في «7S Robot Store» مشاهدة بعض هذه الروبوتات عن قرب، والتفاعل معها مباشرة، حيث تستجيب للأوامر وتنفذ مهام بسيطة، في مشهدٍ يعكس ملامح عالمٍ قد تصبح فيه العلاقة بين الإنسان والآلة أكثر قرباً مما كان يُعتقد.


وزارة النقل الأميركية تسهل إطلاق سيارات الأجرة الجوية

وزارة النقل الأميركية تسهل إطلاق سيارات الأجرة الجوية
TT

وزارة النقل الأميركية تسهل إطلاق سيارات الأجرة الجوية

وزارة النقل الأميركية تسهل إطلاق سيارات الأجرة الجوية

وافقت وزارة النقل الأميركية على ثمانية برامج تجريبية في 26 ولاية، تسمح لطائرات الإقلاع والهبوط العمودي الكهربائية (eVTOL) ببدء اختبارات عملية.

خدمة سيارات الأجرة الجوية

وسيُتيح البرنامج توفير خدمة سيارات الأجرة الجوية في مدن مختارة، بينما ستساعد البيانات المُجمعة من الشركات المشارِكة إدارة الطيران الفيدرالية (FAA) على وضع لوائح لتوسيع نطاق هذه التقنية، مع الحفاظ على سلامة المجال الجوي الحضري.

وقال جو بن بيفيرت، المؤسس والرئيس التنفيذي لشركة جوبي للطيران، في بيان: «هذه لحظة فارقة للابتكار الأميركي، إذ ستتمكن المجتمعات في جميع أنحاء أميركا من رؤيته في سماء مُدنها، هذا العام».

وستُجرى برامج تجريبية في مناطق معتمَدة من قِبل وزارات النقل في تكساس ويوتا وبنسلفانيا ولويزيانا وفلوريدا وكارولينا الشمالية، ويشمل بعضها عدة ولايات. كما ستُشرف هيئة موانئ نيويورك ونيوجيرسي ومدينة ألبوكيرك على برامج تجريبية إضافية.

سيارات طائرة

لطالما كانت المركبات الكهربائية ذات الإقلاع والهبوط العمودي (أو السيارات الطائرة) حلماً من أحلام الخيال العلمي. تستطيع هذه الطائرات الإقلاع والهبوط تماماً كالمروحيات، ما يعني عدم الحاجة إلى مدرَّج. وهي تُعطي الأمل في تجنب الازدحام المروري الخانق، فضلاً عن تحقيق حلم الوصول إلى الوجهات بسرعة أكبر.

في السنوات الأخيرة، استثمرت شركات كبرى مئات الملايين من الدولارات في هذه التقنية، على أمل تحويل هذا الحلم إلى واقع. فعلى سبيل المثال، أنفقت شركة تويوتا 500 مليون دولار للاستثمار في شركة جوبي، في أكتوبر (تشرين الأول) 2024. كما تُعدّ خطوط دلتا الجوية من المستثمرين أيضاً، حيث استثمرت 80 مليون دولار في جوبي. في غضون ذلك، استثمرت شركة يونايتد 10 ملايين دولار في شركة آرتشر للطيران، و15 مليون دولار في شركة إيف إير موبيليتي عام 2022.

مركبات بيئية خافتة الضجيج

إلى جانب ما تَعِد به من تقليل التوتر، صُممت السيارات الطائرة لتكون أكثر هدوءاً من الطائرات التقليدية، بل حتى من أجهزة تكييف الهواء. ولأنها تعمل بالكهرباء، يُمكنها أيضاً المساهمة في خفض انبعاثات الكربون.

خدمات للمسافرين وللطوارئ

علاوة على ذلك، تُعدّ هذه السيارات أدوات قيّمة لفرق الاستجابة للطوارئ. وقد أوضحت وزارة النقل الأميركية، في بيانها، عدداً من الاستخدامات المحتملة التي تتجاوز نقل الركاب، لتشمل شبكات الشحن والخدمات اللوجستية، وعمليات الاستجابة الطبية الطارئة، والنقل البحري.

وقال نائب مدير إدارة الطيران الفيدرالية، كريس روشيلو: «ستساعدنا هذه الشراكات على فهم كيفية دمج هذه الطائرات في نظام المجال الجوي الوطني بشكل آمن وفعّال». وإلى جانب شركتيْ جوبي وآرتشر، ستشارك شركات أخرى في البرنامج التجريبي، ومنها بيتا، وإلكترا، وإلروي إير، وويسك، وأمباير، وريلايبل روبوتيكس.

* مجلة «فاست كومباني»، خدمات «تريبيون ميديا».


ألعاب تتحدث وتردّ… هل يعيد الذكاء الاصطناعي تشكيل تجربة اللّعب لدى الأطفال؟

تشير الدراسة إلى أن تأثير هذه الألعاب في تطور الأطفال دون سن الخامسة لا يزال غير مفهوم بشكل كافٍ (شاترستوك)
تشير الدراسة إلى أن تأثير هذه الألعاب في تطور الأطفال دون سن الخامسة لا يزال غير مفهوم بشكل كافٍ (شاترستوك)
TT

ألعاب تتحدث وتردّ… هل يعيد الذكاء الاصطناعي تشكيل تجربة اللّعب لدى الأطفال؟

تشير الدراسة إلى أن تأثير هذه الألعاب في تطور الأطفال دون سن الخامسة لا يزال غير مفهوم بشكل كافٍ (شاترستوك)
تشير الدراسة إلى أن تأثير هذه الألعاب في تطور الأطفال دون سن الخامسة لا يزال غير مفهوم بشكل كافٍ (شاترستوك)

يتوسع حضور الذكاء الاصطناعي بسرعة في مختلف جوانب الحياة اليومية، لكن أحد أكثر المجالات غير المتوقعة التي بدأ يدخلها هو عالم ألعاب الأطفال. فقد ظهرت في السنوات الأخيرة فئة جديدة من الألعاب المدعومة بالذكاء الاصطناعي التوليدي قادرة على التحدث مع الأطفال والإجابة عن أسئلتهم والمشاركة في ألعاب تفاعلية. غير أن باحثين يرون أن تطور هذه التقنيات يسير بوتيرة أسرع من فهمنا لتأثيراتها المحتملة في نمو الأطفال خلال السنوات الأولى من حياتهم.

دراسة جديدة من جامعة كامبردج تبحث في كيفية تفاعل الأطفال دون سن الخامسة مع هذه الألعاب الذكية، وتثير تساؤلات حول تأثيراتها على التطور العاطفي والخصوصية ودور الذكاء الاصطناعي في مراحل التعلم المبكرة. وقد أُجريت الدراسة ضمن مشروع «الذكاء الاصطناعي في السنوات المبكرة» الذي يدرس آثار الألعاب المعتمدة على الذكاء الاصطناعي المصممة للأطفال الصغار.

وتشير النتائج إلى أنه رغم ما قد توفره هذه الألعاب من فرص تعليمية، فإنها تثير أيضاً مخاوف مهمة تتعلق بالاستجابة العاطفية للأطفال وحماية بياناتهم وطبيعة العلاقة التي قد ينشئونها مع الآلات.

رفيق جديد للّعب

على عكس الألعاب التقليدية، تستطيع الألعاب المدعومة بالذكاء الاصطناعي التفاعل مع الأطفال بشكل ديناميكي. فهي تعتمد على نماذج لغوية قادرة على إجراء محادثات والإجابة عن الأسئلة وتوليد محتوى تفاعلي يشبه التواصل البشري. ويشير الباحثون إلى أن بعض هذه الألعاب يُسوَّق بالفعل بوصفه رفيقاً تعليمياً أو صديقاً للأطفال، إذ يمكنه التفاعل مع الطفل في الزمن الحقيقي.

وتُعد السنوات الأولى من حياة الطفل حتى سن الخامسة مرحلة حساسة في التطور الاجتماعي والعاطفي. وخلال هذه الفترة يتعلم الأطفال أساسيات التواصل والعلاقات عبر التفاعل مع الوالدين ومقدمي الرعاية والأقران. لذلك فإن إدخال أنظمة ذكاء اصطناعي محاورة في هذا السياق قد يخلق فرصاً جديدة، لكنه قد يطرح أيضاً تحديات غير متوقعة.

تقول الباحثة إيميلي غوداكر، إحدى المشاركات في الدراسة، إن بعض الألعاب المدعومة بالذكاء الاصطناعي قد تؤكد للأطفال أنها «أصدقاء لهم»، في مرحلة لا يزال الأطفال فيها يتعلمون معنى الصداقة نفسها. وقد يدفع ذلك بعض الأطفال إلى مشاركة مشاعرهم أو مشكلاتهم مع اللعبة بدلاً من التحدث إلى شخص بالغ. لكن إذا لم تتمكن اللعبة من فهم تلك المشاعر أو الاستجابة لها بشكل مناسب، فقد تكون النتيجة إشكالية.

يدعو الباحثون إلى وضع معايير تنظيمية أوضح لحماية الأطفال وضمان شفافية استخدام البيانات (شاترستوك)

ألعاب الذكاء الاصطناعي

لفهم كيفية تفاعل الأطفال مع هذه الألعاب في الواقع، أجرى الباحثون جلسات ملاحظة مباشرة لأطفال يلعبون مع لعبة ذكاء اصطناعي محادثة تُدعى «غابو» (Gabbo). وشملت الدراسة 14 طفلاً تتراوح أعمارهم بين ثلاث وخمس سنوات، إضافة إلى مقابلات مع الآباء بعد جلسات اللعب. خلال الجلسات، استخدم الأطفال اللعبة بطرق مختلفة. بعضهم طرح عليها أسئلة حول ما تحبه أو ما تفضله، بينما بدأ آخرون ألعاباً تخيلية معها. وكثيراً ما تعامل الأطفال مع اللعبة كما لو كانت شريكاً اجتماعياً حقيقياً، إذ قاموا بمعانقتها أو التعبير عن مشاعرهم تجاهها. وفي إحدى الحالات، قال طفل للعبة: «أنا أحبك»، فردت اللعبة برسالة إرشادية تقول: «يرجى التأكد من أن التفاعل يلتزم بالإرشادات المتاحة».

ويبرز هذا المثال أحد التحديات الأساسية يتعلق بمدى قدرة أنظمة الذكاء الاصطناعي على فهم السياق العاطفي كما يفعل البشر على الرغم من محاكاة الحوار. كما لاحظ الباحثون أيضاً حالات متكررة من سوء الفهم في المحادثة، إذ كانت اللعبة أحياناً تتجاهل مقاطعات الطفل أو تسيء تفسير كلامه أو لا تستجيب لتغيير الموضوع، الأمر الذي أدى أحياناً إلى شعور الأطفال بالإحباط.

أين تفشل الألعاب الذكية؟

أحد أهم استنتاجات الدراسة يتعلق بطبيعة اللعب في الطفولة المبكرة، فالتطور في هذه المرحلة يعتمد بدرجة كبيرة على اللعب الاجتماعي واللعب التخيلي، وهما عنصران أساسيان في نمو مهارات التواصل والخيال لدى الطفل. لكن الباحثين وجدوا أن الألعاب المعتمدة على الذكاء الاصطناعي لا تزال ضعيفة في التعامل مع هذين النوعين من اللعب. فعلى سبيل المثال، عندما قدم طفل هدية خيالية للعبة ضمن لعبة تخيلية، أجابت اللعبة بأنها «لا تستطيع فتح الهدية»، ثم غيرت الموضوع.

وفي حالة أخرى، قال طفل إنه يشعر بالحزن، لكن اللعبة ردت بطريقة مبهجة ودعت إلى الاستمرار في اللعب، وهو رد قد يُفسَّر على أنه تجاهل لمشاعر الطفل. ويرى الباحثون أن هذا يعكس حدود قدرة الأنظمة الحالية على فهم الإشارات العاطفية الدقيقة، وهي مهارة أساسية في التفاعل الإنساني خلال الطفولة.

فرص تعليمية محتملة

مع ذلك، لا ترفض الدراسة فكرة استخدام هذه الألعاب بالكامل. فقد رأى بعض الآباء والمعلمين المشاركين في الدراسة أن لها إمكانات تعليمية، خصوصاً في مجالات مثل تطوير اللغة والتواصل. إذ يمكن للألعاب الذكية إجراء محادثات مع الأطفال وطرح أسئلة متابعة وتشجيعهم على التفاعل اللفظي، ما قد يساعد في تنمية المهارات اللغوية. كما يمكن أن توفر تجارب تعلم شخصية تتكيف مع استجابات الطفل، وهو ما قد يكون مفيداً في بعض السياقات التعليمية. لكن الباحثين يشددون على أن هذه الفوائد لم تُثبت علمياً بعد. فقد أظهرت مراجعة الأدبيات العلمية التي أجريت ضمن المشروع أن الدراسات حول تأثير الألعاب المعتمدة على الذكاء الاصطناعي في الأطفال دون الخامسة لا تزال محدودة للغاية.

أظهرت الملاحظات أن الألعاب الذكية قد تسيء فهم مشاعر الأطفال أو ترد بطريقة غير مناسبة عاطفياً (شاترستوك)

مخاوف تتعلق بالخصوصية

إحدى القضايا الرئيسية التي أثارتها الدراسة تتعلق بالبيانات والخصوصية، فالألعاب القائمة على المحادثة تعتمد على تسجيل الصوت أو معالجته، ما يعني احتمال جمع بيانات عن الأطفال. وقد أعرب العديد من الآباء المشاركين في الدراسة عن قلقهم بشأن طبيعة هذه البيانات ومكان تخزينها. كما لاحظ الباحثون أن سياسات الخصوصية لبعض الألعاب المتوفرة في السوق غير واضحة، أو تفتقر إلى تفاصيل مهمة. وهذا يثير تساؤلات حول كيفية استخدام هذه البيانات ومن يمكنه الوصول إليها.

علاقة عاطفية من طرف واحد

تشير الدراسة أيضاً إلى احتمال أن يطور الأطفال نوعاً من العلاقة العاطفية مع الألعاب الذكية. فقد لوحظ أن الأطفال في الدراسة عانقوا اللعبة وقبلوها وتحدثوا معها كما لو كانت صديقاً. ويصف الباحثون هذا النوع من التفاعل بأنه علاقة شبه اجتماعية أي علاقة عاطفية من طرف واحد. ورغم أن اللعب التخيلي مع الألعاب أمر طبيعي في الطفولة، فإن القدرة الحوارية للذكاء الاصطناعي قد تجعل هذه العلاقة أكثر تعقيداً.

وفي ضوء هذه النتائج، يدعو الباحثون إلى وضع معايير تنظيمية أوضح للألعاب المدعومة بالذكاء الاصطناعي الموجهة للأطفال. وتشمل التوصيات تطوير معايير سلامة واضحة، وتعزيز الشفافية بشأن استخدام البيانات، ووضع ملصقات تساعد الآباء على تقييم مدى ملاءمة اللعبة للأطفال. كما يقترح الباحثون الحد من تصميم الألعاب بطريقة تشجع الأطفال على اعتبارها أصدقاء حقيقيين. ويؤكد خبراء أن تصميم هذه المنتجات يجب أن يتم بالتشاور مع متخصصين في حماية الطفل قبل طرحها في الأسواق.

تقنية سبقت الأدلة

في النهاية، يؤكد الباحثون أن الألعاب المدعومة بالذكاء الاصطناعي لا تزال تقنية جديدة نسبياً، وأن فهم تأثيراتها على نمو الأطفال ما زال في بدايته. لكن ما يبدو واضحاً هو أن الذكاء الاصطناعي بدأ بالفعل يدخل إلى مساحات كانت تقليدياً تعتمد على التفاعل البشري المباشر. ويبقى السؤال المطروح: هل ستصبح هذه الألعاب أدوات تعليمية مفيدة، أم ستخلق تحديات جديدة في فهم الأطفال للعلاقات والتواصل؟

بالنسبة للباحثين، الإجابة تعتمد إلى حد كبير على كيفية تصميم هذه التقنيات وتنظيمها واستخدامها في حياة الأطفال. فحتى مع تطور التكنولوجيا، يبقى العنصر الأكثر أهمية في نمو الطفل هو ما لم يتغير: التفاعل الإنساني الحقيقي.

Your Premium trial has endedYour Premium trial has ended