كيف تمنعون أجهزة المساعدة الذكية من التنصّت عليكم؟

خطوات أساسية لحماية الخصوصية

كيف تمنعون أجهزة المساعدة الذكية من التنصّت عليكم؟
TT

كيف تمنعون أجهزة المساعدة الذكية من التنصّت عليكم؟

كيف تمنعون أجهزة المساعدة الذكية من التنصّت عليكم؟

كثيرون منّا يطلبون من أجهزة المساعدة الصوتية الرقمية في منازلهم، سواء كان «أليكسا» من «أمازون» أو «سيري» من «أبل» أو «مساعد غوغل»، القيام بمهام بسيطة، كضبط المؤقّت وتشغيل الموسيقى.
ولكن ما قد يغفل عنه معظمنا هو احتمال وجود أشخاص يتنصّتون علينا في بعض الأحيان.

تسجيل وتنصّت

في تقريرين منفصلين صدرا أخيراً في صحيفة الـ«غارديان» وموقع «بلومبرغ»، تحدّث الناشطون من كاشفي الفساد، عن استماعهم لتسجيلات لتفعيل «سيري» و«أليكسا» رصدت من دون قصد، لحظات حميمة بين زوجين، وكذلك سجلت اتفاقاً بين بعض موزّعي المخدرات. وفي منشور آخر، تحدّثت هيئة الإذاعة والتلفزيون الفلمنكية عن كيفية مشاركة أحد متعاقدي «غوغل» أكثر من ألف مقتطف من تسجيلات الشركة مع أشخاص آخرين، استخدمها صحافيون لاحقاً لتحديد هوية بعض الأفراد.
في صناعة التقنية، بات الجميع يعلم أنّ الذكاء الصناعي لم يصل إلى مستوى الذكاء التام بعد، إذ لا يزال تدريب أنظمة الحوسبة يتطلّب جهود كثير من البشر الذين يغربلون البيانات يدوياً.
وهذا يعني أنّ البشر هم من يختارون التسجيلات الصوتية لتدريب «أليكسا» و«سيري» و«غوغل» لفهم الفروقات الطفيفة في الكلام، والتمييز بين الكلمات المنطوقة، مثل كلمات «أوستن» و«بوسطن» أو «يو تو» و«يوتيوب».
ولكنّ شركات التقنية لا تبدي شفافية مطلقاً عند الكشف عن ممارساتها تجاه مستخدميها، حتى إنّها قد تتخطّى الحدود فيما يتعلّق بأنواع التسجيلات التي تجمعها.
منذ صدور التقريرين، اكتفت شركات «غوغل» و«أبل» و«أمازون» بالقول إنّ أقلّ من واحد في المائة من التسجيلات مفتوحة للمراجعة البشرية. كما صرّحت كلّ من «أبل» و«غوغل» بأنّهما أوقفتا العمل ببرامج المراجعة البشرية، بينما أكّدت «أمازون» أنّها وسّعت برنامج المساعد الصوتي «أليكسا» ليضمّ مجموعة من أدوات ضبط الخصوصية.
هذا الأمر دفعني إلى التساؤل: ماذا يمكننا أن نفعل مع أجهزة المساعدة الرقمية لحماية خصوصيتنا ودون أن نضطر إلى التخلّص منها نهائياً؟
الخبر الجيّد هنا أنّ هناك بعض الخطوات التي يمكننا القيام بها؛ إذ تتيح كلّ من «أمازون» و«غوغل» لمستخدميهما إمكانية تعطيل المراقبة البشرية في مساعداتها الشخصية. وكانت «أبل» قد صرّحت بأنّها تخطّط لإطلاق تحديث برمجي يتيح للنّاس الاشتراك في برنامجها الذي يعتمد على تصنيف بشري لنماذج «سيري» للتحقّق من النوعية بدل أن تستعين بموظفين يلعبون دوراً غيابياً في البرنامج.
وهناك أيضاً أمور أخرى يمكننا القيام بها، كحذف التسجيلات، وتعطيل أجهزة الاستشعار، لتقليص حجم المعلومات التي تتمّ مشاركتها مع الشركات.

حماية الخصوصية

فيما يلي، ستجدون دليلاً شاملاً لمّا يمكنكم القيام به لحماية خصوصيتكم مع كلّ واحد من المساعدات الذكية:
> كيف تقلّلون البيانات التي تشاركها «أليكسا» مع «أمازون»؟
من بين جميع أجهزة المساعدة الرقمية، تملك «أليكسا» أدوات ضبط الخصوصية الأكثر شمولية ووضوحاً. وقد أطلقت «أمازون» أخيراً «مركز خصوصية أليكسا» الذي يقدّم لكم شرحاً مفصلاً لأنواع البيانات التي يجمعها المساعد الرقمي وكيف يمكنكم تغيير إعدادات الخصوصية فيه.
إليكم كيف يمكنكم الحدّ من التدخّل البشري:
- افتحوا تطبيق «أليكسا» على هاتفكم الذكي وانقروا على «إعدادات»، ومن ثمّ اختاروا «خصوصية أليكسا».
- انقروا على «إدارة كيف تحسّن بياناتكم أداء (أليكسا)».
- انقروا على زرّ تعطيل أدوات التحكّم المسمّاة «ساعد (أمازون) على تحسين الخدمات» و«طوّر ميزات جديدة».
كيف تحذفون التسجيلات الصوتية:
- في لائحة «خيارات الخصوصية» نفسها في «أليكسا»، اختاروا «مراجعة التاريخ الصوتي».
- في «نطاق البيانات»، اختاروا الإطار الزمني للتسجيلات التي تريدون حذفها مثل «جميع التواريخ» مثلاً.
- انقروا على «حذف جميع التسجيلات لجميع التواريخ».
تدابير وقائية أخرى للكاميرات والميكروفونات:
- يضمّ جهاز «أليكسا» زرّاً لتعطيل الميكروفونات. انقروا على زرّ الإطفاء في أي وقت تجرون فيه محادثة حسّاسة. عندها، سترون في الجهاز ضوءاً أحمر يعلمكم بأنّه تمّ تعطيل الميكروفون.
- تأتي بعض أجهزة «أليكسا» كمنبّه «إيكو سبوت» مجهّزة بكاميرات مدمجة. إنّ الطريقة الأسهل لتعطيل هذه الكاميرات هي قول: «أليكسا: أطفئي الكاميرا». ولكن في حال كنتم ما زلتم غير مرتاحين لوجودها، فيمكنكم شراء غطاء للكاميرات الإلكترونية ووضعه فوق العدسة.
في تصريح لها، قالت شركة «أمازون» إنّها تأخذ خصوصية زبائنها على محمل الجدّ، لافتة إلى أنّ «موظفيها يراجعون باستمرار ممارسات الشركة وإجراءاتها لضمان تأمين أفضل التجارب وخيارات الخصوصية للزبائن».

مساعد «أبل»

كيف تحذفون تسجيلات مساعد «سيري» من «أبل»؟
يعد مساعد سيري الأضعف لجهة أدوات التحكّم في الخصوصية بين المساعدين الرقميين، فضلاً عن أنّ عملية التحكّم في بيانات مستخدميه هي الأقلّ وضوحاً وشفافية.
مثلاً، لا تقدّم «أبل» خياراً يتيح للناس الوصول إلى برنامج التصنيف فيها، رغم تصريحها بأنّها تخطط للقيام بذلك في تحديثاتها البرمجية المقبلة. علاوة على ذلك، لا تتيح لكم «أبل» مراجعة تسجيلات «سيري» المرتبطة بحسابكم، كما أنّ عملية حذف التسجيلات فيه شاقّة جدّاً.
ولكنّ مساعد «سيري» يعتمد بعض التدابير لإخفاء هويتكم. فقد كشفت الشركة أنّكم عندما تطلبون شيئاً من مساعدها عبر الـ«آيفون» مثلاً، فإن الجهاز يربط هذه الطلبات بمعرّف عشوائي بدل أن يربطها بهويتكم الموجودة في حساب «أبل». ولتعيين معرّف عشوائي جديد، يمكنكم إطفاء «سيري» وإعادة تشغيله من جديد.
يذكر أنّ تعطيل «سيري» سيؤدي إلى حذف بياناتكم المرتبطة به مع ما يشمله من تسجيلات.
إليكم فيما يلي كيفية تعطيل «سيري» على الـ«آيفون» لحذف البيانات وتعيين معرّف جديد:
- افتحوا تطبيق «إعدادات»، ثمّ انقروا على «عام»، وبعدها على «لوحات المفاتيح».
في أداة «تشغيل الإملاء»، انقروا على الزرّ لتحويله إلى وضع التعطيل.
- عودوا إلى تطبيق «إعدادات». اختاروا «سيري وبحث»، وبعدها، انقروا على أزرار «أنصت لمرحباً (سيري)» و«انقر على الزرّ الجانبي في (سيري)».
بعدها، سترون رسالة تسألكم عما إذا كنتم تريدون تعطيل المساعد، وتعلمكم بأنّ هذه الخطوة ستؤدي إلى حذف كلّ بياناتكم من خوادم «أبل». انقروا على «إيقاف تشغيل (سيري)» وسيتمّ تلقائياً حذف تاريخكم الموجود في المساعد الذكي.
- لتشغيل «سيري» من جديد، عودوا لكلّ واحد من هذه الإعدادات وأعيدوا تشغيله.
في بعض الحالات، تبيّن أن التسجيلات الحسّاسة المحمّلة على «سيري» تمّ حفظها عن طريق التشغيل غير المتعمّد، مثل عند الضغط على رأس ساعة «أبل» عن طريق الخطأ، ما يستدعي المساعد. (وفق تجربتي الخاصة، هذا الأمر قد يحصل عندما تسندون يديكم على وسادة).

* ساعة «أبل»... لهذا السبب، تعرّفوا فيما يلي على إجراء وقائي خاص بساعة «أبل»:
- لمنع رأس الساعة من تشغيل «سيري»، عطّلوا زرّ المساعد الجانبي في هاتف الـ«آيفون». في تطبيق «إعدادات»، انقروا على «سيري وبحث» ومن ثمّ انقروا لتحويل خيار «اضغط على زرّ (سيري) الجانبي» إلى وضع إيقاف التشغيل. هذه الخطوة ستؤدي إلى تعطيل اختصار المساعد في الساعة.
وكانت شركة «أبل» قد رفضت التعليق على تصريح أعلنت فيه وقف العمل ببرنامج «سيري» للتصنيف.

مساعد «غوغل»

كيف تحمون خصوصيتكم مع مساعد «غوغل هوم»؟
تقدّم لكم مجموعة «غوغل هوم» بعض أدوات التحكّم لتعديل إعدادات الخصوصية في مساعد «غوغل» على هواتف «آندرويد» ومكبّرات «غوغل هوم»... وغيرهما من المنتجات.
أوقفت «غوغل» برنامجها للمراجعة البشرية عن العمل، ولكن هذا لا يعني أنه لا يمكنكم العمل لضمان التخلّص منه شخصياً. تتيح لكم الشركة البحثية أيضاً حذف طلبات مساعد «غوغل» أوتوماتيكياً بعد فترة من طرحها.
فيما يلي، ستتعرفون إلى كيفية تعطيل المراجعات البشرية:
- زوروا أداة «غوغل» الإلكترونية المسمّاة «أدوات التحكّم بالنشاط».
- تصفحوا الخيارات الموجودة في «صوت» و«نشاط صوتي». حوّلوا الأزرار إلى وضع التعطيل.
كيف تضبطون التسجيلات على الحذف التلقائي؟
- من جديد، زوروا أداة «غوغل» الإلكترونية المسمّاة «أدوات التحكّم بالنشاط».
- في قسم «الشبكة ونشاط التطبيقات»، انقروا على «إدارة النشاط».
- انقروا على «اختيار الحذف التلقائي» ومن ثمّ على «الاحتفاظ بالتسجيلات لثلاثة أشهر ومن ثمّ حذفها».
وكان متحدث باسم «غوغل» قد رفض التعليق على الأمر، وطلب مني مراجعة تدوينة فصّلت فيها الشركة تعاملها مع مراجعي اللغة البشرية لتحسين ميزة التعرّف على الصوت.
* خدمة «نيويورك تايمز»



«إكس» تتقدم بمقترح قبل ساعات من استحقاق غرامة أوروبية كبيرة على المنصة

حساب إيلون ماسك على منصة «إكس» (رويترز)
حساب إيلون ماسك على منصة «إكس» (رويترز)
TT

«إكس» تتقدم بمقترح قبل ساعات من استحقاق غرامة أوروبية كبيرة على المنصة

حساب إيلون ماسك على منصة «إكس» (رويترز)
حساب إيلون ماسك على منصة «إكس» (رويترز)

بعد ساعات من انتهاء المهلة المحددة لسداد غرامة بالملايين فرضها الاتحاد الأوروبي، قدّمت منصة «إكس»، المملوكة للملياردير إيلون ماسك، إلى المفوضية الأوروبية تصوراً لتعديلات جوهرية على المنصة.

وأكد مسؤول إعلامي باسم الهيئة المنظمة، ومقرها بروكسل، الجمعة، أن المقترحات المقدمة من المنصة تركز بالأساس على تطوير آليات توثيق الحسابات عبر علامات التحقق (الشارات الزرقاء)، بهدف تعزيز الشفافية ومكافحة التضليل.

ولم يكشف المسؤول عن أي تفاصيل، لكنه أشار إلى أنها خطوة في الاتجاه الصحيح، وفق ما ذكرته «وكالة الأنباء الألمانية».

وقال المتحدث باسم الاتحاد الأوروبي: «لا يسعنا إلا أن نثمن أنه بعد حوار بناء مع الشركة، أخذت التزاماتها القانونية على محمل الجد وقدمت لنا مقترحات عملية».

يذكر أن المفوضية الأوروبية كانت قد فرضت على المنصة في ديسمبر (كانون الأول) الماضي، غرامة قدرها 120 مليون يورو (137.7 مليون دولار) استناداً إلى قانون الخدمات الرقمية، وذلك على خلفية ما وصفته بـ«الافتقار إلى الشفافية» في طريقة توثيق الحسابات باستخدام علامة بيضاء على خلفية زرقاء، والتي عدّتها مضللة.

وجاء إجراء الاتحاد الأوروبي ضد «إكس» عقب تحقيق استمر نحو عامين بموجب قانون الخدمات الرقمية للاتحاد الأوروبي، الذي يُلزم المنصات الإلكترونية ببذل مزيد من الجهود لمكافحة المحتوى غير القانوني والضار.

وفي يوليو (تموز) 2024، اتهمت المفوضية الأوروبية «إكس» بتضليل المستخدمين، مشيرة إلى أن علامة التوثيق الزرقاء لا تتوافق مع الممارسات المتبعة في هذا المجال، وأن أي شخص يستطيع الدفع للحصول على حالة «موثق».


الصور والفيديوهات المفبركة في زمن الحروب… كيف نميّز الحقيقة من التزييف؟

تنتشر المعلومات المضللة بسرعة كبيرة على وسائل التواصل الاجتماعي خلال الأزمات والصراعات (شاترستوك)
تنتشر المعلومات المضللة بسرعة كبيرة على وسائل التواصل الاجتماعي خلال الأزمات والصراعات (شاترستوك)
TT

الصور والفيديوهات المفبركة في زمن الحروب… كيف نميّز الحقيقة من التزييف؟

تنتشر المعلومات المضللة بسرعة كبيرة على وسائل التواصل الاجتماعي خلال الأزمات والصراعات (شاترستوك)
تنتشر المعلومات المضللة بسرعة كبيرة على وسائل التواصل الاجتماعي خلال الأزمات والصراعات (شاترستوك)

مع التصعيد المتسارع على عدة جبهات في الشرق الأوسط، تتدفق المعلومات بسرعة تكاد توازي سرعة الأحداث نفسها. وغالباً ما تكون منصات التواصل الاجتماعي أول مكان تظهر فيه الصور ومقاطع الفيديو والتقارير عن هجمات مزعومة أو تطورات عسكرية. لكن بالتوازي مع المعلومات الحقيقية، بدأت أيضاً موجة من المحتوى المضلل أو المفبرك تنتشر على الإنترنت، ما يجعل التمييز بين الحقيقة والزيف أكثر صعوبة.

تحدٍّ رقمي متزايد

في هذا السياق، يحذر خبراء الأمن السيبراني من أن الانتشار السريع للمعلومات المضللة، لا سيما عبر مقاطع الفيديو المعدلة وتقنيات التزييف العميق (Deepfakes)، أصبح تحدياً رقمياً متزايداً خلال فترات عدم الاستقرار الجيوسياسي.

ويؤكد ماهر يمّوت الباحث الرئيسي في الأمن لدى شركة «كاسبرسكي» خلال لقاء خاص مع «الشرق الأوسط»، أن التمييز بين المعلومات الموثوقة والروايات الزائفة يصبح أكثر أهمية خلال حالات الطوارئ، حين ترتفع حدة المشاعر ويميل الناس إلى مشاركة المحتوى بسرعة من دون التحقق منه.

ويردف: «مع تطورات الأوضاع في الشرق الأوسط، حذّرت جهات حكومية في دول مجلس التعاون الخليجي من نشر أو تداول أي معلومات من مصادر غير معروفة». ويضيف أن «الأخبار الزائفة، أي المعلومات المضللة أو غير الدقيقة التي تُقدَّم على أنها أخبار حقيقية، تصبح أكثر خطورة خلال حالات الطوارئ».

ماهر يموت باحث أمني رئيسي في «كاسبرسكي» (كاسبرسكي)

المعلومات المضللة

ليست الأخبار الزائفة ظاهرة جديدة، لكنّ حجم انتشارها وسرعتها تغيّر بشكل كبير مع صعود وسائل التواصل الاجتماعي وأدوات الذكاء الاصطناعي؛ ففي أوقات التوتر الجيوسياسي، يمكن أن تنتشر تقارير غير مؤكدة أو مقاطع فيديو معدّلة على نطاق واسع خلال دقائق، وقد تصل إلى ملايين المستخدمين قبل أن تتمكن جهات التحقق من الحقائق من مراجعتها.

ويصنف الخبراء الأخبار الزائفة عادة ضمن فئتين رئيسيتين؛ الأولى تتعلق بمحتوى مفبرك بالكامل يهدف إلى التأثير في الرأي العام أو جذب زيارات إلى مواقع إلكترونية معينة. أما الثانية فتتضمن معلومات تحتوي على جزء من الحقيقة، لكنها تُعرض بشكل غير دقيق لأن الكاتب لم يتحقق من جميع الوقائع، أو بالغ في بعض التفاصيل.

وفي الحالتين، يمكن أن يؤدي ذلك إلى إرباك المتابعين خلال الأزمات، خصوصاً عندما يعتمد المستخدمون على منصات التواصل الاجتماعي، بدلاً من المصادر الإخبارية الموثوقة للحصول على التحديثات.

كما بدأت السلطات في عدة دول، التحذير من أن نشر معلومات خاطئة حتى من دون قصد، قد يعرّض المستخدمين للمساءلة القانونية، ما دفع الحكومات وخبراء الأمن الرقمي إلى التشديد على أهمية الوعي الرقمي والمسؤولية عند مشاركة المعلومات في أوقات حساسة.

الخداع المدعوم بالذكاء الاصطناعي

أدخل الذكاء الاصطناعي بعداً جديداً إلى مشكلة المعلومات المضللة، من خلال ما يُعرف بتقنيات «التزييف العميق»، وهي مقاطع فيديو مفبركة تُنشأ باستخدام تقنيات التعلم الآلي؛ مثل تبديل الوجوه أو توليد محتوى بصري اصطناعي. وفي بعض الحالات يمكن تعديل مقاطع حقيقية لتبدو كأنها توثق أحداثاً لم تقع أصلاً.

ويصرح يمّوت بأن أهمية التحقق من الأخبار الزائفة باتت أكبر من أي وقت مضى مع انتشار التزييف العميق. ويزيد: «الذكاء الاصطناعي يتيح دمج مقاطع فيديو مختلفة لإنتاج مشاهد جديدة تظهر أحداثاً أو أفعالاً لم تحدث في الواقع، وغالباً بنتائج واقعية للغاية».

وتجعل هذه التقنيات مقاطع الفيديو المعدلة تبدو حقيقية إلى حد كبير، ما قد يؤدي إلى تضليل المستخدمين، خصوصاً عندما يتم تداولها في سياقات مشحونة عاطفياً؛ فعلى سبيل المثال، قد تظهر مقاطع معدلة كأنها توثق هجمات أو تحركات عسكرية أو تصريحات سياسية لم تحدث. وحتى إذا تم كشف زيف هذه المقاطع لاحقاً، فإن انتشارها الأولي قد يسبب حالة من القلق أو الارتباك لدى الجمهور.

قد تؤدي الأخبار الزائفة إلى إرباك الجمهور ونشر الشائعات خصوصاً عند تداولها دون تحقق (شاترستوك)

كيفية التحقق من المعلومات

يشدد خبراء الأمن السيبراني على أن المستخدمين أنفسهم يلعبون دوراً أساسياً في الحد من انتشار المعلومات المضللة؛ فبينما تطور المنصات والجهات التنظيمية أدوات لرصد المحتوى المزيف، يمكن للأفراد اتخاذ خطوات بسيطة للتحقق من صحة المعلومات قبل مشاركتها.

أولى هذه الخطوات هي التحقق من مصدر الخبر؛ فبعض المواقع التي تنشر أخباراً مزيفة قد تحتوي على أخطاء إملائية في عنوان الموقع الإلكتروني أو تستخدم نطاقات غير مألوفة، تحاكي مواقع إعلامية معروفة.

وينصح يمّوت بالتحقق من عنوان الموقع بعناية، والاطلاع على قسم «من نحن» في المواقع غير المعروفة. ومن الأفضل الاعتماد على مصادر رسمية ومعتمدة؛ مثل المواقع الحكومية أو المؤسسات الإعلامية الموثوقة.

كما ينبغي التحقق من هوية الكاتب أو الجهة التي نشرت الخبر. فإذا لم يكن المؤلف معروفاً أو لا يمتلك خبرة واضحة في الموضوع، فقد يكون من الحكمة التعامل مع المعلومات بحذر.

وتعد مقارنة الخبر مع مصادر موثوقة أخرى خطوة مهمة أيضاً؛ فالمؤسسات الإعلامية المهنية تعتمد إرشادات تحريرية وإجراءات تحقق من المعلومات، ما يعني أن الأحداث الكبرى عادة ما تُغطى من قبل أكثر من جهة إعلامية موثوقة.

ويشير يمّوت أيضاً إلى أهمية التحقق من التواريخ والتسلسل الزمني للأخبار، إذ إن بعض المعلومات المضللة يعتمد على إعادة نشر أحداث قديمة أو عرضها، كما لو أنها وقعت حديثاً. كما يلفت إلى أن خوارزميات وسائل التواصل الاجتماعي قد تخلق ما يُعرف بـ«غرف الصدى»، حيث تُعرض للمستخدمين محتويات تتوافق مع آرائهم واهتماماتهم السابقة، وهو ما يجعل من الضروري الاطلاع على مصادر متنوعة وموثوقة قبل تكوين أي استنتاجات.

التلاعب بالمشاعر

يعتمد كثير من الأخبار الزائفة على إثارة المشاعر؛ فالعناوين المثيرة أو المقاطع الدرامية غالباً ما تُصاغ بطريقة تستفز مشاعر الخوف أو الغضب أو الصدمة، وهي مشاعر تزيد من احتمال مشاركة المحتوى بسرعة.

ويقول يمّوت: «كثير من الأخبار الزائفة يُكتب بطريقة ذكية لاستثارة ردود فعل عاطفية قوية». ويضيف أن «الحفاظ على التفكير النقدي وطرح سؤال بسيط مثل: لماذا كُتب هذا الخبر؟ قد يساعد المستخدمين في تجنب نشر معلومات مضللة». وتزداد أهمية هذا الأمر على منصات التواصل الاجتماعي، حيث تميل الخوارزميات إلى إبراز المحتوى الذي يحقق تفاعلاً كبيراً، وبالتالي قد تنتشر المنشورات المثيرة للمشاعر أسرع من التقارير المتوازنة.

يسهم الذكاء الاصطناعي وتقنيات التزييف العميق في إنتاج فيديوهات وصور تبدو واقعية لكنها مفبركة (شاترستوك)

مؤشرات بصرية على التلاعب

يمكن للصور ومقاطع الفيديو نفسها أن تقدم مؤشرات على احتمال تعرضها للتعديل؛ فبعض الصور المعدلة قد تظهر خطوطاً خلفية مشوهة أو ظلالاً غير طبيعية، أو ألوان بشرة تبدو غير واقعية. أما في مقاطع الفيديو المزيفة فقد تظهر مشكلات في الإضاءة أو حركة العينين أو ملامح الوجه. ورغم أن اكتشاف هذه المؤشرات ليس دائماً سهلاً، خصوصاً عند مشاهدة المحتوى عبر الهاتف الجوال، فإنها قد تساعد المستخدمين على الشك في مصداقية بعض المقاطع المتداولة.

مسؤولية رقمية مشتركة

يرى الخبراء أن الحد من انتشار المعلومات المضللة خلال الأزمات، يتطلب تعاوناً بين الحكومات وشركات التكنولوجيا والمؤسسات الإعلامية والمستخدمين أنفسهم. ويلفت يمّوت إلى أن أبسط قاعدة قد تكون الأكثر فاعلية: «إذا كنت غير متأكد من صحة المحتوى، فلا تشاركه». ويضيف أن المشاركة المسؤولة تساعد في الحد من انتشار المعلومات المضللة وتحمي المجتمعات الرقمية.

ومع استمرار المنصات الرقمية في تشكيل طريقة انتقال المعلومات عبر الحدود، تصبح القدرة على تقييم المحتوى على الإنترنت مهارة أساسية؛ ففي أوقات التوتر الجيوسياسي والحروب، حين تختلط الشائعات بالوقائع، لا يتعلق التحدي بالأمن السيبراني فقط؛ بل أيضاً بحماية مصداقية المعلومات نفسها.


ميزات جديدة في «خرائط غوغل» تحول التطبيق إلى مساعد ذكي للتنقل

الذكاء الاصطناعي يحلل التقييمات والصور لاقتراح أماكن «مدونة غوغل»
الذكاء الاصطناعي يحلل التقييمات والصور لاقتراح أماكن «مدونة غوغل»
TT

ميزات جديدة في «خرائط غوغل» تحول التطبيق إلى مساعد ذكي للتنقل

الذكاء الاصطناعي يحلل التقييمات والصور لاقتراح أماكن «مدونة غوغل»
الذكاء الاصطناعي يحلل التقييمات والصور لاقتراح أماكن «مدونة غوغل»

تشهد خدمات الخرائط الرقمية تحولاً متسارعاً مع دخول تقنيات الذكاء الاصطناعي إلى صلب تجربة المستخدم، في خطوة تسعى من خلالها الشركات التقنية إلى إعادة تعريف مفهوم الملاحة التقليدية.

وفي هذا السياق، أعلنت «غوغل» عن مجموعة من المزايا الجديدة ضمن تطبيق «خرائط غوغل»، تهدف إلى جعل التخطيط للرحلات والتنقل داخل المدن أكثر تفاعلاً وذكاءً.

تتمثل أبرز هذه الإضافات في ميزة جديدة تحمل اسم «Ask Maps»، وهي أداة تعتمد على تقنيات الذكاء الاصطناعي التوليدي لتمكين المستخدمين من طرح أسئلة طبيعية ومباشرة داخل التطبيق، بدلاً من الاكتفاء بعمليات البحث التقليدية.

وبفضل هذه الميزة، يمكن للمستخدم الاستفسار عن أفضل الأماكن المناسبة لنشاط معين، مثل المقاهي الهادئة للعمل أو المطاعم المناسبة للقاءات العائلية، ليقوم النظام بتحليل كمّ كبير من البيانات المتاحة، بما في ذلك تقييمات المستخدمين والصور والمراجعات، ومن ثم تقديم اقتراحات دقيقة ومفصلة.

تعتمد هذه التقنية على نماذج الذكاء الاصطناعي المتقدمة التي طورتها «غوغل»، ما يسمح بتحويل تطبيق الخرائط من مجرد أداة لتحديد المواقع إلى مساعد رقمي قادر على فهم السياق وتقديم توصيات مخصصة لكل مستخدم.

إلى جانب ذلك، كشفت الشركة عن تطويرات جديدة في ميزة «الملاحة الغامرة» (Immersive Navigation)، التي تُقدم تجربة عرض ثلاثية الأبعاد أكثر واقعية لمسارات التنقل.

وتتيح هذه الميزة للمستخدم استعراض الطريق بشكل تفصيلي قبل بدء الرحلة، مع عرض المباني والطرق والمعالم المحيطة بدقة بصرية عالية، فضلاً عن توضيح المسارات والانعطافات ومداخل الوجهات المختلفة، بما يُسهم في تقليل الأخطاء أثناء القيادة أو الوصول إلى المواقع المزدحمة.

وحسب ما أعلنته الشركة، فقد بدأت هذه المزايا الوصول تدريجياً إلى المستخدمين؛ حيث تم إطلاقها أولاً في الولايات المتحدة، مع بدء توفرها كذلك في الهند على الهواتف الذكية العاملة بنظامي «آندرويد» و«آي أو إس».

ومن المتوقع أن تتوسع هذه الخصائص لاحقاً إلى أسواق إضافية حول العالم خلال الفترة المقبلة، ضمن خطة تدريجية لتعميمها على نطاق أوسع.