نظارات «متكلمة» مصممة بنظم الذكاء الصناعي

جهاز رؤية مسموع يتصل بالمساعد الصوتي

جهاز «غيكو دوت» مع «أليكسا»  -  نظارات «إيكو فريمز»
جهاز «غيكو دوت» مع «أليكسا» - نظارات «إيكو فريمز»
TT

نظارات «متكلمة» مصممة بنظم الذكاء الصناعي

جهاز «غيكو دوت» مع «أليكسا»  -  نظارات «إيكو فريمز»
جهاز «غيكو دوت» مع «أليكسا» - نظارات «إيكو فريمز»

ماذا تسمّى الحالة التي يسمع فيها الإنسان أصواتاً خافتة في رأسه؟ إنّها الهلوسة. ولكنّ «أمازون» تسمّيها تطوّرا. وعند قضاء أسبوعين كاملين
بصحبة أحدث منتجاتها وهي النظارة «المتكلّمة» المدعومة بالذكاء الصناعي «إيكو فريمز» Echo Frames وهي نظّارة مزوّدة بمكبّرات صوتية صغيرة وميكروفون يتيح للمستخدم إجراء أحاديث خاصة مع «أليكسا»، المساعد الافتراضي من أمازون، في أي مكان.
- نظارات مسموعة
يقول المحلل التقني الأميركي جيفري فاولر إن الإصدار الجديد من أليكسا يتميّز باستباقية متفوّقة عن ما سبقه لجهة المحادثة إلى درجة أفقدته النظارة صوابه. في الصباح، وأثناء تناوله للقهوة، همست النظارة في أذنه بوصول إشعار إخباري. بعدها بدقائق قليلة، قاطعت حديثه مع أحدهم وهمست: «آوتلوك» عارضة عليه أن يقرأ أحدث رسائله الإلكترونية. وطوال اليوم، كانت أليكسا تهمس الإشعارات الصادرة عن التطبيقات في أذنه: «سلاك» و«نسبة الطاقة في البطارية 20 في المائة» و«آوتلوك» أكثر من مرّة.
بعد أسبوعين من استخدام «إيكو فريمز» التي يبلغ ثمنها 180 دولارا، يمكن القول إنّ من يريد الاستماع إلى أليكسا طوال الوقت من جهاز مثبّت على وجهه يجب أن يكنّ لها حبّاً جمّاً. ولكن لا بدّ من الاعتراف أنّ إطار النظّارة يقدّم رؤية مذهلة هي الأولى من نوعها في أجهزة المساعدة الافتراضية، جعلت «إيكو فريمز» من أمازون أوّل «جهاز مسموع» يقبل الارتداء ويكون مصمما لسماع المعلومات بدل رؤيتها.
للتوضيح، لا تشبه هذه النظارة نظارة «غوغل غلاس» لناحية العمل، أي أنّكم لن تروا صورة مسلّطة على عدستيها، بل يمكن اعتبارها خطوة صغيرة تعمل بالتقنية الصوتية نحو ما يُعرف بـ«كومبيوترات الوجه» face computers الغريبة والتي ستغيّر العالم. وأمازون ليست وحدها في هذا المجال، إذ تعمل شركات التقنية العملاقة حول العالم اليوم كآبل ومايكروسوفت على تطوير نظاراتها الذكية الخاصّة.
لتطوير أليكسا بصيغة كومبيوتر يعمل بالصوت، دخلت أمازون بمغامرة جديدة وغير مضمونة. ولكنّ هذا النوع من الخطوات ليس جديداً على أمازون حيث إن أوّل منتج مجهّز بأليكسا، أي مكبر صوت «إيكو»، كان تجربة باعت أمازون خلالها المنتج وفق لائحة انتظار. واليوم، تستمرّ أمازون في مغامراتها وآخرها إطلاق نظارة «فريمز» وخاتم «ذا لوب» المتكلّم في الخريف الفائت تحت عنوان منتجات «نسخ اليوم الأوّل» التجريبية.
- مزايا النظارات
ويمكن تقييم المنتج الجديد في جانبين: مستوى الأداء الذي يقدّمه في المهمّة التي يقال إنه صُمم لأجلها، ومدى أهميته في حياتنا.
> اتصال دائم. تتمحور الفكرة الرئيسية في صناعة النظارة المرتبطة لأليكسا حول بقائها مع مستخدمها طوال الوقت، على عكس السماعات التي أطلقتها أمازون الخريف الفائت. تتصل «فريمز» بأليكسا طوال الوقت ولكنّها بالكاد تقوم بمهمّتها. تضمّ النظارة مكبرات صوتية صغيرة جداً مسلطة باتجاه الأذنين، مهمّتها إسماع المرتدي ما تقوله أليكسا، ويمكنه استخدامها لإجراء الاتصالات والاستماع إلى الموسيقى. وتجدر الإشارة إلى أنّ من يجلس بجانب المستخدم لن يلاحظ الصوت الذي يخرج من النظارة إلّا في حال رفعه إلى الدرجة القصوى.
ولكنّ حمل أليكسا كمرافق دائم صعّب تفاعلي مع الأشخاص الحقيقيين. عند مشاهدتكم من بعيد، قد يظنّ الناس أنكم تتكلمون مع أنفسكم. أمّا عن قريب، فلا تتمتّع أليكسا بالذكاء الكافي لمعرفة أنّكم تتحدّثون مع شخص آخر، ما يدفعها إلى مقاطعتكم بهمساتها العفوية المتكررة.
سجّلت «فريمز» نتائج جيّدة لجهة إجراء وتلقّي الاتصالات رغم احتمال إقفال الخطّ في وجه المتصل بعد الاحتكاك غير المقصود بذراعي النظارة الحسّاستين للمس.
وتجدر الإشارة إلى أنّ شركات آخر كـ«بوز» قدّمت نظارات تعمل كمكبرات صوتية وحصلت على تقييمات جيّدة.
> الوزن. بدت نظارة أمازون الجديدة ثقيلة، إذ يبلغ وزنها 34 غراما، أي ما يعادل ضعف وزن النظارات التقليدية، ولكن يمكن تحمّلها. أمّا لجهة التصميم، فيمكنني القول إنّ إطارها البلاستيكي الأسود السميك أنيق ولكن غريب بعض الشيء (لتصميم نظارتكم الخاصّة، يجب أن تطلبوا وصفة العدسات من الطبيب المختص لوضعها في نظارة فريمز).
> الطاقة. ولكنّ المشكلة الأكبر هي طاقة النظارة لأنّ بطاريتها لم تدم ليوم كامل، حتّى أنّ خدمتها لم تتجاوز الثلاث ساعات بعد استخدامها للتدفّق الموسيقي المتواصل بمستوى صوت 60 في المائة.
تستمدّ «فريمز» اتصالها بالإنترنت من الهاتف الذكي بواسطة البلوتوث الذي ينقطع من وقت إلى آخر ويدفع أليكسا إلى التنبيه إلى المشكلة بأسلوب مزعج ودون توقّف. يتطلّب هذا الاتصال بقاء الهاتف بجواركم دائماً، ولكنّ الكثير من الناس يبتعدون عن هواتفهم من وقت إلى آخر ولا سيّما أثناء وجودهم في المنزل.
> الخلاصة: إذا كان استخدام هذه النظارة سيفرض عليكم حمل هاتفكم طوال الوقت، فلن يكون هناك من داعٍ لها، لأنّ سيري أو مساعد غوغل متوفران في الهاتف الذكي وبنقرة واحدة.
من الواضح أنّ أمازون، التي توقّفت عن صناعة الهواتف الذكية، تسعى إلى زيادة محمولية أليكسا ليستخدمها الناس أكثر، وبالطبع حتّى تتمكّن من جمع المزيد من المعلومات عن حياتنا.
- حداثة وجنون
ساعدت «فريمز» في بعض المرّات في الإجابة عن أمور تافهة أو في إضافة سلعٍ إضافية على لائحة التبضّع خارج المنزل. وخلال الاختبار، استخدمت النظارة في عدّة مهام أثناء الطهي، ولكنّ بعد نهاية الأسبوعين، لم يوجد لأليكسا الكثير من الاستخدامات خارج المنزل. من ناحية أخرى، لا بدّ من الإشارة إلى أنّ الحياة التي فرضتها علينا الجائحة اليوم لجهة البقاء في المنزل لم تساعد كثيراً في الاختبار: فمن قد يحتاج إلى نظارات تعمل بالأوامر الصوتية في منزل يعجّ بمكبرات الصوت الذكية؟
ولكنّ الحداثة الحقيقية التي يمتاز بها هذا المنتج، وما يثير الجنون فيه، هو أنّ أليكسا قادرة على التحدّث دون دعوة أو نداء. عندما ترد رسالة جديدة إلى هاتفكم، تقوم أليكسا بقراءتها بصوتٍ عالٍ، والأمر نفسه ينطبق على التحديثات وأي إشعار تحصلون عليه من تطبيق هاتفي. (في الوقت الحالي، يعمل إشعار التطبيقات على هواتف أندرويد وفقط في حال اخترتم تشغيله).
يعرّض الاستماع المستخدم إلى استباحة أقلّ لخصوصيته من الاضطرار للنظر إلى شاشة، ولكنّ جميع الإشعارات التي تهمسها «فريمز» سرعان ما تصبح مملّة. ويتحسّن الوضع قليلاً عندما تتعلّم كيفية استخدام أداة «في.آي.بي». الترشيحية التي تمنح المستخدم نوعاً من الانتقائية فيما يتعلّق بالإشعارات... ويمكنك مثلاً المسح على طرف النظارة لقبول الإشعار، والنقر مرّة للتوقف عن تلقيها. ولكنّ استخدام المرشح ليس سهلاً.
يمكن القول إنّ الاستباقية هي النقلة النوعية المقبلة لأليكسا. في مقابلة أجراها مع مجلّة المراجعة التقنية لمعهد ماساتشوستس عام 2019. قال روهيت براساد، أحد أبرز الباحثين في أليكسا، إنّ «أمازون تريد لأليكسا التطوّر إلى ما هو أبعد من الانتظار للردّ على الطلبات والوصول إلى توقّع ما يريده المستخدم، وحتّى إلى تنظيم إيقاع حياته».
ماذا عن الدور الجوهري الذي قد تلعبه «فريمز» في مراكز العمل؟ فقد يمكن أن تزوّد أمازون عمّال المستودعات بهذه النظارات لتسريع عمليات النقل والتغليف دون تضييع الوقت في النظر إلى الشاشات.
ولكن بالنسبة لمعظمنا، لم تدخل أمازون جديداً ينفعنا في حياتنا اليومي. في البداية، كانت ساعة آبل الذكية تواجه مشكلة مماثلة لجهة إيصال إشعارات الهاتف، حتّى أدرك الناس أخيراً أنّ أهمّ تطبيقاتها هي تلك المصممة لمراقبة الصحة والتمارين الرياضية.
إذا اشتريتم «إيكو فريمز» اليوم، فستساعدون أمازون في رسم الثورة المقبلة الذي ستشهدها أليكسا. ولكنّ ألا يجدر بأمازون أن تدفع لكم مقابل هذه الخدمة؟


مقالات ذات صلة

الصور والفيديوهات المفبركة في زمن الحروب… كيف نميّز الحقيقة من التزييف؟

خاص تنتشر المعلومات المضللة بسرعة كبيرة على وسائل التواصل الاجتماعي خلال الأزمات والصراعات (شاترستوك)

الصور والفيديوهات المفبركة في زمن الحروب… كيف نميّز الحقيقة من التزييف؟

تصاعد الأخبار الزائفة والتزييف العميق خلال الأزمات يتطلب وعياً رقمياً والتحقق من المصادر والصور والفيديوهات قبل مشاركة المعلومات.

نسيم رمضان (لندن)
تكنولوجيا الذكاء الاصطناعي يحلل التقييمات والصور لاقتراح أماكن «مدونة غوغل»

ميزات جديدة في «خرائط غوغل» تحول التطبيق إلى مساعد ذكي للتنقل

تشهد خدمات الخرائط الرقمية تحولاً متسارعاً مع دخول تقنيات الذكاء الاصطناعي إلى صلب تجربة المستخدم، في خطوة تسعى من خلالها الشركات التقنية إلى إعادة تعريف مفهوم…

عبد العزيز الرشيد (الرياض)
تكنولوجيا تعتمد الطريقة الجديدة على استخراج المفاهيم من داخل النموذج نفسه بدلاً من فرض مفاهيم محددة مسبقاً من قبل الخبراء (أدوبي)

أبحاث جديدة لفهم تفكير الذكاء الاصطناعي وفتح «صندوقه الأسود»

أبحاث جديدة في جامعة MIT تطور تقنيات تساعد نماذج الذكاء الاصطناعي على تفسير قراراتها لتعزيز الشفافية والثقة في الأنظمة المؤتمتة.

نسيم رمضان (لندن)
خاص توسّع مفهوم المرونة الرقمية ليشمل استمرارية البرمجيات وليس الأمن السيبراني فقط (أدوبي)

خاص هل أصبحت مرونة البرمجيات شرطاً أساسياً لحماية الاقتصاد الرقمي في السعودية؟

توسّع مفهوم المرونة الرقمية ليشمل استمرارية البرمجيات ومخاطر الموردين مع بروز الحساب الضامن أداةً لحماية الخدمات الرقمية الحيوية.

نسيم رمضان (لندن)
خاص العاصمة السعودية الرياض (واس) p-circle 01:53

خاص «عام الذكاء الاصطناعي» في السعودية... دفع قوي لاقتصاد البيانات

مع تسارع السباق نحو الاقتصاد الرقمي ودخول العالم مرحلة جديدة تقودها الخوارزميات، تتجه السعودية إلى ترسيخ موقعها لاعباً مؤثراً في مستقبل التقنيات المتقدمة.

زينب علي (الرياض)

الصور والفيديوهات المفبركة في زمن الحروب… كيف نميّز الحقيقة من التزييف؟

تنتشر المعلومات المضللة بسرعة كبيرة على وسائل التواصل الاجتماعي خلال الأزمات والصراعات (شاترستوك)
تنتشر المعلومات المضللة بسرعة كبيرة على وسائل التواصل الاجتماعي خلال الأزمات والصراعات (شاترستوك)
TT

الصور والفيديوهات المفبركة في زمن الحروب… كيف نميّز الحقيقة من التزييف؟

تنتشر المعلومات المضللة بسرعة كبيرة على وسائل التواصل الاجتماعي خلال الأزمات والصراعات (شاترستوك)
تنتشر المعلومات المضللة بسرعة كبيرة على وسائل التواصل الاجتماعي خلال الأزمات والصراعات (شاترستوك)

مع التصعيد المتسارع على عدة جبهات في الشرق الأوسط، تتدفق المعلومات بسرعة تكاد توازي سرعة الأحداث نفسها. وغالباً ما تكون منصات التواصل الاجتماعي أول مكان تظهر فيه الصور ومقاطع الفيديو والتقارير عن هجمات مزعومة أو تطورات عسكرية. لكن بالتوازي مع المعلومات الحقيقية، بدأت أيضاً موجة من المحتوى المضلل أو المفبرك تنتشر على الإنترنت، ما يجعل التمييز بين الحقيقة والزيف أكثر صعوبة.

تحدٍّ رقمي متزايد

في هذا السياق، يحذر خبراء الأمن السيبراني من أن الانتشار السريع للمعلومات المضللة، لا سيما عبر مقاطع الفيديو المعدلة وتقنيات التزييف العميق (Deepfakes)، أصبح تحدياً رقمياً متزايداً خلال فترات عدم الاستقرار الجيوسياسي.

ويؤكد ماهر يمّوت الباحث الرئيسي في الأمن لدى شركة «كاسبرسكي» خلال لقاء خاص مع «الشرق الأوسط»، أن التمييز بين المعلومات الموثوقة والروايات الزائفة يصبح أكثر أهمية خلال حالات الطوارئ، حين ترتفع حدة المشاعر ويميل الناس إلى مشاركة المحتوى بسرعة من دون التحقق منه.

ويردف: «مع تطورات الأوضاع في الشرق الأوسط، حذّرت جهات حكومية في دول مجلس التعاون الخليجي من نشر أو تداول أي معلومات من مصادر غير معروفة». ويضيف أن «الأخبار الزائفة، أي المعلومات المضللة أو غير الدقيقة التي تُقدَّم على أنها أخبار حقيقية، تصبح أكثر خطورة خلال حالات الطوارئ».

ماهر يموت باحث أمني رئيسي في «كاسبرسكي» (كاسبرسكي)

المعلومات المضللة

ليست الأخبار الزائفة ظاهرة جديدة، لكنّ حجم انتشارها وسرعتها تغيّر بشكل كبير مع صعود وسائل التواصل الاجتماعي وأدوات الذكاء الاصطناعي؛ ففي أوقات التوتر الجيوسياسي، يمكن أن تنتشر تقارير غير مؤكدة أو مقاطع فيديو معدّلة على نطاق واسع خلال دقائق، وقد تصل إلى ملايين المستخدمين قبل أن تتمكن جهات التحقق من الحقائق من مراجعتها.

ويصنف الخبراء الأخبار الزائفة عادة ضمن فئتين رئيسيتين؛ الأولى تتعلق بمحتوى مفبرك بالكامل يهدف إلى التأثير في الرأي العام أو جذب زيارات إلى مواقع إلكترونية معينة. أما الثانية فتتضمن معلومات تحتوي على جزء من الحقيقة، لكنها تُعرض بشكل غير دقيق لأن الكاتب لم يتحقق من جميع الوقائع، أو بالغ في بعض التفاصيل.

وفي الحالتين، يمكن أن يؤدي ذلك إلى إرباك المتابعين خلال الأزمات، خصوصاً عندما يعتمد المستخدمون على منصات التواصل الاجتماعي، بدلاً من المصادر الإخبارية الموثوقة للحصول على التحديثات.

كما بدأت السلطات في عدة دول، التحذير من أن نشر معلومات خاطئة حتى من دون قصد، قد يعرّض المستخدمين للمساءلة القانونية، ما دفع الحكومات وخبراء الأمن الرقمي إلى التشديد على أهمية الوعي الرقمي والمسؤولية عند مشاركة المعلومات في أوقات حساسة.

الخداع المدعوم بالذكاء الاصطناعي

أدخل الذكاء الاصطناعي بعداً جديداً إلى مشكلة المعلومات المضللة، من خلال ما يُعرف بتقنيات «التزييف العميق»، وهي مقاطع فيديو مفبركة تُنشأ باستخدام تقنيات التعلم الآلي؛ مثل تبديل الوجوه أو توليد محتوى بصري اصطناعي. وفي بعض الحالات يمكن تعديل مقاطع حقيقية لتبدو كأنها توثق أحداثاً لم تقع أصلاً.

ويصرح يمّوت بأن أهمية التحقق من الأخبار الزائفة باتت أكبر من أي وقت مضى مع انتشار التزييف العميق. ويزيد: «الذكاء الاصطناعي يتيح دمج مقاطع فيديو مختلفة لإنتاج مشاهد جديدة تظهر أحداثاً أو أفعالاً لم تحدث في الواقع، وغالباً بنتائج واقعية للغاية».

وتجعل هذه التقنيات مقاطع الفيديو المعدلة تبدو حقيقية إلى حد كبير، ما قد يؤدي إلى تضليل المستخدمين، خصوصاً عندما يتم تداولها في سياقات مشحونة عاطفياً؛ فعلى سبيل المثال، قد تظهر مقاطع معدلة كأنها توثق هجمات أو تحركات عسكرية أو تصريحات سياسية لم تحدث. وحتى إذا تم كشف زيف هذه المقاطع لاحقاً، فإن انتشارها الأولي قد يسبب حالة من القلق أو الارتباك لدى الجمهور.

قد تؤدي الأخبار الزائفة إلى إرباك الجمهور ونشر الشائعات خصوصاً عند تداولها دون تحقق (شاترستوك)

كيفية التحقق من المعلومات

يشدد خبراء الأمن السيبراني على أن المستخدمين أنفسهم يلعبون دوراً أساسياً في الحد من انتشار المعلومات المضللة؛ فبينما تطور المنصات والجهات التنظيمية أدوات لرصد المحتوى المزيف، يمكن للأفراد اتخاذ خطوات بسيطة للتحقق من صحة المعلومات قبل مشاركتها.

أولى هذه الخطوات هي التحقق من مصدر الخبر؛ فبعض المواقع التي تنشر أخباراً مزيفة قد تحتوي على أخطاء إملائية في عنوان الموقع الإلكتروني أو تستخدم نطاقات غير مألوفة، تحاكي مواقع إعلامية معروفة.

وينصح يمّوت بالتحقق من عنوان الموقع بعناية، والاطلاع على قسم «من نحن» في المواقع غير المعروفة. ومن الأفضل الاعتماد على مصادر رسمية ومعتمدة؛ مثل المواقع الحكومية أو المؤسسات الإعلامية الموثوقة.

كما ينبغي التحقق من هوية الكاتب أو الجهة التي نشرت الخبر. فإذا لم يكن المؤلف معروفاً أو لا يمتلك خبرة واضحة في الموضوع، فقد يكون من الحكمة التعامل مع المعلومات بحذر.

وتعد مقارنة الخبر مع مصادر موثوقة أخرى خطوة مهمة أيضاً؛ فالمؤسسات الإعلامية المهنية تعتمد إرشادات تحريرية وإجراءات تحقق من المعلومات، ما يعني أن الأحداث الكبرى عادة ما تُغطى من قبل أكثر من جهة إعلامية موثوقة.

ويشير يمّوت أيضاً إلى أهمية التحقق من التواريخ والتسلسل الزمني للأخبار، إذ إن بعض المعلومات المضللة يعتمد على إعادة نشر أحداث قديمة أو عرضها، كما لو أنها وقعت حديثاً. كما يلفت إلى أن خوارزميات وسائل التواصل الاجتماعي قد تخلق ما يُعرف بـ«غرف الصدى»، حيث تُعرض للمستخدمين محتويات تتوافق مع آرائهم واهتماماتهم السابقة، وهو ما يجعل من الضروري الاطلاع على مصادر متنوعة وموثوقة قبل تكوين أي استنتاجات.

التلاعب بالمشاعر

يعتمد كثير من الأخبار الزائفة على إثارة المشاعر؛ فالعناوين المثيرة أو المقاطع الدرامية غالباً ما تُصاغ بطريقة تستفز مشاعر الخوف أو الغضب أو الصدمة، وهي مشاعر تزيد من احتمال مشاركة المحتوى بسرعة.

ويقول يمّوت: «كثير من الأخبار الزائفة يُكتب بطريقة ذكية لاستثارة ردود فعل عاطفية قوية». ويضيف أن «الحفاظ على التفكير النقدي وطرح سؤال بسيط مثل: لماذا كُتب هذا الخبر؟ قد يساعد المستخدمين في تجنب نشر معلومات مضللة». وتزداد أهمية هذا الأمر على منصات التواصل الاجتماعي، حيث تميل الخوارزميات إلى إبراز المحتوى الذي يحقق تفاعلاً كبيراً، وبالتالي قد تنتشر المنشورات المثيرة للمشاعر أسرع من التقارير المتوازنة.

يسهم الذكاء الاصطناعي وتقنيات التزييف العميق في إنتاج فيديوهات وصور تبدو واقعية لكنها مفبركة (شاترستوك)

مؤشرات بصرية على التلاعب

يمكن للصور ومقاطع الفيديو نفسها أن تقدم مؤشرات على احتمال تعرضها للتعديل؛ فبعض الصور المعدلة قد تظهر خطوطاً خلفية مشوهة أو ظلالاً غير طبيعية، أو ألوان بشرة تبدو غير واقعية. أما في مقاطع الفيديو المزيفة فقد تظهر مشكلات في الإضاءة أو حركة العينين أو ملامح الوجه. ورغم أن اكتشاف هذه المؤشرات ليس دائماً سهلاً، خصوصاً عند مشاهدة المحتوى عبر الهاتف الجوال، فإنها قد تساعد المستخدمين على الشك في مصداقية بعض المقاطع المتداولة.

مسؤولية رقمية مشتركة

يرى الخبراء أن الحد من انتشار المعلومات المضللة خلال الأزمات، يتطلب تعاوناً بين الحكومات وشركات التكنولوجيا والمؤسسات الإعلامية والمستخدمين أنفسهم. ويلفت يمّوت إلى أن أبسط قاعدة قد تكون الأكثر فاعلية: «إذا كنت غير متأكد من صحة المحتوى، فلا تشاركه». ويضيف أن المشاركة المسؤولة تساعد في الحد من انتشار المعلومات المضللة وتحمي المجتمعات الرقمية.

ومع استمرار المنصات الرقمية في تشكيل طريقة انتقال المعلومات عبر الحدود، تصبح القدرة على تقييم المحتوى على الإنترنت مهارة أساسية؛ ففي أوقات التوتر الجيوسياسي والحروب، حين تختلط الشائعات بالوقائع، لا يتعلق التحدي بالأمن السيبراني فقط؛ بل أيضاً بحماية مصداقية المعلومات نفسها.


ميزات جديدة في «خرائط غوغل» تحول التطبيق إلى مساعد ذكي للتنقل

الذكاء الاصطناعي يحلل التقييمات والصور لاقتراح أماكن «مدونة غوغل»
الذكاء الاصطناعي يحلل التقييمات والصور لاقتراح أماكن «مدونة غوغل»
TT

ميزات جديدة في «خرائط غوغل» تحول التطبيق إلى مساعد ذكي للتنقل

الذكاء الاصطناعي يحلل التقييمات والصور لاقتراح أماكن «مدونة غوغل»
الذكاء الاصطناعي يحلل التقييمات والصور لاقتراح أماكن «مدونة غوغل»

تشهد خدمات الخرائط الرقمية تحولاً متسارعاً مع دخول تقنيات الذكاء الاصطناعي إلى صلب تجربة المستخدم، في خطوة تسعى من خلالها الشركات التقنية إلى إعادة تعريف مفهوم الملاحة التقليدية.

وفي هذا السياق، أعلنت «غوغل» عن مجموعة من المزايا الجديدة ضمن تطبيق «خرائط غوغل»، تهدف إلى جعل التخطيط للرحلات والتنقل داخل المدن أكثر تفاعلاً وذكاءً.

تتمثل أبرز هذه الإضافات في ميزة جديدة تحمل اسم «Ask Maps»، وهي أداة تعتمد على تقنيات الذكاء الاصطناعي التوليدي لتمكين المستخدمين من طرح أسئلة طبيعية ومباشرة داخل التطبيق، بدلاً من الاكتفاء بعمليات البحث التقليدية.

وبفضل هذه الميزة، يمكن للمستخدم الاستفسار عن أفضل الأماكن المناسبة لنشاط معين، مثل المقاهي الهادئة للعمل أو المطاعم المناسبة للقاءات العائلية، ليقوم النظام بتحليل كمّ كبير من البيانات المتاحة، بما في ذلك تقييمات المستخدمين والصور والمراجعات، ومن ثم تقديم اقتراحات دقيقة ومفصلة.

تعتمد هذه التقنية على نماذج الذكاء الاصطناعي المتقدمة التي طورتها «غوغل»، ما يسمح بتحويل تطبيق الخرائط من مجرد أداة لتحديد المواقع إلى مساعد رقمي قادر على فهم السياق وتقديم توصيات مخصصة لكل مستخدم.

إلى جانب ذلك، كشفت الشركة عن تطويرات جديدة في ميزة «الملاحة الغامرة» (Immersive Navigation)، التي تُقدم تجربة عرض ثلاثية الأبعاد أكثر واقعية لمسارات التنقل.

وتتيح هذه الميزة للمستخدم استعراض الطريق بشكل تفصيلي قبل بدء الرحلة، مع عرض المباني والطرق والمعالم المحيطة بدقة بصرية عالية، فضلاً عن توضيح المسارات والانعطافات ومداخل الوجهات المختلفة، بما يُسهم في تقليل الأخطاء أثناء القيادة أو الوصول إلى المواقع المزدحمة.

وحسب ما أعلنته الشركة، فقد بدأت هذه المزايا الوصول تدريجياً إلى المستخدمين؛ حيث تم إطلاقها أولاً في الولايات المتحدة، مع بدء توفرها كذلك في الهند على الهواتف الذكية العاملة بنظامي «آندرويد» و«آي أو إس».

ومن المتوقع أن تتوسع هذه الخصائص لاحقاً إلى أسواق إضافية حول العالم خلال الفترة المقبلة، ضمن خطة تدريجية لتعميمها على نطاق أوسع.


دراسة صادمة: 8 من كل 10 روبوتات ذكاء اصطناعي قد تساعد بالتخطيط لهجمات عنيفة

شعار تطبيق «شات جي بي تي» يظهر على شاشة (أ.ف.ب)
شعار تطبيق «شات جي بي تي» يظهر على شاشة (أ.ف.ب)
TT

دراسة صادمة: 8 من كل 10 روبوتات ذكاء اصطناعي قد تساعد بالتخطيط لهجمات عنيفة

شعار تطبيق «شات جي بي تي» يظهر على شاشة (أ.ف.ب)
شعار تطبيق «شات جي بي تي» يظهر على شاشة (أ.ف.ب)

مع الانتشار المتسارع لتقنيات الذكاء الاصطناعي، أصبحت روبوتات الدردشة جزءاً من الحياة اليومية لملايين الأشخاص حول العالم. فهذه الأنظمة تُستخدم للحصول على المعلومات، وطلب النصائح، والإجابة عن الأسئلة المعقدة، بل وحتى لتقديم نوع من الدعم الاجتماعي أو الرفقة. ويعتمد عليها المستخدمون من مختلف الفئات العمرية، بما في ذلك الأطفال والمراهقون.

لكن تقريراً جديداً حذّر من مخاطر محتملة مرتبطة بهذه التقنيات، مشيراً إلى أن بعض روبوتات الدردشة المدعومة بالذكاء الاصطناعي قد تقدم معلومات تساعد المستخدمين على التخطيط لأعمال عنف خطيرة، بما في ذلك حوادث إطلاق النار في المدارس، وفقاً لما نقلته صحيفة «إندبندنت».

وحسب التقرير الصادر عن مركز مكافحة الكراهية الرقمية، فإن ثمانية من كل عشرة روبوتات دردشة تعمل بالذكاء الاصطناعي قد تساعد المستخدمين الشباب في التخطيط لهجمات عنيفة.

ورغم أن هذه الروبوتات يُفترض أن تعمل مصادر للمعلومات أو أدوات تعليمية ووسائل مساعدة يومية، فإن التقرير يشير إلى أن الواقع قد يكون أكثر تعقيداً وخطورة مما يُعتقد.

فقد وجد الباحثون أن ثمانية من أصل عشرة من برامج الدردشة الآلية الرائدة الموجهة للمستهلكين قدمت نوعاً من المساعدة للمستخدمين الذين طلبوا معلومات تتعلق بتنفيذ هجمات عنيفة. وشمل ذلك منصات معروفة مثل «شات جي بي تي» و«ديب سيك».

وجاء في التقرير: «قدمت معظم برامج الدردشة الآلية معلومات عملية للمستخدمين الذين يعبرون عن آيديولوجيات متطرفة، قبل أن تطلب منهم تحديد المواقع والأسلحة التي سيستخدمونها في الهجوم، وذلك في أغلب الردود».

وأشار التقرير إلى أن برنامج «ديب سيك» ذهب إلى أبعد من ذلك، إذ أفاد الباحثون بأنه تمنى للمهاجم المحتمل «إطلاق نار سعيداً وآمناً».

شعار تطبيق «ديب سيك» (رويترز)

وفقاً للمركز، فإن برنامج «كلود إيه آي» التابع لشركة «آنثروبيك» كان المنصة الوحيدة التي «أثبتت» قدرتها على تثبيط المستخدم عن التخطيط للهجمات العنيفة، ما يشير إلى وجود ضوابط أمان فعالة نسبياً، وإن كانت هذه الضوابط - حسب التقرير - لا تُطبّق بشكل مثالي في معظم المنصات الأخرى.

وأضافت المنظمة غير الربحية في تقريرها أن بعض الأنظمة أبدت استعداداً مرتفعاً للغاية للاستجابة لمثل هذه الطلبات.

فعلى سبيل المثال، أظهرت النتائج أن منصتي «Perplexity» و«Meta AI» قدمتا المساعدة للمهاجمين المحتملين في 100 في المائة و97 في المائة من الحالات على التوالي.

يأتي نشر هذا التقرير في أعقاب حادثة إطلاق نار في مدرسة «تومبلر ريدغ» في مقاطعة كولومبيا البريطانية بكندا. وقد أُفيد لاحقاً بأن أحد موظفي شركة «أوبن إيه آي» رصد داخلياً أن المشتبه به في الحادثة استخدم برنامج «شات جي بي تي» بطرق اعتُبرت متوافقة مع التخطيط لأعمال عنف.

وفي تعليقه على النتائج، قال عمران أحمد، رئيس مركز مكافحة الكراهية الرقمية: «قد تساعد برامج الدردشة الآلية المدعومة بالذكاء الاصطناعي، والمندمجة الآن في حياتنا اليومية، مطلق النار التالي في مدرسة على التخطيط لهجومه، أو متطرفاً سياسياً على تنسيق عملية اغتيال».

وأضاف: «عندما تُصمم نظاماً يهدف إلى الامتثال لكل طلب، وتحقيق أقصى قدر من التفاعل، وتجنب رفض أي استفسار، فإنه في نهاية المطاف قد يمتثل للأشخاص الخطأ».

وختم بالقول: «ما نشهده هنا ليس مجرد فشل تكنولوجي، بل فشل في تحمل المسؤولية».