«أبل إنتليجنس»... مزايا متفاوتة ومخاطر الهلوسة

اختبارات ميدانية على الإصدار المبكر لها المدعم بالذكاء الاصطناعي

«أبل إنتليجنس»... مزايا متفاوتة ومخاطر الهلوسة
TT

«أبل إنتليجنس»... مزايا متفاوتة ومخاطر الهلوسة

«أبل إنتليجنس»... مزايا متفاوتة ومخاطر الهلوسة

سيصل أهم منتج جديد من «أبل» لهذا العام هذا الشهر، إذ سيطرح إصدار «أبل إنتليجنس» مجموعةً من أدوات البرمجيات التي تجلب ما تصفه «أبل» بالذكاء الاصطناعي إلى أجهزتها، من خلال تحديثات برمجية مجانية لأصحاب بعض هواتف «آيفون» وأجهزة «ماك» وأجهزة «آيباد».

نسخة أولية وإصدار تجريبي

ستتضمن النسخة الأولية من «أبل إنتليجنس»، التي تنشرها «أبل» إصداراً تجريبياً غير مكتمل، ونسخة محسنة قليلاً من المساعد الافتراضي من «أبل سيري»، وأدوات تلخص النص تلقائياً، وتنسخ التسجيلات الصوتية وتزيل عوامل التشتيت من الصور. وبالنسبة لشركة «أبل»، فإن هذا الظهور الأول هو بداية عصر جديد.

إعادة هيكلة تكنولوجية في «أبل»

ويأتي إصدار «أبل إنتليجنس»؛ نتيجةً لإعادة هيكلة كبرى لشركة «كوبرتينو» في كاليفورنيا، بعد نحو عامين من عملية قلب صناعة التكنولوجيا رأساً على عقب بواسطة روبوت الدردشة «تشات جي بي تي (ChatGPT)» من شركة «أوبن إيه آي».

كان المسؤولون التنفيذيون في شركة «أبل» قلقين من أن يبدو هاتف «آيفون» عتيقاً في نهاية المطاف دون تقنية الذكاء الاصطناعي المماثلة، لذلك أوقفت «أبل» مشروع السيارة ذاتية القيادة، الذي استغرق أكثر من عقد من الزمان في الإعداد، وأعادت تعيين مهندسيها للعمل على «أبل إنتليجنس».

مزايا محدودة

وسوف يصل إصدار «أبل إنتليجنس» من دون كثير من الميزات الأكثر شهرة التي أعلنت عنها «أبل» في يونيو (حزيران) الماضي. وعلى الرغم من أن الشركة أبرمت صفقة مع «أوبن إيه آي»، لتضمين «تشات جي بي تي» في برنامجها، فإن برنامج الدردشة هذا لن يكون جزءاً من هذا الإصدار الأولي. كما أن «سيري» ليس ذكياً بما يكفي (حتى الآن) للقيام بأشياء مثل ربط البيانات من تطبيقات متعددة لإخبارك بما إذا كان اجتماع اللحظة الأخيرة سيجعلك تتأخر عن مواعيدك مع أطفالك. وقالت «أبل» إن هذه الميزات وغيرها سيتم طرحها تدريجياً خلال العام المقبل.

اختبار الإصدار المبكر

وللحصول على معاينة مسبقة، اختبرت إصداراً مبكراً من «أبل إنتليجنس» خلال الأسبوع الماضي. كانت الميزات الجديدة صعبة بعض الشيء للعثور عليها، فقد تم دمجها في أجزاء مختلفة من نظام برامج «أبل»، بما في ذلك أزرار تحرير النص والصور.

* ميزات مفيدة... وأخرى غير ناجحة

وُجدت بعض الميزات؛ بما في ذلك أدوات التدقيق اللغوي للنص ونسخ الصوت، مفيدة للغاية. وكانت أدوات أخرى؛ مثل أداة لإنشاء ملخصات لمقالات الويب وزر لإزالة عوامل التشتيت غير المرغوب فيها من الصور، غير ناجحة إلى حد أنه يجب تجاهلها.

كل هذا يعني أن «أبل إنتليجنس» يستحق المتابعة على مدار السنوات القليلة المقبلة لمعرفة ما إذا كان سيتطور إلى منتج لا غنى عنه، لكنه ليس سبباً مقنعاً للإسراف في شراء أجهزة جديدة.

* الأجهزة العاملة بالإصدار

سيعمل «أبل إنتليجنس» على أحدث هواتف «iPhone 16s»، و«iPhone 15 Pro» من العام الماضي، بالإضافة إلى بعض أجهزة «iPad» وأجهزة «Mac»، التي تم إصدارها في السنوات الأربع الماضية.

أدوات «أبل إنتليجنس» المفيدة

فيما يلي الأدوات التي ستكون الأكثر فائدة، والأدوات التي يمكنك تخطيها عندما يصل البرنامج إلى الأجهزة هذا الشهر:

* نسخ التسجيلات الصوتية كتابياً (Transcribe Audio Recordings)

يقدم «أبل إنتليجنس» ميزة تبدو متأخرة منذ فترة طويلة: عندما تستخدم تطبيق المذكرات الصوتية لتسجيل الصوت، سينتج التطبيق الآن تلقائياً نصاً مكتوباً إلى جانب الملف. بصفتي صحافياً يسجل المقابلات بانتظام، كنت متحمساً لتجربة هذه الأداة وسعدت بنجاحها. عندما التقيت شركة تقنية الأسبوع الماضي، ضغطت على زر التسجيل في التطبيق، وبعد أن ضغطت على زر الإيقاف، كان النص جاهزاً لي.

اكتشف برنامج «أبل إنتليجنس» متى كان شخص آخر يتحدث وأنشأ فقرة جديدة وفقاً لذلك في النص. لقد نسخ بعض الكلمات بشكل غير صحيح كلما تمتم شخص ما. ولكن بشكل عام، سهّل لي النص البحث عن كلمة رئيسية لاستخراج جزء من المحادثة.

* طلب المساعدة من «سيري» حول منتج «أبل» (Ask Siri for Help With an Apple Product)

في حين أنه قد يكون من السهل استخدام أي هاتف ذكي أو جهاز لوحي، فإن برامج «أبل» أصبحت معقدة بشكل متزايد على مرّ السنين، لذلك قد يكون من الصعب معرفة كيفية الاستفادة من الميزات التي يصعب العثور عليها.

وقد غرست «أبل إنتليجنس» في «سيري» القدرة على تقديم المساعدة في التنقل بين منتجات «أبل». لا يمكنني أبداً أن أتذكر طوال حياتي كيفية تشغيل تطبيقين جنباً إلى جنب على «آيباد»، على سبيل المثال. لذلك سألت «سيري»: «كيف أستخدم تقسيم الشاشة على آيباد؟». وقد أظهر لي «سيري» بسرعة قائمةً من التعليمات، التي تضمنت النقر على زر في الجزء العلوي من التطبيق. ومن عجيب المفارقات أن «مساعد سيري» لم يتمكّن من تقديم المساعدة حول كيفية استخدام «أبل إنتليجنس» لإعادة كتابة بريد إلكتروني. بدلاً من ذلك، قام بتحميل قائمة بنتائج بحث «غوغل» تعرض مواقع ويب أخرى مع الخطوات.

* تسريع الكتابة (Speed Through Writing)

عند الحديث عن البريد الإلكتروني، يتضمّن «أبل إنتليجنس» أدوات كتابة لتحرير كلماتك، ويمكنه حتى إنشاء ردود بريد إلكتروني «جاهزة». لقد استخدمتُ أداة الرد التلقائي لإبعاد مندوب مبيعات في وكالة للسيارات، بسرعة: «شكراً لك على التواصل. لم أعد مهتماً بشراء سيارة في هذا الوقت».

أما بالنسبة لتحرير النص، فقد قمت بتسليط الضوء على رسالة بريد إلكتروني كتبتها بسرعة إلى أحد الزملاء، وضغطت على زر «مراجعة». قام «أبل إنتليجنس» بسرعة بتحرير النص لإدراج علامات الترقيم التي تخطيتها.

أدوات «أبل» يمكنك تجاهلها

* إزالة عوامل التشتيت من الصور (Removing Distractions From Photos)

تتمثل إحدى أكثر ميزات «أبل إنتليجنس» المتوقعة في القدرة على تحرير صورة تلقائياً لإزالة عامل تشتيت، مثل شخص يفسد الصورة في صورة عائلية مثالية بخلاف ذلك.

سيرغب كثير من الأشخاص في تجربة هذه الأداة، المسماة «التنظيف (Clean Up)»... ولكن استعدوا للشعور بالإحباط.

لتجربتها، فتحتُ صورة التقطتها لأفراد الأسرة في حفل زفاف في الهواء الطلق قبل بضع سنوات. ضغطت على زر «Clean Up» على أمل إزالة الأشخاص الجالسين على كراسي الحديقة في الخلفية. وقد حذف البرنامج الأشخاص والكراسي، ولكن تم استبدال مزيج غير مفهوم من وحدات البكسل باللونين الأبيض والأسود بهم.

لقد جرّبتُ الأداة مرة أخرى على صورة لكلبي الكورغي، ماكس، وهو نائم على أريكتي بجوار بطانية. لقد أزال «أبل إنتليجنس» البطانية، وحاول إعادة إنتاج وسادة الأريكة. وبدلاً من ذلك، قام بإنشاء أخدود عميق غير جذاب.

* تلخيص النص (Summarizing Text)

يبدو أن «أبل» تعتقد بأن الإنترنت مليء بكثير من الكلمات. تتمثل إحدى أبرز ميزات «أبل إنتليجنس» في قدرته على إنشاء ملخصات للنص في كثير من التطبيقات، بما في ذلك البريد الإلكتروني ومقالة الويب والمستندات.

بالضغط على زر «التلخيص» في متصفح «سفاري (Safari)»، حصلتُ على ملخص من 3 جمل لمقال من صحيفة «نيويورك تايمز» مكون من 1200 كلمة حول إيجابيات وسلبيات تناول سمك التونة. لقد لخصت شركة «أبل إنتليجنس» فرضية المقال: إن سمك التونة طعام مغذٍ قد يحتوي على نسبة عالية من الزئبق، ويجب على المستهلكين النظر في أنواع سمك التونة التي تحتوي على مستويات منخفضة من الزئبق.

خطر الهلوسة والتلفيق

لسوء الحظ، أوصى «أبل إنتليجنس» في ملخصه، الناس بتناول سمك التونة الأبيض، وهو أحد الأنواع المدرجة في المقال على أنها تحتوي على أعلى مستويات الزئبق.

هذا هو ما يُعرف في صناعة التكنولوجيا بـ«الهلوسة»، وهي مشكلة شائعة؛ حيث يقوم الذكاء الاصطناعي بتلفيق المعلومات بعد الفشل في تخمين الإجابة الصحيحة. كما فشلت الأداة في تلخيص ملاحظاتي. وحديثاً، وللتحضير لاجتماع مكتبي، قمتُ بتدوين ملاحظات حول 3 زملاء كنت سألتقيهم. وبدلاً من إنتاج ملف محكم عن كل شخص، قامت الأداة بإنشاء ملخص لدور شخص واحد فقط.

وقد رفضت شركة «أبل» التعليق على هذا... وباختصار، يمكنك تخطي هذه الأداة.

* خدمة «نيويورك تايمز».

اقرأ أيضاً


مقالات ذات صلة

الصور والفيديوهات المفبركة في زمن الحروب… كيف نميّز الحقيقة من التزييف؟

خاص تنتشر المعلومات المضللة بسرعة كبيرة على وسائل التواصل الاجتماعي خلال الأزمات والصراعات (شاترستوك)

الصور والفيديوهات المفبركة في زمن الحروب… كيف نميّز الحقيقة من التزييف؟

تصاعد الأخبار الزائفة والتزييف العميق خلال الأزمات يتطلب وعياً رقمياً والتحقق من المصادر والصور والفيديوهات قبل مشاركة المعلومات.

نسيم رمضان (لندن)
تكنولوجيا الذكاء الاصطناعي يحلل التقييمات والصور لاقتراح أماكن «مدونة غوغل»

ميزات جديدة في «خرائط غوغل» تحول التطبيق إلى مساعد ذكي للتنقل

تشهد خدمات الخرائط الرقمية تحولاً متسارعاً مع دخول تقنيات الذكاء الاصطناعي إلى صلب تجربة المستخدم، في خطوة تسعى من خلالها الشركات التقنية إلى إعادة تعريف مفهوم…

عبد العزيز الرشيد (الرياض)
تكنولوجيا شعار تطبيق «شات جي بي تي» يظهر على شاشة (أ.ف.ب)

دراسة صادمة: 8 من كل 10 روبوتات ذكاء اصطناعي قد تساعد بالتخطيط لهجمات عنيفة

حسب التقرير الصادر عن مركز مكافحة الكراهية الرقمية، فإن ثمانية من كل عشرة روبوتات دردشة تعمل بالذكاء الاصطناعي قد تساعد المستخدمين الشباب في التخطيط لهجمات.

«الشرق الأوسط» (واشنطن)
تكنولوجيا تعتمد الطريقة الجديدة على استخراج المفاهيم من داخل النموذج نفسه بدلاً من فرض مفاهيم محددة مسبقاً من قبل الخبراء (أدوبي)

أبحاث جديدة لفهم تفكير الذكاء الاصطناعي وفتح «صندوقه الأسود»

أبحاث جديدة في جامعة MIT تطور تقنيات تساعد نماذج الذكاء الاصطناعي على تفسير قراراتها لتعزيز الشفافية والثقة في الأنظمة المؤتمتة.

نسيم رمضان (لندن)
خاص توسّع مفهوم المرونة الرقمية ليشمل استمرارية البرمجيات وليس الأمن السيبراني فقط (أدوبي)

خاص هل أصبحت مرونة البرمجيات شرطاً أساسياً لحماية الاقتصاد الرقمي في السعودية؟

توسّع مفهوم المرونة الرقمية ليشمل استمرارية البرمجيات ومخاطر الموردين مع بروز الحساب الضامن أداةً لحماية الخدمات الرقمية الحيوية.

نسيم رمضان (لندن)

«إكس» تتقدم بمقترح قبل ساعات من استحقاق غرامة أوروبية كبيرة على المنصة

حساب إيلون ماسك على منصة «إكس» (رويترز)
حساب إيلون ماسك على منصة «إكس» (رويترز)
TT

«إكس» تتقدم بمقترح قبل ساعات من استحقاق غرامة أوروبية كبيرة على المنصة

حساب إيلون ماسك على منصة «إكس» (رويترز)
حساب إيلون ماسك على منصة «إكس» (رويترز)

بعد ساعات من انتهاء المهلة المحددة لسداد غرامة بالملايين فرضها الاتحاد الأوروبي، قدّمت منصة «إكس»، المملوكة للملياردير إيلون ماسك، إلى المفوضية الأوروبية تصوراً لتعديلات جوهرية على المنصة.

وأكد مسؤول إعلامي باسم الهيئة المنظمة، ومقرها بروكسل، الجمعة، أن المقترحات المقدمة من المنصة تركز بالأساس على تطوير آليات توثيق الحسابات عبر علامات التحقق (الشارات الزرقاء)، بهدف تعزيز الشفافية ومكافحة التضليل.

ولم يكشف المسؤول عن أي تفاصيل، لكنه أشار إلى أنها خطوة في الاتجاه الصحيح، وفق ما ذكرته «وكالة الأنباء الألمانية».

وقال المتحدث باسم الاتحاد الأوروبي: «لا يسعنا إلا أن نثمن أنه بعد حوار بناء مع الشركة، أخذت التزاماتها القانونية على محمل الجد وقدمت لنا مقترحات عملية».

يذكر أن المفوضية الأوروبية كانت قد فرضت على المنصة في ديسمبر (كانون الأول) الماضي، غرامة قدرها 120 مليون يورو (137.7 مليون دولار) استناداً إلى قانون الخدمات الرقمية، وذلك على خلفية ما وصفته بـ«الافتقار إلى الشفافية» في طريقة توثيق الحسابات باستخدام علامة بيضاء على خلفية زرقاء، والتي عدّتها مضللة.

وجاء إجراء الاتحاد الأوروبي ضد «إكس» عقب تحقيق استمر نحو عامين بموجب قانون الخدمات الرقمية للاتحاد الأوروبي، الذي يُلزم المنصات الإلكترونية ببذل مزيد من الجهود لمكافحة المحتوى غير القانوني والضار.

وفي يوليو (تموز) 2024، اتهمت المفوضية الأوروبية «إكس» بتضليل المستخدمين، مشيرة إلى أن علامة التوثيق الزرقاء لا تتوافق مع الممارسات المتبعة في هذا المجال، وأن أي شخص يستطيع الدفع للحصول على حالة «موثق».


إشادة دولية بالدور العالمي لـ«منظمة التعاون الرقمي» في سد الفجوات

أمين عام منظمة التعاون الرقمي ديمة اليحيى خلال مشاركتها في «قمة مونتغمري 2026» عبر الاتصال المرئي (واس)
أمين عام منظمة التعاون الرقمي ديمة اليحيى خلال مشاركتها في «قمة مونتغمري 2026» عبر الاتصال المرئي (واس)
TT

إشادة دولية بالدور العالمي لـ«منظمة التعاون الرقمي» في سد الفجوات

أمين عام منظمة التعاون الرقمي ديمة اليحيى خلال مشاركتها في «قمة مونتغمري 2026» عبر الاتصال المرئي (واس)
أمين عام منظمة التعاون الرقمي ديمة اليحيى خلال مشاركتها في «قمة مونتغمري 2026» عبر الاتصال المرئي (واس)

أشادت «قمة مونتغمري 2026» العالمية بجهود منظمة التعاون الرقمي، التي باتت منصة دولية ذات مصداقية تهدف إلى سدّ الفجوات الرقمية، وتوسيع المهارات الرقمية لخدمة الإنسان.

وتجمع القمة نخبة من رواد الأعمال والمستثمرين وصنّاع السياسات وقادة القطاع التقني من مختلف أنحاء العالم لمناقشة التوجهات الناشئة التي تسهم في تشكيل مستقبل الاقتصاد الرقمي العالمي.

وأكدت ديمة اليحيى، الأمين العام للمنظمة، خلال مشاركته في القمة عبر الاتصال المرئي، أن «التعاون الرقمي ليس شعارات بل إنجازات على أرض الواقع»، منوهة بأن «أفضل ما في الدبلوماسية التقنية لم يأتِ بعد، والمزيد من دول العالم تختار هذا المسار يوماً بعد يوم لتحقيق طموحات شعوبها باقتصاد رقمي مزدهر يشمل الجميع».

وأضافت اليحيى أن «المنظمة أصبحت تضم اليوم 16 دولة و800 مليون إنسان، ومجتمعاً متنامياً؛ بفضل رؤية الدول الأعضاء، والتزامها وتفاني الأمانة العامة، وثقة شركائها في القطاع الخاص والأوساط الأكاديمية والمجتمع المدني».

إلى ذلك، تُوِّجت الأمين العام للمنظمة، خلال حفل أقيم ضمن أعمال القمة، بـ«جائزة الدبلوماسية التقنية»، التي تُمنح لتكريم القادة العالميين الذين يسهمون في تعزيز التعاون الدولي بمجال التقنية والابتكار الرقمي، بوصفها أول شخصية عربية وسعودية تحصدها، وفقاً لـ«وكالة الأنباء السعودية».

من جهته، أفاد جيمس مونتغمري، مؤسس القمة، بأن اليحيى «أثبتت أن التعاون المتعدد الأطراف في القضايا الرقمية ليس ممكناً فحسب، بل هو ضرورة لا غنى عنها»، مشيراً إلى أنها «أرست نموذجاً جديداً لكيفية تعاون الدول في مجال السياسات التقنية».

بدوره، اعتبر مارتن راوخباور، مؤسس «شبكة الدبلوماسية التقنية»، أن المنظمة «باتت منصة عالمية ذات مصداقية تجمع الحكومات والقطاع الخاص لسدّ الفجوات الرقمية، وتوسيع المهارات الرقمية، وضمان أن يخدم التقدّم التقني الإنسان بدلاً من أن يتركه خلفه».

ولفت راوخباور إلى أن «التعاون التقني الدولي الفعّال ممكنٌ وملحّ في آن واحد، وهذا المزيج بين الرؤية والتنفيذ والحسّ الدبلوماسي هو تحديداً ما أُنشئت جائزة الدبلوماسية التقنية للاحتفاء به».

وحقّقت منظمة التعاون الرقمي، التي تتخذ من الرياض مقراً لها، تقدّماً كبيراً منذ تأسيسها في عام 2020، لتكون أول منظمة دولية متعددة الأطراف مكرّسة لتمكين اقتصادات رقمية شاملة ومستدامة وموثوقة من خلال التعاون الدولي.

وتضم المنظمة اليوم 16 دولة تمثل أكثر من 800 مليون نسمة وناتجاً محلياً إجمالياً يتجاوز 3.5 تريليون دولار، تعمل معاً لفتح آفاق جديدة في الاقتصاد الرقمي. وشهدت نمواً ملحوظاً وحضوراً دولياً متزايداً، حيث تضاعفت عضويتها 3 مرات منذ تأسيسها من 5 دول مؤسسة، ووسّعت فئة المراقبين والشركاء لديها لتتجاوز 60 مراقباً وشريكاً.

كما حصلت على اعتراف رسمي ضمن منظومة الأمم المتحدة، ما يُعزِّز دورها منصة عالمية لتعزيز التعاون الرقمي، علاوةً على مبادراتها وشراكاتها في هذا الصدد، وجمع الوزراء وصنّاع السياسات ورواد الأعمال والمنظمات الدولية لتعزيز الحوار والتعاون العالمي حول الاقتصاد الرقمي.


الصور والفيديوهات المفبركة في زمن الحروب… كيف نميّز الحقيقة من التزييف؟

تنتشر المعلومات المضللة بسرعة كبيرة على وسائل التواصل الاجتماعي خلال الأزمات والصراعات (شاترستوك)
تنتشر المعلومات المضللة بسرعة كبيرة على وسائل التواصل الاجتماعي خلال الأزمات والصراعات (شاترستوك)
TT

الصور والفيديوهات المفبركة في زمن الحروب… كيف نميّز الحقيقة من التزييف؟

تنتشر المعلومات المضللة بسرعة كبيرة على وسائل التواصل الاجتماعي خلال الأزمات والصراعات (شاترستوك)
تنتشر المعلومات المضللة بسرعة كبيرة على وسائل التواصل الاجتماعي خلال الأزمات والصراعات (شاترستوك)

مع التصعيد المتسارع على عدة جبهات في الشرق الأوسط، تتدفق المعلومات بسرعة تكاد توازي سرعة الأحداث نفسها. وغالباً ما تكون منصات التواصل الاجتماعي أول مكان تظهر فيه الصور ومقاطع الفيديو والتقارير عن هجمات مزعومة أو تطورات عسكرية. لكن بالتوازي مع المعلومات الحقيقية، بدأت أيضاً موجة من المحتوى المضلل أو المفبرك تنتشر على الإنترنت، ما يجعل التمييز بين الحقيقة والزيف أكثر صعوبة.

تحدٍّ رقمي متزايد

في هذا السياق، يحذر خبراء الأمن السيبراني من أن الانتشار السريع للمعلومات المضللة، لا سيما عبر مقاطع الفيديو المعدلة وتقنيات التزييف العميق (Deepfakes)، أصبح تحدياً رقمياً متزايداً خلال فترات عدم الاستقرار الجيوسياسي.

ويؤكد ماهر يمّوت الباحث الرئيسي في الأمن لدى شركة «كاسبرسكي» خلال لقاء خاص مع «الشرق الأوسط»، أن التمييز بين المعلومات الموثوقة والروايات الزائفة يصبح أكثر أهمية خلال حالات الطوارئ، حين ترتفع حدة المشاعر ويميل الناس إلى مشاركة المحتوى بسرعة من دون التحقق منه.

ويردف: «مع تطورات الأوضاع في الشرق الأوسط، حذّرت جهات حكومية في دول مجلس التعاون الخليجي من نشر أو تداول أي معلومات من مصادر غير معروفة». ويضيف أن «الأخبار الزائفة، أي المعلومات المضللة أو غير الدقيقة التي تُقدَّم على أنها أخبار حقيقية، تصبح أكثر خطورة خلال حالات الطوارئ».

ماهر يموت باحث أمني رئيسي في «كاسبرسكي» (كاسبرسكي)

المعلومات المضللة

ليست الأخبار الزائفة ظاهرة جديدة، لكنّ حجم انتشارها وسرعتها تغيّر بشكل كبير مع صعود وسائل التواصل الاجتماعي وأدوات الذكاء الاصطناعي؛ ففي أوقات التوتر الجيوسياسي، يمكن أن تنتشر تقارير غير مؤكدة أو مقاطع فيديو معدّلة على نطاق واسع خلال دقائق، وقد تصل إلى ملايين المستخدمين قبل أن تتمكن جهات التحقق من الحقائق من مراجعتها.

ويصنف الخبراء الأخبار الزائفة عادة ضمن فئتين رئيسيتين؛ الأولى تتعلق بمحتوى مفبرك بالكامل يهدف إلى التأثير في الرأي العام أو جذب زيارات إلى مواقع إلكترونية معينة. أما الثانية فتتضمن معلومات تحتوي على جزء من الحقيقة، لكنها تُعرض بشكل غير دقيق لأن الكاتب لم يتحقق من جميع الوقائع، أو بالغ في بعض التفاصيل.

وفي الحالتين، يمكن أن يؤدي ذلك إلى إرباك المتابعين خلال الأزمات، خصوصاً عندما يعتمد المستخدمون على منصات التواصل الاجتماعي، بدلاً من المصادر الإخبارية الموثوقة للحصول على التحديثات.

كما بدأت السلطات في عدة دول، التحذير من أن نشر معلومات خاطئة حتى من دون قصد، قد يعرّض المستخدمين للمساءلة القانونية، ما دفع الحكومات وخبراء الأمن الرقمي إلى التشديد على أهمية الوعي الرقمي والمسؤولية عند مشاركة المعلومات في أوقات حساسة.

الخداع المدعوم بالذكاء الاصطناعي

أدخل الذكاء الاصطناعي بعداً جديداً إلى مشكلة المعلومات المضللة، من خلال ما يُعرف بتقنيات «التزييف العميق»، وهي مقاطع فيديو مفبركة تُنشأ باستخدام تقنيات التعلم الآلي؛ مثل تبديل الوجوه أو توليد محتوى بصري اصطناعي. وفي بعض الحالات يمكن تعديل مقاطع حقيقية لتبدو كأنها توثق أحداثاً لم تقع أصلاً.

ويصرح يمّوت بأن أهمية التحقق من الأخبار الزائفة باتت أكبر من أي وقت مضى مع انتشار التزييف العميق. ويزيد: «الذكاء الاصطناعي يتيح دمج مقاطع فيديو مختلفة لإنتاج مشاهد جديدة تظهر أحداثاً أو أفعالاً لم تحدث في الواقع، وغالباً بنتائج واقعية للغاية».

وتجعل هذه التقنيات مقاطع الفيديو المعدلة تبدو حقيقية إلى حد كبير، ما قد يؤدي إلى تضليل المستخدمين، خصوصاً عندما يتم تداولها في سياقات مشحونة عاطفياً؛ فعلى سبيل المثال، قد تظهر مقاطع معدلة كأنها توثق هجمات أو تحركات عسكرية أو تصريحات سياسية لم تحدث. وحتى إذا تم كشف زيف هذه المقاطع لاحقاً، فإن انتشارها الأولي قد يسبب حالة من القلق أو الارتباك لدى الجمهور.

قد تؤدي الأخبار الزائفة إلى إرباك الجمهور ونشر الشائعات خصوصاً عند تداولها دون تحقق (شاترستوك)

كيفية التحقق من المعلومات

يشدد خبراء الأمن السيبراني على أن المستخدمين أنفسهم يلعبون دوراً أساسياً في الحد من انتشار المعلومات المضللة؛ فبينما تطور المنصات والجهات التنظيمية أدوات لرصد المحتوى المزيف، يمكن للأفراد اتخاذ خطوات بسيطة للتحقق من صحة المعلومات قبل مشاركتها.

أولى هذه الخطوات هي التحقق من مصدر الخبر؛ فبعض المواقع التي تنشر أخباراً مزيفة قد تحتوي على أخطاء إملائية في عنوان الموقع الإلكتروني أو تستخدم نطاقات غير مألوفة، تحاكي مواقع إعلامية معروفة.

وينصح يمّوت بالتحقق من عنوان الموقع بعناية، والاطلاع على قسم «من نحن» في المواقع غير المعروفة. ومن الأفضل الاعتماد على مصادر رسمية ومعتمدة؛ مثل المواقع الحكومية أو المؤسسات الإعلامية الموثوقة.

كما ينبغي التحقق من هوية الكاتب أو الجهة التي نشرت الخبر. فإذا لم يكن المؤلف معروفاً أو لا يمتلك خبرة واضحة في الموضوع، فقد يكون من الحكمة التعامل مع المعلومات بحذر.

وتعد مقارنة الخبر مع مصادر موثوقة أخرى خطوة مهمة أيضاً؛ فالمؤسسات الإعلامية المهنية تعتمد إرشادات تحريرية وإجراءات تحقق من المعلومات، ما يعني أن الأحداث الكبرى عادة ما تُغطى من قبل أكثر من جهة إعلامية موثوقة.

ويشير يمّوت أيضاً إلى أهمية التحقق من التواريخ والتسلسل الزمني للأخبار، إذ إن بعض المعلومات المضللة يعتمد على إعادة نشر أحداث قديمة أو عرضها، كما لو أنها وقعت حديثاً. كما يلفت إلى أن خوارزميات وسائل التواصل الاجتماعي قد تخلق ما يُعرف بـ«غرف الصدى»، حيث تُعرض للمستخدمين محتويات تتوافق مع آرائهم واهتماماتهم السابقة، وهو ما يجعل من الضروري الاطلاع على مصادر متنوعة وموثوقة قبل تكوين أي استنتاجات.

التلاعب بالمشاعر

يعتمد كثير من الأخبار الزائفة على إثارة المشاعر؛ فالعناوين المثيرة أو المقاطع الدرامية غالباً ما تُصاغ بطريقة تستفز مشاعر الخوف أو الغضب أو الصدمة، وهي مشاعر تزيد من احتمال مشاركة المحتوى بسرعة.

ويقول يمّوت: «كثير من الأخبار الزائفة يُكتب بطريقة ذكية لاستثارة ردود فعل عاطفية قوية». ويضيف أن «الحفاظ على التفكير النقدي وطرح سؤال بسيط مثل: لماذا كُتب هذا الخبر؟ قد يساعد المستخدمين في تجنب نشر معلومات مضللة». وتزداد أهمية هذا الأمر على منصات التواصل الاجتماعي، حيث تميل الخوارزميات إلى إبراز المحتوى الذي يحقق تفاعلاً كبيراً، وبالتالي قد تنتشر المنشورات المثيرة للمشاعر أسرع من التقارير المتوازنة.

يسهم الذكاء الاصطناعي وتقنيات التزييف العميق في إنتاج فيديوهات وصور تبدو واقعية لكنها مفبركة (شاترستوك)

مؤشرات بصرية على التلاعب

يمكن للصور ومقاطع الفيديو نفسها أن تقدم مؤشرات على احتمال تعرضها للتعديل؛ فبعض الصور المعدلة قد تظهر خطوطاً خلفية مشوهة أو ظلالاً غير طبيعية، أو ألوان بشرة تبدو غير واقعية. أما في مقاطع الفيديو المزيفة فقد تظهر مشكلات في الإضاءة أو حركة العينين أو ملامح الوجه. ورغم أن اكتشاف هذه المؤشرات ليس دائماً سهلاً، خصوصاً عند مشاهدة المحتوى عبر الهاتف الجوال، فإنها قد تساعد المستخدمين على الشك في مصداقية بعض المقاطع المتداولة.

مسؤولية رقمية مشتركة

يرى الخبراء أن الحد من انتشار المعلومات المضللة خلال الأزمات، يتطلب تعاوناً بين الحكومات وشركات التكنولوجيا والمؤسسات الإعلامية والمستخدمين أنفسهم. ويلفت يمّوت إلى أن أبسط قاعدة قد تكون الأكثر فاعلية: «إذا كنت غير متأكد من صحة المحتوى، فلا تشاركه». ويضيف أن المشاركة المسؤولة تساعد في الحد من انتشار المعلومات المضللة وتحمي المجتمعات الرقمية.

ومع استمرار المنصات الرقمية في تشكيل طريقة انتقال المعلومات عبر الحدود، تصبح القدرة على تقييم المحتوى على الإنترنت مهارة أساسية؛ ففي أوقات التوتر الجيوسياسي والحروب، حين تختلط الشائعات بالوقائع، لا يتعلق التحدي بالأمن السيبراني فقط؛ بل أيضاً بحماية مصداقية المعلومات نفسها.