مجموعات رسائل «واتساب» و«ماسنجر»... بين التفاعل و«ضبط المحتوى»

مجموعات رسائل «واتساب» و«ماسنجر»... بين التفاعل و«ضبط المحتوى»
TT

مجموعات رسائل «واتساب» و«ماسنجر»... بين التفاعل و«ضبط المحتوى»

مجموعات رسائل «واتساب» و«ماسنجر»... بين التفاعل و«ضبط المحتوى»

دخلت منصات التواصل الاجتماعي «دائرة الاتهام» من جديد، بسبب إشكالية انتشار المعلومات الزائفة في بعض مجموعات الرسائل على «واتساب» و«فيسبوك ماسنجر»؛ في حين كشفت دراسة حديثة عن أن تراجع الثقة هو أحد أسباب انتشار ومشاركة المعلومات الزائفة عبر هذه المجموعات. وهو أمر يثير تحدياً جديداً أمام محاولات الحد من انتشار الأخبار الزائفة، والعمل على «ضبط المحتوى» على منصات التواصل الاجتماعي.
ويؤكد خبراء ومتخصصون أن هذه المنصات منحت الأشخاص العاديين منبراً لنشر أفكارهم، من دون وجود قيود ومعايير تقنن هذه المعلومات. وطالب بعض هؤلاء مستخدمي منصات التواصل الاجتماعي بـ«تجنب مشاركة الأخبار الصادرة عن جهات غير موثوقة».
دراسة نشرتها جامعة لفبرا البريطانية الشهر الماضي، تناولت أسباب انتشار المعلومات المضللة حول لقاح فيروس «كوفيد-19» في مجموعات الرسائل على «واتساب» و«فيسبوك ماسنجر»، وأشارت إلى أن «مناقشة الأمور المتعلقة باللقاح عادة ما تكون على مجموعات الرسائل الصغيرة التي تضم أفراد العائلة، أو زملاء العمل؛ حيث يعرف الجميع بعضهم بعضاً بصفة شخصية. وهو ما يزيد من احتمال مشاركة المعلومات الزائفة من دون محاولة تصحيحها؛ لأن أعضاء مجموعات الرسائل القصيرة عادة ما يتجنبون الدخول في صراعات ومناقشات حادة».
أما بالنسبة لمجموعات الرسائل الكبيرة التي تضم أشخاصاً لا يعرف بعضهم بعضاً، مثل «مجموعات أولياء الأمور في المدارس»، فإن «هؤلاء يخشون تصحيح المعلومات الزائفة التي تجري مشاركتها، لقلة ثقتهم في كم المعلومات لديهم حول الموضوع، وخوفاً من النظر إلى محاولاتهم في تصحيح المعلومات باعتبارها طريقة لتقليل تماسك المجموعة، عبر دخولها في صراعات ومناقشات جدلية على الغروب»، بحسب الدراسة.
ومن ناحية ثانية، نقل موقع معهد «نيمان لاب»، المتخصص في دراسات الإعلام التابع لجامعة هارفارد الأميركية، عن الدكتور أندرو تشادويك، أستاذ الاتصال السياسي بجامعة لفبرا -أحد المشاركين في الدراسة- قوله إن «بيئة مجموعات الرسائل تجعل أعضاءها يمضون وقتاً طويلاً في تجنب الدخول في منازعات، قد تؤثر على علاقاتهم الاجتماعية مع أفراد الأسرة والأصدقاء». وأردف بأن «نتائج الدراسة كانت مفاجئة، فالناس بدت غير متحمسة على الإطلاق لتصحيح المعلومات على أي مستوى».
مهران الكيالي، الخبير في إدارة وتحليل بيانات وسائل التواصل الاجتماعي في دولة الإمارات العربية المتحدة، يرى أن «محاولات تصحيح الأخبار المضللة أو الزائفة على منصات التواصل الاجتماعي، أو إبداء رأي يُخالف المجموعة، عادة ما يُثير ردود فعل غاضبة، واتهامات تصل في النهاية إلى الحظر (البلوك) أو الحذف من المجموعة».
ويضيف الكيالي في تصريحات مع «الشرق الأوسط»، أن «وسائل التواصل الاجتماعي منحت للجميع حول العالم منبراً للتعبير عما في داخلهم، بغض النظر عن صحته أو دقته، فأصبحت هناك فئة كبيرة تعتبر نفسها مصدراً للأخبار». ويتابع بأن «هذه الفئة بعيدة كل البعد عن مبادئ ومواثيق العمل الصحافي، وهمها الوحيد هو جذب الانتباه لزيادة عدد المتابعين».
ويشير الكيالي أيضاً إلى أن «الأخبار الزائفة المتداولة على وسائل التواصل الاجتماعي؛ خصوصاً تطبيق (واتساب) قد تؤدي إلى اتباع فكر أو معتقدات معينة تعود بالضرر الصحي، أو النفسي، أو حتى الضرر المجتمعي».
من جانبه، أكد محمد فتحي، المتخصص في شؤون مواقع التواصل الاجتماعي بمصر: «صحة النتائج التي توصلت لها الدراسة بنسبة كبيرة». وقال لـ«الشرق الأوسط»، إن «كثيراً من المعلومات المضللة حول اللقاح المضاد لـ(كوفيد-19)، وكثيراً من الأخبار السياسية الأخرى، غالباً ما يكون مصدرها مجموعات (فيسبوك) أو (واتساب)»، مضيفاً أن «أهم خطوات محاربة المعلومات المضللة على منصات التواصل الاجتماعي، هي مواجهة المجموعات الخاصة للعائلات، وزملاء العمل، والمهنيين، وغيرهم ممن تجمعهم قواسم مشتركة».
وفي السياق ذاته، ذكرت الدراسة أن «محاولة تصحيح أو رفض المعلومات المضللة حول لقاح (كوفيد-19) مثلاً قد ترتد على صاحبها، وتؤدي إلى خروجه من المجموعة أو النقاش». وبحسب الدراسة، فإن «البعض يرسم حدوداً بين ما يرونه عالم التواصل العام؛ حيث يمكنهم تحدي المعلومات المضللة، وبين عالم العلاقات الشخصية على مجموعات الرسائل؛ حيث من غير اللائق تحدي المعلومات المنشورة في هذا العالم حتى لو كانت غير صحيحة».
وحول سبب نشر البعض للمعلومات داخل هذه المجموعات، أرجع فتحي ذلك إلى «رغبة بعض الأشخاص في إضافة اهتمام أكبر لمجموعاتهم، عبر معلومات مهمة من دون التحقق من مصادرها، أو التأكد من صحتها؛ خصوصاً تلك المعلومات الموجودة على (فيسبوك)». وأشار إلى أن «الأخبار المضللة دائماً ما تكون جاذبة للاهتمام؛ خصوصاً إذا كانت تتماشى مع المزاج العام... وهي من ضمن الأشياء التي تصنع (الترند)، مثل العلاجات والأدوية الرخيصة الثمن، والأحداث السياسية، والفضائح، وروابط العروض التجارية الوهمية، وغيرها، وهو ما يدفع الناس لمشاركتها ونشرها».
ووفق فتحي، فإن «بين أسباب انتشار المعلومات المضللة وجود بعض الحملات الممنهجة ذات الأغراض الخاصة، التي تستخدم هذه المجموعات لتمرير الإشاعات، بهدف تحقيق انتشار أكبر، إضافة إلى نقص الثقافة والتربية الإعلامية، ما يجعل البعض يتعامل مع أي معلومات على وسائل التواصل باعتبارها حقائق موثوقاً فيها».
الدراسة المذكورة تؤكد أيضاً أن «رؤية معلومات مضللة على مجموعات الرسائل تدفع البعض للتوقف عن التفاعل. وهذا يقود إلى مفارقة أخرى، فهم يعلمون أن ما نُشر غير صحيح؛ لكنهم لا يقولون ذلك، مما يعطي هذه المعلومات نوعاً من الشرعية داخل المجموعة، ويزيد من فرص انتشارها بشكل أوسع».
وعودة إلى الكيالي، فإنه يشير إلى «محاولات بعض تطبيقات التواصل الاجتماعي مكافحة الأخبار الزائفة، مثل ما فعلته شركة (ميتا) («فيسبوك» سابقاً)، المالكة لتطبيق (واتساب)، بوضع حد لعدد الأشخاص الذين يمكن تحويل الرسالة إليهم على (واتساب)، بحيث لا يزيد عن 5 جهات اتصال في المرة الواحدة، إضافة إلى تقييد استخدام البرامج التي تجري مهام آلية محددة مسبقاً ومتكررة، وهو ما يعرف باسم (البوت)».
وهنا يقول الكيالي إنه «بينما تحاول بعض التطبيقات وضع قيود هدفها التقليل من انتشار المعلومات المضللة، فإن تطبيقات أخرى مثل (تلغرام) لا تبذل أي مجهود في هذا السياق». ولذا طالب وسائل التواصل بـ«بوضع قوانين صارمة بشأن المحتوى الموجود والمتداول على منصاتها»، كما دعا مستخدمي وسائل التواصل الاجتماعي إلى «تجنب نشر أو مشاركة الأخبار؛ إلا إذا كانت من مصدرها الأساسي، أو على الأقل من مصدر موثوق».
في الشأن نفسه، يرى فتحي أن «الطريق لمكافحة هذا الكم من المعلومات المضللة، يكون عبر سرعة نشر الحقائق، لتجنب إثارة الجدل والنقاشات الداعمة للمعلومات المضللة، وأن تتضمن رسائل التصحيح معلومات مفصلة وجديدة، من دون الاكتفاء بمجرد تكذيب المعلومة المضللة، إلى جانب استخدام المنصات نفسها التي تنتشر عليها المعلومات المضللة في التصحيح، وإشراك الجمهور في مكافحتها، بحثهم على التفاعل».
فتحي بدوره طالب «بتعقب مروجي الإشاعات ومصادرها، والتأكيد على أن غروبات (واتساب) و(الماسنجر) ليست مصادر للمعلومات، حتى وإن كانت صحيحة، وكذا تثقيف المستخدمين، وزيادة الوعي بالمصادر الصحيحة للمعلومات، وتوسيع دائرة نشرها على مختلف المنصات المتاحة، بما فيها التطبيقات الحديثة، بطرق وأدوات حديثة».
وحقاً أعلنت شركة «ميتا» أخيراً عن تحديث يسمح لمديري مجموعات الرسائل على «واتساب» بحذف الرسائل المثيرة للمشكلات من المجموعة. كما «يختبر (واتساب) الآن تحديثات جديدة تزيد من صعوبة إعادة تحويل الرسائل من جهة اتصال إلى أخرى»، بحسب معهد «نيمان لاب»؛ لكن تشادويك يرى أن «هذه التحديثات من المرجح ألا تُستخدَم بشكل كبير في مجموعات الرسائل الكبيرة؛ لأن العادة في هذه المجموعات هي تجنب الدخول في منازعات، وهو ما سيقيد مديري هذه المجموعات عند محاولاتهم حذف بعض المنشورات التي تحتوي على معلومات مضللة». ويشير إلى «ضرورة إيجاد طريقة لتمكين الجمهور من الحصول على معلومات جيدة، وتعزيز ثقتهم في معلوماتهم بطريقة تمكنهم من العمل على تصحيح المعلومات الزائفة».



جهود خليجية لتطوير أدوات الذكاء الاصطناعي لمواجهة «الأخبار المزيّفة»

الدكتور بريسلاف ناكوف (لينكد إن)
الدكتور بريسلاف ناكوف (لينكد إن)
TT

جهود خليجية لتطوير أدوات الذكاء الاصطناعي لمواجهة «الأخبار المزيّفة»

الدكتور بريسلاف ناكوف (لينكد إن)
الدكتور بريسلاف ناكوف (لينكد إن)

بين التحديات الكبرى التي يواجهها الباحثون في تطوير الذكاء الاصطناعي ضمان الموضوعية مع التدفّق المعلوماتي المتسارع والمتزايد عبر شبكة الإنترنت، واستخدام وسائل عديدة لضخ مختلف المعطيات والمعلومات، بات من الصعب على المتلقي التمييز بين الحقيقة والدعاية من جهة وبين الإعلام الموضوعي والتأطير المتحيّز من جهة ثانية.

وهكذا، تتأكد أكثر فأكثر أهمية وجود تقنيات التحليل والكشف وتصفية (أو «فلترة») هذا الكم الهائل من المعطيات، توصلاً إلى وقف سيل المعلومات المضللة وإبعاد الإشاعات و«الأخبار المزيّفة»، وجعل شبكة الإنترنت مكاناً آمناً لنقل المعلومات والأخبار الصحيحة وتداولها. والواقع أنه مع التحول الرقمي المتسارع وانتشار وسائل التواصل الاجتماعي، غدت «الأخبار المزيّفة» واحدة من أبرز التحديات التي تهدد المجتمعات حول العالم؛ إذ يجري تداول ملايين الأخبار والمعلومات يومياً، ما يجعل من الصعب على الأفراد - بل وحتى المؤسسات الإعلامية - التمييز بين ما هو صحيح وما هو مزيّف أو مضلِّل، وفي هذا السياق برزت تقنيات الذكاء الاصطناعي كأداة مبتكرة وفعّالة للكشف عن «الأخبار المزيفة» وتحليلها.

تُعرَّف «الأخبار المزيّفة» بأنها محتوى إعلامي يُنشأ ويُنشر بهدف التضليل أو التلاعب بالرأي العام، وغالباً ما يصار إلى استخدامه لتحقيق غايات سياسية واقتصادية أو اجتماعية. وتتنوّع تقنيات إنشاء «الأخبار المزيّفة» بين التلاعب البسيط بالمعلومات... واستخدام تقنيات متقدمة مثل التزييف العميق، الأمر الذي يزيد من تعقيد اكتشافها.

جهود مبتكرة

من هذا المنطلق والمبدأ، في العاصمة الإماراتية أبوظبي، يقود الدكتور بريسلاف ناكوف، أستاذ ورئيس قسم معالجة اللغة الطبيعية في جامعة محمد بن زايد للذكاء الاصطناعي، جهوداً مبتكرة لتطوير تقنيات الذكاء الاصطناعي، وخصوصاً تحليل الطرق المستخدمة في الإعلام للتأثير على الرأي العام. ويبرز ضمن أبرز إسهامات ناكوف تطوير تطبيق «فرابيه - FRAPPE»، وهو أداة تفاعلية مصممة لتحليل الأخبار عالمياً، حيث يقدم التطبيق رؤية شاملة حول أساليب الإقناع والخطاب المستخدمة في المقالات الإخبارية، ما يمكّن المستخدمين من فهم أعمق للسياقات الإعلامية المختلفة. ويشير ناكوف إلى أن «فرابيه» يساعد المستخدمين على تحديد كيفية صياغة الأخبار وتأطيرها في بلدان مختلفة، ما يتيح رؤية واضحة لتباينات السرد الإعلامي.

تحليل أساليب الإقناع

مع أن دراسة أساليب الإقناع لها جذور قديمة تعود إلى الفيلسوف الإغريقي القديم أرسطو، الذي أسس لمفاهيم الأخلاق والعاطفة والمنطق كأساس للإقناع، فإن فريق ناكوف أضاف تطويرات جديدة لهذا المجال.

وعبر تحليل 23 تقنية مختلفة للإقناع، مثل الإحالة إلى السلطة، واللعب على العواطف، وتبسيط الأمور بشكل مفرط، يُسهم «فرابيه» في كشف أساليب الدعاية وتأثيرها على القراء. وتُظهر هذه الأساليب كيف يمكن للإعلام أن يختار كلمات أو صوراً معينة لتوجيه فهم الجمهور. وكمثال، يمكن تأطير قضية تغيّر المناخ كمشكلة اقتصادية أو أمنية أو سياسية، حسب الإطار الذي تختاره الوسيلة الإعلامية.

التشديد على أهمية تقنيات التحليل والكشف و"فلترة" المعلومات لجعل شبكة الانترنت مكاناً آمناً. (رويترز)

تقنية التأطير الإعلامي

أيضاً من الخواص التي يستخدمها تطبيق «فرابيه» تحليل أساليب التأطير الإعلامي، وهنا يوضح ناكوف أن التطبيق يمكّن المستخدمين من مقارنة كيفية تناول وسائل الإعلام للقضايا المختلفة؛ إذ يستطيع التطبيق أن يُظهر كيف تركّز وسيلة إعلامية في بلد معيّن على الجوانب الاقتصادية لتغير المناخ، بينما قد تركز وسيلة إعلامية في بلد آخر على الجوانب السياسية أو الاجتماعية.

وفي هذا السياق، يعتمد التطبيق على بيانات متقدّمة مثل قاعدة بيانات «SemEval-2023 Task 3»، التي تحتوي على مقالات بأكثر من 6 لغات، ما يجعل «فرابيه» قادراً على تحليل محتوى إعلامي عالمي متنوع. ويستخدم التطبيق الذكاء الاصطناعي لتحديد الإطارات السائدة في الأخبار، كالهوية الثقافية أو العدالة أو المساواة ما يساهم في تقديم صورة أوضح للسياق الإعلامي.

الذكاء الاصطناعي أداة أساسية

الذكاء الاصطناعي أداة أساسية في تطبيق «فرابيه»؛ إذ إنه يتيح للتطبيق تحليل الأنماط اللغوية التي تؤثر على آراء القراء. وهنا يقول ناكوف، خلال حواره مع «الشرق الأوسط» عن قدرات التطبيق: «يُعد الذكاء الاصطناعي في (فرابيه) عنصراً أساسياً في تحليل وتصنيف واكتشاف الأنماط اللغوية المعقّدة التي تؤثر على آراء القراء وعواطفهم». ويضيف أن هذا التطبيق «يستخدم الذكاء الاصطناعي لتحديد أساليب الإقناع والدعاية، مثل الشتائم ولغة الترهيب، والتنمّر والمبالغة والتكرار. ولقد جرى تدريب النظام على التعرّف على 23 تقنية مختلفة غالباً ما تكون دقيقة ومعقّدة في محتوى الوسائط في العالم الحقيقي».

ويتابع ناكوف شرحه: «... ويستخدم التطبيق أيضاً الذكاء الاصطناعي لإجراء تحليل التأطير، أي لتوصيف وجهات النظر الرئيسة التي تُناقش قضية ما من خلالها مثل الأخلاق والعدالة والمساواة والهوية السياسية والثقافية وما إلى ذلك. ويسمح هذا للتطبيق بتمييز الإطارات الأساسية التي تؤثّر على كيفية سرد القصص وإدراكها، وتسليط الضوء على الإطارات المهيمنة في المقالة ومقارنتها عبر مصادر الوسائط والبلدان واللغات».

التحيزات الإعلامية

من جهة ثانية، بين التحديات الكبرى التي يواجهها الباحثون في تطوير تطبيقات الذكاء الاصطناعي، ضمان الموضوعية والتقليل من التحيّز. وفي هذا الجانب، يوضح ناكوف أن «فرابيه» يركّز على تحليل اللغة المستخدمة في المقالات وليس على تقييم صحتها أو موقفها السياسي، وكذلك يعتمد التطبيق على تصنيفات موضوعية وضعها صحافيون محترفون لتحديد أساليب الإقناع والدعاية، ما يقلل من مخاطر التحيّز.

وبالفعل، تمكن «فرابيه»، حتى الآن، من تحليل أكثر من مليوني مقالة تتعلق بمواضيع مثل الحرب الروسية الأوكرانية وتغير المناخ. ويدعم التطبيق راهناً تحليل المحتوى بـ100 لغة، ويخطط الفريق لتوسيع نطاقه ليشمل لغات إضافية وتحسين دقة التحليل، ما سيعزّز قدرة التطبيق على فهم الأنماط الإعلامية عالمياً.

وفي حين يأمل الباحثون أن يصبح هذا التطبيق أداة أساسية للصحافيين والأكاديميين لفهم أساليب الإقناع والدعاية، يشير ناكوف إلى أهمية تطوير مثل هذه التقنيات لمساعدة الناس على التمييز بين الحقائق والدعاية، خاصة في عصر تزايد استخدام المحتوى «المؤتمت» والمعلومات المضللة. وبالتوازي، يسهم «فرابيه» بدور حيوي في تمكين الجمهور من تحليل الأخبار بطريقة أكثر وعياً وموضوعية، ووفق ناكوف: «في عصرنا الحالي، يمكن أن تُستخدم أساليب الإقناع لتضليل الناس؛ ولهذا السبب نحتاج إلى أدوات تساعد في فهم اللغة التي تشكّل أفكارنا». وبالتالي، من خلال استخدام الذكاء الاصطناعي، يمكن أن يصبح «فرابيه» نموذجاً لتطبيقات مستقبلية تسعى لتعزيز الشفافية في الإعلام وتقليل تأثير التضليل الإعلامي.

مكافحة «الأخبار المزيّفة»

في سياق متصل، تمثل خوارزميات الذكاء الاصطناعي نقلة نوعية في مكافحة «الأخبار المزيّفة»؛ حيث تعتمد على تقنيات متقدمة لتحليل النصوص والصور ومقاطع الفيديو.

ومن بين أبرز التقنيات المستخدمة في هذا المجال يمكن أيضاً تحليل النصوص؛ إذ تعتمد خوارزميات معالجة اللغة الطبيعية على تحليل لغة المقالات والتحقق من الأسلوب، واكتشاف المؤشرات اللغوية التي قد تشير إلى التضليل.

كذلك تعمل أدوات الذكاء الاصطناعي على التحقّق من المصادر، وبالأخص من موثوقية المصادر الإعلامية من خلال تحليل تاريخ النشر والتكرار والمصداقية، والتعرف على التزييف البصري عن طريق استخدام تقنيات التعلم العميق للكشف عن الصور أو الفيديوهات المزيفة باستخدام خوارزميات يمكنها تحديد التلاعبات البصرية الدقيقة.

التحديات المستقبلية

ولكن، على الرغم من النجاح الكبير للذكاء الاصطناعي في هذا المجال، لا بد من القول إن التحديات لا تزال قائمة. من هذه التحديات تزايد تعقيد تقنيات التزييف، بما في ذلك عبر تطوّر تقنيات مثل «التزييف العميق» الذي يزيد مهمة كشف «الأخبار المزيّفة» صعوبة. وأيضاً ثمة مشكلة «تحيّز البيانات (أو المعطيات)» حيث يمكن أن تتأثر خوارزميات الذكاء الاصطناعي ببيانات التدريب، ما قد يؤدي إلى نتائج قليلة الدقة أو متحيزة. وبالطبع، لا ننسى أيضاً إشكالية التنظيم القانوني مع طرح استخدام الذكاء الاصطناعي في هذا السياق تساؤلات حول الخصوصية والموثوقية والمسؤولية القانونية.