هل تدفع «السوشيال ميديا» المستخدمين لمشاركة «الأخبار الزائفة»؟

هل تدفع «السوشيال ميديا» المستخدمين لمشاركة «الأخبار الزائفة»؟
TT

هل تدفع «السوشيال ميديا» المستخدمين لمشاركة «الأخبار الزائفة»؟

هل تدفع «السوشيال ميديا» المستخدمين لمشاركة «الأخبار الزائفة»؟

جدَّد بحث نشره أخيراً موقع معهد «نيمان لاب» الأميركي المتخصص في دراسات الإعلام، الحديث عن تأثير مواقع التواصل الاجتماعي على انتشار الأخبار الزائفة. وأشار البحث إلى أن مواقع التواصل تكافئ من يتصرف بشكل سيئ عليها عبر زيادة المشاركات وعلامات الإعجاب والتفاعل، ومن ثم تعمل الخوارزميات على زيادة انتشار المعلومات المضللة على نطاق أوسع.

وفي حين أكد خبراء دور مواقع التواصل الاجتماعي في نشر الأخبار الزائفة وزيادة التفاعل عليها، أشاروا إلى «قصور الخوارزميات في كبح جماح الترند والحد من انتشار المعلومات المضللة».

البحث أعده خبراء في التسويق وعلم النفس، ونشره معهد «نيمان لاب» في 8 أغسطس (آب) الجاري، ومما أشار إليه أن «لدى مواقع التواصل الاجتماعي القدرة على خلق عادة لمشاركة المحتوى عالي الجودة». وأوضح أنه «عقب أسابيع من تطبيق التجربة التي تتضمن مكافأة المستخدمين على مشاركة محتوى جيد، بدأ المستخدمون محل التجربة يشاركون محتوى مبنياً على حقائق ومعلومات دقيقة».

غير أن معهد «نيمان لاب» ذكر أن «مشاركة المعلومات الزائفة على مواقع التواصل الاجتماعي مشكلة ملحوظة، وهو ما أظهرته أبحاث داخلية أجراها (فيسبوك)، وبيّنت إعادة مشاركة والتفاعل مع المعلومات الزائفة بشكل كبير».

وفي تعليق على هذا الموضوع، قالت الدكتورة علياء عنتر، الأستاذ المساعد بكلية الإعلام، جامعه عجمان، لـ«الشرق الأوسط» إن «نظام العمل على منصات التواصل الاجتماعي يقوم على نظام المكافآت من خلال خوارزميات، تحسب التفاعل مع المحتوى المنشور بالإعجاب والمشاركة والتعليق والمشاهدة وغيرها من الأمور. وبناءً على ذلك يتم تحديد مدى انتشار وظهور المحتوى، بغضّ النظر عن مدى دقته».

وأضافت عنتر: «نظام الحوافز المتَّبَع على المنصات الاجتماعية يحفز دوافع المستخدمين وصناع المحتوى لتلبية رغبات هذه الخوارزميات للحصول على أكبر قدر من الانتشار والمكافآت المادية، وهنا تلعب هذه الخوارزميات دور حارس البوابة لمستخدمي السوشيال ميديا». وللعلم، وفقاً للبحث الذي نشره معهد «نيمان لاب» فإن نظام العمل التجاري على المنصات ونظام الحوافز المتَّبَع يشجِّع على نشر المعلومات المضللة ولا يهتم بمصداقيتها.

وهنا علّقت عنتر قائلة إن «حجة الدراسة تتشابه مع فكرة الوكز الرقمي (Digital Nudging) القائم على نظريات الاقتصاد السلوكي التي تفترض كسل الإنسان في اتخاذ قراراته، وبالتالي يحتاج إلى مَن يحفّزه برفق وبشكل غير مباشر على سلوك معين». وأضافت أن «البحث افترض أن تغيير نظام الحوافز على منصّات التواصل الاجتماعي لدعم المصداقية والدقة سيقلّل من المعلومات المضللة على منصات التواصل الاجتماعي».

إلا أنها أشارت إلى أن «تطبيق هذا المقترح معقد جداً، فإضافة زر للثقة أو الدقة سيكون أيضاً بناءً على آراء وانطباعات المستخدمين ولن يكون تقييمهم دقيقاً». وتابعت أن «نظام خوارزميات الذكاء الاصطناعي نفسه لا يستطيع أن يحكم على صدق المعلومة وكذبها، كما أن بعض المعلومات والأخبار تكون طارئة وصعب التحقق منها وقت النشر، إضافةً إلى أن الخوارزميات لا تجيد التعامل مع كل اللغات بنفس الكفاءة».

وشددت الأكاديمية بجامعة بنغازي على «أهمية نشر الوعي الإعلامي لدى المستخدمين وصناع المحتوى بوصفه الطريق الأمثل للتأكد من صدق المعلومات ودقتها»، داعيةً منصات التواصل الاجتماعي «إلى العمل على تطوير خوارزميات الذكاء الاصطناعي لكشف مصداقية المعلومات، والإعلان بشفافية عن الخوارزميات المتَّبَعَة في تقييم ما يُنشر».

معلومٌ أن المعلومات المضللة تنتشر على منصات التواصل الاجتماعي لا سيما في فترات الأزمات، فخلال شهر سبتمبر (أيلول) 2020 جرى تداول أكثر من مليون منشور على «تويتر» يتضمن معلومات غير دقيقة، ومضللة عن جائحة «كوفيد - 19»، وفق تقرير منظمة «اليونيسكو» حول الإعلام الصادر في مارس (آذار) 2022. وفي هذا الشأن، قال رامي الطراونة، رئيس وحدة المنصات الرقمية في صحيفة «الاتحاد» الإماراتية، خلال لقاء مع «الشرق الأوسط» إن «المعلومات الزائفة جزء لا يمكن إنكاره من واقع ما يتدفق في منصات التواصل... وانتشار أي معلومة مضللة مرتبط بقرب مضمون تلك المعلومة من المجتمع الذي تنتشر فيه، كقضايا الرأي العام مثلاً، وذلك بغرض التأثير على الرأي الجمعي إما بتدعيم فكرة وإما بالطعن في أخرى، وهو ما قد يترتب عليه تحقيق مكاسب لطرف أو إلحاق ضرر بطرف آخر».

وأردف أنه «دائماً ما تعزف المعلومات المضللة على وتر الفضول... ومع جمود وروتينية الأخبار التي تتضمن حقائق جليّة واضحة، تغدو الشائعة أو المعلومة الزائفة قابلة للاستساغة والانتشار بشكل أكبر، وبالأخص إنْ صيغت بطريقة دراماتيكية تمزج الحقيقة بالزيف أو بأسلوب عاطفي».

أيضاً يرى الطراونة أن «مواقع التواصل الاجتماعي أرضية خصبة لانتشار المعلومات عموماً والمضلِّلة على وجه الخصوص»، لافتاً إلى أن «التقرير يؤيد فكرة أن خوارزميات منصات التواصل تدعم انتشار المعلومات الخاطئة، ذلك أنها تتعامل مع الخبر وفقاً لمعطيات رقمية بحتة، وتمنح كل مادة وزناً وقيمة عددية يعتمد حسابها على مقدار البحث عن الموضوع ذاته، ونسب المشاهدات والتفاعل مع المنشور، من دون تمييز ما إذا كان مضمونه صحيحاً أم خاطئاً».

ثم شرح أن «شبكات التواصل الاجتماعي تحاول تطوير خوارزميات لتمييز الأخبار الزائفة، وبعضها جيّش الآلاف لمراجعة المعلومات يدوياً بسبب عانوه من القضايا والملاحقات القانونية، بسبب معلومة ما هنا أو هناك، لكن الأمر بلغ من الصعوبة مبلغاً جعل الكثير منها ينسحب من سباق الأخبار، كما حدث مع «ميتا»، مثلاً، وإغلاقها كثيراً من خدماتها الإخبارية في أميركا وكندا تزامناً مع أحداث عامة كالانتخابات وغيرها».

وأوضح الطراونة أن «قصور الخوارزميات في التعاطي مع الأخبار الزائفة، يجعل وعي الأفراد، ودرايتهم بطرق التحقق من صحة المعلومات، وكبح جماح الترند بقليل من التروي والعقلانية، هو السبيل الأقصر والأمثل لتحجيم أثر المعلومات الزائفة وحصرها».

وحقاً، أعلنت شركة «ميتا» حظر نشر الأخبار على «فيسبوك» و«إنستغرام» في كندا خلال يونيو (حزيران) الماضي احتجاجاً على قانون تداول الأخبار الجديد في كندا. وأكدت الدكتورة مي عبد الغني، أستاذة الإعلام في جامعة بنغازي والباحثة في الإعلام الرقمي، لـ«الشرق الأوسط» في لقاء معها، أن «أهم أسباب انتشار الأخبار الزائفة هو تصميم مواقع التواصل الاجتماعي والخوارزميات التي تنظم ظهور المحتوى عليها»، موضحة أن «هذه الخوارزميات تعمل على تضخيم المشاركات والإعجابات والردود التي تجذب الانتباه وهو ما يخلق شعوراً بالأهمية لشخص أو لمحتوى بصرف النظر عن مدى دقته».

واستطردت: «ذلك يعد نوعاً من المكافأة المعنوية فضلاً عن زيادة عدد المتابعين للحساب الذي نشر المحتوى، وهو ما يترجَم بالتالي زيادة في ظهوره واستهداف الإعلانات له».

ولفتت عبد الغني أيضاً إلى أن «طبيعة النفس البشرية تميل إلى تصديق الأخبار المثيرة والسلبية والبحث عنها، وهو ما يزيد من انتشارها». وأضافت أن «انتشار الأخبار الزائفة يرجع إلى أن معظم متصفّحي مواقع التواصل ليسوا إعلاميين ولا يقعون تحت طائل المسؤولية عند مشاركتهم أو إبداء موقفهم من أخبار زائفة، إضافةً إلى عوامل أخرى ترتبط بالتحيّز المعرفي الذي ترتفع وتيرته في أثناء الحروب والأزمات».

هذا، ولمواجهة ذلك يقترح البحث منح المستخدمين حوافز لمشاركة محتوى دقيق معزز للثقة وهو ما سيحفز شركات التواصل الاجتماعي لإعطاء قيمة لمصدر إيراداتها بالأساس الإعلانات المستهدفة. غير أن الدكتورة عبد الغني ترى أنه «من المبكر الحكم بمدى جدوى تلك الآلية، لأنه رغم خضوعها للتجريب من معدّي البحث، فإن التجربة أُجريت في نطاق محدود، وبالتالي، فهي تحتاج إلى دراسات معمقة في أكثر من بلد على مستخدمي تلك الشبكات ومالكيها حتى يمكن الأخذ والعمل بها على نطاق واسع».



تمديد «ميتا» لقيود الإعلانات... هل يحُدّ من «المعلومات المضلّلة»؟

تمديد «ميتا» لقيود الإعلانات... هل يحُدّ من «المعلومات المضلّلة»؟
TT

تمديد «ميتا» لقيود الإعلانات... هل يحُدّ من «المعلومات المضلّلة»؟

تمديد «ميتا» لقيود الإعلانات... هل يحُدّ من «المعلومات المضلّلة»؟

أثار إعلان شركة «ميتا» تمديد فترة تقييد الإعلانات المتعلقة بالقضايا الاجتماعية أو السياسية لما بعد انتخابات الرئاسة الأميركية، من دون أن تحدّد الشركة وقتاً لنهاية هذا التمديد، تساؤلات حول مدى فاعلية القرار في الحدّ من انتشار «المعلومات المضلّلة»، يأتي ذلك بالتزامن مع رصد تجاوزات مرّرَتها المنصة الأشهَر «فيسبوك» خلال الفترة السابقة برغم تقييد الإعلانات.

ما يُذكر أن «فيسبوك» أعانت بنهاية أكتوبر (تشرين الأول) الماضي «حظر أي إعلان يحمل رسائل توجيه سياسي أو اجتماعي من شأنه التأثير في سير الانتخابات الرئاسية الأميركية»، غير أن مراقبين قاموا برصد تجاوزات على المنصة وصفوها بـ«التضليل»، وقالوا إن «فلاتر» المحتوى على «ميتا» – التي تملك «فيسبوك» – «غير متمرّسة» بما يكفي لتمييز المحتوى الذي ينتهك إرشادات المصداقية، ما يثير شكوكاً بشأن جدوى قرار الشركة تقييد الإعلانات.

الدكتور حسن مصطفى، أستاذ التسويق الرقمي والذكاء الاصطناعي في عدد من الجامعات الإماراتية، عدّ قرار «ميتا» الأخير «محاولةً لتجاوز المخاوف المتزايدة حول استغلال الإعلانات في التأثير على الرأي العام»، وقال لـ«الشرق الأوسط» إن «ميتا تخشى اتهامها بنشر المعلومات غير الموثوقة بشكل واسع إبان الفترات الانتخابية وما بعدها، لا سيما وأنه سبق اتهام الشركة من قبل بوجود محتوى يؤثر على الرأي العام خلال فترات انتخابية سابقة».

وعن دور «ميتا» في الحدّ من «المعلومات المضللة»، أوضح مصطفى أنه «لا تزال المعلومات المضلّلة تحدياً قائماً برغم ما اتخذته (ميتا) من إجراءات لمكافحتها، والتقليل من انتشار الأخبار الكاذبة»، وقال عن دور الشركة في هذا الصدد: «لقد عزّزَت (ميتا) التعاون مع جهات خارجية للتحقّق من صحة الأخبار، فباتت تعتمد على منظمة (فاكت تشيك/ FactCheck)، وشبكات من المؤسسات المستقلة؛ للتحقّق من الأخبار المتداوَلة عبر المنصة».

واستشهد الدكتور مصطفى ببعض التقارير الصادرة عن منظمة «هيومن رايتس ووتش»، التي أظهرت إحراز «ميتا» تقدماً في مجال الحد من «خطاب الكراهية»؛ «إذ تمكّنت خوارزميات الشركة من التعرّف على بعض الأنماط المتكرّرة للمحتوى المسيء، وحذفه تلقائياً قبل أن ينتشر»، غير أنه مع ذلك عدّ إجراءات «ميتا» غير كافية، مشيراً إلى أن «خوارزميات الذكاء الاصطناعي ما زالت محدودة القدرة على معالجة المحتوى بلغات ولهجات متنوعة، أو فهم السياقات الثقافية المعقّدة، ما يجعل من الصعوبة بمكان وضع حدود واضحة أمام تحقيق نجاح كامل في تقليص خطاب الكراهية».

هذا، وكانت المنظمة الدولية «غلوبال ويتنس» قد أعدّت تقريراً حول ما إذا كانت منصات التواصل الاجتماعي قادرةً على اكتشاف وإزالة «المعلومات المضلّلة الضارّة»، لا سيما المتعلقة بانتخابات الرئاسة الأميركية، وأشارت في نتائجها عقب الانتخابات الأميركية إلى أن أداء «فيسبوك» كان أفضل مقارنةً بمنصة مثل «تيك توك»، لكن التقرير لم ينفِ التورّط في نشر «معلومات مضلّلة» برغم القيود، كذلك ذكر التقرير أن «فيسبوك» وافَق على واحد من بين 8 إعلانات اختبرت بها المنظمة قيود المنصة للحَدّ من «المعلومات المضلّلة»، ما رأته المنظمة «تحسّناً ملحوظاً مقارنةً بأداء المنصة السابق مع أنه لا يزال غير كافٍ».

من ناحية أخرى أشار تقرير صادر عن منظمات المجتمع المدني «إيكو» و«المراقبة المدنية الهندية الدولية»، إلى أن «ميتا» سمحت بظهور إعلانات تحتوي على عبارات تحريضية ضد الأقليات على منصّتها خلال فترة الانتخابات الأميركية، كما أشارت إلى رصد «محتوى زائف» مصنوع بأدوات الذكاء الاصطناعي.

وحول هذا الأمر، علّق خالد عبد الراضي، الخبير في إدارة وتحليل بيانات «السوشيال ميديا» بمصر والمملكة العربية السعودية، لـ«الشرق الأوسط»، على قرار «ميتا» بالقول إننا بصدد محاولات عدّها «غير جادة»، ودلّل على ذلك بأن «(ميتا) قيّدت الإعلانات قبل الانتخابات الأميركية بأسبوع واحد فقط، وهذه مدة غير كافية إذا كانت المنصة بالفعل جادّة في الحدّ من التضليل والتأثير على الرأي العام، مثلاً (إكس) كانت أكثر جدّية من خلال تقييد أي منشور موجّه قبل الانتخابات بشهر»، مشيراً إلى أنه «بالتبعية شاهدنا على منصة (فيسبوك) محتوى مضلّلاً وزائفاً طُوّر بالذكاء الاصطناعي».

وأوضح عبد الراضي أن «(ميتا) لم تفرض قيوداً على الإعلانات بشكل عام، بل على نوع واحد فقط هو الإعلانات السياسية المدفوعة، ومن ثم تركت المجال أمام التضليل والتأثير على الرأي العام»، ودلّل كذلك على قلة جدّية الشركة بقوله: «بعد الانتخابات الأميركية في 2020 واجهت (ميتا) عدة اتهامات بتوجيه الرأي العام، ما دفع الشركة لاتخاذ إجراءات جادّة، من بينها توظيف (فِرق سلامة) معنية بمراجعة النصوص؛ للتأكد من ملاءمتها مع معايير المنصة، غير أن عمل هذه الفِرق أُنهِي لاحقاً، ما يشير إلى أن ادّعاءات المنصة لم تكن جدّية».