صراع «فيسبوك» والناشرين يُجدد المخاوف بشأن انتشار «الأخبار الزائفة»

«الذكاء الاصطناعي» يهدد بمفاقمة المشكلة

مهران كيالي (حسابه على منصة إكس)
مهران كيالي (حسابه على منصة إكس)
TT

صراع «فيسبوك» والناشرين يُجدد المخاوف بشأن انتشار «الأخبار الزائفة»

مهران كيالي (حسابه على منصة إكس)
مهران كيالي (حسابه على منصة إكس)

تجدّدت المخاوف من انتشار «الأخبار الزائفة» و«المعلومات المضلّلة» على منصة «فيسبوك» بعد تراجع دور الأخبار موثوقة المصدر على المنصة منذ منتصف العام الماضي، أمام خلفية عزوف «ميتا» - الشركة المالكة لـ«فيسبوك» - عن دعم الناشرين، بحجة أن الأخبار لا تشغل إلا حيزاً محدوداً من اهتمام المستخدمين، الأمر الذي عدّه خبراء فرصةً أفسحت المجال لحسابات تُدار من قبل أفراد يتبنون نشر «أخبار زائفة» بهدف تحقيق أرباح.

تقرير أعدّته صحيفة «النيويورك تايمز» الأميركية في يونيو (حزيران) الحالي، كان قد تناول مسار أحد أكثر حسابات الأخبار الزائفة في الولايات المتحدة الأميركية شعبية. وأثار تساؤلات حول دور «فيسبوك» في التصدي للأخبار الزائفة في ظل غياب الدعم للمؤسسات الإعلامية الكبرى. وكشفت الصحيفة عن أن الحساب السالف الذكر، الذي يديره مُدوّن يُدعى كريستوفر بلير، يحقق مكاسب شهرية تُقدّر بنحو 15 ألف دولار من أخبار زائفة تصل إلى ملايين الأشخاص رغم ادعاء «فيسبوك» ملاحقتها «المعلومات المضللة».

ووفق ما ذكرته الصحيفة، فإن منصة «فيسبوك» كانت قد أقدمت على تعديل خوارزميتها بعد أحداث الهجوم على «مبنى الكابيتول» في واشنطن مطلع 2021، وتردد حينذاك أن المنصة كانت على دراية بدور حسابات الأخبار الزائفة في إثارة التوتر في الشارع الأميركي. وحسب كلام المدوّن بلير «توارى دور حسابه إلى حد الانهيار؛ بسبب ملاحقة فيسبوك وتصدّيها للأخبار الكاذبة بعد أحداث مبنى الكابيتول بالفعل». غير أن التصدي هذا لم ينجح في الصمود أمام «حسابات الأخبار الكاذبة» لأكثر من 6 أشهر. إذ ذكر بلير أن «منشوراته» عادت إلى الازدهار منذ بداية العام الحالي، وباتت تحظى بتفاعل مضاعف مقارنة حتى بالسنوات القريبة الماضية. ووفق الصحيفة الأميركية ارتفعت التفاعلات إلى 7.2 مليون تفاعل مقارنة بمليون تفاعل في عام 2021 بأكمله.

البروفسورة جنيفر ستورمر-غالي (جامعة سيراكيوز)

مهران كيالي، الخبير في إدارة وتحليل بيانات «السوشيال ميديا»، قال في لقاء مع «الشرق الأوسط» إن انتشار الأخبار الزائفة تبرّره «ميتا» بذريعة سعيها لإرساء الحق في التعبير عن وجهات نظر مختلفة. وأضاف أن «ميتا» أكدت غير مرة أن المنشورات التي تعدّها أخباراً مزيفة «يجري تخفيض رتبتها في موجز الأخبار». واستدرك، فقال: «لكن الواقع يقول إنه يستحيل على شركة ميتا مراقبة ملايين المنشورات يومياً، حتى مع تطور الأدوات الآلية ونظم التصفية الدقيقة». وأرجع كيالي الأمر أيضاً إلى اتجاه «ميتا» خلال السنوات الأخيرة إلى تسريح عديد من الموظفين، موضحاً أنه «كان على رأسهم الموظفون الذين يعملون في أقسام تدقيق المحتوى». وعن سماح «فيسبوك» بتحقيق أرباح من الأخبار المزيفة، قال: «إن التربح من الأخبار المزيفة على فيسبوك يأتي بأشكال عدة، منها المالي المباشر وفقاً للزيارات، أو التسويق إلى مواقع إلكترونية خارجية... ولدى ميتا ضوابط عديدة لتحقيق الربح على فيسبوك، ليس من ضمنها صحة الخبر».

من جهة ثانية، في حين عدّ كيالي أن تراجع «فيسبوك» عن دعم الناشرين لا يُعد سبباً مباشراً لانتشار الأخبار المزيفة، فإنه وضع علاقة «فيسبوك» بالناشرين ضمن سبل الحد من «المعلومات المضلِّلة» على المنصة. وقال: «بشكل عام يجب أن تكون شركة ميتا أقرب إلى هذه السوق (السوقي الإعلامية)، وأن تعمل جنباً إلى جنب مع الناشرين لضمان نشر معلومات أكثر دقة تلتزم بمعايير مهنة الإعلام... وهنا يجب التأكيد على دور الناشرين في حماية صحة ودقة المعلومات وأهمية مراعاة هذه المعايير». وطالب في المقابل شركة «ميتا» بـ«أن تقدم أدوات وتقنيات للناشرين لتمكينهم من اكتشاف أو تقييم الأخبار، بالإضافة إلى توثيق معيّن للصفحات يتيح للمتابعين معرفة أن هذه الصفحة لديها محتوى موثوق من فيسبوك».

دور «الذكاء الاصطناعي» في أزمة التضليل

بالتوازي، يشير خبراء ومتابعون إلى تفاقم أزمة التضليل على «فيسبوك» مع تطوّر أدوات «الذكاء الاصطناعي»، إذ رأت البروفسورة جنيفر سترومر-غالي، أستاذة الإعلام الرقمي بجامعة سيراكيوز بالولايات المتحدة الأميركية، في تقرير نشرته وكالة «أسوشييتد برس» نهاية العام الماضي، أن «ظهور برامج الذكاء الاصطناعي المتطورة يعني أن التزييف من خلال إنشاء ملفات صوتية وفيديوهات ملفقة بات أكثر سهولة... وغدا أداة متاحة للعامة وليس المختصين فقط». وتابعت الأكاديمية الأميركية القول إنها لا تعوّل حتى الآن على دور المنصات، إذ «لا تزال المنصات لا تأخذ دورها في المجال العام على محمل الجد».

وفي تصريح لـ«الشرق الأوسط»، قالت الدكتورة رضوى عبد اللطيف، مديرة العلاقات الأكاديمية بـ«مؤسسة صحافة الذكاء الاصطناعي للبحث والاستشراف» في دبي وخبيرة ومدربة الإعلام الرقمي وصحافة الذكاء الاصطناعي، إن فشل «فيسبوك» في ملاحقة المعلومات الزائفة والمضللة عائد إلى «انعدام الدقة في المعايير الموضوعة من قبل المنصة».

وأضافت عبد اللطيف: «أمكن رصد انحياز سافر من قبل المنصة، لا سيما في تناول الأزمات مثل الحرب الروسية – الأوكرانية، ثم أحداث غزة... ويعود ذلك إلى أن المجموعات البشرية المسؤولة عن تنقيح المنشورات هي نفسها منحازة لسياسات بعينها». وعدّت أن «تراجع فيسبوك عن دعم الأخبار يعد جزءاً من أزمة انتشار المعلومات الزائفة». وأردفت: «خوارزميات فيسبوك ذهبت لدعم الأفراد على حساب المؤسسات الإعلامية الموثوقة. وهذا خلل أسهم في نشر المعلومات المضللة لأن المؤسسات، حتى وإن وقعت في هذا الخطأ بشكل محدود، تلتزم في أغلب الأحيان بمعايير المصداقية والدقة».

واختتمت عبد اللطيف كلامها بالتركيز على أهمية عودة «فيسبوك» والناشرين إلى طاولة التفاوض، وقالت: «عودة العلاقة بين فيسبوك والناشرين مرهونة باعتراف الطرفين بأحقية كل منهما في تحقيق مكاسب، كما يجب وضع قوانين مُنظِّمة لنشر الأخبار على منصات التواصل الاجتماعي تضمن وصول المحتوى الدقيق بالشكل الذي يتناسب مع أهميته».



تمديد «ميتا» لقيود الإعلانات... هل يحُدّ من «المعلومات المضلّلة»؟

تمديد «ميتا» لقيود الإعلانات... هل يحُدّ من «المعلومات المضلّلة»؟
TT

تمديد «ميتا» لقيود الإعلانات... هل يحُدّ من «المعلومات المضلّلة»؟

تمديد «ميتا» لقيود الإعلانات... هل يحُدّ من «المعلومات المضلّلة»؟

أثار إعلان شركة «ميتا» تمديد فترة تقييد الإعلانات المتعلقة بالقضايا الاجتماعية أو السياسية لما بعد انتخابات الرئاسة الأميركية، من دون أن تحدّد الشركة وقتاً لنهاية هذا التمديد، تساؤلات حول مدى فاعلية القرار في الحدّ من انتشار «المعلومات المضلّلة»، يأتي ذلك بالتزامن مع رصد تجاوزات مرّرَتها المنصة الأشهَر «فيسبوك» خلال الفترة السابقة برغم تقييد الإعلانات.

ما يُذكر أن «فيسبوك» أعانت بنهاية أكتوبر (تشرين الأول) الماضي «حظر أي إعلان يحمل رسائل توجيه سياسي أو اجتماعي من شأنه التأثير في سير الانتخابات الرئاسية الأميركية»، غير أن مراقبين قاموا برصد تجاوزات على المنصة وصفوها بـ«التضليل»، وقالوا إن «فلاتر» المحتوى على «ميتا» – التي تملك «فيسبوك» – «غير متمرّسة» بما يكفي لتمييز المحتوى الذي ينتهك إرشادات المصداقية، ما يثير شكوكاً بشأن جدوى قرار الشركة تقييد الإعلانات.

الدكتور حسن مصطفى، أستاذ التسويق الرقمي والذكاء الاصطناعي في عدد من الجامعات الإماراتية، عدّ قرار «ميتا» الأخير «محاولةً لتجاوز المخاوف المتزايدة حول استغلال الإعلانات في التأثير على الرأي العام»، وقال لـ«الشرق الأوسط» إن «ميتا تخشى اتهامها بنشر المعلومات غير الموثوقة بشكل واسع إبان الفترات الانتخابية وما بعدها، لا سيما وأنه سبق اتهام الشركة من قبل بوجود محتوى يؤثر على الرأي العام خلال فترات انتخابية سابقة».

وعن دور «ميتا» في الحدّ من «المعلومات المضللة»، أوضح مصطفى أنه «لا تزال المعلومات المضلّلة تحدياً قائماً برغم ما اتخذته (ميتا) من إجراءات لمكافحتها، والتقليل من انتشار الأخبار الكاذبة»، وقال عن دور الشركة في هذا الصدد: «لقد عزّزَت (ميتا) التعاون مع جهات خارجية للتحقّق من صحة الأخبار، فباتت تعتمد على منظمة (فاكت تشيك/ FactCheck)، وشبكات من المؤسسات المستقلة؛ للتحقّق من الأخبار المتداوَلة عبر المنصة».

واستشهد الدكتور مصطفى ببعض التقارير الصادرة عن منظمة «هيومن رايتس ووتش»، التي أظهرت إحراز «ميتا» تقدماً في مجال الحد من «خطاب الكراهية»؛ «إذ تمكّنت خوارزميات الشركة من التعرّف على بعض الأنماط المتكرّرة للمحتوى المسيء، وحذفه تلقائياً قبل أن ينتشر»، غير أنه مع ذلك عدّ إجراءات «ميتا» غير كافية، مشيراً إلى أن «خوارزميات الذكاء الاصطناعي ما زالت محدودة القدرة على معالجة المحتوى بلغات ولهجات متنوعة، أو فهم السياقات الثقافية المعقّدة، ما يجعل من الصعوبة بمكان وضع حدود واضحة أمام تحقيق نجاح كامل في تقليص خطاب الكراهية».

هذا، وكانت المنظمة الدولية «غلوبال ويتنس» قد أعدّت تقريراً حول ما إذا كانت منصات التواصل الاجتماعي قادرةً على اكتشاف وإزالة «المعلومات المضلّلة الضارّة»، لا سيما المتعلقة بانتخابات الرئاسة الأميركية، وأشارت في نتائجها عقب الانتخابات الأميركية إلى أن أداء «فيسبوك» كان أفضل مقارنةً بمنصة مثل «تيك توك»، لكن التقرير لم ينفِ التورّط في نشر «معلومات مضلّلة» برغم القيود، كذلك ذكر التقرير أن «فيسبوك» وافَق على واحد من بين 8 إعلانات اختبرت بها المنظمة قيود المنصة للحَدّ من «المعلومات المضلّلة»، ما رأته المنظمة «تحسّناً ملحوظاً مقارنةً بأداء المنصة السابق مع أنه لا يزال غير كافٍ».

من ناحية أخرى أشار تقرير صادر عن منظمات المجتمع المدني «إيكو» و«المراقبة المدنية الهندية الدولية»، إلى أن «ميتا» سمحت بظهور إعلانات تحتوي على عبارات تحريضية ضد الأقليات على منصّتها خلال فترة الانتخابات الأميركية، كما أشارت إلى رصد «محتوى زائف» مصنوع بأدوات الذكاء الاصطناعي.

وحول هذا الأمر، علّق خالد عبد الراضي، الخبير في إدارة وتحليل بيانات «السوشيال ميديا» بمصر والمملكة العربية السعودية، لـ«الشرق الأوسط»، على قرار «ميتا» بالقول إننا بصدد محاولات عدّها «غير جادة»، ودلّل على ذلك بأن «(ميتا) قيّدت الإعلانات قبل الانتخابات الأميركية بأسبوع واحد فقط، وهذه مدة غير كافية إذا كانت المنصة بالفعل جادّة في الحدّ من التضليل والتأثير على الرأي العام، مثلاً (إكس) كانت أكثر جدّية من خلال تقييد أي منشور موجّه قبل الانتخابات بشهر»، مشيراً إلى أنه «بالتبعية شاهدنا على منصة (فيسبوك) محتوى مضلّلاً وزائفاً طُوّر بالذكاء الاصطناعي».

وأوضح عبد الراضي أن «(ميتا) لم تفرض قيوداً على الإعلانات بشكل عام، بل على نوع واحد فقط هو الإعلانات السياسية المدفوعة، ومن ثم تركت المجال أمام التضليل والتأثير على الرأي العام»، ودلّل كذلك على قلة جدّية الشركة بقوله: «بعد الانتخابات الأميركية في 2020 واجهت (ميتا) عدة اتهامات بتوجيه الرأي العام، ما دفع الشركة لاتخاذ إجراءات جادّة، من بينها توظيف (فِرق سلامة) معنية بمراجعة النصوص؛ للتأكد من ملاءمتها مع معايير المنصة، غير أن عمل هذه الفِرق أُنهِي لاحقاً، ما يشير إلى أن ادّعاءات المنصة لم تكن جدّية».