تمديد «ميتا» لقيود الإعلانات... هل يحُدّ من «المعلومات المضلّلة»؟

ترند

تمديد «ميتا» لقيود الإعلانات... هل يحُدّ من «المعلومات المضلّلة»؟
TT

تمديد «ميتا» لقيود الإعلانات... هل يحُدّ من «المعلومات المضلّلة»؟

تمديد «ميتا» لقيود الإعلانات... هل يحُدّ من «المعلومات المضلّلة»؟

أثار إعلان شركة «ميتا» تمديد فترة تقييد الإعلانات المتعلقة بالقضايا الاجتماعية أو السياسية لما بعد انتخابات الرئاسة الأميركية، من دون أن تحدّد الشركة وقتاً لنهاية هذا التمديد، تساؤلات حول مدى فاعلية القرار في الحدّ من انتشار «المعلومات المضلّلة»، يأتي ذلك بالتزامن مع رصد تجاوزات مرّرَتها المنصة الأشهَر «فيسبوك» خلال الفترة السابقة برغم تقييد الإعلانات.

ما يُذكر أن «فيسبوك» أعانت بنهاية أكتوبر (تشرين الأول) الماضي «حظر أي إعلان يحمل رسائل توجيه سياسي أو اجتماعي من شأنه التأثير في سير الانتخابات الرئاسية الأميركية»، غير أن مراقبين قاموا برصد تجاوزات على المنصة وصفوها بـ«التضليل»، وقالوا إن «فلاتر» المحتوى على «ميتا» – التي تملك «فيسبوك» – «غير متمرّسة» بما يكفي لتمييز المحتوى الذي ينتهك إرشادات المصداقية، ما يثير شكوكاً بشأن جدوى قرار الشركة تقييد الإعلانات.

الدكتور حسن مصطفى، أستاذ التسويق الرقمي والذكاء الاصطناعي في عدد من الجامعات الإماراتية، عدّ قرار «ميتا» الأخير «محاولةً لتجاوز المخاوف المتزايدة حول استغلال الإعلانات في التأثير على الرأي العام»، وقال لـ«الشرق الأوسط» إن «ميتا تخشى اتهامها بنشر المعلومات غير الموثوقة بشكل واسع إبان الفترات الانتخابية وما بعدها، لا سيما وأنه سبق اتهام الشركة من قبل بوجود محتوى يؤثر على الرأي العام خلال فترات انتخابية سابقة».

وعن دور «ميتا» في الحدّ من «المعلومات المضللة»، أوضح مصطفى أنه «لا تزال المعلومات المضلّلة تحدياً قائماً برغم ما اتخذته (ميتا) من إجراءات لمكافحتها، والتقليل من انتشار الأخبار الكاذبة»، وقال عن دور الشركة في هذا الصدد: «لقد عزّزَت (ميتا) التعاون مع جهات خارجية للتحقّق من صحة الأخبار، فباتت تعتمد على منظمة (فاكت تشيك/ FactCheck)، وشبكات من المؤسسات المستقلة؛ للتحقّق من الأخبار المتداوَلة عبر المنصة».

واستشهد الدكتور مصطفى ببعض التقارير الصادرة عن منظمة «هيومن رايتس ووتش»، التي أظهرت إحراز «ميتا» تقدماً في مجال الحد من «خطاب الكراهية»؛ «إذ تمكّنت خوارزميات الشركة من التعرّف على بعض الأنماط المتكرّرة للمحتوى المسيء، وحذفه تلقائياً قبل أن ينتشر»، غير أنه مع ذلك عدّ إجراءات «ميتا» غير كافية، مشيراً إلى أن «خوارزميات الذكاء الاصطناعي ما زالت محدودة القدرة على معالجة المحتوى بلغات ولهجات متنوعة، أو فهم السياقات الثقافية المعقّدة، ما يجعل من الصعوبة بمكان وضع حدود واضحة أمام تحقيق نجاح كامل في تقليص خطاب الكراهية».

هذا، وكانت المنظمة الدولية «غلوبال ويتنس» قد أعدّت تقريراً حول ما إذا كانت منصات التواصل الاجتماعي قادرةً على اكتشاف وإزالة «المعلومات المضلّلة الضارّة»، لا سيما المتعلقة بانتخابات الرئاسة الأميركية، وأشارت في نتائجها عقب الانتخابات الأميركية إلى أن أداء «فيسبوك» كان أفضل مقارنةً بمنصة مثل «تيك توك»، لكن التقرير لم ينفِ التورّط في نشر «معلومات مضلّلة» برغم القيود، كذلك ذكر التقرير أن «فيسبوك» وافَق على واحد من بين 8 إعلانات اختبرت بها المنظمة قيود المنصة للحَدّ من «المعلومات المضلّلة»، ما رأته المنظمة «تحسّناً ملحوظاً مقارنةً بأداء المنصة السابق مع أنه لا يزال غير كافٍ».

من ناحية أخرى أشار تقرير صادر عن منظمات المجتمع المدني «إيكو» و«المراقبة المدنية الهندية الدولية»، إلى أن «ميتا» سمحت بظهور إعلانات تحتوي على عبارات تحريضية ضد الأقليات على منصّتها خلال فترة الانتخابات الأميركية، كما أشارت إلى رصد «محتوى زائف» مصنوع بأدوات الذكاء الاصطناعي.

وحول هذا الأمر، علّق خالد عبد الراضي، الخبير في إدارة وتحليل بيانات «السوشيال ميديا» بمصر والمملكة العربية السعودية، لـ«الشرق الأوسط»، على قرار «ميتا» بالقول إننا بصدد محاولات عدّها «غير جادة»، ودلّل على ذلك بأن «(ميتا) قيّدت الإعلانات قبل الانتخابات الأميركية بأسبوع واحد فقط، وهذه مدة غير كافية إذا كانت المنصة بالفعل جادّة في الحدّ من التضليل والتأثير على الرأي العام، مثلاً (إكس) كانت أكثر جدّية من خلال تقييد أي منشور موجّه قبل الانتخابات بشهر»، مشيراً إلى أنه «بالتبعية شاهدنا على منصة (فيسبوك) محتوى مضلّلاً وزائفاً طُوّر بالذكاء الاصطناعي».

وأوضح عبد الراضي أن «(ميتا) لم تفرض قيوداً على الإعلانات بشكل عام، بل على نوع واحد فقط هو الإعلانات السياسية المدفوعة، ومن ثم تركت المجال أمام التضليل والتأثير على الرأي العام»، ودلّل كذلك على قلة جدّية الشركة بقوله: «بعد الانتخابات الأميركية في 2020 واجهت (ميتا) عدة اتهامات بتوجيه الرأي العام، ما دفع الشركة لاتخاذ إجراءات جادّة، من بينها توظيف (فِرق سلامة) معنية بمراجعة النصوص؛ للتأكد من ملاءمتها مع معايير المنصة، غير أن عمل هذه الفِرق أُنهِي لاحقاً، ما يشير إلى أن ادّعاءات المنصة لم تكن جدّية».


مقالات ذات صلة

كيف تعمل «ميتا» و«تيك توك» و«يوتيوب» و«إكس» على إدارة التهديدات الانتخابية؟

الولايات المتحدة​ تحظر «ميتا» و«تيك توك» و«يوتيوب» و«إكس» المنشورات التي تسعى إلى ترهيب الناخبين (رويترز)

كيف تعمل «ميتا» و«تيك توك» و«يوتيوب» و«إكس» على إدارة التهديدات الانتخابية؟

أكثر شبكات التواصل الاجتماعي نفوذاً -بما في ذلك «ميتا» و«تيك توك» و«يوتيوب» و«إكس»- لديها سياسات وخطط جاهزة لإدارة التهديدات الانتخابية والمعلومات المضللة.

«الشرق الأوسط» (واشنطن)
الاقتصاد شعار العلامة التجارية «ميتا» مطبوع بتقنية الطباعة ثلاثية الأبعاد على لوحة مفاتيح كومبيوتر محمول (رويترز)

كوريا الجنوبية تغرم «ميتا» 15 مليون دولار لانتهاك خصوصية المستخدمين

فرضت كوريا الجنوبية غرامة قدرها 21.62 مليار وون (ما يعادل 15.67 مليون دولار) على شركة «ميتا»، المالكة لـ«فيسبوك»، بعدما تبين أنها جمعت بيانات حساسة للمستخدمين.

«الشرق الأوسط» (سيول )
تكنولوجيا شعار شركة «ميتا» يظهر على شاشة هاتف جوال (أ.ف.ب)

عبر «ميتا»... باحثون صينيون يطوّرون نموذج ذكاء اصطناعي لأغراض عسكرية

كشف محللون و3 أوراق أكاديمية، أن مؤسسات بحثية مرتبطة بجيش التحرير الشعبي الصيني تستغل نموذج «لاما» في تطوير أداة ذكاء اصطناعي لاستخدامها في تطبيقات عسكرية.

«الشرق الأوسط» (بكين)
الولايات المتحدة​ إيلون ماسك يشارك في فعالية انتخابية لدعم المرشح الرئاسي دونالد ترمب خلال تجمع في بتلر (بنسلفانيا) يوم 5 أكتوبر (أ.ب)

الانتخابات الأميركية تُحيي جدل انتشار الأخبار المُضلّلة على منصات التواصل

مع دخول الانتخابات الأميركية شوطها الأخير، تزداد التساؤلات حول تأثير وسائل التواصل الاجتماعي المعززة بالذكاء الاصطناعي على رأي الناخب وتوجهاته.

رنا أبتر (واشنطن)
تكنولوجيا شعار شركة «ميتا» (رويترز)

«ميتا» تطرد موظفين استخدموا قسائم الوجبات المجانية لشراء سلع منزلية

ذكرت تقارير أن شركة «ميتا»، مالكة «فيسبوك» و«إنستغرام»، طردت نحو 24 موظفاً في مكاتبها في لوس أنجليس لاستخدامهم رصيد وجبات بقيمة 25 دولاراً لشراء سلع أخرى.

«الشرق الأوسط» (واشنطن)

تمديد «ميتا» لقيود الإعلانات... هل يحد من «المعلومات المضللة»؟

شعار شركة «ميتا» يظهر على شاشة هاتف جوال (أ.ف.ب)
شعار شركة «ميتا» يظهر على شاشة هاتف جوال (أ.ف.ب)
TT

تمديد «ميتا» لقيود الإعلانات... هل يحد من «المعلومات المضللة»؟

شعار شركة «ميتا» يظهر على شاشة هاتف جوال (أ.ف.ب)
شعار شركة «ميتا» يظهر على شاشة هاتف جوال (أ.ف.ب)

أثار إعلان شركة «ميتا» تمديد فترة تقييد الإعلانات المتعلقة بالقضايا الاجتماعية أو السياسية لما بعد انتخابات الرئاسة الأميركية، من دون أن تحدّد الشركة وقتاً لنهاية هذا التمديد، تساؤلات حول مدى فاعلية القرار في الحد من انتشار «المعلومات المضللة». يأتي ذلك بالتزامن مع رصد تجاوزات مررتها المنصة الأشهر «فيسبوك» خلال الفترة السابقة رغم تقييد الإعلانات.

وأعلنت «فيسبوك» نهاية أكتوبر (تشرين الأول) الماضي «حظر أي إعلان يحمل رسائل توجيه سياسي أو اجتماعي من شأنه التأثير في سير الانتخابات الرئاسية الأميركية»، غير أن مراقبين قاموا برصد تجاوزات على المنصة وصفوها بـ«التضليل»، وقالوا إن «فلاتر» المحتوى على «ميتا» «غير متمرسة» بما يكفي لتمييز المحتوى الذي ينتهك إرشادات المصداقية، ما يثير شكوكاً بشأن جدوى قرار الشركة تقييد الإعلانات.

أستاذ التسويق الرقمي والذكاء الاصطناعي في عدد من الجامعات الإماراتية، الدكتور حسن مصطفى، عدّ قرار «ميتا» «محاولةً لتجاوز المخاوف المتزايدة حول استغلال الإعلانات في التأثير على الرأي العام». وقال لـ«الشرق الأوسط» إن «(ميتا) تخشى من الاتهام بنشر المعلومات غير الموثوقة بشكل واسع خلال الفترات الانتخابية وما بعدها، لا سيما أنه تم اتهام الشركة من قبل بوجود محتوى يؤثر على الرأي العام خلال فترات انتخابية سابقة».

وعن دور «ميتا» في الحد من «المعلومات المضللة»، أوضح مصطفى أنه «لا تزال (المعلومات المضللة) تحدياً قائماً رغم ما اتخذته (ميتا) من إجراءات لمكافحتها، والتقليل من انتشار (الأخبار الكاذبة)». وعدّد دور الشركة في هذا الصدد بقوله: «قامت (ميتا) بتعزيز التعاون مع جهات خارجية للتحقق من صحة الأخبار؛ حيث تعتمد الشركة على منظمة (FactCheck) وشبكات من المؤسسات المستقلة للتحقق من الأخبار التي يتم تداولها عبر المنصة».

واستشهد أستاذ التسويق الرقمي والذكاء الاصطناعي ببعض التقارير الصادرة عن منظمة «هيومن رايتس ووتش»، التي أظهرت إحراز «ميتا» تقدماً في مجال الحد من «خطاب الكراهية»، «حيث تمكّنت خوارزميات الشركة من التعرف على بعض الأنماط المتكررة للمحتوى المسيء وحذفه تلقائياً قبل أن ينتشر». غير أنه عدّ إجراءات «ميتا» غير كافية، وأشار إلى أن «خوارزميات الذكاء الاصطناعي ما زالت محدودة القدرة على معالجة المحتوى بلغات ولهجات متنوعة أو فهم السياقات الثقافية المعقدة، ما يجعل من الصعب وضع حدود واضحة أمام تحقيق نجاح كامل في تقليص (خطاب الكراهية)».

وكانت المنظمة الدولية «جلوبال ويتنس» قد أعدّت تقريراً حول ما إذا كانت منصات التواصل الاجتماعي قادرة على اكتشاف وإزالة «المعلومات المضللة الضارة»، لا سيما المتعلقة بانتخابات الرئاسة الأميركية، وأشارت في نتائجها عقب الانتخابات الأميركية إلى أن أداء «فيسبوك» كان أفضل مقارنة بمنصة مثل «تيك توك»، غير أن التقرير لم ينفِ التورط في نشر «معلومات مضللة» رغم القيود، وذكر التقرير أن «(فيسبوك) وافق على واحد من بين ثمانية إعلانات اختبرت بهم المنظمة قيود المنصة للحد من (المعلومات المضللة)»، ما عدّته المنظمة «تحسناً ملحوظاً مقارنة بأداء المنصة السابق»، ومع ذلك قالت إن هذا التحسن لا يزال غير كافٍ.

من ناحية أخرى أشار تقرير صادر عن منظمات المجتمع المدني «إيكو» و«المراقبة المدنية الهندية الدولية» إلى أن «ميتا» سمحت بظهور إعلانات تحتوي على عبارات تحريضية ضد الأقليات على منصتها خلال فترة الانتخابات الأميركية، كما أشارت إلى رصد «محتوى زائف» مصنوع بأدوات الذكاء الاصطناعي.

الخبير في إدارة وتحليل بيانات «السوشيال ميديا» في مصر والمملكة العربية السعودية، خالد عبد الراضي، علّق على قرار «ميتا»، بالقول إننا بصدد محاولات عدها «غير جادة»، ودلّل على ذلك بأن «(ميتا) قيّدت الإعلانات قبل الانتخابات الأميركية بأسبوع واحد فقط، وهي مدة غير كافية إذا كانت المنصة بالفعل جادة في الحد من التضليل والتأثير على الرأي العام، مثلاً (إكس) كانت أكثر جدية من خلال تقييد أي منشور موجه قبل الانتخابات بشهر»، مشيراً إلى أنه «بالتبعية شاهدنا على منصة (فيسبوك) محتوى مضللاً وزائفاً تمت صناعته بالذكاء الاصطناعي».

وأوضح عبد الراضي لـ«الشرق الأوسط» أن «(ميتا) لم تقم بفرض قيود على الإعلانات بشكل عام، بينما على نوع واحد فقط، وهي الإعلانات السياسية المدفوعة، ومن ثم تركت المجال أمام التضليل والتأثير على الرأي العام». ودلل كذلك على عدم جدية «ميتا»، بقوله: «بعد الانتخابات الأميركية في 2020 واجهت (ميتا) عدة اتهامات بتوجيه الرأي العام، ما دفع الشركة لاتخاذ إجراءات جادة من بينها توظيف (فرق السلامة) والمعنية بمراجعة النصوص للتأكد من ملاءمتها مع معايير المنصة، غير أن هذه (الفرق) تم (إنهاء عملها) لاحقاً، ما يشير إلى عدم جدية ادعاءات المنصة».