هل «فيسبوك» بحاجة إلى محرر تنفيذي لوقف الأخبار الكاذبة؟

رئيسه مارك زوكربيرغ على سطح صفيح ساخن

ضغوط على مارك زوكربيرغ مؤسس «فيسبوك» بعد الانتخابات الأميركية (واشنطن بوست)
ضغوط على مارك زوكربيرغ مؤسس «فيسبوك» بعد الانتخابات الأميركية (واشنطن بوست)
TT

هل «فيسبوك» بحاجة إلى محرر تنفيذي لوقف الأخبار الكاذبة؟

ضغوط على مارك زوكربيرغ مؤسس «فيسبوك» بعد الانتخابات الأميركية (واشنطن بوست)
ضغوط على مارك زوكربيرغ مؤسس «فيسبوك» بعد الانتخابات الأميركية (واشنطن بوست)

بعد يومين من انتخاب دونالد ترامب، وجد مارك زوكربيرغ نفسه على صفيح ساخن.
هاجم صحافي خلال مؤتمر تقني الرئيس التنفيذي لـ«فيسبوك» على خلفية الأخبار المكذوبة التي نشرها الموقع، مشيرًا إلى أن ذلك قد رجح كفة ترامب في الانتخابات. ومن تلك الأخبار على سبيل المثال دعم البابا فرنسيس لمرشح الحزب الجمهوري.
على الجانب سخر زوكربيرغ من هذا الأمر قائلا: «أنا شخصيًا أعتقد أن فكرة تأثير الأخبار المكذوبة على موقع (فيسبوك)، والتي لا تمثل سوى جزء صغير من المحتوى الموجود على الموقع، على نتيجة الانتخابات بأي شكل من الأشكال فكرة مجنونة جدًا. لقد اتخذ الناخبون قرارهم بناء على تجاربهم الحياتية المعيشة». مع ذلك منذ ذلك الحين بدأ موقع فيسبوك، الذي واجه نيران الانتقادات، التي تشمل هجومًا من الرئيس أوباما الذي انتقد وباء الأخبار المغلوطة الأسبوع الماضي، في اتخاذ بعض الخطوات الإيجابية.
وخلال مناقشة مباشرة على موقع «فيسبوك»، أوضحت الصحافية كاتلين ديوي كيف تستخدم مواقع الأخبار الزائفة «فيسبوك» كوسيلة لتحقيق مكاسب. ونشر زوكربيرغ يوم الجمعة الماضي رسالة توضح إدراكه لمدى جدية وخطورة المشكلة، وشرح كيف سيتعامل موقع «فيسبوك» مع الأمر. وذكر خدمات التحقق من خلال طرف ثالث، وطرق أفضل تتيح للمستخدمين الإبلاغ عن عمليات الخداع، ومحاولات منع مواقع الأخبار الزائفة من تحقيق أرباح من الإعلانات. ويعد هذا تقدمًا مشكورًا.
حان الآن وقت القيام بخطوة أكثر جرأة، وهي تعيين مسؤول تحرير تنفيذي، ومنحه كافة الصلاحيات، والموارد، وفريق عمل، يمكّنه من اتخاذ قرارات تحريرية سليمة. قد لا يريد زوكربيرغ إطلاق صفة «محرر» على هذا الشخص، نظرًا لإصراره على أن «فيسبوك» ليس شركة إعلامية، بل يراه شركة تختص بالتكنولوجيا ومنصة للاتصال. صحيح أن موقع «فيسبوك» ذاته لا يقدم محتوى خبري، لكنه يسمح لأعضائه بمشاركة أخبار خاصة بهم سواء كان ذلك صورًا لأطفال أو أكاذيب عن مرشحين سياسيين. لا بأس إذًا، يمكن إطلاق مسمى كبير مسؤولي المشاركات على ذلك الشخص. وأي كان المسمى الوظيفي لهذا الشخص، يحتاج موقع «فيسبوك» إلى شخص قادر على التمييز بين صورة حاصلة على جائزة بوليتزر للصحافة وبين صور إباحية، وكذلك قادر على التمييز بين أكاذيب لا أساس لها من الصحة، وقصة استقصائية محققة تقوم على أسانيد. ما يحكم سير الأمور على «فيسبوك» هو المشاركة، بمعنى أنه كلما زادت مشاركة الأعضاء لمحتوى ما، زاد احتمال رؤيتك له. من الواضح أن هذا ليس كافيًا، فالإجراء الضروري من أجل القضاء على الأخبار المكذوبة هو التحقق منها بدقة باستخدام المنطق السليم. وتعد الشركة العملاقة في وادي السيليكون، والذي يربو عدد مستخدميها على المليار، مصدرًا كبيرًا للأخبار، بل والمصدر الأهم بالنسبة إلى بعض الفئات الديموغرافية. ويسير تأثير الموقع دائمًا في اتجاه واحد مستمر هو الأعلى. من المفهوم ألا ترغب شركة «فيسبوك» في التحول إلى جهة رقابة، ولا ينبغي لها ذلك.
عندما قال زوكربيرغ مؤخرًا إن اكتشاف الحقيقة أمر صعب، كان جواب بين سميث، رئيس تحرير «باز فيد»: «قد يصدق ذلك على اللوغاريتمات وعلم الجمال، لكن هذا أمر مطلوب من الصحافيين المحترفين عمله يوميًا، وهو ليس بهذا القدر من التعقيد».
أهم ما في الأمر هو الحكم خاصة الذي لا يمكن الوصول إليه من خلال شفرة معقدة أو من خلال الاعتماد على «معايير مجتمعية» مقصدها طيب، لكنها مبهمة. لم تظهر الحاجة إلى حكم تحريري على موقع «فيسبوك» مع حملة الانتقادات التي تعرض لها الموقع بعد الانتخابات؛ بل هي حاجة تتجلى منذ أشهر طويلة. على سبيل المثال، خلال الصيف الماضي استخدمت سيدة من ولاية مينيسوتا، تدعى دياموند رينولدذ، هاتفها الذكي في بثّ مشهد مروع على موقع «فيسبوك». وظهر صديقها فيلاندو كاستيل في ذلك المشهد بعد إطلاق النار عليه من قبل ضابط شرطة. وتم حذف مشاركتها بعد ساعة تقريبًا من نشرها، وصرح موقع «فيسبوك» أن ذلك كان بسبب خطأ فني، ثم تم إعادة نشر الصورة مرة أخرى. وفي سبتمبر (أيلول)، حذف موقع «فيسبوك» صورة حاصلة على جائزة بوليتزر لفتاة فيتنامية تهرب من هجوم بالنابالم بسبب مخالفتها لمعايير الموقع الخاصة بتعرية الجسد، والمحتوى الإباحي الخاص بالأطفال. وعندما أثار ذلك الفعل موجة عالمية من الغضب، تم إعادة نشر الصورة.
ودعت إميلي بيل، مديرة مركز «تو» للصحافة الرقمية في جامعة كولومبيا، زوكربيرغ إلى تغيير رأيه بشأن دور موقع «فيسبوك» في البيئة الإعلامية. وكتبت في دورية الصحافة بالجامعة: «من خلال الاعتراف بأن موقع فيسبوك قادر على لعب دور أكثر فعالية في التحرير بل ومطالب بذلك، وتعيين أشخاص حقيقيين للقيام بهذه المهمة، سوف يحدث زوكربيرغ تأثيرًا على المصادر المدنية، وكذلك سيتمكن من معالجة مشكلة متنامية تتمثل في كيفية إدراك الناس لموقع فيسبوك».
وخلال الأسبوع الماضي اقترح كل من المؤلف جيف جارفيز، وجون بورثويك، صاحب المشروعات التكنولوجية الرائدة، 15 طريقة لمكافحة وباء الأخبار المكذوبة، ومن بينها الاستعانة ببعض المحررين: «لا تأليف محتوى، ولا القيام بعملية تحرير، بل الاضطلاع بمسؤولية اجتماعية عامة تجاه شركتهم ومنتجهم».
* خدمة «نيويورك تايمز»



تساؤلات بشأن سياسات «ميتا» لحماية المستخدمين بعد حذف مليوني حساب

شعار «ميتا» مطبوع بتقنية الطباعة ثلاثية الأبعاد على لوحة مفاتيح كومبيوتر جوال (رويترز)
شعار «ميتا» مطبوع بتقنية الطباعة ثلاثية الأبعاد على لوحة مفاتيح كومبيوتر جوال (رويترز)
TT

تساؤلات بشأن سياسات «ميتا» لحماية المستخدمين بعد حذف مليوني حساب

شعار «ميتا» مطبوع بتقنية الطباعة ثلاثية الأبعاد على لوحة مفاتيح كومبيوتر جوال (رويترز)
شعار «ميتا» مطبوع بتقنية الطباعة ثلاثية الأبعاد على لوحة مفاتيح كومبيوتر جوال (رويترز)

أثار قرار شركة «ميتا» بحذف أكثر من مليونَي حساب على منصات «فيسبوك»، و«إنستغرام»، و«واتساب»، خلال الأشهر الماضية، تساؤلات بشأن سياسات الشركة حول حماية بيانات المستخدمين، لا سيما أن القائمين على القرار برّروا الخطوة بأنها جاءت بهدف «مواجهة عمليات الاحتيال الرقمي». ووفق خبراء تحدَّثوا مع «الشرق الأوسط» فإن «الخطوة تعد تطوراً في سياسات (ميتا) لحماية البيانات».

«ميتا» ذكرت، في تقرير صدر نهاية نوفمبر (تشرين الثاني) الماضي، أن السبب وراء حذف الحسابات هو «رصد عمليات احتيال رقمي كانت قد قامت بها تلك الحسابات». ويُعدّ هذا التقرير الأول الذي تكشف من خلاله «ميتا» عن تفاصيل استراتيجيتها للتصدي للأنشطة الاحتيالية العابرة للحدود. وعدّ مراقبون هذه الخطوة تعزيزاً لاتباع سياسة واضحة تجاه أي اختراق لحماية المستخدمين. وكتبت الشركة عبر مدونتها «لا مكان على (فيسبوك) أو (إنستغرام) أو (واتساب) للمجموعات أو الأفراد الذين يروّجون للعنف، والإرهاب، أو الجريمة المنظمة، أو الكراهية».

هيفاء البنا، الصحافية اللبنانية والمدرّبة في الإعلام ومواقع التواصل، رأت في لقاء مع «الشرق الأوسط» أن «ميتا» تعمل على تحديث أدواتها لحماية المستخدمين. وأضافت: «تركز سياسات (ميتا) على الحدِّ من الجريمة المنظمة عبر استخدام تقنيات الذكاء الاصطناعي (AI) المتطورة، وتعمل هذه التقنيات على تحليل النشاطات المُريبة على المنصات واكتشاف المحتويات المرتبطة بالجريمة المنظمة».

ووفق البنا فإن «(ميتا) تُراجع وتحدّث سياساتها بشكل دوري، كي تتفادى أي تهديدات تلاحق المستخدمين، وكانت الشركة قد أوضحت أن خوادمها الـ(Servers) المنتشرة في الدول يتم تحديثها بشكل دوري؛ لضمان مواكبة أي تغييرات، ولضمان بيئة أكثر أماناً لمستخدمي منصاتها حول العالم».

وأردفت: «التزاماً بلائحة حماية البيانات العامة، تتعامل (ميتا) مع الأشخاص الذين تُحلّل بياناتهم عبر رموز مشفّرة، وليس عبر أسمائهم الحقيقية، ما يضمن الحفاظ على خصوصياتهم»، مشيرة إلى أن حماية بيانات المستخدمين لا تتوقف على «ميتا» فقط.

إذ شدّدت الإعلامية والمدرّبة اللبنانية على تدابير يجب أن يتخذها المستخدم نفسه لحماية بياناته، إذ توصي مثلاً «بتفعيل خاصية (التحقق بخطوتين/ Two-Factor Authentication)؛ لضمان أمان الحسابات، ويمكن أيضاً استخدام تطبيقات مثل (Google Authentication)، التي تولّد رموزاً سرية تُستخدم للدخول والتحقق من هوية المستخدم، وكذا يمكن استخدام خاصية الإبلاغ التي توفّرها (ميتا) بسرية تامة، حيث يصار إلى التعامل مع هذه البلاغات من خلال فرق مختصة أو تقنيات الذكاء الاصطناعي؛ لضمان بيئة آمنة للجميع».

معتز نادي، المدرّب المتخصص في الإعلام الرقمي، عدّ خلال حوار مع «الشرق الأوسط» تحرّكات «ميتا» الأخيرة انعكاساً لـ«تفاقم مشكلة الاحتيال عبر الإنترنت وزيادة التهديدات السيبرانية التي تواجه المستخدمين». ورأى أن «تحديات (ميتا)» تصطدم بتطور الاحتيال، وازدياد عدد المستخدمين بما يتجاوز نحو مليارَي مستخدم، وتشديد الرقابة الرقمية التي تضعها في مرمى نيران الانتقادات، خصوصاً مع انتقاد خوارزمياتها الكثير من الأحداث السياسية التي شهدها العالم أخيراً.

وحول جدية «ميتا» في حماية بيانات المستخدمين، قال معتز نادي: «بنظرة إلى المستقبل، سيكون الأمان الرقمي بحاجة إلى مجاراة التطور من حيث تقنيات الذكاء الاصطناعي، والعمل على تثقيف المستخدمين عبر وسائل الإعلام والمنصات الرقمية لمنع أي اختراق لخصوصياتهم».