يمثّل الحادث الإرهابي الذي وقع في مدينة كرايست تشيرش في نيوزيلندا يوم الجمعة 15 مارس (آذار) 2019، الذي راح ضحيته 50 من المصلين المسلمين، نقطة فارقة في نشاط وسائل التواصل الاجتماعي، قد يسفر عنها وضع معايير جديدة لنشاط هذه الوسائل وكيفية انضباطها مستقبلاً. وكانت البداية في هذا التحول طلب أستراليا رسمياً من اليابان طرح موضوع تشديد الرّقابة على وسائل التواصل الاجتماعي في قمة العشرين التي ستعقد في أوساكا خلال شهر يونيو (حزيران) المقبل.
وذكر رئيس الوزراء الأسترالي سكوت موريسون على حسابه في «تويتر» أنّه أرسل رسالة يطلب فيها من رئيس الوزراء الياباني شينزو آبي عقب حادث إطلاق النار على المصلين داخل مسجدين في نيوزيلندا، طرح القضية على زعماء مجموعة العشرين لدى اجتماعهم في اليابان هذا الصيف. وكان الحدث الأليم قد بُثّ حيّاً على «فيسبوك» من الإرهابي، وبقي على الموقع بعض الوقت إلى أن حذفته إدارة الموقع خلال 24 ساعة، ولكن ليس قبل انتشار مليون ونصف المليون نسخة منه.
وذكر موريسون في رسالته، الحاجة الملحة لأن تقوم شركات التكنولوجيا بواجبها الأخلاقي لحماية المجتمعات التي تخدمها، والتي تحصل منها على أرباحها. وأضاف: «على زعماء مجموعة العشرين تأكيد أنّ هناك عواقب ليس فقط لمنفذي هذه العمليات الشنيعة وإنّما أيضا لمن ينشرون لهم هذه الأعمال».
ويعتبر البعض أنّ بقاء مواد تحض على الكراهية لمدة 24 ساعة على موقع «فيسبوك» قبل حذفها، يعني تغافل إدارة الموقع عن مسؤولياتها. وهناك سوابق كثيرة لمثل هذا الاستخفاف، ولا يقتصر الأمر على «فيسبوك» وإنّما ينتشر على مواقع أخرى مثل: «تويتر» و«انستغرام» و«يوتيوب» وغيرها.
في الماضي، قالت إدارات هذه المواقع إنّها تستمع إلى شكاوى المستخدمين وتحذف أي مواد أو صور مسيئة أو تدخل تحت نطاق بث الكراهية العنصرية أو الدينية، ولكن المواقع لا تقوم بهذه المهمة تلقائياً أو فوراً.
وفي حال حادث «كرايست تشيرش» الإرهابي توجهت شرطة نيوزيلندا وحكومتها بطلبات عاجلة إلى «فيسبوك» لكي يحذف المحتوى، ولكن «فيسبوك» استغرق ساعات حتى يستجيب، إلى أن انتشر خلالها المحتوى إلى 1.5 مليون نسخة تعين إزالتها. وكانت النتيجة موجة من الغضب العام الذي دفع شخصيات عامة مثل عمدة لندن ساجد جافيد لتوجيه نداء إلى كل من «يوتيوب» و«غوغل» و«فيسبوك» و«تويتر» لتحمل مسؤولياتها عن المواد المتطرفة التي تنشر عبر مواقعها، مختتماً رسالته على «تويتر» بكتابة عبارة: «لقد فاض الكيل». من ناحية أخرى، أعلن مئات من المستخدمين مقاطعة وسائل التواصل الاجتماعي احتجاجاً على انعدام الرقابة فيها.
وتقول الباحثة سارة برايور إنّ مشكلة المواد المسيئة لازمت مواقع التواصل الاجتماعي منذ بداياتها. وفي حالة «فيسبوك» لم تضع إدارة الموقع معايير واضحة وشفافة أو ضوابط لمنع تسلّل هذه المواد إلى المتابعين، ولكنّها مع ذلك دشنت خدمة البث الحي المباشر التي تمكن بها الإرهابي من بث عمليات القتل على «فيسبوك» مباشرة بلا رقابة.
وتشير برايور إلى أنّ سبب عدم وجود الرقابة الكافية على مواقع التواصل الاجتماعي يرجع إلى أنّ نموذج عمل هذه المواقع قائم على حرية تبادل المعلومات وإضافة المحتوى. وهناك بعض الضوابط المتاحة لمنع كلمات أو صور مسيئة ولكنّها ليست كافية، لأن بعضها متروك للمتابع لكي يطبقها بنفسه، والبعض الآخر ينتظر تلقي شكاوى من محتوى معين قبل النظر في حذفه.
وهناك الكثير من المشاكل الأخرى التي تواجه مواقع التواصل الاجتماعي منها الحسابات المزيفة التي لا يمكن الوصول إلى صاحبها الحقيقي، والتي تبث مواد مسيئة ومتطرفة تحت ستار مستخدم وهمي. أيضا هناك معايير السن القانونية لمشاهدة بعض المواد التي تترك للمستخدم لكي يحددها بنفسه، ولكن من دون رقابة حقيقية عمّا إذا كان المستخدم قد بلغ سن الرشد أم لا.
من المشاكل الأخرى التي تعد عصرية وحديثة، مشكلة الأخبار الكاذبة التي تنتشر على المواقع بلا رقابة ولا محاسبة، بينما تطبق معايير النشر بصرامة مع ناشري الصحف مثلاً.
من ناحية أخرى، يشكو القائمون على مراقبة وحذف المواد المسيئة في «فيسبوك» من الأجور الضعيفة وظروف العمل الصعبة والمشاهد المسيئة التي يتعرضون لها روتينياً بصفة يومية. ولا يزيد أجر العامل في هذه المجالات داخل الولايات المتحدة على 28 ألف دولار سنوياً، قبل الضرائب، وهو مبلغ لا يكفل له حياة مستقرة.
ويقول مدير سابق في «فيسبوك» اسمه ستيفن شيلر إنّه خلال عمله في الشركة قبل عام 2017 اكتشف أنّ الموقع يفقد السيطرة تدريجياً على المواد التي تبث من خلاله. ومع تقدم التكنولوجيا وتسارع وتيرتها كان هناك الكثير من القرارات التي يتعين اتخاذها ولكنّها لم تتخذ.
وأظهر حادث نيوزيلندا الإرهابي انعدام الرقابة على البث الحي. ويطالب مسؤولون حكوميون منهم رئيسة وزراء نيوزيلندا جاسيندا أرديرن، ورئيس وزراء أستراليا سكوت موريسون، ومسؤولون آخرون حول العالم، بتجميد خدمة البث الحي من «فيسبوك» حتى تتمكن الشركة من ضبط ما يبث عليها.
- هل من حلول؟
يجب الاعتراف بأنّ شركات وسائط التواصل الاجتماعي هي شركات تجارية تهدف إلى الربح ولا تضع في أولوياتها المعايير الأخلاقية أو الأدبية. وهي نموذج جديد للميديا التي تجمع المليارات من العوائد ولا تلتزم بالمعايير والمسؤوليات المفروضة على وسائل الإعلام التقليدية مثل الصحف والراديو والتلفزيون. وحتى الآن أثبتت هذه الوسائل أنّها ليست راغبة أو قادرة على ضبط محتوياتها تلقائياً، ولذلك من المتوقع أن تؤدي التطورات الأخيرة إلى حلول من خارج هذه المؤسسات.
من هذه الحلول تطبيق الحكومات للمعايير التي يجب أن تلتزم بها وسائل التواصل الاجتماعي من أجل السّماح بعملها. وتستطيع الحكومات منع هذه المواقع من العمل على أراضيها في حالات عدم الالتزام بالمعايير. ولكن هذا الحل قد تشوبه شبهة التحكم السياسي أو فرض الرقابة على حرية المعلومات. ويعتمد أسلوب الرقابة على تعريف وسائل التواصل على أنّها مجرد ناقلة للمعلومات أو أنّها ناشرة للمحتوى تلتزم بما يلتزم به ناشرو الميديا الآخرون.
حل آخر، هو أنّ تتدخل الشركات المعلنة لدى هذه المواقع وتفرض شروطها لمنع المحتويات المسيئة أو سحب حملات إعلانها. ومثل هذه الخطوة من شأنها أن تلفت انتباه شركات التواصل فوراً لأنه يصيبها في مصادر إيراداتها. وقد بدأت شركات أسترالية ونيوزيلندية بالفعل في تطبيق مقاطعة، في أعقاب بث الحادث الإرهابي، ومنها بنوك وشركات مواد استهلاكية.
وتدرس هيئات حماية المستهلك في الكثير من الدول، منصات البث على الإنترنت وأسلوب عملها وما يتعيّن اتخاذه من قرارات لتنظيم عملها من دون الحد من حريتها. وكان أحد القرارات التي اتخذت أخيراً من مفوضية الاتحاد الأوروبي قد فرض غرامة قياسية قدرها 1.7 مليار دولار على «غوغل» لحجبه معلنين على مواقع بحث أخرى.
وتعتبر هذه الغرامة هي الثالثة التي تفرضها أوروبا على «غوغل» خلال عامين. وبلغت أرباح محرك «غوغل» في عام 2018، 30.7 مليار دولار ارتفاعاً من 12.6 مليار دولار في عام 2017.
بعد عملية نيوزيلندا الإرهابية... هل تفرض الرقابة على وسائل التواصل الاجتماعي؟
طرح القضية على طاولة مجموعة العشرين في اليابان هذا الصيف
بعد عملية نيوزيلندا الإرهابية... هل تفرض الرقابة على وسائل التواصل الاجتماعي؟
لم تشترك بعد
انشئ حساباً خاصاً بك لتحصل على أخبار مخصصة لك ولتتمتع بخاصية حفظ المقالات وتتلقى نشراتنا البريدية المتنوعة