هل يبدأ تنظيم وسائل التواصل الاجتماعي في 2020؟

هل يبدأ تنظيم وسائل التواصل الاجتماعي في 2020؟
TT

هل يبدأ تنظيم وسائل التواصل الاجتماعي في 2020؟

هل يبدأ تنظيم وسائل التواصل الاجتماعي في 2020؟

بدأت في النصف الثاني من العام الماضي استشارات حكومية في أوروبا وبريطانيا حول خطوات لضبط وتنظيم مواقع التواصل الاجتماعي وتكليف الشركات المسؤولة عنها بواجب الاهتمام بمصالح المستخدمين وإزالة المحتوى الضار بكل أنواعه. وفي حالة عدم تطبيق قواعد عمل متفق عليها من المواقع الإلكترونية سوف تتعرض الشركات المخالفة لغرامات فادحة أو حتى لحجب مواقعها.
لكن حتى الآن ما زالت وسائل التواصل الاجتماعي تعتمد على الرقابة الذاتية وتوفر كل وسيلة قواعدها الخاصة حول ما هو غير مقبول للنشر ومعايير التعامل المتوقعة من المستخدمين تجاه بعضهم البعض. وتشمل المحاذير المواد الإباحية والإرهاب والأخبار الكاذبة وخطاب الكراهية أو المحتوى الذي قد يؤثر على الصحة النفسية.
وترى الحكومات أن على المواقع أن تطبق المزيد من الرقابة الذاتية على محتواها. ولكن المواقع بدورها ترى أنها تبذل بالفعل جهودا غير عادية من أجل الحفاظ على المعايير المطلوبة من دون الحاجة إلى رقابة حكومية. وتقول إدارة موقع «يوتيوب» إنها تزيل ملايين من مقاطع الفيديو شهريا من على موقعها منها نسبة 75 في المائة تزال قبل أن يراها مشاهد واحد. وتصل نسبة الإزالة التلقائية من أدوات مراقبة فورية إلى نحو 81 في المائة.
وتستخدم يوتيوب 10 آلاف موظف على نطاق عالمي تتعلق وظائفهم بإزالة المحتوى غير المقبول من على الشبكة. ويزيد هذا العدد ثلاثة أضعاف إلى 30 ألف موظف في «فيسبوك» التي تملك أيضا «إنستغرام». وأزالت «فيسبوك» 15.4 مليون قطعة من المحتويات العنيفة بين أكتوبر (تشرين الأول) وديسمبر (كانون الأول) الماضيين صعودا من 7.9 مليون قطعة في الأشهر الثلاثة الأسبق.
وفي بعض الأحوال يتم ضبط المحتوى المخالف وإزالته تلقائيا قبل أن يصل إلى المشاهدين. وتؤكد الشركة أن نسبة 99.5 في المائة من المواد المخالفة تمت إزالتها بتقنيات الرصد والإزالة التلقائية.
وفي حين ترى الحكومات أن المواقع الإلكترونية يجب أن تكون مسؤولة عما ينشر عليها، ترى شركات التواصل أن الشخص الذي يرفع هذه المواد إلى الشبكات هو الذي يجب أن يكون مسؤولا جنائيا وليست الشركات التي تدير منصات التواصل. وتوجد سوابق لاتهام أشخاص بوضع مواد مخلة على الشبكات تتعلق بالإرهاب أو الانتقام عن طريق نشر مقاطع جنسية للضحايا. وترى شركات التواصل أنها مجرد أوعية للمعلومات وليست رقيبة عليها، ولكن بعض القانونيين يرون أن مواقع التواصل يجب أن تعامل كناشرة للمعلومات على قدم المساواة مع الصحف ووسائل الإعلام الأخرى.
وتعمل بعض الحكومات حاليا على تغيير الوضع القائم عن طريق سن تشريعات تجبر شركات التواصل على إزالة المواد الضارة وغير القانونية، وأن تحول أولويتها لحماية زبائنها من الجماهير المشاركة، خصوصا الأطفال والكبار من ذوي الاحتياجات الخاصة.
وعلى الرغم من أن معظم شبكات التواصل تعمل على نطاق عالمي فإن قوانين تنظيم نشاطها تختلف ما بين دولة وأخرى. في بريطانيا مثلا ما زالت مواقع التواصل تعمل بحرية تامة حتى الآن، وتعتمد على مبدأ الرقابة الذاتية، بينما يختلف الوضع في الدول الأخرى. ويمكن متابعة تأثير القوانين في الدول التي طبقت بالفعل أساليب رقابة على الإنترنت. وهي تتراوح بين قوانين رادعة ورقابة تامة.
وأصدرت ألمانيا في عام 2018 قانونا يجبر الشركات التي لديها أكثر من مليوني مستخدم أن تطبق مراجعة واضحة للشكاوى وأن تزيل أي مواد غير قانونية من على مواقعها خلال 24 ساعة، في حالات المخالفات الواضحة يمكن أن يتعرض الأفراد إلى غرامة تصل إلى خمسة ملايين يورو (5.6 مليون دولار) بينما تصل غرامة الشركات إلى 50 مليون يورو.
وفي العام الأول لتطبيق القانون ظهرت 714 شكوى من مستخدمين ضد مواقع لم تحذف محتويات مخالفة خلال 24 ساعة. وتشير وزارة العدل الألمانية إلى أن هذا الرقم كان أصغر بكثير من رقم 25 ألف شكوى الذي توقعته. ولم تفرض الوزارة أي غرامات حتى الآن.
وعلى المستوى الأوروبي تواجه شركات التواصل الاجتماعي غرامات إذا لم تحذف مقاطع الفيديو الإرهابية في خلال ساعة من وضعها على الشبكة. ويعمل الاتحاد الأوروبي على حماية المعلومات الشخصية لمستخدمي شبكات التواصل. كما نقل الاتحاد الأوروبي مسؤولية نشر مواد ذات حقوق نشر محفوظة إلى المواقع التي تنشرها بدلا من انتظار شكوى المستخدمين إزاء هذه المواد.
وتتشدد أستراليا في حالات بث مقاطع إرهابية على الشبكات، خصوصا بعد حادث مسجد نيوزيلندا الذي تم بثه مباشرة على «فيسبوك». وتصل عقوبات بث مثل هذه المقاطع الآن إلى سجن المسؤولين في الشركة لمدة ثلاث سنوات وعقوبات مالية تصل إلى نسبة 10 في المائة من إيرادات الشركة على المستوى العالمي.
وتم تعيين مراقب حكومي أسترالي له صلاحيات طلب حذف أي مواد أو فيديو مخالف بما في ذلك مقاطع الفيديو الإباحية التي تبث بغرض التشهير والانتقام. ويمكن لهذا المسؤول أن يحذر الشركات بحذف المقاطع المخالفة خلال 48 ساعة وإلا تعرضت لغرامة تصل إلى نصف مليون دولار أسترالي وغرامة للأفراد تصل إلى مائة ألف دولار أسترالي. وجاء التعيين والمراقبة بعد انتحار مذيعة تلفزيونية شهيرة بعد حملة تشهير تعرضت لها على «تويتر».
وتلجأ دول أخرى إلى معايير مغايرة. فالصين مثلا تمنع مواقع «تويتر» و«غوغل» و«واتساب» وتوفر الحكومة الصينية مواقع مماثلة لمواطنيها مثل «وايبو» و«بايدو» و«وي تشات». وتحذف الحكومة الصينية مئات المواقع سنويا وآلاف التطبيقات وفق معايير صارمة خصوصا في المحادثات السياسية التي تشمل كلمات حساسة مثل «تيانمان سكوير». وتشمل الرقابة والمنع مواقع القمار ونسخا من التطبيقات التي تستخدم في أغراض غير قانونية.
وفي روسيا، تحافظ الحكومة على سرية معلومات مواطنيها بالاشتراط على شركات التواصل أن تكون المعلومات الشخصية للمواطنين الروس محفوظة في خزانات معلومات إلكترونية داخل روسيا. وهناك قضايا ضد «فيسبوك» و«تويتر» من رقابة المعلومات الروسية لأن طرق حفظ المعلومات لديهما غير شفافة.



تمديد «ميتا» لقيود الإعلانات... هل يحد من «المعلومات المضللة»؟

شعار شركة «ميتا» يظهر على شاشة هاتف جوال (أ.ف.ب)
شعار شركة «ميتا» يظهر على شاشة هاتف جوال (أ.ف.ب)
TT

تمديد «ميتا» لقيود الإعلانات... هل يحد من «المعلومات المضللة»؟

شعار شركة «ميتا» يظهر على شاشة هاتف جوال (أ.ف.ب)
شعار شركة «ميتا» يظهر على شاشة هاتف جوال (أ.ف.ب)

أثار إعلان شركة «ميتا» تمديد فترة تقييد الإعلانات المتعلقة بالقضايا الاجتماعية أو السياسية لما بعد انتخابات الرئاسة الأميركية، من دون أن تحدّد الشركة وقتاً لنهاية هذا التمديد، تساؤلات حول مدى فاعلية القرار في الحد من انتشار «المعلومات المضللة». يأتي ذلك بالتزامن مع رصد تجاوزات مررتها المنصة الأشهر «فيسبوك» خلال الفترة السابقة رغم تقييد الإعلانات.

وأعلنت «فيسبوك» نهاية أكتوبر (تشرين الأول) الماضي «حظر أي إعلان يحمل رسائل توجيه سياسي أو اجتماعي من شأنه التأثير في سير الانتخابات الرئاسية الأميركية»، غير أن مراقبين قاموا برصد تجاوزات على المنصة وصفوها بـ«التضليل»، وقالوا إن «فلاتر» المحتوى على «ميتا» «غير متمرسة» بما يكفي لتمييز المحتوى الذي ينتهك إرشادات المصداقية، ما يثير شكوكاً بشأن جدوى قرار الشركة تقييد الإعلانات.

أستاذ التسويق الرقمي والذكاء الاصطناعي في عدد من الجامعات الإماراتية، الدكتور حسن مصطفى، عدّ قرار «ميتا» «محاولةً لتجاوز المخاوف المتزايدة حول استغلال الإعلانات في التأثير على الرأي العام». وقال لـ«الشرق الأوسط» إن «(ميتا) تخشى من الاتهام بنشر المعلومات غير الموثوقة بشكل واسع خلال الفترات الانتخابية وما بعدها، لا سيما أنه تم اتهام الشركة من قبل بوجود محتوى يؤثر على الرأي العام خلال فترات انتخابية سابقة».

وعن دور «ميتا» في الحد من «المعلومات المضللة»، أوضح مصطفى أنه «لا تزال (المعلومات المضللة) تحدياً قائماً رغم ما اتخذته (ميتا) من إجراءات لمكافحتها، والتقليل من انتشار (الأخبار الكاذبة)». وعدّد دور الشركة في هذا الصدد بقوله: «قامت (ميتا) بتعزيز التعاون مع جهات خارجية للتحقق من صحة الأخبار؛ حيث تعتمد الشركة على منظمة (FactCheck) وشبكات من المؤسسات المستقلة للتحقق من الأخبار التي يتم تداولها عبر المنصة».

واستشهد أستاذ التسويق الرقمي والذكاء الاصطناعي ببعض التقارير الصادرة عن منظمة «هيومن رايتس ووتش»، التي أظهرت إحراز «ميتا» تقدماً في مجال الحد من «خطاب الكراهية»، «حيث تمكّنت خوارزميات الشركة من التعرف على بعض الأنماط المتكررة للمحتوى المسيء وحذفه تلقائياً قبل أن ينتشر». غير أنه عدّ إجراءات «ميتا» غير كافية، وأشار إلى أن «خوارزميات الذكاء الاصطناعي ما زالت محدودة القدرة على معالجة المحتوى بلغات ولهجات متنوعة أو فهم السياقات الثقافية المعقدة، ما يجعل من الصعب وضع حدود واضحة أمام تحقيق نجاح كامل في تقليص (خطاب الكراهية)».

وكانت المنظمة الدولية «جلوبال ويتنس» قد أعدّت تقريراً حول ما إذا كانت منصات التواصل الاجتماعي قادرة على اكتشاف وإزالة «المعلومات المضللة الضارة»، لا سيما المتعلقة بانتخابات الرئاسة الأميركية، وأشارت في نتائجها عقب الانتخابات الأميركية إلى أن أداء «فيسبوك» كان أفضل مقارنة بمنصة مثل «تيك توك»، غير أن التقرير لم ينفِ التورط في نشر «معلومات مضللة» رغم القيود، وذكر التقرير أن «(فيسبوك) وافق على واحد من بين ثمانية إعلانات اختبرت بهم المنظمة قيود المنصة للحد من (المعلومات المضللة)»، ما عدّته المنظمة «تحسناً ملحوظاً مقارنة بأداء المنصة السابق»، ومع ذلك قالت إن هذا التحسن لا يزال غير كافٍ.

من ناحية أخرى أشار تقرير صادر عن منظمات المجتمع المدني «إيكو» و«المراقبة المدنية الهندية الدولية» إلى أن «ميتا» سمحت بظهور إعلانات تحتوي على عبارات تحريضية ضد الأقليات على منصتها خلال فترة الانتخابات الأميركية، كما أشارت إلى رصد «محتوى زائف» مصنوع بأدوات الذكاء الاصطناعي.

الخبير في إدارة وتحليل بيانات «السوشيال ميديا» في مصر والمملكة العربية السعودية، خالد عبد الراضي، علّق على قرار «ميتا»، بالقول إننا بصدد محاولات عدها «غير جادة»، ودلّل على ذلك بأن «(ميتا) قيّدت الإعلانات قبل الانتخابات الأميركية بأسبوع واحد فقط، وهي مدة غير كافية إذا كانت المنصة بالفعل جادة في الحد من التضليل والتأثير على الرأي العام، مثلاً (إكس) كانت أكثر جدية من خلال تقييد أي منشور موجه قبل الانتخابات بشهر»، مشيراً إلى أنه «بالتبعية شاهدنا على منصة (فيسبوك) محتوى مضللاً وزائفاً تمت صناعته بالذكاء الاصطناعي».

وأوضح عبد الراضي لـ«الشرق الأوسط» أن «(ميتا) لم تقم بفرض قيود على الإعلانات بشكل عام، بينما على نوع واحد فقط، وهي الإعلانات السياسية المدفوعة، ومن ثم تركت المجال أمام التضليل والتأثير على الرأي العام». ودلل كذلك على عدم جدية «ميتا»، بقوله: «بعد الانتخابات الأميركية في 2020 واجهت (ميتا) عدة اتهامات بتوجيه الرأي العام، ما دفع الشركة لاتخاذ إجراءات جادة من بينها توظيف (فرق السلامة) والمعنية بمراجعة النصوص للتأكد من ملاءمتها مع معايير المنصة، غير أن هذه (الفرق) تم (إنهاء عملها) لاحقاً، ما يشير إلى عدم جدية ادعاءات المنصة».