مخاوف أوروبية من «إضرار» منصات التواصل بالعملية الانتخابية

تييري بريتون (رويترز)
تييري بريتون (رويترز)
TT

مخاوف أوروبية من «إضرار» منصات التواصل بالعملية الانتخابية

تييري بريتون (رويترز)
تييري بريتون (رويترز)

جدد إعلان المفوضية الأوروبية عن فتح تحقيق في تعاطي شركة «ميتا» مع الدعاية الانتخابية عبر منصتي «فيسبوك» و«إنستغرام»، المخاوف بشأن تأثير منصات التواصل الاجتماعي على الديمقراطية، لا سيما مع اتهامات لتلك المنصات بـ«الإضرار بالعملية الانتخابية». ويأتي قرار المفوضية الذي أعلن في الأسبوع الماضي، تعبيراً عن «قلق» مسؤولين أوروبيين بشأن تعامل منصات التواصل مع المحتوى السياسي، ومخاوفهم من أن «تشكل تلك المنصات تهديداً للديمقراطية»، وبالأخص، مع اقتراب انتخابات البرلمان الأوروبي المقرر عقدها في الفترة من 6 إلى 9 يونيو (حزيران) المقبل، فوفق المفوضية يلفت مسؤولون أوروبيون إلى «مخاوف من نشر محتوى مضلل متعمد من جهات خارجية يتعارض مع نزاهة الانتخابات».

جدير بالذكر أن فيرا يوروفا، نائبة رئيسة المفوضية الأوروبية، كانت قد قالت خلال فعالية نُظمت في بروكسل الأسبوع الماضي، إنه «من أجل حماية العملية الانتخابية يجب التحقيق بشأن ظهور مثل هذه المعلومات المضللة لأسباب أمنية». وبالفعل، يجري راهناً تحقيق مع «ميتا» بموجب «قانون الخدمات الرقمية للاتحاد الأوروبي»، المسؤول عن تنظيم المحتوى عبر الإنترنت. ويطالب هذا القانون منصات التواصل بإدارة «مخاطر خدماتها التي قد تلحق الضرر بالعملية الانتخابية».

ومن جهة ثانية، أعلن تييري بريتون، مفوض السوق الداخلية بالاتحاد الأوروبي، في بيان صحافي الأسبوع الماضي، أن «منصات التواصل الاجتماعي عرضة للتلاعب والتدخل الأجنبي، ولا سيما في الفترة التي تسبق الانتخابات». وفي محاولة للحدّ من تأثير منصات التواصل على سير العملية الانتخابية، أصدرت المفوضية الأوروبية «مجموعة من المبادئ التوجيهية بشأن تعامل المنصات مع المعلومات المضللة». ووفق هذه المبادئ يتوجّب على منصات التواصل «إنشاء فرق داخلية لرصد المخاطر المحلية وتكييف جهودها بحيث تلائم الدول والانتخابات التي تجري فيها».

تعليقاً على هذا التطوّر، رأى رائف الغوري، اختصاصي تقنية المعلومات والمدرب الإعلامي السوري في دولة الإمارات العربية المتحدة، أن «شركات التكنولوجيا الكبرى تطوّع حالياً الخوارزميات وتعيد تشكيلها بهدف خدمة مصالحها بالدرجة الأولى، حتى وإن حاولت رسم صورة عن الشفافية والنزاهة والديمقراطية التي تتبعها». وأردف أن «منصات التواصل أصبحت تمتلك قوة تأثير كبيرة جداً على ملايين المستخدمين، ما يجعلها قادرة على إعادة تشكيل وعي وأسلوب تفكير شريحة عريضة من الجمهور». وهنا أشار إلى ما بات يعرف باسم «غُرف الصدى»، وشرح أنها «بيئات يصار فيها إلى تعزيز الرأي أو الميول السياسية أو اعتقاد المستخدمين حول موضوع معيّن بسبب التفاعلات المتكررة مع أقرانهم أو المصادر التي لها نفس الميول والمواقف».

الغوري أفاد أيضاً بأن «منصات التواصل الاجتماعي باتت تؤثر بشكل كبير على سير العملية الانتخابية بطرق عدة، لا سيما أنها أصبحت مصادر رئيسية للمعلومات للناخبين، ما يسمح للمرشحين بالتواصل مباشرة مع الناخبين، ويثير المخاوف حول انتشار المعلومات الخاطئة». وأضاف أن «منصات التواصل الاجتماعي تسمح بالإعلانات الموجّهة إلى جمهور بعينه، الأمر الذي يكثّف الحملات الانتخابية ويثير التساؤلات حول قضايا الشفافية... ثم إن تصميم خوارزميات منصات التواصل يستهدف الآن إظهار محتوى يتوافق مع اهتمامات المستخدمين، وهذا يساهم في الحراك المجتمعي والاستقطاب السياسي».

ولفت المدرب الإعلامي السوري إلى «محاولات وتعهدات سابقة من جانب منصات، مثل (غوغل) و(ميتا)، بمنع تدخل الذكاء الاصطناعي في الانتخابات ضمن اتفاق انتخابات الذكاء الاصطناعي الذي سبق تقديمه إلى مجلس الأمن في فبراير (شباط) الماضي».

وأوضح أنه «بموجب المبادئ التوجيهية للمفوضية الأوروبية بشأن الذكاء الاصطناعي التوليدي، سيتوجّب على منصات التواصل الاجتماعي الكبيرة، أي التي تضم أكثر من 45 مليون مستخدم شهرياً، استخدام علامات مائية لضمان أن المعلومات المتعلقة بالعمليات الانتخابية رسمية». ويذكر هنا أن قواعد تخفيف المخاطر الخاصة بـ«قانون الخدمات الرقمية للاتحاد الأوروبي» تطبق على الأنظمة الأساسية التي تضم أكثر من 45 مليون مستخدم شهرياً، ودخلت حيز التنفيذ في أغسطس (آب) 2023.

إلا أن رائف الغوري شدد كثيراً على الإجراءات التي أعلنت المنصات عنها لمكافحة التلاعب بالانتخابات؛ إذ يقول إن «هذه الإجراءات تواجه تحديات عدة، منها صعوبة التطبيق، بالإضافة إلى تركيزها على الأشكال العلنية للتلاعب، بينما تبقى الأشكال الأهم والأكثر تأثيراً مثل تحيّز الخوارزميات وغُرف الصدى، من دون معالجة».

ما يستحق الذكر، بالمناسبة، أن «قانون الخدمات الرقمية للاتحاد الأوروبي» يطالب بالحد من «التأثيرات السلبية» على الانتخابات غير أنه لا «يُلزم بإزالة المعلومات المضللة»؛ إذ إنه بموجب القانون «يتعيّن أن يكون لدى المنصات أنظمة جاهزة للمستخدمين للإبلاغ عن المحتوى غير القانوني».

من جانبه، أكد علي فرجاني، الباحث المصري والمحاضر في صحافة الذكاء الاصطناعي والفضاء السيبراني لـ«الشرق الأوسط»، أن «منصات التواصل باتت جزءاً لا يتجزأ من الحياة اليومية، وتلعب دوراً مهماً في مختلف المجالات، لا سيما في المجال السياسي... كما أن المنصات وفّرت أساليب جديدة للتواصل والتعبير عن الرأي، وفتحت آفاقاً واسعة للتواصل بين المرشحين والناخبين».

بيد أن فرجاني يلفت إلى «مخاوف جدية تحيط بتأثير السوشيال ميديا على الانتخابات»؛ إذ يحذّر من أن «هذه المنصات تُستخدم لنشر المعلومات المضللة والدعاية المُغرضة، ما قد يُؤثّر على نزاهة وسلامة العملية الانتخابية، من خلال استخدام التقنيات الحديثة مثل التزييف العميق والدعاية الحاسوبية التي تُوظَّف للأغراض السياسية»، لكنه في الوقت ذاته «يرهن حجم تأثير هذه المنصات بمدى استجابة الأنظمة السياسية لاتجاهات الرأي العام، ومدى انتشار وشعبية هذه المنصات في الدول المختلفة»، ويضيف أن «منصات التواصل تواجه صراعاً محتدماً للحد من استخدامها في مجال التلاعب السياسي والدعاية الانتخابية، خاصة ما يرتبط بالروبوتات والتلاعب بالخوارزميات، والأخبار المزيفة».

الباحث الإعلامي المصري يضع مسؤولية مواجهة تأثير منصات التواصل على عاتق الأفراد والمجتمعات والحكومات والمؤسسات. ويوضح أنه «لا بد من تنظيم عمل شركات التواصل الاجتماعي بهدف وضع سياسات واضحة لمنع انتشار المعلومات المضللة والدعاية على منصاتها، والاستثمار في تقنيات التحقق من المعلومات، والتعاون مع المنظمات المدنية والمؤسسات الأكاديمية، فضلاً عن نشر الوعي حول مخاطر المعلومات المضللة».

أيضاً يرى فرجاني أن «الإجراءات التي اتخذتها منصات التواصل في هذا الشأن غير جادة بالشكل الكافي؛ نظراً لاستمرار توظيف الخوارزميات لصالح جهات فاعلة تجمعها مصالح اقتصادية وسياسية مشتركة... وبالتالي، لا بد من تعديل الخوارزميات، و(فلترة) حائط التغذية الإخبارية، إلى جانب توقيع عقود شراكة مع مؤسسات مستقلة لتقصي الحقائق، وضخ استثمارات في مجال تعديل وكشف المحتوى البشري والآلي».


مقالات ذات صلة

الآلاف يتظاهرون في أوروبا دعماً لغزة بعد عام على اندلاع الحرب

أوروبا فلسطينيون يحملون أعلاماً ولافتات في سيدني بأستراليا خلال مظاهرة تطالب بوقف إطلاق النار في غزة (أ.ف.ب)

الآلاف يتظاهرون في أوروبا دعماً لغزة بعد عام على اندلاع الحرب

تظاهر آلاف الأشخاص دعما لغزة في أوروبا وجنوب أفريقيا ومئات في فنزويلا في الذكرى السنوية الأولى لبدء الحرب بين إسرائيل وحركة «حماس».

«الشرق الأوسط» (لندن)
أوروبا امرأة أفغانية تدفع عربة يد خارج مدينة مزار شريف (أ.ف.ب)

القضاء الأوروبي: كل النساء الأفغانيات يحق لهن طلب وضع لاجئ في دول الاتحاد

قضت محكمة العدل الأوروبية، الجمعة، بأن الجنسية والجنس «كافيان» لدولة عضو في الاتحاد الأوروبي لمنح حق اللجوء للنساء الأفغانيات بسبب «الإجراءات التمييزية».

«الشرق الأوسط» (فيينا)
أوروبا رئيس الوزراء المجري فيكتور أوربان يصل إلى قمة زعماء الاتحاد الأوروبي في بروكسل ببلجيكا 30 مايو 2022 (رويترز)

«المفوضية الأوروبية» تقاضي المجر بتهمة انتهاك الحقوق الأساسية للاتحاد

قررت «المفوضية الأوروبية»، اليوم (الخميس)، اتخاذ إجراءات قانونية ضد المجر على خلفية انتهاك الحقوق الأساسية للاتحاد الأوروبي.

«الشرق الأوسط» (بروكسل)
أوروبا مسؤول السياسة الخارجية في الاتحاد الأوروبي جوزيب بوريل (أ.ف.ب)

بوريل: يجب تجنُّب أي تدخل عسكري آخر في لبنان

قال مسؤول السياسة الخارجية بالاتحاد الأوروبي جوزيب بوريل، الاثنين، إنه من الضروري تجنُّب أي تدخلات عسكرية أخرى في لبنان.

«الشرق الأوسط» (بروكسل)
أوروبا مارين لوبن (رويترز)

بدء محاكمة مارين لوبن بتهمة اختلاس أموال أوروبية

بدأت محاكمة زعيمة حزب اليمين المتطرف في فرنسا مارين لوبن إلى جانب 24 عضوا في حزب التجمع الوطني، بتهمة استخدام أموال الاتحاد الأوروبي لتمويل رواتب موظفين.

«الشرق الأوسط» (باريس)

اعتماد «ميتا» على منشورات المُستخدمين لتدريب الذكاء الاصطناعي... يجدد مخاوف «الخصوصية»

اعتماد «ميتا» على منشورات المُستخدمين لتدريب الذكاء الاصطناعي... يجدد مخاوف «الخصوصية»
TT

اعتماد «ميتا» على منشورات المُستخدمين لتدريب الذكاء الاصطناعي... يجدد مخاوف «الخصوصية»

اعتماد «ميتا» على منشورات المُستخدمين لتدريب الذكاء الاصطناعي... يجدد مخاوف «الخصوصية»

أعلنت شركة «ميتا» عزمها البدء في تدريب نماذج الذكاء الاصطناعي الخاصة بها، معتمدة على بيانات مصدرها المنشورات العامة للمستخدمين على «فيسبوك» و«إنستغرام»، الأمر الذي عدّه بعض الخبراء يجدد المخاوف بشأن «الخصوصية»، ولا سيما أن الشركة كانت قد واجهت اعتراضات سابقة في ما يخص مشروعها لتغذية نماذج الذكاء الاصطناعي، ما أدى إلى توقفه في يونيو (حزيران) الماضي.

«ميتا» كانت قد أصدرت إفادة في سبتمبر (أيلول) الحالي، لتوضيح آلية استخدام المنشورات العامة للمستخدمين على «فيسبوك» و«إنستغرام» اللتين تملكهما. وقالت إنها «تشمل الصور والمنشورات والتعليقات فقط، بهدف تغذية نماذج الذكاء الاصطناعي التوليدي». وشددت الشركة على أن المحتوى المستخدم لن يشمل الرسائل الخاصة أو أي بيانات صنّفها المستخدم تحت عبارة خاص أو محمي، كما لن تشارك أي معلومات من حسابات المستخدمين الذين تقل أعمارهم عن 18 سنة.

حاتم الشولي، المشرف على تحرير الإعلام الرقمي في قناة «الشرق للأخبار» قال لـ«الشرق الأوسط» إنه يرى أن الخطوة تأتي في إطار سعي «ميتا» لتطوير تقنيات الذكاء الاصطناعي الخاصة بها. وأوضح أنها «خطوة في الاتجاه الصحيح؛ لكنها تصب في مصلحة (ميتا)، التي تسعى للبقاء منافساً قوياً في سوق التكنولوجيا المتقدمة». وأضاف: «(ميتا) هي الشركة الأضخم من حيث الاستحواذ على بيانات المستخدمين، وكانت منذ نشأتها الأكثر مرونة في التعاطي مع المتغيرات». وعدّ الشولي أن دخول الشركة في سوق الذكاء الاصطناعي أمر حتمي، موضحاً أن «(ميتا) تحمي نفسها من الشيخوخة، ولا سيما أن منصاتها التقليدية مثل (فيسبوك) بدأت تشهد تراجعاً في شعبيتها».

وعن تهديد مشروع «ميتا» لمبدأ الخصوصية، علّق الشولي بالقول إن «مسألة حماية البيانات قضية جدلية منذ ظهور منصات التواصل الاجتماعي، ولتحليل ما إذا كان مشروع (ميتا) يهدد الخصوصية أم لا، علينا أولاً التفريق بين نوعين من البيانات: الأول هي البيانات المحمية من قبل المستخدم، والثاني يخص البيانات المسموح بمشاركتها وفقاً لرغبة المستخدم أيضاً... وفي مشروع (ميتا) الذي نحن بصدده، أقرّت الشركة بأنها تعتمد على البيانات المعلنة فقط التي يوافق المستخدمون على مشاركتها، مثل العمر، النوع، الموقع الجغرافي، الاهتمامات».

مع هذا، أثار الشولي الحديث عن «أخلاقيات الذكاء الاصطناعي»، أو النماذج التي تعتمد عليها شركات التكنولوجيا المهيمنة على السوق لتدريب الذكاء الاصطناعي، وقال: «تنظيم أخلاقيات الذكاء الاصطناعي بات أكثر إلحاحاً من أكثر وقت مضى، وبالفعل اتجهت بعض الدول مثل الصين والولايات المتحدة ودول أوروبا في تشريع قوانين لحماية خصوصية المستخدمين». وشدّد «على أهمية وضع معايير واضحة ومهنية تنظم آلية استخدام البيانات لتدريب نماذج الذكاء الاصطناعي، ووجوب الإشارة إلى أن المحتويات المصنوعة بالذكاء الاصطناعي اعتمدت على مصادر معينة، وذلك من شأنه تحقيق الشفافية، ما يُجنب وقوع أي عمليات تضليل».

للعلم، يأتي مشروع «ميتا» الجديد بعدما كانت قد أعلنت تأجيل إطلاق نماذج الذكاء الاصطناعي في أوروبا، منتصف يونيو (حزيران) الماضي، على خلفية بعض العقبات، من بينها طلب هيئة حماية الخصوصية الآيرلندية تأجيل خطة «ميتا» لاستخدام البيانات من منشورات وسائل التواصل الاجتماعي. ويومذاك أعلنت الشركة أن التوقف أيضاً سيسمح لها بتلبية طلبات «مكتب مفوضية المعلومات البريطاني» (ICO) في ما يخصّ التعليمات التنظيمية لاستخدام البيانات.

ثم إن «ميتا» واجهت في يونيو الماضي انتقادات عدة من قبل «المركز الأوروبي للحقوق الرقمية» (NOYB)، وهي منظمة غير ربحية، مقرّها في فيينا، دعت الهيئات الوطنية لحماية الخصوصية في جميع أنحاء أوروبا، وإلى وقف استخدام محتوى وسائل التواصل الاجتماعي لهذا الغرض. وبرّرت موقفها بالقول إن «الإشعارات التي تقدمها (ميتا) غير كافية لتلبية قواعد الاتحاد الأوروبي الصارمة المتعلقة بالخصوصية والشفافية»، وفقاً لما نقلته وكالة أنباء «رويترز».

من جهة ثانية، قال فادي رمزي، مستشار الإعلام الرقمي المصري والمحاضر في الجامعة الأميركية بالقاهرة، لـ«الشرق الأوسط»، إن تاريخ شركة «ميتا» المالكة لمنصتي «فيسبوك» و«إنستغرام» مليء بالثغرات في ما يخص حماية البيانات. وأضاف: «من قبل نماذج الذكاء الاصطناعي، وشركة ميتا تتعامل مع أي محتوى ينشره المستخدمون بشكل علني، باعتباره متاحاً للاستخدام بدليل البيانات التي تُوفَّر للمعلنين»، وتابع: «(ميتا) تقاعست عن تعزيز الشفافية على مدار السنوات الماضية، ما يعقد الوثوق فيها الآن... لقد واجهت (ميتا) مشاكل متكررة في التعامل مع بيانات المستخدمين، وسبق أن واجهت فضائح متعلقة بتسريب البيانات، مثل قضية كمبريدج أناليتيكا». وتعود قضية «كمبريدج أناليتيكا»، ومقرها لندن، إلى عام 2018 حين كُشف عن أن الشركة جمعت البيانات الشخصية لملايين الأشخاص مستخدمة حساباتهم على «فيسبوك»، وجرى استخدام هذه البيانات لأغراض الدعاية السياسية، ما اضطر «فيسبوك» لاحقاً لدفع 725 مليون دولار في إطار تسوية لدعوى قضائية جماعية تخص تلك القضية.

ووفق رمزي، فإن «حماية الخصوصية معضلة لن تحلها شركات التكنولوجيا، لا (ميتا) ولا غيرها... فحماية الخصوصية ميزة تتنافى مع مصالح شركات التكنولوجيا، ولا سيما ونحن أمام نماذج تتنافس في مجال الذكاء الاصطناعي التوليدي». وفي ما يخص مشروع «ميتا» الجديد، قال رمزي إن «النموذج الذي قدّمته الشركة لا يشير إلى أي إلزام بإبلاغ المستخدمين حول استخدام بياناتهم، وهو أمر يعود إلى غياب التشريعات في هذا الصدد». ورهن التزام الشركة بالمصداقية والأخلاقيات المهنية فيما يخص بيانات المستخدمين أو حقوق الناشرين، كذلك بالتشريعات الملزمة.