هل تحد منصات التواصل من «تلاعب» الذكاء الاصطناعي خلال الانتخابات؟

ترند

شعار «ميتا» (أ.ب)
شعار «ميتا» (أ.ب)
TT

هل تحد منصات التواصل من «تلاعب» الذكاء الاصطناعي خلال الانتخابات؟

شعار «ميتا» (أ.ب)
شعار «ميتا» (أ.ب)

أثار إعلان منصات التكنولوجيا الكبرى عزمها اتخاذ «تدابير» للحد مما اعتبرته «تلاعب الذكاء الاصطناعي خلال الانتخابات»، تساؤلات حول جدية القرار وتأثيراته، ففي حين عدّ بعض الخبراء الاتجاه «جيداً»، رأى آخرون أنه «غير ملزم»، ولا سيما وسط استعداد أكثر من نصف سكان العالم للتصويت في الانتخابات التي ستشهدها عدة دول، وعلى رأسها الولايات المتحدة.

وقّعت 12 شركة تشارك في تطوير تقنيات الذكاء الاصطناعي، في 16 فبراير (شباط) الماضي، خلال مؤتمر ميونيخ للأمن، اتفاقاً للعمل معاً لاكتشاف ومكافحة محتوى الذكاء الاصطناعي الضار في الانتخابات، ولا سيما المحتوى المُصمم بتقنية التزييف العميق للمرشحين السياسيين، التي تخدع الناخبين بشكل متعمد.

وشملت الشركات الموقعة؛ «أوبن إيه آي»، «غوغل»، «ميتا»، «مايكروسوفت»، «تيك توك»، «أدوبي» وغيرها، وفق ما أوردت وكالة «أسوشيتد برس» الأميركية. وتعهدت كبريات شركات التكنولوجيا، التي تمتلك منصات التواصل الاجتماعي ومحركات البحث، وفقاً للاتفاقية، بـ«التصدي لنشر (المعلومات المضللة) المولدة باستخدام تقنيات الذكاء الاصطناعي فيما يخص أي انتخابات سياسية على مستوى العالم»، وتضمنت الاتفاقية اعترافاً من الشركات الموقعة بأن «الذكاء الاصطناعي يمكن أن يسبب الارتباك والفوضى للناخبين».

شعار «غوغل» على مدخل بنايتها في مدينة نيويورك الأميركية (أ.ب)

وتضمنت الاتفاقية، التي تسمى «الاتفاق الفني لمكافحة الاستخدام الخادع للذكاء الاصطناعي في انتخابات 2024»، التزامات «طوعية» بالتعاون للكشف عن «المحتوى المضلل» الناتج عن الذكاء الاصطناعي وتمييزه للمستخدم، كما دعت الاتفاقية الشركات إلى التحلي بالشفافية مع الجمهور بشأن الجهود المبذولة لمعالجة محتوى الذكاء الاصطناعي الذي قد يكون ضاراً.

الصحافية اللبنانية، هيفاء البنا، مدربة في الإعلام ومواقع التواصل، مديرة تسويق رقمي، قالت لـ«الشرق الأوسط» إن «هذه الشركات لديها الإمكانات لدرء أضرار الذكاء الاصطناعي ووضع الأطر التنظيمية منذ البداية، وبالفعل اتجهت بعض المنصات الإخبارية العملاقة لتزويد نظامها بأدوات الكشف عن المحتوى المضلل». وعدّت هيفاء أن «الاتفاقية هي بمثابة اعتراف بانحرافات الذكاء الاصطناعي، فهي آلة لا تحتكم للأخلاقيات البشرية، ومن ثم نحن أمام فرصة لوضع الأطر التنظيمية التي تفادي العالم لاحقاً تبعات مثيرة للقلق بشأن تحكم الذكاء الاصطناعي في المستقبل والتلاعب السياسي».

وكان رجل الأعمال الأميركي، إيلون ماسك، مالك «إكس»، قد وجّه اتهامات بـ«العنصرية لشركة (غوغل)»، تعقيباً على نشر صور لجنود نازيين وكأنهم كانوا من ذوات البشرة الداكنة، الأسبوع الماضي، ما اعتبره ماسك «تلاعباً بالتاريخ» و«سقطة عنصرية». من جانبها، كشفت «غوغل» عن أن الصور تم توليدها بنظام الذكاء الاصطناعي الخاص بالشركة «جيميني»، وعليه خرجت الشركة وأعلنت أنها «ستتوقف مؤقتاً عن استخدام البرنامج الخاص بتوليد الصور حتى تتمكن من تصحيح التنوع».

وتشير هيفاء إلى أن «أدوات الذكاء الاصطناعي قائمة على التغذية بالمعلومات التي قد تكون عرضة للخطأ بشكل كبير، ومن ثم أمام الشركات العملاقة وقت وتجارب قبل أن تطلق مشروعاتها للذكاء الاصطناعي حتى تضمن تحقيق أسس أخلاقية مثل الدقة والمصداقية، وهذا الأمر شديد الحساسية في أوقات الانتخابات والقرارات السياسية»، لافتة إلى أن «(غوغل) تحديداً أطلقت مشروع (جيميني) مسرعة للحاق بالركب، فكانت تستهدف منافسة (تشات جي بي تي)، غير أنها لم تكن جاهزة بعد».

فيما ثمّنت هيفاء الاتفاقية المبرمة بين شركات التكنولوجيا، ولفتت أيضاً إلى أن الاتفاق غير ملزم للمنصات و«لا يفرض إزالة المنشور إذا ثبت أنه مصنوع بأدوات الذكاء الاصطناعي ويشوبه التضليل»، قائلة: «لم نصل إلى إلزام المنصات بحذف المنشورات المزيفة وهو محبط، لكن مجرد الإشارة لأنه محتوى موّلد بالذكاء الاصطناعي من شأنه تنبيه المستخدم للتأكد من صحة المعلومات».

وتبنت هيفاء منظور «غير متفائل» لمستقبل أدوات الذكاء الاصطناعي، وخاصة على منصات التواصل الاجتماعي، وقالت إن «استبدال البشر بالآلة له تبعات تثير القلق بشأن التحليل والأخلاقيات، صحيح أن أدوات الذكاء الاصطناعي توفر السرعة، لكن إذا أصبحت المعلومة تصدر وتنتشر دون تدخل بشري يحتكم إلى الأخلاقيات، فإن كثيراً من التلاعب والتضليل في انتظارنا».

ويأتي الإعلان عن الاتفاقية بعد أن كشفت «أوبن إيه آي» في فبراير الماضي، عن أداة جديدة تحاكي الواقع على نحو مذهل من خلال تحويل النص إلى فيديو، تعمل بالذكاء الاصطناعي، وتسمى «Sora»، ليشدد الخبراء على «أهمية الإجراءات التنظيمية لمشروعات الذكاء الاصطناعي في الوقت الراهن، خصوصاً مع تسارع ظهور مجموعة متنامية من أدوات الذكاء الاصطناعي لها القدرة على توليد نصوص وصور واقعية مُقنعة بسرعة وسهولة»، وأشاروا إلى خطورة توليد مقاطع الصوت والفيديو التي يمكن استخدامها لنشر معلومات كاذبة لتضليل الناخبين.

وقالت كبيرة المستشارين ومديرة العدالة الرقمية والحقوق المدنية في منظمة «فري برس لمراقبة التكنولوجيا والإعلام»، نورا بينافيديز، في وقت سابق، إن «الوعود الطوعية التي نصت عليها الاتفاقية ليست مجدية بالشكل الكافي لمواجهة التحديات العالمية التي تهدد الديمقراطية». وأشارت بحسب ما أوردت «سي إن إن» الأميركية، إلى أنه «في كل دورة انتخابية، تتعهد شركات التكنولوجيا بمجموعة غامضة من المعايير الديمقراطية، ثم تفشل في الوفاء بهذه الوعود بشكل كامل». ورهنت معالجة الأضرار الحقيقية التي يشكلها الذكاء الاصطناعي في عام انتخابي مزدحم، بـ«ضرورة تحقيق إشراف قوي على المحتوى يتضمن المراجعة البشرية ووضع العلامات والتنفيذ».

من جانبه، يرى الصحافي والمدرب المصري المتخصص في الإعلام الرقمي، خالد البرماوي، أن «الذكاء الاصطناعي لديه القدرة على (التزييف باحترافية)، ويصعب على المستخدم العادي اكتشافه، مثلاً تقنية (التزييف العميق) باتت أكثر يسراً من السابق، حتى غدا بإمكان أي شخص (فبركة) حدث بالكامل، ومن ثم ترك المجال لهذه الأدوات من شأنه إحداث فوضى سياسية».

وعدّ خالد توقيت الاتفاقية «هاماً للغاية»، غير أن وصفها بـ«الطوعية أمر يتطلب مزيداً من الصرامة»، وقال لـ«الشرق الأوسط»: «ألزمت قمة ميونيخ للأمن منصات التواصل الاجتماعي بأن تتحمل مسؤوليتها وأن تخضع للمراقبة، لكن لن تأتي هذه الخطوة بثمارها إلا إذا شارك المجتمع الدولي بجدية في خروج الأطر التنظيمية المقننة لاستخدام التكنولوجيا، ولا سيما أن المنصات ربما تجيد التقنيات، غير أنها ليست بالضرورة مؤهلة لإدارتها».

ولفت خالد إلى أن «شبكات التواصل الاجتماعي ليست ناضجة بما يكفي لتدخل لاعباً في المجتمع السياسي»، موضحاً: «بينما تحتضن منصات التواصل منظومة المعلومات في العالم، فإنها ليس على هذا القدر من المسؤولية، والاتفاقية التي أبرمت غير كافية، ولا سيما أن هذه الشركات تخضع للقانون الأميركي الذي يتعامل معها باعتبارها شركات اتصالات». وحسب المادة 230 من قانون الاتصالات الأميركي، «لا تُحاسب الشركات حال أي مخالفة وقعت على شبكاتهم، وهو المعمول به في منصات التواصل أيضاً». وطالب خالد بضرورة تغيير هذه المادة التي تعيق محاسبة منصات التواصل الاجتماعي، وقال إن «العالم يواجه خطر (المعلومات المضللة)، ومع تعقد المشهد السياسي العالمي بات الأمر أكثر خطورة، ومن ثم لا مجال للطوعية، بينما حان الوقت لقوانين مُلزمة».


مقالات ذات صلة

جدل «الإخوان» في الأردن يعود من بوابة البرلمان

المشرق العربي الجلسة الافتتاحية لأعمال الدورة الجديدة للبرلمان الأردني (رويترز)

جدل «الإخوان» في الأردن يعود من بوابة البرلمان

مع بدء الدورة العشرين لمجلس النواب الأردني، الذي انتخب في العاشر من سبتمبر (أيلول) الماضي، بدأ الشحن الداخلي في معادلة الصراع بين السلطتين التنفيذية والتشريعية.

محمد خير الرواشدة (عمّان)
شمال افريقيا ممثلو دول أوروبية داخل مركز العدّ والإحصاء التابع لمفوضية الانتخابات الليبية (المفوضية)

ليبيا: إجراء الانتخابات المحلية ينعش الآمال بعقد «الرئاسية» المؤجلة

قال محمد المنفي رئيس «المجلس الرئاسي» إن إجراء الانتخابات المحلية «مؤشر على قدرة الشعب على الوصول لدولة مستقرة عبر الاستفتاءات والانتخابات العامة».

جمال جوهر (القاهرة)
الولايات المتحدة​ الملياردير إيلون ماسك (رويترز)

هل يمكن أن يصبح إيلون ماسك رئيساً للولايات المتحدة في المستقبل؟

مع دخوله عالم السياسة، تساءل كثيرون عن طموح الملياردير إيلون ماسك وما إذا كان باستطاعته أن يصبح رئيساً للولايات المتحدة في المستقبل.

«الشرق الأوسط» (واشنطن)
أوروبا وزير الداخلية جيرالد دارمانان (اليمين) متحدثاً إلى الرئيس الفرنسي الأسبق نيكولا ساركوزي (رويترز)

زلزال سياسي - قضائي في فرنسا يهدد بإخراج مرشحة اليمين المتطرف من السباق الرئاسي

زلزال سياسي - قضائي في فرنسا يهدد بإخراج مرشحة اليمين المتطرف من السباق الرئاسي، إلا أن البديل جاهز بشخص رئيس «حزب التجمع الوطني» جوردان بارديلا.

ميشال أبونجم (باريس)
أوروبا جلسة برلمانية في «البوندستاغ»... (إ.ب.أ)

أكثر من 100 برلماني يتقدمون باقتراح لحظر حزب «البديل من أجل ألمانيا»

تقدم أكثر من 100 نائب ألماني باقتراح لرئيسة البرلمان لمناقشة حظر حزب «البديل من أجل ألمانيا» اليميني المتطرف.

راغدة بهنام (برلين)

تمديد «ميتا» لقيود الإعلانات... هل يحُدّ من «المعلومات المضلّلة»؟

تمديد «ميتا» لقيود الإعلانات... هل يحُدّ من «المعلومات المضلّلة»؟
TT

تمديد «ميتا» لقيود الإعلانات... هل يحُدّ من «المعلومات المضلّلة»؟

تمديد «ميتا» لقيود الإعلانات... هل يحُدّ من «المعلومات المضلّلة»؟

أثار إعلان شركة «ميتا» تمديد فترة تقييد الإعلانات المتعلقة بالقضايا الاجتماعية أو السياسية لما بعد انتخابات الرئاسة الأميركية، من دون أن تحدّد الشركة وقتاً لنهاية هذا التمديد، تساؤلات حول مدى فاعلية القرار في الحدّ من انتشار «المعلومات المضلّلة»، يأتي ذلك بالتزامن مع رصد تجاوزات مرّرَتها المنصة الأشهَر «فيسبوك» خلال الفترة السابقة برغم تقييد الإعلانات.

ما يُذكر أن «فيسبوك» أعانت بنهاية أكتوبر (تشرين الأول) الماضي «حظر أي إعلان يحمل رسائل توجيه سياسي أو اجتماعي من شأنه التأثير في سير الانتخابات الرئاسية الأميركية»، غير أن مراقبين قاموا برصد تجاوزات على المنصة وصفوها بـ«التضليل»، وقالوا إن «فلاتر» المحتوى على «ميتا» – التي تملك «فيسبوك» – «غير متمرّسة» بما يكفي لتمييز المحتوى الذي ينتهك إرشادات المصداقية، ما يثير شكوكاً بشأن جدوى قرار الشركة تقييد الإعلانات.

الدكتور حسن مصطفى، أستاذ التسويق الرقمي والذكاء الاصطناعي في عدد من الجامعات الإماراتية، عدّ قرار «ميتا» الأخير «محاولةً لتجاوز المخاوف المتزايدة حول استغلال الإعلانات في التأثير على الرأي العام»، وقال لـ«الشرق الأوسط» إن «ميتا تخشى اتهامها بنشر المعلومات غير الموثوقة بشكل واسع إبان الفترات الانتخابية وما بعدها، لا سيما وأنه سبق اتهام الشركة من قبل بوجود محتوى يؤثر على الرأي العام خلال فترات انتخابية سابقة».

وعن دور «ميتا» في الحدّ من «المعلومات المضللة»، أوضح مصطفى أنه «لا تزال المعلومات المضلّلة تحدياً قائماً برغم ما اتخذته (ميتا) من إجراءات لمكافحتها، والتقليل من انتشار الأخبار الكاذبة»، وقال عن دور الشركة في هذا الصدد: «لقد عزّزَت (ميتا) التعاون مع جهات خارجية للتحقّق من صحة الأخبار، فباتت تعتمد على منظمة (فاكت تشيك/ FactCheck)، وشبكات من المؤسسات المستقلة؛ للتحقّق من الأخبار المتداوَلة عبر المنصة».

واستشهد الدكتور مصطفى ببعض التقارير الصادرة عن منظمة «هيومن رايتس ووتش»، التي أظهرت إحراز «ميتا» تقدماً في مجال الحد من «خطاب الكراهية»؛ «إذ تمكّنت خوارزميات الشركة من التعرّف على بعض الأنماط المتكرّرة للمحتوى المسيء، وحذفه تلقائياً قبل أن ينتشر»، غير أنه مع ذلك عدّ إجراءات «ميتا» غير كافية، مشيراً إلى أن «خوارزميات الذكاء الاصطناعي ما زالت محدودة القدرة على معالجة المحتوى بلغات ولهجات متنوعة، أو فهم السياقات الثقافية المعقّدة، ما يجعل من الصعوبة بمكان وضع حدود واضحة أمام تحقيق نجاح كامل في تقليص خطاب الكراهية».

هذا، وكانت المنظمة الدولية «غلوبال ويتنس» قد أعدّت تقريراً حول ما إذا كانت منصات التواصل الاجتماعي قادرةً على اكتشاف وإزالة «المعلومات المضلّلة الضارّة»، لا سيما المتعلقة بانتخابات الرئاسة الأميركية، وأشارت في نتائجها عقب الانتخابات الأميركية إلى أن أداء «فيسبوك» كان أفضل مقارنةً بمنصة مثل «تيك توك»، لكن التقرير لم ينفِ التورّط في نشر «معلومات مضلّلة» برغم القيود، كذلك ذكر التقرير أن «فيسبوك» وافَق على واحد من بين 8 إعلانات اختبرت بها المنظمة قيود المنصة للحَدّ من «المعلومات المضلّلة»، ما رأته المنظمة «تحسّناً ملحوظاً مقارنةً بأداء المنصة السابق مع أنه لا يزال غير كافٍ».

من ناحية أخرى أشار تقرير صادر عن منظمات المجتمع المدني «إيكو» و«المراقبة المدنية الهندية الدولية»، إلى أن «ميتا» سمحت بظهور إعلانات تحتوي على عبارات تحريضية ضد الأقليات على منصّتها خلال فترة الانتخابات الأميركية، كما أشارت إلى رصد «محتوى زائف» مصنوع بأدوات الذكاء الاصطناعي.

وحول هذا الأمر، علّق خالد عبد الراضي، الخبير في إدارة وتحليل بيانات «السوشيال ميديا» بمصر والمملكة العربية السعودية، لـ«الشرق الأوسط»، على قرار «ميتا» بالقول إننا بصدد محاولات عدّها «غير جادة»، ودلّل على ذلك بأن «(ميتا) قيّدت الإعلانات قبل الانتخابات الأميركية بأسبوع واحد فقط، وهذه مدة غير كافية إذا كانت المنصة بالفعل جادّة في الحدّ من التضليل والتأثير على الرأي العام، مثلاً (إكس) كانت أكثر جدّية من خلال تقييد أي منشور موجّه قبل الانتخابات بشهر»، مشيراً إلى أنه «بالتبعية شاهدنا على منصة (فيسبوك) محتوى مضلّلاً وزائفاً طُوّر بالذكاء الاصطناعي».

وأوضح عبد الراضي أن «(ميتا) لم تفرض قيوداً على الإعلانات بشكل عام، بل على نوع واحد فقط هو الإعلانات السياسية المدفوعة، ومن ثم تركت المجال أمام التضليل والتأثير على الرأي العام»، ودلّل كذلك على قلة جدّية الشركة بقوله: «بعد الانتخابات الأميركية في 2020 واجهت (ميتا) عدة اتهامات بتوجيه الرأي العام، ما دفع الشركة لاتخاذ إجراءات جادّة، من بينها توظيف (فِرق سلامة) معنية بمراجعة النصوص؛ للتأكد من ملاءمتها مع معايير المنصة، غير أن عمل هذه الفِرق أُنهِي لاحقاً، ما يشير إلى أن ادّعاءات المنصة لم تكن جدّية».