كيف يؤثر القرار الأوروبي بـ«حوكمة» الذكاء الاصطناعي على الإعلام؟

حوكمة الذكاء الاصطناعي يعود إلى الواجهة (أ ب)
حوكمة الذكاء الاصطناعي يعود إلى الواجهة (أ ب)
TT

كيف يؤثر القرار الأوروبي بـ«حوكمة» الذكاء الاصطناعي على الإعلام؟

حوكمة الذكاء الاصطناعي يعود إلى الواجهة (أ ب)
حوكمة الذكاء الاصطناعي يعود إلى الواجهة (أ ب)

عاد الحديث بشأن «حوكمة» الذكاء الاصطناعي إلى الواجهة من جديد، مع توصل الاتحاد الأوروبي لاتفاق بشأن تنظيم التكنولوجيا وُصف بأنه خطوة غير مسبوقة. وبينما تستهدف تلك الخطوة «ضمان أمان السوق الأوروبية»، فإنها تثير تساؤلات بشأن تأثيرها على الإعلام، لا سيما مع اتخاذ إجراءات مماثلة لتنظيم مواقع التواصل الاجتماعي. وأشاد بعض الخبراء بالقواعد التي وضعها الاتحاد الأوروبي، عادّين أنها ستكون نموذجاً يعاد اعتماده في دول أخرى. في المقابل، وبينما أشار بعض الخبراء إلى تأثير الذكاء الاصطناعي على الإعلام، فإنهم يشددون على أنه لن يكون بديلاً للصحافي.

للعلم، كان الاتحاد الأوروبي قد اتفق أخيراً، على ما عُد «أول تشريع شامل لحوكمة الذكاء الاصطناعي بعد مفاوضات ماراثونية لمدة 37 ساعة بين البرلمان الأوروبي ودول الاتحاد»، حسب صحيفة «الغارديان» البريطانية. وهذه الخطوة وصفها مفوض الاتحاد الأوروبي، تييري بريتون، بـ«التاريخية غير المسبوقة». وقال إنها «ستسهم أيضاً في حوكمة مواقع التواصل الاجتماعي ومحركات البحث الرئيسية مثل (غوغل)». ويهدف الاتحاد الأوروبي من الاتفاق الجديد إلى «ضمان أمن السوق الأوروبية»، جنباً إلى جنب مع «تحفيز الاستثمار والابتكار في تطوير وتسهيل أدوات التعامل مع الذكاء الاصطناعي».

ويتضمن الاتفاق قواعد للتعامل مع نماذج الذكاء الاصطناعي التي قد تشكل خطراً مستقبلياً. كما يشمل نظاماً لـ«الحوكمة» مع بعض الصلاحيات التنفيذية على مستوى الدول الأعضاء بالاتحاد الأوروبي، إضافة إلى تعزيز حماية حقوق المستخدمين. حقاً تضع هذه الاتفاقية الاتحاد الأوروبي في مقدمة سباق «حوكمة» الذكاء الاصطناعي وحماية الجمهور من مخاطر الاستخدام، التي تشمل تهديداً محتملاً للحياة في بعض الأحيان. وبذا تصبح أوروبا متقدمة على الولايات المتحدة والصين وبريطانيا في السباق لتنظيم الذكاء الاصطناعي في هذا المجال. ومن المقرر أن تدخل الاتفاقية حيز التنفيذ عام 2025.

هذا، وبينما أكد مسؤولون أوروبيون دعم فرنسا وألمانيا لنص الاتفاقية، فإن تقارير أخرى أشارت إلى أن شركات التكنولوجيا في باريس وبرلين تسعى للحصول على قيود أقل حدة لتعزيز الابتكار، لا سيما في الشركات الصغيرة. وهنا أشار نائب رئيس جامعة شرق لندن بالعاصمة البريطانية، الدكتور حسن عبد الله، إلى أن «البرلمان الأوروبي استغرق ما يزيد على 36 ساعة في مفاوضات إعداد لوائح جديدة فريدة من نوعها من شأنها أن تضع ضوابط للشركات والتطبيقات في مجالات الذكاء الاصطناعي». وتابع في لقاء مع «الشرق الأوسط» أن «هذه القوانين تأتي بعدما أعلنت الصين في أغسطس (آب) الماضي عدة قوانين بخصوص جين (أيه آي)»، لافتاً إلى أن قوانين المجموعة الأوروبية أقوى في نوعها وأهدافها وكذلك في توفير سبل الحماية.

عبد الله أوضح أن قوانين المجموعة الأوروبية «تركز على التحكم في التطور السريع لجميع تطبيقات وشركات الذكاء الاصطناعي (أوبن أيه آي) و(تشات جي بي تي) وغيرها». وعدّد أسباب «حوكمة» الذكاء الاصطناعي كما تعرضها الاتفاقية، في أنه «بينما أنظمة الذكاء الاصطناعي تصبح أكثر قوة، فإن هناك مخاطر من استخدامها بشكل يهدد الأمن، إضافة إلى أن هناك مخاطر حالية تهدد الإنسانية والمجتمع وقد تدفع لخداع البشرية».

سبب آخر، يطرحه عبد الله، هو «محاولة منع استخدام أنظمة الذكاء الاصطناعي لتحديد بيانات حساسة تتعلق بالعرق وانتهاك حقوق الأطفال... والحذف العشوائي للوجوه من الإنترنت، وهو ما يمثل مشكلة رئيسية تتعلق بحماية البيانات في القانون العام لحماية البيانات في أوروبا». ويضيف أن «الاتحاد الأوروبي سيعمل على تفعيل تلك التشريعات والعمل لحماية حقوق الملكية الفكرية، وحماية الشركات الكبرى العاملة في تطوير تلك البرمجيات»، مؤكداً أنه «تزامناً مع الاتفاق، فإن المجموعة الأوروبية تعمل على تشجيع وتحفيز التطوير البنّاء في مجالات تخدم البشرية مثل زيادة كفاءة الإنتاج، ونمو الاقتصاد، والاكتشافات الحديثة في البحث العلمي، والصناعة والأدوية والصحة، والابتكار في التعليم؛ إذ يجري تمويل مشاريع بحثية في هذا المجال من خلال (يوروب هورايزون EuropeHorizon) بميزانية تتجاوز 95.5 مليار يورو، وهو من أكبر البرامج في العالم للتمويل البحثي».

ومن ثم، يتابع عبد الله، مشدداً على «أهمية تطبيقات الذكاء الاصطناعي في مجالات عدة»، عادّاً أن «وضع تشريعات لحوكمتها في أوروبا سيكون بمثابة نموذج يعاد نسخه واعتماده في دول أخرى في العالم... وعليه هناك ضرورة للتعاون في تطبيق تلك الضوابط وتعميمها في كافة مجالات التكنولوجيا؛ لما لها من آثار على البشرية». بموجب الاتفاقية يتوجب على مطوّري أنظمة الذكاء الاصطناعي للأغراض العامة تلبية متطلبات الشفافية الأساسية، حسب وثيقة أصدرها الاتحاد الأوروبي ونشرتها «بلومبرغ»، في حين يُخضع الاتحاد الأوروبي النماذج التي تشكل «خطراً نظامياً» لقواعد إضافية.

من جهتها، في حوار مع «الشرق الأوسط»، رأت ليلى دومة، الباحثة الجزائرية في علوم الإعلام والاتصال، الاتفاقية بمثابة «خطوة فذة» في تاريخ الذكاء الاصطناعي. وتابعت أن «تلك الخطوة تتطلب إعادة النظر في خوارزميات وقواعد البيانات العملاقة الموجودة في قلب هذه الأنظمة بكل شفافية ودون تلاعب». وأوضحت دومة أنه «على الرغم من الحماية التي توفرها التشريعات القانونية، فإنها تبقى دوماً غير كافية لمعالجة التحديات التي تفرضها هذه الأنظمة التكنولوجية».

بشأن تأثير الاتفاقية على الإعلام، قالت الباحثة الجزائرية: «هناك الكثير من الجدل بشأن تأثير الذكاء الاصطناعي على الإعلام، لا سيما مهنة الصحافي، لكن الحل يكمن في مصداقية ومتانة تلك المهنة؛ ذلك أن مهنة الصحافي ستبقى الأصل ولن يستطيع الذكاء الاصطناعي أن يفسر الإحساس والصمت والدموع أو البحث عن العاطفة في ثنايا الحديث الصحافي، كما لن يكون بمقدوره أن يأخذ بعين الاعتبار السياق الثقافي والإنساني للأحداث». وحقاً ترى دومة أن «الذكاء الاصطناعي سيبقى داعماً ومطوراً لمهنة الصحافة، لكنه لن يلغي الصحافي الإنسان».

ويبقى أن الكلام عن «حوكمة» الذكاء الاصطناعي ليس وليد اللحظة؛ ففي مارس (آذار) الماضي، طالب أكثر من ألف عالم متخصص في التكنولوجيا بـ«هدنة صيفية لمدة 6 أشهر، تستهدف الاتفاق على قواعد حوكمة الرقمية». وإثر ذلك بدأ عدد من المشرّعين الأوروبيين العمل على تشريعات جديدة في هذا الصدد.



تمديد «ميتا» لقيود الإعلانات... هل يحُدّ من «المعلومات المضلّلة»؟

تمديد «ميتا» لقيود الإعلانات... هل يحُدّ من «المعلومات المضلّلة»؟
TT

تمديد «ميتا» لقيود الإعلانات... هل يحُدّ من «المعلومات المضلّلة»؟

تمديد «ميتا» لقيود الإعلانات... هل يحُدّ من «المعلومات المضلّلة»؟

أثار إعلان شركة «ميتا» تمديد فترة تقييد الإعلانات المتعلقة بالقضايا الاجتماعية أو السياسية لما بعد انتخابات الرئاسة الأميركية، من دون أن تحدّد الشركة وقتاً لنهاية هذا التمديد، تساؤلات حول مدى فاعلية القرار في الحدّ من انتشار «المعلومات المضلّلة»، يأتي ذلك بالتزامن مع رصد تجاوزات مرّرَتها المنصة الأشهَر «فيسبوك» خلال الفترة السابقة برغم تقييد الإعلانات.

ما يُذكر أن «فيسبوك» أعانت بنهاية أكتوبر (تشرين الأول) الماضي «حظر أي إعلان يحمل رسائل توجيه سياسي أو اجتماعي من شأنه التأثير في سير الانتخابات الرئاسية الأميركية»، غير أن مراقبين قاموا برصد تجاوزات على المنصة وصفوها بـ«التضليل»، وقالوا إن «فلاتر» المحتوى على «ميتا» – التي تملك «فيسبوك» – «غير متمرّسة» بما يكفي لتمييز المحتوى الذي ينتهك إرشادات المصداقية، ما يثير شكوكاً بشأن جدوى قرار الشركة تقييد الإعلانات.

الدكتور حسن مصطفى، أستاذ التسويق الرقمي والذكاء الاصطناعي في عدد من الجامعات الإماراتية، عدّ قرار «ميتا» الأخير «محاولةً لتجاوز المخاوف المتزايدة حول استغلال الإعلانات في التأثير على الرأي العام»، وقال لـ«الشرق الأوسط» إن «ميتا تخشى اتهامها بنشر المعلومات غير الموثوقة بشكل واسع إبان الفترات الانتخابية وما بعدها، لا سيما وأنه سبق اتهام الشركة من قبل بوجود محتوى يؤثر على الرأي العام خلال فترات انتخابية سابقة».

وعن دور «ميتا» في الحدّ من «المعلومات المضللة»، أوضح مصطفى أنه «لا تزال المعلومات المضلّلة تحدياً قائماً برغم ما اتخذته (ميتا) من إجراءات لمكافحتها، والتقليل من انتشار الأخبار الكاذبة»، وقال عن دور الشركة في هذا الصدد: «لقد عزّزَت (ميتا) التعاون مع جهات خارجية للتحقّق من صحة الأخبار، فباتت تعتمد على منظمة (فاكت تشيك/ FactCheck)، وشبكات من المؤسسات المستقلة؛ للتحقّق من الأخبار المتداوَلة عبر المنصة».

واستشهد الدكتور مصطفى ببعض التقارير الصادرة عن منظمة «هيومن رايتس ووتش»، التي أظهرت إحراز «ميتا» تقدماً في مجال الحد من «خطاب الكراهية»؛ «إذ تمكّنت خوارزميات الشركة من التعرّف على بعض الأنماط المتكرّرة للمحتوى المسيء، وحذفه تلقائياً قبل أن ينتشر»، غير أنه مع ذلك عدّ إجراءات «ميتا» غير كافية، مشيراً إلى أن «خوارزميات الذكاء الاصطناعي ما زالت محدودة القدرة على معالجة المحتوى بلغات ولهجات متنوعة، أو فهم السياقات الثقافية المعقّدة، ما يجعل من الصعوبة بمكان وضع حدود واضحة أمام تحقيق نجاح كامل في تقليص خطاب الكراهية».

هذا، وكانت المنظمة الدولية «غلوبال ويتنس» قد أعدّت تقريراً حول ما إذا كانت منصات التواصل الاجتماعي قادرةً على اكتشاف وإزالة «المعلومات المضلّلة الضارّة»، لا سيما المتعلقة بانتخابات الرئاسة الأميركية، وأشارت في نتائجها عقب الانتخابات الأميركية إلى أن أداء «فيسبوك» كان أفضل مقارنةً بمنصة مثل «تيك توك»، لكن التقرير لم ينفِ التورّط في نشر «معلومات مضلّلة» برغم القيود، كذلك ذكر التقرير أن «فيسبوك» وافَق على واحد من بين 8 إعلانات اختبرت بها المنظمة قيود المنصة للحَدّ من «المعلومات المضلّلة»، ما رأته المنظمة «تحسّناً ملحوظاً مقارنةً بأداء المنصة السابق مع أنه لا يزال غير كافٍ».

من ناحية أخرى أشار تقرير صادر عن منظمات المجتمع المدني «إيكو» و«المراقبة المدنية الهندية الدولية»، إلى أن «ميتا» سمحت بظهور إعلانات تحتوي على عبارات تحريضية ضد الأقليات على منصّتها خلال فترة الانتخابات الأميركية، كما أشارت إلى رصد «محتوى زائف» مصنوع بأدوات الذكاء الاصطناعي.

وحول هذا الأمر، علّق خالد عبد الراضي، الخبير في إدارة وتحليل بيانات «السوشيال ميديا» بمصر والمملكة العربية السعودية، لـ«الشرق الأوسط»، على قرار «ميتا» بالقول إننا بصدد محاولات عدّها «غير جادة»، ودلّل على ذلك بأن «(ميتا) قيّدت الإعلانات قبل الانتخابات الأميركية بأسبوع واحد فقط، وهذه مدة غير كافية إذا كانت المنصة بالفعل جادّة في الحدّ من التضليل والتأثير على الرأي العام، مثلاً (إكس) كانت أكثر جدّية من خلال تقييد أي منشور موجّه قبل الانتخابات بشهر»، مشيراً إلى أنه «بالتبعية شاهدنا على منصة (فيسبوك) محتوى مضلّلاً وزائفاً طُوّر بالذكاء الاصطناعي».

وأوضح عبد الراضي أن «(ميتا) لم تفرض قيوداً على الإعلانات بشكل عام، بل على نوع واحد فقط هو الإعلانات السياسية المدفوعة، ومن ثم تركت المجال أمام التضليل والتأثير على الرأي العام»، ودلّل كذلك على قلة جدّية الشركة بقوله: «بعد الانتخابات الأميركية في 2020 واجهت (ميتا) عدة اتهامات بتوجيه الرأي العام، ما دفع الشركة لاتخاذ إجراءات جادّة، من بينها توظيف (فِرق سلامة) معنية بمراجعة النصوص؛ للتأكد من ملاءمتها مع معايير المنصة، غير أن عمل هذه الفِرق أُنهِي لاحقاً، ما يشير إلى أن ادّعاءات المنصة لم تكن جدّية».