استغلال الذكاء الاصطناعي لأرشيف الصحف يُثير تساؤلات بشأن حوكمته

استغلال الذكاء الاصطناعي لأرشيف الصحف يُثير تساؤلات بشأن حوكمته
TT

استغلال الذكاء الاصطناعي لأرشيف الصحف يُثير تساؤلات بشأن حوكمته

استغلال الذكاء الاصطناعي لأرشيف الصحف يُثير تساؤلات بشأن حوكمته

لا تزال أصداء دخول أدوات الذكاء الاصطناعي ضمن منظومة العمل الصحافي تثير نقاشات؛ كان آخرها ما أعلنته جمعية الناشرين التجاريين، التي تضم أسماء صحافية بارزة، بينها «نيويورك تايمز»، و«واشنطن بوست»، و«ديزني»، و«إن بي سي يونيفرسال»، عزمها إصدار مسودة بعنوان «مبادئ تطوير الذكاء الاصطناعي وحوكمته»، الهدف منها تنظيم عملية تغذية أدوات الذكاء الاصطناعي بمعلومات مصدرها أرشيف الصحف، الأمر الذي عدّته الصحف الأعضاء «انتهاكاً لقوانين حقوق النشر».

ووفق إرشادات المسودة، فإن قوانين حقوق الطبع والنشر تحمي منشئي المحتوى الأصلي بحصر استخدام الأرشيف الخاص بها بعد موافقتها. أيضاً نصّت المسودة التي نشرها موقع «ماركتينغ برو» على أن يخضع استخدام الأعمال المحمية بحقوق الطبع والنشر في أنظمة الذكاء الاصطناعي للتحليل بموجب قانون حقوق النشر والاستخدام العادل. واعتبرت أن «ما جرى استخدامه من معلومات مملوكة لناشرين بغرض تغذية الذكاء الاصطناعي يُعد انتهاكاً لمبادئ الاستخدام العادل على النحو المنصوص عليه في قانون حقوق الطبع والنشر والسوابق القضائية المعمول بها».

وحسب جايسون كينت، الرئيس التنفيذي لجمعية الناشرين، «تهدف المسودة إلى تأمين أداة للمساعدة في المناقشات مع شركات الذكاء الاصطناعي والهيئات التنظيمية بهدف الوصول إلى نموذج عمل منصف لحقوق الناشرين».

الدكتور السر علي سعد، الأستاذ المشارك في تخصص الإعلام الجديد بجامعة أم القيوين بالإمارات العربية المتحدة، يرى أن الفرضية التي ترتكز عليها الصحف في إصدار المسودة، «مبرّرة». ومن ثم يوضح لـ«الشرق الأوسط»، أن «استخدام المعلومات الموجودة بأرشيف الصحف في تغذية برامج الذكاء الاصطناعي يعد استخداماً لمحتوى محمي بحقوق النشر من دون إذن. كما أن الصحف تمتلك حقوقاً قانونية على المحتوى الذي تنشره، ما يجعل استخدام هذا المحتوى من قبل شركات تطوير الذكاء الاصطناعي من دون إذن مخالفة لتلك الحقوق». ويضيف أنه «في هذا السياق، فإن المسودة تعد تصريحاً من الصحف بالحفاظ على حقوقها والحماية من الاستغلال غير المشروع لمحتواها».

سعد أشار أيضاً إلى أن ثمة «مقاومة» تظهرها الصحف تجاه الذكاء الاصطناعي ودخوله شريكاً في العمل الصحافي، غير أنه وصفها بـ«المنطقية» أيضاً. وشرح من ثم أنه «قد يكون القلق من استخدام الذكاء الاصطناعي في توليد الأخبار والمحتوى الصحافي بديلاً للصحافيين البشر، ما يؤثر على جودة التحقق والتحليل والتنوع الذي يمكن تقديمه من قبل الصحافيين».

وحقاً، يرى سعد أن «استخدام الذكاء الاصطناعي قد يتسبب في تقليل فرص العمل للصحافيين، حيث يمكن أن تحل الروبوتات محل بعض المهام الصحافية التقليدية. وبالإضافة إلى ذلك، قد تثير مسألة الأخلاقيات والمسؤولية في استخدام الذكاء الاصطناعي بالمجال الصحافي قلق الصحافيين والمجتمع بشكل عام».

للعلم، في العام الماضي، شهد الذكاء الاصطناعي تطورات مهمة وحقق تقدماً في مجال الصحافة. إذ جرى تطوير نماذج للذكاء الاصطناعي قادرة على توليد مقالات وأخبار قصيرة بشكل تلقائي، وتحليل البيانات الكبيرة لاكتشاف أنماط واتجاهات في الأخبار، وتسهيل عمليات التحقق والتحليل الصحافي، واستخدم الذكاء الاصطناعي أيضاً في توفير تجارب قراءة مخصصة وتوصيات محتوى للقراء بناءً على اهتماماتهم وسلوكهم السابق.

وهكذا يرى سعد - بجانب أن هذا التطور ارتبط بالتجاوزات أيضاً - أنه «أمكن رصد بعض التجاوزات والمخاوف المتعلقة بالذكاء الاصطناعي في الصحافة، مثل انحياز الخوارزميات واستخدامها لتعزيز الانقسامات والتوجهات المعرفية القائمة للقراء، وكذلك الخطأ في تحليل المعلومات أو انتشار المعلومات الزائفة».

وكانت أشارت المسودة في حيثياتها، إلى أن أدوات الذكاء الاصطناعي قد ترتبط بتأثير مباشر على مستقبل الصحف، لأنها باستخدام المعلومات المحمية قد تثير مخاوف بشأن الاشتراكات النقدية، وكذلك الحد من حركة المرور والتفاعل على الموقع، ما يهدد النموذج الربحي للمؤسسات الصحافية.

من ناحية أخرى، لا يرى الدكتور سعد أن على الصحف منع تقنيات الذكاء الاصطناعي، أو حتى السعي إلى ذلك، ويستدرك مضيفاً: «يمكن للصحف أن تستغل هذه التقنيات لصالحها، على نحو يسهل العمل الصحافي ولا يُؤثر على معايير المهنة». ثم يطرح أمثلة من بينها «استخدام الذكاء الاصطناعي في تحليل البيانات والمعلومات الضخمة بشكل فعال وسريع، ما يمكن الصحافيين من استخلاص أنماط وتوجهات أكثر دقة وتحليلاً». غير أنه ربط الاستخدام النفعي بالضمانات، معتبراً أنه «يجب أن تضمن المؤسسات أيضاً توجيهات وقواعد أخلاقية صارمة لاستخدام الذكاء الاصطناعي في الصحافة، مثل التحقق من مصداقية المصادر وتجنب انحياز الخوارزميات، وتعزيز الشفافية في استخدام التقنيات الذكية في إنتاج المحتوى الصحافي».

من جانبه، يرى أحمد عصمت، استشاري الإعلام والتحول الرقمي في مصر، خلال لقاء مع «الشرق الأوسط»، أن «أرشيف الصحف ملكية خاصة تعود إلى الصحيفة وفقاً للقانون، قد تختلف فترات السيطرة بحسب قانون كل دولة». ويكمل: «الصحف تعتمد على الأرشيف مصدراً للدخل، من خلال توفير البيانات لجهات بحثية وجامعات وكذلك شركات تحليل الأخبار... ولذا فإن استغلالها من قبل شركات الذكاء الاصطناعي من دون دفع مقابل أمر من المنطقي أن يثير حفيظة الصحف».

عصمت يتوقع أن «تقود هذه المسودة إلى حلول ترتكز على الدفع مقابل الاستغلال... ومن المنتظر أن تنتهي هذه الأزمة قريباً بإعلان اتفاقيات محددة تعقد بين الطرفين (الصحف وشركات الذكاء الاصطناعي). وبالتالي ستحصل الترشيحات وفقاً لهذه الاتفاقيات».

وفي سياق متصل، يرى عصمت أن مقاومة الصحف لأدوات الذكاء الاصطناعي «سلوك تقليدي ومتوقع» سبق أن واجهته جميع الاستنباطات التكنولوجية السابقة، ويقول إن «الذكاء الاصطناعي ليس وليد اللحظة، بل هو تقنية تسللت تدريجياً، بعض التطبيقات جرى هضمها والتعامل معها بسهولة... مثل تطبيقات الترجمة والتصحيح اللغوي، بينما الثورة التي نتابعها راهناً أثارها تطبيق (تشات جي بي تي) تحديداً».

وهنا يشدد عصمت على «أهمية التوقف عن المقاومة لصالح تحديد نماذج الاستغلال في إطار حماية البيانات... إذ إن على المؤسسات الصحافية أن تضع نماذج التعامل المُثلى، ولتكن هناك شراكات، أو يحدث المزج بين البشر والآلة بغرض الاستغلال الأمثل في النهاية».

ويعتقد عصمت أن ما يجب أن تنصب عليه اهتمامات صناع المحتوى والناشرين هو قيمة البيانات، ويردف: «راهناً نواجه أزمة الانحيازات، لأن تطبيقات الذكاء الاصطناعي تقوم على نموذج تغذية الآلة من قبل بشر لهم انحيازات وتوجهات... هذا كارثة»!! ومن ثم يشرح أن «معضلة الذكاء الاصطناعي تتلخص في البيانات المغلوطة، ما قد تحصد نتائجه لاحقاً من تزييف للتاريخ... على سبيل المثال فالمنطقة العربية ككل تاريخها معرض للمغالطات لأنه بالأساس مكتوب باللغة العربية، بينما في رؤى ثقافية أخرى جرى رصد تلفيق وقراءات مغايرة للواقع. ومع مزيد من الاعتماد على الآلة لا بد من رفع درجة الإنذار، وبذل مزيد من الجهود لحماية البيانات ودرء الانحيازات».



تمديد «ميتا» لقيود الإعلانات... هل يحُدّ من «المعلومات المضلّلة»؟

تمديد «ميتا» لقيود الإعلانات... هل يحُدّ من «المعلومات المضلّلة»؟
TT

تمديد «ميتا» لقيود الإعلانات... هل يحُدّ من «المعلومات المضلّلة»؟

تمديد «ميتا» لقيود الإعلانات... هل يحُدّ من «المعلومات المضلّلة»؟

أثار إعلان شركة «ميتا» تمديد فترة تقييد الإعلانات المتعلقة بالقضايا الاجتماعية أو السياسية لما بعد انتخابات الرئاسة الأميركية، من دون أن تحدّد الشركة وقتاً لنهاية هذا التمديد، تساؤلات حول مدى فاعلية القرار في الحدّ من انتشار «المعلومات المضلّلة»، يأتي ذلك بالتزامن مع رصد تجاوزات مرّرَتها المنصة الأشهَر «فيسبوك» خلال الفترة السابقة برغم تقييد الإعلانات.

ما يُذكر أن «فيسبوك» أعانت بنهاية أكتوبر (تشرين الأول) الماضي «حظر أي إعلان يحمل رسائل توجيه سياسي أو اجتماعي من شأنه التأثير في سير الانتخابات الرئاسية الأميركية»، غير أن مراقبين قاموا برصد تجاوزات على المنصة وصفوها بـ«التضليل»، وقالوا إن «فلاتر» المحتوى على «ميتا» – التي تملك «فيسبوك» – «غير متمرّسة» بما يكفي لتمييز المحتوى الذي ينتهك إرشادات المصداقية، ما يثير شكوكاً بشأن جدوى قرار الشركة تقييد الإعلانات.

الدكتور حسن مصطفى، أستاذ التسويق الرقمي والذكاء الاصطناعي في عدد من الجامعات الإماراتية، عدّ قرار «ميتا» الأخير «محاولةً لتجاوز المخاوف المتزايدة حول استغلال الإعلانات في التأثير على الرأي العام»، وقال لـ«الشرق الأوسط» إن «ميتا تخشى اتهامها بنشر المعلومات غير الموثوقة بشكل واسع إبان الفترات الانتخابية وما بعدها، لا سيما وأنه سبق اتهام الشركة من قبل بوجود محتوى يؤثر على الرأي العام خلال فترات انتخابية سابقة».

وعن دور «ميتا» في الحدّ من «المعلومات المضللة»، أوضح مصطفى أنه «لا تزال المعلومات المضلّلة تحدياً قائماً برغم ما اتخذته (ميتا) من إجراءات لمكافحتها، والتقليل من انتشار الأخبار الكاذبة»، وقال عن دور الشركة في هذا الصدد: «لقد عزّزَت (ميتا) التعاون مع جهات خارجية للتحقّق من صحة الأخبار، فباتت تعتمد على منظمة (فاكت تشيك/ FactCheck)، وشبكات من المؤسسات المستقلة؛ للتحقّق من الأخبار المتداوَلة عبر المنصة».

واستشهد الدكتور مصطفى ببعض التقارير الصادرة عن منظمة «هيومن رايتس ووتش»، التي أظهرت إحراز «ميتا» تقدماً في مجال الحد من «خطاب الكراهية»؛ «إذ تمكّنت خوارزميات الشركة من التعرّف على بعض الأنماط المتكرّرة للمحتوى المسيء، وحذفه تلقائياً قبل أن ينتشر»، غير أنه مع ذلك عدّ إجراءات «ميتا» غير كافية، مشيراً إلى أن «خوارزميات الذكاء الاصطناعي ما زالت محدودة القدرة على معالجة المحتوى بلغات ولهجات متنوعة، أو فهم السياقات الثقافية المعقّدة، ما يجعل من الصعوبة بمكان وضع حدود واضحة أمام تحقيق نجاح كامل في تقليص خطاب الكراهية».

هذا، وكانت المنظمة الدولية «غلوبال ويتنس» قد أعدّت تقريراً حول ما إذا كانت منصات التواصل الاجتماعي قادرةً على اكتشاف وإزالة «المعلومات المضلّلة الضارّة»، لا سيما المتعلقة بانتخابات الرئاسة الأميركية، وأشارت في نتائجها عقب الانتخابات الأميركية إلى أن أداء «فيسبوك» كان أفضل مقارنةً بمنصة مثل «تيك توك»، لكن التقرير لم ينفِ التورّط في نشر «معلومات مضلّلة» برغم القيود، كذلك ذكر التقرير أن «فيسبوك» وافَق على واحد من بين 8 إعلانات اختبرت بها المنظمة قيود المنصة للحَدّ من «المعلومات المضلّلة»، ما رأته المنظمة «تحسّناً ملحوظاً مقارنةً بأداء المنصة السابق مع أنه لا يزال غير كافٍ».

من ناحية أخرى أشار تقرير صادر عن منظمات المجتمع المدني «إيكو» و«المراقبة المدنية الهندية الدولية»، إلى أن «ميتا» سمحت بظهور إعلانات تحتوي على عبارات تحريضية ضد الأقليات على منصّتها خلال فترة الانتخابات الأميركية، كما أشارت إلى رصد «محتوى زائف» مصنوع بأدوات الذكاء الاصطناعي.

وحول هذا الأمر، علّق خالد عبد الراضي، الخبير في إدارة وتحليل بيانات «السوشيال ميديا» بمصر والمملكة العربية السعودية، لـ«الشرق الأوسط»، على قرار «ميتا» بالقول إننا بصدد محاولات عدّها «غير جادة»، ودلّل على ذلك بأن «(ميتا) قيّدت الإعلانات قبل الانتخابات الأميركية بأسبوع واحد فقط، وهذه مدة غير كافية إذا كانت المنصة بالفعل جادّة في الحدّ من التضليل والتأثير على الرأي العام، مثلاً (إكس) كانت أكثر جدّية من خلال تقييد أي منشور موجّه قبل الانتخابات بشهر»، مشيراً إلى أنه «بالتبعية شاهدنا على منصة (فيسبوك) محتوى مضلّلاً وزائفاً طُوّر بالذكاء الاصطناعي».

وأوضح عبد الراضي أن «(ميتا) لم تفرض قيوداً على الإعلانات بشكل عام، بل على نوع واحد فقط هو الإعلانات السياسية المدفوعة، ومن ثم تركت المجال أمام التضليل والتأثير على الرأي العام»، ودلّل كذلك على قلة جدّية الشركة بقوله: «بعد الانتخابات الأميركية في 2020 واجهت (ميتا) عدة اتهامات بتوجيه الرأي العام، ما دفع الشركة لاتخاذ إجراءات جادّة، من بينها توظيف (فِرق سلامة) معنية بمراجعة النصوص؛ للتأكد من ملاءمتها مع معايير المنصة، غير أن عمل هذه الفِرق أُنهِي لاحقاً، ما يشير إلى أن ادّعاءات المنصة لم تكن جدّية».