تساؤلات حول «الموازنة» بين حماية محتوى الصحف... وحرية تداول المعلومات

تساؤلات حول «الموازنة» بين حماية محتوى الصحف... وحرية تداول المعلومات
TT

تساؤلات حول «الموازنة» بين حماية محتوى الصحف... وحرية تداول المعلومات

تساؤلات حول «الموازنة» بين حماية محتوى الصحف... وحرية تداول المعلومات

مع توقيع قادة وأكاديميين يعملون بصناعة التكنولوجيا «الذكاء الاصطناعي»، بينهم مالك شركة «تويتر» إيلون ماسك، والعالم الأميركي ستيف فوزنياك، على خطاب مفتوح يدعو إلى «التوقف لمدة 6 أشهر في تجارب (الذكاء الاصطناعي) واسعة النطاق للحد من مخاطره على مجالات عدة»، أشار استطلاع إلى أن نحو نصف غرف الأخبار داخل الصحف تعمل بنشاط لتأصيل استخدام أدوات «الذكاء الاصطناعي» في العمل الإخباري.

الاستطلاع أجرته الرابطة العالمية لناشري الأخبار (WAN - IFRA) مطلع يونيو (حزيران) الحالي، وأفاد بأن «قادة غرف الأخبار هم مَن يقودون نشر (الذكاء الاصطناعي) في غرف الأخبار بالصحف، وهذا على الرغم من التحذيرات المتكرّرة بشأن تأثير هذه التقنيات على حماية المحتوى، سواء على مستوى حقوق النشر الخاصة بالمؤسسات أو التجاوزات التي أمكن رصدها بشأن نشر محتوى مضلل».

وتابع الاستطلاع، الذي شمل 101 محرر وصحافي من غرف أخبار متفرقة، وأُجري بالشراكة مع شركة الاستشارات الألمانية «تشيكلير»، أن «المؤسسات الإخبارية تسارع لتعزيز إنتاج نصوص طويلة بلغة بسيطة في وقت قياسي، ما يضمن وفرة الإنتاج».

وفي الوقت ذاته رصد الاستطلاع بعض «المقاومة» من الصحافيين للذكاء الاصطناعي، إذ ذكر أن 85 في المائة من المشاركين أعربوا عن قلقهم بشأن نشر «معلومات مضللة»، أو «تدنّي جودة المحتوى». في حين أعرب آخرون عن قلقهم بشأن تقليص أدوارهم في غرف الأخبار. وفي هذا السياق، يرى مراقبون أن «القلق بشأن المحتوى يتعاظم، في حين أن المسار العكسي يحد من حرية تداول المعلومات التي هي حق أصيل للجمهور».

الدكتور لخضر شادلي، أستاذ الإعلام الجديد والرقمي في الجامعة الكندية بدبي، أشار خلال لقاء مع «الشرق الأوسط» إلى أن «استخدام (الذكاء الاصطناعي) التوليفي لإنشاء محتوى أصلي يؤدي إلى حدوث مشكلات تتعلق بانتهاك حقوق الملكية الفكرية وحقوق النشر». وأردف: «يعيد النموذج الاصطناعي إنتاج مواد محمية بحقوق الطبع والنشر من دون الحصول على إذن مناسب. وبالإضافة إلى ذلك، يمكن أيضاً استخدام (الذكاء الاصطناعي) التوليدي لإنشاء محتوى مضلّل أو تشهيري أو مسيء، ما يثير مسؤولية إضافية ومخاوف أخلاقية». قبل أن يضيف أن «القوانين والسياسات قد تختلف من بلد إلى آخر، وقد تتضمّن شروط وأحكام ناشرين محدّدين أحكاماً مختلفة فيما يتعلق باستخدام (الذكاء الاصطناعي) التوليدي».

شادلي يرى أيضاً أن «هناك جهوداً يجب أن تُبذل لتحقيق الموازنة بين حماية المحتوى وحرية تداول المعلومات». ويقول ضمن هذا الإطار إنه «يمكن تحقيق التوازن إذا كانت الصحف هي المصدر، ذلك أن استخدام الصحف لتزويد برامج (الذكاء الاصطناعي) بمعلومات لها الحق في نشرها، يمكن اعتباره بالفعل إنجازاً مهماً. إذ لطالما كانت الصحف مصدراً قيّماً للمعلومات، فهي تقدّم مجموعة واسعة من الموضوعات ووجهات النظر، ومن خلال الاستفادة من هذه الثروة المعرفية يمكن لبرامج (الذكاء الاصطناعي) الاستفادة من آخر الأخبار والآراء والتحليلات».

من جهة أخرى، أرجع الدكتور شادلي قيمة العمل الصحافي، بأن يستمر بوصفه مصدراً للمعلومات، إلى «اعتماد الصحف على فرق من الصحافيين والباحثين الذين يجمعون ويحللون المعلومات من مصادر مختلفة، ما يحقق دقة وموثوقية في محتواها... وبالتالي، من خلال الاستفادة من هذه الخبرة، يمكن لبرامج (الذكاء الاصطناعي) الوصول إلى مجموعة منتقاة من المعلومات، وتعزيز قدرتها على تقديم رؤى دقيقة ومحدثة حول مجموعة واسعة من الموضوعات».

وهنا يشير الأكاديمي في الجامعة الكندية بدبي إلى أن تفاصيل التنفيذ المُحددة لكيفية تغذية الصحف بالمعلومات لبرامج «الذكاء الاصطناعي» قد تختلف. وعليه، يقترح أن «تستخدم الصحف تقنيات مثل معالجة اللغة الطبيعية، واستخراج البيانات، أو حتى الشراكات المباشرة مع مطوري (الذكاء الاصطناعي) لتسهيل تدفق المعلومات». ويقول إنه في خضم تحقيق التوازن بين حماية المحتوى وحرية تداول المعلومات «يجب تطوير قوانين حقوق النشر التي تحمي منشئ المحتوى من الاستخدام غير المرخص لمحتوياته، كذلك يجب إخضاع استخدام الأعمال المحمية بحقوق الطبع والنشر في أنظمة (الذكاء الاصطناعي) للتحليل بموجب قانون حقوق النشر والاستخدام العادل».

بالمناسبة، سأل الصحافيون روبوت الدردشة «تشات جي بي تي» سؤالاً بسيطاً هو: متى نشرت صحيفة «نيويورك تايمز» أول تقرير عن «الذكاء الاصطناعي»؟ فأجاب: «كان ذلك يوم 10 يوليو (تموز) 1956 في مقال بعنوان «الآلات ستكون قادرة على التعلم وحل المشكلات» على هامش تغطية مؤتمر أساسي في كلية دارتموث». لكن «نيويورك تايمز» أشارت إلى أن هذا المقال لم يكن حقيقياً، حتى لو كان المؤتمر الذي زعمت تغطيته قد حدث بالفعل.

عودة إلى شادلي، الذي قال: «لا يخطئ (تشات جي بي تي) في بعض الأحيان فحسب؛ بل يمكن أن يختلق المعلومات، والأسماء، والتواريخ، والتفاسير الطبية، وعناوين الإنترنت، وحتى الأحداث التاريخية التي لم تحدث قط».

من جانبه يرى محمد فتحي، الصحافي المصري المتخصص في الإعلام الرقمي، أنه قبل ظهور «الذكاء الاصطناعي» «سُجّلت انتهاكات عدة لقوانين حماية المحتوى بدعوة حرية تبادل المعلومات على مواقع التواصل الاجتماعي». وذكر لـ«الشرق الأوسط» أن منصات التواصل الاجتماعي «لا تحمي المحتوى، بل ما يعنيها هو إبقاء المستخدم في حالة تفاعل لأطول وقت ممكن، لأن التفاعل يترجم لاحقاً إلى أموال من قبل معلنين... أما الأصل في الصحافة والعمل الإعلامي فهو نقل المعلومات وتوفيرها للقارئ، الذي بات مستخدماً، غير أن هذا لا يحق للوسيط على الإطلاق، سواء كان مواقع التواصل الاجتماعي أو أدوات (الذكاء الاصطناعي)».

فتحي يشير إلى وجود «خلل في الحدود الفاصلة بين الحق في المعلومة، وتخطي حق الغير وهو منشئ المحتوى». ويشرح أن «تداول المعلومات طمس ثقافة الحقوق من جانب، كما تسبب في تراجع أهمية التحقق من دقة المعلومة... وأنا أتوقع أن تتضاعف هذه الأزمة مع ضم أدوات (الذكاء الاصطناعي) في منظومة العمل الصحافي».

فتحي شدد أيضاً على سلوكيات رواد مواقع التواصل الاجتماعي، فقال: «كل مَن يحمل هاتفاً جوالاً صار ناشراً من دون أي معايير للحياة الشخصية، وبالفعل جرى رصد حالات عدة من اختراق الخصوصية مثل نشر مقاطع مصورة من حفلات خاصة من دون حق».

وعمّا هو مطلوب الآن من أجل تحقيق التوازن، يرى فتحي أن «الضوابط والقوانين من شأنها تحقيق التوازن اللازم، عبر تفعيل القوانين الموجودة بالفعل وتطوير بعض المواد لتحقيق أقصى درجة من الحماية». ومن جانب آخر فإنه يناشد الجهات الاعتبارية والشخصيات العامة، قائلاً: «إن جزءاً من الفوضى يعود إلى سلوك الشخصيات العامة أو المؤسسات، التي لا تطالب بحقها حال اختراق خصوصيتها... وأيضاً يجب أن يظل الحديث العام حكراً على الصحف والقنوات من دون غيرها؛ لأن هذه تقدّم المعلومة وفقاً لقواعد مهنية».



تمديد «ميتا» لقيود الإعلانات... هل يحُدّ من «المعلومات المضلّلة»؟

تمديد «ميتا» لقيود الإعلانات... هل يحُدّ من «المعلومات المضلّلة»؟
TT

تمديد «ميتا» لقيود الإعلانات... هل يحُدّ من «المعلومات المضلّلة»؟

تمديد «ميتا» لقيود الإعلانات... هل يحُدّ من «المعلومات المضلّلة»؟

أثار إعلان شركة «ميتا» تمديد فترة تقييد الإعلانات المتعلقة بالقضايا الاجتماعية أو السياسية لما بعد انتخابات الرئاسة الأميركية، من دون أن تحدّد الشركة وقتاً لنهاية هذا التمديد، تساؤلات حول مدى فاعلية القرار في الحدّ من انتشار «المعلومات المضلّلة»، يأتي ذلك بالتزامن مع رصد تجاوزات مرّرَتها المنصة الأشهَر «فيسبوك» خلال الفترة السابقة برغم تقييد الإعلانات.

ما يُذكر أن «فيسبوك» أعانت بنهاية أكتوبر (تشرين الأول) الماضي «حظر أي إعلان يحمل رسائل توجيه سياسي أو اجتماعي من شأنه التأثير في سير الانتخابات الرئاسية الأميركية»، غير أن مراقبين قاموا برصد تجاوزات على المنصة وصفوها بـ«التضليل»، وقالوا إن «فلاتر» المحتوى على «ميتا» – التي تملك «فيسبوك» – «غير متمرّسة» بما يكفي لتمييز المحتوى الذي ينتهك إرشادات المصداقية، ما يثير شكوكاً بشأن جدوى قرار الشركة تقييد الإعلانات.

الدكتور حسن مصطفى، أستاذ التسويق الرقمي والذكاء الاصطناعي في عدد من الجامعات الإماراتية، عدّ قرار «ميتا» الأخير «محاولةً لتجاوز المخاوف المتزايدة حول استغلال الإعلانات في التأثير على الرأي العام»، وقال لـ«الشرق الأوسط» إن «ميتا تخشى اتهامها بنشر المعلومات غير الموثوقة بشكل واسع إبان الفترات الانتخابية وما بعدها، لا سيما وأنه سبق اتهام الشركة من قبل بوجود محتوى يؤثر على الرأي العام خلال فترات انتخابية سابقة».

وعن دور «ميتا» في الحدّ من «المعلومات المضللة»، أوضح مصطفى أنه «لا تزال المعلومات المضلّلة تحدياً قائماً برغم ما اتخذته (ميتا) من إجراءات لمكافحتها، والتقليل من انتشار الأخبار الكاذبة»، وقال عن دور الشركة في هذا الصدد: «لقد عزّزَت (ميتا) التعاون مع جهات خارجية للتحقّق من صحة الأخبار، فباتت تعتمد على منظمة (فاكت تشيك/ FactCheck)، وشبكات من المؤسسات المستقلة؛ للتحقّق من الأخبار المتداوَلة عبر المنصة».

واستشهد الدكتور مصطفى ببعض التقارير الصادرة عن منظمة «هيومن رايتس ووتش»، التي أظهرت إحراز «ميتا» تقدماً في مجال الحد من «خطاب الكراهية»؛ «إذ تمكّنت خوارزميات الشركة من التعرّف على بعض الأنماط المتكرّرة للمحتوى المسيء، وحذفه تلقائياً قبل أن ينتشر»، غير أنه مع ذلك عدّ إجراءات «ميتا» غير كافية، مشيراً إلى أن «خوارزميات الذكاء الاصطناعي ما زالت محدودة القدرة على معالجة المحتوى بلغات ولهجات متنوعة، أو فهم السياقات الثقافية المعقّدة، ما يجعل من الصعوبة بمكان وضع حدود واضحة أمام تحقيق نجاح كامل في تقليص خطاب الكراهية».

هذا، وكانت المنظمة الدولية «غلوبال ويتنس» قد أعدّت تقريراً حول ما إذا كانت منصات التواصل الاجتماعي قادرةً على اكتشاف وإزالة «المعلومات المضلّلة الضارّة»، لا سيما المتعلقة بانتخابات الرئاسة الأميركية، وأشارت في نتائجها عقب الانتخابات الأميركية إلى أن أداء «فيسبوك» كان أفضل مقارنةً بمنصة مثل «تيك توك»، لكن التقرير لم ينفِ التورّط في نشر «معلومات مضلّلة» برغم القيود، كذلك ذكر التقرير أن «فيسبوك» وافَق على واحد من بين 8 إعلانات اختبرت بها المنظمة قيود المنصة للحَدّ من «المعلومات المضلّلة»، ما رأته المنظمة «تحسّناً ملحوظاً مقارنةً بأداء المنصة السابق مع أنه لا يزال غير كافٍ».

من ناحية أخرى أشار تقرير صادر عن منظمات المجتمع المدني «إيكو» و«المراقبة المدنية الهندية الدولية»، إلى أن «ميتا» سمحت بظهور إعلانات تحتوي على عبارات تحريضية ضد الأقليات على منصّتها خلال فترة الانتخابات الأميركية، كما أشارت إلى رصد «محتوى زائف» مصنوع بأدوات الذكاء الاصطناعي.

وحول هذا الأمر، علّق خالد عبد الراضي، الخبير في إدارة وتحليل بيانات «السوشيال ميديا» بمصر والمملكة العربية السعودية، لـ«الشرق الأوسط»، على قرار «ميتا» بالقول إننا بصدد محاولات عدّها «غير جادة»، ودلّل على ذلك بأن «(ميتا) قيّدت الإعلانات قبل الانتخابات الأميركية بأسبوع واحد فقط، وهذه مدة غير كافية إذا كانت المنصة بالفعل جادّة في الحدّ من التضليل والتأثير على الرأي العام، مثلاً (إكس) كانت أكثر جدّية من خلال تقييد أي منشور موجّه قبل الانتخابات بشهر»، مشيراً إلى أنه «بالتبعية شاهدنا على منصة (فيسبوك) محتوى مضلّلاً وزائفاً طُوّر بالذكاء الاصطناعي».

وأوضح عبد الراضي أن «(ميتا) لم تفرض قيوداً على الإعلانات بشكل عام، بل على نوع واحد فقط هو الإعلانات السياسية المدفوعة، ومن ثم تركت المجال أمام التضليل والتأثير على الرأي العام»، ودلّل كذلك على قلة جدّية الشركة بقوله: «بعد الانتخابات الأميركية في 2020 واجهت (ميتا) عدة اتهامات بتوجيه الرأي العام، ما دفع الشركة لاتخاذ إجراءات جادّة، من بينها توظيف (فِرق سلامة) معنية بمراجعة النصوص؛ للتأكد من ملاءمتها مع معايير المنصة، غير أن عمل هذه الفِرق أُنهِي لاحقاً، ما يشير إلى أن ادّعاءات المنصة لم تكن جدّية».