إلى أين تتجه العلاقة بين الإعلام والذكاء الاصطناعي؟

إلى أين تتجه العلاقة بين الإعلام والذكاء الاصطناعي؟
TT

إلى أين تتجه العلاقة بين الإعلام والذكاء الاصطناعي؟

إلى أين تتجه العلاقة بين الإعلام والذكاء الاصطناعي؟

يبدو أن القائمين على صناعة الإعلام ما زالوا حائرين بين مسارين إزاء ما يخص كيفية التعاطي مع تقنيات الذكاء الاصطناعي التوليدي، فبينما ذهب ناشرون بارزون، على شاكلة «النيويورك تايمز» إلى مقاضاة كبريات شركات التكنولوجيا القائمة على مشروعات الذكاء الاصطناعي التوليدي بحجة «استخدام أرشيف المعلومات من دون تصريح مسبق»، اختار آخرون مسلك التفاوض أملاً في تحقيق مكاسب مادية.

شركة «أوبن إيه آي»، الرائدة في مجال الذكاء الاصطناعي، أعلنت أخيراً التفاوض مع مؤسسات إخبارية وعرضت بموجبه عائداً مادياً يتراوح بين مليون و5 ملايين دولار سنوياً لترخيص محتواها المحمي بحقوق الطبع والنشر، ما يسمح للشركة بتغذية نماذج الذكاء الاصطناعي الخاصة بها، التي لا تزال تحت التطوير والعمل.

وعلى الشاكلة عينها، أفادت تقارير صحافية نُشرت الشهر الحالي، بأن شركة «أبل» تتفاوض بشأن صفقات الذكاء الاصطناعي مع ناشرين، مثل «إن بي سي نيوز» NBC News و«بيبول» People و«الديلي بيست» Daily Beast لترخيص أرشيف المحتوى الخاصة بهم، لكن لم يُعلن بعد عن أي شيء حتى الآن. ومن جهة ثانية، أعلنت بالفعل كل من دار «الفاينانشيال تايمز» ومجموعة «أكسيل سبرينغر» عن صفقات مع شركتي «أوبن إيه آي» و«مايكروسوفت» على التوالي بشأن التعاون في مشروعات الذكاء الاصطناعي التوليدي.

ولقد عدّ خبراء هذا التعاون، سواءً كان في طور المفاوضات أو الاتفاق الفعلي، تغييراً في مسار تعاطي وسائل الإعلام مع الذكاء الاصطناعي التوليدي، إلا أنه لا يزال هناك من يرفض الفكرة برمتها مثل «النيويورك تايمز» صاحبة الدعوة القضائية الشهيرة ضد «مايكروسوفت»، وكذلك «أوبن إيه آي».

جدير بالذكر، أنه في مطلع العام الحالي، طالبت الصحيفة الأميركية الشركتين بتعويضات مالية ضخمة مقابل استخدام المعلومات المملوكة للصحيفة في تغذية مشروعات الذكاء الاصطناعي من دون اتفاق مسبق، كما طالبت الصحيفة بإيقاف العمل بنماذج روبوتات الذكاء الاصطناعي المدربة على محتواها. وما يتحقق حول الموضوع أعلاه، أن «النيويورك تايمز» كانت قد أفادت في معرض دفاعها بأن شركتي التكنولوجيا اللتين لديهما شراكة لتغذية روبوتات الذكاء الاصطناعي التوليدي «تشات جي بي تي» و«بينغ» أقدمتا على استغلال محتوى تملكه الصحيفة من دون الحصول على ترخيص مسبق ودفع تكلفته، وهو ما يوقع عليها ضرراً أوضحته في قولها إن «استخدام محتواها في برامج الدردشة الآلية يهدّد الصحيفة بعزوف القراء عنها، بما في ذلك المشتركون الحاليون والمحتملون، ومن ثم تقليل الاشتراكات والإعلانات والإيرادات التابعة التي تُمكّن الصحيفة من مواصلة إنتاج صحافة مهنية ورائدة».

تعليقاً على هذا الموضوع، رأى حاتم الشولي، المشرف على تحرير الإعلام الرقمي في قناة «الشرق للأخبار»، أن الدوافع لدى الفريقين «سواءً من ذهب إلى التقاضي أو من اختار التفاوض وتحقيق المكاسب في الأساس، تتمحور حول الانخراط في صلب القضية». وأردف الشولي لـ«الشرق الأوسط» في لقاء معه: «نحن أمام صناعة لا يزال العالم يحاول التعرف عليها... والروبوتات التي تتغذى على أرشيف الصحف والمحتوى الخاص بوسائل الإعلام، لديها قدرة مستقبلية متوقعة أكبر من كونها أرشيفاً».

وأوضح الشولي أن «شركات الذكاء الاصطناعي تحاول العمل على تطوير هذه الروبوتات بهدف أن تصل إلى حد الاستنتاجات والتحليل بناء على المحتوى الأرشيفي الذي تغذت به، ما يشير إلى استحالة أن تستمر العلاقة النفعية بين وسائل الإعلام وروبوتات الذكاء الاصطناعي التوليدي بعد فترة وجيزة. إذ ستكون أدوات الذكاء الاصطناعي هي مصدر المعلومة، مع أنها بالأساس أتت بها من الصحف ووسائل الإعلام». وحول «التعويضات المالية»، أوضح الشولي أنها «مسألة أخلاقية»، مضيفاً: «نحن هنا نتكلم عن محتوى معلوماتي، خاصة في ظل غياب قوانين عالمية تقنن هذا التداول حتى الآن، لذا لدى وسائل الإعلام بالتأكيد الحق في مقاضاة كل من يستخدم محتواها من دون موافقتها».

حاتم الشولي توقع أن «تكون العلاقة حادة، وربما تصل إلى مرحلة المواجهة في حال لم يجر تقنينها، لكن إذا دخلت المؤسسات هذا المجال وكوّنت تحالفات مع صُناع هذه الأدوات فستكون ثورة تكنولوجية هائلة ستنعكس على المتلقين بشكل إيجابي للغاية». وعدّ، من ثم، أن «هذه التقنيات أدوات لتعزيز الصناعة ولن تحل محل صُناع المهنة». وأضاف: «في رأيي الشخصي لا يمكن أن تحل روبوتات الذكاء الاصطناعي التوليدي مكان الصحافي لجدلية وتعقيد المسألة التحريرية، فالذكاء الاصطناعي سيكون أداة للصحافي من شأنها تيسير عمله وطريقة وصوله للجمهور».

هذا، وقد كانت مؤسسة «غيتي إيمدج» قد اتخذت إجراءات قانونية ضد شركة «ستابيليتي إيه آي» في المملكة المتحدة، خلال يناير (كانون الثاني) 2023، مدعية أن الشركة «نسخت وعالجت بشكل غير قانوني» الملايين من صورها المحمية بحقوق الطبع والنشر من دون ترخيص من خلال نموذج «ستيبل ديفيجن» لتحويل النص إلى صورة.

وفي ديسمبر (كانون الأول) الماضي، قضت المحكمة العليا في لندن بإمكانية إحالة قضية غيتي إلى المحاكمة بعد عجز شركة «ستابيليتي إيه آي» عن إقناع القضاء بأن «المسألة تتعلق بالتدريب والتطوير». وأفادت القاضية جوانا سميث يومذاك، بأن لدى «غيتي إيمدج» الحق في حماية حقوقها في الطبع والنشر.

الحسيني موسى، الصحافي المتخصص في الإعلام الرقمي بقناة «سي إن إن» العربية، ذكر لـ«الشرق الأوسط» أن «المؤسسات الإعلامية البارزة تقاتل في معركتها هذه، وأياً كان السبيل الذي قررته، للحصول على مليارات الدولارات، إذا نجح مسار التقاضي، غير أن الشواهد تشير إلى أن القضايا ربما لن تكتمل وقد يسبقها مسار التفاوض والمصالح المشتركة».

ولفت موسى إلى معضلة «حق الاستخدام العادل» للمحتوى، وأن «أحد أبرز المخاوف، هو استغلال روبوتات الذكاء الاصطناعي التوليدي للمعلومات من دون أي إشارة إلى مصدرها، ما يُعد طمساً متعمداً وإغفالاً لحق المصدر فيما توصل إليه من معلومات... ومن ثم فهذه قضية منافية تماماً لجميع قوانين النشر، لا سيما داخل الولايات المتحدة التي تشهد محاكمها أبرز القضايا».

كذلك عدّ موسى الاتفاقيات التي أبرمت بالفعل بين شركات التكنولوجيا القائمة على الذكاء الاصطناعي التوليدي، والناشرين، «غير منصفة»، شارحاً: «وعدت شركات التكنولوجيا بأن ترفق المعلومات بمصدرها، بذكر الرابط الخاص بالمصدر الأصيل للمعلومة... غير أن الممارسات الفعلية لم تدلل على جدية هذه النية. فإذا طلب المستخدم من روبوت الدردشة الذي وفر له معلومات من قبل وسيلة إعلام ما، الرابط الأصيل، فستفاجأ بالرد: (قُم بالبحث على غوغل)، ما يعني أن هذه الشركات غير جادة في حفظ حقوق الناشرين كما تدعي». ثم أشار إلى أن «هذه الاتفاقيات والمفاوضات ما هي إلا وسيلة تُبرئ روبوتات الذكاء الاصطناعي من تهمة سرقة المحتوى، كما تعد استغلالاً لأسماء بارزة في صناعة الإعلام للحد من الانتقادات الخاصة بوقوع أخطاء متكررة».



تمديد «ميتا» لقيود الإعلانات... هل يحُدّ من «المعلومات المضلّلة»؟

تمديد «ميتا» لقيود الإعلانات... هل يحُدّ من «المعلومات المضلّلة»؟
TT

تمديد «ميتا» لقيود الإعلانات... هل يحُدّ من «المعلومات المضلّلة»؟

تمديد «ميتا» لقيود الإعلانات... هل يحُدّ من «المعلومات المضلّلة»؟

أثار إعلان شركة «ميتا» تمديد فترة تقييد الإعلانات المتعلقة بالقضايا الاجتماعية أو السياسية لما بعد انتخابات الرئاسة الأميركية، من دون أن تحدّد الشركة وقتاً لنهاية هذا التمديد، تساؤلات حول مدى فاعلية القرار في الحدّ من انتشار «المعلومات المضلّلة»، يأتي ذلك بالتزامن مع رصد تجاوزات مرّرَتها المنصة الأشهَر «فيسبوك» خلال الفترة السابقة برغم تقييد الإعلانات.

ما يُذكر أن «فيسبوك» أعانت بنهاية أكتوبر (تشرين الأول) الماضي «حظر أي إعلان يحمل رسائل توجيه سياسي أو اجتماعي من شأنه التأثير في سير الانتخابات الرئاسية الأميركية»، غير أن مراقبين قاموا برصد تجاوزات على المنصة وصفوها بـ«التضليل»، وقالوا إن «فلاتر» المحتوى على «ميتا» – التي تملك «فيسبوك» – «غير متمرّسة» بما يكفي لتمييز المحتوى الذي ينتهك إرشادات المصداقية، ما يثير شكوكاً بشأن جدوى قرار الشركة تقييد الإعلانات.

الدكتور حسن مصطفى، أستاذ التسويق الرقمي والذكاء الاصطناعي في عدد من الجامعات الإماراتية، عدّ قرار «ميتا» الأخير «محاولةً لتجاوز المخاوف المتزايدة حول استغلال الإعلانات في التأثير على الرأي العام»، وقال لـ«الشرق الأوسط» إن «ميتا تخشى اتهامها بنشر المعلومات غير الموثوقة بشكل واسع إبان الفترات الانتخابية وما بعدها، لا سيما وأنه سبق اتهام الشركة من قبل بوجود محتوى يؤثر على الرأي العام خلال فترات انتخابية سابقة».

وعن دور «ميتا» في الحدّ من «المعلومات المضللة»، أوضح مصطفى أنه «لا تزال المعلومات المضلّلة تحدياً قائماً برغم ما اتخذته (ميتا) من إجراءات لمكافحتها، والتقليل من انتشار الأخبار الكاذبة»، وقال عن دور الشركة في هذا الصدد: «لقد عزّزَت (ميتا) التعاون مع جهات خارجية للتحقّق من صحة الأخبار، فباتت تعتمد على منظمة (فاكت تشيك/ FactCheck)، وشبكات من المؤسسات المستقلة؛ للتحقّق من الأخبار المتداوَلة عبر المنصة».

واستشهد الدكتور مصطفى ببعض التقارير الصادرة عن منظمة «هيومن رايتس ووتش»، التي أظهرت إحراز «ميتا» تقدماً في مجال الحد من «خطاب الكراهية»؛ «إذ تمكّنت خوارزميات الشركة من التعرّف على بعض الأنماط المتكرّرة للمحتوى المسيء، وحذفه تلقائياً قبل أن ينتشر»، غير أنه مع ذلك عدّ إجراءات «ميتا» غير كافية، مشيراً إلى أن «خوارزميات الذكاء الاصطناعي ما زالت محدودة القدرة على معالجة المحتوى بلغات ولهجات متنوعة، أو فهم السياقات الثقافية المعقّدة، ما يجعل من الصعوبة بمكان وضع حدود واضحة أمام تحقيق نجاح كامل في تقليص خطاب الكراهية».

هذا، وكانت المنظمة الدولية «غلوبال ويتنس» قد أعدّت تقريراً حول ما إذا كانت منصات التواصل الاجتماعي قادرةً على اكتشاف وإزالة «المعلومات المضلّلة الضارّة»، لا سيما المتعلقة بانتخابات الرئاسة الأميركية، وأشارت في نتائجها عقب الانتخابات الأميركية إلى أن أداء «فيسبوك» كان أفضل مقارنةً بمنصة مثل «تيك توك»، لكن التقرير لم ينفِ التورّط في نشر «معلومات مضلّلة» برغم القيود، كذلك ذكر التقرير أن «فيسبوك» وافَق على واحد من بين 8 إعلانات اختبرت بها المنظمة قيود المنصة للحَدّ من «المعلومات المضلّلة»، ما رأته المنظمة «تحسّناً ملحوظاً مقارنةً بأداء المنصة السابق مع أنه لا يزال غير كافٍ».

من ناحية أخرى أشار تقرير صادر عن منظمات المجتمع المدني «إيكو» و«المراقبة المدنية الهندية الدولية»، إلى أن «ميتا» سمحت بظهور إعلانات تحتوي على عبارات تحريضية ضد الأقليات على منصّتها خلال فترة الانتخابات الأميركية، كما أشارت إلى رصد «محتوى زائف» مصنوع بأدوات الذكاء الاصطناعي.

وحول هذا الأمر، علّق خالد عبد الراضي، الخبير في إدارة وتحليل بيانات «السوشيال ميديا» بمصر والمملكة العربية السعودية، لـ«الشرق الأوسط»، على قرار «ميتا» بالقول إننا بصدد محاولات عدّها «غير جادة»، ودلّل على ذلك بأن «(ميتا) قيّدت الإعلانات قبل الانتخابات الأميركية بأسبوع واحد فقط، وهذه مدة غير كافية إذا كانت المنصة بالفعل جادّة في الحدّ من التضليل والتأثير على الرأي العام، مثلاً (إكس) كانت أكثر جدّية من خلال تقييد أي منشور موجّه قبل الانتخابات بشهر»، مشيراً إلى أنه «بالتبعية شاهدنا على منصة (فيسبوك) محتوى مضلّلاً وزائفاً طُوّر بالذكاء الاصطناعي».

وأوضح عبد الراضي أن «(ميتا) لم تفرض قيوداً على الإعلانات بشكل عام، بل على نوع واحد فقط هو الإعلانات السياسية المدفوعة، ومن ثم تركت المجال أمام التضليل والتأثير على الرأي العام»، ودلّل كذلك على قلة جدّية الشركة بقوله: «بعد الانتخابات الأميركية في 2020 واجهت (ميتا) عدة اتهامات بتوجيه الرأي العام، ما دفع الشركة لاتخاذ إجراءات جادّة، من بينها توظيف (فِرق سلامة) معنية بمراجعة النصوص؛ للتأكد من ملاءمتها مع معايير المنصة، غير أن عمل هذه الفِرق أُنهِي لاحقاً، ما يشير إلى أن ادّعاءات المنصة لم تكن جدّية».