ملخصات الذكاء الاصطناعي على «غوغل» تقلق ناشري الأخبار

ملخصات الذكاء الاصطناعي على «غوغل» تقلق ناشري الأخبار
TT

ملخصات الذكاء الاصطناعي على «غوغل» تقلق ناشري الأخبار

ملخصات الذكاء الاصطناعي على «غوغل» تقلق ناشري الأخبار

أثار إطلاق «غوغل» خدمة ملخصات الأخبار المدعومة بالذكاء الاصطناعي، أو ما أطلقت عليه «Google AI Overviews»، قلق الناشرين، بسبب تأثير هذا الاتجاه على نتائج البحث، إذ تسبب ذلك في «دفن» المحتوى الأصلي المُعَد من قِبل ناشرين مُحنكين أسفل الملخصات والإعلانات المدفوعة، وفق مراقبين.

«غوغل» كانت قد أعلنت نهاية أغسطس (آب) الماضي عن إطلاق ملخصات مكتوبة بواسطة الذكاء الاصطناعي لبعض الأخبار، وتصدّرها نتائج البحث قبل الأخبار، في تجربة اقتصرت على الولايات المتحدة وبريطانيا.

ويذكر أن «غوغل» أطلقت الخدمة عينها في 21 مايو (أيار) الماضي في الولايات المتحدة، لكنها أوقفت لاحقاً بعد الكشف عن «نتائج غير دقيقة أنتجت بواسطة الذكاء الاصطناعي». ومع أنه يندر لـ«غوغل» تقديم ملخصات لأحداث جارية، أبلغ خبراء «الشرق الأوسط» في لقاءات معهم عن قلقهم بشأن تأثير هذه الخطوة على «ظهور الصحف ومصادر الأخبار الرئيسية خلال عمليات البحث في مراتب متأخرة».

وفق نتائج نشرتها شركة «أوثوريتاس» للاستشارات البحثية على موقعها الرسمي، فإن 17 في المائة من نتائج البحث على «غوغل» في بريطانيا والولايات المتحدة تتصدرها ملخّصات مدعومة بالذكاء الاصطناعي، في حين يظهر مصدر الخبر في مراتب متأخرة. وقال الرئيس التنفيذي للشركة، لورانس أوتول، لـ«بريس غازيت»، إنه يعتقد أن خدمة ملخصات «غوغل» ستصبح «الأولوية في نتائج البحث»، وأشار إلى أن «غوغل لم تكن واضحة بشأن معايير نتائج محركات البحث، ما قد يؤثر على زيارات المواقع الإخبارية».

محمد الكبيسي، الباحث والمدرب العراقي في الإعلام الرقمي بفنلندا، قال: «إن ملخصات الأخبار المدعومة بالذكاء الاصطناعي من (غوغل) ربما تكون مفيدة؛ لكن إذا خضعت لضوابط الشفافية». وأوضح أن «هذه الخدمة قد تفيد الذين يبحثون عن معلومات سريعة وشاملة حول موضوعات معينة... وإذا طبّقت هذه التقنية بدقة، فإنها قد توفر قيمة مضافة للمستخدمين».

وعن تأثير هذا الاتجاه على الأخبار، شرح الكبيسي أن «هذا الاتجاه لا يعني بالضرورة تقليص حجم الأخبار، بل يمكن أن يكون تكميلياً، فالملخصات توفر نظرة عامة سريعة، في حين تظل المقالات الإخبارية المفصلة متاحة لأولئك الذين يرغبون في قراءة معلومات أعمق... ذلك أن الأمر يتعلق بتلبية احتياجات مختلفة من الجمهور».

من جهة ثانية، يؤيد الباحث العراقي حقوق الناشرين، موضحاً: «يجب أن تحقق ملخصات (غوغل) هذه عنصر الشفافية، وهذا مرهون بالإشارة إلى المصادر الأصلية. المصادر الإخبارية الأصلية عنصر أساسي لاستمرارية هذه الخدمات، كما أن إظهار المصادر بوضوح يسهم في ضمان الاعتراف الدقيق بالمحتوى الأصلي»، مشدداً على حتمية تكامل الجهود بين «غوغل» والناشرين لضمان تحسين الخدمات.

أما بشأن معارضة البعض لخدمات «غوغل» المدعومة بالذكاء الاصطناعي خوفاً على مستقبل الناشرين، فيرى محمد الكبيسي أن ثمة جهوداً يجب أن تُبذل من قبل الطرفين، «ومن المهم أن تعمل الصحف على تطوير استراتيجيات رقمية فعالة تتناسب مع التطور السريع في العالم الرقمي وآلياته، والتأكد من أن تقنيات الذكاء الاصطناعي تبرز المصادر بوضوح، كما أن التعاون مع مقدمي الخدمات، رُبما يمكن أن يسهم في تحقيق توازن بين الابتكار والحفاظ على حقوق المحتوى».

هذا، وفي تجربة أجرتها صحيفة «بريس غازيت» لقياس مدى تأثير ملخصات «غوغل» المدعومة بالذكاء الاصطناعي على الأخبار، وجدت أنه لدى البحث عن إجابة لسؤال: «مَن هم رؤساء تحرير الصحف الوطنية في بريطانيا؟»، يقدم «غوغل» ملخصاً بواسطة الذكاء الاصطناعي بوصفه نتيجة أولى. وأشارت إلى أن المعلومات التي استند إليها الملخص مصدرها تقرير سابق نشرته «بريس غازيت»، لكن الملخص لم يُشر لها بصفته مالكاً أصلياً للمعلومات، في حين ظهر رابط التقرير الأصلي في نتائج متأخرة على محرك البحث.

وتعليقاً على خدمة الملخصات الإخبارية من «غوغل»، قالت الدكتورة رضوى عبد اللطيف، مدير العلاقات الأكاديمية بمؤسسة «صحافة الذكاء الاصطناعي للبحث والاستشراف» في دبي، وخبيرة ومدربة الإعلام الرقمي وصحافة الذكاء الاصطناعي، لـ«الشرق الأوسط»: «إن (غوغل) عازمة على مواصلة طريقها نحو مشاريع الذكاء الاصطناعي، وفي هذا الإطار عقدت شراكات مع ناشرين بارزين بهدف مشاريع تغذية أدوات الذكاء الاصطناعي بالمعلومات... غير أن هذا لا يُشير إلى إمكانية الاستغناء عن المنصات الإخبارية، وإن شهدت تأثيراً يخص ظهورها على محرك البحث، ومن ثم تراجع الزيارات».

وتابعت رضوى عبد اللطيف: «في تجربة (غوغل) التي صدرت للمرة الأولى في مايو الماضي، أمكن رصد معلومات غير دقيقة، وهو أمر وارد ومقبول، لكن علينا أن نعي، سواء أكنا متخصصين أم حتى مستخدمين، أنه لا يمكن الاعتماد على الذكاء الاصطناعي وحده للحصول على المعلومات، بينما هو أداة لها حدود». وأضافت: «لا يمكننا الثقة بعد في قواعد بيانات أدوات الذكاء الاصطناعي، لا سيما أنه جرى رصد محتوى متحيز وغير دقيق؛ لذلك لا غنى عن المراجعة البشرية».

رضوى عبد اللطيف عدّت، من ناحية ثانية، أنه بوسع الناشرين حماية دورهم ومحتواهم، من خلال إبرام صفقات مع شركات التكنولوجيا على شاكلة «غوغل». وشرحت: «على الناشرين التكيف والاستفادة، من خلال قواعد تحمي حقوق الملكية للأرشيف، كما يجب أن يعمل الناشرون مع أكثر من محرك بحث لمقاومة نموذج الاحتكار الممثل في (غوغل)، الذي أضر بالصحف الفترة الماضية».



تمديد «ميتا» لقيود الإعلانات... هل يحُدّ من «المعلومات المضلّلة»؟

تمديد «ميتا» لقيود الإعلانات... هل يحُدّ من «المعلومات المضلّلة»؟
TT

تمديد «ميتا» لقيود الإعلانات... هل يحُدّ من «المعلومات المضلّلة»؟

تمديد «ميتا» لقيود الإعلانات... هل يحُدّ من «المعلومات المضلّلة»؟

أثار إعلان شركة «ميتا» تمديد فترة تقييد الإعلانات المتعلقة بالقضايا الاجتماعية أو السياسية لما بعد انتخابات الرئاسة الأميركية، من دون أن تحدّد الشركة وقتاً لنهاية هذا التمديد، تساؤلات حول مدى فاعلية القرار في الحدّ من انتشار «المعلومات المضلّلة»، يأتي ذلك بالتزامن مع رصد تجاوزات مرّرَتها المنصة الأشهَر «فيسبوك» خلال الفترة السابقة برغم تقييد الإعلانات.

ما يُذكر أن «فيسبوك» أعانت بنهاية أكتوبر (تشرين الأول) الماضي «حظر أي إعلان يحمل رسائل توجيه سياسي أو اجتماعي من شأنه التأثير في سير الانتخابات الرئاسية الأميركية»، غير أن مراقبين قاموا برصد تجاوزات على المنصة وصفوها بـ«التضليل»، وقالوا إن «فلاتر» المحتوى على «ميتا» – التي تملك «فيسبوك» – «غير متمرّسة» بما يكفي لتمييز المحتوى الذي ينتهك إرشادات المصداقية، ما يثير شكوكاً بشأن جدوى قرار الشركة تقييد الإعلانات.

الدكتور حسن مصطفى، أستاذ التسويق الرقمي والذكاء الاصطناعي في عدد من الجامعات الإماراتية، عدّ قرار «ميتا» الأخير «محاولةً لتجاوز المخاوف المتزايدة حول استغلال الإعلانات في التأثير على الرأي العام»، وقال لـ«الشرق الأوسط» إن «ميتا تخشى اتهامها بنشر المعلومات غير الموثوقة بشكل واسع إبان الفترات الانتخابية وما بعدها، لا سيما وأنه سبق اتهام الشركة من قبل بوجود محتوى يؤثر على الرأي العام خلال فترات انتخابية سابقة».

وعن دور «ميتا» في الحدّ من «المعلومات المضللة»، أوضح مصطفى أنه «لا تزال المعلومات المضلّلة تحدياً قائماً برغم ما اتخذته (ميتا) من إجراءات لمكافحتها، والتقليل من انتشار الأخبار الكاذبة»، وقال عن دور الشركة في هذا الصدد: «لقد عزّزَت (ميتا) التعاون مع جهات خارجية للتحقّق من صحة الأخبار، فباتت تعتمد على منظمة (فاكت تشيك/ FactCheck)، وشبكات من المؤسسات المستقلة؛ للتحقّق من الأخبار المتداوَلة عبر المنصة».

واستشهد الدكتور مصطفى ببعض التقارير الصادرة عن منظمة «هيومن رايتس ووتش»، التي أظهرت إحراز «ميتا» تقدماً في مجال الحد من «خطاب الكراهية»؛ «إذ تمكّنت خوارزميات الشركة من التعرّف على بعض الأنماط المتكرّرة للمحتوى المسيء، وحذفه تلقائياً قبل أن ينتشر»، غير أنه مع ذلك عدّ إجراءات «ميتا» غير كافية، مشيراً إلى أن «خوارزميات الذكاء الاصطناعي ما زالت محدودة القدرة على معالجة المحتوى بلغات ولهجات متنوعة، أو فهم السياقات الثقافية المعقّدة، ما يجعل من الصعوبة بمكان وضع حدود واضحة أمام تحقيق نجاح كامل في تقليص خطاب الكراهية».

هذا، وكانت المنظمة الدولية «غلوبال ويتنس» قد أعدّت تقريراً حول ما إذا كانت منصات التواصل الاجتماعي قادرةً على اكتشاف وإزالة «المعلومات المضلّلة الضارّة»، لا سيما المتعلقة بانتخابات الرئاسة الأميركية، وأشارت في نتائجها عقب الانتخابات الأميركية إلى أن أداء «فيسبوك» كان أفضل مقارنةً بمنصة مثل «تيك توك»، لكن التقرير لم ينفِ التورّط في نشر «معلومات مضلّلة» برغم القيود، كذلك ذكر التقرير أن «فيسبوك» وافَق على واحد من بين 8 إعلانات اختبرت بها المنظمة قيود المنصة للحَدّ من «المعلومات المضلّلة»، ما رأته المنظمة «تحسّناً ملحوظاً مقارنةً بأداء المنصة السابق مع أنه لا يزال غير كافٍ».

من ناحية أخرى أشار تقرير صادر عن منظمات المجتمع المدني «إيكو» و«المراقبة المدنية الهندية الدولية»، إلى أن «ميتا» سمحت بظهور إعلانات تحتوي على عبارات تحريضية ضد الأقليات على منصّتها خلال فترة الانتخابات الأميركية، كما أشارت إلى رصد «محتوى زائف» مصنوع بأدوات الذكاء الاصطناعي.

وحول هذا الأمر، علّق خالد عبد الراضي، الخبير في إدارة وتحليل بيانات «السوشيال ميديا» بمصر والمملكة العربية السعودية، لـ«الشرق الأوسط»، على قرار «ميتا» بالقول إننا بصدد محاولات عدّها «غير جادة»، ودلّل على ذلك بأن «(ميتا) قيّدت الإعلانات قبل الانتخابات الأميركية بأسبوع واحد فقط، وهذه مدة غير كافية إذا كانت المنصة بالفعل جادّة في الحدّ من التضليل والتأثير على الرأي العام، مثلاً (إكس) كانت أكثر جدّية من خلال تقييد أي منشور موجّه قبل الانتخابات بشهر»، مشيراً إلى أنه «بالتبعية شاهدنا على منصة (فيسبوك) محتوى مضلّلاً وزائفاً طُوّر بالذكاء الاصطناعي».

وأوضح عبد الراضي أن «(ميتا) لم تفرض قيوداً على الإعلانات بشكل عام، بل على نوع واحد فقط هو الإعلانات السياسية المدفوعة، ومن ثم تركت المجال أمام التضليل والتأثير على الرأي العام»، ودلّل كذلك على قلة جدّية الشركة بقوله: «بعد الانتخابات الأميركية في 2020 واجهت (ميتا) عدة اتهامات بتوجيه الرأي العام، ما دفع الشركة لاتخاذ إجراءات جادّة، من بينها توظيف (فِرق سلامة) معنية بمراجعة النصوص؛ للتأكد من ملاءمتها مع معايير المنصة، غير أن عمل هذه الفِرق أُنهِي لاحقاً، ما يشير إلى أن ادّعاءات المنصة لم تكن جدّية».