مدير تحرير أخبار «بلومبرغ»: الآلة ستكون صديق الصحافي... و«البيانات» مهمة

رياض حمادة قال إن تحدّي المؤسسات الإخبارية صنع منتَج جيد يشاركه الناس بدلاً من الأخبار الكاذبة

«الآلة» ستكون صديقاً وحليفاً للصحافي
«الآلة» ستكون صديقاً وحليفاً للصحافي
TT

مدير تحرير أخبار «بلومبرغ»: الآلة ستكون صديق الصحافي... و«البيانات» مهمة

«الآلة» ستكون صديقاً وحليفاً للصحافي
«الآلة» ستكون صديقاً وحليفاً للصحافي

«نحن نؤمن بأن التغير يوفر فرصة جديدة». بهذه العبارة رد رياض حمادة مدير التحرير التنفيذي في أخبار «بلومبرغ» حول التوجهات الجديدة في الأدوات وأسلوب طرح المحتوى الإعلامي، حيث أكد أن المؤسسات الإخبارية تواجه تحديات عديدة نتيجة المتغيرات السريعة خلال الفترة الحالية.
وقال حمادة في حوار مع «الشرق الأوسط» إن التحول الرقمي سيوفر الكثير من الفرص للمؤسسات الإعلامية، إذ إنه سيؤمّن لها الوصول إلى شريحة أكبر، لافتاً إلى أنهم في «بلومبرغ» ينصب تركيزهم على الأخبار الاقتصادية والتجارية، وننشر الأخبار على منتجهم الخاص.
كذلك، تطرق مدير تحرير التنفيذي في أخبار «بلومبرغ» إلى دور «الذكاء الصناعي» في عمل الصحافة، وكيف سيساعد الصحافيين في عملهم إبان عصر «الرقمنة»، وما الوسائل التي يمكن أن يكون هذا القطاع الحيوي أن يدعم الصحافة. كذلك سلط الضوء على أهمية البيانات في عالم الصحافة الحالية، كما تحدث كثيراً حول مصطلح «الأخبار الكاذبة» وطريقة محاربته، ودور المؤسسات الصحافية في تصحيح انتشار هذا المصطلح، لافتاً إلى أن محاولات مكافحة الأخبار الكاذبة عن طريق الإشارة إلى الأخطاء فيها تمثل مهمة نبيلة. وأكد حمادة أن المتغيرات الحالية جعلت الأمر صعباً بالنسبة إلى المؤسسات الإخبارية التي اعتادت تنفيذ مهامها بطريقة معينة. وأوضح أنه يمكن أن يستفاد من التكنولوجيا في الكثير من الجوانب في عالم الإعلام في حال جرى الاستغلال والاستثمار بالطريقة الصحيحة، وكل هذا بجانب عدد من القضايا.
وفيما يلي نص الحوار:

> كيف تنظر إلى هذه المرحلة في عالم الإعلام؟ وهي التي تشكل توجهات جديدة في الأدوات وأسلوب طرح المحتوى؟
- تشهد المؤسسات الإخبارية تحديات عديدة نتيجة التغير المتسارع في طريقة إنتاج الأخبار واستهلاكها، الأمر الذي يدفعنا جميعاً إلى التكيف مع هذه التغيرات. وتؤمن أخبار «بلومبرغ» أن التغيير يوفر فرصاً جديدة، وهي تتمتع بمكانة متميزة تمكّنها من استخدام منصاتها المتعددة بطرائق مبتكرة ومتنوعة، وتتيح لها الوصول إلى البيانات التي يصعب الوصول إليها، ما يمكّنها من إنتاج مواد إخبارية فريدة باستخدام صحافة البيانات والذكاء الصناعي.
> لقد أصبح موضوع التحول الرقمي أمراً حتمياً على وسائل الإعلام... ما الإيجابيات والسلبيات في هذا التحول؟
- أعتقد أن هذه التغيرات ستوفر الكثير من الفرص، حيث يمكن أن تكون الآلة صديقاً وحليفاً للصحافي، وسيستفيد منها في تخفيف واجباته العادية، وتساعده في تسليط الضوء على النقاط المثيرة للاهتمام من بين كميات هائلة من البيانات والنصوص، وهذا، فضلاً عن توضيح القصص لتسهيل فهمها والمساعدة في الوصول إلى جمهور أوسع بكثير. ومع أن الأمر قد يكون صعباً بالنسبة إلى المؤسسات الإخبارية التي اعتادت تنفيذ مهامها بطريقة معينة، إلا أن هذه المؤسسات ستستفيد من تكنولوجيا العصر الرقمي إذا ما ارتقت إلى مستوى الحدث، وتكيّفت مع هذه التغيرات.
> يبدو أن الصحافة متجهة بشكل كبير إلى عالم البيانات التي تساعد بشكل كبير في تحليل الأحداث... هل توافق هذا الرأي؟ وما توجهاتكم في هذا الجانب؟
- يتعيّن على الصحافي الجيد دائماً أن يبيّن أهمية الحدث الذي يغطيه. ويتمثل العنصر الجديد في القدرة على توضيح الأمور بشكل أفضل، وتوزيع هذه الأخبار على منصات متعددة، وبالتالي الوصول إلى المزيد من الناس. وتعدّ هذه إحدى نقاط قوة «بلومبرغ»؛ إذ ينصبّ تركيزنا على الأخبار الاقتصادية والتجارية، كما أننا ننشر الأخبار على منتجنا الخاص، أي «بلومبرغ تيرمينال»، إلى جانب حضور متزايد على الإنترنت والعديد من منصات التواصل الاجتماعي والتلفزيون ومنصات البث عبر الإنترنت والراديو، والمجلات المطبوعة.
> كثر الحديث عن «الذكاء الصناعي» وكأنه سيلغي دور الصحافيين والمذيعين والإعلاميين... كيف تنظر إلى هذا القول؟
- أعتقد أن الذكاء الصناعي سيغير طريقة عمل الصحافيين، وسيساعدهم في تأدية مهامهم، إذ سيتولى تنفيذ المهام الروتينية والمملة، الأمر الذي سيمّكن الصحافيين من التركيز على أهدافهم الرئيسية: أي التواصل، وبناء مصادر الأخبار العاجلة، والعمل على المقابلات المؤثرة، وجمع القصص الإخبارية - بأي شكل من الأشكال - كي تصل إلى جمهور واسع. أيضاً، سيكون الذكاء الصناعي قادراً على تحديد القصص التي قد يفوّتها الصحافيون بسبب شدة انشغالهم.
> في الآونة الأخيرة ظهر مصطلح «الأخبار الكاذبة» وانتشر بشكل كبير... حسب رأيك ما الأسباب التي أدت إلى وجود مثل هذه الأخبار؟ وكيف يمكن محاربتها؟
- قد يكون مصطلح الأخبار الكاذبة جديداً، لكن المفهوم قديم، وكنا نسميه البروباغاندا. والواقع أن الفارق بينهما يتمثل في أن وسائل التواصل الاجتماعي تمكّن أي شخص لديه جهاز كومبيوتر أو هاتف محمول من نشر أي شيء يريده. لا يعني هذا أن النيات دائماً خبيثة، فقد يكون الدافع بسيطاً مثل الرغبة في الوصول إلى مزيد من القراء، ما يدفع البعض إلى اللجوء إلى منشورات تثير ردود فعل عاطفية. ولكن لسوء الحظ، تميل «الأخبار الكاذبة» إلى مفاجأة القراء وإثارة غضبهم وإرباكهم وإيقاع الفتن بينهم. وبالتالي، يشارك الناس هذه الأخبار وينشرونها بحسن نية. ومع أن محاولات مكافحة الأخبار الكاذبة عن طريق الإشارة إلى الأخطاء فيها تمثل مهمة نبيلة، إلا أن غالبية الناس لا يشاركون الحقائق، ويظل تداول الأخبار الكاذبة أسرع. في أي حال، نحن الآن نشهد حالياً اهتماماً متزايداً بسمعة المنصة الإخبارية، ويحاول القراء الوصول إلى أخبار موثوقة من المنافذ المرموقة الحسنة السمعة. وهنا يمثل التحدّي الذي تواجهه المؤسسات الإخبارية في إنتاج منتج جيد يرغب الناس في مشاركته بدلاً من الأخبار الكاذبة.

رياض حمادة مدير التحرير التنفيذي لأخبار «بلومبرغ»

> يقود رياض حمادة حالياً برامج الزمالة في «بلومبرغ» عالمياً. وقبل ذلك قاد تغطية «بلومبرغ نيوز» في منطقة الشرق الأوسط وأفريقيا. ومن 2001 إلى 2008 ساهم في بناء التغطية الاقتصادية لأخبار «بلومبرغ» في أوروبا الغربية. وشغل حمادة قبل انضمامه إلى «بلومبرغ»، منصب محرر أول في «بريدج نيوز» في مدينة فرانكفورت الألمانية، كما عمل في «هيئة الإذاعة البريطانية» (بي بي سي) في بريطانيا.
ولد رياض حمادة في مدينة روتلينغن بألمانيا، ونشأ في العاصمة اللبنانية بيروت، حيث حصل على شهادة بكالوريوس في الاقتصاد من الجامعة الأميركية في بيروت عام 1986، وعام 1989 حصل على درجة الماجستير في التاريخ الاقتصادي من مدرسة لندن للاقتصاد والعلوم السياسية LSE في لندن. وهو راهناً مقيم في مدينة دبي بدولة الإمارات العربية المتحدة.



اعتماد «ميتا» على منشورات المُستخدمين لتدريب الذكاء الاصطناعي... يجدد مخاوف «الخصوصية»

اعتماد «ميتا» على منشورات المُستخدمين لتدريب الذكاء الاصطناعي... يجدد مخاوف «الخصوصية»
TT

اعتماد «ميتا» على منشورات المُستخدمين لتدريب الذكاء الاصطناعي... يجدد مخاوف «الخصوصية»

اعتماد «ميتا» على منشورات المُستخدمين لتدريب الذكاء الاصطناعي... يجدد مخاوف «الخصوصية»

أعلنت شركة «ميتا» عزمها البدء في تدريب نماذج الذكاء الاصطناعي الخاصة بها، معتمدة على بيانات مصدرها المنشورات العامة للمستخدمين على «فيسبوك» و«إنستغرام»، الأمر الذي عدّه بعض الخبراء يجدد المخاوف بشأن «الخصوصية»، ولا سيما أن الشركة كانت قد واجهت اعتراضات سابقة في ما يخص مشروعها لتغذية نماذج الذكاء الاصطناعي، ما أدى إلى توقفه في يونيو (حزيران) الماضي.

«ميتا» كانت قد أصدرت إفادة في سبتمبر (أيلول) الحالي، لتوضيح آلية استخدام المنشورات العامة للمستخدمين على «فيسبوك» و«إنستغرام» اللتين تملكهما. وقالت إنها «تشمل الصور والمنشورات والتعليقات فقط، بهدف تغذية نماذج الذكاء الاصطناعي التوليدي». وشددت الشركة على أن المحتوى المستخدم لن يشمل الرسائل الخاصة أو أي بيانات صنّفها المستخدم تحت عبارة خاص أو محمي، كما لن تشارك أي معلومات من حسابات المستخدمين الذين تقل أعمارهم عن 18 سنة.

حاتم الشولي، المشرف على تحرير الإعلام الرقمي في قناة «الشرق للأخبار» قال لـ«الشرق الأوسط» إنه يرى أن الخطوة تأتي في إطار سعي «ميتا» لتطوير تقنيات الذكاء الاصطناعي الخاصة بها. وأوضح أنها «خطوة في الاتجاه الصحيح؛ لكنها تصب في مصلحة (ميتا)، التي تسعى للبقاء منافساً قوياً في سوق التكنولوجيا المتقدمة». وأضاف: «(ميتا) هي الشركة الأضخم من حيث الاستحواذ على بيانات المستخدمين، وكانت منذ نشأتها الأكثر مرونة في التعاطي مع المتغيرات». وعدّ الشولي أن دخول الشركة في سوق الذكاء الاصطناعي أمر حتمي، موضحاً أن «(ميتا) تحمي نفسها من الشيخوخة، ولا سيما أن منصاتها التقليدية مثل (فيسبوك) بدأت تشهد تراجعاً في شعبيتها».

وعن تهديد مشروع «ميتا» لمبدأ الخصوصية، علّق الشولي بالقول إن «مسألة حماية البيانات قضية جدلية منذ ظهور منصات التواصل الاجتماعي، ولتحليل ما إذا كان مشروع (ميتا) يهدد الخصوصية أم لا، علينا أولاً التفريق بين نوعين من البيانات: الأول هي البيانات المحمية من قبل المستخدم، والثاني يخص البيانات المسموح بمشاركتها وفقاً لرغبة المستخدم أيضاً... وفي مشروع (ميتا) الذي نحن بصدده، أقرّت الشركة بأنها تعتمد على البيانات المعلنة فقط التي يوافق المستخدمون على مشاركتها، مثل العمر، النوع، الموقع الجغرافي، الاهتمامات».

مع هذا، أثار الشولي الحديث عن «أخلاقيات الذكاء الاصطناعي»، أو النماذج التي تعتمد عليها شركات التكنولوجيا المهيمنة على السوق لتدريب الذكاء الاصطناعي، وقال: «تنظيم أخلاقيات الذكاء الاصطناعي بات أكثر إلحاحاً من أكثر وقت مضى، وبالفعل اتجهت بعض الدول مثل الصين والولايات المتحدة ودول أوروبا في تشريع قوانين لحماية خصوصية المستخدمين». وشدّد «على أهمية وضع معايير واضحة ومهنية تنظم آلية استخدام البيانات لتدريب نماذج الذكاء الاصطناعي، ووجوب الإشارة إلى أن المحتويات المصنوعة بالذكاء الاصطناعي اعتمدت على مصادر معينة، وذلك من شأنه تحقيق الشفافية، ما يُجنب وقوع أي عمليات تضليل».

للعلم، يأتي مشروع «ميتا» الجديد بعدما كانت قد أعلنت تأجيل إطلاق نماذج الذكاء الاصطناعي في أوروبا، منتصف يونيو (حزيران) الماضي، على خلفية بعض العقبات، من بينها طلب هيئة حماية الخصوصية الآيرلندية تأجيل خطة «ميتا» لاستخدام البيانات من منشورات وسائل التواصل الاجتماعي. ويومذاك أعلنت الشركة أن التوقف أيضاً سيسمح لها بتلبية طلبات «مكتب مفوضية المعلومات البريطاني» (ICO) في ما يخصّ التعليمات التنظيمية لاستخدام البيانات.

ثم إن «ميتا» واجهت في يونيو الماضي انتقادات عدة من قبل «المركز الأوروبي للحقوق الرقمية» (NOYB)، وهي منظمة غير ربحية، مقرّها في فيينا، دعت الهيئات الوطنية لحماية الخصوصية في جميع أنحاء أوروبا، وإلى وقف استخدام محتوى وسائل التواصل الاجتماعي لهذا الغرض. وبرّرت موقفها بالقول إن «الإشعارات التي تقدمها (ميتا) غير كافية لتلبية قواعد الاتحاد الأوروبي الصارمة المتعلقة بالخصوصية والشفافية»، وفقاً لما نقلته وكالة أنباء «رويترز».

من جهة ثانية، قال فادي رمزي، مستشار الإعلام الرقمي المصري والمحاضر في الجامعة الأميركية بالقاهرة، لـ«الشرق الأوسط»، إن تاريخ شركة «ميتا» المالكة لمنصتي «فيسبوك» و«إنستغرام» مليء بالثغرات في ما يخص حماية البيانات. وأضاف: «من قبل نماذج الذكاء الاصطناعي، وشركة ميتا تتعامل مع أي محتوى ينشره المستخدمون بشكل علني، باعتباره متاحاً للاستخدام بدليل البيانات التي تُوفَّر للمعلنين»، وتابع: «(ميتا) تقاعست عن تعزيز الشفافية على مدار السنوات الماضية، ما يعقد الوثوق فيها الآن... لقد واجهت (ميتا) مشاكل متكررة في التعامل مع بيانات المستخدمين، وسبق أن واجهت فضائح متعلقة بتسريب البيانات، مثل قضية كمبريدج أناليتيكا». وتعود قضية «كمبريدج أناليتيكا»، ومقرها لندن، إلى عام 2018 حين كُشف عن أن الشركة جمعت البيانات الشخصية لملايين الأشخاص مستخدمة حساباتهم على «فيسبوك»، وجرى استخدام هذه البيانات لأغراض الدعاية السياسية، ما اضطر «فيسبوك» لاحقاً لدفع 725 مليون دولار في إطار تسوية لدعوى قضائية جماعية تخص تلك القضية.

ووفق رمزي، فإن «حماية الخصوصية معضلة لن تحلها شركات التكنولوجيا، لا (ميتا) ولا غيرها... فحماية الخصوصية ميزة تتنافى مع مصالح شركات التكنولوجيا، ولا سيما ونحن أمام نماذج تتنافس في مجال الذكاء الاصطناعي التوليدي». وفي ما يخص مشروع «ميتا» الجديد، قال رمزي إن «النموذج الذي قدّمته الشركة لا يشير إلى أي إلزام بإبلاغ المستخدمين حول استخدام بياناتهم، وهو أمر يعود إلى غياب التشريعات في هذا الصدد». ورهن التزام الشركة بالمصداقية والأخلاقيات المهنية فيما يخص بيانات المستخدمين أو حقوق الناشرين، كذلك بالتشريعات الملزمة.