شركات التكنولوجيا ووسائل الإعلام الليبرالية تتجه يميناً

تساؤلات في أميركا وخارجها عما إذا كانت قد خضعت لترمب؟

إيلون ماسك (رويترز)
إيلون ماسك (رويترز)
TT

شركات التكنولوجيا ووسائل الإعلام الليبرالية تتجه يميناً

إيلون ماسك (رويترز)
إيلون ماسك (رويترز)

استقالت رسامة الكاريكاتير الأميركية -السويدية الأصل- آن تيلنيس، الحائزة على جائزة «بوليتزر»، من عملها في صحيفة «واشنطن بوست» خلال الأسبوع الماضي، بعد رفض قسم الآراء في الصحيفة رسماً كاريكاتيرياً يصوّر مالك الصحيفة، الملياردير جيف بيزوس مع مليارديرات آخرين من عمالقة التكنولوجيا، وهم ينحنون أمام تمثال للرئيس المنتخب دونالد ترمب. وفور إعلان الخبر رأى كثيرون أن الواقعة الجديدة تختصر صورة المرحلة المقبلة في الولايات المتحدة.

مارك زوكربيرغ (آ ب)

إعادة تموضع

خلال الحملة الانتخابية الأخيرة، بعدما بدا أن ترمب يتجه إلى العودة مجدداً إلى البيت الأبيض، بدأ الكثير من مسؤولي الشركات الكبرى ووسائل الإعلام الأميركية، رحلة «إعادة تموضع» تماشياً مع العهد الثاني لترمب. وهو ما تُرجم بداية بامتناع وسائل إعلام كانت دائماً تُعد رمزاً لليبرالية، مثل: «واشنطن بوست» و«لوس أنجليس تايمز»، عن تأييد أي من المرشحين الرئاسيين، فضلاً عن تغيير غرف التحرير في محطات تلفزيونية عدة، ومراجعة الكثير من سياسات الرقابة والإشراف والمعايير الناظمة لعملها، إلى إعادة النظر في تركيبة مجالس إدارات بعض شركات التكنولوجيا.

وبعيداً عن انحياز الملياردير إيلون ماسك، مالك تطبيق «إكس»، المبكر لترمب، واتجاهه للعب دور كبير في إدارته المقبلة، كانت الاستدارة التي طرأت على باقي المنصات الاجتماعية والإعلامية مفاجئة وأكثر إثارة للجدل.

ان تيلنيس (جائزة بوليتزر)

خضوع سياسي أم تغيير أعمق؟

البعض قال إنه «خضوع» سياسي للرئيس العائد، في حين عدّه آخرون تعبيراً عن تغيير أعمق تشهده سياسات واشنطن، لا يُختصر في ترمب، بل يشمل أيضاً كل الطبقة السياسية في الحزبَيْن الجمهوري والديمقراطي، وحتى المزاج الشعبي الذي أظهرته نتائج الانتخابات.

في بيانها الموجز، قالت تيلنيس التي تعمل في «واشنطن بوست» منذ عام 2008، إن قرار الصحيفة رفض رسمها الكاريكاتيري «مغيّر لقواعد اللعبة» و«خطير على الصحافة الحرة». وكتبت: «طوال ذلك الوقت لم يُمنع رسم كاريكاتيري قط بسبب مَن أو ما اخترت أن أوجّه قلمي إليه حتى الآن». وأدرجت تيلنيس مسوّدة من رسمها الكاريكاتيري في منشور على موقع «سبستاك»، يظهر بيزوس، مؤسس «أمازون» ومالك الصحيفة، مع مؤسس شركة «ميتا» مارك زوكربيرغ، وسام ألتمان الرئيس التنفيذي لشركة «أوبن إيه آي»، وباتريك سون شيونغ مالك صحيفة «لوس أنجليس تايمز»، و«ميكي ماوس» التميمة المؤسسية لشركة «والت ديزني»، ينحنون أمام تمثال ترمب.

وطبعاً كان من الطبيعي أن «يختلف» ديفيد شيبلي، محرّر الآراء في الصحيفة، مع تقييم تيلنيس، وبالفعل قال في بيان إنه يحترم كل ما قدمته للصحيفة، «لكن يجب أن يختلف مع تفسيرها للأحداث»، معتبراً قرار منع نشر رسم الكاريكاتير «تفادياً للتكرار»، بعدما نشرت الصحيفة مقالات عن الموضوع.

... وزوكربيرغ يعود إلى أصوله

بيد أن تزامن منع الكاريكاتير مع الخطوة الكبيرة التي اتخذتها شركة «ميتا» يوم الثلاثاء، عندما أعلن مارك زوكربيرغ أن «فيسبوك» و«إنستغرام» و«ثريدز» ستُنهي عملية التدقيق في الحقائق من قِبل أطراف ثالثة، قرأها العالم السياسي بوصفها نوعاً من الاستسلام؛ إذ قال زوكربيرغ في مقطع فيديو نشره على «فيسبوك» إن «(ميتا) ستتخلّص من مدقّقي الحقائق، وستستعيض عنهم بملاحظات مجتمعية مشابهة لمنصة (إكس)»، وهو ما رآه البعض «تضحية بقيم الشركة على (مذبح) دونالد ترمب وسياسة (حرية التعبير)» للحزب الجمهوري الجديد. بالنسبة إلى المحافظين اليمينيين، الذين يعتقدون أن المشرفين ومدققي الحقائق ليبراليون بشكل شبه موحّد، واثقون بأن النهج الأكثر تساهلاً في تعديل المحتوى سيعكس الواقع بشكل أكثر دقة، من خلال السماح بمجموعة أوسع من وجهات النظر. وعدّ هؤلاء، ومنهم بريندان كار الذي اختاره ترمب لإدارة لجنة الاتصالات الفيدرالية، قرار «ميتا» انتصاراً.

في المقابل، أعرب الليبراليون عن «فزعهم»، وعدّوه «هدية لترمب والمتطرّفين في جميع أنحاء العالم». وقال معلقون ليبراليون إن من شأن خفض معايير التأكد من الحقائق من قِبل أكبر منصة في العالم يُنذر بمجال رقمي أكثر غرقاً بالمعلومات الكاذبة أو المضللة عمداً مما هو عليه اليوم.

ابتعاد عن الليبرالية

هذا، ومع أنه من غير المتوقع أن يؤدي قرار زوكربيرغ بالضرورة إلى تحويل الإنترنت إلى «مستنقع للأكاذيب أو الحقائق»؛ لأن الخوارزميات هي التي تتحكم بما يُنشر في نهاية المطاف. فإن قراره يعكس، في الواقع، ابتعاد شركات التكنولوجيا عن الرؤية الليبرالية لمحاربة «المعلومات المضلّلة». وهذه مسيرة بدأت منذ سنوات، حين تراجعت «ميتا» عام 2019 عن التحقق من صحة الإعلانات من السياسيين، وعام 2023 عن تعديل الادعاءات الكاذبة حول انتخابات 2020.

وحقاً، كان إعلان يوم الثلاثاء هو الأحدث في سلسلة من تراجعات الشركة، واتجاهها نحو اليمين منذ إعادة انتخاب ترمب. ففي الأسبوع الماضي، عيّنت الشركة الجمهوري جويل كابلان رئيساً عالمياً للسياسة، وعيّنت، يوم الاثنين، دانا وايت، حليفة ترمب التي لعبت دوراً رئيساً خلال المؤتمر الوطني للحزب الجمهوري، في مجلس إدارة الشركة. وفي السياق نفسه تضمّن إعلان يوم الثلاثاء نقل فريق الثقة والسلامة في الشركة من ولاية كاليفورنيا «الليبرالية»، إلى ولاية تكساس «الجمهورية»؛ مما يعكس دعوات من قادة التكنولوجيا اليمينيين مثل إيلون ماسك إلى تركيز الصناعة في بيئات «أقل ليبرالية» من «وادي السيليكون».

ترمب ممثلاً للأكثرية

في مطلق الأحوال، مع أن كثيرين من النقاد والخبراء يرون أن هذا التغيير يعكس بالفعل حقيقة ابتعاد شركة «ميتا» وغيرها من شركات ومواقع التواصل الاجتماعي عن الرؤية الليبرالية للحوكمة الرقمية، لكنهم يشيرون إلى أنه ابتعاد مدفوع أيضاً بالقيم الأساسية للصناعة التي جرى تبنيها إلى حد كبير، تحت الإكراه، استجابة للحظات سياسية مشحونة.

ومع تحوّل ترمب تدريجياً من كونه متطفلاً دخيلاً على الحياة السياسية الأميركية، إلى الممثل الأبرز للأكثرية التي باتت تخترق كل الأعراق -وليس فقط البيض- فقد بدا أن هذا النهج الذي يشبه نظام المناعة بات أقل ملاءمة، وربما، بالنسبة إلى شركات مثل «ميتا»، أكثر ضرراً سياسياً وأقل ربحية.



جهود خليجية لتطوير أدوات الذكاء الاصطناعي لمواجهة «الأخبار المزيّفة»

الدكتور بريسلاف ناكوف (لينكد إن)
الدكتور بريسلاف ناكوف (لينكد إن)
TT

جهود خليجية لتطوير أدوات الذكاء الاصطناعي لمواجهة «الأخبار المزيّفة»

الدكتور بريسلاف ناكوف (لينكد إن)
الدكتور بريسلاف ناكوف (لينكد إن)

بين التحديات الكبرى التي يواجهها الباحثون في تطوير الذكاء الاصطناعي ضمان الموضوعية مع التدفّق المعلوماتي المتسارع والمتزايد عبر شبكة الإنترنت، واستخدام وسائل عديدة لضخ مختلف المعطيات والمعلومات، بات من الصعب على المتلقي التمييز بين الحقيقة والدعاية من جهة وبين الإعلام الموضوعي والتأطير المتحيّز من جهة ثانية.

وهكذا، تتأكد أكثر فأكثر أهمية وجود تقنيات التحليل والكشف وتصفية (أو «فلترة») هذا الكم الهائل من المعطيات، توصلاً إلى وقف سيل المعلومات المضللة وإبعاد الإشاعات و«الأخبار المزيّفة»، وجعل شبكة الإنترنت مكاناً آمناً لنقل المعلومات والأخبار الصحيحة وتداولها. والواقع أنه مع التحول الرقمي المتسارع وانتشار وسائل التواصل الاجتماعي، غدت «الأخبار المزيّفة» واحدة من أبرز التحديات التي تهدد المجتمعات حول العالم؛ إذ يجري تداول ملايين الأخبار والمعلومات يومياً، ما يجعل من الصعب على الأفراد - بل وحتى المؤسسات الإعلامية - التمييز بين ما هو صحيح وما هو مزيّف أو مضلِّل، وفي هذا السياق برزت تقنيات الذكاء الاصطناعي كأداة مبتكرة وفعّالة للكشف عن «الأخبار المزيفة» وتحليلها.

تُعرَّف «الأخبار المزيّفة» بأنها محتوى إعلامي يُنشأ ويُنشر بهدف التضليل أو التلاعب بالرأي العام، وغالباً ما يصار إلى استخدامه لتحقيق غايات سياسية واقتصادية أو اجتماعية. وتتنوّع تقنيات إنشاء «الأخبار المزيّفة» بين التلاعب البسيط بالمعلومات... واستخدام تقنيات متقدمة مثل التزييف العميق، الأمر الذي يزيد من تعقيد اكتشافها.

جهود مبتكرة

من هذا المنطلق والمبدأ، في العاصمة الإماراتية أبوظبي، يقود الدكتور بريسلاف ناكوف، أستاذ ورئيس قسم معالجة اللغة الطبيعية في جامعة محمد بن زايد للذكاء الاصطناعي، جهوداً مبتكرة لتطوير تقنيات الذكاء الاصطناعي، وخصوصاً تحليل الطرق المستخدمة في الإعلام للتأثير على الرأي العام. ويبرز ضمن أبرز إسهامات ناكوف تطوير تطبيق «فرابيه - FRAPPE»، وهو أداة تفاعلية مصممة لتحليل الأخبار عالمياً، حيث يقدم التطبيق رؤية شاملة حول أساليب الإقناع والخطاب المستخدمة في المقالات الإخبارية، ما يمكّن المستخدمين من فهم أعمق للسياقات الإعلامية المختلفة. ويشير ناكوف إلى أن «فرابيه» يساعد المستخدمين على تحديد كيفية صياغة الأخبار وتأطيرها في بلدان مختلفة، ما يتيح رؤية واضحة لتباينات السرد الإعلامي.

تحليل أساليب الإقناع

مع أن دراسة أساليب الإقناع لها جذور قديمة تعود إلى الفيلسوف الإغريقي القديم أرسطو، الذي أسس لمفاهيم الأخلاق والعاطفة والمنطق كأساس للإقناع، فإن فريق ناكوف أضاف تطويرات جديدة لهذا المجال.

وعبر تحليل 23 تقنية مختلفة للإقناع، مثل الإحالة إلى السلطة، واللعب على العواطف، وتبسيط الأمور بشكل مفرط، يُسهم «فرابيه» في كشف أساليب الدعاية وتأثيرها على القراء. وتُظهر هذه الأساليب كيف يمكن للإعلام أن يختار كلمات أو صوراً معينة لتوجيه فهم الجمهور. وكمثال، يمكن تأطير قضية تغيّر المناخ كمشكلة اقتصادية أو أمنية أو سياسية، حسب الإطار الذي تختاره الوسيلة الإعلامية.

التشديد على أهمية تقنيات التحليل والكشف و"فلترة" المعلومات لجعل شبكة الانترنت مكاناً آمناً. (رويترز)

تقنية التأطير الإعلامي

أيضاً من الخواص التي يستخدمها تطبيق «فرابيه» تحليل أساليب التأطير الإعلامي، وهنا يوضح ناكوف أن التطبيق يمكّن المستخدمين من مقارنة كيفية تناول وسائل الإعلام للقضايا المختلفة؛ إذ يستطيع التطبيق أن يُظهر كيف تركّز وسيلة إعلامية في بلد معيّن على الجوانب الاقتصادية لتغير المناخ، بينما قد تركز وسيلة إعلامية في بلد آخر على الجوانب السياسية أو الاجتماعية.

وفي هذا السياق، يعتمد التطبيق على بيانات متقدّمة مثل قاعدة بيانات «SemEval-2023 Task 3»، التي تحتوي على مقالات بأكثر من 6 لغات، ما يجعل «فرابيه» قادراً على تحليل محتوى إعلامي عالمي متنوع. ويستخدم التطبيق الذكاء الاصطناعي لتحديد الإطارات السائدة في الأخبار، كالهوية الثقافية أو العدالة أو المساواة ما يساهم في تقديم صورة أوضح للسياق الإعلامي.

الذكاء الاصطناعي أداة أساسية

الذكاء الاصطناعي أداة أساسية في تطبيق «فرابيه»؛ إذ إنه يتيح للتطبيق تحليل الأنماط اللغوية التي تؤثر على آراء القراء. وهنا يقول ناكوف، خلال حواره مع «الشرق الأوسط» عن قدرات التطبيق: «يُعد الذكاء الاصطناعي في (فرابيه) عنصراً أساسياً في تحليل وتصنيف واكتشاف الأنماط اللغوية المعقّدة التي تؤثر على آراء القراء وعواطفهم». ويضيف أن هذا التطبيق «يستخدم الذكاء الاصطناعي لتحديد أساليب الإقناع والدعاية، مثل الشتائم ولغة الترهيب، والتنمّر والمبالغة والتكرار. ولقد جرى تدريب النظام على التعرّف على 23 تقنية مختلفة غالباً ما تكون دقيقة ومعقّدة في محتوى الوسائط في العالم الحقيقي».

ويتابع ناكوف شرحه: «... ويستخدم التطبيق أيضاً الذكاء الاصطناعي لإجراء تحليل التأطير، أي لتوصيف وجهات النظر الرئيسة التي تُناقش قضية ما من خلالها مثل الأخلاق والعدالة والمساواة والهوية السياسية والثقافية وما إلى ذلك. ويسمح هذا للتطبيق بتمييز الإطارات الأساسية التي تؤثّر على كيفية سرد القصص وإدراكها، وتسليط الضوء على الإطارات المهيمنة في المقالة ومقارنتها عبر مصادر الوسائط والبلدان واللغات».

التحيزات الإعلامية

من جهة ثانية، بين التحديات الكبرى التي يواجهها الباحثون في تطوير تطبيقات الذكاء الاصطناعي، ضمان الموضوعية والتقليل من التحيّز. وفي هذا الجانب، يوضح ناكوف أن «فرابيه» يركّز على تحليل اللغة المستخدمة في المقالات وليس على تقييم صحتها أو موقفها السياسي، وكذلك يعتمد التطبيق على تصنيفات موضوعية وضعها صحافيون محترفون لتحديد أساليب الإقناع والدعاية، ما يقلل من مخاطر التحيّز.

وبالفعل، تمكن «فرابيه»، حتى الآن، من تحليل أكثر من مليوني مقالة تتعلق بمواضيع مثل الحرب الروسية الأوكرانية وتغير المناخ. ويدعم التطبيق راهناً تحليل المحتوى بـ100 لغة، ويخطط الفريق لتوسيع نطاقه ليشمل لغات إضافية وتحسين دقة التحليل، ما سيعزّز قدرة التطبيق على فهم الأنماط الإعلامية عالمياً.

وفي حين يأمل الباحثون أن يصبح هذا التطبيق أداة أساسية للصحافيين والأكاديميين لفهم أساليب الإقناع والدعاية، يشير ناكوف إلى أهمية تطوير مثل هذه التقنيات لمساعدة الناس على التمييز بين الحقائق والدعاية، خاصة في عصر تزايد استخدام المحتوى «المؤتمت» والمعلومات المضللة. وبالتوازي، يسهم «فرابيه» بدور حيوي في تمكين الجمهور من تحليل الأخبار بطريقة أكثر وعياً وموضوعية، ووفق ناكوف: «في عصرنا الحالي، يمكن أن تُستخدم أساليب الإقناع لتضليل الناس؛ ولهذا السبب نحتاج إلى أدوات تساعد في فهم اللغة التي تشكّل أفكارنا». وبالتالي، من خلال استخدام الذكاء الاصطناعي، يمكن أن يصبح «فرابيه» نموذجاً لتطبيقات مستقبلية تسعى لتعزيز الشفافية في الإعلام وتقليل تأثير التضليل الإعلامي.

مكافحة «الأخبار المزيّفة»

في سياق متصل، تمثل خوارزميات الذكاء الاصطناعي نقلة نوعية في مكافحة «الأخبار المزيّفة»؛ حيث تعتمد على تقنيات متقدمة لتحليل النصوص والصور ومقاطع الفيديو.

ومن بين أبرز التقنيات المستخدمة في هذا المجال يمكن أيضاً تحليل النصوص؛ إذ تعتمد خوارزميات معالجة اللغة الطبيعية على تحليل لغة المقالات والتحقق من الأسلوب، واكتشاف المؤشرات اللغوية التي قد تشير إلى التضليل.

كذلك تعمل أدوات الذكاء الاصطناعي على التحقّق من المصادر، وبالأخص من موثوقية المصادر الإعلامية من خلال تحليل تاريخ النشر والتكرار والمصداقية، والتعرف على التزييف البصري عن طريق استخدام تقنيات التعلم العميق للكشف عن الصور أو الفيديوهات المزيفة باستخدام خوارزميات يمكنها تحديد التلاعبات البصرية الدقيقة.

التحديات المستقبلية

ولكن، على الرغم من النجاح الكبير للذكاء الاصطناعي في هذا المجال، لا بد من القول إن التحديات لا تزال قائمة. من هذه التحديات تزايد تعقيد تقنيات التزييف، بما في ذلك عبر تطوّر تقنيات مثل «التزييف العميق» الذي يزيد مهمة كشف «الأخبار المزيّفة» صعوبة. وأيضاً ثمة مشكلة «تحيّز البيانات (أو المعطيات)» حيث يمكن أن تتأثر خوارزميات الذكاء الاصطناعي ببيانات التدريب، ما قد يؤدي إلى نتائج قليلة الدقة أو متحيزة. وبالطبع، لا ننسى أيضاً إشكالية التنظيم القانوني مع طرح استخدام الذكاء الاصطناعي في هذا السياق تساؤلات حول الخصوصية والموثوقية والمسؤولية القانونية.