تقرير أميركي: انتشار عمليات الاحتيال في الإعلانات السياسية في «فيسبوك»

20 % من المعلنين الكبار يمارسون التضليل والاحتيال

تقرير أميركي: انتشار عمليات الاحتيال في الإعلانات السياسية في «فيسبوك»
TT

تقرير أميركي: انتشار عمليات الاحتيال في الإعلانات السياسية في «فيسبوك»

تقرير أميركي: انتشار عمليات الاحتيال في الإعلانات السياسية في «فيسبوك»

الصيف الماضي، ظهر إعلانٌ في آلاف الصفحات على «فيسبوك»، تضمن فيديو مُعدّلاً للمتحدثة باسم البيت الأبيض، كارولين ليفيت، في مؤتمر صحافي دوري.

إعلانات مفبركة

وفي الإعلان، بدت وكأنها تقول إنه بإمكان الأميركيين الحصول على شيك إغاثة بقيمة 5000 دولار أميركي عبر موقع حكومي رسمي. ثم ظهر سهمٌ آخر، قاد إلى مُعلن يدعى «Get Covered Today».

إعلانات عن السيناتورة إليزابيث وارن والسيناتور بيرني ساندرز

وقد عرضت إعلاناتٌ مماثلة مقاطع فيديو مُفبركة للسيناتور بيرني ساندرز من ولاية فيرمونت والسيناتورة إليزابيث وارن من ولاية ماساتشوستس، وهما يعدان بخصوماتٍ مماثلة غير موجودة. يقول مُنتحل شخصية وارن: «هذه ليست خدعة»... وفي الواقع، فإنها كانت كذلك.

ومع ذلك، كانت الشركة التي تقف وراء الإعلانات وغيرها من الإعلانات المماثلة من بين أبرز المُعلنين السياسيين على «فيسبوك»، وفقاً لتحليلٍ أجراه مشروع الشفافية التقنية، وهو منظمة غير ربحية تُركز على مُحاسبة شركات التكنولوجيا الكبرى.

الإعلانات - عائدات مربحة

تُعدّ الإعلانات جزءاً مُربحاً من عائدات إعلانات «فيسبوك»، التي يقول باحثو المشروع وآخرون إنها دفعت الشركة إلى غضّ الطرف عن سيلٍ من المحتوى رديء الجودة أو المُضلّل، والرسائل غير المرغوب فيها، وفي بعض الحالات الاحتيال الصريح على المنصة.

معلنون أغنياء يمارسون التضليل

وصرحت كاتي أ. بول، مديرة مشروع الشفافية التقنية، قائلةً: «إن شركة ميتا على دراية تامة بهذه الأنواع من عمليات الاحتيال. لكنها لا تبالي».

وفي تقرير صدر يوم أمس الأربعاء، حدد المشروع 63 مُعلناً استخدموا، وفقاً لعدة مقاييس، ممارساتٍ مُضلّلة أو احتيالية. يُشكّل هؤلاء المعلنون نسبة واحد من كل خمسة من بين أكبر 300 مُنفق على المنصة في فئة الإعلانات السياسية أو الاجتماعية.

وكان هؤلاء المعلنون اشتروا مجتمعين ما يقرب من 150 ألف إعلان، وأنفقوا ما يقرب من 49 مليون دولار على مدى السنوات السبع الماضية، وفقاً لبيانات مكتبة إعلانات «فيسبوك».

وقد أُزيلت إعلانات جميع المُعلنين الـ63 سابقاً لانتهاكهم سياسات «فيسبوك»، مما يعني أن ممارساتهم المُضلّلة لم تكن مجهولة. وأوقفت شركة «ميتا» بعض هذه الحسابات، لكن أكثر من نصفها تمكّن من مواصلة نشر إعلانات جديدة حتى هذا الأسبوع.

إعلانات مضللة عن الرئيس دونالد ترمب

«ميتا» أرباح طائلة... ومحاولات حماية متأخرة

وصرحت وارن في بيان لها حول انتحال شخصيتها: «الأمر الوحيد الأسوأ من استخدام مقاطع فيديو الذكاء الاصطناعي المُزيّفة لخداع الأميركيين هو أن (ميتا) تجني عشرات الملايين من الدولارات من هذه الإعلانات الاحتيالية».

وأضافت: «نحن بحاجة إلى وضع حواجز حماية جدية لحماية المستهلكين على الإنترنت».

يحظر «فيسبوك»، المملوك لشركة ميتا، الإعلانات التي تستخدم «ممارسات خادعة أو مضللة مُحددة، بما في ذلك عمليات الاحتيال لسرقة الأموال من الناس أو الوصول إلى المعلومات الشخصية». ولدى المنصة قواعد واضحة ضد انتحال الشخصية، وقد أزال في النهاية فيديو ليفيت، وإن لم يحذف جميع الفيديوهات الأخرى.

وفي بيان، قالت الشركة إنها تطبق قواعدها بحزم وستستثمر في بناء دفاعات تقنية جديدة ضد ما وصفته بمشكلة على مستوى الصناعة. وجاء في البيان: «المحتالون لا يلينون، ويطورون أساليبهم باستمرار في محاولة للتهرب من الكشف».

مراقبة مضامين الإعلانات آلية... وليست بشرية

لطالما عانت منصة «فيسبوك» من انتقاداتٍ للإعلانات السياسية التي يروج لها على منصته. وهي تفرض شروطاً محددة على المعلنين السياسيين، تشترط عليهم، على سبيل المثال، أن يكونوا شركات مسجلة في الولايات المتحدة. ويقول الخبراء إن عملية إرسال الإعلانات التي تظهر على المنصة والموافقة عليها آلية إلى حد كبير، مما يسمح للجهات غير النزيهة بالتسلل.

أدرج بعض المعلنين الذين دقق فيهم مشروع الشفافية التقنية، معلومات اتصال في الفلبين وبنغلاديش وفيتنام وبريطانيا، وهي الأماكن التي كان من المفترض أن تؤدي إلى استبعادهم.

ويبدو أن العديد من الإعلانات تستهدف المستخدمين الأكبر سناً والمحافظين. وغالباً ما تتفاعل هذه الإعلانات بسرعة مع الأحداث ذات الصبغة السياسية.

إعلان مضلل بعد مقتل الناشط تشارلز كيرك

توظيف الذكاء الاصطناعي في التضليل

تتجاوز عمليات الاحتيال على منصات التواصل الاجتماعي وغيرها من المواقع الإلكترونية بكثير تلك التي تستخدم الرسائل النصية أو المكالمات الهاتفية. وقد ساهم انتشار الأدوات المتاحة تجارياً التي تستخدم الذكاء الاصطناعي بشكل واضح في زيادة الإعلانات المُضلّلة، مما يُسهّل إنتاجها وانتشارها.

قال ساندرز في بيان رداً على استفسار حول التزييف العميق له: «هذا جزء من مشكلة أكبر بكثير: الذكاء الاصطناعي يتقدم بسرعة، لكن القوانين والحماية التي نضعها للأميركيين العاديين أصبحت قديمة بشكل خطير».

هذا وعلّقت شركة ميتا حسابات اثنين من المعلنين الأربعة المعنيين في أغسطس (آب) الماضي، على الرغم من أنهما كانا يُعلنان منذ أسابيع في ذلك الوقت. ويبدو أن حسابين آخرين قد أُزيلا هذا الأسبوع بعد استفسارات حول بحث مشروع الشفافية التقنية.

يقول الباحثون إن بإمكان «ميتا» بذل المزيد من الجهود للحد من مثل هذه الإعلانات وأن تكون أكثر شفافية بشأن تطبيق قواعدها الخاصة. بدلاً من ذلك، تراجعت عن جهودها لضبط المحتوى السياسي وقلصت عدد فرقها العاملة على سلامة المنصة.

* خدمة «نيويورك تايمز».



ما الاختراق القادم في مجال الذكاء الاصطناعي الذي يتوقعه رئيس «أوبن إيه آي»؟

سام ألتمان رئيس شركة «أوبن إيه آي» (رويترز)
سام ألتمان رئيس شركة «أوبن إيه آي» (رويترز)
TT

ما الاختراق القادم في مجال الذكاء الاصطناعي الذي يتوقعه رئيس «أوبن إيه آي»؟

سام ألتمان رئيس شركة «أوبن إيه آي» (رويترز)
سام ألتمان رئيس شركة «أوبن إيه آي» (رويترز)

توقع سام ألتمان، رئيس شركة «أوبن إيه آي»، أن يكون الإنجاز الكبير التالي نحو تحقيق ذكاء اصطناعي فائق القدرة هو اكتساب هذه الأنظمة «ذاكرة لا نهائية، ومثالية».

وقد ركزت التطورات الأخيرة التي حققها مبتكر «تشات جي بي تي»، بالإضافة إلى منافسيه، على تحسين قدرات الذكاء الاصطناعي على الاستدلال، وفقاً لصحيفة «إندبندنت».

لكن في حديثه ضمن بودكاست، قال ألتمان إن التطور الذي يتطلع إليه بشدة هو قدرة الذكاء الاصطناعي على تذكر «كل تفاصيل حياتك»، وأن شركته تعمل على الوصول إلى هذه المرحلة بحلول عام 2026.

شرح ألتمان: «حتى لو كان لديك أفضل مساعد شخصي في العالم... فلن يستطيع تذكر كل كلمة نطقت بها في حياتك».

وأضاف: «لا يمكنه قراءة كل وثيقة كتبتها. ولا يمكنه الاطلاع على جميع أعمالك يومياً، وتذكر كل تفصيل صغير. ولا يمكنه أن يكون جزءاً من حياتك إلى هذا الحد. ولا يوجد إنسان يمتلك ذاكرة مثالية لا متناهية».

وأشار ألتمان إلى أنه «بالتأكيد، سيتمكن الذكاء الاصطناعي من فعل ذلك. نتحدث كثيراً عن هذا الأمر، لكن الذاكرة لا تزال في مراحلها الأولى جداً».

تأتي تصريحاته بعد أسابيع قليلة من إعلانه حالة طوارئ قصوى في شركته عقب إطلاق «غوغل» لأحدث طراز من برنامج «جيميناي».

وصفت «غوغل» برنامج «جيميناي 3» بأنه «عهد جديد من الذكاء» عند إطلاقها تطبيق الذكاء الاصطناعي المُحدّث في نوفمبر (تشرين الثاني)، حيث حقق النموذج نتائج قياسية في العديد من اختبارات الأداء المعيارية في هذا المجال.

قلّل ألتمان من خطورة التهديد الذي يمثله مشروع «جيميناي 3»، مدعياً ​​أن ردّ شركة «أوبن إيه آي» الحازم على المنافسة الجديدة ليس بالأمر غير المألوف.

وقال: «أعتقد أنه من الجيد توخي الحذر، والتحرك بسرعة عند ظهور أي تهديد تنافسي محتمل».

وتابع: «حدث الشيء نفسه لنا في الماضي، حدث ذلك في وقت سابق من هذا العام مع (ديب سيك)... لم يكن لـ(جيميناي 3) التأثير الذي كنا نخشى أن يحدث، ولكنه حدد بعض نقاط الضعف في منتجاتنا واستراتيجيتنا، ونحن نعمل على معالجتها بسرعة كبيرة».

يبلغ عدد مستخدمي «تشات جي بي تي» حالياً نحو 800 مليون، وفقاً لبيانات «أوبن إيه آي»، وهو ما يمثل نحو 71 في المائة من حصة سوق تطبيقات الذكاء الاصطناعي. ويقارن هذا الرقم بنسبة 87 في المائة في الفترة نفسها من العام الماضي.


5 طرق مُدهشة لاستخدام الذكاء الاصطناعي

5 طرق مُدهشة لاستخدام الذكاء الاصطناعي
TT

5 طرق مُدهشة لاستخدام الذكاء الاصطناعي

5 طرق مُدهشة لاستخدام الذكاء الاصطناعي

أُحبّذ دفع الذكاء الاصطناعي نحو مزيد من التميّز. فعندما تكون مساعدات الذكاء الاصطناعي أقل رتابة وأكثر جرأة، فإنها تُحفّزني على إعادة التفكير وتُشجّعني على إعادة النظر في أفكاري.

أساليب غير تقليدية

لذا، طلبتُ من ألكسندرا صموئيل، إحدى أكثر مُجرّبات الذكاء الاصطناعي جرأةً التي أعرفها، أن تُشاركني نصائحها وأساليبها غير التقليدية خلال زيارتها الأخيرة لنيويورك قادمةً من فانكوفر.

ألكسندرا، التي تكتب عن الذكاء الاصطناعي في صحيفة «وول ستريت جورنال» ومجلة «هارفارد بزنس ريفيو»، فاجأتني بحجم جهودها في هذا المجال. فقد وصفت كيف أنشأت أكثر من 200 برنامج أتمتة، وكيف بنت قاعدة بيانات شخصية للأفكار تُساعدها على صياغة رسائل البريد الإلكتروني التسويقية.

أما أغرب أساليبها؟ فهو استخدام تطبيق «سونو» لتوليد أغانٍ لشرح المفاهيم المُعقّدة. ويستكشف بودكاستها الجديد المفعم بالحيوية «أنا + فيف Me + Viv»، علاقتها غير المألوفة مع مساعد ذكاء اصطناعي درّبته ليكون بمنزلة مدربها وشريكها. وهي تُجري مقابلات مع مُشكّكين في الذكاء الاصطناعي.

نصائح لتوظيف الذكاء الاصطناعي

وإليكم خمس نصائح من ألكسندرا:

1. استخدم «سونو Suno» لتحويل الكلمات إلى موسيقى جذابة.

* ما «سونو»؟ منصة لتوليد الموسيقى بالذكاء الاصطناعي لإنشاء أغانٍ مخصصة. تستخدم أليكس «سونو» بكثرة لإنشاء أغانٍ لبودكاستها عن الذكاء الاصطناعي، وتعده أداةً لسرد القصص أكثر من كونه مجرد أداة لإنشاء الموسيقى. وتقول: «أشبه بقرد يلعب بآلة قمار. من المعتاد أن أُنشئ الأغنية نفسها 50 أو 100 مرة، وربما حتى 200 مرة».

تساعدها هذه العملية التكرارية على الوصول إلى النسخة المثالية. وتقول إن «سونو» يواجه صعوبة في التبديل بين الأصوات الذكورية والأنثوية، أو الأنماط الموسيقية، أو اللغات في أثناء غناء الأغنية. وتقترح أليكس استخدام كلماتك الخاصة مع «سونو» للحصول على نتائج أفضل من الاعتماد على خاصية توليد الكلمات المدمجة.

جرّبه في: تحويل المقالات أو الإعلانات إلى أغانٍ ترويجية قصيرة؛ أو إنشاء شروحات موسيقية جذابة؛ أو إنشاء أغنية للاشتراك في النشرة الإخبارية.

* بديلٌ آخر توصي به: العمل بشكل تكراري مع مساعد ذكاء اصطناعي مثل«كلود» Claude لتطوير كلمات الأغاني التي تستوردها بعد ذلك إلى «سونو».

* بدائل اخرى: Udio، ElevenLabs Music.

مركز مرن وسهل للإنتاجية

2. «كودا» Coda. أنشئ مركز إنتاجيتك الخاص.

* ما «كودا Coda»؟ أداة برمجية لإنشاء مستندات وقواعد بيانات مخصصة. لقد كتبتُ سابقاً عن مدى التقليل من شأن Coda كبديل لأدوات مفيدة أخرى مثل Notion وAirtable.

تصف أليكس «كودا» بأنه مركز شامل يمكنك من خلاله بناء أدواتك الخاصة. وتجعله ميزات الذكاء الاصطناعي الجديدة أسهل استخداماً وأكثر مرونة. استخدمت أليكس «كودا» لتصميم «آلة عرض الأفكار» الخاصة بها، وهي نظام متطور لتتبع القصص.

لديها جدول واحد في آلة عرض الأفكار يحتوي على جميع أفكار قصصها. وجدول آخر في «كودا» يحتوي على جميع المنشورات التي تكتب هي لها، مع أسماء المحررين ومعلومات الاتصال بهم.

بضغطة زر في «كودا»، يمكنها دمج عدة أفكار قصص في مسودة واحدة على جي ميل مع تحديث حقول التتبع وتواريخ المتابعة تلقائياً. استغرق الإعداد بعض الوقت، لكنه يوفر لها الآن الكثير من الوقت.

لمن صُمم «كودا»؟ توصي أليكس باستعماله للمستخدمين المتقدمين الذين يستمتعون بالتجربة التقنية.

* جرّبه في: تتبع أفكار المشاريع والحملات، وإدارة قاعدة بيانات العملاء، أو إنشاء رسائل البريد الإلكتروني أو رسائل «سلاك» تلقائياً.

* بدائل اخرى: Notion, Airtable, Google Workspace, Obsidian.

إنشاء فيديوهات اجتماعية

3. «كاب كات». CapCut إنشاء فيديوهات اجتماعية بمساعدة الذكاء الاصطناعي.

* ما «كاب كات»؟ منصة لتحرير الفيديو مزودة بميزات الذكاء الاصطناعي.

تستخدم أليكس «كاب كات»، بالإضافة إلى نصوص Python مخصصة، لإنشاء فيديوهات موسيقية لمنصات «إنستغرام» و«يوتيوب» و«تيك توك». وتقول إن لديها مشاعر مختلطة تجاه «كاب كات» بسبب ملكية TikTok/ByteDance له، لكنها تعتمد عليه حالياً. وهي تعمل على نظام لمزامنة ظهور الترجمة على الشاشة مع لحظة سماع كلمات الأغنية.

* جرّبه في: إنشاء فيديوهات أنيقة مع ترجمة مكتوبة لوسائل التواصل الاجتماعي، أو لتحويل ملفات البودكاست إلى فيديوهات.

* بدائل اخرى: Captions, Descript، أو Kapwing.

الوثائق والمستندات

4. «كلاود + بروتوكول سياق النموذج إم سي بي» Claude + MCP... ربط الذكاء الاصطناعي بمستنداتك.

* ما «كلاود+ بروتوكول سياق النموذج إم سي بي»؟ هو مساعد ذكاء اصطناعي متصل بقواعد بيانات وأدوات خارجية عبر بروتوكول سياق النموذج Model Context Protocol (MCP).

تتيح خوادم MCP ربط المواقع والتطبيقات بمنصات الذكاء الاصطناعي. وهكذا ربطت أليكس حسابها على منصة «كودا» ببرنامج «كلاود».

والآن بعد الربط، تستطيع أليكس طرح أسئلة بسيطة على «كلاود»، الذي يمكنه بدوره البحث عن معلومات في مستنداتها على «كودا».

تقول ألكسندرا: «بإمكاني ببساطة إجراء محادثة مع (كلاود)، مثلاً: مرحباً (كلاود)، لقد تحدثتُ للتو مع محرر. يبحث عن مقالات حول خصوصية البيانات. هل يمكنك الاطلاع على مستندي على (كودا) ومعرفة أفكار القصص التي قد تكون ذات صلة؟». وتؤكد ألكسندرا أهمية الاعتبارات الأمنية: يجب على الصحافيين الذين يغطون مواضيع حساسة تجنب هذا النوع من سير العمل التجريبي إذا كانوا يحمون معلومات من مصادر مجهولة.

تؤكد ألكسندرا أهمية مراعاة الجوانب الأمنية: يجب على الصحافيين الذين يغطون مواضيع حساسة تجنب هذا النوع من سير العمل التجريبي إذا كانوا يحمون معلومات من مصادر مجهولة.

* جرّبه في: الاستعلام عن قواعد البيانات المعقدة، والعثور على أعمال سابقة ذات صلة بالمشاريع الجديدة، وتحليل الأنماط في مستنداتك، ودمج مصادر بيانات متعددة لاستخلاص رؤى قيّمة.

* بدائل أخرى: موصل Google Drive في Claude أو ChatGPT؛ أو إعداد مخصص لـ NotebookLM.

إنجاز المهمات بسرعة

5. «كلاود كود Claude Code»: قلّل من العمل المتكرر.

* ما «كلاود كود»؟ مساعد برمجة مدعوم بالذكاء الاصطناعي يعمل محلياً على جهاز الكمبيوتر الخاص بك، ويساعد المطورين على كتابة التعليمات البرمجية بشكل أسرع، كما يساعد غير المبرمجين على إنجاز المهام التقنية باستخدام توجيهات اللغة الطبيعية. يمكنك استخدامه لتنظيم الملفات على حاسوبك المحمول، أو إنشاء برامج Python النصية، أو تصميم تطبيقات أو ألعاب تفاعلية صغيرة.

على الرغم من تدريبه المحدود في البرمجة، فقد كتبت الكسندرا نحو 200 برنامج Python نصي باستخدام «كلاود كود». وقد ساعدت نصوص ألكسندرا البرمجية في دمج ملفات PDF وإنشاء ترجمات مُرمّزة زمنياً للفيديوهات. كما استخدمت «كلاود كود». لإنشاء إضافة خاصة بها لمتصفح «فايرفوكس» لتطبيق تتبع مالي.

* جرّبه في: معالجة الملفات دفعة واحدة، أو تحويل البيانات، أو إنشاء إضافات للمتصفح لحل مشكلاتك الخاصة.

- مجلة «فاست كومباني»، خدمات «تريبيون ميديا».

Your Premium trial has ended


فيديوهات الذكاء الاصطناعي المُضللة تغمر مواقع التواصل الاجتماعي

فيديوهات الذكاء الاصطناعي المُضللة تغمر مواقع التواصل الاجتماعي
TT

فيديوهات الذكاء الاصطناعي المُضللة تغمر مواقع التواصل الاجتماعي

فيديوهات الذكاء الاصطناعي المُضللة تغمر مواقع التواصل الاجتماعي

انتشر، في أكتوبر (تشرين الأول) الماضي، مقطع فيديو على تطبيق «تيك توك» يُظهر امرأة تُجري مقابلة مع مراسلة تلفزيونية حول بيع قسائم الطعام (التي تمنح في أميركا لضعيفي الدخل)، كما كتب ستيفن لي مايرز وستيوارت إيه طومسون(*).

لم تكن المرأة حقيقية، ولم يحدث هذا الحوار أصلاً؛ فقد تم توليد الفيديو بواسطة الذكاء الاصطناعي. ومع ذلك، بدا أن الناس يعتقدون أن هذا حوار حقيقي حول بيع قسائم الطعام مقابل المال، وهو ما يُعد جريمة.

وقد انخدعت قناة «فوكس نيوز» بفيديو مزيف مماثل، معتبرة إياه مثالاً على الغضب الشعبي إزاء إساءة استخدام قسائم الطعام، وذلك في مقال تم حذفه لاحقاً من موقعها الإلكتروني.

تُظهر مقاطع الفيديو، مثل المقابلة المُفبركة التي تم إنشاؤها باستخدام تطبيق «سورا» الجديد من «أوبن إيه آي»، مدى سهولة التلاعب بالرأي العام، بواسطة أدوات قادرة على خلق واقع بديل، من خلال سلسلة من التوجيهات البسيطة.

وفي الشهرين الماضيين منذ إطلاق «سورا»، انتشرت مقاطع الفيديو المُضللة بشكل كبير على منصات «تيك توك»، و«إكس»، و«يوتيوب»، و«فيسبوك»، و«إنستغرام»، وفقاً لخبراء مُختصين في رصدها. وقد أثار هذا الانتشار الواسع مخاوف بشأن جيل جديد من المعلومات المُضللة والأخبار الكاذبة.

عدم كفاية وسائل ضبط التضليل

تتبنى معظم شركات التواصل الاجتماعي الكبرى سياسات تُلزم بالإفصاح عن استخدام الذكاء الاصطناعي، وتحظر بشكل عام المحتوى الذي يهدف إلى التضليل. إلا أن هذه الضوابط أثبتت عدم كفايتها بشكل كبير، لمواكبة التطورات التكنولوجية الهائلة التي تُمثلها أدوات «أوبن إيه آي».

وبينما يُقدم العديد من مقاطع الفيديو صوراً ساخرة أو صوراً مُفبركة لأطفال وحيوانات أليفة؛ فإن بعضها الآخر يهدف إلى تأجيج الكراهية التي غالباً ما تُهيمن على النقاشات السياسية على الإنترنت. وقد استخدمت هذه المقاطع بالفعل في عمليات التأثير الأجنبي.

مسؤوليات الشركات

وقال باحثون تتبعوا الاستخدامات الخادعة إن المسؤولية تقع الآن على عاتق الشركات لبذل المزيد من الجهد لضمان معرفة الناس بالحقيقي والمزيف.

وتساءل سام غريغوري، المدير التنفيذي لمنظمة «ويتنس Witness» (الشاهد) المعنية بحقوق الإنسان التي تركز على مخاطر التكنولوجيا: «هل بإمكانهم تحسين إدارة المحتوى ومكافحة المعلومات المضللة والمغلوطة؟ من الواضح أنهم لا يفعلون ذلك. هل بإمكانهم بذل المزيد من الجهد في البحث الاستباقي عن المعلومات المولدة بواسطة الذكاء الاصطناعي وتصنيفها بأنفسهم؟ الإجابة هي: (نعم) أيضاً - أي أنهم لا يفعلون ذلك».

ولم تستخدم الفيديوهات المُفبركة للسخرية من الفقراء فقط، بل من الرئيس ترمب أيضاً.

وحتى الآن، اعتمدت هذه المنصات بشكل كبير على مُنشئي المحتوى للكشف عن أن المحتوى الذي ينشرونه غير حقيقي، لكن هؤلاء لا يفعلون ذلك دائماً. ورغم وجود طرق تُمكّن منصات، مثل «يوتيوب» و«تيك توك» وغيرهما، من اكتشاف أن الفيديو مُفبرك باستخدام الذكاء الاصطناعي، إلا أنها لا تُنبّه المشاهدين دائماً على الفور.

وقالت نبيهة سيد، المديرة التنفيذية لمؤسسة «موزيلا»، وهي مؤسسة غير ربحية تُعنى بسلامة التكنولوجيا وتدعم متصفح «فايرفوكس»، مُعلقة على شركات التواصل الاجتماعي: «كان ينبغي عليهم أن يكونوا مُستعدين».

علامات رصد التزييف

تؤكد الشركات المطورة لأدوات الذكاء الاصطناعي أنها تسعى لتوضيح طبيعة المحتوى المُنشأ بواسطة الكومبيوترات، للمستخدمين. وتقوم كل من «سورا» والأداة المنافسة «فيو» التي تقدمها «غوغل»، بوضع علامة مائية مرئية على مقاطع الفيديو التي تنتجها. فعلى سبيل المثال، تضع «سورا» علامة «سورا» على كل فيديو. كما تُضيف الشركتان بيانات وصفية غير مرئية، يمكن قراءتها بواسطة الحاسوب، لتحديد مصدر كل فيديو مزيف.

وتتمثل الفكرة في إعلام المستخدمين بأن ما يشاهدونه ليس حقيقياً، وتزويد المنصات التي تعرض هذه الفيديوهات بالإشارات الرقمية اللازمة لكشفها تلقائياً.

تستخدم بعض المنصات هذه التقنية؛ فقد أعلنت منصة «تيك توك»، استجابة على ما يبدو للمخاوف بشأن مدى إقناع الفيديوهات المزيفة، الأسبوع الماضي، أنها ستشدد قواعدها المتعلقة بالإفصاح عن استخدام الذكاء الاصطناعي. كما وعدت بأدوات جديدة تُمكّن المستخدمين من تحديد مقدار المحتوى المُصطنع - مقارنة بالمحتوى الحقيقي - الذي يرغبون بمشاهدته.

ويستخدم «يوتيوب» العلامة المائية غير المرئية لتقنية «سورا» لإضافة ملصق صغير يُشير إلى أن فيديوهات الذكاء الاصطناعي «مُعدّلة أو مُصطنعة».

وقال جاك مالون، المتحدث باسم «يوتيوب»: «يرغب المشاهدون بشكل متزايد في مزيد من الشفافية حول ما إذا كان المحتوى الذي يشاهدونه مُعدّلاً أم مُصطنعاً».

سهولة التحايل

مع ذلك، قد تظهر الملصقات أحياناً بعد أن يشاهد الفيديوهات آلاف أو حتى ملايين الأشخاص. وفي بعض الأحيان، لا تظهر على الإطلاق.

وقد اكتشف أصحاب النيات الخبيثة سهولة التحايل على قواعد الإفصاح. فبعضهم يتجاهلها ببساطة، بينما يقوم آخرون بالتلاعب بالفيديوهات لإزالة العلامات المائية التعريفية. ووجدت صحيفة «نيويورك تايمز» عشرات الأمثلة على فيديوهات «سورا» التي تظهر على «يوتيوب» من دون العلامة الآلية.

وقد ظهرت عدة شركات تقدم خدمات إزالة الشعارات والعلامات المائية. كما أن تعديل الفيديوهات أو مشاركتها قد يؤديان إلى إزالة البيانات الوصفية المضمنة في الفيديو الأصلي، التي تشير إلى أنه تم إنشاؤه باستخدام الذكاء الاصطناعي.

وحتى عندما تبقى الشعارات ظاهرة، قد لا يلاحظها المستخدمون أثناء التصفح السريع على هواتفهم.

انخداع المشاهدين

ووفقاً لتحليل التعليقات الذي أجرته صحيفة «نيويورك تايمز»، الذي استخدم أدوات الذكاء الاصطناعي للمساعدة في تصنيف محتوى التعليقات، فإن ما يقرب من الثلثين، من ضمن أكثر من 3000 مستخدم علّقوا على فيديو «تيك توك» حول قسائم الطعام، تعاملوا معه كما لو كان حقيقياً.

وفي بيان لها، قالت «أوبن إيه آي» إنها تحظر الاستخدامات الخادعة أو المضللة لـ«سورا»، وتتخذ إجراءات ضد منتهكي سياساتها. وأضافت الشركة أن تطبيقها ليس سوى واحد من بين عشرات الأدوات المماثلة القادرة على إنشاء فيديوهات واقعية بشكل متزايد لا يطبق العديد منها أي ضمانات أو قيود على الاستخدام.

وأضافت الشركة: «تُنشأ مقاطع الفيديو المُولّدة بواسطة الذكاء الاصطناعي، وتُشارك عبر العديد من الأدوات المختلفة، لذا فإنّ معالجة المحتوى المُضلّل تتطلّب جهداً شاملاً من جميع الأطراف المعنية».

من جهته قال متحدث باسم شركة «ميتا»، المالكة لـ«فيسبوك» و«إنستغرام»، إنّه ليس من الممكن دائماً تصنيف جميع مقاطع الفيديو المُولّدة بواسطة الذكاء الاصطناعي، لا سيما مع التطور السريع لهذه التقنية. وأضاف أنّ الشركة تعمل على تحسين أنظمة تصنيف المحتوى.

ولم تستجب منصتا «إكس» و«تيك توك» لطلبات التعليق على انتشار مقاطع الفيديو المُزيّفة المُولّدة بواسطة الذكاء الاصطناعي.

لا يوجد حافز مالي لتقييد نشر الفيديوهات

وقال ألون يامين، الرئيس التنفيذي لشركة «Copyleaks»، وهي شركة تُعنى بكشف محتوى الذكاء الاصطناعي، إنّ منصات التواصل الاجتماعي لا تملك أي حافز مالي لتقييد انتشار مقاطع الفيديو طالما استمرّ المستخدمون في النقر عليها.

وأضاف: «على المدى البعيد، عندما يُصبح 90 في المائة من حركة المرور على المحتوى في منصّتك مُولّداً بواسطة الذكاء الاصطناعي، فإنّ ذلك يُثير تساؤلات حول جودة المنصّة والمحتوى.. لذا ربما على المدى الطويل، قد تكون هناك حوافز مالية أكبر لضبط محتوى الذكاء الاصطناعي فعلياً. لكن على المدى القصير، لا يمثل ذلك أولوية رئيسية».

* خدمة «نيويورك تايمز»