فيديوهات مزيفة أسهل صنعاً وأقلّ تكلفةً

توظف نظم ذكاء صناعي جديدة

فيديوهات مزيفة أسهل صنعاً وأقلّ تكلفةً
TT

فيديوهات مزيفة أسهل صنعاً وأقلّ تكلفةً

فيديوهات مزيفة أسهل صنعاً وأقلّ تكلفةً

قد لا يبدو غريباً على شخصية جو روغن، الكوميدي الذي تحوّل إلى مدوّن صوتي، الترويج لقهوة منشّطة للرغبة الجنسية لدى الرجال.
ولكن عندما انتشر مقطع فيديو على «تيك توك» أخيراً يظهر روغن وضيفه أندرو هوبرمان يشربان من هذه القهوة، دُهش بعض المشاهدين من أصحاب العينين الثاقبتين... ومنهم هوبرمان.
بعد مشاهدة الإعلان الذي ظهر فيه وهو يمدح القهوة المنشّطة للتستوستيرون مع أنّه لم يفعل ذلك، كتب هوبرمان على تويتر: «نعم، إنّه مزيّف».
فيديوهات مزيفة
كان هذا الإعلان واحداً من عددٍ كبير من الفيديوهات المزيّفة المنتشرة على التواصل الاجتماعي والمصنوعة بتقنية مدعومة بالذكاء الصناعي. يقول الخبراء إنّ صوت روغن بدا مفبركاً باستخدام أداة ذكاء صناعي مصممة لتقليد أصوات المشاهير، بينما تبيّن أنّ التعليقات التي صدرت عن هوبرمان كانت مسحوبة من مقابلة منفصلة.
تُعرف صناعة الفيديوهات المزيّفة ذات الطابع الواقعي غالباً باسم «ديب فيك deepfake» وكانت في الماضي القريب تتطلّب برنامجاً متطوّراً لوضع وجه أحدهم مكان وجه شخص آخر. أمّا اليوم، فتوجد أدوات كثيرة مشابهة لأغراض لاستهلاك اليومي، حتّى إنّها باتت متوفرة على شكل تطبيقات هاتفية مجّانية أو قليلة التكلفة.
تنتشر الفيديوهات المعدَّلة الجديدة – التي يصنعها غالباً معدّو النكات والمسوّقون التجاريون – على مواقع التواصل الاجتماعي كـ«تيك توك» و«تويتر». يطلق الباحثون على هذا النوع من المحتوى اسم «تشيب فيك» (المزيّف الرخيص) لأنّه يتألّف من أصوات المشاهير المستنسخة، وحركات الشفتين المعدّلة لتطابق الصوت، والحوار المكتوب بأسلوبٍ مقنع.
حثّت هذه الفيديوهات والتقنيات المنتشرة باحثي الذكاء الصناعي على التحذير من مخاطرها، وأثارت مخاوف حول جهوزية شركات التواصل الاجتماعي للتعامل مع التزييف الرقمي المتنامي.
بدورها، تحضّر الجهات الرقابية المختصة بالتضليل الإعلامي نفسها لموجة من المواد الرقمية المزيفة التي قد تخدع المشاهدين، أو تصعّب عليهم التمييز بين الحقيقي والمزيّف على شبكة الإنترنت.
وقد اعتبر بريت باريس، أستاذ مساعد في علوم المعلومات في جامعة روتجرز أسهم في ابتكار مصطلح «تشيب فيك»، أنّ «المختلف في الأمر اليوم أنّ الجميع بات قادراً على صناعتها. الأمر لم يعد محصوراً بالأشخاص الذين يملكون تقنيات ومهارات إلكترونية معقّدة. لقد باتت متوفرة في تطبيقات مجّانية».
تلاعب وتضليل
تنتشر كميات هائلة من المحتوى المتلاعب به منذ سنوات على منصات كـ«تيك توك»، صُنعت باستخدام حيلٍ بسيطة كالتوليف الدقيق أو استبدال مقاطع بأخرى. ففي أحد الفيديوهات على «تيك توك»، ظهرت نائبة الرئيس الأميركي كامالا هاريس وهي تقول إنّ جميع الأشخاص الذين أُدخلوا إلى المستشفى بعدوى «كوفيد-19» كانوا من متلقّي اللقاح، بينما الحقيقة هي أنّها قالت إنّهم لم يتلقّوا اللقاح.
رصدت شركة «غرافيكا» المتخصصة في دراسة المعلومات المضلّلة، مقاطع «ديب فيك» تظهر مذيعي أخبار وهميين وزّعتها حسابات موالية للحكومة الصينية تديرها روبوتات في أواخر العام الفائت، لتسجّل أوّل نموذج على استخدام التقنية في حملات مؤثرة داعمة للحكومات.
ولكنّ أدوات عدّة جديدة باتت توفّر تقنيات مشابهة لمستخدمي الإنترنت العاديين، وتمنح الكوميديين والمنتسبين الحزبيين فرصة صناعة مقاطعهم المزيفة المقنعة الخاصة.
انتشر الشهر الفائت مقطع فيديو يظهر الرئيس جو بايدن وهو يعلن مسودة قانون متعلّقة بالحرب بين روسيا وأوكرانيا. صمم هذا الفيديو الفريق المنتج لمدوّنة «هيومن إيفنتس ديلي» الصوتية التي يديرها جاك بوسوبييك، المؤثر اليميني المعروف بنشره لنظريات المؤامرة.
في مقطع مصوّر لشرح الفيديو، قال بوسوبييك إنّ فريقه صمم المحتوى باستخدام تقنية ذكاء صناعي. وكانت حساب «باتريوت أواسيس» المحافظ على «تويتر» قد أعاد نشر الفيديو المزيّف في تغريدة، مستخدماً عبارة «خبر عاجل» دون التنويه بأنّ المقطع مزيّف، وحصدت هذه التغريدة أكثر من 8 ملايين مشاهدة.
يستخدم كثير من هذه المقاطع المصوّرة التي تتضمّن أصواتاً مفبركة تقنية من تطوير شركة «إيلفن لابز» الأميركية الناشئة التي شارك في تأسيسها مهندسٌ سابق من «غوغل». وكانت الشركة قد أطلقت في نوفمبر (تشرين الثاني) أداة لاستنساخ الصوت يمكن تدريبها لتقليد الأصوات في غضون ثوانٍ.
جذبت «إيلفن لابز» الانتباه الشهر الفائت بعدما استخدم «فورتشان» (4chan) -موقع لنشر الرسائل والصور يشتهر بمحتواه العنصري والمؤامرتي- الأداة لمشاركة رسائل كراهية. فقد عمد أحد مستخدمي الموقع إلى ابتكار تسجيل صوتي لنصٍّ معادٍ للسامية استعمل فيه صوتاً آلياً يقلّد صوت الممثّلة إيما واتسون.
في هذا السياق، قالت الشركة على حسابها على «تويتر» إنّها تعتزم تقديم ضمانات جديدة، كحصر أداة استنساخ الصوت بالحسابات المدفوعة، بالإضافة إلى تأمين أداة رصد جديدة للذكاء الصناعي. ولكنّ مستخدمي «فورتشان» ادعوا أنّهم يستطيعون ابتكار أداتهم الخاصة للاستنساخ الصوتي باستخدام رمزٍ مفتوح المصدر، ونشر عروضٍ شبيهة بالمواد الصوتية التي تنتجها «إيلفن لابز».
استنساخ الأصوات
رجّح خبراء يدرسون تقنية «ديب فيك» أنّ الإعلان المزيّف الذي يظهر فيه روغن وهوبرمان صُنع باستخدام برنامج لاستنساخ الأصوات، ولكنّهم لم يتمكّنوا من تحديده. وتجدر الإشارة إلى أنّ التسجيل الصوتي العائد لروغن دُمج مع مقابلة حقيقية أجراها هوبرمان لمناقشة موضوع التستوستيرون.
ولكنّ النتائج في هذا المقطع لم تكن مثالية، حيث إن مقطع روغن كان مأخوذاً من مقابلة أجراها مع لاعب بلياردو محترف في ديسمبر (كانون الأول) ولا تمتّ إلى محتوى الفيديو المزيف بصلة. إضافة إلى ذلك، يُلحظ غياب التطابق بين حركات فم روغن والمقطع الصوتي، فضلاً عن أنّ الأصوات الصادرة عنه بدت غير طبيعية في بعض الأحيان. لم يتّضح ما إذا كان هذا الفيديو قد أقنع مستخدمي «تيك توك» أم لا، ولكنّه بالتأكيد جذب اهتماماً أكبر بكثير بعد وسمه بالتزييف.
تحظر سياسة منصّة «تيك توك» المواد الرقمية المزيفة التي «تضلّل المستخدمين بتشويه حقيقة الأحداث وتسبب ضرراً بارزاً لموضوع الفيديو، وأشخاص آخرين، والمجتمع». تخلّصت المنصّة من كثير من الفيديوهات التي بلّغت عنها صحيفة «نيويورك تايمز»، وعمد «تويتر» بدوره إلى إزالة بعض المقاطع.
في هذا السياق، تبدي الجهات الفيدرالية المشرفة على تنظيم القاعدة القانونية بطئاً في الاستجابة. فقد طلب قانونٌ فيدرالي واحدٌ في عام 2019 تقريراً عن استخدام تقنيات «ديب فيك» كأسلحة من قبل الأجانب، وطلب من الوكالات الحكومية إشعار الكونغرس إذا ما كانت هذه التقنيات قد استهدفت الانتخابات في الولايات المتحدة، وأطلق جائزة لتشجيع البحوث حول أدوات لرصد مواد «ديب فيك».
وقال رافيت دوتان، وهو باحث في مرحلة ما بعد الدكتوراه يدير مختبر «كولابوريتف آي.إي. ريسبونسبليتي لاب» في جامعة بيتسبرغ: «لا يمكننا انتظار سنتين لتمرير القوانين؛ لأنّ الضرر قد يصبح كبيراً جداً حتّى ذلك الوقت. لدينا انتخابات قادمة هنا في الولايات المتحدة، وهذا الأمر سيسبب مشكلة».
* خدمة «نيويورك تايمز»



هل وصل الذكاء الاصطناعي إلى حدوده القصوى؟

لوغو تطبيق «شات جي بي تي» (رويترز)
لوغو تطبيق «شات جي بي تي» (رويترز)
TT

هل وصل الذكاء الاصطناعي إلى حدوده القصوى؟

لوغو تطبيق «شات جي بي تي» (رويترز)
لوغو تطبيق «شات جي بي تي» (رويترز)

هل وصلت نماذج الذكاء الاصطناعي التوليدي إلى طريق مسدود؟ منذ إطلاق «تشات جي بي تي» قبل عامين، بعث التقدم الهائل في التكنولوجيا آمالاً في ظهور آلات ذات ذكاء قريب من الإنسان... لكن الشكوك في هذا المجال تتراكم.

وتعد الشركات الرائدة في القطاع بتحقيق مكاسب كبيرة وسريعة على صعيد الأداء، لدرجة أن «الذكاء الاصطناعي العام»، وفق تعبير رئيس «أوبن إيه آي» سام ألتمان، يُتوقع أن يظهر قريباً.

وتبني الشركات قناعتها هذه على مبادئ التوسع، إذ ترى أنه سيكون كافياً تغذية النماذج عبر زيادة كميات البيانات وقدرة الحوسبة الحاسوبية لكي تزداد قوتها، وقد نجحت هذه الاستراتيجية حتى الآن بشكل جيد لدرجة أن الكثيرين في القطاع يخشون أن يحصل الأمر بسرعة زائدة وتجد البشرية نفسها عاجزة عن مجاراة التطور.

وأنفقت مايكروسوفت (المستثمر الرئيسي في «أوبن إيه آي»)، و«غوغل»، و«أمازون»، و«ميتا» وغيرها من الشركات مليارات الدولارات وأطلقت أدوات تُنتج بسهولة نصوصاً وصوراً ومقاطع فيديو عالية الجودة، وباتت هذه التكنولوجيا الشغل الشاغل للملايين.

وتعمل «إكس إيه آي»، شركة الذكاء الاصطناعي التابعة لإيلون ماسك، على جمع 6 مليارات دولار، بحسب «سي إن بي سي»، لشراء مائة ألف شريحة من تصنيع «نفيديا»، المكونات الإلكترونية المتطورة المستخدمة في تشغيل النماذج الكبيرة.

وأنجزت «أوبن إيه آي» عملية جمع أموال كبيرة بقيمة 6.6 مليار دولار في أوائل أكتوبر (تشرين الأول)، قُدّرت قيمتها بـ157 مليار دولار.

وقال الخبير في القطاع غاري ماركوس «تعتمد التقييمات المرتفعة إلى حد كبير على فكرة أن النماذج اللغوية ستصبح من خلال التوسع المستمر، ذكاء اصطناعياً عاماً». وأضاف «كما قلت دائماً، إنه مجرد خيال».

- حدود

وذكرت الصحافة الأميركية مؤخراً أن النماذج الجديدة قيد التطوير تبدو وكأنها وصلت إلى حدودها القصوى، ولا سيما في «غوغل»، و«أنثروبيك» (كلود)، و«أوبن إيه آي».

وقال بن هورويتز، المؤسس المشارك لـ«a16z»، وهي شركة رأسمال استثماري مساهمة في «أوبن إيه آي» ومستثمرة في شركات منافسة بينها «ميسترال»: «إننا نزيد (قوة الحوسبة) بالمعدل نفسه، لكننا لا نحصل على تحسينات ذكية منها».

أما «أورايون»، أحدث إضافة لـ«أوبن إيه آي» والذي لم يتم الإعلان عنه بعد، فيتفوق على سابقيه لكن الزيادة في الجودة كانت أقل بكثير مقارنة بالقفزة بين «جي بي تي 3» و«جي بي تي 4»، آخر نموذجين رئيسيين للشركة، وفق مصادر أوردتها «ذي إنفورميشن».

ويعتقد خبراء كثر أجرت «وكالة الصحافة الفرنسية» مقابلات معهم أن قوانين الحجم وصلت إلى حدودها القصوى، وفي هذا الصدد، يؤكد سكوت ستيفنسون، رئيس «سبيلبوك»، وهي شركة متخصصة في الذكاء الاصطناعي القانوني التوليدي، أن «بعض المختبرات ركزت كثيراً على إضافة المزيد من النصوص، معتقدة أن الآلة ستصبح أكثر ذكاءً».

وبفضل التدريب القائم على كميات كبيرة من البيانات المجمعة عبر الإنترنت، باتت النماذج قادرة على التنبؤ، بطريقة مقنعة للغاية، بتسلسل الكلمات أو ترتيبات وحدات البكسل. لكن الشركات بدأت تفتقر إلى المواد الجديدة اللازمة لتشغيلها.

والأمر لا يتعلق فقط بالمعارف: فمن أجل التقدم، سيكون من الضروري قبل كل شيء أن تتمكن الآلات بطريقة أو بأخرى من فهم معنى جملها أو صورها.

- «تحسينات جذرية»

لكنّ المديرين في القطاع ينفون أي تباطؤ في الذكاء الاصطناعي. ويقول داريو أمودي، رئيس شركة «أنثروبيك»، في البودكاست الخاص بعالم الكمبيوتر ليكس فريدمان «إذا نظرنا إلى وتيرة تعاظم القدرات، يمكننا أن نعتقد أننا سنصل (إلى الذكاء الاصطناعي العام) بحلول عام 2026 أو 2027».

وكتب سام ألتمان الخميس على منصة «إكس»: «ليس هناك طريق مسدود». ومع ذلك، أخّرت «أوبن إيه آي» إصدار النظام الذي سيخلف «جي بي تي - 4».

وفي سبتمبر (أيلول)، غيّرت الشركة الناشئة الرائدة في سيليكون فالي استراتيجيتها من خلال تقديم o1، وهو نموذج من المفترض أن يجيب على أسئلة أكثر تعقيداً، خصوصاً في مسائل الرياضيات، وذلك بفضل تدريب يعتمد بشكل أقل على تراكم البيانات مرتكزاً بدرجة أكبر على تعزيز القدرة على التفكير.

وبحسب سكوت ستيفنسون، فإن «o1 يمضي وقتاً أطول في التفكير بدلاً من التفاعل»، ما يؤدي إلى «تحسينات جذرية».

ويشبّه ستيفنسون تطوّر التكنولوجيا باكتشاف النار: فبدلاً من إضافة الوقود في شكل بيانات وقدرة حاسوبية، حان الوقت لتطوير ما يعادل الفانوس أو المحرك البخاري. وسيتمكن البشر من تفويض المهام عبر الإنترنت لهذه الأدوات في الذكاء الاصطناعي.