الفيديوهات الإباحية المزيفة تستهدف النساء

تنتج ببرامج ذكاء صناعي قوية ولا يمكن تمييزها عن الحقيقية

الفيديوهات الإباحية المزيفة تستهدف النساء
TT

الفيديوهات الإباحية المزيفة تستهدف النساء

الفيديوهات الإباحية المزيفة تستهدف النساء

يعمد مبتكرو تقنية «ديب فيك» (Deepfake) إلى صناعة مقاطع فيديو تبدو حقيقية بشكل مخيف، بواسطة الكومبيوتر وصور يستخرجونها من شبكة الإنترنت. والنساء العاديات هنّ أول ضحايا هذا الخطر.
وتُعرف مقاطع الفيديو التي تظهر وجه أحدهم على جسد شخص آخر بـ«ديب فيك» (الزيف الكبير).

- مقاطع مريعة
ووفقاً لما تناقلته وسائل الإعلام الأميركية، فقد أظهر أحد مقاطع الفيديو امرأة ترتدي سترة زهرية كاشفة للكتفين، جالسة على السرير، وتعلو وجهها ابتسامة مقنعة. نعم إنّه وجهها، ولكن تمّ تركيبه بشكل مثالي، ومن دون معرفتها أو موافقتها، على جسد امرأة أخرى، هي نجمة إباحية يافعة، كانت تهمّ بخلع ملابسها لتصوير مشهد غير ملائم. وتمّت مشاركة هذا الفيديو من قبل بعض المستخدمين المجهولي الهوية في جميع أنحاء الشبكة.
شعرت المرأة المستغَلَّة بالغثيان والخزي، عندما رأت المقطع، وتساءلت: ماذا إن رآه زملاؤها في العمل؟ أفراد عائلتها أو أصدقاؤها؟ هل سيغيّرون رأيهم بها؟ وهل سيصدقون أنّه مزيف؟
تحدّثت المرأة وهي في العقد الرابع من عمرها، طالبة الحفاظ على سرية هويتها بسبب قلقها من إضرار هذا الفيديو بزواجها أو حياتها المهنية، وقالت: «أشعر بالانتهاك. إنّه النوع المقرف من الانتهاك. إنه هذا الشعور الغريب بالرغبة في انتزاع كلّ محتوى الإنترنت. ولكنّي أعرف جيداً أنّني لا أستطيع ذلك».
فتح برنامجا «إيربراشينغ» (Airbrushing) و«فوتوشوب» (Photoshop) الباب منذ زمن طويل للتلاعب السهل، واليوم، أصبحت مقاطع الفيديو معرّضة كما الصور، للتزييف الذي يبدو حقيقياً لدرجة مخيفة.

- برامج ذكاء صناعي
وبفضل برامج ذكاء صناعي قوية ومنتشرة طوّرتها «غوغل»، تكاثرت فيديوهات «ديب فيك» التي لا يمكن تمييزها عن الحقيقية، عبر الإنترنت، وقضت على الخطّ الفاصل بين الحقيقة والكذب.
ولكنّ هذه الفيديوهات تتحوّل تدريجياً إلى سلاح يستهدف النساء بشكل مؤذٍ، يمثّل وسيلة جديدة ومهينة لإذلال المرأة والتحرّش بها والإساءة إليها. تبدو هذه المقاطع مفصّلة بشكل واضح، وتنتشر على مواقع إباحية مشهورة، ويزداد رصدها صعوبة يوماً بعد يوم. ولم تختبر قانونية هذه الفيديوهات حتى اليوم في المحاكم، ولكنّ الخبراء يقولون إنها قد تكون محمية بموجب التعديل الأول في الدستور الأميركي، رغم إمكانية تصنيفها كقدح أو انتحال هوية أو احتيال.
تمّ تصميم الفيديوهات المزيفة والأقرب إلى الحقيقة، عبر استخدام وجوه لنساء من المشاهير وأخريات بعيدات عن الأضواء. وقالت الممثلة الشهيرة سكارليت جوهانسن، لصحيفة «واشنطن بوست»، إنها قلقة من أن «استهداف أي إنسان بعملية تزوير بات مسألة وقت فقط».
تعرّضت جوهانسن لتركيب وجهها على عشرات المشاهد غير الملائمة، التي انتشرت على الإنترنت خلال السنوات الماضية. سجّل أحد هذه الفيديوهات والذي وصف بأنّه فيديو «حقيقي» مسرّب، نحو مليون ونصف مشاهدة عبر قناة إباحية شهيرة. وعبّرت الممثلة الشهيرة عن قلقها من فوات الأوان بالنسبة للنساء والأطفال لحماية أنفسهم من هذه «الهاوية الافتراضية (الإلكترونية) الخارجة عن القانون».
وفي سبتمبر (أيلول)، أضافت شركة «غوغل» «الصور الإباحية المركبة لا إرادياً» على لائحة المنع الخاصة بها، سامحة لأي شخص بطلب نتائج الحجب على محرّك البحث التي تصفهم زوراً كـ«عراة أو في موقف جنسي علني». ولكنّ مشكلة صناعة هذه الفيديوهات ونشرها لن تحلّ ببساطة.

- صناعة إباحية
يستهدف عدد متزايد من فيديوهات «ديب فيك» النساء غير الشهيرات، اللواتي يعرّفهن كثير من المستخدمين المجهولي الهوية على منصات نقاش «ديب فيك» بأنهن زميلات في العمل أو الدراسة أو حتى صديقات. يقول كثير من صانعي هذه الفيديوهات المأجورين، إنّ صناعة هذه الفيديوهات بات لها سعر محدد، يبدأ بـ20 دولاراً للفيديو المزيف الواحد.
قدم الشخص الذي طلب إنتاج الفيديو الذي ظهر فيه وجه المرأة على جسد أخرى ترتدي سترة زهرية، 491 صورة لوجهها، أخذ كثيراً منها من حسابها على «فيسبوك»، وأخبر أعضاء آخرين من موقع متخصص بفيديوهات «ديب فيك» أنّه كان ينوي «دفع مبلغ أكبر مقابل العمل الجيّد». لاحقاً، وجد الخبراء الصور الأصلية بعد معالجة الصورة المركبة عبر أداة إلكترونية، تتيح البحث عن الصورة بناء على محتواها وتحديد الموقع الذي تمّت فيه مشاركة الصورة الأصلية. وتطلّب تحديد موقع الصورة الأصلية يومين، بعد التعاون مع فريق يعرّف أعضاؤه أنفسهم على أنّهم «مبدعون».
لعقود، كانت مقاطع الفيديو تعتبر وسيلة للمصادقة؛ لأنها تضمن تمييزاً واضحاً عن الصور التي يمكن تشويهها بسهولة. ولكن لطالما اعتبر الجميع باستثناء الفنانين المخضرمين واستوديوهات الأفلام، أن الفيديوهات المزيفة معقّدة تقنياً، ويصعب تمييز حقيقتها.
ولكن الاختراقات الأخيرة التي شهدتها تقنية التعلّم الآلي، والتي يوظفها المبتكرون الذين يتسابقون لتحسين فيديوهاتهم المزيفة وتنقيتها من الأخطاء، سهّلت صناعة الفيديوهات المزيفة، وجعلتها متاحة أكثر من أي وقت مضى. إنّ كلّ ما يحتاجونه لصناعة محاكاة مقنعة في غضون ساعات قليلة، هو جهاز كومبيوتر ومجموعة واضحة من الصور، كتلك التي ينشرها الملايين على مواقع التواصل الاجتماعي.

- وسائل مجانية مطورة
بدأت مقاربة الذكاء الصناعي التي أنتجت فيديوهات «ديب فيك» بفكرة بسيطة: مجموعتان متعارضتان من خوارزميات التعلّم العميق التي تبتكر، وتحسّن، وتعيد ابتكار نتيجة أفضل. قدّم هذه الفكرة عام 2014 فريق يقوده إيان غودفيلو، الذي يعمل حالياً باحثاً في «غوغل»، من خلال مقارنتها بمبارزة بين المزورين والشرطة، وعمل الطرفان على «تحسين وسائلهما حتى تصبح المقاطع المزورة غير قابلة للتمييز عن الحقيقة».
عمل النظام على أتمتة هذه المهمة المملة، التي تتطلّب وقتاً طويلاً لصناعة فيديوهات يصار فيها إلى استبدال الوجوه بشكل أقرب إلى الحقيقة، والتي كانت ترتكز على العثور على تعابير وجه متطابقة، واستبدالها دون أخطاء، وتكرار المهمة نفسها نحو 60 مرة في الثانية. إن كثيراً من أدوات «ديب فيك» التي طوّرتها مكتبة «غوغل» للذكاء الصناعي، متوفرة بشكل عام ومجانية الاستخدام.
العام الماضي، بدأ مبتكر مجهول الهوية تحت الاسم الإلكتروني «ديب فيكس» باستخدام برنامج لصناعة ونشر فيديوهات إباحية، تضمّ وجوه مستبدلة لممثلات شهيرات، مثل غال غادو، على منصة النقاش التابعة لموقع «ريديت» الشهير، فحاز على اهتمام واسع وشكّل مصدر إلهام لموجة كبيرة من المقلدين.
تختلف نوعية الفيديوهات بشكل ملحوظ، فكثير منها يحتوي على مغالطات أو شوائب واضحة. ولكن مبتكري «ديب فيك» يقولون إن التقنية تتحسّن بسرعة، ولا تعرف حدوداً على مستوى هوية الأشخاص الذين قد ينتحلون شخصيتهم.
في الوقت الذي تتطلّب فيه عملية «ديب فيك» بعض المهارات التقنية، عملت مجموعة من المبتكرين الإلكترونيين المجهولي الهوية في الأشهر الأخيرة، على إزالة كثير من العقبات للمبتدئين المهتمين بهذا المجال، عبر وضع كتيبات إرشاد تعليمية لتقديم نصائح لحلّ المشكلات التي يمكن أن تواجههم، ومساعدتهم في تنفيذ طلبات مقاطع إباحية مزيفة بمفردهم.
لتسهيل المهمة، يراكم مبدعو «ديب فيكس» غالباً، مجموعات كبيرة من صور الوجوه تعرف باسم «مجموعات الوجه» ومقاطع فيديو لمشاهد جنسية لنساء يعرّفونهن بـ«متبرعات الأجساد». ويستخدم بعض المبتكرين برنامجاً لاستخراج وجه امرأة أوتوماتيكياً من مقاطع فيديو ومنشورات على التواصل الاجتماعي، تخصّ المرأة الهدف، حتّى أنّ آخرين قد جرّبوا برنامجاً لاستنساخ الأصوات لإنتاج تسجيلات صوتية مقنعة.


مقالات ذات صلة

معرض «CES» يكشف أحدث صيحات التقنيات الاستهلاكية لـ2025

تكنولوجيا يستمر معرض «CES 2025» حتى التاسع من شهر يناير بمشاركة عشرات الآلاف من عشاق التكنولوجيا والشركات التقنية في مدينة لاس فيغاس (CES)

معرض «CES» يكشف أحدث صيحات التقنيات الاستهلاكية لـ2025

إليكم بعض أبرز الابتكارات التي تكشف عنها كبريات شركات التكنولوجيا خلال أيام المعرض الأربعة في مدينة لاس فيغاس.

نسيم رمضان (لندن)
خاص توفر السيارة أحدث التقنيات بما في ذلك نظام صوتي قوي وميزات مساعدة السائق المتقدمة والتكامل السلس مع الهواتف الذكية (كاديلاك)

خاص تعرف على التقنيات التي تطرحها «كاديلاك» في «إسكاليد 2025»

«الشرق الأوسط» تـتحدث إلى سارة سميث مديرة هندسة البرامج في «كاديلاك».

نسيم رمضان (لندن)
تكنولوجيا تعد تطبيقات اللياقة البدنية أداة قوية لتتبع التقدم مع ضمان بقاء بياناتك آمنة (أدوبي)

كيف تحمي خصوصيتك أثناء استخدام تطبيقات اللياقة البدنية في 2025؟

إليك بعض النصائح لاستخدام تطبيقات اللياقة البدنية بأمان في العصر الرقمي.

نسيم رمضان (لندن)
الاقتصاد مقر هيئة الاتصالات والفضاء والتقنية في الرياض (الموقع الإلكتروني)

بدء تطبيق المرحلة الإلزامية الأولى لتوحيد منافذ الشحن في السعودية

بدأ تطبيق المرحلة الإلزامية الأولى لتوحيد منافذ الشحن للهواتف المتنقلة والأجهزة الإلكترونية في السوق، لتكون من نوع «USB Type - C».

«الشرق الأوسط» (الرياض)
الاقتصاد جانب من اجتماع خلال منتدى حوكمة الإنترنت الذي عقد مؤخراً بالعاصمة الرياض (الشرق الأوسط)

تقرير دولي: منظومات ذكية ومجتمعات ممكّنة تشكل مستقبل الاقتصاد الرقمي

كشف تقرير دولي عن عدد من التحديات التي قد تواجه الاقتصاد الرقمي في العام المقبل 2025، والتي تتضمن الابتكار الأخلاقي، والوصول العادل إلى التكنولوجيا، والفجوة…

«الشرق الأوسط» (الرياض)

ملصق لتصنيف مستوى أمان الأجهزة المتصلة بالإنترنت... في أميركا

يؤدي ارتفاع استخدام أجهزة إنترنت الأشياء (IoT) إلى ظهور ثغرات جديدة يمكن لمجرمي الإنترنت استغلالها (شاترستوك)
يؤدي ارتفاع استخدام أجهزة إنترنت الأشياء (IoT) إلى ظهور ثغرات جديدة يمكن لمجرمي الإنترنت استغلالها (شاترستوك)
TT

ملصق لتصنيف مستوى أمان الأجهزة المتصلة بالإنترنت... في أميركا

يؤدي ارتفاع استخدام أجهزة إنترنت الأشياء (IoT) إلى ظهور ثغرات جديدة يمكن لمجرمي الإنترنت استغلالها (شاترستوك)
يؤدي ارتفاع استخدام أجهزة إنترنت الأشياء (IoT) إلى ظهور ثغرات جديدة يمكن لمجرمي الإنترنت استغلالها (شاترستوك)

كشف البيت الأبيض، اليوم الثلاثاء، عن ملصق جديد لتصنيف معايير السلامة الإلكترونية للأجهزة المتصلة بالإنترنت مثل منظمات الحرارة الذكية وأجهزة مراقبة الأطفال والأضواء التي يمكن التحكم فيها عن طريق تطبيق وغيرها.

شعار (سايبر ترست مارك) أو علامة الثقة الإلكترونية يهدف إلى منح المستهلكين الأميركيين طريقة سريعة وسهلة لتقييم أمان منتج ذكي معين، تماما مثل ملصقات وزارة الزراعة الأميركية على الطعام أو تصنيفات (إنرجي ستار) أو نجمة الطاقة على الأجهزة التي توفر معلومات عن مدى استهلاكها للطاقة. وعلى الشركات التي تسعى للحصول على الملصق لمنتجاتها تلبية معايير الأمن الإلكتروني التي حددها المعهد الوطني الأميركي للمعايير والتكنولوجيا من خلال اختبار الامتثال من قبل مختبرات معتمدة.

ويتزايد عدد الأجهزة المتصلة بالإنترنت المستخدمة في الحياة اليومية، من أبواب المرآئب وأجهزة تتبع اللياقة البدنية وكاميرات المراقبة والمساعد الصوتي إلى الأفران وصناديق القمامة، ما يوفر للمستخدمين مزيدا من الراحة ولكن ينطوي على مخاطر جديدة.

وقالت آن نيوبرغر نائبة مستشار الأمن القومي الأميركي لشؤون الأمن الإلكتروني للصحفيين في مكالمة هاتفية «كل واحد من هذه الأجهزة يمثل بابا رقميا يحفز المهاجمين الإلكترونيين على الدخول». وملصق علامة الثقة الإلكترونية طوعي. لكن

نيوبرغر قالت إنها تأمل أن «يبدأ المستهلكون في طلب العلامة ويقولون، لا أريد توصيل جهاز آخر في منزلي، مثل كاميرا أو جهاز مراقبة أطفال، يعرض خصوصيتي للخطر».

وأضافت أن الحكومة تخطط للبدء بالأجهزة الاستهلاكية مثل الكاميرات قبل الانتقال إلى أجهزة التوجيه المنزلية والمكتبية والعدادات الذكية. وتوقعت طرح المنتجات التي تحمل العلامة في الأسواق هذا العام. كما يخطط البيت الأبيض لإصدار أمر تنفيذي في الأيام الأخيرة من إدارة الرئيس جو بايدن من شأنه أن يقيد الحكومة الأميركية بشراء منتجات تحمل علامة (سايبر ترست مارك) بدءا من عام 2027. وقالت نيوبرغر إن البرنامج يحظى بدعم من الحزبين، الديمقراطي والجمهوري.