سباق محموم لترويج الفيديوهات المزيفة والتلاعب بالتسجيلات

برامج مضادة مطورة ترصد سلوك الشخصيات المنتحلة

سباق محموم لترويج الفيديوهات المزيفة والتلاعب بالتسجيلات
TT

سباق محموم لترويج الفيديوهات المزيفة والتلاعب بالتسجيلات

سباق محموم لترويج الفيديوهات المزيفة والتلاعب بالتسجيلات

في الماضي، كان تزوير مقاطع الفيديو بشكل يجعلها تبدو واقعية، يتطلب كثيراً من الوقت والخبرات، ولكنّه اليوم لم يعد كذلك.
طوال عقود مضت، كانت مقاطع الفيديو المزيّفة والمقنعة تظهر في أفلام الخيال العلمي، كـ«حرب النجوم» فقط. ولكن بفضل تصاعد تطبيقات الذكاء الصناعي، أصبح تزوير مقاطع الفيديو أسهل من أي وقت مضى. وهو ما يعرِّض - برأي الباحثين - الأمن القومي لمخاطر جمّة.
رأى هاني فريد - وهو أستاذ محاضر بعلوم الكومبيوتر في جامعة «دارتموث كوليدج» - أنّه «وحتى وقت ليس ببعيد، كنّا نستطيع الوثوق بالتسجيلات الصوتية ومقاطع الفيديو، إلا أنّ التطور الذي شهدته تقنية التعلم الآلي، أتاح أدوات صناعة الفيديوهات والتسجيلات الصوتية المعقدة والمقنعة للجميع». وأضاف فريد في حديث نقلته «يو إس إي توداي» أنّ «معرفة كيفية استخدام هذه الفيديوهات المزيفة للتلاعب بالانتخابات، أو زرع الاضطرابات المدنية، أو حتى ارتكاب عمليات الاحتيال لا يتطلب مخيّلة واسعة».
مع اقتراب انتخابات 2020 في الولايات المتحدة، والقلق المتنامي لدى وكالات الدفاع الأميركية من الفيديوهات المضللة للناخبين، يتسابق المشرعون والمؤسسات التعليمية نحو تطوير برامج رقمية قادرة على رصد وحظر ما يعرف بالـ«ديب فيكس» حتى قبل وصولها إلى الإنترنت.
التزييف العميق
في أواخر عام 2017، أخذت المخاوف من فكرة تزوير الفيديوهات تتصدر عناوين الصحف، عندما بدأ استخدام برامج الكومبيوتر لدس صور المشاهير في المواد الإباحية.
من أهمّ الأمثلة على هذا التلاعب كان تسجيلاً ابتكرته شركة الإنتاج التي يملكها المخرج جوردن بيلي في 2018، وفيه يظهر الرئيس السابق باراك أوباما وهو يحذّر الناس من تصديق كلّ ما يشاهدونه على الإنترنت.
ولكنّ الحقيقة هي أنّ المتكلّم لم يكن أوباما؛ بل بيلي نفسه، مستخدماً صوت أوباما.
ومنذ ذلك الحين، بدأت وزارة الدفاع في تطوير وسائل لرصد مقاطع الفيديو التي تدخل في فئة «ديب فيكس» (التزييف العميق) عبر وكالة مشروعات الأبحاث الدفاعية المتقدمة (داربا).
في مارس (آذار) الماضي، قال متحدّث باسم الوكالة، إنّ كثيراً من هذه الفيديوهات تتمّ صناعتها بهدف المرح، ولكنّ مقاطع أخرى تشكّل خطراً كبيراً، بسبب احتمال استخدامها لنشر البروباغندا والتضليل.
برامج مضادة

تسعى المنظمة اليوم إلى تطوير إشعارات وفلترات إلكترونية تمنع المحتوى المزيّف من الوجود على الإنترنت.
يشرح سيوي ليو - وهو باحث يعمل حالياً مع وزارة الدفاع على تطوير برنامج إلكتروني لرصد وتفادي انتشار المقاطع المعدّلة «ديب فيكس» - أنّ «صناعة فيديو مزيف بشكل عميق حقيقي ومقنع تتطلّب نحو 500 صورة ومقطع فيديو مدّته 10 ثوانٍ فقط»، محذّراً من أنّ «أي شخص ينشر صوراً على مواقع التواصل الاجتماعي، مثل «إنستغرام» معرّض للاستغلال في صناعة الـ«ديب فيكس».
يعمل البرنامج الأوّل الذي طوّره ليو وفريقه البحثي من جامعة ألباني العام الماضي، على رصد فيديوهات الـ«ديب فيكس» بغمضة عين، حرفياً، من خلال تحليل عدد المرّات التي تطرف فيها عينا الوجه الظاهر في المقطع، أو لا تطرف.
من جهته، قال ليو: «اكتشفنا أنّ عيني أبطال فيديوهات (ديب فيكس) لا تطرف كثيراً، وأحياناً لا تطرف أبداً. ومن ثمّ تساءلنا: لمَ لا يحصل هذا الأمر».
ووجد الباحثون أنّ البرنامج المستخدم لصناعة فيديوهات «ديب فيكس» يعتمد غالباً على الصور الموجودة على الإنترنت. ولفت ليو إلى أنّ صور المشاهير المنتشرة على الإنترنت التي يظهرون فيها مغمضي العينين ليست كثيرة، وبالتالي، فإنّ عيني الشخصيات الظاهرة في الفيديوهات المزيفة لن تطرف.
ومع مواجهة صناع الـ«ديب فيكس» لطريقة عمل البرنامج الجديد، طور الباحثون وسائل جديدة لرصد هذه الفيديوهات المعدلة، باستخدام خوارزميات ترصد حركات غير طبيعية بين الوجوه والرؤوس، بالإضافة إلى برنامج يحلّل غياب أصغر التفاصيل عن مقطع الفيديو.
وشرح ليو أنّ «البشرة في الوجوه المستخدمة في مقاطع (ديب فيكس) تكون غالباً أكثر نقاوة، وأنّ بعض التفاصيل المتعلّقة بالشعر والأسنان لا تكون موجودة. إذا نظرتم إلى الأسنان عن قرب، فسترون كتلة بيضاء واحدة، وليست أسناناً طبيعية منفصلة».
يعمل باحثون من جامعة واشنطن أيضاً على اختبار تقنيات الـ«ديب فيكس»، ونجحوا عام 2017 في التوصّل إلى وسيلة لتحويل المقاطع الصوتية إلى مقاطع فيديو، تتزامن فيها حركة شفاه الشخص الظاهر فيها مع الشخص الذي نطق بهذه الكلمات.
يشكّك ليو بقدرة فيديوهات الـ«ديب فيكس» على التسبب في حرب، ويستبعد احتمال تمتّعها بتأثير طويل الأمد على المجتمع، في ظلّ تنامي وعي الناس بهذه الظاهرة. كما رجّح تراجع حساسية الناس تجاه هذه المقاطع المعدّلة.
توليد الصوت والصورة
استخدمت تقنية تعديل الإدراك في أبريل (نيسان) لكسر الحواجز اللغوية، في حملة توعية عالمية حول «الملاريا»، بطلها لاعب الكرة البريطاني ديفيد بيكهام. وكانت منظمة «مالاريا نو مور» قد نشرت مقطع فيديو على «يوتيوب» يسلّط الضوء على كيفية استخدامها لتقنية «ديب فيكس» لمزامنة حركة شفتي ديفيد بيكهام بدقّة، مع أصوات عدّة أشخاص آخرين.
استخدمت الجمعية غير الربحية تقنية التعديل الصوتي والبصري، لإنتاج إعلان مصوّر مدّته 55 ثانية، يظهر بيكهام وهو يتكلّم بعدّة لغات. يبدأ خطابه باللغة الإنجليزية، ومن ثمّ ينتقل للكلام بثماني لغات أخرى، بواسطة الدبلجة. نعيش اليوم في عالم يتابع فيه ملايين الأشخاص الحقيقيين نوعين من المؤثرات المركبة اللذين يولدهما الكومبيوتر على مواقع التواصل الاجتماعي، ولكن دون أن يعوا ذلك، في الوقت الذي تعمل فيه الحكومات على تطوير مقدّمي أخبار متحرّكين أشبه بالبشر. تعتبر ليل ماكيلا، الفتاة الرقمية التي يتابعها 1.5 مليون شخص على «إنستغرام»، ويتفاعلون معها عبر الرسائل المباشرة، واحداً من أوضح الأمثلة على تعوّد البشر الحقيقيين على التعامل مع شخصيات مطوّرة يولدها الكومبيوتر. الحقيقة هي أنّ ليل ماكيلا ليست فتاة حالمة، ولا تحتفل في مهرجان «كوتشيلا» على الرغم من العبارات المرفقة بصورها؛ لأنّها مزيّفة. ولكنّ متابعيها لا يكترثون لزيفها؛ بل ويعجبون بصورها ويعلّقون عليها وكأنها شخص حقيقي. وكذلك أيضاً بدأ أشخاص تم تطويرهم عبر الذكاء الصناعي في الظهور على التلفزيون أيضاً. ففي عام 2018، شرعت وكالة الأنباء الصينية التابعة للحكومة، في اختبار مذيعي أخبار مدعومين بالذكاء الصناعي، في خطوة اعتبرت الأولى من نوعها في العالم.
للوهلة الأولى، يبدو مذيع الأخبار شخصاً عادياً بتعابير على وجهه، وحركات تتناسب مع صوته المتكلّم. ولكن بعد ثوانٍ من تشغيل مقطع الفيديو، ستعرفون أنه ليس حقيقياً. في مقدّمة مصوّرة، قال مذيع الأخبار الرقمي: «سأعمل دون كلل لإبقائكم على اطلاع بفضل النصوص التي ستتمّ طباعتها في نظامي دون توقف. إنّ التطوّر المستمرّ في عالم الإعلام يستدعي ابتكاراً متواصلاً واندماجاً عميقاً مع التقنيات العالمية المتقدّمة». وكانت الوكالة قد قدّمت مذيعتها المزيّفة الأولى في فبراير (شباط) الفائت، وبدت أكثر واقعية من المذيع الذي سبقها.
* خدمة «تريبيون ميديا»


مقالات ذات صلة

«هيوماين» تستثمر 3 مليارات دولار في «إكس إيه آي» قبيل استحواذ «سبيس إكس» عليها

الاقتصاد شعار شركة «هيوماين» السعودية (الشرق الأوسط)

«هيوماين» تستثمر 3 مليارات دولار في «إكس إيه آي» قبيل استحواذ «سبيس إكس» عليها

أعلنت شركة «هيوماين» السعودية عن استثمار استراتيجي بقيمة 3 مليارات دولار في شركة «إكس إيه آي» ضمن جولة تمويلية من الفئة «إي».

«الشرق الأوسط» (الرياض)
الاقتصاد العاصمة السعودية الرياض (واس)

كندا تبحث في الرياض تعزيز الشراكات الرقمية مع السعودية

أعلن وزير الذكاء الاصطناعي والابتكار الرقمي في كندا، إيفان سولومون، أنه التقى عدداً من الوزراء وقادة الأعمال في العاصمة السعودية، الرياض، بهدف تعميق الشراكات.

«الشرق الأوسط» (الرياض)
الاقتصاد زوار لجناح شركة «رسن» في أحد المعارض المقامة بالسعودية (الشركة)

تضاعف أرباح «رسن» السعودية لتقنية المعلومات 160 % في 2025

تضاعف صافي ربح شركة «رسن» لتقنية المعلومات السعودية خلال عام 2025 بنسبة 160.6 في المائة ليصل إلى 247 مليون ريال (65.8 مليون دولار).

«الشرق الأوسط» (الرياض)
تكنولوجيا تطبيق "مسلم برو" المتكامل بمزاياه العديدة

تطبيقات رمضانية للشهر الفضيل

مع اقتراب شهر رمضان المبارك، يتحول الجوال الذكي من مجرد أداة للتواصل إلى رفيق ومنظم ذكي يعين المسلم على استثمار أوقات الشهر الفضيل.

خلدون غسان سعيد (جدة)
تكنولوجيا ساعتا "ابل" : سيريز 11(الى اليسار) ة"سيريز 10-الى اليمين

ساعتا «سيريز 11» و«سيريز 10» من «أبل»: هل الاختلافات كافية لتبرير الترقية؟

إذا كانت تراودك فكرة شراء ساعة «أبل ووتش» ستجد نفسك أمام خيار صعب: هل تشتري أحدث إصدار من «أبل ووتش سيريز 11»، أم تبحث عن «سيريز 10»،

«الشرق الأوسط» (واشنطن)

دراسة تحذّر من الاعتماد على الذكاء الاصطناعي لتوليد كلمات المرور

دراسة تحذّر من الاعتماد على الذكاء الاصطناعي لتوليد كلمات المرور
TT

دراسة تحذّر من الاعتماد على الذكاء الاصطناعي لتوليد كلمات المرور

دراسة تحذّر من الاعتماد على الذكاء الاصطناعي لتوليد كلمات المرور

يلجأ كثيرون إلى أنظمة الذكاء الاصطناعي لإنشاء كلمات مرور جديدة؛ حيث يقترح النظام في غضون لحظات كلمة مرور ويؤكد بثقة أنها قوية وآمنة.

ووفقاً لبحث لشركة «إرّيغلر» المتخصصة في الأمن السيبراني القائم على الذكاء الاصطناعي، فإن النماذج الرئيسية الثلاثة -«شات جي بي تي» و«كلاود» و«جيميناي»- أنتجت كلمات مرور يسهل التنبؤ بها، ما دفع دان لاهاف، المؤسس المشارك لشركة «إرّيغلر»، إلى توجيه نداء بشأن استخدام الذكاء الاصطناعي في إنشائها.

وقال لشبكة «سكاي نيوز» البريطانية: «يجب عليك ألا تفعل ذلك بالتأكيد. وإذا فعلت ذلك، فعليك تغيير كلمة مرورك فوراً. ونعتقد أن هذه المشكلة غير معروفة بما يكفي».

تُعدّ الأنماط القابلة للتنبؤ عدواً للأمن السيبراني الجيد؛ لأنها تعني إمكانية تخمين كلمات المرور بواسطة الأدوات الآلية التي يستخدمها مجرمو الإنترنت.

ولكن نظراً لأن نماذج اللغة الكبيرة (LLMs) لا تُنشئ كلمات مرور عشوائياً؛ بل تستخلص النتائج بناءً على أنماط في بيانات التدريب الخاصة بها، فإنها لا تُنشئ في الواقع كلمة مرور قوية؛ بل تُنشئ -فقط- ما يبدو كلمة مرور قوية؛ لكنها يسهل التنبؤ بها.

وتحتاج بعض كلمات المرور التي تُنشئها أنظمة الذكاء الاصطناعي إلى تحليل رياضي لكشف نقاط ضعفها، ولكن كثيراً منها نمطي لدرجة أنه واضح للعيان.

فعلى سبيل المثال، في عينة من 50 كلمة مرور أنشأها برنامج «إرّيغلر» باستخدام برنامج «كلاود إيه آي»، وجد أن منها 23 كلمة مرور فريدة فقط. إحدى كلمات المرور (K9#mPx$vL2nQ8wR) استُخدمت 10 مرات.

وحسب الشبكة البريطانية، كان أداء كل من «شات جي بي تي» من شركة «أوبن إيه آي» و«جيميناي» من «غوغل» أقل انتظاماً بعض الشيء، ولكنهما مع ذلك أنتجا كلمات مرور متكررة، وأنماطاً متوقعة في أحرف كلمات المرور.

كما كان نظام «نانوبانانا» من «غوغل» -وهو نظام لتوليد الصور- عرضة للخطأ نفسه عند تكليفه بإنشاء صور لكلمات المرور على أوراق لاصقة.

ويقول لاهاف: «أفضل تقدير لدينا هو أنه في الوقت الحالي، إذا كنت تستخدم نماذج التعلم الآلي لإنشاء كلمات المرور، فبإمكان حتى أجهزة الكومبيوتر القديمة اختراقها في وقت قصير نسبياً».

وفي السياق، قدَّم غرايم ستيوارت، رئيس القطاع العام في شركة الأمن السيبراني «تشيك بوينت»، بعض التطمينات، وقال: «الخبر السار هو أن هذه إحدى المشكلات الأمنية النادرة التي يمكن حلها بسهولة، فمن حيث مدى خطورتها، تندرج ضمن فئة «المشكلات التي يمكن تجنبها، والتي يكون تأثيرها كبيراً عند حدوثها»، وليست من فئة «الجميع مُعرّض للاختراق».

ولاحظ خبراء آخرون أن المشكلة تكمن في كلمات المرور نفسها، المعروفة بسهولة اختراقها، وقال روبرت هان، الخبير التقني في شركة «إن ترست»: «توجد طرق مصادقة أقوى وأسهل»، ونصح باستخدام كلمات مرور مثل التعرف على الوجه وبصمة الإصبع كلما أمكن، وإذا لم يكن ذلك خياراً متاحاً، فالنصيحة هي: اختر عبارة طويلة يسهل تذكرها، ولا تستخدم الذكاء الاصطناعي.


«يوتيوب» تعلن إصلاح عطل في بث مقاطع الفيديو

شابة تقف لالتقاط صورة أمام شعار «يوتيوب» (رويترز)
شابة تقف لالتقاط صورة أمام شعار «يوتيوب» (رويترز)
TT

«يوتيوب» تعلن إصلاح عطل في بث مقاطع الفيديو

شابة تقف لالتقاط صورة أمام شعار «يوتيوب» (رويترز)
شابة تقف لالتقاط صورة أمام شعار «يوتيوب» (رويترز)

أعلنت منصة الفيديو «يوتيوب»، مساء أمس الثلاثاء، أنها عالجت العطل الذي أثّر على مئات الآلاف من مستخدميها في مختلف أنحاء العالم.

وأوضحت الشركة، على صفحة مساعدة المستخدمين: «حُلَّت المشكلة التي طرأت على نظام التوصيات، وعادت كل منصاتنا (...) إلى وضعها الطبيعي».

كان الموقع قد أفاد، قبل ذلك، بوجود «مشكلة» في نظام «التوصيات»، ما كان «يحول دون ظهور مقاطع الفيديو» على «يوتيوب»، بما في ذلك على التطبيق وعلى «يوتيوب كيدز».

وأشار موقع «داون ديتيكتور» المتخصص إلى أن أكثر من 300 ألف بلاغ عن مشاكل في الدخول إلى «يوتيوب» قُدّمت، وصلت إلى ذروتها قرابة الأولى بعد منتصف الليل بتوقيت غرينتش، وفق ما أفادت «وكالة الصحافة الفرنسية».

ويبلغ عدد المستخدمين النشِطين لموقع «يوتيوب»، التابع لمجموعة «غوغل»، أكثر من مليارين ونصف المليار شهرياً.


بسبب محتوى فاضح... تدقيق عالمي في روبوت الدردشة «غروك»

شعار روبوت الدردشة «غروك» من «إكس إيه آي» التابعة لشركة «إكس» (رويترز)
شعار روبوت الدردشة «غروك» من «إكس إيه آي» التابعة لشركة «إكس» (رويترز)
TT

بسبب محتوى فاضح... تدقيق عالمي في روبوت الدردشة «غروك»

شعار روبوت الدردشة «غروك» من «إكس إيه آي» التابعة لشركة «إكس» (رويترز)
شعار روبوت الدردشة «غروك» من «إكس إيه آي» التابعة لشركة «إكس» (رويترز)

تشنّ حكومات وجهات تنظيمية حول ‌العالم حملة على محتوى جنسي فاضح ينتجه روبوت الدردشة «غروك» من «إكس إيه آي» التابعة لشركة «إكس» المملوكة للملياردير إيلون ماسك، تشمل تحقيقات وحظراً، وتطالب بضمانات، في إطار مسعى عالمي متنامٍ للحد من المواد غير القانونية. فيما يلي بعض ردود الفعل من حكومات وجهات تنظيمية حول العالم...

أوروبا

- ​فتحت المفوضية الأوروبية في 26 يناير (كانون الثاني) تحقيقاً بشأن ما إذا كان «غروك» ينشر محتوى غير قانوني في الاتحاد الأوروبي، يشمل صوراً جنسية معدلة. ويدرس التحقيق ما إذا كانت شركة «إكس» قيّمت المخاطر وحدّت منها على النحو المطلوب بموجب القواعد الرقمية للاتحاد.

- مددت المفوضية في 8 يناير أمراً أرسلته إلى «إكس» العام الماضي، يلزمها بالاحتفاظ بجميع الوثائق والبيانات الداخلية المتعلقة بـ«غروك» حتى نهاية 2026.

- فتحت هيئة حماية البيانات في آيرلندا تحقيقاً بشأن «غروك» في 17 فبراير (شباط) لاختبار طريقة تعامله مع البيانات الشخصية وقدراته على إنتاج صور ومقاطع فيديو جنسية ضارة بأشخاص، من بينهم قصر. وتشرف الهيئة على شركة «إكس» داخل الاتحاد، حيث يقع مقرها الأوروبي في آيرلندا.

- قال رئيس الوزراء الإسباني بيدرو سانتشيث إن الحكومة أمرت مدعين بالتحقيق مع شركات «إكس» و«ميتا» ‌و«تيك توك» بتهمة ‌توزيع مواد مولدة بالذكاء الاصطناعي تستغل الأطفال جنسياً.

- فتحت هيئة تنظيم الاتصالات البريطانية (​أوفكوم) ‌تحقيقاً ⁠بشأن «إكس» لتحديد ​ما ⁠إذا كانت الشركة قد أخلت بواجبها في حماية المستخدمين في بريطانيا من المحتوى الذي قد يكون غير قانوني بموجب إطار عمل قانون السلامة على الإنترنت، عن طريق إنتاج «غروك» مقاطع فيديو مزيفة عن علاقات جنسية.

- داهمت وحدة مكافحة الجرائم الإلكترونية التابعة لمكتب المدعي العام في باريس مقر شركة «إكس» في العاصمة الفرنسية يوم 3 فبراير (شباط)، وأمرت ماسك بالردّ على أسئلة ستوجه إليه في أبريل (نيسان) ضمن تحقيق موسع عما يقال عن تحيز الخوارزميات والتواطؤ في احتجاز ونشر صور أطفال ذات طبيعة إباحية وانتهاك حقوق الأفراد في الصور الشخصية، من خلال تزييفها بمحتوى جنسي فاضح.

- حذّرت هيئة حماية البيانات الإيطالية من أن استخدام أدوات الذكاء الاصطناعي لإنشاء صور مزيفة ⁠بدقة عالية و«فاضحة» لأشخاص حقيقيين دون موافقة يشكل انتهاكات خطيرة للخصوصية، ويشكل في بعض الحالات ‌أيضاً جرائم جنائية.

شعار روبوت الدردشة «غروك» يظهر على شاشتين (أ.ف.ب)

آسيا

- أرسلت وزارة تكنولوجيا المعلومات في الهند مذكرة رسمية ‌إلى «إكس» في 2 يناير بشأن اتهامات عن إنتاج صور جنسية ​فاضحة باستخدام إمكانات «غروك» وتداولها، وطالبت بإزالة هذا المحتوى، وطلبت ‌تقريراً عن الإجراءات التي ستتخذ خلال 72 ساعة.

- حقّقت اليابان أيضاً مع «إكس» بشأن «غروك»، وقالت إن الحكومة ‌ستدرس كل الخيارات الممكنة لمنع توليد صور غير لائقة.

- قالت وزارة الاتصالات والشؤون الرقمية في إندونيسيا إنها حظرت الوصول إلى «غروك»، وهي خطوة قالت وزيرة الاتصالات الإندونيسية، ميوتيا حفيظ، إنها تهدف إلى حماية النساء والأطفال من المحتوى الإباحي المزيف الذي ينتجه الذكاء الاصطناعي، مستندة إلى قوانين البلاد الصارمة لمكافحة تداول المواد الإباحية.

- ذكرت هيئة تنظيم الاتصالات في ماليزيا، يوم 23 يناير، أن البلاد أعادت إمكانية دخول المستخدمين على «غروك» ‌بعد أن طبّقت «إكس» إجراءات أمان إضافية.

- أعلنت وحدة مكافحة الجرائم الإلكترونية في الفلبين، يوم 21 يناير، إعادة تفعيل «غروك» بعد أن تعهدت الشركة المطورة بإزالة أدوات التلاعب ⁠بالصور، التي أثارت مخاوف ⁠بشأن سلامة الأطفال.

الأميركتان

- قال حاكم ولاية كاليفورنيا والمدعي العام، في 14 يناير، إنهما طالبا «إكس إيه آي» بالردّ، في ظل انتشار صور جنسية على منصتها من دون موافقة المستخدمين.

- ذكرت هيئة حماية الخصوصية في كندا أنها توسع نطاق تحقيق قائم بشأن «إكس»، بعد ورود تقارير عن إنتاج «غروك» صوراً مفبركة ذات محتوى جنسي فاضح من دون موافقة المستخدمين.

- قالت الحكومة ومدعون في البرازيل، في بيان مشترك، صدر يوم 20 يناير، إنهما أمهلا شركة «إكس إيه آي» مهلة مدتها 30 يوماً لمنع روبوت الدردشة من نشر محتوى جنسي مفبرك.

منطقة الأوقيانوس

- قالت الهيئة المعنية بالسلامة الإلكترونية على الإنترنت في أستراليا (إي سيفتي)، في 7 يناير، إنها تحقق في صور جنسية رقمية «فاضحة» جرى إنتاجها بتزييف بالغ الدقة بواسطة «غروك»، وتقيّم محتوى إباحياً بموجب برنامجها المخصص لمكافحة الانتهاكات عبر الصور، مشيرة إلى أن الأمثلة الحالية المتعلقة بالأطفال التي راجعتها لا تفي بالحدّ القانوني لمواد تمثل انتهاكات جنسية للأطفال، بموجب القانون الأسترالي.

كيف ردّت «إكس إيه آي»؟

- قالت الشركة، في 14 يناير، إنها ​فرضت على مستخدمي «غروك» قيوداً على استخدام ميزة تعديل الصور، ​ومنعتهم بناء على مواقعهم الجغرافية من توليد صور لأشخاص يرتدون ملابس فاضحة في «المناطق التي يعدّ فيها ذلك غير قانوني». ولم تحدد هذه الدول.

- قصرت الشركة في وقت سابق استخدام خاصيتي توليد «غروك» للصور وتعديلها على من يدفعون اشتراكات فقط.