بيانات الصوت البيومترية... هل تهدد الخصوصية في زمن الخوارزميات؟

بيانات تكشف الصحة والحالة النفسية والخلفية الثقافية

تقنيات الذكاء الاصطناعي أصبحت قادرة على استخراج معلومات حساسة من الصوت دون علم المتحدث (أدوبي)
تقنيات الذكاء الاصطناعي أصبحت قادرة على استخراج معلومات حساسة من الصوت دون علم المتحدث (أدوبي)
TT

بيانات الصوت البيومترية... هل تهدد الخصوصية في زمن الخوارزميات؟

تقنيات الذكاء الاصطناعي أصبحت قادرة على استخراج معلومات حساسة من الصوت دون علم المتحدث (أدوبي)
تقنيات الذكاء الاصطناعي أصبحت قادرة على استخراج معلومات حساسة من الصوت دون علم المتحدث (أدوبي)

نحن نتحدث يومياً دون أن نفكر كثيراً في مقدار ما تكشفه أصواتنا عنّا. فإلى جانب الكلمات التي نختارها، يحمل الصوت إشارات دقيقة عن هويتنا قد تكشف معلومات صحية وخلفيات ثقافية وحالات عاطفية، ومستوى التعليم وربما حتى ميولاً فكرية. وحتى وقت قريب، كان هذا الإدراك يقتصر على الحدس البشري؛ إذ يمكننا غالباً أن نميّز تعب صديق أو سعادته أو توتره من نبرة صوته فقط. لكن اليوم، باتت الأنظمة الحاسوبية قادرة على فعل ذلك وأكثر بدقة متزايدة.

ويحذّر باحثون في تقنيات الكلام واللغة من أن هذه القدرات تمثل تحدياً حقيقياً للخصوصية. فالصوت لم يعد مجرد وسيلة لإعطاء الأوامر للمساعدات الرقمية أو أداة للحوار، بل أصبح وعاءً غنياً بالمعلومات الشخصية التي تستطيع الخوارزميات الحديثة استخراجها، غالباً دون علم المتحدث أو موافقته.

لماذا يُعد الصوت بيانات شخصية؟

عندما نتحدث، لا تنتقل الرسالة اللغوية وحدها. فإيقاع الكلام ودرجة الصوت والتوقفات بين الكلمات وأنماط التنفس والخصائص الصوتية الأخرى، جميعها تحمل طبقات متعددة من المعلومات الشخصية. ويشير خبراء تقنيات الكلام إلى أن هذه المعلومات مدمجة مباشرة في الإشارة الصوتية نفسها، أي أنها تُفصح تلقائياً عن صاحبها بمجرد التحدث، دون أي نية واعية للكشف عنها.

وتستطيع هذه الخصائص الصوتية أن تعكس مؤشرات تتعلق بالصحة الجسدية أو النفسية، مثل الإرهاق أو مشكلات في الجهاز التنفسي. كما يمكن أن تشير إلى خلفية المتحدث الثقافية أو الجغرافية من خلال اللهجة ونمط النطق. إضافة إلى ذلك، تحمل الأصوات دلائل عاطفية تُمكّن الأنظمة المتقدمة من استنتاج ما إذا كان الشخص متوتراً أو هادئاً أو متحمساً أو مضطرباً. ولهذا، يُصنَّف الصوت ضمن فئة البيانات البيومترية أي البيانات الشخصية العميقة، الفريدة غالباً، والتي يصعب تغييرها أو استبدالها.

وبسبب هذه الحساسية، تُعامل البيانات الصوتية في العديد من التشريعات الحديثة باعتبارها بيانات محمية. ففي الاتحاد الأوروبي، على سبيل المثال، يمكن أن يندرج الصوت ضمن البيانات البيومترية الخاضعة لقواعد صارمة بموجب اللائحة العامة لحماية البيانات (GDPR)، ما يستلزم توفير ضمانات إضافية والحصول على موافقة صريحة في كثير من الحالات.

تحليل الصوت يطرح مخاطر تتعلق بالخصوصية قد تمتد إلى التوظيف والتأمين والتسويق والمراقبة (شاترستوك)

مخاطر الإفراط في كشف المعلومات

تثير القدرة على استخراج سمات شخصية من الصوت مخاوف تتجاوز مسألة الراحة أو التخصيص. فمع تطور تقنيات تحليل الصوت وانتشارها، قد تمتد آثارها إلى مجالات حساسة في حياة الأفراد. فقد تُستخدم الاستنتاجات المستخلصة من أنماط الكلام يوماً ما للتأثير في قرارات التوظيف أو تقييمات التأمين إذا أسيء استخدامها. كما يمكن للمعلنين استغلال الإشارات العاطفية أو السلوكية المستخلصة من الصوت لتقديم رسائل تسويقية شديدة الاستهداف، وربما ذات طابع تلاعبي.

وتتفاقم المخاطر مع احتمالات سوء الاستخدام، مثل المراقبة غير المشروعة أو التحرش أو تتبع الأفراد دون علمهم. ورغم أن هذه السيناريوهات ليست شائعة على نطاق واسع بعد، يؤكد الباحثون أن سرعة تطور التكنولوجيا تستدعي دق ناقوس الخطر مبكراً، قبل أن تصبح هذه الممارسات أمراً واقعاً يصعب احتواؤه.

قياس ما يكشفه صوتك

أحد التحديات الأساسية في حماية خصوصية الصوت هو فهم مقدار المعلومات التي يحتويها تسجيل صوتي واحد. ولهذا يعمل الباحثون على تطوير أدوات وأساليب لقياس مدى قابلية ربط عيّنة صوتية بسمات تعريفية محددة. وتهدف هذه المقاييس إلى تحديد مدى سهولة نسب الصوت إلى شخص بعينه أو إلى فئة ضيقة من الأشخاص، اعتماداً فقط على الخصائص الصوتية.

وتُعد هذه الأدوات ضرورية لتصميم أنظمة تراعي الخصوصية منذ البداية. فإذا تمكن المطورون من تقدير مستوى المخاطر المرتبطة بتسجيل صوتي معين، يصبح بإمكانهم اتخاذ قرارات مدروسة بشأن كيفية تخزينه أو معالجته أو مشاركته. ويدعم هذا التوجه مفهوم «الخصوصية بحكم التصميم»؛ حيث تُؤخذ المخاطر المحتملة في الحسبان قبل طرح التكنولوجيا للاستخدام الواسع.

الصوت ليس وسيلة تواصل فقط بل يحمل أيضاً بيانات شخصية عميقة تكشف الصحة والحالة النفسية والخلفية الثقافية (شاترستوك)

كيف يمكن حماية خصوصية الصوت؟

لا يدعو الخبراء إلى التخلي عن تقنيات الصوت، بل إلى تقليل التعرض غير الضروري للمعلومات الشخصية. ومن بين أكثر الاستراتيجيات فعالية تقليص كمية البيانات الصوتية الخام التي يتم مشاركتها. فبدلاً من إرسال تسجيلات كاملة، يمكن للأنظمة استخراج الحد الأدنى من المعلومات اللازمة لأداء مهمة محددة كتحويل الكلام إلى نص، ثم التخلص من بقية البيانات.

كما تُعد المعالجة المحلية للصوت خطوة مهمة في هذا السياق. فعندما يُحلل الصوت مباشرة على الجهاز، بدلاً من إرساله إلى خوادم سحابية بعيدة، تقل فرص إساءة الاستخدام أو الاعتراض أو الاستغلال الثانوي للبيانات. ويمنح هذا النهج المستخدمين قدراً أكبر من التحكم فيما يغادر أجهزتهم ومتى.

وتلعب الضوابط الفيزيائية والبيئية دوراً مكملاً. فالتقنيات التي تُظهر بوضوح متى يكون التسجيل نشطاً، أو التي تحصر التقاط الصوت في نطاقات محددة، أو تتطلب تفعيلاً مقصوداً من المستخدم، تساعد في منع التسجيل العرضي أو الخفي. ومجتمعةً، تسهم هذه الإجراءات في جعل التفاعل الصوتي مقصوداً لا متطفلاً.

الثقة والشفافية وتجربة المستخدم

الخصوصية ليست مسألة تقنية فحسب، بل هي قضية نفسية أيضاً. فمجرد الشعور بالمراقبة قد يؤثر في سلوك الأفراد وطريقة تعبيرهم عن أنفسهم. ويحذّر الباحثون من أن الإحساس الدائم بالرصد سواء أكان حقيقياً أم متوهماً، يمكن أن يقوّض الشعور بالكرامة والاستقلالية.

ومن هنا تبرز أهمية الشفافية؛ إذ ينبغي إبلاغ المستخدمين بوضوح متى يتم تسجيل أصواتهم، وما نوع المعلومات التي قد تُستخلص، وكيف ستُستخدم هذه البيانات. فالأنظمة التي تقدم إشارات واضحة وتحكماً مفهوماً في إعدادات الخصوصية تكون أقدر على كسب ثقة المستخدمين من تلك التي تعمل بصمت في الخلفية.

مستقبل مسؤول لتقنيات الصوت

توفر التقنيات المعتمدة على الصوت فوائد لا يمكن إنكارها، بدءاً من أدوات الوصول لذوي الإعاقة، مروراً بالحوسبة دون استخدام اليدين، ووصولاً إلى تفاعل أكثر طبيعية بين الإنسان والآلة. غير أن تعاظم حضور هذه التقنيات في الحياة اليومية يفرض مسؤولية متزايدة لحماية البيانات الصوتية.

ويواصل الباحثون تطوير أساليب لقياس المعلومات الشخصية الكامنة في الصوت وتقليلها والتحكم بها. وفي الوقت ذاته، يتعين على المطورين وصنّاع السياسات والمصممين العمل معاً لضمان تطور أطر الخصوصية بالتوازي مع الابتكار. فالتحدي ليس في إسكات التكنولوجيا، بل في ضمان أن تكون أصواتنا حين نتحدث مصدر تمكين لنا، لا بوابة لانتهاك خصوصيتنا.


مقالات ذات صلة

«هيوماين» تستثمر 3 مليارات دولار في «إكس إيه آي» قبيل استحواذ «سبيس إكس» عليها

الاقتصاد شعار شركة «هيوماين» السعودية (الشرق الأوسط)

«هيوماين» تستثمر 3 مليارات دولار في «إكس إيه آي» قبيل استحواذ «سبيس إكس» عليها

أعلنت شركة «هيوماين» السعودية عن استثمار استراتيجي بقيمة 3 مليارات دولار في شركة «إكس إيه آي» ضمن جولة تمويلية من الفئة «إي».

«الشرق الأوسط» (الرياض)
الاقتصاد العاصمة السعودية الرياض (واس)

كندا تبحث في الرياض تعزيز الشراكات الرقمية مع السعودية

أعلن وزير الذكاء الاصطناعي والابتكار الرقمي في كندا، إيفان سولومون، أنه التقى عدداً من الوزراء وقادة الأعمال في العاصمة السعودية، الرياض، بهدف تعميق الشراكات.

«الشرق الأوسط» (الرياض)
خاص «مايكروسوفت السعودية»: المملكة تسرّع تبني الذكاء الاصطناعي وتحوّله إلى ميزة تنافسية

خاص «مايكروسوفت السعودية»: المملكة تسرّع تبني الذكاء الاصطناعي وتحوّله إلى ميزة تنافسية

تضخ السعودية استثمارات ضخمة في الذكاء الاصطناعي، وستطلق «مايكروسوفت» منطقة سحابية في المملكة خلال 2026 لتعزيز سيادة البيانات وتمكين الأحمال الحرجة.

عبير حمدي (الرياض)
تكنولوجيا شعار روبوت الدردشة «غروك» من «إكس إيه آي» التابعة لشركة «إكس» (رويترز)

بسبب محتوى فاضح... تدقيق عالمي في روبوت الدردشة «غروك»

تشنّ حكومات وجهات تنظيمية حول ‌العالم حملة على محتوى جنسي فاضح ينتجه روبوت الدردشة «غروك» من «إكس إيه آي» التابعة لشركة «إكس» المملوكة للملياردير إيلون ماسك.

«الشرق الأوسط» (واشنطن)
علوم الذكاء في خدمة الخوارزمية

من يوم التأسيس إلى عصر الخوارزميات… كيف تبني السعودية صناعة طبية ذكية؟

استراتيجية وطنية متكاملة تُبنى على بنية تحتية رقمية متقدمة.

د. عميد خالد عبد الحميد (الرياض)

دراسة تحذّر من الاعتماد على الذكاء الاصطناعي لتوليد كلمات المرور

دراسة تحذّر من الاعتماد على الذكاء الاصطناعي لتوليد كلمات المرور
TT

دراسة تحذّر من الاعتماد على الذكاء الاصطناعي لتوليد كلمات المرور

دراسة تحذّر من الاعتماد على الذكاء الاصطناعي لتوليد كلمات المرور

يلجأ كثيرون إلى أنظمة الذكاء الاصطناعي لإنشاء كلمات مرور جديدة؛ حيث يقترح النظام في غضون لحظات كلمة مرور ويؤكد بثقة أنها قوية وآمنة.

ووفقاً لبحث لشركة «إرّيغلر» المتخصصة في الأمن السيبراني القائم على الذكاء الاصطناعي، فإن النماذج الرئيسية الثلاثة -«شات جي بي تي» و«كلاود» و«جيميناي»- أنتجت كلمات مرور يسهل التنبؤ بها، ما دفع دان لاهاف، المؤسس المشارك لشركة «إرّيغلر»، إلى توجيه نداء بشأن استخدام الذكاء الاصطناعي في إنشائها.

وقال لشبكة «سكاي نيوز» البريطانية: «يجب عليك ألا تفعل ذلك بالتأكيد. وإذا فعلت ذلك، فعليك تغيير كلمة مرورك فوراً. ونعتقد أن هذه المشكلة غير معروفة بما يكفي».

تُعدّ الأنماط القابلة للتنبؤ عدواً للأمن السيبراني الجيد؛ لأنها تعني إمكانية تخمين كلمات المرور بواسطة الأدوات الآلية التي يستخدمها مجرمو الإنترنت.

ولكن نظراً لأن نماذج اللغة الكبيرة (LLMs) لا تُنشئ كلمات مرور عشوائياً؛ بل تستخلص النتائج بناءً على أنماط في بيانات التدريب الخاصة بها، فإنها لا تُنشئ في الواقع كلمة مرور قوية؛ بل تُنشئ -فقط- ما يبدو كلمة مرور قوية؛ لكنها يسهل التنبؤ بها.

وتحتاج بعض كلمات المرور التي تُنشئها أنظمة الذكاء الاصطناعي إلى تحليل رياضي لكشف نقاط ضعفها، ولكن كثيراً منها نمطي لدرجة أنه واضح للعيان.

فعلى سبيل المثال، في عينة من 50 كلمة مرور أنشأها برنامج «إرّيغلر» باستخدام برنامج «كلاود إيه آي»، وجد أن منها 23 كلمة مرور فريدة فقط. إحدى كلمات المرور (K9#mPx$vL2nQ8wR) استُخدمت 10 مرات.

وحسب الشبكة البريطانية، كان أداء كل من «شات جي بي تي» من شركة «أوبن إيه آي» و«جيميناي» من «غوغل» أقل انتظاماً بعض الشيء، ولكنهما مع ذلك أنتجا كلمات مرور متكررة، وأنماطاً متوقعة في أحرف كلمات المرور.

كما كان نظام «نانوبانانا» من «غوغل» -وهو نظام لتوليد الصور- عرضة للخطأ نفسه عند تكليفه بإنشاء صور لكلمات المرور على أوراق لاصقة.

ويقول لاهاف: «أفضل تقدير لدينا هو أنه في الوقت الحالي، إذا كنت تستخدم نماذج التعلم الآلي لإنشاء كلمات المرور، فبإمكان حتى أجهزة الكومبيوتر القديمة اختراقها في وقت قصير نسبياً».

وفي السياق، قدَّم غرايم ستيوارت، رئيس القطاع العام في شركة الأمن السيبراني «تشيك بوينت»، بعض التطمينات، وقال: «الخبر السار هو أن هذه إحدى المشكلات الأمنية النادرة التي يمكن حلها بسهولة، فمن حيث مدى خطورتها، تندرج ضمن فئة «المشكلات التي يمكن تجنبها، والتي يكون تأثيرها كبيراً عند حدوثها»، وليست من فئة «الجميع مُعرّض للاختراق».

ولاحظ خبراء آخرون أن المشكلة تكمن في كلمات المرور نفسها، المعروفة بسهولة اختراقها، وقال روبرت هان، الخبير التقني في شركة «إن ترست»: «توجد طرق مصادقة أقوى وأسهل»، ونصح باستخدام كلمات مرور مثل التعرف على الوجه وبصمة الإصبع كلما أمكن، وإذا لم يكن ذلك خياراً متاحاً، فالنصيحة هي: اختر عبارة طويلة يسهل تذكرها، ولا تستخدم الذكاء الاصطناعي.


«يوتيوب» تعلن إصلاح عطل في بث مقاطع الفيديو

شابة تقف لالتقاط صورة أمام شعار «يوتيوب» (رويترز)
شابة تقف لالتقاط صورة أمام شعار «يوتيوب» (رويترز)
TT

«يوتيوب» تعلن إصلاح عطل في بث مقاطع الفيديو

شابة تقف لالتقاط صورة أمام شعار «يوتيوب» (رويترز)
شابة تقف لالتقاط صورة أمام شعار «يوتيوب» (رويترز)

أعلنت منصة الفيديو «يوتيوب»، مساء أمس الثلاثاء، أنها عالجت العطل الذي أثّر على مئات الآلاف من مستخدميها في مختلف أنحاء العالم.

وأوضحت الشركة، على صفحة مساعدة المستخدمين: «حُلَّت المشكلة التي طرأت على نظام التوصيات، وعادت كل منصاتنا (...) إلى وضعها الطبيعي».

كان الموقع قد أفاد، قبل ذلك، بوجود «مشكلة» في نظام «التوصيات»، ما كان «يحول دون ظهور مقاطع الفيديو» على «يوتيوب»، بما في ذلك على التطبيق وعلى «يوتيوب كيدز».

وأشار موقع «داون ديتيكتور» المتخصص إلى أن أكثر من 300 ألف بلاغ عن مشاكل في الدخول إلى «يوتيوب» قُدّمت، وصلت إلى ذروتها قرابة الأولى بعد منتصف الليل بتوقيت غرينتش، وفق ما أفادت «وكالة الصحافة الفرنسية».

ويبلغ عدد المستخدمين النشِطين لموقع «يوتيوب»، التابع لمجموعة «غوغل»، أكثر من مليارين ونصف المليار شهرياً.


بسبب محتوى فاضح... تدقيق عالمي في روبوت الدردشة «غروك»

شعار روبوت الدردشة «غروك» من «إكس إيه آي» التابعة لشركة «إكس» (رويترز)
شعار روبوت الدردشة «غروك» من «إكس إيه آي» التابعة لشركة «إكس» (رويترز)
TT

بسبب محتوى فاضح... تدقيق عالمي في روبوت الدردشة «غروك»

شعار روبوت الدردشة «غروك» من «إكس إيه آي» التابعة لشركة «إكس» (رويترز)
شعار روبوت الدردشة «غروك» من «إكس إيه آي» التابعة لشركة «إكس» (رويترز)

تشنّ حكومات وجهات تنظيمية حول ‌العالم حملة على محتوى جنسي فاضح ينتجه روبوت الدردشة «غروك» من «إكس إيه آي» التابعة لشركة «إكس» المملوكة للملياردير إيلون ماسك، تشمل تحقيقات وحظراً، وتطالب بضمانات، في إطار مسعى عالمي متنامٍ للحد من المواد غير القانونية. فيما يلي بعض ردود الفعل من حكومات وجهات تنظيمية حول العالم...

أوروبا

- ​فتحت المفوضية الأوروبية في 26 يناير (كانون الثاني) تحقيقاً بشأن ما إذا كان «غروك» ينشر محتوى غير قانوني في الاتحاد الأوروبي، يشمل صوراً جنسية معدلة. ويدرس التحقيق ما إذا كانت شركة «إكس» قيّمت المخاطر وحدّت منها على النحو المطلوب بموجب القواعد الرقمية للاتحاد.

- مددت المفوضية في 8 يناير أمراً أرسلته إلى «إكس» العام الماضي، يلزمها بالاحتفاظ بجميع الوثائق والبيانات الداخلية المتعلقة بـ«غروك» حتى نهاية 2026.

- فتحت هيئة حماية البيانات في آيرلندا تحقيقاً بشأن «غروك» في 17 فبراير (شباط) لاختبار طريقة تعامله مع البيانات الشخصية وقدراته على إنتاج صور ومقاطع فيديو جنسية ضارة بأشخاص، من بينهم قصر. وتشرف الهيئة على شركة «إكس» داخل الاتحاد، حيث يقع مقرها الأوروبي في آيرلندا.

- قال رئيس الوزراء الإسباني بيدرو سانتشيث إن الحكومة أمرت مدعين بالتحقيق مع شركات «إكس» و«ميتا» ‌و«تيك توك» بتهمة ‌توزيع مواد مولدة بالذكاء الاصطناعي تستغل الأطفال جنسياً.

- فتحت هيئة تنظيم الاتصالات البريطانية (​أوفكوم) ‌تحقيقاً ⁠بشأن «إكس» لتحديد ​ما ⁠إذا كانت الشركة قد أخلت بواجبها في حماية المستخدمين في بريطانيا من المحتوى الذي قد يكون غير قانوني بموجب إطار عمل قانون السلامة على الإنترنت، عن طريق إنتاج «غروك» مقاطع فيديو مزيفة عن علاقات جنسية.

- داهمت وحدة مكافحة الجرائم الإلكترونية التابعة لمكتب المدعي العام في باريس مقر شركة «إكس» في العاصمة الفرنسية يوم 3 فبراير (شباط)، وأمرت ماسك بالردّ على أسئلة ستوجه إليه في أبريل (نيسان) ضمن تحقيق موسع عما يقال عن تحيز الخوارزميات والتواطؤ في احتجاز ونشر صور أطفال ذات طبيعة إباحية وانتهاك حقوق الأفراد في الصور الشخصية، من خلال تزييفها بمحتوى جنسي فاضح.

- حذّرت هيئة حماية البيانات الإيطالية من أن استخدام أدوات الذكاء الاصطناعي لإنشاء صور مزيفة ⁠بدقة عالية و«فاضحة» لأشخاص حقيقيين دون موافقة يشكل انتهاكات خطيرة للخصوصية، ويشكل في بعض الحالات ‌أيضاً جرائم جنائية.

شعار روبوت الدردشة «غروك» يظهر على شاشتين (أ.ف.ب)

آسيا

- أرسلت وزارة تكنولوجيا المعلومات في الهند مذكرة رسمية ‌إلى «إكس» في 2 يناير بشأن اتهامات عن إنتاج صور جنسية ​فاضحة باستخدام إمكانات «غروك» وتداولها، وطالبت بإزالة هذا المحتوى، وطلبت ‌تقريراً عن الإجراءات التي ستتخذ خلال 72 ساعة.

- حقّقت اليابان أيضاً مع «إكس» بشأن «غروك»، وقالت إن الحكومة ‌ستدرس كل الخيارات الممكنة لمنع توليد صور غير لائقة.

- قالت وزارة الاتصالات والشؤون الرقمية في إندونيسيا إنها حظرت الوصول إلى «غروك»، وهي خطوة قالت وزيرة الاتصالات الإندونيسية، ميوتيا حفيظ، إنها تهدف إلى حماية النساء والأطفال من المحتوى الإباحي المزيف الذي ينتجه الذكاء الاصطناعي، مستندة إلى قوانين البلاد الصارمة لمكافحة تداول المواد الإباحية.

- ذكرت هيئة تنظيم الاتصالات في ماليزيا، يوم 23 يناير، أن البلاد أعادت إمكانية دخول المستخدمين على «غروك» ‌بعد أن طبّقت «إكس» إجراءات أمان إضافية.

- أعلنت وحدة مكافحة الجرائم الإلكترونية في الفلبين، يوم 21 يناير، إعادة تفعيل «غروك» بعد أن تعهدت الشركة المطورة بإزالة أدوات التلاعب ⁠بالصور، التي أثارت مخاوف ⁠بشأن سلامة الأطفال.

الأميركتان

- قال حاكم ولاية كاليفورنيا والمدعي العام، في 14 يناير، إنهما طالبا «إكس إيه آي» بالردّ، في ظل انتشار صور جنسية على منصتها من دون موافقة المستخدمين.

- ذكرت هيئة حماية الخصوصية في كندا أنها توسع نطاق تحقيق قائم بشأن «إكس»، بعد ورود تقارير عن إنتاج «غروك» صوراً مفبركة ذات محتوى جنسي فاضح من دون موافقة المستخدمين.

- قالت الحكومة ومدعون في البرازيل، في بيان مشترك، صدر يوم 20 يناير، إنهما أمهلا شركة «إكس إيه آي» مهلة مدتها 30 يوماً لمنع روبوت الدردشة من نشر محتوى جنسي مفبرك.

منطقة الأوقيانوس

- قالت الهيئة المعنية بالسلامة الإلكترونية على الإنترنت في أستراليا (إي سيفتي)، في 7 يناير، إنها تحقق في صور جنسية رقمية «فاضحة» جرى إنتاجها بتزييف بالغ الدقة بواسطة «غروك»، وتقيّم محتوى إباحياً بموجب برنامجها المخصص لمكافحة الانتهاكات عبر الصور، مشيرة إلى أن الأمثلة الحالية المتعلقة بالأطفال التي راجعتها لا تفي بالحدّ القانوني لمواد تمثل انتهاكات جنسية للأطفال، بموجب القانون الأسترالي.

كيف ردّت «إكس إيه آي»؟

- قالت الشركة، في 14 يناير، إنها ​فرضت على مستخدمي «غروك» قيوداً على استخدام ميزة تعديل الصور، ​ومنعتهم بناء على مواقعهم الجغرافية من توليد صور لأشخاص يرتدون ملابس فاضحة في «المناطق التي يعدّ فيها ذلك غير قانوني». ولم تحدد هذه الدول.

- قصرت الشركة في وقت سابق استخدام خاصيتي توليد «غروك» للصور وتعديلها على من يدفعون اشتراكات فقط.