وكيل الذكاء الاصطناعي الخصوصي: هل نحن جاهزون له؟

يتمتع بقدرات مبهرة ومفيدة جداً... قد تكون خطرة

صورة توضيحية لروبوتات الذكاء الإصطناعي و«تشات جي بي تي»
صورة توضيحية لروبوتات الذكاء الإصطناعي و«تشات جي بي تي»
TT

وكيل الذكاء الاصطناعي الخصوصي: هل نحن جاهزون له؟

صورة توضيحية لروبوتات الذكاء الإصطناعي و«تشات جي بي تي»
صورة توضيحية لروبوتات الذكاء الإصطناعي و«تشات جي بي تي»

عند النظر إلى تاريخ روبوتات المحادثة الحديثة، نلاحظ أنّه ينقسم إلى مرحلتين. بدأت الأولى العام الماضي مع إطلاق «تشات جي بي تي»، ولا تزال مستمرّة حتّى يومنا هذا، وترتكز بشكلٍ أساسي على روبوتات محادثة قادرة على الحديث عن كلّ شيء.

هذه القدرة مبهرة ومفيدة جداً ولكنّها في الواقع ليست إلّا مقدّمة للمرحلة التالية: الذكاء الاصطناعي القادر حقاً على القيام بأشياء مطلوبة منه.

مهمات وكلاء الذكاء الاصطناعي

تزعم شركات التقنية أنّ ما يُسمّى «وكلاء» الذكاء الاصطناعي «AI agents» سيكونون قريباً قادرين على إرسال الرسائل الإلكترونية، وجدولة المواعيد، وتثبيت حجوزات المطاعم وبطاقات الطائرة، والقيام بمهام معقّدة كـ«التفاوض على علاوة مالية مع ربّ العمل» أو «شراء هدايا عيد الميلاد لجميع أفراد العائلة».

بدت هذه المرحلة، التي لا تزال بعيدة، أقرب قليلاً منّا في السادس من نوفمبر (تشرين الثاني) الحالي عندما أعلنت «أوبن إي آي.»، الشركة المطوّرة لروبوت «تشات جي بي تي»، أنّ المستخدمين يستطيعون اليوم ابتكار روبوتات المحادثة الخاصّة بهم.

أدوات شخصية مبرمجة

بعد لمحة مبكرة على هذه الروبوتات، التي أسمتها الشركة GPTs، التي ستصبح متوفرة لزبائنها ومشتركي خدمة «تشات جي بي تي بلاس»، وجدنا أنّها تختلف عن «تشات جي بي تي» التقليدي بأمور قليلة ولكن مهمّة.

أولاً - برمجة لمهمات محددة

برمجت الروبوتات الشخصية الجديدة للقيام بمهام محدّدة - مثلاً، تشمل ابتكارات «أوبن إي آي» روبوت «مدرّب الكتابة الإبداعية» «Creative Writing Coach» وروبوت «خالط الموكتيل» «Mocktail Mixologist» الذي يقترح على مستخدمه مشروبات غير كحولية.

ثانياً - سحب ودمج البيانات

تستطيع هذه الروبوتات سحب ما تريد من البيانات الخاصّة كمستندات الموارد البشرية في أيّ شركة، أو قاعدة بيانات للوائح العقارية، وأن تدمج هذه البيانات في استجاباتها. ثالثاً، إذا سمحتم لها، تستطيع هذه الروبوتات الاتصال بأجزاء أخرى من حياتكم الإلكترونية كالرزنامة، ولائحة المهام، وحساب «سلاك»، ومن ثمّ التحرّك باستخدام بياناتكم الثبوتية.

صورة توضيحية لروبوتات الذكاء الإصطناعي و«تشات جي بي تي»

* عناصر خبيثة قد تبتكر عمداً ذكاءً اصطناعياً فاسداً لخدمة أهداف خطرة *

مزايا عظيمة ومخاوف من الكوارث

هل يبدو لكم الأمر مخيفاً؟ لأنّه كذلك فعلاً. فإذا سألتم بعض باحثي سلامة الذكاء الاصطناعي، سيقولون لكم إنّهم يخشون منح روبوتات المحادثة المزيد من الاستقلالية؛ لأنّ خطوة كهذه قد تؤدّي إلى كارثة. وكانت منظّمة «مركز سلامة الذكاء الاصطناعي» البحثية غير الربحية، قد وضعت هذا العام الوكلاء المستقلّين على لائحة «مخاطر الذكاء الاصطناعي» الكارثية؛ عازيةً الأمر إلى «العناصر الخبيثة التي قد تبتكر عمداً ذكاءً اصطناعياً فاسداً لخدمة أهداف خطرة».

ولكنّ المساعدين المدعومين بالذكاء الاصطناعي قادرون فعلاً على أداء مهام مفيدة للنّاس، حتّى أنّ الزبائن التجاريين (الشركات) يتوقون لتدريب روبوتات المحادثة باستخدام بياناتهم الخاصّة. وهناك من يحاجج أيضاً بأنّ الذكاء الاصطناعي لن يصبح مفيداً حقاً قبل أن يستطيع فعلاً فهم مستخدميه – أساليبهم في التواصل، وما يحبّون وما لا يحبّون، وما يبحثون عنه ويشترونه عبر الإنترنت.

إذن، ها نحن اليوم، نسارع إلى عصر وكلاء الذكاء الاصطناعي المستقلّين - ولا عزاء للمعترضين!

عروض لأعمال آمنة

لنكن منصفين، لا بدّ من الاعتراف بأنّ روبوتات «أوبن إي آي» ليست خطرة. فقد شاهدتُ عرضاً لأكثر من نموذج GPT خلال مؤتمر المطوّرين الذي أقامته الشركة أخيراً في سان فرنسيسكو، ظهرت خلاله وهي تؤدّي مهام غير مؤذية كتلوين رسومات الأطفال وشرح قواعد لعب الورق.

لا تستطيع هذه الروبوتات الشخصية القيام بالكثير بعد، حيث إنّ أداءها لا يتعدّى البحث في المستندات والاتصال مع التطبيقات الشائعة. شاهدتُ في واحدٍ من العروض أحد موظّفي «أوبن إي آي» يطلب من روبوت GPT البحث عن اجتماعات متضاربة المواعيد في رزنامته في «غوغل» وإرسال رسالة عبر تطبيق «سلاك» لربّ عمله. وشاهدتُ عرضاً آخر على المسرح، عمد فيه سام ألتمان، الرئيس التنفيذي (السابق) لـ«أوبن إي آي» إلى ابتكار روبوت محادثة أسماه «مرشد الشركة الناشئة»، ومهمّته تقديم النصائح للمؤسسين الطامحين باستخدام ملف خطاب كان قد ألقاه العام الماضي.

قد تبدو هذه المهام كحيَل لجذب الاهتمام، إلّا أنّ فكرة تخصيص روبوتات المحادثة والسماح لها بالتحرّك نيابة عنّا تمثّل خطوة مهمّة في ما يسمّيه ألتمان استراتيجية «أوبن إي آي» «للتوظيف التدريجي المكرّر»، أي إدخال تحسينات طفيفة على الذكاء الاصطناعي بمسار سريع بدل إحداث قفزات كبيرة بفوارق زمنية طويلة.

اختبارات مساعد ذكي شخصي

بعدما منحتني «أوبن إي آي» وصولاً مبكراً لمبتكر روبوت GPT الشخصي، أمضيت أيّاماً عدّة ألهو به.

كان «مساعد في الحضانة» «Day Care Helper» أوّل روبوت محادثة مخصّص ابتكرته لنا شخصياً، وهو عبارة عن أداة للإجابة عن أسئلة بخصوص حضانة ابني. فكأبٍ يعاني قلّة النوم ويجد صعوبة في تصفّح دليل الأهل في كلّ مرّة، دائماً ما أنسى بعض التفاصيل، كما إذا كان يمكننا إرسال وجبة خفيفة مع الفول السوداني (وهو أحد مسببات الحساسية لدى بعض الأطفال) أم لا، وما إذا كانت الحضانة مقفلة أو مفتوحة في بعض الأعياد.

لهذا السببّ؛ حمّلت دليل الأهل على أداة ابتكار الروبوت GPT، وفي غضون ثوانٍ، أصبح لديّ روبوت محادثة يمكنني استخدامه بسهولة للبحث عن إجابات على أسئلتي. كان أداؤه مبهراً لا سيّما بعد تغيير التعليمات لإفهامه أنّه من المفترض أن يعطي إجابات مستخدِماً المعلومات المتوفر في الدليل، لا أن يبتكر إجابات لأسئلة لم يعالجها الدليل.

أسميتُ الروبوت الثاني «نصيحة الجدّ رووز المالية» الذي اعتمد على مستند آخر: كتيّب من 23 صفحة يضمّ نصائح كتبها جدّي، الخبير الاقتصادي الشغوف في دراسة الأسهم وصاحب الخبرة الطويلة في التخطيط المالي. أستخدم هذا الكتيّب عند الحاجة، ولكنّني تساءلتُ ما إذا كان سيلهمني أكثر إذا ما وضعته في روبوت محادثة.

حمّلتُ نصّ الكتيّب، وفي أقلّ من خمس دقائق، أصبح لديّ روبوت محادثة يردّد لي نصيحة جدّي المالية ويجيب على أسئلتي. (ولو أنّه في بعض الأماكن انزلق من كلام جدّي وعاد إلى أسلوب «تشات جي بي تي» في الحديث عن الأمور المالية).

لم يكن أداء أيّ من روبوتات المحادثة خاصتي مثالياً وعجزت جميعها عن أداء الكثير من المهام. ولكن إذا دقّقنا في الفكرة وطريقة عمل هذه الأدوات، سيتبيّن لنا نوع الأعمال التي قد يقوم بها وكيل الذكاء الاصطناعي إذا ما أصبح متقناً.

عواقب الذكاء الاصطناعي

في المقابل، ينطوي تعزيز استقلالية وكلاء الذكاء الاصطناعي، ومنحهم الوصول إلى بياناتنا الشخصية، ووضعهم في قلب كلّ تطبيق نستخدمه، على تبعات وعواقب مقلقة جداً. وإذا صحّت التوقعات، سيتمكّن الذكاء الاصطناعي قريباً جداً من معرفتنا بعمق أكثر، وفي بعض الحالات، سيعرفنا أكثر ممّا نعرف أنفسنا وسيكون قادراً على القيام بأفعال معقّدة مع أو من دون إشرافنا.

وإذا صحّت مزاعم «أوبن إي آي»، قد نكون على مشارف الانتقال إلى عالمٍ يكون فيه الذكاء الاصطناعي شريكاً أقلّ إبداعاً، بل يصبح توسعاً سيليكونياً لنا نحن البشر، يأتي على شكل أدمغة صناعية قادرة على التنقّل حول العالم لجمع المعلومات والتصرّف نيابة عنّا. إذا كنتم غير جاهزين تماماً لهذا العالم بعد، ننصحكم بأن تبدؤوا بتهيئة أنفسكم له.

* خدمة «نيويورك تايمز»


مقالات ذات صلة

دراسة تحذّر من الاعتماد على الذكاء الاصطناعي لتوليد كلمات المرور

تكنولوجيا دراسة تحذّر من الاعتماد على الذكاء الاصطناعي لتوليد كلمات المرور

دراسة تحذّر من الاعتماد على الذكاء الاصطناعي لتوليد كلمات المرور

حذَّرت شركة متخصصة في الأمن السيبراني القائم على الذكاء الاصطناعي من اللجوء إلى نماذج اللغة الكبيرة لإنشاء كلمات مرور.

«الشرق الأوسط» (لندن)
تكنولوجيا شعار روبوت الدردشة «غروك» من «إكس إيه آي» التابعة لشركة «إكس» (رويترز)

بسبب محتوى فاضح... تدقيق عالمي في روبوت الدردشة «غروك»

تشنّ حكومات وجهات تنظيمية حول ‌العالم حملة على محتوى جنسي فاضح ينتجه روبوت الدردشة «غروك» من «إكس إيه آي» التابعة لشركة «إكس» المملوكة للملياردير إيلون ماسك.

«الشرق الأوسط» (واشنطن)
الاقتصاد رسم بياني في بورصة نيويورك يعرض رقماً خلال اليوم لمؤشر «SPY» الذي يتتبع «ستاندرد آند بورز» (أ.ب)

الذكاء الاصطناعي يهز ثقة المستثمرين في قطاعات «وول ستريت» التقليدية

لم يعد الذكاء الاصطناعي مجرد محرك للصعود في أسواق المال بل بدأ يظهر وجهه الآخر بوصفه عامل «تعطيل» يهدد نماذج الأعمال التقليدية

«الشرق الأوسط» (نيويورك)
الاقتصاد الرئيس التنفيذي لشركة «غوغل» سوندار بيتشاي يتفاعل مع وزير الإعلام والتكنولوجيا الهندية أشويني فايشناو في 2022 (أ.ب)

الهند تخطط لجذب 200 مليار دولار في قطاع مراكز البيانات

تتطلع الهند لجذب استثمارات ضخمة تصل إلى 200 مليار دولار في قطاع مراكز البيانات خلال السنوات القليلة المقبلة.

«الشرق الأوسط» (نيودلهي)

دراسة تحذّر من الاعتماد على الذكاء الاصطناعي لتوليد كلمات المرور

دراسة تحذّر من الاعتماد على الذكاء الاصطناعي لتوليد كلمات المرور
TT

دراسة تحذّر من الاعتماد على الذكاء الاصطناعي لتوليد كلمات المرور

دراسة تحذّر من الاعتماد على الذكاء الاصطناعي لتوليد كلمات المرور

يلجأ كثيرون إلى أنظمة الذكاء الاصطناعي لإنشاء كلمات مرور جديدة؛ حيث يقترح النظام في غضون لحظات كلمة مرور ويؤكد بثقة أنها قوية وآمنة.

ووفقاً لبحث لشركة «إرّيغلر» المتخصصة في الأمن السيبراني القائم على الذكاء الاصطناعي، فإن النماذج الرئيسية الثلاثة -«شات جي بي تي» و«كلاود» و«جيميناي»- أنتجت كلمات مرور يسهل التنبؤ بها، ما دفع دان لاهاف، المؤسس المشارك لشركة «إرّيغلر»، إلى توجيه نداء بشأن استخدام الذكاء الاصطناعي في إنشائها.

وقال لشبكة «سكاي نيوز» البريطانية: «يجب عليك ألا تفعل ذلك بالتأكيد. وإذا فعلت ذلك، فعليك تغيير كلمة مرورك فوراً. ونعتقد أن هذه المشكلة غير معروفة بما يكفي».

تُعدّ الأنماط القابلة للتنبؤ عدواً للأمن السيبراني الجيد؛ لأنها تعني إمكانية تخمين كلمات المرور بواسطة الأدوات الآلية التي يستخدمها مجرمو الإنترنت.

ولكن نظراً لأن نماذج اللغة الكبيرة (LLMs) لا تُنشئ كلمات مرور عشوائياً؛ بل تستخلص النتائج بناءً على أنماط في بيانات التدريب الخاصة بها، فإنها لا تُنشئ في الواقع كلمة مرور قوية؛ بل تُنشئ -فقط- ما يبدو كلمة مرور قوية؛ لكنها يسهل التنبؤ بها.

وتحتاج بعض كلمات المرور التي تُنشئها أنظمة الذكاء الاصطناعي إلى تحليل رياضي لكشف نقاط ضعفها، ولكن كثيراً منها نمطي لدرجة أنه واضح للعيان.

فعلى سبيل المثال، في عينة من 50 كلمة مرور أنشأها برنامج «إرّيغلر» باستخدام برنامج «كلاود إيه آي»، وجد أن منها 23 كلمة مرور فريدة فقط. إحدى كلمات المرور (K9#mPx$vL2nQ8wR) استُخدمت 10 مرات.

وحسب الشبكة البريطانية، كان أداء كل من «شات جي بي تي» من شركة «أوبن إيه آي» و«جيميناي» من «غوغل» أقل انتظاماً بعض الشيء، ولكنهما مع ذلك أنتجا كلمات مرور متكررة، وأنماطاً متوقعة في أحرف كلمات المرور.

كما كان نظام «نانوبانانا» من «غوغل» -وهو نظام لتوليد الصور- عرضة للخطأ نفسه عند تكليفه بإنشاء صور لكلمات المرور على أوراق لاصقة.

ويقول لاهاف: «أفضل تقدير لدينا هو أنه في الوقت الحالي، إذا كنت تستخدم نماذج التعلم الآلي لإنشاء كلمات المرور، فبإمكان حتى أجهزة الكومبيوتر القديمة اختراقها في وقت قصير نسبياً».

وفي السياق، قدَّم غرايم ستيوارت، رئيس القطاع العام في شركة الأمن السيبراني «تشيك بوينت»، بعض التطمينات، وقال: «الخبر السار هو أن هذه إحدى المشكلات الأمنية النادرة التي يمكن حلها بسهولة، فمن حيث مدى خطورتها، تندرج ضمن فئة «المشكلات التي يمكن تجنبها، والتي يكون تأثيرها كبيراً عند حدوثها»، وليست من فئة «الجميع مُعرّض للاختراق».

ولاحظ خبراء آخرون أن المشكلة تكمن في كلمات المرور نفسها، المعروفة بسهولة اختراقها، وقال روبرت هان، الخبير التقني في شركة «إن ترست»: «توجد طرق مصادقة أقوى وأسهل»، ونصح باستخدام كلمات مرور مثل التعرف على الوجه وبصمة الإصبع كلما أمكن، وإذا لم يكن ذلك خياراً متاحاً، فالنصيحة هي: اختر عبارة طويلة يسهل تذكرها، ولا تستخدم الذكاء الاصطناعي.


«يوتيوب» تعلن إصلاح عطل في بث مقاطع الفيديو

شابة تقف لالتقاط صورة أمام شعار «يوتيوب» (رويترز)
شابة تقف لالتقاط صورة أمام شعار «يوتيوب» (رويترز)
TT

«يوتيوب» تعلن إصلاح عطل في بث مقاطع الفيديو

شابة تقف لالتقاط صورة أمام شعار «يوتيوب» (رويترز)
شابة تقف لالتقاط صورة أمام شعار «يوتيوب» (رويترز)

أعلنت منصة الفيديو «يوتيوب»، مساء أمس الثلاثاء، أنها عالجت العطل الذي أثّر على مئات الآلاف من مستخدميها في مختلف أنحاء العالم.

وأوضحت الشركة، على صفحة مساعدة المستخدمين: «حُلَّت المشكلة التي طرأت على نظام التوصيات، وعادت كل منصاتنا (...) إلى وضعها الطبيعي».

كان الموقع قد أفاد، قبل ذلك، بوجود «مشكلة» في نظام «التوصيات»، ما كان «يحول دون ظهور مقاطع الفيديو» على «يوتيوب»، بما في ذلك على التطبيق وعلى «يوتيوب كيدز».

وأشار موقع «داون ديتيكتور» المتخصص إلى أن أكثر من 300 ألف بلاغ عن مشاكل في الدخول إلى «يوتيوب» قُدّمت، وصلت إلى ذروتها قرابة الأولى بعد منتصف الليل بتوقيت غرينتش، وفق ما أفادت «وكالة الصحافة الفرنسية».

ويبلغ عدد المستخدمين النشِطين لموقع «يوتيوب»، التابع لمجموعة «غوغل»، أكثر من مليارين ونصف المليار شهرياً.


بسبب محتوى فاضح... تدقيق عالمي في روبوت الدردشة «غروك»

شعار روبوت الدردشة «غروك» من «إكس إيه آي» التابعة لشركة «إكس» (رويترز)
شعار روبوت الدردشة «غروك» من «إكس إيه آي» التابعة لشركة «إكس» (رويترز)
TT

بسبب محتوى فاضح... تدقيق عالمي في روبوت الدردشة «غروك»

شعار روبوت الدردشة «غروك» من «إكس إيه آي» التابعة لشركة «إكس» (رويترز)
شعار روبوت الدردشة «غروك» من «إكس إيه آي» التابعة لشركة «إكس» (رويترز)

تشنّ حكومات وجهات تنظيمية حول ‌العالم حملة على محتوى جنسي فاضح ينتجه روبوت الدردشة «غروك» من «إكس إيه آي» التابعة لشركة «إكس» المملوكة للملياردير إيلون ماسك، تشمل تحقيقات وحظراً، وتطالب بضمانات، في إطار مسعى عالمي متنامٍ للحد من المواد غير القانونية. فيما يلي بعض ردود الفعل من حكومات وجهات تنظيمية حول العالم...

أوروبا

- ​فتحت المفوضية الأوروبية في 26 يناير (كانون الثاني) تحقيقاً بشأن ما إذا كان «غروك» ينشر محتوى غير قانوني في الاتحاد الأوروبي، يشمل صوراً جنسية معدلة. ويدرس التحقيق ما إذا كانت شركة «إكس» قيّمت المخاطر وحدّت منها على النحو المطلوب بموجب القواعد الرقمية للاتحاد.

- مددت المفوضية في 8 يناير أمراً أرسلته إلى «إكس» العام الماضي، يلزمها بالاحتفاظ بجميع الوثائق والبيانات الداخلية المتعلقة بـ«غروك» حتى نهاية 2026.

- فتحت هيئة حماية البيانات في آيرلندا تحقيقاً بشأن «غروك» في 17 فبراير (شباط) لاختبار طريقة تعامله مع البيانات الشخصية وقدراته على إنتاج صور ومقاطع فيديو جنسية ضارة بأشخاص، من بينهم قصر. وتشرف الهيئة على شركة «إكس» داخل الاتحاد، حيث يقع مقرها الأوروبي في آيرلندا.

- قال رئيس الوزراء الإسباني بيدرو سانتشيث إن الحكومة أمرت مدعين بالتحقيق مع شركات «إكس» و«ميتا» ‌و«تيك توك» بتهمة ‌توزيع مواد مولدة بالذكاء الاصطناعي تستغل الأطفال جنسياً.

- فتحت هيئة تنظيم الاتصالات البريطانية (​أوفكوم) ‌تحقيقاً ⁠بشأن «إكس» لتحديد ​ما ⁠إذا كانت الشركة قد أخلت بواجبها في حماية المستخدمين في بريطانيا من المحتوى الذي قد يكون غير قانوني بموجب إطار عمل قانون السلامة على الإنترنت، عن طريق إنتاج «غروك» مقاطع فيديو مزيفة عن علاقات جنسية.

- داهمت وحدة مكافحة الجرائم الإلكترونية التابعة لمكتب المدعي العام في باريس مقر شركة «إكس» في العاصمة الفرنسية يوم 3 فبراير (شباط)، وأمرت ماسك بالردّ على أسئلة ستوجه إليه في أبريل (نيسان) ضمن تحقيق موسع عما يقال عن تحيز الخوارزميات والتواطؤ في احتجاز ونشر صور أطفال ذات طبيعة إباحية وانتهاك حقوق الأفراد في الصور الشخصية، من خلال تزييفها بمحتوى جنسي فاضح.

- حذّرت هيئة حماية البيانات الإيطالية من أن استخدام أدوات الذكاء الاصطناعي لإنشاء صور مزيفة ⁠بدقة عالية و«فاضحة» لأشخاص حقيقيين دون موافقة يشكل انتهاكات خطيرة للخصوصية، ويشكل في بعض الحالات ‌أيضاً جرائم جنائية.

شعار روبوت الدردشة «غروك» يظهر على شاشتين (أ.ف.ب)

آسيا

- أرسلت وزارة تكنولوجيا المعلومات في الهند مذكرة رسمية ‌إلى «إكس» في 2 يناير بشأن اتهامات عن إنتاج صور جنسية ​فاضحة باستخدام إمكانات «غروك» وتداولها، وطالبت بإزالة هذا المحتوى، وطلبت ‌تقريراً عن الإجراءات التي ستتخذ خلال 72 ساعة.

- حقّقت اليابان أيضاً مع «إكس» بشأن «غروك»، وقالت إن الحكومة ‌ستدرس كل الخيارات الممكنة لمنع توليد صور غير لائقة.

- قالت وزارة الاتصالات والشؤون الرقمية في إندونيسيا إنها حظرت الوصول إلى «غروك»، وهي خطوة قالت وزيرة الاتصالات الإندونيسية، ميوتيا حفيظ، إنها تهدف إلى حماية النساء والأطفال من المحتوى الإباحي المزيف الذي ينتجه الذكاء الاصطناعي، مستندة إلى قوانين البلاد الصارمة لمكافحة تداول المواد الإباحية.

- ذكرت هيئة تنظيم الاتصالات في ماليزيا، يوم 23 يناير، أن البلاد أعادت إمكانية دخول المستخدمين على «غروك» ‌بعد أن طبّقت «إكس» إجراءات أمان إضافية.

- أعلنت وحدة مكافحة الجرائم الإلكترونية في الفلبين، يوم 21 يناير، إعادة تفعيل «غروك» بعد أن تعهدت الشركة المطورة بإزالة أدوات التلاعب ⁠بالصور، التي أثارت مخاوف ⁠بشأن سلامة الأطفال.

الأميركتان

- قال حاكم ولاية كاليفورنيا والمدعي العام، في 14 يناير، إنهما طالبا «إكس إيه آي» بالردّ، في ظل انتشار صور جنسية على منصتها من دون موافقة المستخدمين.

- ذكرت هيئة حماية الخصوصية في كندا أنها توسع نطاق تحقيق قائم بشأن «إكس»، بعد ورود تقارير عن إنتاج «غروك» صوراً مفبركة ذات محتوى جنسي فاضح من دون موافقة المستخدمين.

- قالت الحكومة ومدعون في البرازيل، في بيان مشترك، صدر يوم 20 يناير، إنهما أمهلا شركة «إكس إيه آي» مهلة مدتها 30 يوماً لمنع روبوت الدردشة من نشر محتوى جنسي مفبرك.

منطقة الأوقيانوس

- قالت الهيئة المعنية بالسلامة الإلكترونية على الإنترنت في أستراليا (إي سيفتي)، في 7 يناير، إنها تحقق في صور جنسية رقمية «فاضحة» جرى إنتاجها بتزييف بالغ الدقة بواسطة «غروك»، وتقيّم محتوى إباحياً بموجب برنامجها المخصص لمكافحة الانتهاكات عبر الصور، مشيرة إلى أن الأمثلة الحالية المتعلقة بالأطفال التي راجعتها لا تفي بالحدّ القانوني لمواد تمثل انتهاكات جنسية للأطفال، بموجب القانون الأسترالي.

كيف ردّت «إكس إيه آي»؟

- قالت الشركة، في 14 يناير، إنها ​فرضت على مستخدمي «غروك» قيوداً على استخدام ميزة تعديل الصور، ​ومنعتهم بناء على مواقعهم الجغرافية من توليد صور لأشخاص يرتدون ملابس فاضحة في «المناطق التي يعدّ فيها ذلك غير قانوني». ولم تحدد هذه الدول.

- قصرت الشركة في وقت سابق استخدام خاصيتي توليد «غروك» للصور وتعديلها على من يدفعون اشتراكات فقط.