أدوات الذكاء الاصطناعي تحتفظ بسجلات محادثات المستخدمين

مخاوف من خروقات الخصوصية

أدوات الذكاء الاصطناعي تحتفظ بسجلات محادثات المستخدمين
TT

أدوات الذكاء الاصطناعي تحتفظ بسجلات محادثات المستخدمين

أدوات الذكاء الاصطناعي تحتفظ بسجلات محادثات المستخدمين

على الرغم من أن أدوات الذكاء الاصطناعي مثل «تشات جي بي تي» و «غوغل جيميناي» قد تكون مفيدة، فإنها تثير أيضاً قلقاً محتملاً بشأن الخصوصية.

سجلات كاملة للمحادثات

تحتفظ أغلب مساعدات الذكاء الاصطناعي بسجل كامل لمحادثاتك، ما يجعلها مرئية بسهولة لأي شخص لديه حق الوصول إلى أجهزتك. كما تُخزن هذه المحادثات أيضا عبر الإنترنت، غالباً إلى أجل غير مسمى، لذا يمكن أن تتعرض للكشف بسبب الأخطاء أو الانتهاكات الأمنية. وفي بعض الحالات، يمكن لمزودي الذكاء الاصطناعي إرسال محادثاتك إلى مراجعين بشريين.

كل ذلك يجب أن يجعلك تتوقف وتُمعن النظر، سيما إذا كنت تخطط لمشاركة أفكارك الداخلية مع أدوات الذكاء الاصطناعي أو استخدامها لمعالجة المعلومات الشخصية.

ولحماية خصوصيتك بصورة أفضل، ضع في اعتبارك إجراء بعض التعديلات على إعداداتك، أو استخدام أوضاع المحادثة الخاصة، أو حتى اللجوء إلى مساعدات الذكاء الاصطناعي التي تحمي خصوصيتك بشكل افتراضي.

ولمساعدتك على فهم الخيارات المتاحة، قمتُ بمراجعة جميع إعدادات وسياسات الخصوصية لكل برامج مساعدة الذكاء الاصطناعي الرئيسية.

مراجعة الأدوات الذكية

إليك ما تحتاج إلى معرفته حول ما يفعلونه ببياناتك، وما يمكنك فعله حيال ذلك:

• «تشات جي بي تي » ChatGPT:

1. الإعداد المسبق لهذا التطبيق: يستخدم «تشات جي بي تي» بياناتك لتدريب الذكاء الاصطناعي، ويحذر من أن «بيانات التدريب قد تتضمن معلومات شخصية بشكل عرضي».

2. هل يمكن للبشر مراجعة محادثاتك؟ تذكر بنود «الأسئلة الشائعة» حول «شات جي بي تي» التي توردها شركة «أوبن إيه آي» أنه قد «يراجع المحادثات» لتحسين أنظمته.

3. هل يمكنك تعطيل تدريب الذكاء الاصطناعي؟ نعم. انتقل إلى الإعدادات •عناصر التحكم في البيانات • تحسين النموذج للجميع.

4. هل يوجد وضع محادثة خاص؟ نعم. انقر على «تشغيل المحادثة المؤقتة» في الزاوية العلوية اليمنى لإبقاء المحادثة خارج سجلك وتجنب استخدامها لتدريب الذكاء الاصطناعي.

5. هل يمكنك مشاركة الدردشات مع الآخرين؟ نعم، عن طريق إنشاء رابط قابل للمشاركة. أطلقت شركة «أوبن إيه آي»، ثم أزالت، ميزة تسمح لمحركات البحث بفهرسة الدردشات المشتركة.

6. هل تُستخدم دردشاتك في الإعلانات الموجهة؟ تنص سياسة الخصوصية الخاصة بشركة «أوبن إيه آي» على أنها لا تبيع أو تشارك البيانات الشخصية لأغراض الإعلانات السلوكية السياقية، ولا تعالج البيانات لأغراض الإعلانات الموجهة، ولا تعالج البيانات الشخصية الحساسة لاستنتاج خصائص المستهلكين.

7. كم من الوقت تحتفظ ببياناتك؟ تصل إلى 30 يوماً للمحادثات المؤقتة والمحذوفة، على الرغم من أن بعضها قد يتم الاحتفاظ به لفترة أطول «لأغراض أمنية والتزامات قانونية». وتُخزن جميع البيانات الأخرى إلى أجل غير مسمى.

• غوغل جيميناي Google Gemini:

(تنطبق الأرقام التالية من 1 إلى 7 على العبارات الواردة نفسها في الأرقام نفسها أعلاه)

1. يستخدم جيميناي بياناتك لتدريب الذكاء الاصطناعي.

2. نعم. تنصح «غوغل» بعدم إدخال «أي بيانات لا تريد أن يراها المراجع». بمجرد أن يرى المراجع بياناتك، تحتفظ «غوغل» بها لمدة تصل إلى ثلاث سنوات، حتى إذا قمت بحذف سجل محادثاتك.

3. نعم. انتقل إلى رابط (myactivity.google.com/product/gemini)، وانقر على القائمة المنسدلة «إيقاف التشغيل»، ثم حدد «إيقاف التشغيل» أو «إيقاف التشغيل وحذف النشاط».

4. لا، ولكن إيقاف تشغيل نشاط تطبيقات جيميناي سيخفي سجل الدردشة الخاص بك من الشريط الجانبي. (لاحظ، مع ذلك، أن إعادة تمكينه دون حذف البيانات السابقة سيؤدي إلى إعادة سجل محادثاتك).

5. نعم، عن طريق إنشاء رابط قابل للمشاركة.

6. تقول «غوغل» إنها لا تستخدم محادثات جيميناي لعرض الإعلانات عليك، ولكن سياسة الخصوصية الخاصة بالشركة تسمح بذلك. تقول «غوغل» إنها ستبلغ عن أي تغييرات تجريها على هذه السياسة.

7. إلى أجل غير مسمى، ما لم تقم بتشغيل الحذف التلقائي في نشاط تطبيقات جيميناي.

«كلود» و«كوبايلوت»

• أنثروبيك كلود Anthropic Claude.

1. لا تستخدم شركة «أنثروبيك» المحادثات لتدريب الذكاء الاصطناعي ما لم تبلغ عنها يدوياً أو أن تختار اختبار الميزات الجديدة.

2. لا، على الرغم من أن شركة «أنثروبيك» تراجع المحادثات التي تم الإبلاغ عن أنها تنتهك سياسات الاستخدام الخاصة بها.

3. لا ينطبق.

4. لا. يجب عليك حذف المحادثات السابقة يدوياً لإخفائها من سجلك.

5. نعم، عن طريق إنشاء رابط قابل للمشاركة.

6. لا تستخدم شركة «أنثروبيك» المحادثات في الإعلانات الموجهة.

7. لمدة تصل إلى عامين، أو سبعة أعوام للمطالبات التي تُصنّف على أنها انتهاكات للثقة والسلامة.

‪‬‬‪‬‬1. تستخدم «مايكروسوفت» بياناتك لتدريب الذكاء الاصطناعي.

2. نعم. تنص سياسة الخصوصية الخاصة بشركة «مايكروسوفت» على أنها تستخدم «طرقاً آلية ويدوية (بشرية) لمعالجة» البيانات الشخصية.

3. نعم، على الرغم من أن الخيار مخفي. انقر على صورة ملفك الشخصي > اسمك > الخصوصية وقم بتعطيل «تدريب النموذج على النص».

4. لا. يجب عليك حذف المحادثات واحدة تلو الأخرى، أو مسح سجلك من صفحة حساب «مايكروسوفت».

5. نعم، عن طريق إنشاء رابط قابل للمشاركة. لاحظ أن الروابط المشتركة لا يمكن إلغاء مشاركتها دون حذف الدردشة.

6. تستخدم «مايكروسوفت» بياناتك في الإعلانات الموجهة، وقد ناقشت دمج الإعلانات مع الذكاء الاصطناعي. يمكنك تعطيل هذا عن طريق النقر على صورة ملفك الشخصي > اسمك > الخصوصية وتعطيل «التخصيص والذاكرة». هناك رابط منفصل يعطل جميع الإعلانات المخصصة لحساب «مايكروسوفت» الخاص بك

7. يتم تخزين البيانات لمدة 18 شهراً، ما لم تحذفها يدوياً.

«غروك» و «ميتا» و «بربليكستي»

• إكس إيه آي غروك xAI Grok.

1. يستخدم بياناتك لتدريب الذكاء الاصطناعي.

2. نعم. تنص الأسئلة الشائعة الخاصة بشركة «غروك» على أن «عدداً محدوداً» من «الموظفين المصرح لهم» قد يراجع المحادثات للتأكد من جودتها أو سلامتها.

3. نعم. انقر على صورة ملفك الشخصي وانتقل إلى الإعدادات > عناصر التحكم في البيانات، ثم قم بتعطيل «تحسين النموذج».

4. انقر على زر «خاص» في أعلى اليمين لإبقاء الدردشة خارج سجلك وتجنب استخدامها لتدريب الذكاء الاصطناعي.

5. نعم، عن طريق إنشاء رابط قابل للمشاركة. لاحظ أن الروابط المشتركة لا يمكن إلغاء مشاركتها دون حذف الدردشة.

6. تنص سياسة الخصوصية الخاصة بشركة «غروك» على أنها لا تبيع أو تشارك المعلومات لأغراض الإعلانات الموجهة.

7. تُخزن الدردشات الخاصة وحتى المحادثات المحذوفة لمدة 30 يوماً. كما تُخزن جميع البيانات الأخرى إلى أجل غير مسمى.

• ميتا إيه آي Meta AI.

1. يستخدم بياناتك لتدريب الذكاء الاصطناعي.

2. نعم. تنص سياسة الخصوصية الخاصة بشركة «ميتا» على أنها تستخدم المراجعة اليدوية لـ«فهم وتمكين إنشاء» محتوى الذكاء الاصطناعي.

3. ليس بصورة مباشرة. يمكن للمستخدمين في الولايات المتحدة ملء هذا النموذج. يمكن للمستخدمين في الاتحاد الأوروبي والمملكة المتحدة ممارسة حقهم في الاعتراض.

4. لا.

5. نعم. تظهر الروابط المشتركة تلقائياً في موجز عام، ويمكن أن تظهر في تطبيقات «ميتا» الأخرى أيضاً.

6. تنص سياسة الخصوصية الخاصة بشركة «ميتا» على أنها تستهدف الإعلانات بناء على المعلومات التي تجمعها، بما في ذلك التفاعلات مع الذكاء الاصطناعي.

7. إلى أجل غير مسمى.

• بربليكستي Perplexity.

1. تستخدم بياناتك لتدريب الذكاء الاصطناعي.

2. لا تذكر سياسة الخصوصية الخاصة بشركة «بربليكستي» المراجعة البشرية.

3. نعم. انتقل إلى الحساب > التفضيلات، وقم بتعطيل «الاحتفاظ ببيانات الذكاء الاصطناعي».

4. نعم. انقر على أيقونة ملفك الشخصي، ثم حدد «التصفح المتخفي» أسفل اسم حسابك.

5. نعم، عن طريق إنشاء رابط قابل للمشاركة.

6. نعم. تقول شركة «بربليكستي» إنها قد تشارك معلوماتك مع شركاء إعلانيين خارجيين وقد تجمعها من مصادر أخرى (على سبيل المثال، وسطاء البيانات) لتحسين استهداف إعلاناتها.

7. حتى تحذف حسابك.

• داك إيه آي Duck.AI.

1. لا يستخدم «داك إيه آي» بياناتك لتدريب الذكاء الاصطناعي، بفضل اتفاقيات مع كبار المزودين.

2. لا.

3. لا ينطبق.

4. لا. يجب عليك حذف المحادثات السابقة بشكل فردي أو دفعة واحدة من خلال الشريط الجانبي.

5. لا.

6. لا.

7. يحتفظ مزودو النماذج بالبيانات مجهولة المصدر لمدة تصل إلى 30 يوماً، ما لم تكن هناك حاجة إليها لأسباب قانونية أو أمنية.

• بروتون لومو Proton Lumo.

1. لا يستخدم «بروتون لومو» بياناتك لتدريب الذكاء الاصطناعي.

2. لا.

3. لا ينطبق.

4. نعم. انقر على أيقونة النظارات في أعلى اليمين.

5. لا.

6. لا.

7. لا يحتفظ «بروتون» بسجلات محادثاتك.

• مجلة «فاست كومباني»، خدمات «تريبيون ميديا»‪‬‬


مقالات ذات صلة

الصور والفيديوهات المفبركة في زمن الحروب… كيف نميّز الحقيقة من التزييف؟

خاص تنتشر المعلومات المضللة بسرعة كبيرة على وسائل التواصل الاجتماعي خلال الأزمات والصراعات (شاترستوك)

الصور والفيديوهات المفبركة في زمن الحروب… كيف نميّز الحقيقة من التزييف؟

تصاعد الأخبار الزائفة والتزييف العميق خلال الأزمات يتطلب وعياً رقمياً والتحقق من المصادر والصور والفيديوهات قبل مشاركة المعلومات.

نسيم رمضان (لندن)
تكنولوجيا الذكاء الاصطناعي يحلل التقييمات والصور لاقتراح أماكن «مدونة غوغل»

ميزات جديدة في «خرائط غوغل» تحول التطبيق إلى مساعد ذكي للتنقل

تشهد خدمات الخرائط الرقمية تحولاً متسارعاً مع دخول تقنيات الذكاء الاصطناعي إلى صلب تجربة المستخدم، في خطوة تسعى من خلالها الشركات التقنية إلى إعادة تعريف مفهوم…

عبد العزيز الرشيد (الرياض)
تكنولوجيا تعتمد الطريقة الجديدة على استخراج المفاهيم من داخل النموذج نفسه بدلاً من فرض مفاهيم محددة مسبقاً من قبل الخبراء (أدوبي)

أبحاث جديدة لفهم تفكير الذكاء الاصطناعي وفتح «صندوقه الأسود»

أبحاث جديدة في جامعة MIT تطور تقنيات تساعد نماذج الذكاء الاصطناعي على تفسير قراراتها لتعزيز الشفافية والثقة في الأنظمة المؤتمتة.

نسيم رمضان (لندن)
خاص توسّع مفهوم المرونة الرقمية ليشمل استمرارية البرمجيات وليس الأمن السيبراني فقط (أدوبي)

خاص هل أصبحت مرونة البرمجيات شرطاً أساسياً لحماية الاقتصاد الرقمي في السعودية؟

توسّع مفهوم المرونة الرقمية ليشمل استمرارية البرمجيات ومخاطر الموردين مع بروز الحساب الضامن أداةً لحماية الخدمات الرقمية الحيوية.

نسيم رمضان (لندن)
خاص العاصمة السعودية الرياض (واس) p-circle 01:53

خاص «عام الذكاء الاصطناعي» في السعودية... دفع قوي لاقتصاد البيانات

مع تسارع السباق نحو الاقتصاد الرقمي ودخول العالم مرحلة جديدة تقودها الخوارزميات، تتجه السعودية إلى ترسيخ موقعها لاعباً مؤثراً في مستقبل التقنيات المتقدمة.

زينب علي (الرياض)

من زجاجة مهمَلة إلى علاج لباركنسون

الطريقة الجديدة قد تساعد في الوقاية من أمراض عصبية مثل مرض باركنسون أو ألزهايمر (أ.ف.ب)
الطريقة الجديدة قد تساعد في الوقاية من أمراض عصبية مثل مرض باركنسون أو ألزهايمر (أ.ف.ب)
TT

من زجاجة مهمَلة إلى علاج لباركنسون

الطريقة الجديدة قد تساعد في الوقاية من أمراض عصبية مثل مرض باركنسون أو ألزهايمر (أ.ف.ب)
الطريقة الجديدة قد تساعد في الوقاية من أمراض عصبية مثل مرض باركنسون أو ألزهايمر (أ.ف.ب)

نجح علماء في تحويل زجاجات البلاستيك المُعاد تدويرها إلى دواء يُستخدم في علاج مرض باركنسون، في خطوة علمية قد تفتح آفاقاً جديدة للتعامل مع النفايات البلاستيكية، وتحويلها من عبء بيئي إلى مورد يخدم صحة الإنسان، وفقاً لصحيفة «التايمز».

فقد تمكن فريق بحثي في جامعة إدنبرة من استخدام بكتيريا مُهندسة خصيصاً لتحويل نوع شائع من البلاستيك المستخدم في عبوات الطعام والمشروبات إلى مادة «L-DOPA»، وهي الدواء الأكثر فاعلية في تخفيف الأعراض الحركية لمرض باركنسون، مثل الرعشة وتيبّس العضلات وبطء الحركة.

وتُعد هذه المرة الأولى التي تُستخدم فيها عملية بيولوجية لتحويل النفايات البلاستيكية إلى دواء يعالج اضطراباً عصبياً. ويقول الباحثون إن هذا الابتكار يبرهن على أن البلاستيك الذي يُنظَر إليه عادة بوصفه مشكلة بيئية، قد يصبح أيضاً مصدراً قيِّماً للكربون، يمكن توظيفه في صناعات طبية متقدمة.

وتبدأ العملية باستخدام بلاستيك البولي إيثيلين تيرفثالات (PET)، وهو من أكثر أنواع البلاستيك انتشاراً في صناعة العبوات. ويتم أولاً تفكيك هذا البلاستيك إلى مكوناته الكيميائية الأساسية، ومن بينها حمض التيرفثاليك. بعد ذلك تُستخدم بكتيريا الإشريكية القولونية (E.coli) المُهندَسة وراثياً لتحويل هذه الجزيئات عبر سلسلة من التفاعلات الحيوية إلى مركب «L-DOPA».

ويحدث مرض باركنسون نتيجة فقدان خلايا عصبية في منطقة من الدماغ مسؤولة عن إنتاج الدوبامين، وهو ناقل كيميائي أساسي للتحكم بالحركة. ويعمل دواء «L-DOPA» بعد دخوله الجسم على التحول إلى دوبامين داخل الدماغ، مما يساعد على تعويض النقص الناتج عن المرض.

وبعد أكثر من 50 عاماً على اكتشافه، لا يزال هذا الدواء العلاج الأكثر فاعلية للسيطرة على الأعراض الحركية للمرض.

ويعاني نحو 166 ألف شخص في المملكة المتحدة من باركنسون، ومن المتوقع أن يرتفع العدد مع تقدّم السكان في العمر.

ويرى العلماء أن هذه التقنية قد تمهد لتطوير مجال صناعي جديد يُعرف باسم إعادة التدوير الحيوي المتقدم، والذي يمكن أن يحول النفايات البلاستيكية إلى منتجات عالية القيمة، مثل الأدوية والمواد الكيميائية الصناعية.

وقد نُشرت نتائج هذا البحث في مجلة «Nature Sustainability» العلمية، في إشارة إلى إمكان الجمع بين حماية البيئة وتطوير علاجات طبية تخدم الإنسان.


«التزوير للجميع»... الذكاء الاصطناعي خدع الملايين منذ بدء حرب إيران

اجتاحت مقاطع الفيديو والصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي مواقع التواصل منذ اندلاع حرب إيران (رويترز)
اجتاحت مقاطع الفيديو والصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي مواقع التواصل منذ اندلاع حرب إيران (رويترز)
TT

«التزوير للجميع»... الذكاء الاصطناعي خدع الملايين منذ بدء حرب إيران

اجتاحت مقاطع الفيديو والصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي مواقع التواصل منذ اندلاع حرب إيران (رويترز)
اجتاحت مقاطع الفيديو والصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي مواقع التواصل منذ اندلاع حرب إيران (رويترز)

اجتاحت موجة من مقاطع الفيديو والصور المزيفة، التي تم إنشاؤها بواسطة الذكاء الاصطناعي، مواقع التواصل الاجتماعي خلال الأسابيع الأولى من الحرب في إيران.

وأضافت هذه المقاطع، التي تُظهر انفجارات ضخمة لم تحدث قط، وشوارع مدن مدمرة لم تتعرض للهجوم، وجنوداً مزيفين يحتجون على الحرب، بُعداً فوضوياً ومُربكاً للصراع على الإنترنت.

وبحسب صحيفة «نيويورك تايمز» الأميركية، فقد جرى رصد أكثر من 110 صور ومقاطع فيديو مزيفة خلال أسبوعين فقط.

وشوهدت هذه المنشورات ملايين المرات على الإنترنت عبر منصات مثل «إكس» و«تيك توك» و«فيسبوك»، ومرات لا تُحصى في تطبيقات المراسلة الخاصة الشائعة في المنطقة وحول العالم.

وقد حددت صحيفة «نيويورك تايمز» محتوى الذكاء الاصطناعي من خلال البحث عن علامات واضحة - مثل صور لمبانٍ غير موجودة، ونصوص مشوشة، وسلوكيات أو حركات غير متوقعة - بالإضافة إلى علامات مائية غير مرئية مُضمنة في الملفات. كما تم فحص المنشورات باستخدام أدوات متعددة لكشف الذكاء الاصطناعي ومقارنتها بتقارير من وكالات أنباء.

ويرى خبراء أن التطور السريع لأدوات الذكاء الاصطناعي جعل إنتاج مقاطع حرب واقعية المظهر أمراً سهلاً ورخيصاً، ما سمح لأي شخص تقريباً بصناعة محتوى قد يخدع المشاهدين.

وقال مارك أوين جونز، الأستاذ المشارك في تحليل الإعلام بجامعة نورثويسترن في قطر: «حتى مقارنة ببداية الحرب في أوكرانيا، فإن الأمور الآن مختلفة جداً... ربما نشهد الآن محتوى مرتبطاً بالذكاء الاصطناعي أكثر من أي وقت مضى».

ووفق تحليل لشركة «سيابرا»، المتخصصة في تحليل وسائل التواصل الاجتماعي، فإن غالبية مقاطع الفيديو المتداولة حملت روايات مؤيدة لإيران، غالباً بهدف إظهار تفوقها العسكري أو تضخيم حجم الدمار في المنطقة.

وأشار جونز إلى أن استخدام صور الذكاء الاصطناعي لمواقع في الخليج وهي تحترق أو تتعرَّض لأضرار يخدم رواية دعائية معينة، لأنه يمنح انطباعاً بأنَّ الحرب أكثر تدميراً وربما أكثر تكلفة للولايات المتحدة مما هي عليه في الواقع.

ومن بين أكثر المقاطع انتشاراً فيديو يُظهر هجوماً صاروخياً كثيفاً على تل أبيب، شاهده ملايين المستخدمين، قبل أن يؤكد الخبراء أنه مُولَّد بالذكاء الاصطناعي.

وفي المقابل، تبدو المقاطع الحقيقية للحرب أقل درامية بكثير، إذ تُظهر عادة صواريخ بعيدة في السماء أو أعمدة دخان بعد الانفجارات، ما يجعل المحتوى المزيف - الذي يشبه أفلام هوليوود - أكثر جذباً للمشاهدين على وسائل التواصل.

وفي إحدى الحالات، لعبت مقاطع مزيفة دوراً كبيراً في الجدل حول مصير حاملة الطائرات الأميركية «يو إس إس أبراهام لينكولن» بعد ادعاءات إيرانية بتعرضها لهجوم. وانتشرت صور ومقاطع مولّدة بالذكاء الاصطناعي تُظهر السفينة وهي تحترق، قبل أن تؤكد الولايات المتحدة لاحقاً أن الهجوم فشل وأن السفينة لم تتضرَّر.

بالإضافة إلى ذلك، قدَّمت مجموعة من مقاطع الفيديو المزيفة مشهداً للمدرسة الابتدائية للبنات في مدينة ميناب في جنوب إيران، التي دمرتها الولايات المتحدة على ما يبدو أثناء شن ضربات على قاعدة إيرانية مجاورة في 28 فبراير (شباط)، وفقاً لتحقيق أولي.

وتُظهر مقاطع الفيديو التي تم إنشاؤها بواسطة الذكاء الاصطناعي فتيات المدرسة يلعبن في الخارج قبل أن تُطلق طائرة مقاتلة أميركية صواريخ.

ويرى خبراء أن هذه الظاهرة تمثل تطوراً جديداً في الحروب الحديثة، حيث تتحول أدوات الذكاء الاصطناعي إلى سلاح إعلامي.

وقالت فاليري ويرتشافتر، الباحثة في السياسات الخارجية والذكاء الاصطناعي: «إنها جبهة طبيعية تحاول إيران استغلالها، ويبدو أن هذا أحد أسباب هذا الكم الهائل من المحتوى... إنه في الواقع أداة من أدوات الحرب».

ويقول الخبراء إن شركات التواصل الاجتماعي لا تبذل جهوداً تُذكر لمكافحة آفة مقاطع الفيديو التي يتم إنشاؤها بواسطة الذكاء الاصطناعي والتي تجتاح منصاتها.

ورغم إعلان منصة «إكس»، الأسبوع الماضي، أنها ستعلق حسابات المستخدمين لمدة 90 يوماً من تلقي أي عائدات من المنصة إذا نشرت محتوى مُنتجاً بواسطة الذكاء الاصطناعي حول «النزاعات المسلحة» دون تصنيفه على هذا النحو، في محاولة لمنع المستخدمين من التربح من هذه الأكاذيب، فإن كثيراً من الحسابات المرتبطة بإيران والتي رصدتها شركة «سيابرا»، بدت أكثر تركيزاً على نشر رسائلها من جني المال.


«إكس» تتقدم بمقترح قبل ساعات من استحقاق غرامة أوروبية كبيرة على المنصة

حساب إيلون ماسك على منصة «إكس» (رويترز)
حساب إيلون ماسك على منصة «إكس» (رويترز)
TT

«إكس» تتقدم بمقترح قبل ساعات من استحقاق غرامة أوروبية كبيرة على المنصة

حساب إيلون ماسك على منصة «إكس» (رويترز)
حساب إيلون ماسك على منصة «إكس» (رويترز)

بعد ساعات من انتهاء المهلة المحددة لسداد غرامة بالملايين فرضها الاتحاد الأوروبي، قدّمت منصة «إكس»، المملوكة للملياردير إيلون ماسك، إلى المفوضية الأوروبية تصوراً لتعديلات جوهرية على المنصة.

وأكد مسؤول إعلامي باسم الهيئة المنظمة، ومقرها بروكسل، الجمعة، أن المقترحات المقدمة من المنصة تركز بالأساس على تطوير آليات توثيق الحسابات عبر علامات التحقق (الشارات الزرقاء)، بهدف تعزيز الشفافية ومكافحة التضليل.

ولم يكشف المسؤول عن أي تفاصيل، لكنه أشار إلى أنها خطوة في الاتجاه الصحيح، وفق ما ذكرته «وكالة الأنباء الألمانية».

وقال المتحدث باسم الاتحاد الأوروبي: «لا يسعنا إلا أن نثمن أنه بعد حوار بناء مع الشركة، أخذت التزاماتها القانونية على محمل الجد وقدمت لنا مقترحات عملية».

يذكر أن المفوضية الأوروبية كانت قد فرضت على المنصة في ديسمبر (كانون الأول) الماضي، غرامة قدرها 120 مليون يورو (137.7 مليون دولار) استناداً إلى قانون الخدمات الرقمية، وذلك على خلفية ما وصفته بـ«الافتقار إلى الشفافية» في طريقة توثيق الحسابات باستخدام علامة بيضاء على خلفية زرقاء، والتي عدّتها مضللة.

وجاء إجراء الاتحاد الأوروبي ضد «إكس» عقب تحقيق استمر نحو عامين بموجب قانون الخدمات الرقمية للاتحاد الأوروبي، الذي يُلزم المنصات الإلكترونية ببذل مزيد من الجهود لمكافحة المحتوى غير القانوني والضار.

وفي يوليو (تموز) 2024، اتهمت المفوضية الأوروبية «إكس» بتضليل المستخدمين، مشيرة إلى أن علامة التوثيق الزرقاء لا تتوافق مع الممارسات المتبعة في هذا المجال، وأن أي شخص يستطيع الدفع للحصول على حالة «موثق».