«تيك توك» يزيل أكثر من 200 مليون محتوى مخالف في 3 أشهر

التطبيق يستخدم الذكاء الاصطناعي و40 ألف موظف لمراقبة المحتوى

مقاطع ممارسة «الكرومينغ» انتشرت بشكل واسع على «تيك توك» (رويترز)
مقاطع ممارسة «الكرومينغ» انتشرت بشكل واسع على «تيك توك» (رويترز)
TT

«تيك توك» يزيل أكثر من 200 مليون محتوى مخالف في 3 أشهر

مقاطع ممارسة «الكرومينغ» انتشرت بشكل واسع على «تيك توك» (رويترز)
مقاطع ممارسة «الكرومينغ» انتشرت بشكل واسع على «تيك توك» (رويترز)

كشف تطبيق «تيك توك» الشهير أنه أزال أكثر من 200 مليون محتوى في 3 أشهر، حيث عدّها غير مرغوبة، أو تكسر القوانين التي وضعها التطبيق، أو ضد الأطفال، أو تدعو للعنف.

وذكر مسؤولون في التطبيق «تيك توك» أن عملية المراقبة تجري من خلال الذكاء الاصطناعي بوصفه مرحلة أولى، ومن ثمَّ يوجد أكثر من 40 ألف موظف حول العالم، وبلغات مختلفة تصل إلى 70 لغة، لمراقبة المحتوى بهدف رصد جميع المحتوى المخالف والعنيف.

وفي زيارة لـ«الشرق الأوسط» إلى مركز الشفافية لتطبيق «تيك توك» في سنغافورة، بدأ أن التطبيق يستخدم الذكاء الاصطناعي بشكل كبير لمراقبة جميع المحتوى الذي يجري تحميله عبر التطبيق أو البث المباشر بشكل سريع وفعال تحت اشتراطات محددة مسبقاً، والتي تصل إلى إلغاء بعض الحسابات التي تنشر محتوى عنيفاً أو أي محتوى يعد التطبيق مخالفاً لاشتراطاته.

شعار تطبيق «تيك توك» في ولاية كاليفورنيا (أ.ب)

ويحمل مركز الشفافية لتطبيق «تيك توك» على الحد من وصول بعض المحتوى للأطفال تحت اشتراطات معينة، وحسب الفئة العمرية التي تسمح أيضاً بمراقبة الآباء لجميع المحتوى الذي يصل لأبنائهم المراهقين من بين 13 إلى 16، ومن 16 إلى البلوغ 18 عاماً، للعمل على منع الوصول إلى محتوى لا يناسب المراهقين أو الأطفال.

كما يعمل التطبيق -وفق ما ذكره بعض المسؤولين في مركز الشفافية- على تحديث الاشتراطات والأنظمة والقوانين لحماية الأطفال والمراهقين، أو بث محتوى مخالف للأنظمة والاشتراطات التي وضعها.

وقال المسئولون إن هناك مجموعة من المعايير وقواعد السلوك المشتركة التي تساعدهم في الحفاظ على بيئة آمنة وشاملة؛ إذ تشجع على التفاعلات الحقيقية وإنشاء المحتوى الأصلي.

وذكروا أنهم يعملون على مراجعة إرشادات المجتمع وتحديثها بانتظام، لتتطور جنباً إلى جنب مع السلوكيات والمخاطر الجديدة، وأن الغاية هي توفير تجربة قوامها الأمان والترفيه.

وشددوا على أنهم لا يتأخرون في إزالة أي محتوى أو حسابات تنتهك إرشادات المجتمع، خصوصاً أن تقنية الإشراف الآلي عبر الذكاء الاصطناعي تهدف إلى تحديد المحتوى الذي يُنتهك، وذلك عبر الكلمات الرئيسية والصور والعناوين والأوصاف والصوت. وفي حال عدم العثور على أي انتهاك، تتاح الفيديوهات المُراجعة لعرضها على المنصة.

أما في حال العثور على انتهاك محتمل، فسيقوم نظام الإشراف الآلي إما بتمرير الفيديو إلى فرق السلامة لدينا لإجراء مزيد من المراجعة، وإما إزالته تلقائياً إذا كانت هناك درجة عالية من الثقة بأن المحتوى ينتهك إرشادات المجتمع حقاً، وتُجرى هذه الإزالة التلقائية متى كانت الانتهاكات المكتشفة شديدة الوضوح، مثل وجود عري أو أمور تهدد سلامة صغار السن.


مقالات ذات صلة

الولايات المتحدة تتهم «تيك توك» بتعزيز الإدمان وإيذاء الصغار

الولايات المتحدة​ شعار تطبيق «تيك توك» في ولاية كاليفورنيا (أ.ب)

الولايات المتحدة تتهم «تيك توك» بتعزيز الإدمان وإيذاء الصغار

رفعت 13 ولاية أميركية ومنطقة كولومبيا أمس (الثلاثاء) دعاوى قضائية على «تيك توك»، متهمة منصة التواصل الاجتماعي الشهيرة بإيذاء المستخدمين صغار السن.

«الشرق الأوسط» (نيويورك)
أوروبا استنفار للشرطة الألمانية تحسباً لهجوم إرهابي (غيتي)

ألمانيا: توجيه الاتهامات لـ 4 مراهقين بالتحضير لعمليات إرهابية

وجهت السلطات الألمانية اتهامات إلى 4 مراهقين تتراوح أعمارهم بين 15 و16عاماً، تتعلق بالتخطيط لارتكاب أعمال إرهابية.

راغدة بهنام (برلين)
يوميات الشرق مقاطع ممارسة «الكرومينغ» انتشرت بشكل واسع على «تيك توك» (رويترز)

إلى المراهقين... احذروا هذه الممارسة الخطيرة على «تيك توك»

هذا الانتشار قد يكون نتيجة شيوع مقاطع الفيديو التي تعرض هذه الممارسات على المنصة الشهيرة بين الشباب.

«الشرق الأوسط» (القاهرة )
يوميات الشرق شعار «تيك توك» (د.ب.أ)

«تيك توك» يحظر حسابات وسائل إعلام روسية حكومية

قال تطبيق «تيك توك» إنه أزال حسابات مرتبطة بوسائل إعلام روسية حكومية «لمشاركتها في عمليات تأثير سرية».

«الشرق الأوسط» (موسكو)
الولايات المتحدة​ من أمام أحد مكاتب «تيك توك» في ولاية كاليفورنيا الأميركية (رويترز)

مستقبل «تيك توك» في الولايات المتحدة على المحك أمام محكمة فيدرالية

سيسعى تطبيق «تيك توك» إلى إقناع محكمة فيدرالية أميركية، الاثنين، بأن القانون الذي يلزم مالكي المنصة الصينيين ببيعه وإلا يُحظر في أميركا، مخالف للدستور.

«الشرق الأوسط» (واشنطن)

كيف نقول «لا» لأسياد الذكاء الاصطناعي

كيف نقول «لا» لأسياد الذكاء الاصطناعي
TT

كيف نقول «لا» لأسياد الذكاء الاصطناعي

كيف نقول «لا» لأسياد الذكاء الاصطناعي

أطلقت الشركات التكنولوجية الكبرى مثل «غوغل»، و«أبل»، و«مايكروسوفت»، و«ميتا» العنان للتكنولوجيا التي تصفها بـ«الذكاء الاصطناعي». وتقول إننا سنستخدم جميعاً، قريباً، الذكاء الاصطناعي لكتابة رسائل البريد الإلكتروني وإنشاء الصور وتلخيص المقالات.

تردّد الجمهور... واندفاعة الشركات

ولكن، مَن الذي طلب أياً من هذه الأمور في المقام الأول؟ استناداً إلى التعليقات التي أتلقاها من قراء هذا العمود، يظل كثير من الأشخاص، خارج صناعة التكنولوجيا، غير مهتمين بالذكاء الاصطناعي، ويشعرون بالإحباط بشكل متزايد إزاء مدى صعوبة تجاهله.

تعتمد الشركات على نشاط المستخدِم لتدريب وتحسين أنظمة الذكاء الاصطناعي الخاصة بها، لذلك فهي تختبر هذه التكنولوجيا داخل المنتجات التي نستخدمها كل يوم.

ستؤدي كتابة أي سؤال في «غوغل» إلى إنتاج ملخص - تم إنشاؤه بواسطة الذكاء الاصطناعي - للإجابة، أعلى نتائج البحث. وكلما استخدمت أداة البحث داخل «إنستغرام»، فقد تتفاعل الآن مع روبوت الدردشة «Meta AI». بالإضافة إلى ذلك، عندما تصل مجموعة أدوات الذكاء الاصطناعي من «Apple Intelligence»، إلى أجهزة «آيفون» ومنتجات «أبل» الأخرى من خلال تحديثات البرامج هذا الشهر، فستظهر التقنية داخل الأزرار التي نستخدمها لتحرير النصوص والصور.

التهام تفاصيل البيانات الشخصية

إن انتشار الذكاء الاصطناعي في تكنولوجيا المستهلك له آثار كبيرة على خصوصية بياناتنا؛ لأن الشركات مهتمة بربط وتحليل أنشطتنا الرقمية، بما في ذلك التفاصيل داخل صورنا ورسائلنا وعمليات البحث على الويب؛ لتحسين أنظمة الذكاء الاصطناعي. بالنسبة للمستخدمين، يمكن أن تكون الأدوات ببساطة مصدر إزعاج عندما لا تعمل بشكل جيد.

 

* تعتمد الشركات على نشاط المستخدم لتدريب وتحسين أنظمة الذكاء الاصطناعي لها*

 

ويعلق ثورين كلوسوفسكي، محلل الخصوصية والأمان في مؤسسة «Electronic Frontier Foundation»، وهي مؤسسة غير ربحية للحقوق الرقمية: «هناك عدم ثقة حقيقي في هذه الأدوات... إنها قبيحة وتعترض الطريق».

خطوات إيقاف الذكاء الاصطناعي

بعد أن اتصلت بشركات «غوغل»، و«أبل»، و«ميتا»، و«مايكروسوفت»، عرض مسؤولوها خطوات لإيقاف تشغيل أدوات الذكاء الاصطناعي أو جمع البيانات، حيثما أمكن ذلك. وسأشرح لكم تلك الخطوات.

غوغل

يقوم منتج الذكاء الاصطناعي الأكثر شهرة من «غوغل»، وهو «AI Overviews»، تلقائياً بإنشاء ملخص يحاول الإجابة عن الأسئلة التي تدخلها في بحث «غوغل». كانت هذه الميزة قد واجهت صعوبات في الظهور في شهر مايو (أيار)، عندما أخبر الذكاء الاصطناعي من «غوغل» المستخدمين، من بين أخطاء أخرى، أنه يمكنهم وضع الغراء على البيتزا، لكن الأداة تحسّنت منذ ذلك الحين.

مع ذلك، يمكن أن تكون ملخصات الذكاء الاصطناعي مُشتِّتة للانتباه، ولا توجد طريقة لإلغاء تنشيطها من التحميل، ولكن يمكنك النقر فوق زر لتصفيتها. بعد كتابة شيء مثل «وصفة بسكويت رقائق الشوكولاته» في شريط البحث، انقر فوق علامة التبويب (الويب)؛ لعرض قائمة بنتائج البحث البسيطة، تماماً كما كانت الحال في بحث «غوغل».

أما بالنسبة لبيانات البحث، فيمكن للمستخدمين منع «غوغل» من الاحتفاظ بسجل لعمليات البحث على الويب الخاصة بهم من خلال زيارة «myactivity.google.com»، وإيقاف تشغيل «نشاط الويب والتطبيق».

لدى «غوغل» أيضاً روبوت محادثة يعمل بالذكاء الاصطناعي «جيمناي (Gemini)»، ويمكن العثور على الإعداد لمنعه من تخزين البيانات على «myactivity.google.com/product/gemini».

ميتا

في أبريل (نيسان) بدأ ظهور «Meta AI»، وهو روبوت محادثة يمكنه البحث عن الرحلات الجوية وإنشاء الصور وإعداد الوصفات، في شريط البحث في تطبيقات «ميتا»، بما في ذلك «إنستغرام»، و«واتساب»، و«ماسنجر». وقالت «ميتا» إنه لا توجد طريقة للمستخدمين لإيقاف تشغيل «Meta AI».

فقط في المناطق التي لديها قوانين حماية بيانات أقوى، بما في ذلك الاتحاد الأوروبي وبريطانيا، يمكن للأشخاص منع «ميتا» من الوصول إلى معلوماتهم الشخصية لبناء وتدريب الذكاء الاصطناعي الخاص بالشركة.

على سبيل المثال، على «إنستغرام»، يمكن للأشخاص الذين يعيشون في تلك الأماكن النقر فوق «الإعدادات»، ثم «حول»، و«سياسة الخصوصية»؛ ما سيؤدي إلى تعليمات إلغاء الاشتراك. يمكن لأي شخص آخر، بمَن في ذلك المستخدمون في الولايات المتحدة، زيارة صفحة الدعم هذه لمطالبة «ميتا» فقط بحذف البيانات المُستخدَمة من قبل طرف ثالث لتطوير الذكاء الاصطناعي الخاص بها.

مايكروسوفت

يمكن تنشيط روبوت المحادثة «كوبايلوت (Copilot)» من «مايكروسوفت»

بالذكاء الاصطناعي بالنقر فوق زر قوس قزح مدمج في بعض المنتجات مثل متصفح «إيدج (Edge)»، وبحث «بنغ (Bing)».

وأبسط طريقة لتجنب روبوت المحادثة هي عدم النقر فوق هذا الزر. ولكن إذا كنت تريد إزالته من متصفح «إيدج»، فيمكنك إدخال «edge://settings» في شريط العناوين والنقر فوق «الشريط الجانبي»، ثم «إعدادات التطبيق والإشعارات»، وأخيراً، «Copilot»، حيث يجب إيقاف تشغيل إعداد «كوبايلوت».

إذا كنت تريد منع «كوبايلوت» من استخدام بياناتك لتدريب الذكاء الاصطناعي، فعليك زيارة «copilot.microsoft.com»، والانتقال إلى قائمة الخصوصية في إعدادات الحساب، حيث يمكنك إيقاف تشغيل خيار يُسمى «تدريب النموذج».

* نصيحة إضافية: لمستخدمي «لينكدإن (LinkedIn)»، شبكة التواصل الاجتماعي الخاصة بشركة «مايكروسوفت» للمحترفين: بدأ الموقع أخيراً في استخدام أي شيء منشور على موقعه لتدريب نظام الذكاء الاصطناعي الخاص به، الذي يمكن استخدامه في النهاية لمساعدة الأشخاص على العثور على وظائف جديدة.

لمنع «لينكدإن» من استخدام المحتوى الخاص بك، انتقل إلى علامة التبويب «الإعدادات والخصوصية» ضمن ملفك الشخصي، وانقر فوق علامة التبويب «خصوصية البيانات»، وانقر فوق «بيانات لتحسين GenAI». ثم قم بإيقاف تشغيل المفتاح.

أبل

سيتم إطلاق مجموعة خدمات الذكاء الاصطناعي «أبل أنتليجنس (Apple Intelligence)»، هذا الشهر في حالة غير مكتملة من خلال تحديثات البرامج على بعض أجهزة «آيفون»، و«آيباد»، و«ماك». لاستخدام هذه الأداة، سيتعين على المستخدمين الاشتراك من خلال قائمة تحمل اسم «Apple Intelligence & Siri».

وبمجرد التنشيط، ستظهر بعض الميزات داخل أدوات تحرير النصوص والصور. عند تحرير صورة، على سبيل المثال، يوجد زر «تنظيف» لإزالة الصور المزعجة تلقائياً.

إذا غيّرت رأيك ولم تعد ترغب في استخدام «أبل إنتليجنس»، فيمكنك الرجوع إلى الإعدادات وإيقاف تشغيل مفتاح «أبل إنتليجنس»، مما يجعل الأدوات تختفي. وتقول «أبل» إنها ابتكرت نظاماً يحمي خصوصية المستخدمين، حيث لا يمكن للشركة الوصول إلى البيانات التي يتم دفعها إلى خوادمها. وبدلاً من ذلك، تقول الشركة إنه يتم استخدامه حصرياً لمعالجة طلب المستخدم، مثل سؤال معقد موجه إلى «سيري (Siri)»، قبل إزالة المعلومات من خوادمها.

* خدمة «نيويورك تايمز».