«تيك توك» يزيل أكثر من 200 مليون محتوى مخالف في 3 أشهر

التطبيق يستخدم الذكاء الاصطناعي و40 ألف موظف لمراقبة المحتوى

مقاطع ممارسة «الكرومينغ» انتشرت بشكل واسع على «تيك توك» (رويترز)
مقاطع ممارسة «الكرومينغ» انتشرت بشكل واسع على «تيك توك» (رويترز)
TT

«تيك توك» يزيل أكثر من 200 مليون محتوى مخالف في 3 أشهر

مقاطع ممارسة «الكرومينغ» انتشرت بشكل واسع على «تيك توك» (رويترز)
مقاطع ممارسة «الكرومينغ» انتشرت بشكل واسع على «تيك توك» (رويترز)

كشف تطبيق «تيك توك» الشهير أنه أزال أكثر من 200 مليون محتوى في 3 أشهر، حيث عدّها غير مرغوبة، أو تكسر القوانين التي وضعها التطبيق، أو ضد الأطفال، أو تدعو للعنف.

وذكر مسؤولون في التطبيق «تيك توك» أن عملية المراقبة تجري من خلال الذكاء الاصطناعي بوصفه مرحلة أولى، ومن ثمَّ يوجد أكثر من 40 ألف موظف حول العالم، وبلغات مختلفة تصل إلى 70 لغة، لمراقبة المحتوى بهدف رصد جميع المحتوى المخالف والعنيف.

وفي زيارة لـ«الشرق الأوسط» إلى مركز الشفافية لتطبيق «تيك توك» في سنغافورة، بدأ أن التطبيق يستخدم الذكاء الاصطناعي بشكل كبير لمراقبة جميع المحتوى الذي يجري تحميله عبر التطبيق أو البث المباشر بشكل سريع وفعال تحت اشتراطات محددة مسبقاً، والتي تصل إلى إلغاء بعض الحسابات التي تنشر محتوى عنيفاً أو أي محتوى يعد التطبيق مخالفاً لاشتراطاته.

شعار تطبيق «تيك توك» في ولاية كاليفورنيا (أ.ب)

ويحمل مركز الشفافية لتطبيق «تيك توك» على الحد من وصول بعض المحتوى للأطفال تحت اشتراطات معينة، وحسب الفئة العمرية التي تسمح أيضاً بمراقبة الآباء لجميع المحتوى الذي يصل لأبنائهم المراهقين من بين 13 إلى 16، ومن 16 إلى البلوغ 18 عاماً، للعمل على منع الوصول إلى محتوى لا يناسب المراهقين أو الأطفال.

كما يعمل التطبيق -وفق ما ذكره بعض المسؤولين في مركز الشفافية- على تحديث الاشتراطات والأنظمة والقوانين لحماية الأطفال والمراهقين، أو بث محتوى مخالف للأنظمة والاشتراطات التي وضعها.

وقال المسئولون إن هناك مجموعة من المعايير وقواعد السلوك المشتركة التي تساعدهم في الحفاظ على بيئة آمنة وشاملة؛ إذ تشجع على التفاعلات الحقيقية وإنشاء المحتوى الأصلي.

وذكروا أنهم يعملون على مراجعة إرشادات المجتمع وتحديثها بانتظام، لتتطور جنباً إلى جنب مع السلوكيات والمخاطر الجديدة، وأن الغاية هي توفير تجربة قوامها الأمان والترفيه.

وشددوا على أنهم لا يتأخرون في إزالة أي محتوى أو حسابات تنتهك إرشادات المجتمع، خصوصاً أن تقنية الإشراف الآلي عبر الذكاء الاصطناعي تهدف إلى تحديد المحتوى الذي يُنتهك، وذلك عبر الكلمات الرئيسية والصور والعناوين والأوصاف والصوت. وفي حال عدم العثور على أي انتهاك، تتاح الفيديوهات المُراجعة لعرضها على المنصة.

أما في حال العثور على انتهاك محتمل، فسيقوم نظام الإشراف الآلي إما بتمرير الفيديو إلى فرق السلامة لدينا لإجراء مزيد من المراجعة، وإما إزالته تلقائياً إذا كانت هناك درجة عالية من الثقة بأن المحتوى ينتهك إرشادات المجتمع حقاً، وتُجرى هذه الإزالة التلقائية متى كانت الانتهاكات المكتشفة شديدة الوضوح، مثل وجود عري أو أمور تهدد سلامة صغار السن.


مقالات ذات صلة

ألبانيا تحظر تطبيق «تيك توك» لمدة عام على الأقل بعد مقتل مراهق

أوروبا رئيس الوزراء الألباني إيدي راما (إ.ب.أ)

ألبانيا تحظر تطبيق «تيك توك» لمدة عام على الأقل بعد مقتل مراهق

أعلن رئيس الوزراء الألباني، إيدي راما، السبت، أن الحكومة ستُغلق تطبيق التواصل الاجتماعي «تيك توك» لمدة عام على الأقل بداية من العام المقبل.

«الشرق الأوسط» (تيرانا)
الولايات المتحدة​ المحكمة العليا الأميركية تعتزم النظر في الطعن على دستورية قانون يمكن أن يحظر تطبيق «تيك توك» الشهر المقبل (أ.ف.ب)

المحكمة العليا الأميركية تنظر الطعن على قانون حظر «تيك توك» يوم 10 يناير

أعلنت المحكمة العليا الأميركية اعتزامها بدء النظر في الطعن على دستورية قانون يمكن أن يحظر تطبيق التواصل الاجتماعي الشهر المقبل.

«الشرق الأوسط» (واشنطن)
تكنولوجيا توقعات بأن يدر موقع «إنستغرام» أكثر من نصف إيرادات الإعلانات التي ستحققها «ميتا» بالولايات المتحدة في 2025 (د.ب.أ)

تقرير: «إنستغرام» قد يدر أكثر من نصف إيرادات الإعلانات التي ستحققها «ميتا»

توقعت شركة «إيماركتر» للأبحاث أن يدر موقع «إنستغرام» أكثر من نصف إيرادات الإعلانات التي ستحققها منصات مملوكة لـ«ميتا بلاتفورمز» بالولايات المتحدة، العام المقبل.

«الشرق الأوسط» (كاليفورنيا)
الولايات المتحدة​ الرئيس الأميركي المنتخب دونالد ترمب يتحدث خلال المؤتمر الصحافي في مارالاغو بولاية فلوريدا (أ.ب)

أول مؤتمر صحافي لترمب بصفته رئيساً منتخباً: الحروب و«تيك توك» والمسيّرات الغامضة

تحدث الرئيس الأميركي المنتخب دونالد ترمب عن حرب أوكرانيا والطائرات المسيرة الغامضة التي شوهدت في سماء ولاية نيوجيرسي ومستقبل تطبيق «تيك توك».

«الشرق الأوسط» (واشنطن)
الولايات المتحدة​ شعار «تيك توك» (أ.ف.ب)

«تيك توك» يلجأ إلى المحكمة العليا في محاولة أخيرة لتجنب الحظر بأميركا

قدمت مجموعة من مستخدمي التطبيق في الولايات المتحدة طلبا مشابها أمس الاثنين أيضا.

«الشرق الأوسط» (واشنطن)

دراسة: الذكاء الاصطناعي قادر على الخداع ورفض تغيير وجهة النظر

أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشاراً (رويترز)
أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشاراً (رويترز)
TT

دراسة: الذكاء الاصطناعي قادر على الخداع ورفض تغيير وجهة النظر

أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشاراً (رويترز)
أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشاراً (رويترز)

أظهرت دراسة لشركة تكنولوجيا الذكاء الاصطناعي الأميركية «أنثروبيك»، أن نماذج الذكاء الاصطناعي تستطيع خداع المطورين، بحيث تستطيع ادعاء وجهات نظر مختلفة خلال تدريبها، في حين أنها تحتفظ في الحقيقة بتفضيلاتها الأصلية.

وقال فريق الدراسة إنه لا يوجد سبب للشعور بالفزع حالياً، في حين أن دراستهم يمكن أن تكون حيوية في فهم المخاطر المحتملة التي تنطوي عليها أنظمة الذكاء الاصطناعي المستقبلية ذات القدرات الأعلى.

وكتب الباحثون في منشور بثته شركة «أنثروبيك»: «يجب النظر إلى نتائج دراستنا بوصفها محفزاً لمجتمع أبحاث الذكاء الاصطناعي من أجل دراسة هذا السلوك بصورة أعمق، والعمل على تطوير إجراءات الأمن والسلامة المناسبة».

وبعد أن أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشاراً، «نحتاج إلى التحلي بالقدرة على الاعتماد على التدريب الآمن لها والذي يمنع النماذج من القيام بتصرفات ضارة».

وأشار موقع «تك كرانش» المتخصص في موضوعات التكنولوجيا، إلى أن الدراسة التي تمت بالتعاون مع مؤسسة «ريد وود ريسيرش» لأبحاث الذكاء الاصطناعي، تناولت ما يمكن أن يحدث إذا تم تدريب نظام ذكاء اصطناعي قوي من أجل القيام بمهمة «لا يريد» هو القيام بها، وفقاً لما ذكرته وكالة الأنباء الألمانية.

في المقابل، يقول موقع «تك كرانش»: «لكي نكون واضحين، لا يمكن لنماذج الذكاء الاصطناعي أن تريد أي شيء أو تعتقد في شيء. فهي ببساطة آلات إحصائية. وبعد تدريبها على كثير من الأمثلة، تتعلم الأنماط في تلك الأمثلة للتنبؤ بما يجب أن يكون؛ مثل كيف تأتي عبارة (إلى من) في رسالة بريد إلكتروني قبل عبارة (قد يهمك الأمر)».

وأثناء الدراسة طلب الباحثون من النماذج المدربة عدم الرد على الأسئلة التي يمكن أن تكون مسيئة، بما في ذلك النموذج «كلاود 3 أوبس» التابع لشركة «أنثروبيك»، التي أعيد تدريبها لكي ترد دائماً على الأسئلة التي تنطوي على إساءة، وهو تضارب واضح في المبادئ. كما أبلغوا النماذج بأن ردودها ستخضع للمراقبة وتستخدم لإعادة التدريب، وإعطاء كل نموذج ذكاء اصطناعي «ورقة ملاحظات» يمكنه استخدامها لتدوين أفكاره خطوة بخطوة.

وبحسب الباحثين، حاول «كلاود 3 أوبوس» التلاعب بالردود لتقديم «انحياز زائف» في 12 في المائة من المرات.