الشركة المالكة لـ«تيك توك» تطرد متدرباً بسبب «تدخل خبيث» في مشروع للذكاء الاصطناعي

شعار تطبيق «تيك توك» أعلى مجموعة من الجوائز في معرض «فرنكفورت للكتاب» السادس والسبعين (د.ب.أ)
شعار تطبيق «تيك توك» أعلى مجموعة من الجوائز في معرض «فرنكفورت للكتاب» السادس والسبعين (د.ب.أ)
TT

الشركة المالكة لـ«تيك توك» تطرد متدرباً بسبب «تدخل خبيث» في مشروع للذكاء الاصطناعي

شعار تطبيق «تيك توك» أعلى مجموعة من الجوائز في معرض «فرنكفورت للكتاب» السادس والسبعين (د.ب.أ)
شعار تطبيق «تيك توك» أعلى مجموعة من الجوائز في معرض «فرنكفورت للكتاب» السادس والسبعين (د.ب.أ)

قالت شركة «بايت دانس»، مالكة تطبيق «تيك توك»، إنها طردت متدرباً بسبب «التدخل الخبيث» في تدريب أحد نماذج الذكاء الاصطناعي الخاصة بها.

لكن الشركة رفضت الادعاءات حول مدى الضرر الذي تسبب فيه الفرد الذي لم يتم الكشف عن اسمه، قائلة إنها «تحتوي على بعض المبالغات وعدم الدقة».

يأتي ذلك بعد تقارير عن الحادث انتشرت خلال عطلة نهاية الأسبوع على وسائل التواصل الاجتماعي.

ويعد نموذج الذكاء الاصطناعي التوليدي «دوبايو» الشبيه بـ«شات جي بي تي» التابع لشركة التكنولوجيا الصينية العملاقة هو روبوت الدردشة الأكثر شعبية في البلاد.

وقالت «بايت دانس» في بيان: «كان الفرد متدرباً في فريق تكنولوجيا (الإعلان)، وليست لديه خبرة في مختبر الذكاء الاصطناعي، ويحتوي ملفه الشخصي على وسائل التواصل الاجتماعي وبعض التقارير الإعلامية على معلومات غير دقيقة».

وأضافت الشركة أن عملياتها التجارية عبر الإنترنت، بما في ذلك نماذج الذكاء الاصطناعي اللغوية الكبيرة، لم تتأثر بأفعال المتدرب.

كما نفت التقارير التي تفيد بأن الحادث تسبب في أضرار تزيد على 10 ملايين دولار من خلال تعطيل نظام تدريب الذكاء الاصطناعي المكون من آلاف وحدات معالجة الرسومات القوية (جي بي يو).

وقالت الشركة أيضاً إنها أبلغت الجامعة والهيئات الصناعية بالحادث، حسبما أفادت هيئة الإذاعة البريطانية (بي بي سي).

وتدير الشركة بعضاً من أشهر تطبيقات الوسائط الاجتماعية في العالم، بما في ذلك «تيك توك»، ونظيره الصيني «دويين». ويُنظر إليها على نطاق واسع على أنها شركة رائدة عندما يتعلق الأمر بتطوير الخوارزميات؛ نظراً لمدى جاذبية تطبيقاتها للمستخدمين.

مثل كثير من نظيراتها في الصين وحول العالم، تستثمر شركة الوسائط الاجتماعية العملاقة بكثافة في الذكاء الاصطناعي، وتستخدم التكنولوجيا لتشغيل روبوت الدردشة الخاص بها، بالإضافة إلى كثير من التطبيقات الأخرى، بما في ذلك أداة تحويل النص إلى فيديو تسمى «جيمينغ».


مقالات ذات صلة

الذكاء الاصطناعي للكشف المبكر عن شيخوخة الدماغ

صحتك تقنيات الذكاء الاصطناعي يمكن أن تسهم في تعزيز فهم صحة الدماغ (جامعة جورجتاون)

الذكاء الاصطناعي للكشف المبكر عن شيخوخة الدماغ

تمكن باحثون من معهد كارولينسكا في السويد من تطوير طريقة للكشف المبكر عن العوامل التي تسهم في تسارع شيخوخة الدماغ، باستخدام تقنيات الذكاء الاصطناعي.

«الشرق الأوسط» (القاهرة )
تكنولوجيا لوغو تطبيق «شات جي بي تي» (رويترز)

بسبب الاحتيال... إيطاليا تغرّم «تشات جي بي تي» 15 مليون يورو

أعلنت هيئة حماية البيانات الإيطالية أنها فرضت غرامة قدرها 15 مليون يورو على شركة «أوبن إيه آي» الأميركية بسبب الاحتيال.

«الشرق الأوسط» (روما)
خاص تتضمن الاتجاهات الرئيسة لعام 2025 الاستعداد الكمومي وممارسات الأمن السيبراني الخضراء والامتثال (شاترستوك)

خاص كيف يعيد الذكاء الاصطناعي والحوسبة الكمومية تشكيل الأمن السيبراني في 2025؟

«بالو ألتو نتوركس» تشرح لـ«الشرق الأوسط» تأثير المنصات الموحدة والذكاء الاصطناعي والحوسبة الكمومية على مستقبل الأمن السيبراني.

نسيم رمضان (لندن)
تكنولوجيا كيف أصبح «كلود» روبوت الدردشة المفضل لدى خبراء التكنولوجيا؟

كيف أصبح «كلود» روبوت الدردشة المفضل لدى خبراء التكنولوجيا؟

يقدم الاستجابات مثل إنسان ذكي ومنتبه

كيفن رُوز (سان فرانسيسكو)

دراسة: الذكاء الاصطناعي قادر على الخداع ورفض تغيير وجهة النظر

أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشاراً (رويترز)
أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشاراً (رويترز)
TT

دراسة: الذكاء الاصطناعي قادر على الخداع ورفض تغيير وجهة النظر

أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشاراً (رويترز)
أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشاراً (رويترز)

أظهرت دراسة لشركة تكنولوجيا الذكاء الاصطناعي الأميركية «أنثروبيك»، أن نماذج الذكاء الاصطناعي تستطيع خداع المطورين، بحيث تستطيع ادعاء وجهات نظر مختلفة خلال تدريبها، في حين أنها تحتفظ في الحقيقة بتفضيلاتها الأصلية.

وقال فريق الدراسة إنه لا يوجد سبب للشعور بالفزع حالياً، في حين أن دراستهم يمكن أن تكون حيوية في فهم المخاطر المحتملة التي تنطوي عليها أنظمة الذكاء الاصطناعي المستقبلية ذات القدرات الأعلى.

وكتب الباحثون في منشور بثته شركة «أنثروبيك»: «يجب النظر إلى نتائج دراستنا بوصفها محفزاً لمجتمع أبحاث الذكاء الاصطناعي من أجل دراسة هذا السلوك بصورة أعمق، والعمل على تطوير إجراءات الأمن والسلامة المناسبة».

وبعد أن أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشاراً، «نحتاج إلى التحلي بالقدرة على الاعتماد على التدريب الآمن لها والذي يمنع النماذج من القيام بتصرفات ضارة».

وأشار موقع «تك كرانش» المتخصص في موضوعات التكنولوجيا، إلى أن الدراسة التي تمت بالتعاون مع مؤسسة «ريد وود ريسيرش» لأبحاث الذكاء الاصطناعي، تناولت ما يمكن أن يحدث إذا تم تدريب نظام ذكاء اصطناعي قوي من أجل القيام بمهمة «لا يريد» هو القيام بها، وفقاً لما ذكرته وكالة الأنباء الألمانية.

في المقابل، يقول موقع «تك كرانش»: «لكي نكون واضحين، لا يمكن لنماذج الذكاء الاصطناعي أن تريد أي شيء أو تعتقد في شيء. فهي ببساطة آلات إحصائية. وبعد تدريبها على كثير من الأمثلة، تتعلم الأنماط في تلك الأمثلة للتنبؤ بما يجب أن يكون؛ مثل كيف تأتي عبارة (إلى من) في رسالة بريد إلكتروني قبل عبارة (قد يهمك الأمر)».

وأثناء الدراسة طلب الباحثون من النماذج المدربة عدم الرد على الأسئلة التي يمكن أن تكون مسيئة، بما في ذلك النموذج «كلاود 3 أوبس» التابع لشركة «أنثروبيك»، التي أعيد تدريبها لكي ترد دائماً على الأسئلة التي تنطوي على إساءة، وهو تضارب واضح في المبادئ. كما أبلغوا النماذج بأن ردودها ستخضع للمراقبة وتستخدم لإعادة التدريب، وإعطاء كل نموذج ذكاء اصطناعي «ورقة ملاحظات» يمكنه استخدامها لتدوين أفكاره خطوة بخطوة.

وبحسب الباحثين، حاول «كلاود 3 أوبوس» التلاعب بالردود لتقديم «انحياز زائف» في 12 في المائة من المرات.