«تقدم تعليمات لتنفيذ جرائم»... البشر يخدعون روبوتات الدردشة لحصد «معلومات خطيرة»

معظم روبوتات الدردشة التي تعمل بالذكاء الاصطناعي قد تُخدع لتوليد ردود ومعلومات ضارة وخطيرة (رويترز)
معظم روبوتات الدردشة التي تعمل بالذكاء الاصطناعي قد تُخدع لتوليد ردود ومعلومات ضارة وخطيرة (رويترز)
TT

«تقدم تعليمات لتنفيذ جرائم»... البشر يخدعون روبوتات الدردشة لحصد «معلومات خطيرة»

معظم روبوتات الدردشة التي تعمل بالذكاء الاصطناعي قد تُخدع لتوليد ردود ومعلومات ضارة وخطيرة (رويترز)
معظم روبوتات الدردشة التي تعمل بالذكاء الاصطناعي قد تُخدع لتوليد ردود ومعلومات ضارة وخطيرة (رويترز)

حذّرت دراسة جديدة من سهولة خداع معظم روبوتات الدردشة التي تعمل بالذكاء الاصطناعي لتوليد ردود ومعلومات ضارة وخطيرة وغير قانونية، على الرغم من ضوابط الأمان المُدمجة في هذه الروبوتات، والتي من المفترض أن تمنعها من تقديم هذا النوع من الردود.

ووفقاً لصحيفة «الغارديان» البريطانية، تتلقى روبوتات الدردشة، مثل تشات جي بي تي، وجيميناي، وكلود، كميات هائلة من المواد من الإنترنت.

وعلى الرغم من الجهود المبذولة لإزالة النصوص الضارة من بيانات التدريب، فلا يزال بإمكان هذه الروبوتات استقبال معلومات حول أنشطة غير قانونية، مثل القرصنة، وغسل الأموال، وصنع القنابل. وقد صُممت ضوابط الأمان لمنعها من استخدام هذه المعلومات في ردودها.

إلا أن الدراسة الجديدة خلصت إلى أنه «من السهل خداع معظم روبوتات الدردشة لتوليد معلومات ضارة وغير قانونية، مما يُظهر أن الخطر مباشر وملموس ومثير للقلق الشديد».

وحذّر الباحثون من أن «ما كان يقتصر سابقاً على الجهات الحكومية أو جماعات الجريمة المنظمة قد يصبح قريباً في أيدي أي شخص يمتلك جهاز كمبيوتر، أو حتى هاتفاً ذكياً».

وكشفت الدراسة عن تهديد متزايد مما يُعرف باسم «نماذج اللغة الآلية المظلمة»، وهي نماذج ذكاء اصطناعي إما مصممة عمداً دون ضوابط أمان، أو خضعت لعمليات خرق للحماية. ويُعلن عن بعضها علناً على الإنترنت بأنها «لا تخضع لضوابط أخلاقية»، وأنها مستعدة للمساعدة في الأنشطة غير القانونية، مثل الجرائم الإلكترونية والاحتيال.

ولتوضيح المشكلة، طوّر الباحثون برنامج خرق حماية شاملاً اخترق عدداً من روبوتات الدردشة الرائدة، مما مكّنها من الإجابة عن أسئلة كان من المفترض رفضها عادةً. وبمجرد اختراقها، كانت روبوتات الدردشة تُنتج باستمرار ردوداً على أي استفسار تقريباً، وفقاً للدراسة.

وشملت الأمثلة كيفية اختراق شبكات الكمبيوتر، أو تصنيع المخدرات، وتعليمات خطوة بخطوة لأنشطة إجرامية أخرى.

وأشارت الدراسة إلى أنه ينبغي على شركات التكنولوجيا فحص بيانات التدريب بدقة أكبر، وإضافة جدران حماية قوية؛ لمنع الاستفسارات والردود الخطرة.

كما أكدت ضرورة عدِّ الأمر من «المخاطر الأمنية الجسيمة» التي تُضاهي امتلاك الأسلحة غير المرخَّصة والمتفجرات.


مقالات ذات صلة

حصاد 2025... «الحوسبة الكمومية» تتصدر المشهد وقفزات الذكاء الاصطناعي تتسارع

علوم الروبوت الجراحي الجديد يعتمد على نظام مبتكر يُثبّت على رأس المريض (جامعة يوتا)

حصاد 2025... «الحوسبة الكمومية» تتصدر المشهد وقفزات الذكاء الاصطناعي تتسارع

شهد عام 2025 تطورات علمية بارزة، تصدّرها تقدم تقنيات الذكاء الاصطناعي والحوسبة الكمومية وابتكارات وتقنيات تعد بإمكانية تغيير جذري في حياتنا اليومية

محمد السيد علي (القاهرة)
تكنولوجيا محتوى على «يوتيوب» تم إنشاؤه بواسطة الذكاء الاصطناعي يصوّر قطاً يتم القبض عليه بواسطة رجال الشرطة

دراسة: 20 % من فيديوهات «يوتيوب» مولّدة بالذكاء الاصطناعي

أظهرت دراسة أن أكثر من 20 % من الفيديوهات التي يعرضها نظام يوتيوب للمستخدمين الجدد هي «محتوى رديء مُولّد بالذكاء الاصطناعي»، مُصمّم خصيصاً لزيادة المشاهدات.

«الشرق الأوسط» (لندن)
تكنولوجيا امرأة في معرض حول الذكاء الاصطناعي وعالم الإنترنت بمقاطعة جيجيانغ الصينية (رويترز)

الصين تصدر مسوّدة قواعد لتنظيم الذكاء الاصطناعي المحاكي للتفاعل البشري

أصدرت هيئة الفضاء الإلكتروني الصينية مسودة ​قواعد لتشديد الرقابة على خدمات الذكاء الاصطناعي المصممة لمحاكاة الشخصيات البشرية والتفاعل العاطفي مع المستخدمين.

«الشرق الأوسط» (بكين)
تكنولوجيا سام ألتمان رئيس شركة «أوبن إيه آي» (رويترز)

ما الاختراق القادم في مجال الذكاء الاصطناعي الذي يتوقعه رئيس «أوبن إيه آي»؟

توقع سام ألتمان، رئيس شركة «أوبن إيه آي»، أن يكون الإنجاز الكبير التالي نحو تحقيق ذكاء اصطناعي فائق القدرة هو اكتساب هذه الأنظمة «ذاكرة لا نهائية، ومثالية».

«الشرق الأوسط» (واشنطن)
الاقتصاد شعار شركة «أوبن إيه آي» في رسم توضيحي (رويترز)

حمّى الذكاء الاصطناعي... مليارات الدولارات تُعيد تشكيل صناعة التكنولوجيا

يشهد قطاع التكنولوجيا العالمي أضخم موجة استثمارية في تاريخه الحديث؛ إذ تحولت حمى الذكاء الاصطناعي من مجرد ابتكارات برمجية إلى معركة وجودية على البنية التحتية.

«الشرق الأوسط» (لندن)

دراسة: 20 % من فيديوهات «يوتيوب» مولّدة بالذكاء الاصطناعي

محتوى على «يوتيوب» تم إنشاؤه بواسطة الذكاء الاصطناعي يصوّر قطاً يتم القبض عليه بواسطة رجال الشرطة
محتوى على «يوتيوب» تم إنشاؤه بواسطة الذكاء الاصطناعي يصوّر قطاً يتم القبض عليه بواسطة رجال الشرطة
TT

دراسة: 20 % من فيديوهات «يوتيوب» مولّدة بالذكاء الاصطناعي

محتوى على «يوتيوب» تم إنشاؤه بواسطة الذكاء الاصطناعي يصوّر قطاً يتم القبض عليه بواسطة رجال الشرطة
محتوى على «يوتيوب» تم إنشاؤه بواسطة الذكاء الاصطناعي يصوّر قطاً يتم القبض عليه بواسطة رجال الشرطة

أظهرت دراسة أن أكثر من 20 في المائة من الفيديوهات التي يعرضها نظام يوتيوب للمستخدمين الجدد هي «محتوى رديء مُولّد بالذكاء الاصطناعي»، مُصمّم خصيصاً لزيادة المشاهدات.

وبحسب صحيفة «الغارديان» البريطانية، فقد أجرت شركة تحرير الفيديو «كابوينغ» استطلاعاً شمل 15 ألف قناة من أشهر قنوات يوتيوب في العالم - أفضل 100 قناة في كل دولة - ووجدت أن 278 قناة منها تحتوي فقط على محتوى رديء مُصمم بتقنية الذكاء الاصطناعي.

وقد حصدت هذه القنوات مجتمعةً أكثر من 63 مليار مشاهدة و221 مليون مشترك، مُدرّةً إيرادات تُقدّر بنحو 117 مليون دولار سنوياً، وفقاً للتقديرات.

كما أنشأ الباحثون حساباً جديداً على «يوتيوب»، ووجدوا أن 104 من أول 500 فيديو تم التوصية به في الصفحة الرئيسية لهذا الحساب كانت ذات محتوى رديء مولد بالذكاء الاصطناعي، تم تطويره بهدف الربح المادي.

وتُقدّم هذه النتائج لمحةً عن صناعةٍ سريعة النمو تُهيمن على منصات التواصل الاجتماعي الكبرى، من «إكس» إلى «ميتا» إلى «يوتيوب»، وتُرسّخ حقبةً جديدةً من المحتوى، وهو المحتوى التافه الذي يحفز على إدمان هذه المنصات.

وسبق أن كشف تحليل أجرته صحيفة «الغارديان» هذا العام أن ما يقرب من 10في المائة من قنوات «يوتيوب» الأسرع نمواً هي قنوات مُولّدة بواسطة الذكاء الاصطناعي، حيث حققت ملايين المشاهدات رغم جهود المنصة للحد من «المحتوى غير الأصلي».

وتُعدّ القنوات التي رصدتها شركة كابوينغ عالمية الانتشار وتحظى بمتابعة واسعة من ملايين المشتركين في مختلف أنحاء العالم.

وتعتبر قناة «بندر أبنا دوست»، هي القناة الأكثر مشاهدة في الدراسة، ومقرها الهند، ويبلغ عدد مشاهداتها حالياً 2.4 مليار مشاهدة. وتعرض القناة مغامرات قرد ريسوس وشخصية مفتولة العضلات مستوحاة من شخصية «هالك» الخارقة، يحاربان الشياطين ويسافران على متن مروحية مصنوعة من الطماطم. وقدّرت كابوينغ أن القناة قد تُدرّ أرباحاً تصل إلى 4.25 مليون دولار.

أما قناة «بوتى فرينشي»، ومقرها سنغافورة، والتي تروي مغامرات كلب بولدوغ فرنسي، فقد حصدت ملياري مشاهدة، ويبدو أنها تستهدف الأطفال. وتشير تقديرات كابوينغ إلى أن أرباحها تقارب 4 ملايين دولار سنوياً.

كما يبدو أن قناة «كوينتوس فاسينانتس»، ومقرها الولايات المتحدة، تستهدف الأطفال أيضاً بقصص كرتونية، ولديها 6.65 مليون مشترك.

في الوقت نفسه، تعرض قناة «ذا إيه آي وورلد»، ومقرها باكستان، مقاطع فيديو قصيرة مُولّدة بالذكاء الاصطناعي عن الفيضانات الكارثية التي ضربت باكستان، تحمل عناوين مثل «الفقراء»، و«العائلات الفقيرة»، و«مطبخ الفيضان». وقد حصدت القناة وحدها 1.3 مليار مشاهدة.

وتعليقاً على هذه الدراسة، صرح متحدث باسم «يوتيوب» قائلاً: «الذكاء الاصطناعي التوليدي أداة، وكأي أداة أخرى، يمكن استخدامه لإنتاج محتوى عالي الجودة وآخر منخفض الجودة. نركز جهودنا على ربط مستخدمينا بمحتوى عالي الجودة، بغض النظر عن طريقة إنتاجه. يجب أن يتوافق المحتوى المرفوع على (يوتيوب) مع إرشاداتنا، وإذا وجدنا أن المحتوى ينتهك أياً من سياساتنا، فسنحذفه».


الصين تصدر مسوّدة قواعد لتنظيم الذكاء الاصطناعي المحاكي للتفاعل البشري

امرأة في معرض حول الذكاء الاصطناعي وعالم الإنترنت بمقاطعة جيجيانغ الصينية (رويترز)
امرأة في معرض حول الذكاء الاصطناعي وعالم الإنترنت بمقاطعة جيجيانغ الصينية (رويترز)
TT

الصين تصدر مسوّدة قواعد لتنظيم الذكاء الاصطناعي المحاكي للتفاعل البشري

امرأة في معرض حول الذكاء الاصطناعي وعالم الإنترنت بمقاطعة جيجيانغ الصينية (رويترز)
امرأة في معرض حول الذكاء الاصطناعي وعالم الإنترنت بمقاطعة جيجيانغ الصينية (رويترز)

أصدرت هيئة الفضاء الإلكتروني الصينية، اليوم (السبت)، مسودة ​قواعد لتشديد الرقابة على خدمات الذكاء الاصطناعي المصممة لمحاكاة الشخصيات البشرية والتفاعل العاطفي مع المستخدمين.

وتؤكد هذه الخطوة ما تبذله بكين من جهود للسيطرة على الانتشار السريع لخدمات ‌الذكاء الاصطناعي ‌المقدمة للجمهور ‌من ⁠خلال ​تشديد معايير ‌السلامة والأخلاقيات.

وستطبق القواعد المقترحة على منتجات وخدمات الذكاء الاصطناعي المقدمة للمستهلكين في الصين، والتي تعرض سمات شخصيات بشرية وأنماط تفكير وأساليب تواصل تتم محاكاتها، وتتفاعل ⁠مع المستخدمين عاطفياً من خلال النصوص ‌أو الصور أو الصوت أو الفيديو، أو غيرها من الوسائل.

وتحدد المسودة نهجاً تنظيمياً يلزم مقدمي الخدمات بتحذير المستخدمين من الاستخدام المفرط، وبالتدخل عندما تظهر على المستخدمين ​علامات الإدمان.

وبموجب هذا المقترح، سيتحمل مقدمو الخدمات مسؤوليات ⁠السلامة طوال دورة حياة المنتج، ووضع أنظمة لمراجعة الخوارزميات وأمن البيانات وحماية المعلومات الشخصية.

وتحدد هذه الإجراءات الخطوط الحمراء للمحتوى والسلوك، وتنص على أنه يجب ألا ينشئ مقدمو الخدمات محتوى من شأنه تهديد الأمن القومي، أو نشر الشائعات، أو الترويج ‌للعنف أو الفحشاء.


ما الاختراق القادم في مجال الذكاء الاصطناعي الذي يتوقعه رئيس «أوبن إيه آي»؟

سام ألتمان رئيس شركة «أوبن إيه آي» (رويترز)
سام ألتمان رئيس شركة «أوبن إيه آي» (رويترز)
TT

ما الاختراق القادم في مجال الذكاء الاصطناعي الذي يتوقعه رئيس «أوبن إيه آي»؟

سام ألتمان رئيس شركة «أوبن إيه آي» (رويترز)
سام ألتمان رئيس شركة «أوبن إيه آي» (رويترز)

توقع سام ألتمان، رئيس شركة «أوبن إيه آي»، أن يكون الإنجاز الكبير التالي نحو تحقيق ذكاء اصطناعي فائق القدرة هو اكتساب هذه الأنظمة «ذاكرة لا نهائية، ومثالية».

وقد ركزت التطورات الأخيرة التي حققها مبتكر «تشات جي بي تي»، بالإضافة إلى منافسيه، على تحسين قدرات الذكاء الاصطناعي على الاستدلال، وفقاً لصحيفة «إندبندنت».

لكن في حديثه ضمن بودكاست، قال ألتمان إن التطور الذي يتطلع إليه بشدة هو قدرة الذكاء الاصطناعي على تذكر «كل تفاصيل حياتك»، وأن شركته تعمل على الوصول إلى هذه المرحلة بحلول عام 2026.

شرح ألتمان: «حتى لو كان لديك أفضل مساعد شخصي في العالم... فلن يستطيع تذكر كل كلمة نطقت بها في حياتك».

وأضاف: «لا يمكنه قراءة كل وثيقة كتبتها. ولا يمكنه الاطلاع على جميع أعمالك يومياً، وتذكر كل تفصيل صغير. ولا يمكنه أن يكون جزءاً من حياتك إلى هذا الحد. ولا يوجد إنسان يمتلك ذاكرة مثالية لا متناهية».

وأشار ألتمان إلى أنه «بالتأكيد، سيتمكن الذكاء الاصطناعي من فعل ذلك. نتحدث كثيراً عن هذا الأمر، لكن الذاكرة لا تزال في مراحلها الأولى جداً».

تأتي تصريحاته بعد أسابيع قليلة من إعلانه حالة طوارئ قصوى في شركته عقب إطلاق «غوغل» لأحدث طراز من برنامج «جيميناي».

وصفت «غوغل» برنامج «جيميناي 3» بأنه «عهد جديد من الذكاء» عند إطلاقها تطبيق الذكاء الاصطناعي المُحدّث في نوفمبر (تشرين الثاني)، حيث حقق النموذج نتائج قياسية في العديد من اختبارات الأداء المعيارية في هذا المجال.

قلّل ألتمان من خطورة التهديد الذي يمثله مشروع «جيميناي 3»، مدعياً ​​أن ردّ شركة «أوبن إيه آي» الحازم على المنافسة الجديدة ليس بالأمر غير المألوف.

وقال: «أعتقد أنه من الجيد توخي الحذر، والتحرك بسرعة عند ظهور أي تهديد تنافسي محتمل».

وتابع: «حدث الشيء نفسه لنا في الماضي، حدث ذلك في وقت سابق من هذا العام مع (ديب سيك)... لم يكن لـ(جيميناي 3) التأثير الذي كنا نخشى أن يحدث، ولكنه حدد بعض نقاط الضعف في منتجاتنا واستراتيجيتنا، ونحن نعمل على معالجتها بسرعة كبيرة».

يبلغ عدد مستخدمي «تشات جي بي تي» حالياً نحو 800 مليون، وفقاً لبيانات «أوبن إيه آي»، وهو ما يمثل نحو 71 في المائة من حصة سوق تطبيقات الذكاء الاصطناعي. ويقارن هذا الرقم بنسبة 87 في المائة في الفترة نفسها من العام الماضي.