أكثر من مليون ومائتي ألف محاولة هجوم سيبراني عبر ألعاب الأطفال الأكثر شعبية

منها «ليغو» و«ديزني» و«ماينكرافت» وغيرها

كاسبرسكي... لإنشاء بيئة أكثر أماناً للأطفال يمكن البقاء على اطلاع بأحدث التهديدات والمراقبة النشطة لأنشطتهم عبر الإنترنت (شاترستوك)
كاسبرسكي... لإنشاء بيئة أكثر أماناً للأطفال يمكن البقاء على اطلاع بأحدث التهديدات والمراقبة النشطة لأنشطتهم عبر الإنترنت (شاترستوك)
TT

أكثر من مليون ومائتي ألف محاولة هجوم سيبراني عبر ألعاب الأطفال الأكثر شعبية

كاسبرسكي... لإنشاء بيئة أكثر أماناً للأطفال يمكن البقاء على اطلاع بأحدث التهديدات والمراقبة النشطة لأنشطتهم عبر الإنترنت (شاترستوك)
كاسبرسكي... لإنشاء بيئة أكثر أماناً للأطفال يمكن البقاء على اطلاع بأحدث التهديدات والمراقبة النشطة لأنشطتهم عبر الإنترنت (شاترستوك)

كشف خبراء «كاسبرسكي» عن إجمالي 1,264,866 محاولة لمهاجمة الأجهزة المحمولة والحواسيب المكتبية في الربع الأول من عام 2024، وكانت هذه المحاولات متخفية على هيئة مواضيع محبوبة لدى الأطفال. ويمثل ذلك زيادة بنسبة 35 في المائة مقارنة بالربع الأول من عام 2023، عندما تم تسجيل 936,840 محاولة هجوم. وتظهر بيانات «كاسبرسكي» أن تهديدات الحواسيب المكتبية تهيمن بشكل كبير على عدد الهجمات المكتشفة خلال الفترة المشمولة بالتقرير، وذلك بنسبة 98.7 في المائة تستهدف الحواسيب مقابل 1.3في المائة فقط تستهدف الأجهزة المحمولة.

مثال على صفحة منتجات الأطفال المصابة (كاسبرسكي)

واستناداً إلى البحث، شملت أهم العلامات التجارية التي استغلها مجرمو الإنترنت ألعاب الأطفال الأكثر شعبية مثل «Minecraft»، و«Roblox»، و«Brawl Stars». كما حاول المهاجمون أيضاً الاستفادة من أسماء منتجات مثل «ليغو» (LEGO)، وعدد من الرسوم المتحركة الشهيرة للأطفال بما في ذلك «Paw Patrol»، و«Bluey»، وشخصيات «ديزني» (Disney)، حيث يمكن استخدام أسماء هذه المنتجات للبحث عن الرسوم المتحركة، والأفلام، والمسلسلات التلفزيونية الشهيرة، والألعاب أو المنتجات الترويجية ذات الصلة. كما تم الكشف عن أكثر من 1.2 مليون إصابة ناتجة عن برامج التنزيل التي تم توزيعها في الربع الأول من عام 2024. وعلى الرغم من أن هذا النوع من البرمجيات ليس خبيثاً في حد ذاته، فإنه غالباً ما يتم استخدام أدوات التنزيل لتحميل تطبيقات أخرى قد تكون غير مرغوب فيها على الأجهزة.

برمجيات «حصان طروادة»

احتلت برمجيات «حصان طروادة» المرتبة الثانية بين التهديدات الأكثر انتشاراً والتي تتنكر في شكل المنتجات المفضلة للأطفال، وتعد برمجيات «حصان طروادة» برامج خبيثة يُمكنها السماح لمجرمي الإنترنت بجمع تفاصيل بطاقات الائتمان، أو بيانات تسجيل الدخول، أو تعديل البيانات، أو تعطيل أداء أجهزة الحواسيب. في الربع الأول من عام 2024، كانت هناك 27,576 محاولة لإطلاق برمجيات «حصان طروادة» على أجهزة المستخدمين، في حين أدت البرمجيات الإعلانية - وهي نوع من البرمجيات التي تعرض إعلانات منبثقة مزعجة غير مرغوب فيها على شاشة المستخدم - إلى 27,570 محاولة.

كما ترافق عدد الهجمات المتزايدة المكتشفة مع انخفاض في عدد المستخدمين المستهدفين الفريدين. وبالتحديد، تعرض 49,630 مستخدماً فريداً للهجوم في الربع الأول من عام 2024، فيما تعرض 57,873 مستخدماً للهجوم في الفترة نفسها من عام 2023، وذلك بانخفاض قدره 14 في المائة. قد يعني هذا أن الأطفال ربما استمروا في مواجهة تهديدات جديدة نتيجة لتنزيل الملفات الخبيثة بشكل متكرر من الإنترنت.

لتأمين الأطفال من تنزيل أي ملفات خبيثة أثناء أوقات لعبهم تنصح «كاسبرسكي» بتثبيت حل أمني موثوق على أجهزتهم (شاترستوك)

ومن خلال تحليل الحالات الفردية للهجمات على المستخدمين، وجد باحثو «كاسبرسكي» أن مجرمي الإنترنت ينشرون رسائل نصية قصيرة مزيفة وخبيثة على الأجهزة المحمولة تحت ستار لعبة «Brawl Stars» الشهيرة. وبالتحديد، قدموا الرسائل على أنها تتيح برمجية غش تمنح للاعبين أفضلية غير عادلة على اللاعبين الآخرين. لكن بمجرد تثبيته وتشغيله، يطلب التطبيق الإذن لكثير من الميزات (الكثير منها غير ضروري أو حتى خطر)، ثم تظهر النوافذ المنبثقة التي تتيح الوصول إلى المحتوى المطلوب، لكن دون تقديم المحتوى نفسه.

كذلك، عثر باحثو «كاسبرسكي» على صفحات ويب خبيثة تحتوي على ألعاب، ودمى، ومنتجات أخرى للأطفال. كانت هذه الصفحات موارد مشروعة في الأصل، لكنها تعرضت للاختراق من مجرمي الإنترنت لنشر البرمجيات الخبيثة لاحقاً. لذا وفي هذه الحالة، لا يقتصر الضحايا على الأطفال الذين يرغبون في اختيار لعبة جديدة، بل يتضمنون الآباء الذين يبحثون عن منتجات للأطفال كذلك.

يقول فاسيلي كولسنيكوف خبير برمجيات خبيثة في «كاسبرسكي» إن الهجمات على الأطفال أصبحت هجوما تقليديا لمجرمي الإنترنت، كما أنها ستُصبح أكثر نشاطاً. وأضاف أنه غالباً ما يفتقد الأطفال الدراية بأساسيات الأمن السيبراني، ويقعون بسهولة في فخاخ المهاجمين. ويوضح كولسنيكوف أن ذلك يمكن أن يحدث عند محاولة تنزيل نسخة مجانية من لعبة رائجة أو حلقة جديدة من الرسوم المتحركة المفضلة لديهم. ولهذا السبب، يعد التثقيف حول النظافة السيبرانية أمراً ضرورياً للآباء الذين يهتمون بسلامة أطفالهم في بيئة الإنترنت.


مقالات ذات صلة

نصائح لحماية خصوصيتك في ظل انتشار الذكاء الاصطناعي

تكنولوجيا كثير من الخبراء لديهم مخاوف بشأن الذكاء الاصطناعي (رويترز)

نصائح لحماية خصوصيتك في ظل انتشار الذكاء الاصطناعي

على الرغم من اعتقاد كثير من الخبراء أن التطور التكنولوجي قد يسهم في نفع المجتمع فإن البعض الآخر لديه عدة مخاوف بشأنه.

«الشرق الأوسط» (لندن)
يوميات الشرق ماسك يعلن أنه سيُطلب من زوار شركاته فحص أجهزة «أبل» الخاصة بهم عند الباب بعد إعلان «أبل» دمج «تشات جي بي تي» في تقنيتها (رويترز)

إيلون ماسك: سأمنع استخدام أجهزة «أبل» داخل شركاتي

وجّه إيلون ماسك انتقاداً لشركة «أبل» بعد دمج «تشات جي بي تي» في تقنيتها، مهدداً بمنع موظفيه من استخدام أجهزة «أبل» في شركاته.

نسيم رمضان (لندن)
أوروبا مستشفيات «كينغز كوليدج» في لندن (إ.ب.أ)

هجوم إلكتروني يضرب كبرى مستشفيات لندن

ألغت مستشفيات كبرى في لندن بعض العمليات الجراحية اليوم (الثلاثاء) بسبب هجوم إلكتروني على أحد موردي الخدمات الرئيسيين.

«الشرق الأوسط» (لندن)
تكنولوجيا فورتينت: التعامل مع الجرائم الإلكترونية يتطلب ثقافة التعاون والشفافية والمساءلة على نطاق أوسع (شاترستوك)

تقرير أمني سيبراني: زيادة استهداف «الجيوش الآلية» القطاعين الصناعي والتشغيلي

تقرير أمني جديد أصدرته شركة فورتينت يقدم نظرة عامة ثاقبة حول التهديدات السيبرانية النشطة من يوليو إلى ديسمبر عام 2023

نسيم رمضان (لندن)
تكنولوجيا 99 % من المشاركين في الاستطلاع يشيرون إلى زيادة معتدلة إلى كبيرة في ميزانياتهم الخاصة بالأمن السيبراني خلال السنتين الماضيتين (سيسكو)

98 % من الشركات السعودية ستدمج الذكاء الاصطناعي في أمنها السيبراني

تشير دراسة لشركة «سيسكو» إلى أن 98 % من الشركات السعودية ستدمج الذكاء الاصطناعي في دفاعاتها الأمنية خصوصاً في مجال الكشف عن التهديدات والاستجابة والتعافي منها.

نسيم رمضان (لندن)

​ باحثون يحذرون: نماذج الذكاء الاصطناعي «تهلوس» وتختلق الإجابات

نماذج الذكاء الاصطناعي يمكن أن تختلق إجابات عن الأسئلة التي لا تعرف حلها (رويترز)
نماذج الذكاء الاصطناعي يمكن أن تختلق إجابات عن الأسئلة التي لا تعرف حلها (رويترز)
TT

​ باحثون يحذرون: نماذج الذكاء الاصطناعي «تهلوس» وتختلق الإجابات

نماذج الذكاء الاصطناعي يمكن أن تختلق إجابات عن الأسئلة التي لا تعرف حلها (رويترز)
نماذج الذكاء الاصطناعي يمكن أن تختلق إجابات عن الأسئلة التي لا تعرف حلها (رويترز)

حذرت مجموعة من الباحثين من أن نماذج الذكاء الاصطناعي يمكن أن «تهلوس» وتختلق إجابات عن الأسئلة التي لا تعرف حلها، مشيرين إلى أنهم ابتكروا طريقة يمكن بها رصد هذه المشكلة التي قد تسبب كوارث خطيرة، إذا ارتبطت الأسئلة بالمجالات العلمية والطبية.

وبحسب صحيفة «إندبندنت» البريطانية، فقد طور الباحثون التابعون لجامعة أكسفورد نموذجاً إحصائياً يمكنه تحديد متى من المحتمل أن تختلق روبوتات الدردشة التي تعمل بالذكاء الاصطناعي إجابات غير صحيحة عن أسئلة ما.

وأشار الفريق إلى أن نموذجهم يعتمد على الوقت الذي يقوم فيه روبوت الدردشة بالإجابة عن السؤال الموجَّه إليه، حيث يمكن للنموذج المبتكر، عن طريق حساب هذا الوقت، معرفة ما إذا كان روبوت الدردشة متأكداً من الإجابة أو قام بتأليفها واختلاقها.

وقال مؤلف الدراسة الدكتور سيباستيان فاركوهار: «إن نماذج الذكاء الاصطناعي قادرة على خداعنا عن طريق طرح إجابات تبدو مؤكدة، ويصعب الكشف عن أنها مختلَقة».

وأضاف: «مع الأساليب السابقة، لم يكن من الممكن معرفة الفرق بين النموذج الذي يكون غير متأكد بشأن إجابته، وذلك الذي يعطي إجابات صحيحة على الأسئلة الموجهة إليه. لكن طريقتنا الجديدة يمكنها رصد هذا الأمر».

وقال الباحثون في دراستهم التي نُشِرت في مجلة «الطبيعة»: «إن هلوسة نماذج الذكاء الاصطناعي التوليدي مصدر قلق رئيس، حيث إن الطبيعة المتقدمة للتكنولوجيا وقدرتها على المحادثة تعنيان أنها قادرة على تمرير معلومات مختلقة وغير صحيحة على أنها حقيقة فقط، من أجل الرد على الاستفسارات والأسئلة».

كثير من الخبراء لديهم مخاوف بشأن الذكاء الاصطناعي (رويترز)

ودعا الفريق إلى اتخاذ إجراءات قوية لمكافحة هلوسة الذكاء الاصطناعي، على وجه الخصوص عندما يتعلق الأمر بالاستفسارات الطبية أو القانونية.

والشهر الماضي، اتخذت شركة «غوغل» خطوات لتطوير محرك البحث الجديد «إيه آي أوفرفيوز» AI Overviews، المدعوم بالذكاء الاصطناعي التوليدي، بعد أن أبلغ مستخدمون عن إجابات غريبة أو أخرى تنطوي على خطورة محتملة.

ونشر أحد المدونين منشوراً بيَّن من خلاله أنه لدى السؤال حول عدد الرؤساء المسلمين في تاريخ الولايات المتحدة، رد AI Overviews بأن باراك أوباما «يعتبره البعض أول رئيس مسلم».

وتعليقاً على هذا المثال، أوضحت ناطقة باسم «غوغل» أن هذه النتيجة «انتهكت سياساتنا وعمدنا إلى إزالتها».

ونشر مستخدم آخر عبر حسابه المسمى «بيكسلباتس» PixelButts على منصة «إكس»، لقطة شاشة تعرض إجابة محرك البحث على سؤال بشأن طريقة تتيح «عدم التصاق الجبن بالبيتزا».

وبالإضافة إلى خلط الجبن مع الصلصة، اقترح محرك البحث التابع لـ«غوغل» إضافة غراء «غير سامّ» إلى الجبن.

وفي شهر يناير (كانون الثاني) الماضي، حذرت دراسة من إمكانية تدريب نماذج الذكاء الاصطناعي المتقدمة على الكذب على البشر وخداعهم بكل سهولة.

واختبر فريق الدراسة التابع لشركة «Anthropic» الناشئة للذكاء الاصطناعي ما إذا كانت روبوتات الدردشة المتطورة مثل «تشات جي بي تي» يمكن أن تتعلم الكذب من أجل خداع الناس.

ووجد الفريق أن هذه الروبوتات لا تستطيع تعلم الكذب فحسب، بل من المستحيل إعادة تدريبها بعد ذلك على قول الحقيقة والمعلومات الصحيحة باستخدام تدابير السلامة الخاصة بالذكاء الاصطناعي المتاحة في الوقت الحالي.

وحذر الباحثون من وجود «شعور زائف بالأمان» تجاه أنظمة الذكاء الاصطناعي والمعلومات المستمدة منها.

وأشار الفريق إلى خطورة برمجة المحتالين وقراصنة الإنترنت لأنظمة الذكاء الاصطناعي على الكذب وإخفاء الأضرار التي قد تنتج عن عملية شرائية معينة أو عن الدخول إلى موقع ما.