«مايكروسوفت» تتصدى لـ1.6 مليون محاولة اختراق أمني في الساعة

خوارزميات ذكية في المعركة ضد الاحتيال السيبراني

تُستخدم أدوات الذكاء الاصطناعي لإنشاء متاجر إلكترونية وهمية في دقائق ما يزيد صعوبة التمييز بينها وبين الحقيقية (شاترستوك)
تُستخدم أدوات الذكاء الاصطناعي لإنشاء متاجر إلكترونية وهمية في دقائق ما يزيد صعوبة التمييز بينها وبين الحقيقية (شاترستوك)
TT

«مايكروسوفت» تتصدى لـ1.6 مليون محاولة اختراق أمني في الساعة

تُستخدم أدوات الذكاء الاصطناعي لإنشاء متاجر إلكترونية وهمية في دقائق ما يزيد صعوبة التمييز بينها وبين الحقيقية (شاترستوك)
تُستخدم أدوات الذكاء الاصطناعي لإنشاء متاجر إلكترونية وهمية في دقائق ما يزيد صعوبة التمييز بينها وبين الحقيقية (شاترستوك)

أضحى الذكاء الاصطناعي أداةً يُحتفى بها بقدر ما يُساء استخدامها. وتسعى «مايكروسوفت» إلى تعزيز التزامها بحماية بيئتها الرقمية من خلال استراتيجية متعددة الأبعاد لمكافحة الاحتيال والانتهاكات السيبرانية. وفي تقريرها الأخير بعنوان «إشارات سيبرانية» (Cyber Signals)، كشفت الشركة عن حجم التهديدات التي واجهتها بين أبريل (نيسان) 2024 وأبريل 2025، وكذلك عن الدفاعات الواسعة التي نشرتها للتصدي لها.

خلال هذه الفترة، نجحت «مايكروسوفت» في إحباط محاولات احتيال بقيمة 4 مليارات دولار، ورفضت 49 ألف طلب شراكة احتيالي، وحجبت نحو 1.6 مليون محاولة تسجيل عبر الروبوتات في الساعة الواحدة. يركز تقرير هذا العام على كيفية تغيير الذكاء الاصطناعي طبيعة الاحتيال، ليس فقط من حيث التعقيد، بل من حيث سهولة الوصول إليه أيضاً. إذ يستخدم مجرمو الإنترنت أدوات الذكاء الاصطناعي لصناعة عمليات احتيال أكثر إقناعاً، بسرعة أكبر وبتكلفة أقل. ووفقاً لـ«مايكروسوفت»، فإن جزءاً كبيراً من هذا النشاط ينطلق من أسواق رقمية رئيسية مثل الصين وألمانيا؛ نظراً لحجم التجارة الإلكترونية فيهما.

تصاعد الاحتيال المدعوم بالذكاء الاصطناعي

أصبح الذكاء الاصطناعي يخفض الحواجز أمام الجرائم السيبرانية. فبفضل أدوات قادرة على تصفح الإنترنت لاستخلاص بيانات حساسة عن الشركات وموظفيها، يمكن للمهاجمين تصميم حملات هندسة اجتماعية معقدة. تشمل هذه الحملات مواقع تجارة إلكترونية وهمية، وشعارات مقلدة، وتقييمات مزيفة، وحتى روبوتات دعم عملاء تستند إلى الذكاء الاصطناعي قادرة على خداع المستخدمين.

كما يستغل المحتالون الذكاء الاصطناعي لإنتاج مقاطع فيديو مزيفة (Deepfakes)، واستنساخ الأصوات، وإرسال رسائل تصيُّد إلكتروني يصعب التفرقة بينها وبين الرسائل الحقيقية. تنتشر كذلك عروض وظائف مزيفة ومقابلات عمل وهمية باستخدام تقنيات توليد النصوص والصور، مستهدفة الباحثين عن العمل.

أطلقت «مايكروسوفت» سياسة جديدة تُلزم فرق التطوير بتضمين تقييمات لمخاطر الاحتيال ضمن مراحل تصميم المنتجات (شاترستوك)

الاحتيال في التجارة الإلكترونية

تشير «مايكروسوفت» إلى تصاعد إنشاء متاجر إلكترونية احتيالية في دقائق معدودة باستخدام أدوات الذكاء الاصطناعي مقارنةً بالأيام أو الأسابيع التي كانت تحتاج إليها سابقاً. تقوم هذه المتاجر بتقليد علامات تجارية معروفة، وإنتاج أوصاف وصور واقعية للمنتجات، وحتى استخدام روبوتات دردشة مدعومة بالذكاء الاصطناعي للتفاعل مع العملاء.

لمواجهة ذلك، عززت «مايكروسوفت» منتجاتها بإجراءات أمنية صارمة. على سبيل المثال، يتضمن «مايكروسوفت إيدج» (Microsoft Edge) الآن ميزة حماية من أخطاء الكتابة في عناوين المواقع، وحظر لانتحال النطاقات، بالإضافة إلى مانع صفحات التحذير الاحتيالية المبني على التعلم الآلي.

«الهندسة الاجتماعية» دون ذكاء اصطناعي

ليس كل أنواع الاحتيال تعتمد على الذكاء الاصطناعي. ففي أبريل 2024، رصدت فرق الأمان في «مايكروسوفت» نشاطاً متزايداً من مجموعة «Storm - 1811»، وهي مجموعة إجرامية مالية استغلت أداة «مايكروسوفت كويك أسست» (Windows Quick Assist). قامت المجموعة بانتحال صفة موظفي الدعم التقني واستخدمت تقنيات «التصيّد الصوتي» (vishing) لخداع الضحايا ومنحهم صلاحية الوصول عن بُعد.

أوضحت «مايكروسوفت» أن «Quick Assist» لم يتعرض للاختراق، وإنما تم استغلال وظيفته المشروعة. استجابت الشركة بإضافة رسائل تحذيرية ضمن الأداة، وتقوم الآن بحظر أكثر من 4400 محاولة اتصال مشبوهة يومياً، أي ما يعادل 5.46 في المائة من إجمالي الجلسات عالمياً.

ولتقليل المخاطر، توصي «مايكروسوفت» باستخدام أداة «ريموت هيلب» (Remote Help) للدعم التقني في المؤسسات، حيث تُستخدم داخلياً ضمن بيئة المؤسسة وتوفر مستوى أمان أعلى.

يُستخدم الذكاء الاصطناعي من قِبل المحتالين لإنشاء مواقع وهمية تقييمات مزيفة مقابلات عمل غير حقيقية ومقاطع فيديو مزيفة (شاترستوك)

تدابير على مستوى المؤسسات

تمتد بنية «مايكروسوفت» لمكافحة الاحتيال لتشمل أدوات متعددة، منها «مايكروسوفت ديفندر فور كلاود» (Microsoft Defender for Cloud) الذي يراقب موارد «أزور» (Azure) ويكشف عن الثغرات والتهديدات. كذلك «مايكروسوفت إيدج» (Microsoft Edge) الذي يحظر المواقع الاحتيالية ويكشف عن محاولات انتحال الهوية. أما البصمة الرقمية «ديجيتال فنغربرينتينغ» (Digital Fingerprinting)، فتستخدم الذكاء الاصطناعي والتعلم الآلي لرصد السلوك الاحتيالي في حين يحلل «مايكروسوفت ديفندر سمارت سكرين» (Microsoft Defender SmartScreen) سلوك المواقع وسمعتها لحظر الروابط الضارة.

من خلال تقنيات الكشف المدعومة بالذكاء الاصطناعي وإشارات الاحتيال اللحظية، تعمل «مايكروسوفت» على إيقاف البنية التحتية الخبيثة بسرعة. كما يتعاون فريق الجرائم الرقمية التابع لها مع سلطات إنفاذ القانون حول العالم لتفكيك الشبكات الإجرامية؛ ما أسفر عن مئات الاعتقالات والإجراءات القانونية.

الاحتيال في الوظائف والعروض المزيفة

يستغل المحتالون الذكاء الاصطناعي لتوليد إعلانات وظائف مزيفة وسير ذاتية ومقابلات عمل وهمية. لمكافحة ذلك؛ تنصح مايكروسوفت بتفعيل المصادقة متعددة العوامل لحسابات أصحاب العمل والتحقق من هوية أصحاب العمل عبر مواقعهم الرسمية. أيضاً توصي بالحذر من العروض التي تتطلب دفعاً أو التي تُرسل من عناوين بريدية غير موثوقة والانتباه لمؤشرات المقابلات المزيفة مثل عدم التزامن بين الصوت والصورة، أو الكلام المتقطع. وتدمج «مايكروسوفت» الوقاية من الاحتيال في عملية تطوير منتجاتها. وبدءاً من يناير (كانون الثاني) 2025، تُلزم مبادرة «Secure Future Initiative» جميع الفرق بتضمين تقييمات لمخاطر الاحتيال ضمن مراحل تصميم المنتجات.

نصائح لحماية المستهلكين

تنصح «مايكروسوفت» المستخدمين باتباع الخطوات التالية لحماية بياناتهم:

- الحذر من العروض العاجلة أو «لفترة محدودة»

- التحقق من عناوين المواقع قبل النقر على الروابط

- تجنب التحويلات البنكية المباشرة أو الدفع بالعملات الرقمية

- التأكد من مصداقية أصحاب العمل وعدم مشاركة معلومات شخصية أو مالية دون تحقق

تتطور مقاربة «مايكروسوفت» لمكافحة الاحتيال بتطور التهديدات. وفي وقت أصبح فيه الذكاء الاصطناعي سلاحاً بيد كل من المهاجمين والمدافعين، تتبنى الشركة موقفاً واضحاً، وهو تطوير منتجات مضادة للاحتيال بطبيعتها، وتزويد المستخدمين بالأدوات والمعرفة التي يحتاجون إليها للبقاء آمنين.


مقالات ذات صلة

عمالقة التكنولوجيا يخططون لاستثمار 60 مليار دولار في «أوبن إيه آي»

الاقتصاد الصفحة الرئيسية لـ«تشات جي بي تي» تظهر عليها عبارة «مرحباً بكم في أوبن إيه آي» - بافاريا (د.ب.أ)

عمالقة التكنولوجيا يخططون لاستثمار 60 مليار دولار في «أوبن إيه آي»

ذكرت صحيفة «ذا إنفورميشن» يوم الأربعاء، أن شركات «إنفيديا» و«أمازون» و«مايكروسوفت» تُجري محادثات لاستثمار ما يصل إلى 60 مليار دولار في شركة «أوبن إيه آي».

«الشرق الأوسط» (نيويورك)
الاقتصاد شعارات لعدد من شركات التكنولوجيا (أ.ب)

ذكاء اصطناعي أم استنزاف مالي؟ المستثمرون يحاكمون عمالقة التكنولوجيا

هذا الأسبوع، وجّه المستثمرون رسالة صارمة لعمالقة التكنولوجيا: لم يعد الإنفاق الملياري وحده كافياً، بل يجب أن يقترن بنمو حقيقي وملموس.

«الشرق الأوسط» (واشنطن)
الاقتصاد شعار «مايكروسوفت» خلال معرض هانوفر 2025 (رويترز)

«مايكروسوفت» تهوي 6.5 % بعد إنفاق قياسي على الذكاء الاصطناعي ونمو سحابي مخيب

قالت شركة «مايكروسوفت» يوم الأربعاء إنها أنفقت مبلغاً قياسياً على الذكاء الاصطناعي في الربع الأخير، وسجَّلت نمواً أبطأ في مجال الحوسبة السحابية.

«الشرق الأوسط» (واشنطن)
تكنولوجيا أوضحت شركة «مايكروسوفت» أن الشريحة «مايا 200» الجديدة ستبدأ العمل هذا الأسبوع بمركز بيانات بولاية أيوا الأميركية مع خطط لموقع ثان في أريزونا (د.ب.أ)

«مايكروسوفت» تكشف عن «مايا 200»... الجيل الثاني من شرائحها للذكاء الاصطناعي

كشفت «مايكروسوفت» الاثنين عن الجيل الثاني من شريحة الذكاء الاصطناعي التي تنتجها داخل الشركة «مايا 200».

«الشرق الأوسط» (سان فرانسيسكو)
الاقتصاد إيلون ماسك يحضر مراسم تأبين الناشط المحافظ تشارلي كيرك في سبتمبر الماضي (أ.ب)

ماسك يطالب «أوبن إيه آي» و«مايكروسوفت» بـ134 مليار دولار تعويضات

بدأ الملياردير إيلون ماسك فصلاً جديداً وأكثر حدة في صراعه القضائي ضد شركة «أوبن إيه آي» وشريكتها الاستراتيجية «مايكروسوفت».

«الشرق الأوسط» (واشنطن)

خبراء ينصحون بإبعاد الأطفال عن الدمى الناطقة بالذكاء الاصطناعي

شخصية «باز لايت يير» (بيكساباي)
شخصية «باز لايت يير» (بيكساباي)
TT

خبراء ينصحون بإبعاد الأطفال عن الدمى الناطقة بالذكاء الاصطناعي

شخصية «باز لايت يير» (بيكساباي)
شخصية «باز لايت يير» (بيكساباي)

مع أفلام مغامرات «حكاية لعبة» الشيّقة، إلى حركات «تيد» الطفولية، أصبحت فكرة الدمى والدببة المحشوة، التي تدب فيها الحياة فكرةً سينمائيةً مبتذلة.

وبينما أتاحت التطورات الحديثة في مجال الذكاء الاصطناعي إمكانية صنع ألعاب تبدو واعية، فإنها تبدو أقرب إلى شخصيات شريرة مثل المهرج في فيلم «بولترجايست» وشخصية «تشاكي» في فيلم «لعبة طفل» منها إلى شخصيتَي «وودي» و«باز لايت يير».

ووفقاً لمنظمة «كومن سينس ميديا»، الأميركية غير الحكومية المعنية بمراقبة السلع الإلكترونية الاستهلاكية، فإن الدمى وألعاب الأطفال التي تعمل بالذكاء الاصطناعي تقول كلاماً غير لائق للأطفال، وتنتهك خصوصية المنزل من خلال جمع بيانات واسعة النطاق.

يقول روبي تورني، رئيس قسم التقييمات الرقمية في «كومن سينس»: «أظهر تقييمنا للمخاطر أن دمى الذكاء الاصطناعي تشترك في مشكلات جوهرية تجعلها غير مناسبة للأطفال الصغار».

ويقول تورني: «أكثر من رُبع المنتجات تتضمَّن محتوى غير لائق، مثل الإشارة إلى إيذاء النفس، والمخدرات، والسلوكيات الخطرة»، مشيراً إلى أن هذه الأجهزة تستلزم «جمع بيانات مكثف»، وتعتمد على «نماذج اشتراك تستغل الروابط العاطفية».

ووفقاً لمنظمة «كومن سينس»، تستخدم بعض هذه الألعاب «آليات ترابط لخلق علاقات شبيهة بالصداقة»، محذِّرة من أن هذه الأجهزة في الوقت نفسه «تجمع بيانات واسعة النطاق في المساحات الخاصة بالأطفال»، بما في ذلك التسجيلات الصوتية، والنصوص المكتوبة، و«البيانات السلوكية».

وتؤكد «كومن سينس» ضرورة عدم وجود أي طفل دون سن الخامسة بالقرب من لعبة ذكاء اصطناعي، وأنَّ على الآباء توخي الحذر فيما يتعلق بالأطفال الذين تتراوح أعمارهم بين 6 و12 عاماً.

ويقول جيمس ستاير، مؤسِّس ورئيس منظمة «كومن سينس»: «ما زلنا نفتقر إلى ضمانات فعّالة لحماية الأطفال من الذكاء الاصطناعي»، مقارِناً بين غياب هذه الحماية و«الاختبارات الصارمة» للسلامة والملاءمة التي تخضع لها الألعاب الأخرى قبل الموافقة على طرحها للبيع.


بالخطأ... منصة في كوريا الجنوبية توزع «بتكوين» بقيمة 44 مليار دولار

شعار منصة تداول العملات المشفرة الكورية الجنوبية «بيثامب» (رويترز)
شعار منصة تداول العملات المشفرة الكورية الجنوبية «بيثامب» (رويترز)
TT

بالخطأ... منصة في كوريا الجنوبية توزع «بتكوين» بقيمة 44 مليار دولار

شعار منصة تداول العملات المشفرة الكورية الجنوبية «بيثامب» (رويترز)
شعار منصة تداول العملات المشفرة الكورية الجنوبية «بيثامب» (رويترز)

كشفت منصة تداول العملات المشفرة الكورية الجنوبية «بيثامب»، اليوم السبت، عن أنها وزعت عملات «بتكوين» بقيمة تتجاوز 40 مليار دولار على عملاء بوصفها مكافآت ترويجية عن طريق الخطأ، ما أدى إلى موجة بيع حادة على المنصة.

واعتذرت «‌بيثامب» عن ‌الخطأ الذي ‌وقع ⁠أمس ​الجمعة، ‌وقالت إنها استعادت 99.7 في المائة من إجمالي 620 ألف «بتكوين» بقيمة تبلغ نحو 44 مليار دولار بالأسعار الحالية. وقيدت عمليات التداول والسحب ⁠على 695 عميلاً متأثراً بالواقعة في ‌غضون 35 دقيقة ‍من التوزيع ‍الخاطئ أمس.

وأفادت تقارير إعلامية بأن ‍المنصة كانت تعتزم توزيع مكافآت نقدية صغيرة في حدود 2000 وون كوري (1.40 دولار) ​أو أكثر لكل مستخدم في إطار حدث ترويجي، لكن ⁠الفائزين حصلوا بدلاً من ذلك على ألفي «بتكوين» على الأقل لكل منهم.

وقالت «‌بيثامب» في بيان: «نود أن نوضح أن هذا لا علاقة له بقرصنة خارجية أو انتهاكات أمنية، ولا توجد مشاكل في أمن النظام ‌أو إدارة أصول العملاء».


«مدمّر ستارلينك» المحتمل... خطوة تقنية صينية تفتح الباب أمام تعطيل الأقمار الاصطناعية

صورة مركبة لنموذج قمر اصطناعي مع خلفية لكوكب الأرض (رويترز)
صورة مركبة لنموذج قمر اصطناعي مع خلفية لكوكب الأرض (رويترز)
TT

«مدمّر ستارلينك» المحتمل... خطوة تقنية صينية تفتح الباب أمام تعطيل الأقمار الاصطناعية

صورة مركبة لنموذج قمر اصطناعي مع خلفية لكوكب الأرض (رويترز)
صورة مركبة لنموذج قمر اصطناعي مع خلفية لكوكب الأرض (رويترز)

طوّر علماء صينيون مولّد طاقة فائق القوة وصغير الحجم، في خطوة تمهّد الطريق لتطوير أسلحة من الجيل القادم قد تُستخدم يوماً ما ضد أسراب الأقمار الاصطناعية، مثل كوكبة «ستارلينك» التابعة لشركة «سبيس إكس»، وذلك وفقاً لما أوردته صحيفة «إندبندنت».

وخلال السنوات الأخيرة، اكتسبت أسلحة الموجات الدقيقة عالية الطاقة اهتماماً متزايداً بوصفها بديلاً منخفض التكلفة للصواريخ والبنادق التقليدية، نظراً لقدرتها شبه غير المحدودة على إطلاق النبضات.

وفي هذا السياق، يُجري باحثون في الولايات المتحدة، وروسيا، والصين على وجه الخصوص، دراسات مكثفة حول إمكانية تطوير هذه التقنية إلى أسلحة طاقة موجهة قادرة على تعطيل الأقمار الاصطناعية.

ويُعدّ تدمير قمر اصطناعي في الفضاء مهمة بالغة التعقيد، إذ من المرجح أن تُخلّف الأسلحة التقليدية كميات كبيرة من الحطام المداري، ما قد يؤدي إلى عواقب غير متوقعة، بما في ذلك تهديد الأقمار الاصطناعية التابعة للدولة المنفذة نفسها.

ومن الناحية النظرية، يمكن لأسلحة الموجات الدقيقة تعطيل الأقمار الاصطناعية مع توليد قدر محدود من الحطام، فضلاً عن إتاحة قدر من «الإنكار المعقول»، وهو ما يمنحها ميزة استراتيجية واضحة.

وتعتمد هذه الأسلحة على مبدأ تخزين الطاقة الكهربائية ثم إطلاقها دفعة واحدة على شكل نبضة قوية، على غرار آلية عمل ملف تسلا.

وتُستخدم هذه النبضة الهائلة من الطاقة في تشغيل مولدات الموجات الدقيقة، التي تعمل بدورها على تعطيل الأنظمة، والأجهزة الإلكترونية.

شاشة تظهر إيلون ماسك وشعار شركة «ستارلينك» (رويترز)

وحتى وقت قريب، كانت غالبية النماذج الأولية لهذه المولدات النبضية ضخمة الحجم، إذ بلغ طولها 10 أمتار على الأقل، ووزنها أكثر من 10 أطنان، ما جعل دمجها في أنظمة الأسلحة الصغيرة أو المتحركة أمراً بالغ الصعوبة.

غير أنّ دراسة حديثة أجراها علماء صينيون من معهد شمال غربي الصين للتكنولوجيا النووية (NINT) أظهرت تقدماً ملحوظاً في هذا المجال، حيث استخدم الباحثون مادة عازلة سائلة خاصة تُعرف باسم «ميدل 7131»، ما أتاح تحقيق كثافة أعلى لتخزين الطاقة، وعزلاً أكثر قوة، وتقليلاً لفقدان الطاقة، وأسهم في تصميم جهاز أصغر حجماً، وأكثر كفاءة.

وكتب العلماء في الدراسة المنشورة: «من خلال استخدام مادة عازلة سائلة عالية الكثافة للطاقة تُعرف باسم (ميدل 7131)، إلى جانب خط تشكيل نبضات مزدوج العرض، تمكنت الدراسة من تصغير حجم محول تسلا المتكامل، ونظام تشكيل النبضات».

وبحسب الدراسة، يبلغ طول الجهاز الجديد أربعة أمتار فقط (13 قدماً)، ويزن خمسة أطنان، ما يجعله أول جهاز تشغيل صغير الحجم في العالم لسلاح الميكروويف عالي الطاقة.

ويُعرف هذا الجهاز باسم TPG1000Cs، وهو صغير بما يكفي ليُثبت على الشاحنات، والطائرات، بل وحتى على أقمار اصطناعية أخرى، وفقاً لما أفاد به الباحثون.

وأشار الباحثون إلى أن «النظام أظهر استقراراً في التشغيل لمدة دقيقة واحدة متواصلة، حيث جُمعت نحو 200 ألف نبضة بأداء ثابت».

ويؤكد خبراء أن سلاح ميكروويف أرضياً بقدرة تتجاوز 1 غيغاواط (GW) سيكون قادراً على تعطيل وتدمير آلية عمل أقمار «ستارلينك» الاصطناعية في مدارها بشكل كبير.

وذكر الباحثون، بحسب ما نقلته صحيفة «ساوث تشاينا مورنينغ بوست»، أن جهاز TPG1000Cs قادر على توليد نبضات كهربائية فائقة القوة تصل إلى 20 غيغاواط.

وتأتي هذه التطورات في وقت نشرت فيه الصين عدداً من الدراسات التي تشدد على ضرورة إيجاد وسائل فعالة لتعطيل أقمار «ستارلينك» الاصطناعية التابعة لرجل الأعمال إيلون ماسك.