«مايكروسوفت» تتصدى لـ1.6 مليون محاولة اختراق أمني في الساعة

خوارزميات ذكية في المعركة ضد الاحتيال السيبراني

تُستخدم أدوات الذكاء الاصطناعي لإنشاء متاجر إلكترونية وهمية في دقائق ما يزيد صعوبة التمييز بينها وبين الحقيقية (شاترستوك)
تُستخدم أدوات الذكاء الاصطناعي لإنشاء متاجر إلكترونية وهمية في دقائق ما يزيد صعوبة التمييز بينها وبين الحقيقية (شاترستوك)
TT

«مايكروسوفت» تتصدى لـ1.6 مليون محاولة اختراق أمني في الساعة

تُستخدم أدوات الذكاء الاصطناعي لإنشاء متاجر إلكترونية وهمية في دقائق ما يزيد صعوبة التمييز بينها وبين الحقيقية (شاترستوك)
تُستخدم أدوات الذكاء الاصطناعي لإنشاء متاجر إلكترونية وهمية في دقائق ما يزيد صعوبة التمييز بينها وبين الحقيقية (شاترستوك)

أضحى الذكاء الاصطناعي أداةً يُحتفى بها بقدر ما يُساء استخدامها. وتسعى «مايكروسوفت» إلى تعزيز التزامها بحماية بيئتها الرقمية من خلال استراتيجية متعددة الأبعاد لمكافحة الاحتيال والانتهاكات السيبرانية. وفي تقريرها الأخير بعنوان «إشارات سيبرانية» (Cyber Signals)، كشفت الشركة عن حجم التهديدات التي واجهتها بين أبريل (نيسان) 2024 وأبريل 2025، وكذلك عن الدفاعات الواسعة التي نشرتها للتصدي لها.

خلال هذه الفترة، نجحت «مايكروسوفت» في إحباط محاولات احتيال بقيمة 4 مليارات دولار، ورفضت 49 ألف طلب شراكة احتيالي، وحجبت نحو 1.6 مليون محاولة تسجيل عبر الروبوتات في الساعة الواحدة. يركز تقرير هذا العام على كيفية تغيير الذكاء الاصطناعي طبيعة الاحتيال، ليس فقط من حيث التعقيد، بل من حيث سهولة الوصول إليه أيضاً. إذ يستخدم مجرمو الإنترنت أدوات الذكاء الاصطناعي لصناعة عمليات احتيال أكثر إقناعاً، بسرعة أكبر وبتكلفة أقل. ووفقاً لـ«مايكروسوفت»، فإن جزءاً كبيراً من هذا النشاط ينطلق من أسواق رقمية رئيسية مثل الصين وألمانيا؛ نظراً لحجم التجارة الإلكترونية فيهما.

تصاعد الاحتيال المدعوم بالذكاء الاصطناعي

أصبح الذكاء الاصطناعي يخفض الحواجز أمام الجرائم السيبرانية. فبفضل أدوات قادرة على تصفح الإنترنت لاستخلاص بيانات حساسة عن الشركات وموظفيها، يمكن للمهاجمين تصميم حملات هندسة اجتماعية معقدة. تشمل هذه الحملات مواقع تجارة إلكترونية وهمية، وشعارات مقلدة، وتقييمات مزيفة، وحتى روبوتات دعم عملاء تستند إلى الذكاء الاصطناعي قادرة على خداع المستخدمين.

كما يستغل المحتالون الذكاء الاصطناعي لإنتاج مقاطع فيديو مزيفة (Deepfakes)، واستنساخ الأصوات، وإرسال رسائل تصيُّد إلكتروني يصعب التفرقة بينها وبين الرسائل الحقيقية. تنتشر كذلك عروض وظائف مزيفة ومقابلات عمل وهمية باستخدام تقنيات توليد النصوص والصور، مستهدفة الباحثين عن العمل.

أطلقت «مايكروسوفت» سياسة جديدة تُلزم فرق التطوير بتضمين تقييمات لمخاطر الاحتيال ضمن مراحل تصميم المنتجات (شاترستوك)

الاحتيال في التجارة الإلكترونية

تشير «مايكروسوفت» إلى تصاعد إنشاء متاجر إلكترونية احتيالية في دقائق معدودة باستخدام أدوات الذكاء الاصطناعي مقارنةً بالأيام أو الأسابيع التي كانت تحتاج إليها سابقاً. تقوم هذه المتاجر بتقليد علامات تجارية معروفة، وإنتاج أوصاف وصور واقعية للمنتجات، وحتى استخدام روبوتات دردشة مدعومة بالذكاء الاصطناعي للتفاعل مع العملاء.

لمواجهة ذلك، عززت «مايكروسوفت» منتجاتها بإجراءات أمنية صارمة. على سبيل المثال، يتضمن «مايكروسوفت إيدج» (Microsoft Edge) الآن ميزة حماية من أخطاء الكتابة في عناوين المواقع، وحظر لانتحال النطاقات، بالإضافة إلى مانع صفحات التحذير الاحتيالية المبني على التعلم الآلي.

«الهندسة الاجتماعية» دون ذكاء اصطناعي

ليس كل أنواع الاحتيال تعتمد على الذكاء الاصطناعي. ففي أبريل 2024، رصدت فرق الأمان في «مايكروسوفت» نشاطاً متزايداً من مجموعة «Storm - 1811»، وهي مجموعة إجرامية مالية استغلت أداة «مايكروسوفت كويك أسست» (Windows Quick Assist). قامت المجموعة بانتحال صفة موظفي الدعم التقني واستخدمت تقنيات «التصيّد الصوتي» (vishing) لخداع الضحايا ومنحهم صلاحية الوصول عن بُعد.

أوضحت «مايكروسوفت» أن «Quick Assist» لم يتعرض للاختراق، وإنما تم استغلال وظيفته المشروعة. استجابت الشركة بإضافة رسائل تحذيرية ضمن الأداة، وتقوم الآن بحظر أكثر من 4400 محاولة اتصال مشبوهة يومياً، أي ما يعادل 5.46 في المائة من إجمالي الجلسات عالمياً.

ولتقليل المخاطر، توصي «مايكروسوفت» باستخدام أداة «ريموت هيلب» (Remote Help) للدعم التقني في المؤسسات، حيث تُستخدم داخلياً ضمن بيئة المؤسسة وتوفر مستوى أمان أعلى.

يُستخدم الذكاء الاصطناعي من قِبل المحتالين لإنشاء مواقع وهمية تقييمات مزيفة مقابلات عمل غير حقيقية ومقاطع فيديو مزيفة (شاترستوك)

تدابير على مستوى المؤسسات

تمتد بنية «مايكروسوفت» لمكافحة الاحتيال لتشمل أدوات متعددة، منها «مايكروسوفت ديفندر فور كلاود» (Microsoft Defender for Cloud) الذي يراقب موارد «أزور» (Azure) ويكشف عن الثغرات والتهديدات. كذلك «مايكروسوفت إيدج» (Microsoft Edge) الذي يحظر المواقع الاحتيالية ويكشف عن محاولات انتحال الهوية. أما البصمة الرقمية «ديجيتال فنغربرينتينغ» (Digital Fingerprinting)، فتستخدم الذكاء الاصطناعي والتعلم الآلي لرصد السلوك الاحتيالي في حين يحلل «مايكروسوفت ديفندر سمارت سكرين» (Microsoft Defender SmartScreen) سلوك المواقع وسمعتها لحظر الروابط الضارة.

من خلال تقنيات الكشف المدعومة بالذكاء الاصطناعي وإشارات الاحتيال اللحظية، تعمل «مايكروسوفت» على إيقاف البنية التحتية الخبيثة بسرعة. كما يتعاون فريق الجرائم الرقمية التابع لها مع سلطات إنفاذ القانون حول العالم لتفكيك الشبكات الإجرامية؛ ما أسفر عن مئات الاعتقالات والإجراءات القانونية.

الاحتيال في الوظائف والعروض المزيفة

يستغل المحتالون الذكاء الاصطناعي لتوليد إعلانات وظائف مزيفة وسير ذاتية ومقابلات عمل وهمية. لمكافحة ذلك؛ تنصح مايكروسوفت بتفعيل المصادقة متعددة العوامل لحسابات أصحاب العمل والتحقق من هوية أصحاب العمل عبر مواقعهم الرسمية. أيضاً توصي بالحذر من العروض التي تتطلب دفعاً أو التي تُرسل من عناوين بريدية غير موثوقة والانتباه لمؤشرات المقابلات المزيفة مثل عدم التزامن بين الصوت والصورة، أو الكلام المتقطع. وتدمج «مايكروسوفت» الوقاية من الاحتيال في عملية تطوير منتجاتها. وبدءاً من يناير (كانون الثاني) 2025، تُلزم مبادرة «Secure Future Initiative» جميع الفرق بتضمين تقييمات لمخاطر الاحتيال ضمن مراحل تصميم المنتجات.

نصائح لحماية المستهلكين

تنصح «مايكروسوفت» المستخدمين باتباع الخطوات التالية لحماية بياناتهم:

- الحذر من العروض العاجلة أو «لفترة محدودة»

- التحقق من عناوين المواقع قبل النقر على الروابط

- تجنب التحويلات البنكية المباشرة أو الدفع بالعملات الرقمية

- التأكد من مصداقية أصحاب العمل وعدم مشاركة معلومات شخصية أو مالية دون تحقق

تتطور مقاربة «مايكروسوفت» لمكافحة الاحتيال بتطور التهديدات. وفي وقت أصبح فيه الذكاء الاصطناعي سلاحاً بيد كل من المهاجمين والمدافعين، تتبنى الشركة موقفاً واضحاً، وهو تطوير منتجات مضادة للاحتيال بطبيعتها، وتزويد المستخدمين بالأدوات والمعرفة التي يحتاجون إليها للبقاء آمنين.


مقالات ذات صلة

بعد اعتذاره... ما حدود علاقة بيل غيتس بجيفري إبستين؟

الولايات المتحدة​ الملياردير الأميركي بيل غيتس (أ.ف.ب) p-circle

بعد اعتذاره... ما حدود علاقة بيل غيتس بجيفري إبستين؟

ذكرت تقارير صحافية أميركية أن الملياردير بيل غيتس، مؤسس «مايكروسوفت»، اعتذر لموظفي مؤسسته الخيرية، خلال اجتماع عام، عن علاقته بجيفري إبستين المدان بجرائم جنسية.

«الشرق الأوسط»
الولايات المتحدة​ صورة من تركة جيفري إبستين لمؤسس شركة مايكروسوفت بيل غيتس وهو يقف مع امرأة تم إخفاء وجهها (ا.ف.ب)

بيل غيتس سيتحمل «مسؤولية أفعاله» جراء صلاته بإبستين

غيتس أقر للموظفين بأنه كان خطأ فادحا قضاء الوقت مع إبستين وإحضار مسؤولي المؤسسة إلى اجتماعات معه.

«الشرق الأوسط» (نيويورك)
العالم الملياردير الأميركي بيل غيتس (رويترز)

بيل غيتس ينسحب من قمة للذكاء الاصطناعي بالهند وسط تدقيق في قضية إبستين

انسحب الملياردير الأميركي بيل غيتس من قمة «تأثير الذكاء الاصطناعي» في الهند، قبل ساعات من ​إلقاء كلمته بها، اليوم الخميس.

«الشرق الأوسط» (نيودلهي)
الاقتصاد عمال يجلسون أمام لافتة «قمة تأثير الذكاء الاصطناعي» في الهند في بهارات ماندابام في نيودلهي (رويترز)

بمشاركة عمالقة التكنولوجيا... الهند تستضيف قمة دولية للذكاء الاصطناعي

يشارك مسؤولون تنفيذيون من شركات ذكاء اصطناعي عالمية كبرى، وعدد من قادة العالم، في قمة مهمة عن الذكاء الاصطناعي تستضيفها نيودلهي.

«الشرق الأوسط» (نيودلهي )
الاقتصاد من حفل توقيع مذكرة التفاهم التي تهدف لتسريع تطوير المهارات الرقمية والتقنية في السعودية (أرامكو)

تفاهم بين «أرامكو» و«مايكروسوفت» لتطوير الذكاء الاصطناعي في القطاع الصناعي

وقّعت «أرامكو السعودية» مذكرة تفاهم غير ملزمة مع «مايكروسوفت»؛ لمساعدة الأولى على استكشاف مبادرات رقمية مصممة لتسريع تبنّي الذكاء الاصطناعي في القطاع الصناعي.

«الشرق الأوسط» (الظهران)

«أبل» تعتزم فتح «سيري» أمام خدمات الذكاء الاصطناعي المنافِسة

يظهر شعار شركة «أبل» على مبنى في حي مانهاتن بمدينة نيويورك الأميركية (د.ب.أ)
يظهر شعار شركة «أبل» على مبنى في حي مانهاتن بمدينة نيويورك الأميركية (د.ب.أ)
TT

«أبل» تعتزم فتح «سيري» أمام خدمات الذكاء الاصطناعي المنافِسة

يظهر شعار شركة «أبل» على مبنى في حي مانهاتن بمدينة نيويورك الأميركية (د.ب.أ)
يظهر شعار شركة «أبل» على مبنى في حي مانهاتن بمدينة نيويورك الأميركية (د.ب.أ)

ذكرت «بلومبيرغ نيوز»، اليوم الخميس، أن «أبل» تخطط لفتح مساعدها الصوتي «سيري» أمام خدمات ​الذكاء الاصطناعي المنافِسة، بما يتجاوز شراكتها الحالية مع «تشات جي بي تي».

وقالت الوكالة، في تقريرها الذي نقلته عن مصادر مطّلعة، إن هذه الخطوة، المتوقعة ضِمن تحديث نظام التشغيل «آي أو إس 27» من «أبل»، ستسمح لتطبيقات الذكاء الاصطناعي التابعة لجهات خارجية بالاندماج مباشرة مع «سيري»، مما يمكّن المستخدمين من توجيه الاستفسارات إلى خدمات مثل «جيميناي» التابعة لشركة «ألفابت»، أو «كلود» التابعة لشركة «أنثروبيك» من داخل المساعد.

وهذا التغيير تحول مهم في استراتيجية «أبل» للذكاء الاصطناعي، إذ تسعى الشركة إلى اللحاق بركب نظيراتها في وادي السيليكون، ووضع «آيفون» كمنصة أوسع للذكاء الاصطناعي.

و«سيري»، الذي أُطلق لأول مرة منذ أكثر من عقد، عنصر أساسي في هذا المسعى. وأفادت «بلومبيرغ نيوز» بأن «أبل» تُطور أدوات تسمح لتطبيقات روبوتات الدردشة المثبتة عبر متجر التطبيقات الخاص بها بالعمل مع «سيري» وميزات أخرى ضِمن منصة «أبل إنتليجنس». وسيتمكن المستخدمون من اختيار خدمة الذكاء الاصطناعي التي تتولى معالجة كل طلب.

وذكر التقرير أن هذا التحديث قد يساعد «أبل» أيضاً على تحقيق مزيد من الإيرادات من خلال الحصول على حصة من الاشتراكات المبيعة عبر خدمات الذكاء الاصطناعي التابعة لجهات خارجية.

ومن المتوقع أن تستعرض «أبل» ميزات البرنامج الجديدة في مؤتمر المطورين العالمي الذي تعقده في يونيو (حزيران) المقبل، غير أن الخطط قد تتغير.


البرلمان الأوروبي يحظر أدوات ذكاء اصطناعي «تعرّي» أشخاصاً

شعار روبوت الدردشة «غروك» يظهر على شاشتين (أ.ف.ب)
شعار روبوت الدردشة «غروك» يظهر على شاشتين (أ.ف.ب)
TT

البرلمان الأوروبي يحظر أدوات ذكاء اصطناعي «تعرّي» أشخاصاً

شعار روبوت الدردشة «غروك» يظهر على شاشتين (أ.ف.ب)
شعار روبوت الدردشة «غروك» يظهر على شاشتين (أ.ف.ب)

أقرّ البرلمان الأوروبي، الخميس، قانوناً يحظّر استخدام الذكاء الاصطناعي لـ«تعرية» الأشخاص من دون موافقتهم.

وتمّ تبني القرار في نصّ أُقرّ بأغلبية ساحقة (569 صوتاً مقابل 45 صوتاً معارضاً) خلال جلسة عامة للبرلمان في بروكسل، وفقاً لـ«وكالة الصحافة الفرنسية».

وأوضح بيان صادر عن البرلمان أن الأمر يتعلّق بحظر برامج «التعرية» التي «تستخدم الذكاء الاصطناعي لإنشاء أو التلاعب بصور ذات إيحاءات جنسية واضحة، أو صور في وضع حميم تشبه شخصاً حقيقياً يمكن التعرّف عليه، من دون موافقة هذا الشخص».

ولا يطبّق النص على أنظمة الذكاء الاصطناعي المزوّدة «بتدابير أمنية فعّالة» تحول دون هذه الممارسات.

وكانت دول الاتحاد الأوروبي أقرّت هذا الشهر إجراء مشابهاً. وسيتعيّن عليها الآن التفاوض مع البرلمان للتوصل إلى صياغة متقاربة، قبل أن يصبح من الممكن تطبيق الإجراء.

وتأتي هذه المبادرات خصوصاً بعد إدخال خاصية قبل بضعة أشهر في تطبيق «غروك» للذكاء الاصطناعي تتيح للمستخدمين أن يطلبوا منه تركيب صور مزيفة قريبة جداً من الواقعية (ديب فيك) لنساء وأطفال عراة، انطلاقاً من صور حقيقية.

وأثارت هذه القضية موجة استنكار في العديد من الدول ودفعت الاتحاد الأوروبي إلى فتح تحقيق.

كما وافق البرلمان في النص ذاته، على إرجاء دخول قوانين أوروبية جديدة حيّز التنفيذ بشأن أنظمة الذكاء الاصطناعي ذات المخاطر العالية، أي تلك العاملة في مجالات حساسة كالأمن أو الصحة أو الحقوق الأساسية.

وكان من المفترض أن تدخل هذه القواعد حيّز التنفيذ في أغسطس (آب) 2026. وعلى غرار الدول الأعضاء، اقترح النواب الأوروبيون تاريخين محدّدين لهذا التأجيل، في حين كانت المفوضية الأوروبية تريد منح الشركات جدولاً زمنياً أكثر مرونة.

والتاريخان هما: الثاني من ديسمبر (كانون الأول) 2027 للأنظمة المستقلة ذات المخاطر العالية، والثاني من أغسطس (آب) 2028 للأنظمة المدمجة في برامج أو منتجات أخرى.


«هيوماين» و«Turing» تطلقان سوقاً عالمية لوكلاء الذكاء الاصطناعي للمؤسسات

تجمع الشراكة بين البنية التحتية والنماذج لدى «هيوماين» وخبرة «Turing» في تطوير وتقييم أنظمة الذكاء الاصطناعي (هيوماين)
تجمع الشراكة بين البنية التحتية والنماذج لدى «هيوماين» وخبرة «Turing» في تطوير وتقييم أنظمة الذكاء الاصطناعي (هيوماين)
TT

«هيوماين» و«Turing» تطلقان سوقاً عالمية لوكلاء الذكاء الاصطناعي للمؤسسات

تجمع الشراكة بين البنية التحتية والنماذج لدى «هيوماين» وخبرة «Turing» في تطوير وتقييم أنظمة الذكاء الاصطناعي (هيوماين)
تجمع الشراكة بين البنية التحتية والنماذج لدى «هيوماين» وخبرة «Turing» في تطوير وتقييم أنظمة الذكاء الاصطناعي (هيوماين)

في خطوة تعكس تسارع الاهتمام بتطبيقات الذكاء الاصطناعي داخل المؤسسات، أعلنت «هيوماين»، التابعة لصندوق الاستثمارات العامة، عن شراكة مع شركة «Turing» المتخصصة في تطوير أنظمة الذكاء الاصطناعي، بهدف إنشاء سوق عالمية لوكلاء الذكاء الاصطناعي ضمن منصة «HUMAIN ONE».

وتتمحور الفكرة حول توفير بيئة تمكّن الشركات من اكتشاف هذه الوكلاء وتطبيقها وتوسيع استخدامها عبر وظائف مختلفة، مثل الموارد البشرية والمالية والعمليات، في محاولة لتسريع الانتقال من استخدام أدوات رقمية تقليدية إلى نماذج تشغيل أكثر اعتماداً على الأتمتة الذكية.

يفتح المشروع المجال أمام المطورين لنشر حلولهم وبناء منظومة أوسع لما يُعرف بـ«اقتصاد الوكلاء» (شاترستوك)

منصات التشغيل الذكي

الشراكة تجمع بين ما تطوره «هيوماين» من بنية تحتية ونماذج ذكاء اصطناعي، وبين خبرة «Turing» في تقييم النماذج وضبطها وتطبيقها في بيئات العمل. الهدف المعلن هو الوصول إلى وكلاء ذكاء اصطناعي يمكن استخدامها على نطاق واسع داخل المؤسسات، وليس فقط في التجارب أو النماذج الأولية.

ويُتوقع أن يشكّل هذا السوق طبقة جديدة ضمن ما يُعرف بنماذج التشغيل القائمة على الوكلاء، حيث لا تقتصر البرمجيات على دعم سير العمل، بل تبدأ في تنفيذه بشكل مباشر. وفي هذا السياق، يمكن للمؤسسات الوصول إلى وكلاء متخصصين حسب الوظيفة أو القطاع، ضمن بيئة مصممة لتكون قابلة للتوسع ومراعية لمتطلبات الأمان.

كما يفتح هذا التوجه المجال أمام المطورين وشركات التقنية لنشر حلولهم عبر المنصة، ما قد يساهم في بناء منظومة أوسع لوكلاء الذكاء الاصطناعي، تتجاوز حدود المؤسسات الفردية إلى سوق أكثر تكاملاً.

وتشير «هيوماين» إلى أن هذه الخطوة تأتي ضمن رؤية أوسع لإعادة تعريف كيفية بناء البرمجيات واستخدامها داخل المؤسسات، عبر الانتقال من نموذج «البرمجيات كخدمة» إلى بيئات تعتمد على وكلاء قادرين على تنفيذ المهام والتعلم والتفاعل بشكل مستمر.

يعكس هذا التوجه تحولاً نحو نماذج تشغيل جديدة تعتمد على وكلاء أذكياء بدلاً من البرمجيات التقليدية داخل المؤسسات

اقتصاد الوكلاء الناشئ

من جانبه، يرى طارق أمين، الرئيس التنفيذي لـ«هيوماين»، أن المرحلة المقبلة ستشهد تحولاً في طبيعة البرمجيات المستخدمة داخل المؤسسات، قائلاً إن «المؤسسات في المستقبل لن تُبنى حول تطبيقات منفصلة، بل حول وكلاء أذكياء يعملون إلى جانب الإنسان». ويضيف أن هذه الشراكة تسعى إلى تسريع بناء سوق يربط بين قدرات المطورين واحتياجات المؤسسات.

بدوره، أشار جوناثان سيدهارث، الرئيس التنفيذي والشريك المؤسس لـ«Turing»، إلى أن تحويل قدرات الذكاء الاصطناعي المتقدمة إلى تطبيقات عملية يمثل التحدي الأساسي حالياً، موضحاً أن بناء سوق قائم على الوكلاء قد يسهم في جعل هذه التقنيات أكثر ارتباطاً بالإنتاجية الفعلية داخل المؤسسات.

وتأتي هذه الشراكة أيضاً في سياق أوسع يعكس طموح السعودية لتكون لاعباً في تطوير تقنيات الذكاء الاصطناعي، ليس فقط من حيث الاستخدام، بل كمصدر للمنصات والحلول التقنية.

وبينما لا تزال فكرة «اقتصاد الوكلاء» في مراحل مبكرة، فإن الاتجاه نحو بناء منصات تجمع بين المطورين والمؤسسات يشير إلى تحول محتمل في طريقة تطوير البرمجيات وتبنيها. فبدلاً من شراء أدوات جاهزة، قد تتجه المؤسسات مستقبلاً إلى تشغيل منظومات من الوكلاء القادرين على تنفيذ مهام متكاملة عبر مختلف أقسام العمل.

في هذا الإطار، تبدو «HUMAIN ONE» محاولة لبناء هذه الطبقة التشغيلية الجديدة، حيث لا تقتصر القيمة على التكنولوجيا نفسها، بل على كيفية تنظيمها وتكاملها داخل بيئات العمل.