الذكاء الاصطناعي يدفع حيل الهندسة الاجتماعية نحو مستويات مخيفة

تعزيز الوعي السيبراني وتوظيف أدوات تقنية مطورة لمقاومتها

الذكاء الاصطناعي يدفع حيل الهندسة الاجتماعية نحو مستويات مخيفة
TT

الذكاء الاصطناعي يدفع حيل الهندسة الاجتماعية نحو مستويات مخيفة

الذكاء الاصطناعي يدفع حيل الهندسة الاجتماعية نحو مستويات مخيفة

تمثل الهندسة الاجتماعية أحد أقوى أشكال الجرائم السيبرانية وأكثرها استمراراً.

وثمة سبب يقف وراء الانتشار الواسع للهندسة الاجتماعية في أوساط مجرمي الإنترنت، إذ إن اختراق بيانات الأشخاص أسهل بكثير من اختراق البرامج الكومبيوترية. والهندسة الاجتماعية عبارة عن مجموعة من الحيل والتقنيات المستخدمة لخداع الناس.

خداع إلكتروني شخصي

ولكي يتمكن المرء من اختراق شبكات البرمجيات، فإنه بحاجة إلى فهم البيئة المستهدفة، وكيفية اكتشاف نقاط الضعف ورصد الثغرات - الأمر الذي يتطلب مهارات وموارد تكنولوجية كبيرة. وعلى الجهة المقابلة، نجد أن اختراق بيانات البشر يتطلب ببساطة معرفة أساسية بالطبيعة البشرية – بمعنى مدى قابليتنا للسقوط في شرك الجشع والشهوة والفضول ونفاد الصبر. وإذا نجحت في اختراق حسابات الشخص المناسب، أي كل شخص غير مدرك لإغراءات التصيُّد الاحتيالي وعلاماته المنذرة، فإنك تحصل حينها على مفاتيح المملكة المنشودة، ولا يجري اكتشاف نواياك غير المشروعة.

تلعب التكنولوجيا دوراً هي الأخرى، فكلما تطورت، زاد اعتمادنا عليها. إضافة لذلك، أصبح خداع البشر أسهل، ففي البداية، جرت عمليات الاحتيال عبر البريد الإلكتروني (التصيد الاحتيالي phishing)، ثم الرسائل النصية القصيرة (التصيد عبر الرسائل النصية القصيرة smishing)، تلاه «التصيد الصوتي» vishing، وبعد ذلك ظهرت اختراقات شبكات التواصل الاجتماعي، ثم اختراقات رموز الاستجابة السريعة المعروفة باسم «كيو آر كود QR codes «quishing. والملاحظ أن الهندسة الاجتماعية تطورت جنباً إلى جنب مع التكنولوجيا.

موجة الذكاء الاصطناعي

وجاءت موجة مفاجئة من تقنيات الذكاء الاصطناعي لتدفع مثل هذه الهجمات باتجاه مستويات جديدة من التعقيد.

لنتفحص الآن 5 تطورات جديدة على صعيد الذكاء الاصطناعي، والتداعيات المحتملة لها على عمليات الاحتيال المرتبطة بالهندسة الاجتماعية:

*التصيُّد الاحتيالي المهني والشخصي على نطاق واسع

خلص بحث أجرته «غوغل كلاود» إلى أنه تجري الاستعانة بالذكاء الاصطناعي التوليدي بالفعل في تطوير هجمات التصيُّد الاحتيالي التي تغيب عنها الأخطاء الإملائية والنحوية، ما يزيد في صعوبة رصدها وحظرها.

بجانب ذلك، تمكّن الأتمتة المهاجمين من إضفاء طابع شخصي على رسائل التصيُّد الاحتيالي أو تعديلها حسب الهدف، ما يجعلها تبدو أكثر واقعية وإقناعاً.

* استنساخ بالصوت وتوليف الفيديو

تتيح تقنيات الذكاء الاصطناعي للمستخدمين استنساخ الصوت، وتركيب الوجوه على مقاطع الفيديو، وانتحال شخصيات تخصّ آخرين. واللافت وقوع هجمات مقنعة في جميع أرجاء العالم؛ حيث يستنسخ المهاجمون الصوت ويبتدعون شخصيات افتراضية بهدف الاحتيال على مؤسسات وسرقة أموالها عبر موظفيها.

* المزيد من الهجمات باستخدام النماذج اللغوية الكبيرة

تعالج النماذج اللغوية الكبيرة القياسية النصوص فقط. في المقابل، تتيح النماذج اللغوية الكبيرة متعددة الوسائط فوائد كبيرة مقارنة بالنماذج اللغوية الكبيرة، وذلك لقدرتها على معالجة وسائط إضافية وربطها، مثل الصور ومقاطع الفيديو والمقاطع الصوتية والبيانات الحسية.

ويمكّن ذلك أدوات الذكاء الاصطناعي من بناء وعي أعمق بالسياق، ما يفضي بدوره إلى استجابات أكثر ذكاءً، وتحسين المنطق، والتفاعلات بين الإنسان والحاسوب. وقد يتمكّن المهاجمون قريباً من تسخير النماذج اللغوية الكبيرة متعددة الوسائط لإنشاء رسائل تصيّد سياقية إلى حد كبير، ما يعزز بشكل كبير من فعالية هجمات الهندسة الاجتماعية.

* التطبيقات الضارة لتكنولوجيا تحويل النص إلى فيديو

يعد تحويل النص إلى فيديو إحدى صور التكنولوجيا الصاعدة بمجال الذكاء الاصطناعي. ومثلما يوحي الاسم، تتيح تكنولوجيا تحويل النص إلى فيديو للمستخدمين إنشاء محتوى مرئي عالي الجودة ببساطة عن طريق توفير مدخلات نصية.

وحال وقوع مثل هذه التكنولوجيا بأيدي عناصر خطرة، فإنها قد تصبح خطيرة، ويمكن استغلالها في تلفيق روايات زائفة (معلومات مضللة) وتوليد صور مزيفة عبر تقنية «ديب فيك» على نطاق واسع، وخداع أفراد ومؤسسات، وشن هجمات مهندسة على صلة بالهندسة الاجتماعية.

* صعود تكنولوجيا الذكاء الاصطناعي بوصفها خدمة

يتوقع التقرير الصادر عن «غوغل كلاود» أن أدوات الذكاء الاصطناعي سيجري عرضها قريباً بوصفها خدمة تساعد عناصر خطرة أخرى في حملاتها الخبيثة. وقد بدأت بالفعل أدوات خبيثة على صلة بالذكاء الاصطناعي، مثل «فرود جي بي تي» FraudGPT، في شبكة الإنترنت المظلمة (دارك ويب)، الأمر الذي يمكّن مجرمين سيبرانيين من صياغة رسائل بريد إلكتروني متطورة للتصيّد الاحتيالي.

ومع نضوج تقنيات الذكاء الاصطناعي هذه وتسهيل الوصول إليها، ستتمكن الجهات الفاعلة السيئة الأقل مهارة من نشر هذه الأدوات، ما يؤدي إلى زيادة حجم هجمات الهندسة الاجتماعية المدفوعة بالذكاء الاصطناعي.

وسائل مقاومة الهجمات الإلكترونية

كيف يمكن للشركات التخفيف من مخاطر هجمات الهندسة الاجتماعية المدفوعة بالذكاء الاصطناعي؟ لا تقتصر هجمات الهندسة الاجتماعية على المؤسسات الكبيرة، إذ تشير التقديرات إلى أن العامل في شركة بها أقل من 100 موظف سيواجه عدد هجمات على صلة بالهندسة الاجتماعية أكثر بنسبة 350 في المائة مقارنة بنظيره داخل شركة أكبر.

بجانب ذلك، مع انتشار تكنولوجيا الذكاء الاصطناعي وتعامل الشركات رقمياً وتفاعلها أكثر من تفاعلها على أرض الواقع، ستصبح هذه الهجمات أكثر شيوعاً.

وفيما يلي أفضل الممارسات التي يمكن أن تساعد في التخفيف من خطورة هذا التهديد:

* تعزيز الوعي بمخاطر الذكاء الاصطناعي

من خلال الاتصالات والتذكيرات المنتظمة، تجب توعية الموظفين بالمخاطر الناشئة على صعيد الذكاء الاصطناعي. وينبغي العمل على توثيق مخاطر الذكاء الاصطناعي في السياسات الأمنية، كي يدرك العاملون كيفية رصدها والتعامل معها، ومن يمكنهم الاتصال به حال ظهور تهديد.

* تدريب المستخدم النهائي

ثمة أهمية كبرى وراء التدريب المنتظم (الشهري) بمجال التوعية الأمنية. يمكن للمؤسسة توفير تدريب شخصي، بل وربما تدريب معدل حسب الحاجات الفردية للمتدربين إذا لزم الأمر، بجانب إجراء تمارين محاكاة لهجمات التصيّد الاحتيالي، لتعزيز المهارات والقدرات الأمنية للموظفين. وبوجه عام، يعتمد نجاح وفشل هجمات الهندسة الاجتماعية على يقظة الموظفين ومستوى معرفتهم.

*تعظيم الاستفادة من الأدوات والتكنولوجيا

رغم صعوبة اكتشاف هجمات الهندسة الاجتماعية عادة، يمكن للمؤسسات تنفيذ ضوابط لتقليل مخاطر سرقة الهوية والاحتيال. مثلاً، يمكن تفعيل خاصية التحقق متعدد العوامل لمكافحة التصيد الاحتيالي، بهدف تعزيز عملية التحقق. ويمكن للمؤسسات كذلك التفكير في استخدام أدوات الأمن السيبراني المدعومة بالذكاء الاصطناعي، التي يمكنها فحص البيانات الوصفية لرسائل البريد الإلكتروني للكشف عن مؤشرات محاولات التصيد الاحتيالي.

في العادة، تشكل الهندسة الاجتماعية المرحلة الأولى في دورة الهجوم السيبراني. فإذا تعلمت المؤسسات كيفية استغلال الحدس البشري الذي جرى تطويره من خلال تمارين التصيّد الاحتيالي المتكررة، ستصبح قادرة على رصد أي هجوم ومنعه قبل أن يتسبب في أضرار مادية. وبجانب تعزيز الحدس الصحيح، من المهم بالقدر ذاته أن يخضع الموظفون للمساءلة، وأن يتصرفوا بمسؤولية تجاه الإبلاغ عن العناصر والحوادث المشبوهة. ولتحقيق ذلك، يجب على المؤسسات أن تسعى إلى تعزيز ثقافة صحية وداعمة للأمن السيبراني.

* «مانسويتو فنتشرز»، خدمات «تريبيون ميديا».


مقالات ذات صلة

النساء أم الرجال... من يرى الذكاء الاصطناعي أكثر خطورة؟

تكنولوجيا الفجوة في المواقف لا ترتبط فقط بمستوى المعرفة بل بدرجة النفور من المخاطرة وحجم التعرّض المحتمل لاضطراب سوق العمل (شاترستوك)

النساء أم الرجال... من يرى الذكاء الاصطناعي أكثر خطورة؟

تكشف الدراسة أن النساء ينظرن إلى الذكاء الاصطناعي بوصفه أكثر خطورة من الرجال ويتراجع دعمهن له أسرع عندما تكون مكاسبه الوظيفية غير مؤكدة.

نسيم رمضان (لندن)
تكنولوجيا إطار صور رقمي تفاعلي... يناسب شخصيتك وبيئتك

إطار صور رقمي تفاعلي... يناسب شخصيتك وبيئتك

جهاز واحد لكل مزاج

غريغ إيلمان (واشنطن)
تكنولوجيا تطبيقات استوديو «أبل» للمبدعين (أبل)

لماذا يختار بعض صُنّاع المحتوى «أبل»… ويتمسّك المحترفون بـ«أدوبي»؟

«أبل» تراهن على التكامل بين الأجهزة والسرعة والبساطة لصانع المحتوى اليومي، بينما ترتكز «أدوبي» على العمق والمرونة والأدوات الاحترافية للمشاريع المعقّدة.

عبد العزيز الرشيد (الرياض)
تكنولوجيا تصميم عمودي مريح للاستخدامات المطولة ويمنع إصابات عصب الرسغ وآلام المعصم

وداعاً لآلام المعصم: فأرة عمودية تُعيد تعريف هندسة الراحة في عالم الكمبيوتر

تجربة ملحقات كمبيوتر مفيدة للمكتب والمنزل

خلدون غسان سعيد (جدة)
صحتك الدعامة قابلة للتمدد مع نمو الصغار

الأولى من نوعها… دعامة قلبية للرضع والأطفال

قابلة للتمدد مع نمو الصغار، وموجهة لعلاج التضيقات في الشريانين الأورطي، أو الرئوي

د. هاني رمزي عوض (القاهرة)

خبراء ينصحون بإبعاد الأطفال عن الدمى الناطقة بالذكاء الاصطناعي

شخصية «باز لايت يير» (بيكساباي)
شخصية «باز لايت يير» (بيكساباي)
TT

خبراء ينصحون بإبعاد الأطفال عن الدمى الناطقة بالذكاء الاصطناعي

شخصية «باز لايت يير» (بيكساباي)
شخصية «باز لايت يير» (بيكساباي)

مع أفلام مغامرات «حكاية لعبة» الشيّقة، إلى حركات «تيد» الطفولية، أصبحت فكرة الدمى والدببة المحشوة، التي تدب فيها الحياة فكرةً سينمائيةً مبتذلة.

وبينما أتاحت التطورات الحديثة في مجال الذكاء الاصطناعي إمكانية صنع ألعاب تبدو واعية، فإنها تبدو أقرب إلى شخصيات شريرة مثل المهرج في فيلم «بولترجايست» وشخصية «تشاكي» في فيلم «لعبة طفل» منها إلى شخصيتَي «وودي» و«باز لايت يير».

ووفقاً لمنظمة «كومن سينس ميديا»، الأميركية غير الحكومية المعنية بمراقبة السلع الإلكترونية الاستهلاكية، فإن الدمى وألعاب الأطفال التي تعمل بالذكاء الاصطناعي تقول كلاماً غير لائق للأطفال، وتنتهك خصوصية المنزل من خلال جمع بيانات واسعة النطاق.

يقول روبي تورني، رئيس قسم التقييمات الرقمية في «كومن سينس»: «أظهر تقييمنا للمخاطر أن دمى الذكاء الاصطناعي تشترك في مشكلات جوهرية تجعلها غير مناسبة للأطفال الصغار».

ويقول تورني: «أكثر من رُبع المنتجات تتضمَّن محتوى غير لائق، مثل الإشارة إلى إيذاء النفس، والمخدرات، والسلوكيات الخطرة»، مشيراً إلى أن هذه الأجهزة تستلزم «جمع بيانات مكثف»، وتعتمد على «نماذج اشتراك تستغل الروابط العاطفية».

ووفقاً لمنظمة «كومن سينس»، تستخدم بعض هذه الألعاب «آليات ترابط لخلق علاقات شبيهة بالصداقة»، محذِّرة من أن هذه الأجهزة في الوقت نفسه «تجمع بيانات واسعة النطاق في المساحات الخاصة بالأطفال»، بما في ذلك التسجيلات الصوتية، والنصوص المكتوبة، و«البيانات السلوكية».

وتؤكد «كومن سينس» ضرورة عدم وجود أي طفل دون سن الخامسة بالقرب من لعبة ذكاء اصطناعي، وأنَّ على الآباء توخي الحذر فيما يتعلق بالأطفال الذين تتراوح أعمارهم بين 6 و12 عاماً.

ويقول جيمس ستاير، مؤسِّس ورئيس منظمة «كومن سينس»: «ما زلنا نفتقر إلى ضمانات فعّالة لحماية الأطفال من الذكاء الاصطناعي»، مقارِناً بين غياب هذه الحماية و«الاختبارات الصارمة» للسلامة والملاءمة التي تخضع لها الألعاب الأخرى قبل الموافقة على طرحها للبيع.


بالخطأ... منصة في كوريا الجنوبية توزع «بتكوين» بقيمة 44 مليار دولار

شعار منصة تداول العملات المشفرة الكورية الجنوبية «بيثامب» (رويترز)
شعار منصة تداول العملات المشفرة الكورية الجنوبية «بيثامب» (رويترز)
TT

بالخطأ... منصة في كوريا الجنوبية توزع «بتكوين» بقيمة 44 مليار دولار

شعار منصة تداول العملات المشفرة الكورية الجنوبية «بيثامب» (رويترز)
شعار منصة تداول العملات المشفرة الكورية الجنوبية «بيثامب» (رويترز)

كشفت منصة تداول العملات المشفرة الكورية الجنوبية «بيثامب»، اليوم السبت، عن أنها وزعت عملات «بتكوين» بقيمة تتجاوز 40 مليار دولار على عملاء بوصفها مكافآت ترويجية عن طريق الخطأ، ما أدى إلى موجة بيع حادة على المنصة.

واعتذرت «‌بيثامب» عن ‌الخطأ الذي ‌وقع ⁠أمس ​الجمعة، ‌وقالت إنها استعادت 99.7 في المائة من إجمالي 620 ألف «بتكوين» بقيمة تبلغ نحو 44 مليار دولار بالأسعار الحالية. وقيدت عمليات التداول والسحب ⁠على 695 عميلاً متأثراً بالواقعة في ‌غضون 35 دقيقة ‍من التوزيع ‍الخاطئ أمس.

وأفادت تقارير إعلامية بأن ‍المنصة كانت تعتزم توزيع مكافآت نقدية صغيرة في حدود 2000 وون كوري (1.40 دولار) ​أو أكثر لكل مستخدم في إطار حدث ترويجي، لكن ⁠الفائزين حصلوا بدلاً من ذلك على ألفي «بتكوين» على الأقل لكل منهم.

وقالت «‌بيثامب» في بيان: «نود أن نوضح أن هذا لا علاقة له بقرصنة خارجية أو انتهاكات أمنية، ولا توجد مشاكل في أمن النظام ‌أو إدارة أصول العملاء».


«مدمّر ستارلينك» المحتمل... خطوة تقنية صينية تفتح الباب أمام تعطيل الأقمار الاصطناعية

صورة مركبة لنموذج قمر اصطناعي مع خلفية لكوكب الأرض (رويترز)
صورة مركبة لنموذج قمر اصطناعي مع خلفية لكوكب الأرض (رويترز)
TT

«مدمّر ستارلينك» المحتمل... خطوة تقنية صينية تفتح الباب أمام تعطيل الأقمار الاصطناعية

صورة مركبة لنموذج قمر اصطناعي مع خلفية لكوكب الأرض (رويترز)
صورة مركبة لنموذج قمر اصطناعي مع خلفية لكوكب الأرض (رويترز)

طوّر علماء صينيون مولّد طاقة فائق القوة وصغير الحجم، في خطوة تمهّد الطريق لتطوير أسلحة من الجيل القادم قد تُستخدم يوماً ما ضد أسراب الأقمار الاصطناعية، مثل كوكبة «ستارلينك» التابعة لشركة «سبيس إكس»، وذلك وفقاً لما أوردته صحيفة «إندبندنت».

وخلال السنوات الأخيرة، اكتسبت أسلحة الموجات الدقيقة عالية الطاقة اهتماماً متزايداً بوصفها بديلاً منخفض التكلفة للصواريخ والبنادق التقليدية، نظراً لقدرتها شبه غير المحدودة على إطلاق النبضات.

وفي هذا السياق، يُجري باحثون في الولايات المتحدة، وروسيا، والصين على وجه الخصوص، دراسات مكثفة حول إمكانية تطوير هذه التقنية إلى أسلحة طاقة موجهة قادرة على تعطيل الأقمار الاصطناعية.

ويُعدّ تدمير قمر اصطناعي في الفضاء مهمة بالغة التعقيد، إذ من المرجح أن تُخلّف الأسلحة التقليدية كميات كبيرة من الحطام المداري، ما قد يؤدي إلى عواقب غير متوقعة، بما في ذلك تهديد الأقمار الاصطناعية التابعة للدولة المنفذة نفسها.

ومن الناحية النظرية، يمكن لأسلحة الموجات الدقيقة تعطيل الأقمار الاصطناعية مع توليد قدر محدود من الحطام، فضلاً عن إتاحة قدر من «الإنكار المعقول»، وهو ما يمنحها ميزة استراتيجية واضحة.

وتعتمد هذه الأسلحة على مبدأ تخزين الطاقة الكهربائية ثم إطلاقها دفعة واحدة على شكل نبضة قوية، على غرار آلية عمل ملف تسلا.

وتُستخدم هذه النبضة الهائلة من الطاقة في تشغيل مولدات الموجات الدقيقة، التي تعمل بدورها على تعطيل الأنظمة، والأجهزة الإلكترونية.

شاشة تظهر إيلون ماسك وشعار شركة «ستارلينك» (رويترز)

وحتى وقت قريب، كانت غالبية النماذج الأولية لهذه المولدات النبضية ضخمة الحجم، إذ بلغ طولها 10 أمتار على الأقل، ووزنها أكثر من 10 أطنان، ما جعل دمجها في أنظمة الأسلحة الصغيرة أو المتحركة أمراً بالغ الصعوبة.

غير أنّ دراسة حديثة أجراها علماء صينيون من معهد شمال غربي الصين للتكنولوجيا النووية (NINT) أظهرت تقدماً ملحوظاً في هذا المجال، حيث استخدم الباحثون مادة عازلة سائلة خاصة تُعرف باسم «ميدل 7131»، ما أتاح تحقيق كثافة أعلى لتخزين الطاقة، وعزلاً أكثر قوة، وتقليلاً لفقدان الطاقة، وأسهم في تصميم جهاز أصغر حجماً، وأكثر كفاءة.

وكتب العلماء في الدراسة المنشورة: «من خلال استخدام مادة عازلة سائلة عالية الكثافة للطاقة تُعرف باسم (ميدل 7131)، إلى جانب خط تشكيل نبضات مزدوج العرض، تمكنت الدراسة من تصغير حجم محول تسلا المتكامل، ونظام تشكيل النبضات».

وبحسب الدراسة، يبلغ طول الجهاز الجديد أربعة أمتار فقط (13 قدماً)، ويزن خمسة أطنان، ما يجعله أول جهاز تشغيل صغير الحجم في العالم لسلاح الميكروويف عالي الطاقة.

ويُعرف هذا الجهاز باسم TPG1000Cs، وهو صغير بما يكفي ليُثبت على الشاحنات، والطائرات، بل وحتى على أقمار اصطناعية أخرى، وفقاً لما أفاد به الباحثون.

وأشار الباحثون إلى أن «النظام أظهر استقراراً في التشغيل لمدة دقيقة واحدة متواصلة، حيث جُمعت نحو 200 ألف نبضة بأداء ثابت».

ويؤكد خبراء أن سلاح ميكروويف أرضياً بقدرة تتجاوز 1 غيغاواط (GW) سيكون قادراً على تعطيل وتدمير آلية عمل أقمار «ستارلينك» الاصطناعية في مدارها بشكل كبير.

وذكر الباحثون، بحسب ما نقلته صحيفة «ساوث تشاينا مورنينغ بوست»، أن جهاز TPG1000Cs قادر على توليد نبضات كهربائية فائقة القوة تصل إلى 20 غيغاواط.

وتأتي هذه التطورات في وقت نشرت فيه الصين عدداً من الدراسات التي تشدد على ضرورة إيجاد وسائل فعالة لتعطيل أقمار «ستارلينك» الاصطناعية التابعة لرجل الأعمال إيلون ماسك.