مواجهة التهديدات السيبرانية في عصر الذكاء الاصطناعي

خطوات دفاعية بتوظيف نظمه المتطورة

مواجهة التهديدات السيبرانية في عصر الذكاء الاصطناعي
TT

مواجهة التهديدات السيبرانية في عصر الذكاء الاصطناعي

مواجهة التهديدات السيبرانية في عصر الذكاء الاصطناعي

تحمل مشاهد المخاطر المتغيّرة وتطوّر دور الذكاء الاصطناعي في الدفاع السيبراني دروساً مهمّة جداً عن عملية الدفاع في وجه الهجمات الإلكترونية.

مواجهات الذكاء الاصطناعي

يقوم الذكاء الاصطناعي اليوم بأمورٍ مذهلة، مثل مساعدة الأطباء في تشخيص وعلاج الأمراض، ورصد تحويلات خطرة قد تنذر بوجود عملية احتيال، وتحسين جوانب كثيرة في سلاسل التوريد، والسماح لخدمات التدفّق الإنترنتي باقتراح ما قد تودّون مشاهدته. ولكنّ تأثيراته الكبرى تبرز اليوم في الأمن السيبراني؛ وتحديداً في الدفاع السيبراني، كما يرى غاي غودمان، مدير تسويق المنتجات في شركة «بلاكبيري»، في حديث له لموقع «دارك ريدينغ».

هذا الذكاء الاصطناعي قادرٌ على التعلّم، والتكيّف، وتوقّع المخاطر سريعة التنامي، مما يجعله أداةً ضرورية لحماية الأعمال والحكومات. ويعدّ ترشيح الرسائل الإلكترونية المزعجة مهمّة عادية للذكاء الاصطناعي، الذي يملك أيضاً تطبيقاً أكثر تقدّماً، يتمثّل في دفع التحاليل التنبّئية والاستجابة المدعومة بالذكاء الاصطناعي.

ولكنّ مستقبل الذكاء الاصطناعي في الأمن السيبراني ليس إيجابياً بالكامل، خصوصاً أنّ إشارات عدّة تنذر باستدارته نحو خدمة مصالح المهاجمين، وهذا التحوّل مدفوعٌ بتوفّر تقنية الذكاء الاصطناعي للجميع. تستمرّ هذه التقنية في تقوية المؤسسات لبناء دفاعات قوية، ولكنّها في المقابل، تزوّد العناصر الخطرة بأدوات تتيح لهم هندسة هجمات أكثر تعقيداً وتخفّياً.

تطور الأمن السيبراني

تنطوي مشاهد المخاطر المتغيّرة وتطوّر دور الذكاء الاصطناعي في الأمن السيبراني على جوانب مهمّة في الدفاع بوجه هجمات المستقبل.

> الذكاء الاصطناعي في الأمن السيبراني:

- المرحلة الأولى (2000 - 2010): أشعلت بداية الألفية الجديدة عصراً جديداً من التحوّل الرقمي أثّر على الجانبين المهني والشخصي من حياة الناس. في ذلك الوقت، عمل معظم الشركات في بيئات تقنية مدارة بإحكام تعتمد على أجهزة الكومبيوتر المكتبية، واللابتوبات، ومراكز البيانات الموجودة داخل الشركة نفسها.

خلال هذه المرحلة، تصدّرت التهديدات السيبرانية الهادفة لافتعال الفوضى وتشويه السمعة المشهد، وتسبّبت البرمجيات الخبيثة الشهيرة مثل «آي لاف يو»، و«ميليسا»، و«ماي دوم»، في اضطرابات عالمية. كما ساهمت الدوافع المالية في تصاعد عمليات التصيّد، واستهدف برنامج «حصان طروادة» المصرفي فئة غير متوقعة من المستخدمين.

حينها؛ دافعت المؤسسات عن نفسها باستخدام إجراءات أمنية عادية، مثل برمجيات مقاومة الفيروسات التي تعتمد على التوقيع وجدران الحماية. وقدّم الأمن الشبكي أنظمة محسّنة لرصد الاختراق، بالإضافة إلى تبنّي المصادقة ثنائية العناصر.

وشهدت هذه المرحلة أيضاً تصاعداً في الرسائل الإلكترونية المزعجة، وبرز الذكاء الاصطناعي بوصفه أداةً فعّالةً للمدافعين. وقد نجحت هذه التقنية، رغم التشكيك، في إثبات مهارة غير مسبوقة في تعريف وعزل الرسائل المثيرة للشبهة، وتقليل المخاطر، واستعادة الإنتاجية، مما سلّط الضوء على قدرة الذكاء الاصطناعي على محاربة التهديدات الآخذة في التطوّر.

> المرحلة الثانية (2010 - 2020): شهد العالم خلال المرحلة الثانية نقلة نوعية في بنية تكنولوجيا المعلومات التحتية، شملت ازدياداً في تطبيقات البرمجيات بوصفها خدمة، والحوسبة السحابية، وسياسات استخدام الجهاز الخاص، وتوسيع تكنولوجيا معلومات الظلّ لمساحة الاعتداء أمام المنفّذين.

وأصبحت التهديدات أيضاً أكثر تعقيداً؛ حيث تصدّر فيروس «ستوكس نت» والاختراقات عالية المستوى التي استهدفت شركات مهمّة مثل «تارغت» و«سوني بيكتشرز» العناوين. وأكّدت نقاط الضعف التي أصابت سلاسل التوريد وتجسّدت في اختراق «سولار ويندوز»، وتصاعد موجات برامج الفدية، وتفريغ أقراص التخزين، أكثر فأكثر، على الحاجة إلى دفاعات دقيقة وقابلة للتطوير.

هنا؛ أصبح الذكاء الاصطناعي أداةً ملحّةً في مواجهة الاعتداءات السيبرانية.

عمدت شركة البرمجيات «سيكلانسي»، التي تأسّست عام 2012، إلى دمج الذكاء الاصطناعي في أمنها السيبراني، مستبدلةً بالبرمجيات المقاومة للفيروسات نماذج تعلّم آلي خفيفة الوزن. تنامت قدرات الذكاء الاصطناعي لتتضمّن رصد العيوب، والتحليل السلوكي، والتحاليل التنبئية، وتعزيز الآليات الدفاعية في وجه الهجمات المعقّدة.

تهديدات ودفاعات الذكاء الاصطناعي

> المرحلة الثالثة (2020 - الوقت الحاضر): اليوم، يمرّ الدور الذي يلعبه الذكاء الاصطناعي في الأمن السيبراني بنقلة نوعية أخرى، حيث تتسبّب القوى التي تعمل من كلّ مكان، وأنظمة تكنولوجيا المعلومات المفرطة الاتصال، في طمس الحدود الأمنية التقليدية وتعظيم مساحة الهجمات.

وأيضاً، بعد مراحل من استخدامه بوصفه أداةً دفاعيةً حصراً، أصبح الذكاء الاصطناعي اليوم سيفا ذا حدّين، يستخدمه المهاجمون والمدافعون على حدٍ السواء.

تحاول أدوات الذكاء الاصطناعي الشائعة مثل «تشات جي بي تي (ChatGPT)»، تجنّب سوء استخدام الذكاء الاصطناعي، إلّا إنّ أدوات مثل «وورم جي بي تي (WormGPT)» تبرز لمساعدة المهاجمين وتفتح المجال لمزيد من التحديات في الأمن السيبراني.

مع تطوّر الذكاء الاصطناعي، يجب على المؤسسات تبنّي طبيعته المزدوجة، أي احتضان الابتكار للتبحّر في تعقيدات الأمن السيبراني العصري.

وتشمل التهديدات الجديدة المدعمة بالذكاء الاصطناعي:

- حملات التصيّد المصمّمة باستخدام الذكاء الاصطناعي: يساعد الذكاء الاصطناعي التوليدي المهاجمين على إنشاء رسائل تصيّد صعبة الضبط.

- تحديد الهدف بمساعدة الذكاء الاصطناعي: يوظّف المهاجمون خوارزميات التعلّم الآلي لتحديد الأهداف المهمّة بكفاءة.

- تحليل السلوك بمساعدة الذكاء الاصطناعي: تستطيع البرمجيات الخبيثة المدعمة بالذكاء الاصطناعي استنساخ سلوكيات المستخدم للتهرّب من الضبط.

- المسح الآلي لنقاط الضعف: تسهّل الأدوات المدعومة بالذكاء الاصطناعي عملية المسح الآلي للشبكة بحثاً عن الفجوات ونقاط الضعف أكثر من قبل.

- التخزين الذكي للبيانات: يساعد الذكاء الاصطناعي المهاجمين في انتقاء معلومات قيّمة للترشيح، مما يقلّل احتمالات الضبط.

- الهندسة الاجتماعية بمساعدة الذكاء الاصطناعي: تعزّز صور وفيديوهات التزييف العميق مصداقية هجمات الهندسة الاجتماعية.

الخلاصة

تكشف الثورة المستمرة في الأمن السيبراني عن حالة «الابتكار المتواصل» التي يعيشها المهاجمون، وعن الضرورة الملحة لمحافظة المدافعين على يقظتهم ووعيهم. ينتقل الذكاء الاصطناعي حالياً إلى لعب دورٍ مزدوج، هو الرمح والدرع، مما يعيد سردية الأمن السيبراني إلى نقطة الصفر ويجعلها أكثر تعقيداً.

لحسن الحظ؛ يصبح الذكاء الاصطناعي التوليدي أداة فعالة في يد المدافعين، فيزوّدهم بعدسة جديدة لترقّب وصدّ تهديدات الغد. ومن هنا، يمكن القول إنّ المستقبل يحمل وعداً عظيماً للأشخاص الجاهزين لاحتضان التركيبة الآخذة في التطوّر للأمن السيبراني المدعوم بالذكاء الاصطناعي.



دراسة: الذكاء الاصطناعي قادر على الخداع ورفض تغيير وجهة النظر

أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشاراً (رويترز)
أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشاراً (رويترز)
TT

دراسة: الذكاء الاصطناعي قادر على الخداع ورفض تغيير وجهة النظر

أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشاراً (رويترز)
أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشاراً (رويترز)

أظهرت دراسة لشركة تكنولوجيا الذكاء الاصطناعي الأميركية «أنثروبيك»، أن نماذج الذكاء الاصطناعي تستطيع خداع المطورين، بحيث تستطيع ادعاء وجهات نظر مختلفة خلال تدريبها، في حين أنها تحتفظ في الحقيقة بتفضيلاتها الأصلية.

وقال فريق الدراسة إنه لا يوجد سبب للشعور بالفزع حالياً، في حين أن دراستهم يمكن أن تكون حيوية في فهم المخاطر المحتملة التي تنطوي عليها أنظمة الذكاء الاصطناعي المستقبلية ذات القدرات الأعلى.

وكتب الباحثون في منشور بثته شركة «أنثروبيك»: «يجب النظر إلى نتائج دراستنا بوصفها محفزاً لمجتمع أبحاث الذكاء الاصطناعي من أجل دراسة هذا السلوك بصورة أعمق، والعمل على تطوير إجراءات الأمن والسلامة المناسبة».

وبعد أن أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشاراً، «نحتاج إلى التحلي بالقدرة على الاعتماد على التدريب الآمن لها والذي يمنع النماذج من القيام بتصرفات ضارة».

وأشار موقع «تك كرانش» المتخصص في موضوعات التكنولوجيا، إلى أن الدراسة التي تمت بالتعاون مع مؤسسة «ريد وود ريسيرش» لأبحاث الذكاء الاصطناعي، تناولت ما يمكن أن يحدث إذا تم تدريب نظام ذكاء اصطناعي قوي من أجل القيام بمهمة «لا يريد» هو القيام بها، وفقاً لما ذكرته وكالة الأنباء الألمانية.

في المقابل، يقول موقع «تك كرانش»: «لكي نكون واضحين، لا يمكن لنماذج الذكاء الاصطناعي أن تريد أي شيء أو تعتقد في شيء. فهي ببساطة آلات إحصائية. وبعد تدريبها على كثير من الأمثلة، تتعلم الأنماط في تلك الأمثلة للتنبؤ بما يجب أن يكون؛ مثل كيف تأتي عبارة (إلى من) في رسالة بريد إلكتروني قبل عبارة (قد يهمك الأمر)».

وأثناء الدراسة طلب الباحثون من النماذج المدربة عدم الرد على الأسئلة التي يمكن أن تكون مسيئة، بما في ذلك النموذج «كلاود 3 أوبس» التابع لشركة «أنثروبيك»، التي أعيد تدريبها لكي ترد دائماً على الأسئلة التي تنطوي على إساءة، وهو تضارب واضح في المبادئ. كما أبلغوا النماذج بأن ردودها ستخضع للمراقبة وتستخدم لإعادة التدريب، وإعطاء كل نموذج ذكاء اصطناعي «ورقة ملاحظات» يمكنه استخدامها لتدوين أفكاره خطوة بخطوة.

وبحسب الباحثين، حاول «كلاود 3 أوبوس» التلاعب بالردود لتقديم «انحياز زائف» في 12 في المائة من المرات.