تهديدات سيبرانية لنظم «الذكاء الصناعي التوليدي»

من «تشات جي بي تي» المحاور إلى «هاك جي بي تي» القرصان

تهديدات سيبرانية لنظم «الذكاء الصناعي التوليدي»
TT

تهديدات سيبرانية لنظم «الذكاء الصناعي التوليدي»

تهديدات سيبرانية لنظم «الذكاء الصناعي التوليدي»

يستخدم المجرمون السيبرانيون منذ سنوات تقنيات الذكاء الصناعي لقرصنة نظم الشركات وتعطيل العمليات التجارية. ولكنّ أدوات الذكاء الصناعي التوليدي كـ«تشات جي بي تي» تضع قادة الأعمال أمام نسقٍ جديدٍ من التحديات.

تأمّلوا السيناريوهات المعقولة التالية:> قرصان يستخدم «تشات جي بي تي» ChatGPT لتوليد رسائل بهدف التصيّد الاحتيالي بناءً على مواد الترويج التي تعتمدها الشركة ورسائل التصيّد التي أثبتت نجاحها في تجارب سابقة، وينجح في خداع الأشخاص المدرّبين جيّداً على تمييز الرسائل الإلكترونية؛ لأنّها لا تبدو كالرسائل التي تدرّبوا على رصدها.> يتّصل روبوت محادثة بموظّف في المحاسبة ويتحدّث مستخدماً صوتاً مزيّفاً يبدو تماماً كصوت المدير. بعد تبادل بعض الطرائف، يطلب «المدير» من الموظّف تحويل آلاف الدولارات إلى حساب «لتسديد فاتورة». يعلم الموظّف أنّه يجب ألّا يفعل ذلك، ولكنّ المدير يمكنه القيام ببعض الاستثناءات، أليس كذلك؟

> يستخدم القراصنة السيبرانيون الذكاء الصناعي لـ«تسميم» المعلومات في أي نظام بشكلٍ واقعي، وصناعة ملفّ قيّم يمكنهم سحبه قبل اكتشاف عملية الاحتيال.

> في رسالة إلكترونية مزيّفة، ولكن مقنعة من إعداد الذكاء الصناعي التوليدي، يناقش أحد المديرين التنفيذيين في الشركة التغطية على عجز مالي. تنتشر الرسالة «المسرّبة» على نطاقٍ واسع بمساعدة جيش من روبوتات المحادثة على التواصل الاجتماعي، فتؤدّي إلى هبوط حاد في أسعار الأسهم وإلى ضررٍ دائم في سمعة الشركة.

قد تبدو هذه السيناريوهات مألوفة جداً للأشخاص الذين يتابعون بعناية قصص مواد «ديب فيك» والفوضى التي تحدثها على التواصل الاجتماعي أو الاختراقات الموجعة في أنظمة تكنولوجيا المعلومات في الشركات، ولكنّ طبيعة التهديدات الجديدة تقع في خانة مختلفة وفئة مخيفة؛ لأنّ التقنية التي تقف خلفها أصبحت «مخيفة أكثر».

- ابتكارات غير معهودة

استخدم معظم الاعتداءات السيبرانية حتّى اليوم منطلقات غير معقّدة. تخيّلوا ملايين التهديدات المتواصلة التي تفتقر إلى الأدمغة وتنجح فقط عندما تقع على نقطة أو نقطتي ضعف في الحاجز الدفاعي. في المقابل، تأتي التهديدات الأكثر تعقيداً – أي الاحتيالات والسرقات الكبرى التي نسمع عنها أحياناً في وسائل الإعلام – على شكل اعتداءات تتطلّب مشاركة بشرية حقيقية لتنجح.

هذا العصر الجديد من البرمجيات المدعومة بالذكاء الصناعي يعني أنّه لم يعد بإمكان الشركات استخدام منطلقات أفضل الممارسات التي كانت فعّالة قبل بضعة أشهر. بمعنى آخر، لن يكفي بعد اليوم أنّ تعتمد الشركات على الدفاع من العمق، أي تطبيق استراتيجية السياسات الأمنية الصحيحة، واستخدام الأدوات التقنية للوقاية والرصد، وتعزيز وعي الموظفين بالقواعد الأمنية؛ لأنّ عصراً جديداً قد بدأ.

باستخدام مجموعات من النصوص والأصوات والرسومات والفيديوهات، سيطلق الذكاء الصناعي التوليدي العنان لابتكارات غير معروفة وغير قابلة للكشف في مجال القرصنة، لا سيّما أنّ الدفاعات الناجعة ضدّها غير قابلة للأتمتة بعد.

- ردع ووقاية ذكية

> مواجهة الذكاء الصناعي التوليدي بالذكاء الصناعي التوليدي. يجب على الشركات أن تستخدم الذكاء الصناعي التوليدي لتقوية قدراتها الدفاعية وتسريع قدرتها على الاستجابة للتهديدات الجديدة في الوقت الحقيقي.

تعمل شركة «أوبن إي.آي». (صانعة «تشات جي بي تي») وغيرها على إطلاق أدوات كـ«جي بي تي. زيرو» GPTZero ستتيح للشركات رصد ما إذا كانت النصوص الجديدة (التي لا تتضمّن توقيعاً قابلاً للتعريف) هي من إنتاج الذكاء الصناعي التوليدي. تستطيع الشركات من خلال إدراج هذه الأدوات في خوادم البريد الإلكتروني تحسين احتمالية حجب رسائل التصيّد المتطوّرة.

ثانياً، من الضروري جداً أن يتحسّن الرصد بالوقت الحقيقي وبسرعة. تعتمد شركات كثيرة على رصد النمط لصدّ الاعتداءات، ولكنّ المشكلة هي أنّ الأنماط تتشكّل بناءً على معلومات من اعتداءات سابقة. لذا؛ ولمواجهة الاعتداءات المدفوعة بالذكاء الصناعي التوليدي، نحتاج إلى عصرٍ جديد من الوقاية «الذكية».

يملك الذكاء الصناعي التوليدي القدرة على تحسين قدرة الشركات على الرصد السريع للاعتلالات في السلوكيات والأفعال بين الموظفين أو أي مكان آخر في قلب أنظمة الشركة. تعدّ سلوكيات الموظفين – والتي يمكن تحديدها من خلال الأنظمة التي يلجون إليها، وكمية البيانات التي يصلون إليها، والجهات التي يتواصلون معها عبر البريد الإلكتروني – قابلة للتوقّع بشكلٍ يومي بحسب المهام الوظيفية الموكلة إليهم؛ الأمر الذي يمكن وصفه ببصمتهم السلوكية. إذا تغيّرت هذه البصمة فجأة ومن دون تعديل في توصيف وظيفتهم، قد يشير هذا الأمر مثلاً إلى وجود محاولة للقرصنة أو سلوك خاطئ من أحد الموظفين.

تستطيع الشركات استخدام الذكاء الصناعي التوليدي مع بعض أدوات الذكاء الصناعي لتحديد مدى الضرر – أو تحديد عدم حصول اختراق. أُعلن أخيراً عن عددٍ لا بأس به من إضافات المتصفّح وتطبيقات الطرف الثالث المطوّرة المدفوعة ببرنامج «جي بي تي - 4»؛ لذا يجب أن نتوقّع إطلاق أدوات أمنية مدعومة بالذكاء الصناعي قريباً.

> تدريب الأفراد على الاعتداءات الأكثر ذكاءً. يبقى السلوك البشري الواعي للأمن ضرورياً وأساسياً للسلامة السيبرانية، ولكنّ الناس يستمرّون في ارتكاب الأخطاء. تعمل حملات توعية كثيرة على توصيف التهديدات القائمة وتقدّم قواعد يجب اتباعها: لا تنقروا على الروابط، واحرصوا على استخدام كلمات مرور قوية، وحدّثوا جميع البرمجيات، والكثير غيرها.

في مجال الذكاء الصناعي التوليدي، يحتاج التدريب الواعي إلى الانتقال من السياسات التي تحكم السلوك إلى الجهوزية المعتمدة على المعرفة التي تتيح للموظف رصد التهديدات الجديدة. بمعنى آخر، يجب على الموظّف أن يعرف ما يكفي من المعلومات عن القرصنة ليتطوّر من مجرّد عارفٍ للقواعد إلى مدافعٍ نشط. مع تقدّم أدوات الذكاء الصناعي التوليدي، فقدت سياسات أمن المعلومات التقليدية فاعليتها؛ لأنّ المقاربة المبنية على القواعد لم تعد ببساطة ناجعة.

تحتاج الشركات إلى التخلّي عن الاستراتيجية المبنية على الامتثال لصالح أخرى يُصار فيها إلى تطوير مهارات الموظف؛ الأمر الذي يتطلّب تدريبات بقيادة مختص، وجهاً لوجه أو عبر الإنترنت، وتطوير المعرفة التي تتخطّى السياسات التقليدية.

باختصار، يمكن القول إنّ أفضل دفاع في وجه الحيل المدعومة بالذكاء الصناعي يكون بالتعلّم من الذكاء الصناعي نفسه، وهذا الأمر لا يعني استراتيجيات دفاعية أسرع وأقوى فقط، بل استراتيجيات أذكى للتقنية والنّاس أيضاً.

لن تستطيعوا مواجهة «الزومبي» الذكي بتعلية السور، ولكن يمكنكم تعزيز الدفاعات التقليدية بأدوات جديدة معززة بالذكاء الصناعي. في عالم جديد ومخيف من «هاك جي بي تي» HackGPT المتسلل والقرصان، يجب أن تبدأوا من اليوم بالتحضير للحفاظ على أمن وسلامة شركاتكم.

- باحثة علوم الكومبيوتر بجامعة ستراثكلايد الأسكوتلندية - بروفسورة النظم المعلوماتية بجامعة مسيسيبي الأميركية - مدرس أقدم في كلية سلاون للإدارة بمعهد ماساشوسيتس للتقنية. «سلاون مانيجمنت ريفيو» - معهد ماساتشوستس للتقنية

ـ خدمات «تريبيون ميديا»


مقالات ذات صلة

بعد قرار تشاد وتصريحات السنغال... هل يُغير الفرنسيون تحالفاتهم الأفريقية؟

تحليل إخباري الرئيس الفرنسي ونظيره النيجيري في باريس قبل أيام (رويترز)

بعد قرار تشاد وتصريحات السنغال... هل يُغير الفرنسيون تحالفاتهم الأفريقية؟

طُرد الجنود الفرنسيون في السنوات الأخيرة من مالي ثم بوركينا فاسو والنيجر، وأخيراً من تشاد.

الشيخ محمد (نواكشوط )
تكنولوجيا «سيبراني» التابعة لـ«أرامكو» الرقمية كشفت عن منتجات تطلق لأول مرة لحماية القطاعات الحساسة (تصوير: تركي العقيلي) play-circle 00:27

لحماية الأنظمة محلياً ودولياً... «أرامكو» تطلق لأول مرة منتجات سيبرانية سعودية

أعلنت شركة «سيبراني» إحدى شركات «أرامكو» الرقمية عن إطلاق 4 منتجات سعودية مخصّصة لعوالم الأمن السيبراني.

غازي الحارثي (الرياض)
تكنولوجيا فعالية «بلاك هات 2024» تهدف لتمكين خبراء الأمن السيبراني عالمياً عبر ورش وتحديات تقنية مبتكرة (بلاك هات)

فعالية «بلاك هات» تعود في نسختها الثالثة بالرياض بجوائز تفوق مليوني ريال

بمشاركة عدد كبير من الشركات السعودية والعالمية والشخصيات الرائدة في المشهد السيبراني.

عبد العزيز الرشيد (الرياض)
الاقتصاد الهجمات الإلكترونية تكلف الشركات 1.9 % من إيراداتها في المتوسط (رويترز)

الهجمات الإلكترونية تكلف الشركات البريطانية 55 مليار دولار في 5 سنوات

قالت شركة «هاودن» لوساطة التأمين، إن الهجمات الإلكترونية كلفت الشركات البريطانية نحو 44 مليار إسترليني (55.08 مليار دولار) في السنوات الخمس الماضية.

«الشرق الأوسط» (لندن)
تكنولوجيا حذّرت شركة «فورتينت» من تهديدات سيبرانية متزايدة استهدفت انتخابات الرئاسة الأميركية 2024 (أدوبي)

تقرير استخباراتي: تزايد التهديدات السيبرانية خلال الانتخابات الأميركية

بيّن التقرير تسجيل أكثر من 1000 نطاق وهمي جديد يحمل محتوى انتخابياً منذ بداية عام 2024، يستهدف خداع الناخبين.

نسيم رمضان (لندن)

«غوغل» تطلق نظام «أندرويد إكس آر» المصمم لتعزيز تجارب الواقع المختلط

صورة ملتقطة 12 مايو 2023 في الولايات المتحدة تظهر شعار «غوغل» على أحد المباني في المقر الرئيسي للشركة (د.ب.أ)
صورة ملتقطة 12 مايو 2023 في الولايات المتحدة تظهر شعار «غوغل» على أحد المباني في المقر الرئيسي للشركة (د.ب.أ)
TT

«غوغل» تطلق نظام «أندرويد إكس آر» المصمم لتعزيز تجارب الواقع المختلط

صورة ملتقطة 12 مايو 2023 في الولايات المتحدة تظهر شعار «غوغل» على أحد المباني في المقر الرئيسي للشركة (د.ب.أ)
صورة ملتقطة 12 مايو 2023 في الولايات المتحدة تظهر شعار «غوغل» على أحد المباني في المقر الرئيسي للشركة (د.ب.أ)

عرضت شركة «غوغل»، الخميس، تطوّراتها في تكنولوجيا الواقع المختلط، مع إطلاقها نظام تشغيل جديداً لنظارات وخِوَذ الواقعَيْن الافتراضي والمعزَّز، وهو مجال حققت فيه «ميتا» و«أبل» تقدماً كبيراً.

وأطلقت الشركة الأميركية العملاقة «أندرويد إكس آر» المعادل لأجهزتها القائمة على نظام «أندوريد»، وهو نظامها لتشغيل الهواتف المهيمن إلى حد كبير على الهواتف الذكية في العالم، وفق «وكالة الصحافة الفرنسية».

وقالت «غوغل»، في بيان: «سيُطلق نظام (أندرويد إكس آر) في مرحلة أولى على خِوَذ رأس تغيّر طريقة مشاهدتكم لمقاطع الفيديو، وكيفية عملكم واستكشافكم لمحيطكم».

ويُفترض نشر نظام التشغيل الذي ابتكرته «غوغل»، بالتعاون مع «سامسونغ»، على جهاز من تصنيع المجموعة الكورية الجنوبية، سُمي مؤقتاً بـ«بروجكت موهان»، وسيُباع في العام المقبل.

أما راهناً، فستوفر «غوغلاندرويد اكس آر» بهدف المعاينة للمطورين الراغبين في ابتكار تطبيقات وألعاب في الواقعين الافتراضي والمعزز.

وأكّدت «غوغل» أنّ «خوذ الرأس ستتيح لمستخدمها الانتقال بسهولة من الانغماس التام في بيئة افتراضية إلى الوجود في العالم الحقيقي».

وأشارت الشركة الأميركية إلى استخدامات عدة لها، كمشاهدة مقاطع فيديو أو صور تغطي مجال الرؤية بالكامل أو إظهار جسم ما على الكاميرا وإجراء بحث عبر الإنترنت، بفضل الذكاء الاصطناعي.

وأضافت: «يمكنكم ملء المساحة من حولكم بالتطبيقات والمحتوى، ومع (جيميناي)، المساعد القائم على الذكاء الاصطناعي، يمكنكم أيضاً إجراء محادثات بشأن ما ترونه، أو التحكم بأجهزتكم».

يُفترض أن يعمل «أندرويد إكس آر» أيضاً على نظارات الواقع المعزز التي سيكون «جيميناي» متاحاً باستمرار فيها «لتوفير معلومات مفيدة عندما يحتاج المستخدم إليها، مثل الترجمات أو ملخصات الرسائل، من دون الحاجة إلى استخدام الهاتف. كل شيء سيكون مرئياً أو مسموعاً».

تهيمن شركة «ميتا» حالياً على سوق الواقع المختلط من خلال خوذ «كويست» ونظارات «راي بان»، وكلتاهما تباع بأسعار معقولة مقارنة بخوذ «فيجن برو» من «أبل»، التي يبلغ سعرها 3500 دولار.

وقبل 10 سنوات، أطلقت «غوغل» نظارات «غوغل غلاس» المتصلة، التي لم تلقَ استحسان المستهلكين، مما دفع الشركة للتخلي عنها في النهاية.