تهديدات سيبرانية لنظم «الذكاء الصناعي التوليدي»

من «تشات جي بي تي» المحاور إلى «هاك جي بي تي» القرصان

تهديدات سيبرانية لنظم «الذكاء الصناعي التوليدي»
TT

تهديدات سيبرانية لنظم «الذكاء الصناعي التوليدي»

تهديدات سيبرانية لنظم «الذكاء الصناعي التوليدي»

يستخدم المجرمون السيبرانيون منذ سنوات تقنيات الذكاء الصناعي لقرصنة نظم الشركات وتعطيل العمليات التجارية. ولكنّ أدوات الذكاء الصناعي التوليدي كـ«تشات جي بي تي» تضع قادة الأعمال أمام نسقٍ جديدٍ من التحديات.

تأمّلوا السيناريوهات المعقولة التالية:> قرصان يستخدم «تشات جي بي تي» ChatGPT لتوليد رسائل بهدف التصيّد الاحتيالي بناءً على مواد الترويج التي تعتمدها الشركة ورسائل التصيّد التي أثبتت نجاحها في تجارب سابقة، وينجح في خداع الأشخاص المدرّبين جيّداً على تمييز الرسائل الإلكترونية؛ لأنّها لا تبدو كالرسائل التي تدرّبوا على رصدها.> يتّصل روبوت محادثة بموظّف في المحاسبة ويتحدّث مستخدماً صوتاً مزيّفاً يبدو تماماً كصوت المدير. بعد تبادل بعض الطرائف، يطلب «المدير» من الموظّف تحويل آلاف الدولارات إلى حساب «لتسديد فاتورة». يعلم الموظّف أنّه يجب ألّا يفعل ذلك، ولكنّ المدير يمكنه القيام ببعض الاستثناءات، أليس كذلك؟

> يستخدم القراصنة السيبرانيون الذكاء الصناعي لـ«تسميم» المعلومات في أي نظام بشكلٍ واقعي، وصناعة ملفّ قيّم يمكنهم سحبه قبل اكتشاف عملية الاحتيال.

> في رسالة إلكترونية مزيّفة، ولكن مقنعة من إعداد الذكاء الصناعي التوليدي، يناقش أحد المديرين التنفيذيين في الشركة التغطية على عجز مالي. تنتشر الرسالة «المسرّبة» على نطاقٍ واسع بمساعدة جيش من روبوتات المحادثة على التواصل الاجتماعي، فتؤدّي إلى هبوط حاد في أسعار الأسهم وإلى ضررٍ دائم في سمعة الشركة.

قد تبدو هذه السيناريوهات مألوفة جداً للأشخاص الذين يتابعون بعناية قصص مواد «ديب فيك» والفوضى التي تحدثها على التواصل الاجتماعي أو الاختراقات الموجعة في أنظمة تكنولوجيا المعلومات في الشركات، ولكنّ طبيعة التهديدات الجديدة تقع في خانة مختلفة وفئة مخيفة؛ لأنّ التقنية التي تقف خلفها أصبحت «مخيفة أكثر».

- ابتكارات غير معهودة

استخدم معظم الاعتداءات السيبرانية حتّى اليوم منطلقات غير معقّدة. تخيّلوا ملايين التهديدات المتواصلة التي تفتقر إلى الأدمغة وتنجح فقط عندما تقع على نقطة أو نقطتي ضعف في الحاجز الدفاعي. في المقابل، تأتي التهديدات الأكثر تعقيداً – أي الاحتيالات والسرقات الكبرى التي نسمع عنها أحياناً في وسائل الإعلام – على شكل اعتداءات تتطلّب مشاركة بشرية حقيقية لتنجح.

هذا العصر الجديد من البرمجيات المدعومة بالذكاء الصناعي يعني أنّه لم يعد بإمكان الشركات استخدام منطلقات أفضل الممارسات التي كانت فعّالة قبل بضعة أشهر. بمعنى آخر، لن يكفي بعد اليوم أنّ تعتمد الشركات على الدفاع من العمق، أي تطبيق استراتيجية السياسات الأمنية الصحيحة، واستخدام الأدوات التقنية للوقاية والرصد، وتعزيز وعي الموظفين بالقواعد الأمنية؛ لأنّ عصراً جديداً قد بدأ.

باستخدام مجموعات من النصوص والأصوات والرسومات والفيديوهات، سيطلق الذكاء الصناعي التوليدي العنان لابتكارات غير معروفة وغير قابلة للكشف في مجال القرصنة، لا سيّما أنّ الدفاعات الناجعة ضدّها غير قابلة للأتمتة بعد.

- ردع ووقاية ذكية

> مواجهة الذكاء الصناعي التوليدي بالذكاء الصناعي التوليدي. يجب على الشركات أن تستخدم الذكاء الصناعي التوليدي لتقوية قدراتها الدفاعية وتسريع قدرتها على الاستجابة للتهديدات الجديدة في الوقت الحقيقي.

تعمل شركة «أوبن إي.آي». (صانعة «تشات جي بي تي») وغيرها على إطلاق أدوات كـ«جي بي تي. زيرو» GPTZero ستتيح للشركات رصد ما إذا كانت النصوص الجديدة (التي لا تتضمّن توقيعاً قابلاً للتعريف) هي من إنتاج الذكاء الصناعي التوليدي. تستطيع الشركات من خلال إدراج هذه الأدوات في خوادم البريد الإلكتروني تحسين احتمالية حجب رسائل التصيّد المتطوّرة.

ثانياً، من الضروري جداً أن يتحسّن الرصد بالوقت الحقيقي وبسرعة. تعتمد شركات كثيرة على رصد النمط لصدّ الاعتداءات، ولكنّ المشكلة هي أنّ الأنماط تتشكّل بناءً على معلومات من اعتداءات سابقة. لذا؛ ولمواجهة الاعتداءات المدفوعة بالذكاء الصناعي التوليدي، نحتاج إلى عصرٍ جديد من الوقاية «الذكية».

يملك الذكاء الصناعي التوليدي القدرة على تحسين قدرة الشركات على الرصد السريع للاعتلالات في السلوكيات والأفعال بين الموظفين أو أي مكان آخر في قلب أنظمة الشركة. تعدّ سلوكيات الموظفين – والتي يمكن تحديدها من خلال الأنظمة التي يلجون إليها، وكمية البيانات التي يصلون إليها، والجهات التي يتواصلون معها عبر البريد الإلكتروني – قابلة للتوقّع بشكلٍ يومي بحسب المهام الوظيفية الموكلة إليهم؛ الأمر الذي يمكن وصفه ببصمتهم السلوكية. إذا تغيّرت هذه البصمة فجأة ومن دون تعديل في توصيف وظيفتهم، قد يشير هذا الأمر مثلاً إلى وجود محاولة للقرصنة أو سلوك خاطئ من أحد الموظفين.

تستطيع الشركات استخدام الذكاء الصناعي التوليدي مع بعض أدوات الذكاء الصناعي لتحديد مدى الضرر – أو تحديد عدم حصول اختراق. أُعلن أخيراً عن عددٍ لا بأس به من إضافات المتصفّح وتطبيقات الطرف الثالث المطوّرة المدفوعة ببرنامج «جي بي تي - 4»؛ لذا يجب أن نتوقّع إطلاق أدوات أمنية مدعومة بالذكاء الصناعي قريباً.

> تدريب الأفراد على الاعتداءات الأكثر ذكاءً. يبقى السلوك البشري الواعي للأمن ضرورياً وأساسياً للسلامة السيبرانية، ولكنّ الناس يستمرّون في ارتكاب الأخطاء. تعمل حملات توعية كثيرة على توصيف التهديدات القائمة وتقدّم قواعد يجب اتباعها: لا تنقروا على الروابط، واحرصوا على استخدام كلمات مرور قوية، وحدّثوا جميع البرمجيات، والكثير غيرها.

في مجال الذكاء الصناعي التوليدي، يحتاج التدريب الواعي إلى الانتقال من السياسات التي تحكم السلوك إلى الجهوزية المعتمدة على المعرفة التي تتيح للموظف رصد التهديدات الجديدة. بمعنى آخر، يجب على الموظّف أن يعرف ما يكفي من المعلومات عن القرصنة ليتطوّر من مجرّد عارفٍ للقواعد إلى مدافعٍ نشط. مع تقدّم أدوات الذكاء الصناعي التوليدي، فقدت سياسات أمن المعلومات التقليدية فاعليتها؛ لأنّ المقاربة المبنية على القواعد لم تعد ببساطة ناجعة.

تحتاج الشركات إلى التخلّي عن الاستراتيجية المبنية على الامتثال لصالح أخرى يُصار فيها إلى تطوير مهارات الموظف؛ الأمر الذي يتطلّب تدريبات بقيادة مختص، وجهاً لوجه أو عبر الإنترنت، وتطوير المعرفة التي تتخطّى السياسات التقليدية.

باختصار، يمكن القول إنّ أفضل دفاع في وجه الحيل المدعومة بالذكاء الصناعي يكون بالتعلّم من الذكاء الصناعي نفسه، وهذا الأمر لا يعني استراتيجيات دفاعية أسرع وأقوى فقط، بل استراتيجيات أذكى للتقنية والنّاس أيضاً.

لن تستطيعوا مواجهة «الزومبي» الذكي بتعلية السور، ولكن يمكنكم تعزيز الدفاعات التقليدية بأدوات جديدة معززة بالذكاء الصناعي. في عالم جديد ومخيف من «هاك جي بي تي» HackGPT المتسلل والقرصان، يجب أن تبدأوا من اليوم بالتحضير للحفاظ على أمن وسلامة شركاتكم.

- باحثة علوم الكومبيوتر بجامعة ستراثكلايد الأسكوتلندية - بروفسورة النظم المعلوماتية بجامعة مسيسيبي الأميركية - مدرس أقدم في كلية سلاون للإدارة بمعهد ماساشوسيتس للتقنية. «سلاون مانيجمنت ريفيو» - معهد ماساتشوستس للتقنية

ـ خدمات «تريبيون ميديا»


مقالات ذات صلة

القضاء الأميركي يتهم 5 عسكريين روس بشن هجمات سيبرانية ضد أوكرانيا

الولايات المتحدة​ لوحة مفاتيح كمبيوتر مضاءة بواسطة رمز إلكتروني معروض في هذه الصورة التوضيحية الملتقطة في الأول من مارس 2017 (رويترز)

القضاء الأميركي يتهم 5 عسكريين روس بشن هجمات سيبرانية ضد أوكرانيا

وجّه القضاء الأميركي، اليوم (الخميس)، اتهامات لخمسة عسكريين روس بشنّ هجمات إلكترونية على بنى تحتية مدنية في أوكرانيا قبل الغزو الروسي لهذا البلد.

«الشرق الأوسط» (واشنطن)
أفريقيا الرئيس التونسي في زيارة سابقة لزنازين سجن المرناقية (موقع الرئاسة التونسية)

تونس: «عملية بيضاء» حول سجن يضم آلاف السجناء بينهم «إرهابيون»

كشفت مصادر رسمية من وزارة الداخلية التونسية، أن قوات الأمن أوقفت مؤخراً أكثر من 300 من بين «المفتش عنهم» في قضايا أمنية مختلفة، بينها الإرهاب وتهريب البشر.

كمال بن يونس (تونس)
تكنولوجيا توفر أفضل ممارسات وكالة الأمن القومي الأمريكية (NSA) أساساً قوياً لحماية جهازك ومعلوماتك الشخصية (شاترستوك)

إيقاف وتشغيل هاتفك مرة أسبوعياً قد يعطل الهجمات الإلكترونية

ويجعل من الصعب على المتسللين الحفاظ على السيطرة على جهازك.

نسيم رمضان (لندن)
الاقتصاد جانب من معرض «آمن» للتوعية بالأمن السيبراني في السعودية (واس)

3.54 مليار دولار حجم سوق الأمن السيبراني بالسعودية في 2023

كشفت الهيئة الوطنية للأمن السيبراني في السعودية أن حجم سوق الأمن السيبراني في البلاد بلغ 13.3 مليار ريال (3.54 مليار دولار) في عام 2023.

«الشرق الأوسط» (الرياض)
تكنولوجيا اليقظة وتدابير الأمان تمكّنان الأفراد من الدفاع عن بريدهم الإلكتروني ضد الجرائم الإلكترونية (شاترستوك)

​هل بريدك الإلكتروني بأمان؟ إليك بعض النصائح

تعد عناوين البريد الإلكتروني الشخصية والمهنية أهدافاً رئيسية لمجتمع متنامٍ من مجرمي الإنترنت المتطورين

نسيم رمضان (لندن)

الرياضيات… هل هي الطريق إلى روبوتات الدردشة بلا هلوسة؟

فلاد تينيف (إلى اليسار) وتودور أخيم مؤسسا «هرمونيك» في مقرهما الرئيسي في بالو ألتو كاليفورنيا
فلاد تينيف (إلى اليسار) وتودور أخيم مؤسسا «هرمونيك» في مقرهما الرئيسي في بالو ألتو كاليفورنيا
TT

الرياضيات… هل هي الطريق إلى روبوتات الدردشة بلا هلوسة؟

فلاد تينيف (إلى اليسار) وتودور أخيم مؤسسا «هرمونيك» في مقرهما الرئيسي في بالو ألتو كاليفورنيا
فلاد تينيف (إلى اليسار) وتودور أخيم مؤسسا «هرمونيك» في مقرهما الرئيسي في بالو ألتو كاليفورنيا

روبوتات الدردشة مثل ChatGPT «تشات جي بي تي» تخطئ في أعمالها. لكن الباحثين يقومون ببناء أنظمة ذكاء اصطناعي جديدة يمكنها التحقق من حساباتها الخاصة - وربما أكثر.

في أحد الأيام الماضية، أعطى الباحث تيودور أخيم لغزاً لروبوت ذكاء اصطناعي يُدعى «أرسطو» Aristotle.

سؤال حسابي للذكاء الاصطناعي

وتضمن السؤال جدولاً بحجم 10 × 10 مملوءاً بمائة رقم. وسأل أخيم: إذا جمعت أصغر رقم في كل صف وأكبر رقم في كل عمود... هل يمكن أن يكون أكبر الأرقام الصغيرة أكبر من أصغر الأرقام الكبيرة؟ وأجاب الروبوت بشكل صحيح «لا».

لكن هذا لم يكن مفاجئاً، إذ قد تقدم برامج الدردشة الشائعة مثل «تشات جي بي تي» الإجابة الصحيحة أيضاً. كان الاختلاف هو أن «أرسطو» أثبت أن إجابته كانت صحيحة. إذ أنشأ الروبوت برنامج كومبيوتر مفصلاً يتحقق من أن «لا» هي الإجابة الصحيحة.

بين الكتابة والشعر... والرياضيات

يمكن لبرامج الدردشة مثل «تشات جي بي تي» و«جيمناي» الإجابة على الأسئلة، وكتابة الشعر، وتلخيص المقالات الإخبارية، وإنشاء الصور. لكنها ترتكب أيضاً أخطاء تتحدى الفطرة السليمة. إذ في بعض الأحيان تخترع أشياء –في ظاهرة تسمى الهلوسة.

إلا أن أخيم الرئيس التنفيذي والمؤسس المشارك لشركة ناشئة في وادي السيليكون تسمى «هرمونيك» Harmonic، واحد من الأشخاص الذين يمثلون جزءاً من الجهود المتنامية لبناء نوع جديد من الذكاء الاصطناعي لا يهلوس أبداً.

برنامج «ألفا بروف» الذكي

ذكاء لغوي بلا هلوسة

اليوم، تركز هذه التكنولوجيا على الرياضيات. لكن العديد من الباحثين الرائدين يعتقدون أنهم يستطيعون توسيع نفس التقنيات في برمجة الكومبيوتر، وغيرها من المجالات. نظراً لأن الرياضيات هي تخصص صارم لإثبات ما إذا كانت الإجابة صحيحة أم خاطئة، يمكن لشركات مثل «هرمونيك» بناء تقنيات الذكاء الاصطناعي التي تتحقق من إجاباتها الخاصة وتتعلم إنتاج معلومات موثوقة.

نظام «ألفا بروف»

وقد كشف مختبر بحوث الكومبيوتر في مركز الذكاء الاصطناعي العملاق للتكنولوجيا «غوغل ديب مايند»، حديثاً عن نظام يسمى «ألفا بروف» AlphaProof يعمل بهذه الطريقة. وفي إطار المنافسة في أولمبياد الرياضيات الدولي، المسابقة الأولى في الرياضيات لطلاب المدارس الثانوية، حقق النظام أداء «الميدالية الفضية»، حيث تمكن من حل أربع من أصل ست مسائل في المسابقة. وكانت هذه هي المرة الأولى التي تصل فيها آلة إلى هذا المستوى.

* خدمة «نيويورك تايمز»