5 طرق يستخدمها المجرمون للذكاء الاصطناعي التوليدي

منها التصيّد الاحتيالي وجمع البيانات الشخصية

5 طرق يستخدمها المجرمون للذكاء الاصطناعي التوليدي
TT

5 طرق يستخدمها المجرمون للذكاء الاصطناعي التوليدي

5 طرق يستخدمها المجرمون للذكاء الاصطناعي التوليدي

توفر نظم الذكاء الاصطناعي التوليدي مجموعة أدوات جديدة وقوية تسمح للجهات الخبيثة في عالم الإجرام بالعمل بكفاءة أكبر وعلى المستوى الدولي أكثر من أي وقت مضى، كما يقول فينشينزو سيانكاجليني، أحد كبار الباحثين في مجال التهديدات في شركة «تريند مايكرو» الأمنية. ويضيف أن معظم المجرمين «لا يعيشون في مخبأ مظلم ويخططون للأشياء... بل إنهم أشخاص عاديون يقومون بأنشطة منتظمة تتطلب إنتاجية أيضاً».

وكان العام الماضي شهد صعود «وورم جي بي تي» (WormGPT) وسقوطه، وهو نموذج لغة ذكاء اصطناعي مبني على نموذج مفتوح المصدر، ومدرب على البيانات المتعلقة بالبرامج الضارة، تم إنشاؤه لمساعدة المتسللين، ولم تكن لديه قواعد أو قيود أخلاقية. لكن في الصيف الماضي، أعلن مبتكروه أنهم سيغلقون النموذج بعد أن بدأ يجذب اهتمام وسائل الإعلام.

طرق احتيال ذكية

منذ ذلك الحين توقف مجرمو الإنترنت في الغالب عن تطوير نماذج الذكاء الاصطناعي الخاصة بهم. وبدلاً من ذلك، فإنهم يختارون الحيل باستخدام الأدوات الموجودة التي تعمل بشكل موثوق.

وفيما يلي خمس طرق يستخدمها المجرمون للذكاء الاصطناعي الآن:

- التصيد الاحتيالي. وهو أكبر حالة استخدام للذكاء الاصطناعي التوليدي بين المجرمين في الوقت الحالي. ويتضمن محاولة خداع الأشخاص للكشف عن معلومات حساسة يمكن استخدامها لأغراض ضارة.

وقد وجد الباحثون أن ظهور «تشات جي بي تي» (ChatGPT) كان مصحوباً بارتفاع كبير في عدد رسائل البريد الإلكتروني التصيدية. ونقل موقع «تكنولوجي ريفيو» عن سيانكاجليني أن المجرمين قاموا بدمج الخدمات التي تنتج البريد العشوائي، مثل (GoMail Pro)، مع «تشات جي بي تي»، ما يسمح لهم بترجمة أو تحسين الرسائل المرسلة إلى الضحايا.

ورغم أن سياسات «أوبن إيه آي» تقيد استخدام الأشخاص لمنتجاتها، مثل «تشات جي بي تي» في أنشطة غير قانونية، لكن من الصعب مراقبة ذلك في الممارسة العملية، لأن كثيراً من المطالبات التي تبدو بريئة يمكن استخدامها لأغراض ضارة أيضاً.

وقال متحدث باسم الشركة: «نحن نعمل باستمرار على جعل نماذجنا أكثر أماناً وأكثر قوةً ضد إساءة الاستخدام وعمليات كسر الحماية، مع الحفاظ أيضاً على فائدة النماذج وأداء المهام».

ويقول سيانكاجليني: «كان المتحدثون باللغة الإنجليزية آمنين نسبياً من المجرمين غير الناطقين باللغة الإنجليزية؛ لأنه يمكنك اكتشاف رسائلهم». وهذا ليس هو الحال بعد الآن، فبفضل الترجمة الأحسن التي يعتمدها الذكاء الاصطناعي، يمكن للمجموعات الإجرامية المختلفة حول العالم أيضاً التواصل بشكل أفضل مع بعضها بعضاً. ويكمن الخطر في أنهم يستطيعون تنسيق عمليات واسعة النطاق تمتد إلى ما هو أبعد من بلدانهم، وتستهدف الضحايا في بلدان أخرى.

الاحتيال والتزييف الصوتي

- عمليات الاحتيال والتزييف الصوتي العميق. سمح الذكاء الاصطناعي التوليدي بتطوير التزييف العميق بتحقيق قفزة كبيرة إلى الأمام، حيث أصبحت الصور ومقاطع الفيديو والصوت الاصطناعية تبدو أكثر واقعية من أي وقت مضى.

وهذا لم يمر دون أن يلاحظه أحد من قبل عالم الجريمة الإجرامي. وفي وقت سابق من هذا العام، وردت أنباء بأن موظفاً في هونغ كونغ تعرض للاحتيال، وسُلب منه مبلغ 25 مليون دولار بعد أن استخدم مجرمو الإنترنت تقنية التزييف العميق للمدير المالي للشركة؛ لإقناع الموظف بتحويل الأموال إلى حساب المحتال.

يقول سيانكاجليني إن فريقه وجد أشخاصاً على منصات مثل «تلغرام» يعرضون «محفظة» من التزييف العميق، ويبيعون خدماتهم مقابل مبلغ زهيد يصل إلى 10 دولارات لكل صورة أو 500 دولار لكل دقيقة فيديو. وأحد أكثر الأشخاص شعبية بين المجرمين الذين يقومون بالتزييف العميق هو إيلون ماسك.

إن نماذج اللغات الكبيرة مليئة بالثغرات الأمنية. وبينما تظل مقاطع الفيديو المزيفة بعمق معقدة في صنعها ويسهل على البشر اكتشافها، فإن هذا ليس هو الحال بالنسبة للمقاطع الصوتية العميقة. فهي رخيصة الصنع، وتتطلب فقط بضع ثوان من صوت لشخص يستخلص من مواقع التواصل الاجتماعي.

في الولايات المتحدة، كانت هناك حالات رفيعة المستوى، حيث تلقى الأشخاص مكالمات مؤلمة من أحبائهم يقولون: إنهم تعرضوا للاختطاف، ويطلبون إطلاق سراحهم، ليتبين أن المتصل محتال يستخدم تسجيلاً صوتياً مزيفاً.

انتحال الهوية الشخصية

- اختراق عمليات التحقق من الهوية. هناك طريقة أخرى يستخدمها المجرمون للتزييف العميق، وهي اختراق وتجاوز أنظمة التحقق من الهوية الشخصية. تستخدم البنوك وبورصات العملات المشفرة أنظمة للتحقق من أن عملاءها هم أشخاص حقيقيون. إنها تتطلب من المستخدمين الجدد التقاط صورة لأنفسهم وهم يحملون وثيقة هوية فعلية أمام الكاميرا. لكنّ المجرمين بدأوا في بيع التطبيقات على منصات التواصل الاجتماعي التي تسمح للأشخاص بالتغلب على هذا المطلب.

ويتسلل المجرمون خلال تقديم بطاقة هوية مزيفة أو مسروقة وفرض صورة مزيفة فوق وجه شخص حقيقي لخداع نظام التحقق على كاميرا الجوال. ورصدت حالات بيع هذه الخدمات لمواقع للعملات المشفرة مقابل مبلغ زهيد يصل إلى 70 دولاراً.

كسر قواعد الذكاء الاصطناعي

- خرق القواعد وأصول عمل الذكاء الاصطناعي. إذا سألت معظم أنظمة الذكاء الاصطناعي عن كيفية صنع قنبلة، فلن تحصل على إجابة مفيدة، وذلك لأن شركات الذكاء الاصطناعي وضعت ضمانات مختلفة لمنع نماذجها من نشر معلومات ضارة أو خطيرة.

بدلاً من بناء نماذج الذكاء الاصطناعي الخاصة بهم دون هذه الضمانات، وهو أمر مكلف ويستغرق وقتاً طويلاً وصعباً، بدأ مجرمو الإنترنت في تبني اتجاه جديد: كسر الحماية.

وتأتي معظم النماذج مع قواعد حول كيفية استخدامها. ويسمح كسر الحماية للمستخدمين بالتلاعب بنظام الذكاء الاصطناعي لإنشاء مخرجات تنتهك هذه السياسات، على سبيل المثال، بهدف كتابة تعليمات برمجية لبرامج الفدية، أو إنشاء نص يمكن استخدامه في رسائل البريد الإلكتروني الاحتيالية.

ولمقاومة هذه التوجهات التخريبية المتنامية، يتعين على شركات الذكاء الاصطناعي مثل «أوبن إيه آي»، و«غوغل» في كثير من الأحيان سد الثغرات الأمنية التي قد تسمح بإساءة استخدام نماذجها.

رصد الأشخاص ونشر بياناتهم

- رصد ونشر البيانات الشخصية. يقول الخبراء إن نماذج لغة الذكاء الاصطناعي هي أداة مثالية ليس فقط للتصيد الاحتيالي، بل أيضاً لجمع المعلومات الشخصية (الكشف عن معلومات خاصة وتحديد هوية شخص ما عبر الإنترنت). وذلك لأن نماذج لغة الذكاء الاصطناعي يتم تدريبها على كميات هائلة من بيانات الإنترنت، بما في ذلك البيانات الشخصية، ويمكنها استنتاج المكان الذي يمكن أن يوجد فيه شخص ما، على سبيل المثال. ويوجد مثال على كيفية عمل ذلك، وهو أنه يمكنك أن تطلب من برنامج الدردشة الآلي التظاهر بأنه محقق خاص يتمتع بخبرة في جمع البيانات. ثم يمكنك أن تطلب منه تحليل النص الذي كتبه الضحية، واستنتاج المعلومات الشخصية من أدلة صغيرة في هذا النص - على سبيل المثال، عمره بناءً على الوقت الذي ذهب فيه إلى المدرسة الثانوية، أو المكان الذي يعيش فيه بناءً على المعالم التي يذكرها أثناء تنقلاته. ويمكنك نشر تلك المعلومات على الإنترنت.

وكلما توافرت معلومات أكثر عنهم على الإنترنت، أصبحوا أكثر عُرضةً للتعرف عليهم. وقد اكتشف فريق من الباحثين أواخر العام الماضي أن نماذج اللغات الكبيرة، مثل «جي بي تي - 4»، و«كلود» قادرة على استنتاج معلومات حساسة، مثل عرق الأشخاص، وموقعهم، ومهنتهم من المحادثات العادية مع الأشخاص.

وعلى الرغم من أن وجود هذه الخدمات لا يشير إلى نشاط إجرامي، فإنه يشير إلى القدرات الجديدة التي يمكن للجهات الخبيثة أن تحصل عليها. وإذا تمكن الأشخاص العاديون من بناء أدوات مراقبة مثل هذه، فمن المحتمل أن يكون لدى الجهات الحكومية أنظمة أفضل بكثير.



مؤتمر «مايكروسوفت إغنايت 2024» يكشف عن أبرز نزعات الذكاء الاصطناعي المقبلة

يستعرض مؤتمر «مايكروسوفت إغنايت 2024» أبرز تقنيات الذكاء الاصطناعي المقبلة
يستعرض مؤتمر «مايكروسوفت إغنايت 2024» أبرز تقنيات الذكاء الاصطناعي المقبلة
TT

مؤتمر «مايكروسوفت إغنايت 2024» يكشف عن أبرز نزعات الذكاء الاصطناعي المقبلة

يستعرض مؤتمر «مايكروسوفت إغنايت 2024» أبرز تقنيات الذكاء الاصطناعي المقبلة
يستعرض مؤتمر «مايكروسوفت إغنايت 2024» أبرز تقنيات الذكاء الاصطناعي المقبلة

تنتهي اليوم فعاليات مؤتمر «مايكروسوفت إغنايت 2024» (Microsoft Ignite) السنوي في مدينة شيكاغو الأميركية، بحضور تجاوز 14 ألف زائر، الذي استعرضت «مايكروسوفت» خلال أيامه الثلاثة أكثر من 80 خدمة ومنتجاً وميزة مرتبطة بالذكاء الاصطناعي.

الذكاء الاصطناعي بخدمة الموظفين

طوّرت الشركة خدمة «مايكروسوفت 365 كوبايلوت» (Microsoft 365 Copilot) الخاصة بالشركات، مقدمة «أفعال كوبايلوت» (Copilot Actions) التي تسمح بأتمتة المهام اليومية في مجال العمل بأوامر بسيطة، مثل الحصول على ملخص اجتماعات «تيمز» (Teams) في ذلك اليوم أو إعداد التقارير الأسبوعية أو تلخيص ما الذي يجب القيام به حسب الرسائل الواردة إلى بريد المستخدم والاجتماعات التي حدثت قبل عودته من إجازته السنوية، وغيرها.

 

 

«عملاء مايكروسوفت»

كشفت الشركة كذلك ميزة «عملاء مايكروسوفت» (Microsoft Agents) التي تسمح بالبحث في ملفات الشركة وتحليلها والإجابة على أسئلة الموظفين أو العملاء بكل خصوصية، وتلخيص النتائج بهدف تسريع اتخاذ قرارات العمل. وتعمل هذه الميزة في خدمة «شيربوينت» (SharePoint) لكل شركة.

 

 

 

المترجم الفوري

ويمكن لعميل ذكاء اصطناعي اسمه «المترجم الفوري» (Interpreter) ترجمة محادثات الاجتماعات المرئية في «تيمز» بهدف كسر الحواجز اللغوية والتركيز على جوهر الاجتماع، مع القدرة على محاكاة صوت المستخدم بلغة الطرف الثاني. ويمكن لعميل ذكي آخر اسمه «المُيَسِّر» (Facilitator) تلخيص اجتماعات «تيمز» وأتمتة إدارة المشاريع عبر جميع مراحلها. كما يستطيع بعض عملاء الذكاء الاصطناعي مساعدة الموظفين على حلّ مشاكلهم التقنية دون الحاجة للعودة إلى قسم الدعم الفني، والإجابة على أسئلتهم المتعلقة بسياسات الشركة والموارد البشرية والمشتريات، وغيرها.

الذكاء الاصطناعي رفيق المبرمجين

ولتسهيل تضمين تقنيات الذكاء الاصطناعي في برامج الشركات والأفراد، تقدم «مايكروسوفت» ما تسميه بـ«مسبك آجور للذكاء الاصطناعي» (Azure AI Foundry) الذي يوفر مجموعة برمجية للذكاء الاصطناعي وبوابة لتطوير عملاء الذكاء الاصطناعي.

وتوفر هذه المجموعة البرمجية أكثر من 25 قالباً مسبق الإعداد (Template) للذكاء الاصطناعي تسمح بتطوير تطبيقات مدعومة بهذه التقنية وتبسيط عملية البرمجة ونشرها عبر منصات «غيتهاب» (Github) و«فيجوال ستوديو» (Visual Studio) و«كوبايلوت ستوديو» (Copilot Studio). وتسمح البوابة للمبرمجين اكتشاف خدمات وأدوات ونماذج ذكاء اصطناعي تناسب احتياجاتهم واحتياجات الشركات التي يعملون لديها.

حماية المستخدمين

حذّرت «مايكروسوفت» أن عدد الهجمات الإلكترونية التي تستهدف سرقة كلمات السرّ قد ارتفع خلال آخر 3 أعوام من 579 إلى أكثر من 7000 هجمة في كل ثانية، مع مضاعفة العدد في آخر سنة، ما يضع سبل الحماية التقليدية في موضع لا يسمح لها اللحاق بتقدم القراصنة.

مبادرة المستقبل الآمن

هذا الأمر يتطلب إعادة تطوير عملية حماية المستخدمين، ما دفع الشركة إلى إطلاق «مبادرة المستقبل الآمن» (Secure Future Initiative) التي طلبت من 34000 مهندس العمل على أكبر مشروع للأمن الرقمي بتاريخ البشرية وتطوير مقاومة البرامج ونظم التشغيل وأجهزة المستخدمين لطوفان الهجمات الرقمية الذي تتسارع وتيرته في كل يوم.

وكشفت كذلك عن عملها على تطوير «مايكروسوفت سيكيوريتي إكسبوجر مانجمنت» (Microsoft Security Exposure Management) الذي يقوم بتحليل آلية تواصل الأجهزة المختلفة والبيانات والهوية الرقمية والشبكات، بعضها مع بعض، داخل بيئة العمل واكتشاف العلاقات بينها وعرض مسار الاختراقات الممكنة لأي قرصان إلكتروني، وذلك لاكتشاف نقطة الضعف في البيئة المعقدة التي يمكن للقراصنة الدخول منها، وتوقع هدفهم وتتبع المسار المفترض لهم عبر الأجهزة المختلفة للوصول إلى الهوية الرقمية أو البيانات الحساسة، ومن ثم حماية ذلك المسار بشكل استباقي على صعيد سدّ الثغرات في الأجهزة أو البرامج أو نظام التشغيل أو الشبكة، وغيرها من العوامل الأخرى. كما يستطيع هذا المشروع التأكد من سلامة الاحتياطات الأمنية للفريق التقني داخل الشركة.

وأطلقت الشركة نظام «مايكروسوفت سيكيوريتي كوبايلوت» (Microsoft Security Copilot) المدعوم بالذكاء الاصطناعي للقيام بالوظائف الأمنية باستخدام الذكاء الاصطناعي بكل سلاسة وسهولة، حيث أظهرت الدراسات انخفاض معدل مدة حلّ المشاكل الأمنية لدى استخدام هذا النظام بنحو 30 في المائة.

أجهزة الذكاء الاصطناعي

واستعرضت الشركة أول جهاز من فئته، مصنوع خصيصاً للاتصال بأمان مع خدمة «ويندوز 365» السحابية، اسمه «ويندوز 365 لينك» (Windows 365 Link).

الجهاز بسيط وآمن، وسيتم إطلاقه في أبريل (نيسان) 2025 المقبل، بسعر 349 دولاراً أميركياً، ويسمح للمستخدمين بالعمل بأمان مع نظام التشغيل «ويندوز» السحابي بكل سرعة وموثوقية.

ولا يقوم الجهاز بتخزين أي بيانات داخله، ولا يقوم بتثبيت أي برامج فيه، مع تقديم وحدة معالجة للذكاء الاصطناعي مدمجة فيه لتسريع التفاعل مع البيانات والحصول على النتائج بكل سلاسة.

 

تحليل علوم الأرض

وعلى الصعيد نفسه، تعاونت وكالة الفضاء الأميركية «ناسا» مع «مايكروسوفت» لتطوير أداة مدعومة بالذكاء الاصطناعي اسمها «كوبايلوت الأرض» (Earth Copilot) تهدف إلى تبسيط عملية تحليل البيانات المرتبطة بعلوم الأرض التي تجمعها الأقمار الاصطناعية الخاصة بـ«ناسا». وسيتم نشر هذه البيانات المعقدة للجميع بهدف مشاركة المعلومات المهمة مع العلماء والباحثين والطلاب والمدرسين وصناع السياسات وعموم الناس.

وستستخدم الوكالة خدمة «آجور أوبين إيه آي» (Azure OpenAI Service) لتذليل العقبات التقنية وتمكين المجموعات المختلفة للمستخدمين من التفاعل مع البيانات العلمية لكوكب الأرض، ما يدل على الأبواب التي يفتحها الذكاء الاصطناعي لتسهيل وتبسيط عملية التعليم والبحث وتحليل مجموعات البيانات الضخمة في المجالات العلمية وسنّ السياسات، وفي مجالات الزراعة والتخطيط الحضري والاستجابة في حالات الكوارث، وغيرها.

ويمكن زيارة الموقع من هذا الرابط: www.earthdata.nasa.gov/dashboard