5 طرق يستخدمها المجرمون للذكاء الاصطناعي التوليدي

منها التصيّد الاحتيالي وجمع البيانات الشخصية

5 طرق يستخدمها المجرمون للذكاء الاصطناعي التوليدي
TT

5 طرق يستخدمها المجرمون للذكاء الاصطناعي التوليدي

5 طرق يستخدمها المجرمون للذكاء الاصطناعي التوليدي

توفر نظم الذكاء الاصطناعي التوليدي مجموعة أدوات جديدة وقوية تسمح للجهات الخبيثة في عالم الإجرام بالعمل بكفاءة أكبر وعلى المستوى الدولي أكثر من أي وقت مضى، كما يقول فينشينزو سيانكاجليني، أحد كبار الباحثين في مجال التهديدات في شركة «تريند مايكرو» الأمنية. ويضيف أن معظم المجرمين «لا يعيشون في مخبأ مظلم ويخططون للأشياء... بل إنهم أشخاص عاديون يقومون بأنشطة منتظمة تتطلب إنتاجية أيضاً».

وكان العام الماضي شهد صعود «وورم جي بي تي» (WormGPT) وسقوطه، وهو نموذج لغة ذكاء اصطناعي مبني على نموذج مفتوح المصدر، ومدرب على البيانات المتعلقة بالبرامج الضارة، تم إنشاؤه لمساعدة المتسللين، ولم تكن لديه قواعد أو قيود أخلاقية. لكن في الصيف الماضي، أعلن مبتكروه أنهم سيغلقون النموذج بعد أن بدأ يجذب اهتمام وسائل الإعلام.

طرق احتيال ذكية

منذ ذلك الحين توقف مجرمو الإنترنت في الغالب عن تطوير نماذج الذكاء الاصطناعي الخاصة بهم. وبدلاً من ذلك، فإنهم يختارون الحيل باستخدام الأدوات الموجودة التي تعمل بشكل موثوق.

وفيما يلي خمس طرق يستخدمها المجرمون للذكاء الاصطناعي الآن:

- التصيد الاحتيالي. وهو أكبر حالة استخدام للذكاء الاصطناعي التوليدي بين المجرمين في الوقت الحالي. ويتضمن محاولة خداع الأشخاص للكشف عن معلومات حساسة يمكن استخدامها لأغراض ضارة.

وقد وجد الباحثون أن ظهور «تشات جي بي تي» (ChatGPT) كان مصحوباً بارتفاع كبير في عدد رسائل البريد الإلكتروني التصيدية. ونقل موقع «تكنولوجي ريفيو» عن سيانكاجليني أن المجرمين قاموا بدمج الخدمات التي تنتج البريد العشوائي، مثل (GoMail Pro)، مع «تشات جي بي تي»، ما يسمح لهم بترجمة أو تحسين الرسائل المرسلة إلى الضحايا.

ورغم أن سياسات «أوبن إيه آي» تقيد استخدام الأشخاص لمنتجاتها، مثل «تشات جي بي تي» في أنشطة غير قانونية، لكن من الصعب مراقبة ذلك في الممارسة العملية، لأن كثيراً من المطالبات التي تبدو بريئة يمكن استخدامها لأغراض ضارة أيضاً.

وقال متحدث باسم الشركة: «نحن نعمل باستمرار على جعل نماذجنا أكثر أماناً وأكثر قوةً ضد إساءة الاستخدام وعمليات كسر الحماية، مع الحفاظ أيضاً على فائدة النماذج وأداء المهام».

ويقول سيانكاجليني: «كان المتحدثون باللغة الإنجليزية آمنين نسبياً من المجرمين غير الناطقين باللغة الإنجليزية؛ لأنه يمكنك اكتشاف رسائلهم». وهذا ليس هو الحال بعد الآن، فبفضل الترجمة الأحسن التي يعتمدها الذكاء الاصطناعي، يمكن للمجموعات الإجرامية المختلفة حول العالم أيضاً التواصل بشكل أفضل مع بعضها بعضاً. ويكمن الخطر في أنهم يستطيعون تنسيق عمليات واسعة النطاق تمتد إلى ما هو أبعد من بلدانهم، وتستهدف الضحايا في بلدان أخرى.

الاحتيال والتزييف الصوتي

- عمليات الاحتيال والتزييف الصوتي العميق. سمح الذكاء الاصطناعي التوليدي بتطوير التزييف العميق بتحقيق قفزة كبيرة إلى الأمام، حيث أصبحت الصور ومقاطع الفيديو والصوت الاصطناعية تبدو أكثر واقعية من أي وقت مضى.

وهذا لم يمر دون أن يلاحظه أحد من قبل عالم الجريمة الإجرامي. وفي وقت سابق من هذا العام، وردت أنباء بأن موظفاً في هونغ كونغ تعرض للاحتيال، وسُلب منه مبلغ 25 مليون دولار بعد أن استخدم مجرمو الإنترنت تقنية التزييف العميق للمدير المالي للشركة؛ لإقناع الموظف بتحويل الأموال إلى حساب المحتال.

يقول سيانكاجليني إن فريقه وجد أشخاصاً على منصات مثل «تلغرام» يعرضون «محفظة» من التزييف العميق، ويبيعون خدماتهم مقابل مبلغ زهيد يصل إلى 10 دولارات لكل صورة أو 500 دولار لكل دقيقة فيديو. وأحد أكثر الأشخاص شعبية بين المجرمين الذين يقومون بالتزييف العميق هو إيلون ماسك.

إن نماذج اللغات الكبيرة مليئة بالثغرات الأمنية. وبينما تظل مقاطع الفيديو المزيفة بعمق معقدة في صنعها ويسهل على البشر اكتشافها، فإن هذا ليس هو الحال بالنسبة للمقاطع الصوتية العميقة. فهي رخيصة الصنع، وتتطلب فقط بضع ثوان من صوت لشخص يستخلص من مواقع التواصل الاجتماعي.

في الولايات المتحدة، كانت هناك حالات رفيعة المستوى، حيث تلقى الأشخاص مكالمات مؤلمة من أحبائهم يقولون: إنهم تعرضوا للاختطاف، ويطلبون إطلاق سراحهم، ليتبين أن المتصل محتال يستخدم تسجيلاً صوتياً مزيفاً.

انتحال الهوية الشخصية

- اختراق عمليات التحقق من الهوية. هناك طريقة أخرى يستخدمها المجرمون للتزييف العميق، وهي اختراق وتجاوز أنظمة التحقق من الهوية الشخصية. تستخدم البنوك وبورصات العملات المشفرة أنظمة للتحقق من أن عملاءها هم أشخاص حقيقيون. إنها تتطلب من المستخدمين الجدد التقاط صورة لأنفسهم وهم يحملون وثيقة هوية فعلية أمام الكاميرا. لكنّ المجرمين بدأوا في بيع التطبيقات على منصات التواصل الاجتماعي التي تسمح للأشخاص بالتغلب على هذا المطلب.

ويتسلل المجرمون خلال تقديم بطاقة هوية مزيفة أو مسروقة وفرض صورة مزيفة فوق وجه شخص حقيقي لخداع نظام التحقق على كاميرا الجوال. ورصدت حالات بيع هذه الخدمات لمواقع للعملات المشفرة مقابل مبلغ زهيد يصل إلى 70 دولاراً.

كسر قواعد الذكاء الاصطناعي

- خرق القواعد وأصول عمل الذكاء الاصطناعي. إذا سألت معظم أنظمة الذكاء الاصطناعي عن كيفية صنع قنبلة، فلن تحصل على إجابة مفيدة، وذلك لأن شركات الذكاء الاصطناعي وضعت ضمانات مختلفة لمنع نماذجها من نشر معلومات ضارة أو خطيرة.

بدلاً من بناء نماذج الذكاء الاصطناعي الخاصة بهم دون هذه الضمانات، وهو أمر مكلف ويستغرق وقتاً طويلاً وصعباً، بدأ مجرمو الإنترنت في تبني اتجاه جديد: كسر الحماية.

وتأتي معظم النماذج مع قواعد حول كيفية استخدامها. ويسمح كسر الحماية للمستخدمين بالتلاعب بنظام الذكاء الاصطناعي لإنشاء مخرجات تنتهك هذه السياسات، على سبيل المثال، بهدف كتابة تعليمات برمجية لبرامج الفدية، أو إنشاء نص يمكن استخدامه في رسائل البريد الإلكتروني الاحتيالية.

ولمقاومة هذه التوجهات التخريبية المتنامية، يتعين على شركات الذكاء الاصطناعي مثل «أوبن إيه آي»، و«غوغل» في كثير من الأحيان سد الثغرات الأمنية التي قد تسمح بإساءة استخدام نماذجها.

رصد الأشخاص ونشر بياناتهم

- رصد ونشر البيانات الشخصية. يقول الخبراء إن نماذج لغة الذكاء الاصطناعي هي أداة مثالية ليس فقط للتصيد الاحتيالي، بل أيضاً لجمع المعلومات الشخصية (الكشف عن معلومات خاصة وتحديد هوية شخص ما عبر الإنترنت). وذلك لأن نماذج لغة الذكاء الاصطناعي يتم تدريبها على كميات هائلة من بيانات الإنترنت، بما في ذلك البيانات الشخصية، ويمكنها استنتاج المكان الذي يمكن أن يوجد فيه شخص ما، على سبيل المثال. ويوجد مثال على كيفية عمل ذلك، وهو أنه يمكنك أن تطلب من برنامج الدردشة الآلي التظاهر بأنه محقق خاص يتمتع بخبرة في جمع البيانات. ثم يمكنك أن تطلب منه تحليل النص الذي كتبه الضحية، واستنتاج المعلومات الشخصية من أدلة صغيرة في هذا النص - على سبيل المثال، عمره بناءً على الوقت الذي ذهب فيه إلى المدرسة الثانوية، أو المكان الذي يعيش فيه بناءً على المعالم التي يذكرها أثناء تنقلاته. ويمكنك نشر تلك المعلومات على الإنترنت.

وكلما توافرت معلومات أكثر عنهم على الإنترنت، أصبحوا أكثر عُرضةً للتعرف عليهم. وقد اكتشف فريق من الباحثين أواخر العام الماضي أن نماذج اللغات الكبيرة، مثل «جي بي تي - 4»، و«كلود» قادرة على استنتاج معلومات حساسة، مثل عرق الأشخاص، وموقعهم، ومهنتهم من المحادثات العادية مع الأشخاص.

وعلى الرغم من أن وجود هذه الخدمات لا يشير إلى نشاط إجرامي، فإنه يشير إلى القدرات الجديدة التي يمكن للجهات الخبيثة أن تحصل عليها. وإذا تمكن الأشخاص العاديون من بناء أدوات مراقبة مثل هذه، فمن المحتمل أن يكون لدى الجهات الحكومية أنظمة أفضل بكثير.



«أبل» تعتزم فتح «سيري» أمام خدمات الذكاء الاصطناعي المنافِسة

يظهر شعار شركة «أبل» على مبنى في حي مانهاتن بمدينة نيويورك الأميركية (د.ب.أ)
يظهر شعار شركة «أبل» على مبنى في حي مانهاتن بمدينة نيويورك الأميركية (د.ب.أ)
TT

«أبل» تعتزم فتح «سيري» أمام خدمات الذكاء الاصطناعي المنافِسة

يظهر شعار شركة «أبل» على مبنى في حي مانهاتن بمدينة نيويورك الأميركية (د.ب.أ)
يظهر شعار شركة «أبل» على مبنى في حي مانهاتن بمدينة نيويورك الأميركية (د.ب.أ)

ذكرت «بلومبيرغ نيوز»، اليوم الخميس، أن «أبل» تخطط لفتح مساعدها الصوتي «سيري» أمام خدمات ​الذكاء الاصطناعي المنافِسة، بما يتجاوز شراكتها الحالية مع «تشات جي بي تي».

وقالت الوكالة، في تقريرها الذي نقلته عن مصادر مطّلعة، إن هذه الخطوة، المتوقعة ضِمن تحديث نظام التشغيل «آي أو إس 27» من «أبل»، ستسمح لتطبيقات الذكاء الاصطناعي التابعة لجهات خارجية بالاندماج مباشرة مع «سيري»، مما يمكّن المستخدمين من توجيه الاستفسارات إلى خدمات مثل «جيميناي» التابعة لشركة «ألفابت»، أو «كلود» التابعة لشركة «أنثروبيك» من داخل المساعد.

وهذا التغيير تحول مهم في استراتيجية «أبل» للذكاء الاصطناعي، إذ تسعى الشركة إلى اللحاق بركب نظيراتها في وادي السيليكون، ووضع «آيفون» كمنصة أوسع للذكاء الاصطناعي.

و«سيري»، الذي أُطلق لأول مرة منذ أكثر من عقد، عنصر أساسي في هذا المسعى. وأفادت «بلومبيرغ نيوز» بأن «أبل» تُطور أدوات تسمح لتطبيقات روبوتات الدردشة المثبتة عبر متجر التطبيقات الخاص بها بالعمل مع «سيري» وميزات أخرى ضِمن منصة «أبل إنتليجنس». وسيتمكن المستخدمون من اختيار خدمة الذكاء الاصطناعي التي تتولى معالجة كل طلب.

وذكر التقرير أن هذا التحديث قد يساعد «أبل» أيضاً على تحقيق مزيد من الإيرادات من خلال الحصول على حصة من الاشتراكات المبيعة عبر خدمات الذكاء الاصطناعي التابعة لجهات خارجية.

ومن المتوقع أن تستعرض «أبل» ميزات البرنامج الجديدة في مؤتمر المطورين العالمي الذي تعقده في يونيو (حزيران) المقبل، غير أن الخطط قد تتغير.


البرلمان الأوروبي يحظر أدوات ذكاء اصطناعي «تعرّي» أشخاصاً

شعار روبوت الدردشة «غروك» يظهر على شاشتين (أ.ف.ب)
شعار روبوت الدردشة «غروك» يظهر على شاشتين (أ.ف.ب)
TT

البرلمان الأوروبي يحظر أدوات ذكاء اصطناعي «تعرّي» أشخاصاً

شعار روبوت الدردشة «غروك» يظهر على شاشتين (أ.ف.ب)
شعار روبوت الدردشة «غروك» يظهر على شاشتين (أ.ف.ب)

أقرّ البرلمان الأوروبي، الخميس، قانوناً يحظّر استخدام الذكاء الاصطناعي لـ«تعرية» الأشخاص من دون موافقتهم.

وتمّ تبني القرار في نصّ أُقرّ بأغلبية ساحقة (569 صوتاً مقابل 45 صوتاً معارضاً) خلال جلسة عامة للبرلمان في بروكسل، وفقاً لـ«وكالة الصحافة الفرنسية».

وأوضح بيان صادر عن البرلمان أن الأمر يتعلّق بحظر برامج «التعرية» التي «تستخدم الذكاء الاصطناعي لإنشاء أو التلاعب بصور ذات إيحاءات جنسية واضحة، أو صور في وضع حميم تشبه شخصاً حقيقياً يمكن التعرّف عليه، من دون موافقة هذا الشخص».

ولا يطبّق النص على أنظمة الذكاء الاصطناعي المزوّدة «بتدابير أمنية فعّالة» تحول دون هذه الممارسات.

وكانت دول الاتحاد الأوروبي أقرّت هذا الشهر إجراء مشابهاً. وسيتعيّن عليها الآن التفاوض مع البرلمان للتوصل إلى صياغة متقاربة، قبل أن يصبح من الممكن تطبيق الإجراء.

وتأتي هذه المبادرات خصوصاً بعد إدخال خاصية قبل بضعة أشهر في تطبيق «غروك» للذكاء الاصطناعي تتيح للمستخدمين أن يطلبوا منه تركيب صور مزيفة قريبة جداً من الواقعية (ديب فيك) لنساء وأطفال عراة، انطلاقاً من صور حقيقية.

وأثارت هذه القضية موجة استنكار في العديد من الدول ودفعت الاتحاد الأوروبي إلى فتح تحقيق.

كما وافق البرلمان في النص ذاته، على إرجاء دخول قوانين أوروبية جديدة حيّز التنفيذ بشأن أنظمة الذكاء الاصطناعي ذات المخاطر العالية، أي تلك العاملة في مجالات حساسة كالأمن أو الصحة أو الحقوق الأساسية.

وكان من المفترض أن تدخل هذه القواعد حيّز التنفيذ في أغسطس (آب) 2026. وعلى غرار الدول الأعضاء، اقترح النواب الأوروبيون تاريخين محدّدين لهذا التأجيل، في حين كانت المفوضية الأوروبية تريد منح الشركات جدولاً زمنياً أكثر مرونة.

والتاريخان هما: الثاني من ديسمبر (كانون الأول) 2027 للأنظمة المستقلة ذات المخاطر العالية، والثاني من أغسطس (آب) 2028 للأنظمة المدمجة في برامج أو منتجات أخرى.


«هيوماين» و«Turing» تطلقان سوقاً عالمية لوكلاء الذكاء الاصطناعي للمؤسسات

تجمع الشراكة بين البنية التحتية والنماذج لدى «هيوماين» وخبرة «Turing» في تطوير وتقييم أنظمة الذكاء الاصطناعي (هيوماين)
تجمع الشراكة بين البنية التحتية والنماذج لدى «هيوماين» وخبرة «Turing» في تطوير وتقييم أنظمة الذكاء الاصطناعي (هيوماين)
TT

«هيوماين» و«Turing» تطلقان سوقاً عالمية لوكلاء الذكاء الاصطناعي للمؤسسات

تجمع الشراكة بين البنية التحتية والنماذج لدى «هيوماين» وخبرة «Turing» في تطوير وتقييم أنظمة الذكاء الاصطناعي (هيوماين)
تجمع الشراكة بين البنية التحتية والنماذج لدى «هيوماين» وخبرة «Turing» في تطوير وتقييم أنظمة الذكاء الاصطناعي (هيوماين)

في خطوة تعكس تسارع الاهتمام بتطبيقات الذكاء الاصطناعي داخل المؤسسات، أعلنت «هيوماين»، التابعة لصندوق الاستثمارات العامة، عن شراكة مع شركة «Turing» المتخصصة في تطوير أنظمة الذكاء الاصطناعي، بهدف إنشاء سوق عالمية لوكلاء الذكاء الاصطناعي ضمن منصة «HUMAIN ONE».

وتتمحور الفكرة حول توفير بيئة تمكّن الشركات من اكتشاف هذه الوكلاء وتطبيقها وتوسيع استخدامها عبر وظائف مختلفة، مثل الموارد البشرية والمالية والعمليات، في محاولة لتسريع الانتقال من استخدام أدوات رقمية تقليدية إلى نماذج تشغيل أكثر اعتماداً على الأتمتة الذكية.

يفتح المشروع المجال أمام المطورين لنشر حلولهم وبناء منظومة أوسع لما يُعرف بـ«اقتصاد الوكلاء» (شاترستوك)

منصات التشغيل الذكي

الشراكة تجمع بين ما تطوره «هيوماين» من بنية تحتية ونماذج ذكاء اصطناعي، وبين خبرة «Turing» في تقييم النماذج وضبطها وتطبيقها في بيئات العمل. الهدف المعلن هو الوصول إلى وكلاء ذكاء اصطناعي يمكن استخدامها على نطاق واسع داخل المؤسسات، وليس فقط في التجارب أو النماذج الأولية.

ويُتوقع أن يشكّل هذا السوق طبقة جديدة ضمن ما يُعرف بنماذج التشغيل القائمة على الوكلاء، حيث لا تقتصر البرمجيات على دعم سير العمل، بل تبدأ في تنفيذه بشكل مباشر. وفي هذا السياق، يمكن للمؤسسات الوصول إلى وكلاء متخصصين حسب الوظيفة أو القطاع، ضمن بيئة مصممة لتكون قابلة للتوسع ومراعية لمتطلبات الأمان.

كما يفتح هذا التوجه المجال أمام المطورين وشركات التقنية لنشر حلولهم عبر المنصة، ما قد يساهم في بناء منظومة أوسع لوكلاء الذكاء الاصطناعي، تتجاوز حدود المؤسسات الفردية إلى سوق أكثر تكاملاً.

وتشير «هيوماين» إلى أن هذه الخطوة تأتي ضمن رؤية أوسع لإعادة تعريف كيفية بناء البرمجيات واستخدامها داخل المؤسسات، عبر الانتقال من نموذج «البرمجيات كخدمة» إلى بيئات تعتمد على وكلاء قادرين على تنفيذ المهام والتعلم والتفاعل بشكل مستمر.

يعكس هذا التوجه تحولاً نحو نماذج تشغيل جديدة تعتمد على وكلاء أذكياء بدلاً من البرمجيات التقليدية داخل المؤسسات

اقتصاد الوكلاء الناشئ

من جانبه، يرى طارق أمين، الرئيس التنفيذي لـ«هيوماين»، أن المرحلة المقبلة ستشهد تحولاً في طبيعة البرمجيات المستخدمة داخل المؤسسات، قائلاً إن «المؤسسات في المستقبل لن تُبنى حول تطبيقات منفصلة، بل حول وكلاء أذكياء يعملون إلى جانب الإنسان». ويضيف أن هذه الشراكة تسعى إلى تسريع بناء سوق يربط بين قدرات المطورين واحتياجات المؤسسات.

بدوره، أشار جوناثان سيدهارث، الرئيس التنفيذي والشريك المؤسس لـ«Turing»، إلى أن تحويل قدرات الذكاء الاصطناعي المتقدمة إلى تطبيقات عملية يمثل التحدي الأساسي حالياً، موضحاً أن بناء سوق قائم على الوكلاء قد يسهم في جعل هذه التقنيات أكثر ارتباطاً بالإنتاجية الفعلية داخل المؤسسات.

وتأتي هذه الشراكة أيضاً في سياق أوسع يعكس طموح السعودية لتكون لاعباً في تطوير تقنيات الذكاء الاصطناعي، ليس فقط من حيث الاستخدام، بل كمصدر للمنصات والحلول التقنية.

وبينما لا تزال فكرة «اقتصاد الوكلاء» في مراحل مبكرة، فإن الاتجاه نحو بناء منصات تجمع بين المطورين والمؤسسات يشير إلى تحول محتمل في طريقة تطوير البرمجيات وتبنيها. فبدلاً من شراء أدوات جاهزة، قد تتجه المؤسسات مستقبلاً إلى تشغيل منظومات من الوكلاء القادرين على تنفيذ مهام متكاملة عبر مختلف أقسام العمل.

في هذا الإطار، تبدو «HUMAIN ONE» محاولة لبناء هذه الطبقة التشغيلية الجديدة، حيث لا تقتصر القيمة على التكنولوجيا نفسها، بل على كيفية تنظيمها وتكاملها داخل بيئات العمل.