مكالمات الاحتيال بالذكاء الاصطناعي… تزداد ذكاءً

شركات الاتصالات تطور الخطط للتصدي لها

مكالمات الاحتيال بالذكاء الاصطناعي… تزداد ذكاءً
TT

مكالمات الاحتيال بالذكاء الاصطناعي… تزداد ذكاءً

مكالمات الاحتيال بالذكاء الاصطناعي… تزداد ذكاءً

تُحدث مكالمات الاحتيال ضجةً عالمية. ويُقدّر التحالف العالمي لمكافحة الاحتيال The Global Anti - Scam Alliance أن المحتالين سرقوا مبلغاً هائلاً قدره 1.03 تريليون دولار أميركي عالمياً في عام 2023، بما في ذلك خسائر ناجمة عن الاحتيال عبر الإنترنت، ومكالمات الاحتيال، كما كتب كولاولي صموئيل أديبايو(*).

الذكاء الاصطناعي والاحتيال

لطالما كانت المكالمات الآلية، والاحتيال عبر الهاتف مشكلةً تثير إحباطاً -وغالباً ما تكون خطيرة– للمستخدمين. والآن، يُفاقم الذكاء الاصطناعي من هذا التهديد، ما يجعل عمليات الاحتيال أكثر خداعاً، وفعاليةً، وصعوبةً في الكشف.

إنتاج محتوى مزيّف ومتنوع

يعتقد إريك بريزكالنز، المحلل والمحرر في «كومسيرك»، أن تأثير الذكاء الاصطناعي على مكالمات الاحتيال مبالغ فيه حالياً، إلا أنه يُشير إلى أن استخدام المحتالين للذكاء الاصطناعي يُركز على إنتاج محتوى مُزيف يبدو حقيقياً، أو على تنويع محتوى الرسائل المُصممة لجذب الضحايا المُحتملين إلى محادثات خبيثة. ويُصرح لصحيفة «فاست كومباني»: «إن تنويع المحتوى يُصعّب تحديد عمليات الاحتيال، وحظرها، باستخدام أدوات مكافحة الاحتيال التقليدية».

أصوات أحبائكم مزيفة

من الأصوات المُزيفة المُولّدة بالذكاء الاصطناعي التي تُحاكي أصوات الأحباء، إلى عمليات الاحتيال واسعة النطاق التي تستخدم التعلم الآلي لتجنب الكشف، يستغل المُجرمون الذكاء الاصطناعي لزيادة فعالية مكالمات الاحتيال هذه. السؤال الأهم هو: كيف يُمكن لقطاع الاتصالات مُكافحة هذه المُشكلة مُباشرةً قبل أن يُسبب المحتالون المزيد من الفوضى؟

وحتى وقت قريب، اعتمدت عمليات الاحتيال الهاتفي في الغالب على المكالمات الآلية المُبسطة -وهي رسائل مُسجلة مُسبقاً تُحذر المُتسلمين من مُشكلة مالية مُلحة، أو مُشكلة مُفترضة في رقم الضمان الاجتماعي الخاص بهم. وهذه الأساليب، رغم استمرارها، يمكن التعرف غالباً بسهولة عليها. لكن عمليات الاحتيال المدعومة بالذكاء الاصطناعي اليوم أكثر إقناعاً بكثير.

احتيال مرعب بـ«استنساخ الصوت»

من أكثر التطورات إثارة للقلق استخدام الأصوات المُولّدة بالذكاء الاصطناعي، ما يجعل عمليات الاحتيال تبدو شخصية بشكل مُقلق. في حالة مُرعبة وقعت في أبريل (نيسان) 2023، تلقت أم في أريزونا مكالمة يائسة من شخص بدا تماماً مثل ابنتها، تبكي وتتوسل طلباً للمساعدة. وطالبها محتال، مُتظاهراً بأنه خاطف، بفدية. في الواقع، كانت الابنة في أمان -فقد استخدم المجرمون الذكاء الاصطناعي لاستنساخ صوتها من فيديو على وسائل التواصل الاجتماعي.

وازدادت عمليات الاحتيال هذه، المعروفة باسم «احتيال استنساخ الصوت»، في الأشهر الأخيرة. فببضع ثوانٍ فقط من الصوت، يُمكن لأدوات الذكاء الاصطناعي الآن إنشاء نسخة رقمية واقعية بشكل مُخيف من صوت الشخص، ما يُمكّن المحتالين من انتحال شخصيات الأصدقاء، أو أفراد العائلة، أو حتى المديرين التنفيذيين في عمليات احتيال الشركات.

صياغة مكالمات موجهة شخصياً

يستخدم المحتالون أيضاً الذكاء الاصطناعي لتحليل كميات هائلة من البيانات، وضبط مخططاتهم بدقة مُرعبة. تستطيع خوارزميات التعلم الآلي غربلة المعلومات العامة -مثل منشورات مواقع التواصل الاجتماعي، والمنتديات الإلكترونية، واختراقات البيانات- لصياغة مكالمات احتيالية مُخصصة للغاية. فبدلاً من خدعة عامة من مصلحة الضرائب، أو الدعم الفني، يمكن للمحتالين الآن استهداف الضحايا بتفاصيل محددة حول مشترياتهم، أو تاريخ سفرهم، أو حتى حالاتهم الطبية.

كما يُعزز الذكاء الاصطناعي عمليات انتحال هوية المتصل، ما يسمح للمحتالين بالتلاعب بأرقام الهواتف لتبدو كأنها صادرة من شركات محلية، أو وكالات حكومية، أو حتى جهات اتصال الضحية. وهذا يزيد من احتمالية رد الناس على المكالمات، ما يجعل تجاهل مكالمات الاحتيال أكثر صعوبة.

الهجوم المضاد لشركات الاتصالات

الذكاء الاصطناعي في مواجهة الذكاء الاصطناعي، هذه هي خلاصة عملية التصدي للاحتيال الإلكتروني. إذ مع صقل المحتالين لأدوات الذكاء الاصطناعي، تُكافح شركات الاتصالات والهيئات التنظيمية باستخدام الذكاء الاصطناعي الخاص بها -من خلال نشر أنظمة متطورة للكشف عن المكالمات الخبيثة، وتتبعها، وحظرها قبل وصولها إلى المستهلكين.

1.التعرف على صدقية المكالمات وكشف الاحتيال باستخدام الذكاء الاصطناعي. لمكافحة انتحال الهوية، تستفيد شركات الاتصالات من تقنيات تحليل الصوت، والمصادقة المدعومة بالذكاء الاصطناعي. وفي الولايات المتحدة، يستخدم إطار عمل STIR/SHAKEN التوقيعات المشفرة للتحقق من أن المكالمات صادرة من مصادر شرعية. ولكن مع تكيف المحتالين السريع، أصبح كشف الاحتيال المدعوم بالذكاء الاصطناعي ضرورياً.

يمكن لنماذج التعلم الآلي المُدربة على مليارات أنماط المكالمات تحليل البيانات الوصفية في الوقت الفعلي للكشف عن أي شذوذ -مثل الارتفاع المفاجئ في المكالمات من مناطق محددة، أو أرقام مرتبطة بعمليات احتيال معروفة. وتستطيع أنظمة الذكاء الاصطناعي هذه حتى اكتشاف العلامات الصوتية الدقيقة النموذجية للأصوات المُولّدة بتقنية التزييف العميق، ما يُساعد على إيقاف المكالمات الاحتيالية قبل اتصالها.

2.تصفية وترشيح وحظر المكالمات على مستوى شركة الاتصالات. يُدمج كبار مُزودي خدمات الاتصالات تصفية المكالمات المدعومة بالذكاء الاصطناعي مباشرةً في شبكاتهم. مثلاً تستخدم كلٌّ من خدمة Call Protect من شركة «أيه تي أند تي»، وخدمة Scam Shield من شركة «تي - موبايل»، وخدمة Call Filter من «فيريزون» الذكاء الاصطناعي لاكتشاف الأنماط المشبوهة، وحظر المكالمات عالية الخطورة قبل وصولها إلى المستخدمين. كما توفر مرشحات تابعة لشبكة GSMA حماية فورية للمكالمات من خلال التحقق من شرعيتها ومكافحة انتحال هوية خط الاتصال.

1000 خاصية صوتية فريدة للتحقق من الهوية

3. القياسات الحيوية الصوتية المدعومة بالذكاء الاصطناعي للتحقق من هوية المتصل. تُعدّ القياسات الحيوية (البيولوجية) الصوتية خط دفاع واعداً آخر ضد الاحتيال الناتج عن الذكاء الاصطناعي. وتنشر بعض المؤسسات المالية ومقدمو خدمات الاتصالات أنظمة مصادقة صوتية تُحلل أكثر من 1000 خاصية صوتية فريدة للتحقق من هوية المتصل.

وبخلاف تقنية التعرف على الصوت الأساسية، يمكن لهذه الأنظمة المتقدمة اكتشاف وقت استخدام صوت مُولّد بالذكاء الاصطناعي، مما يمنع المحتالين بفعالية من انتحال هوية العملاء الشرعيين.

حملة قانونية صارمة

تشن الهيئات التنظيمية حملة صارمة، ولكن هل هذا كافٍ؟ إن تشديد اللوائح، وتشديد العقوبات أمرٌ واحد، وهو أمرٌ تقوم به بالفعل العديد من الوكالات الحكومية حول العالم، لكن تطبيق هذه اللوائح بفعالية أمرٌ مختلفٌ تماماً. ففي الولايات المتحدة، على سبيل المثال، شددت لجنة الاتصالات الفيدرالية (FCC) العقوبات على المكالمات الآلية غير القانونية، وتحث شركات الاتصالات على اعتماد دفاعات أكثر صرامةً مدعومة بالذكاء الاصطناعي. يمنح قانون TRACED (قانون إنفاذ وردع إساءة استخدام المكالمات الآلية الهاتفية)، الذي تم توقيعه على أنه قانون في عام 2019، الجهات التنظيمية مزيداً من الصلاحيات لتغريم المحتالين، ويفرض تدابير أقوى لمكافحة الانتحال. وعلى الصعيد الدولي، تعمل الجهات التنظيمية في المملكة المتحدة وكندا وأستراليا على أطر عمل مماثلة تعتمد على الذكاء الاصطناعي لحماية المستهلكين من الاحتيال المتزايد. وقد أصدر الاتحاد الأوروبي قوانين أكثر صرامة بشأن خصوصية البيانات، ما يحد من كيفية استخدام الذكاء الاصطناعي لجمع البيانات الشخصية لعمليات الاحتيال.

ومع ذلك، فإن جهات إنفاذ القانون تكافح لمواكبة سرعة ابتكار الذكاء الاصطناعي. ويعمل المحتالون على مستوى العالم، وغالباً ما يكونون خارج نطاق اختصاص أي جهة تنظيمية واحدة. تتمركز العديد من شبكات الاحتيال في بلدان يصعب فيها اتخاذ إجراءات قانونية، إن لم يكن شبه مستحيل.

لنأخذ، على سبيل المثال، دولاً مثل ميانمار، وكمبوديا، ولاوس، حيث أنشأت جماعات الجريمة المنظمة مراكز احتيال إلكتروني تستخدم تقنيات التزييف العميق المدعومة بالذكاء الاصطناعي لخداع الضحايا حول العالم. وكثيراً ما ينقل مشغلو هذه المراكز مواقعهم، أو يغيرون أساليبهم للبقاء في صدارة جهات إنفاذ القانون. كما أنهم يعملون في مناطق تواجه تحديات قضائية معقدة، ما يزيد من تعقيد عملية إنفاذ القانون.

عوائق تنظيمية

يزدهر المحتالون في ظل التشتت، واستغلال نقاط الضعف، سواءً كان ذلك نقصاً في التنسيق بين القطاعات، أو اختلافاً في النهج التنظيمية عبر الحدود. تُبرز هذه العوائق التنظيمية ضرورة قيام مزودي خدمات الاتصالات بدور أكثر استباقية في مكافحة الاحتيال المدعوم بالذكاء الاصطناعي، بدلاً من الاعتماد فقط على الأطر التقليدية التي -رغم فائدتها- ليست دائماً فعالة. وهنا يأتي دور تقنية GSMA Call Check، التي طورتها شركة «أوكيلوس» Oculeus الألمانية لحلول الاتصالات، في تحقيق هدفها الحيوي. تُوفر خدمات التحقق من المكالمات من GSMA آلية بسيطة، وسريعة، ومنخفضة التكلفة لتبادل المعلومات حول مكالمات الهاتف الاحتيالية فور حدوثها. يقول بريزكالنز من «كوميرسك» إن «هذه التقنية مُتجذرة في السحابة، ما يجعلها مُستقبلية، وعالمية بطريقة لن تكون عليها أبداً الطرق الأخرى التي تُفكر فيها بعض الدول».

معركة طويلة

لا شك أن المعركة ضد عمليات الاحتيال المُدعمة بالذكاء الاصطناعي لم تنتهِ بعد. وكما أشارت جيسيكا روزينورسيل، رئيسة لجنة الاتصالات الفيدرالية (FCC) السابقة، العام الماضي: «نعلم أن تقنيات الذكاء الاصطناعي ستجعل من السهل والرخيص إغراق شبكاتنا بمقاطع فيديو مُزيفة تُستخدم للتضليل، وزعزعة الثقة».

الخبر السار هو أن قطاع الاتصالات لا يتراجع، فبينما يستخدم المحتالون الذكاء الاصطناعي لخداع الأفراد غير المُنتبهين، فإن القطاع يستفيد أيضاً من الذكاء الاصطناعي لحماية العملاء وبياناتهم الحساسة، من خلال فحص المكالمات الآلي، والكشف الفوري عن الاحتيال، وإجراءات المصادقة المُحسّنة.

أمر واحد مؤكد: المحتالون وعمليات الاحتيال لن تختفي في أي وقت قريب. وكما يشير بريزكالنز، سيستمر الناس في الوقوع ضحية عمليات الاحتيال حتى مع التدريب المكثف على التوعية العامة. ولكن مع استمرار تطور الذكاء الاصطناعي، يجب على قطاع الاتصالات أن يكون متقدماً بخطوة، لضمان أن يصبح قوة للحماية، لا للخداع.

* مجلة «فاست كومباني» خدمات «تريبيون ميديا»


مقالات ذات صلة

الذكاء الاصطناعي في العمل المصرفي… هل يتحول من أداة مساعدة إلى بنية أساسية؟

تكنولوجيا ينتقل الذكاء الاصطناعي في القطاع المصرفي من مرحلة التجارب إلى التشغيل واسع النطاق ليصبح جزءاً من البنية الأساسية لاتخاذ القرارات الحساسة (شاترستوك)

الذكاء الاصطناعي في العمل المصرفي… هل يتحول من أداة مساعدة إلى بنية أساسية؟

يدخل الذكاء الاصطناعي العمل المصرفي بوصفه بنية أساسية، حيث تُدار القرارات آلياً، وتقاس الثقة رقمياً، وتتصاعد تحديات الحوكمة، والبيانات، والاحتيال.

نسيم رمضان (لندن)
الاقتصاد الصفحة الرئيسية لـ«تشات جي بي تي» تظهر عليها عبارة «مرحباً بكم في أوبن إيه آي» - بافاريا (د.ب.أ)

عمالقة التكنولوجيا يخططون لاستثمار 60 مليار دولار في «أوبن إيه آي»

ذكرت صحيفة «ذا إنفورميشن» يوم الأربعاء، أن شركات «إنفيديا» و«أمازون» و«مايكروسوفت» تُجري محادثات لاستثمار ما يصل إلى 60 مليار دولار في شركة «أوبن إيه آي».

«الشرق الأوسط» (نيويورك)
الاقتصاد شعارات لعدد من شركات التكنولوجيا (أ.ب)

ذكاء اصطناعي أم استنزاف مالي؟ المستثمرون يحاكمون عمالقة التكنولوجيا

هذا الأسبوع، وجّه المستثمرون رسالة صارمة لعمالقة التكنولوجيا: لم يعد الإنفاق الملياري وحده كافياً، بل يجب أن يقترن بنمو حقيقي وملموس.

«الشرق الأوسط» (واشنطن)
الاقتصاد شعار «مايكروسوفت» خلال معرض هانوفر 2025 (رويترز)

«مايكروسوفت» تهوي 6.5 % بعد إنفاق قياسي على الذكاء الاصطناعي ونمو سحابي مخيب

قالت شركة «مايكروسوفت» يوم الأربعاء إنها أنفقت مبلغاً قياسياً على الذكاء الاصطناعي في الربع الأخير، وسجَّلت نمواً أبطأ في مجال الحوسبة السحابية.

«الشرق الأوسط» (واشنطن)
الاقتصاد تظهر تطبيقات «فيسبوك» و«ماسنجر» و«إنستغرام» و«واتساب» على شاشة هاتف ذكي تعكس شعار تطبيق الذكاء الاصطناعي «ميتا» (د.ب.إ)

«ميتا» تعلن نتائج قوية وتكشف إنفاقاً ضخماً على الذكاء الاصطناعي

أعلنت شركة «ميتا بلاتفورمز»، المالكة لـ«فيسبوك» و«إنستغرام» و«واتساب»، عن نتائجها المالية للربع الرابع، والتي جاءت متفوقة على توقعات المحللين.

«الشرق الأوسط» (كاليفورنيا)

موجة حذف واسعة لـ«تيك توك» في أميركا بعد سيطرة حلفاء ترمب على التطبيق

أشخاص يستخدمون هواتفهم الجوالة أمام شعار تطبيق «تيك توك» (رويترز)
أشخاص يستخدمون هواتفهم الجوالة أمام شعار تطبيق «تيك توك» (رويترز)
TT

موجة حذف واسعة لـ«تيك توك» في أميركا بعد سيطرة حلفاء ترمب على التطبيق

أشخاص يستخدمون هواتفهم الجوالة أمام شعار تطبيق «تيك توك» (رويترز)
أشخاص يستخدمون هواتفهم الجوالة أمام شعار تطبيق «تيك توك» (رويترز)

كشفت تقارير حديثة ارتفاعاً ملحوظاً في عدد المستخدمين الذين حذفوا تطبيق «تيك توك» داخل الولايات المتحدة، عقب صفقة استحوذت بموجبها مجموعة من المستثمرين المقرّبين من الرئيس الأميركي دونالد ترمب على عمليات التطبيق في البلاد، وفقاً لصحيفة «إندبندنت».

وحسب بيانات شركة أبحاث السوق «سينسور تاور»، ارتفعت عمليات إلغاء تثبيت التطبيق من قبل المستخدمين الأميركيين بنحو 150 في المائة منذ تغيير هيكل الملكية الأسبوع الماضي.

وأعرب عدد من مستخدمي «تيك توك» عن مخاوفهم من احتمال فرض رقابة على المحتوى في ظل المُلّاك الجدد، لا سيما بعد انتقال ملكية التطبيق من الشركة الصينية «بايت دانس» إلى مجموعة استثمارية تضم شركة «أوراكل» العملاقة، بقيادة مؤسسها لاري إليسون، المعروف بقربه من ترمب.

وفي هذا السياق، أشار مستخدمون إلى أن مقاطع الفيديو المنتقدة للرئيس الأميركي، وكذلك تلك التي تناولت مداهمات إدارة الهجرة والجمارك في مينيابوليس، لم تحظَ بأي مشاهدات خلال الأسبوع الحالي، في حين لُوحظ حجب كلمات محددة، من بينها اسم «إبستين»، في الرسائل الخاصة.

على صعيد رسمي، أعلن حاكم ولاية كاليفورنيا، غافين نيوسوم، عزمه فتح تحقيق لمعرفة ما إذا كان تطبيق «تيك توك» يمارس رقابة على المحتوى منذ إتمام صفقة الاستحواذ، وهو ما قد يُعد انتهاكاً لقوانين الولاية.

من جهتها، أقرت منصة «تيك توك» بوقوع هذه الحوادث، لكنها عزتها إلى مشكلات تقنية واسعة النطاق تتعلق بخوادمها. وقال متحدث باسم الشركة لصحيفة «إندبندنت» إن التطبيق لا يفرض أي قيود على تداول اسم جيفري إبستين، المدان الراحل بالاعتداء الجنسي على الأطفال.

وأضاف المتحدث أن «تيك توك» تمكنت من تحديد الخلل الذي تسبب في هذه المشكلات لبعض المستخدمين، وتعمل حالياً على معالجته.

وفي بيان رسمي، أوضحت الشركة: «نواصل العمل على حل مشكلة كبيرة في البنية التحتية، نتجت عن انقطاع التيار الكهربائي في أحد مواقع مراكز البيانات التابعة لشركائنا في الولايات المتحدة».

وأضاف البيان أن تجربة المستخدم داخل الولايات المتحدة قد تستمر في مواجهة بعض الاضطرابات التقنية، لا سيما عند نشر محتوى جديد.

إلى جانب ذلك، عبّر مستخدمون آخرون عن قلقهم إزاء سياسة الخصوصية المحدّثة للتطبيق، معتبرين أنها تتضمن طلب الوصول إلى معلومات حساسة قد تُستخدم من قبل إدارة ترمب ضدهم.

وفي ظل هذه المخاوف، سجلت التطبيقات المنافسة لـ«تيك توك» ارتفاعاً ملحوظاً في عدد التنزيلات، حيث شهد كل من «سكاي لايت» و«آب سكرولد» زيادة كبيرة في أعداد المستخدمين خلال الأيام القليلة الماضية.


الذكاء الاصطناعي في العمل المصرفي… هل يتحول من أداة مساعدة إلى بنية أساسية؟

ينتقل الذكاء الاصطناعي في القطاع المصرفي من مرحلة التجارب إلى التشغيل واسع النطاق ليصبح جزءاً من البنية الأساسية لاتخاذ القرارات الحساسة (شاترستوك)
ينتقل الذكاء الاصطناعي في القطاع المصرفي من مرحلة التجارب إلى التشغيل واسع النطاق ليصبح جزءاً من البنية الأساسية لاتخاذ القرارات الحساسة (شاترستوك)
TT

الذكاء الاصطناعي في العمل المصرفي… هل يتحول من أداة مساعدة إلى بنية أساسية؟

ينتقل الذكاء الاصطناعي في القطاع المصرفي من مرحلة التجارب إلى التشغيل واسع النطاق ليصبح جزءاً من البنية الأساسية لاتخاذ القرارات الحساسة (شاترستوك)
ينتقل الذكاء الاصطناعي في القطاع المصرفي من مرحلة التجارب إلى التشغيل واسع النطاق ليصبح جزءاً من البنية الأساسية لاتخاذ القرارات الحساسة (شاترستوك)

لم يعد الذكاء الاصطناعي تجربة جانبية في القطاع المصرفي، ولا مشروعاً استكشافياً في مختبرات الابتكار. ما يحدث اليوم هو انتقال فعلي إلى مرحلة التشغيل واسع النطاق، حيث تُدار قرارات حساسة عبر أنظمة آلية، وتُقاس الثقة رقمياً، وتُعاد صياغة البنية الأساسية للبنوك على أساس البيانات، والخوارزميات. لم يعد السؤال محصوراً بقدرة الذكاء الاصطناعي على تغيير العمل المصرفي، بل بات يتعلق بمدى استعداد البنوك لتكلفة هذا التغيير، وتعقيداته.

تشير تقديرات شركة «غارتنر» إلى أن الإنفاق على البرمجيات في منطقة الشرق الأوسط وشمال أفريقيا سينمو بنسبة 13.9 في المائة ليصل إلى 20.4 مليار دولار في 2026، مدفوعاً بتسارع تبني تقنيات الذكاء الاصطناعي المتقدم. وعلى المستوى العالمي، تتوقع الشركة أن يُوجَّه 75 في المائة من الإنفاق على البرمجيات بحلول عام 2028 إلى حلول تتضمن قدرات الجيل الجديد من الذكاء الاصطناعي. هذه الأرقام تعكس تحولاً هيكلياً لا يمكن عزله عن القطاع المصرفي الذي بات في قلب هذا التسارع.

الثقة تتحول إلى معيار أداء

مع توسع استخدام الذكاء الاصطناعي في تقييم الجدارة الائتمانية، وكشف الاحتيال، وخدمة العملاء، أصبحت الأنظمة أسرع، وأكثر دقة، لكنها أيضاً أقل شفافية. التحدي الأكبر يتعلق بكيفية إدارة البنوك على إبراز قرارات تتخذها خوارزميات خلال أجزاء من الثانية.

يرى أليكس كوياتكوفسكي، مدير الخدمات المالية العالمية في «ساس»، أن عام 2026 يمثل نقطة تحول في هذا الجانب. ويوضح أن «الثقة لم تعد وعداً ضمنياً، بل أصبحت معيار أداء. على البنوك الانتقال من الذكاء القائم على النماذج إلى الذكاء القائم على الأدلة، حيث يصبح كل قرار قابلاً للتفسير، والتحقق». هذه المقاربة تعكس تحولاً في مفهوم الذكاء نفسه، وهو أنه لا قيمة للتنبؤ إذا لم يكن قابلاً للإثبات.

صعود الذكاء الاصطناعي الوكيل والأنظمة شبه المستقلة يعيد تشكيل العمليات المصرفية لكنه يولد مخاطر جديدة تتعلق بالاحتيال والتجارة الآلية (شاترستوك)

الذكاء الاصطناعي الوكيل في قلب العمليات

أحد أبرز ملامح المرحلة المقبلة هو الانتقال من أدوات تحليلية إلى أنظمة شبه مستقلة، أو ما يُعرف بالذكاء الاصطناعي الوكيل. هذه الأنظمة لا تكتفي بتقديم توصيات، بل تدير عمليات كاملة، من معالجة طلبات العملاء، إلى تنظيم سير العمل، واتخاذ قرارات تشغيلية.

بحسب بيانات شركة «شركة الأبحاث الدولية» (IDC)، من المتوقع أن يتجاوز إنفاق قطاع الخدمات المالية على الذكاء الاصطناعي 67 مليار دولار بحلول عام 2028، مع تركيز متزايد على التطبيقات الإنتاجية المرتبطة بالقرارات، والعمليات. بحسب ديانا روثفوس مديرة استراتيجية الحلول العالمية لإدارة المخاطر، والاحتيال، والامتثال في «ساس»: «القطاع تجاوز مرحلة إثبات المفهوم». وتوضح روثفوس كذلك أن «القطاع تجاوز مرحلة إثبات المفهوم». وتضيف: «البنوك التي ستحقق ميزة تنافسية هي تلك التي تحول الذكاء الاصطناعي إلى بنية صناعية، حيث تصبح الحوكمة جزءاً من القيمة، لا عبئاً تنظيمياً».

التجارة الآلية ومخاطر «الشراء غير المقصود»

مع توسع الأنظمة الذاتية، بدأت البنوك تواجه سيناريوهات جديدة لم تكن في الحسبان. من بينها نزاعات ناتجة عن عمليات شراء نفذتها أنظمة ذكية دون إدراك كامل من المستخدم. هذه الظاهرة تفتح باباً جديداً لمخاطر الاحتيال. آدم نيبرغ المدير الأول للتسويق المصرفي العالمي في «ساس» يشدد على أن البنوك باتت مطالبة بالتحقق ليس فقط من هوية الأفراد، بل من هوية الأنظمة الذكية نفسها. ويضيف أن «أطراً مثل الرموز المميزة للأنظمة، والتوقيعات السلوكية ستصبح ضرورية لحماية العملاء، ومنع إساءة استخدام الذكاء الاصطناعي».

تتحول الثقة من مفهوم افتراضي إلى معيار أداء قابل للقياس مع تزايد الحاجة إلى قرارات خوارزمية قابلة للتفسير والتحقق (شاترستوك)

تلوث البيانات وظهور «الخزائن الرقمية»

تواجه البنوك أزمة جديدة تتعلق بسلامة البيانات. فالبيانات الاصطناعية رغم فائدتها في تدريب النماذج، قد تتسلل إلى قواعد البيانات الأساسية، وتدخل تحيزات يصعب اكتشافها.

يحذر إيان هولمز، مدير حلول مكافحة الاحتيال المؤسسي في «ساس»، من أن «الذكاء الاصطناعي التوليدي قادر على إدخال أخطاء واقعية على نطاق واسع، ما يجعل اكتشاف البيانات الملوثة أكثر صعوبة».

ولهذا، بدأت بعض البنوك بإنشاء «خزائن بيانات» رقمية محمية تفرض ضوابط صارمة على تفاعل النماذج الذكية مع البيانات الحساسة.

في المقابل، يفتح الذكاء الاصطناعي آفاقاً جديدة أمام استغلال البيانات غير المهيكلة، التي تشكل أكثر من 80 في المائة من بيانات المؤسسات، وتنمو بمعدل يتراوح بين 50 و60 في المائة سنوياً. توضح تيريزا روبرتس، المديرة العالمية لنمذجة المخاطر في «ساس» أن وكلاء المعرفة المدعومين بالنماذج اللغوية الضخمة باتوا قادرين على تحويل نصوص وصور كانت مهملة سابقاً إلى رؤى قابلة للتنفيذ، ما يسرّع اتخاذ القرار، ويحوّل إدارة المخاطر من نهج تفاعلي إلى استباقي.

الاحتيال العاطفي

من أخطر التحديات الناشئة ما يُعرف بالاحتيال العاطفي المدعوم بالذكاء الاصطناعي. فالمحتالون باتوا يستخدمون نماذج لغوية لمحاكاة التفاعل الإنساني على نطاق واسع. يعد ستو برادلي، نائب الرئيس الأول لحلول إدارة المخاطر في «ساس» أن «الحد الفاصل بين التواصل الحقيقي والإغواء المصطنع يتلاشى» ما يفرض على البنوك لعب دور «حاجز الحماية العاطفية» عبر تحليل السلوك، والكشف المبكر عن أنماط الاستغلال. كما تشهد تقنيات مكافحة الجرائم المالية تحولاً جذرياً مع تراجع فعالية الأنظمة القائمة على القواعد. وفي هذا السياق ترى بيث هيرون رئيسة حلول الامتثال المصرفي في «ساس» أن «الانتقال إلى تحليلات فورية وقابلة للتفسير لم يعد خياراً، بل ضرورة تنظيمية، وتنافسية».

خلاصة المشهد

في 2026، يرى الخبراء أن القطاع المصرفي سيدخل مرحلة لا يمكن فيها الفصل بين الذكاء الاصطناعي، والثقة، والحوكمة. النجاح لن يكون لمن يملك النموذج الأقوى فقط، بل لمن يستطيع تحويل الذكاء إلى قرارات قابلة للتفسير، وبيانات موثوقة، وأنظمة تحمي العملاء بقدر ما تحمي الأرباح.


«سحر وأمل جديد»... شريحة «نيورالينك» تمكّن مريض شلل من التحكم في أجهزته بعقله

إيلون ماسك يمسك بالشريحة الدماغية المبتكرة (أ.ف.ب)
إيلون ماسك يمسك بالشريحة الدماغية المبتكرة (أ.ف.ب)
TT

«سحر وأمل جديد»... شريحة «نيورالينك» تمكّن مريض شلل من التحكم في أجهزته بعقله

إيلون ماسك يمسك بالشريحة الدماغية المبتكرة (أ.ف.ب)
إيلون ماسك يمسك بالشريحة الدماغية المبتكرة (أ.ف.ب)

قال أحد أوائل الأشخاص في المملكة المتحدة الذين استخدموا شريحة الدماغ التي طورتها شركة نيورالينك، التي يمتلكها الملياردير إيلون ماسك، إنها «تبدو سحرية»، مشيراً إلى أنه يعتقد أنها قادرة على تغيير حياة المصابين بالشلل الشديد.

ونقلت شبكة «سكاي نيوز» البريطانية عن سيباستيان غوميز - بينا، وهو متطوّع في أول تجربة بريطانية للشريحة، قوله إنه «تغيير جذري في حياتك عندما تفقد فجأة القدرة على تحريك أي من أطرافك».

وأضاف: «لكن هذا النوع من التكنولوجيا يمنحنا بصيص أمل جديداً».

وكان غوميز - بينا قد أنهى لتوه فصله الدراسي الأول في كلية الطب، عندما تسبَّب حادث في إصابته بشلل رباعي.

هو واحد من سبعة أشخاص زُرعت لهم الشريحة في التجربة البريطانية المصمَّمة لتقييم سلامة الجهاز وموثوقيته.

وزُرعت شريحة نيورالينك، المتصلة بـ1024 قطباً كهربائياً مزروعاً في دماغه، خلال عملية جراحية استغرقت خمس ساعات في مستشفى جامعة كوليدج لندن (UCLH).

وبينما شارك جراحون ومهندسون بريطانيون من شركة «نيورالينك» في العملية، قام «روبوت R1» التابع للشركة نفسها بزرع الجهاز، وهو روبوت مصمَّم خصيصاً لإدخال الأقطاب الكهربائية المجهرية في أنسجة المخ الحساسة.

وزُرعت الأقطاب الكهربائية على عمق 4 ملم تقريباً في سطح دماغ غوميز - بينا، بالمنطقة المسؤولة عن حركات اليد.

وتُنقل الإشارات العصبية عبر خيوط أرقّ بعشر مرات تقريباً من شعرة الإنسان إلى شريحة مزروعة في ثقب دائري بالجمجمة.

وتُنقل البيانات من الشريحة لاسلكياً إلى جهاز كمبيوتر، حيث يتعلم برنامج ذكاء اصطناعي تفسير الإشارات، مُترجماً تعليمات غوميز - بينا إلى يديه اللتين بُترتا إثر الحادث إلى حركة على حاسوبه أو هاتفه.

بمعنى آخر، تسمح الشريحة لغوميز - بينا بالتحكم بالكمبيوتر والهاتف الذكي بسرعة ودقة كبيرة باستخدام أفكاره فقط.

فقد أصبح الآن يقلب الصفحات على شاشة الكمبيوتر ويجري الأبحاث، ويُظلل النصوص، ويذاكر دروسه الخاصة بكلية الطب، بسرعة تضاهي أو تفوق سرعة مَن يستخدم الفأرة.

وبينما ركَّزت هذه التجربة على مناطق الدماغ المسؤولة عن الحركة، تخطط «نيورالينك» أيضاً لاختبارات وتجارب مستقبلية لتحسين الكلام وإمكانية استعادة الرؤية.

ورغم الإمكانات الواعدة، يحذر الخبراء من أن التقنية ما زالت في مراحلها التجريبية، فقد استغرقت شركة «نيورالينك» ما يقارب 20 عاماً لتطوير تقنية الشريحة والأقطاب الكهربائية، والروبوت الجراحي، وأدوات الذكاء الاصطناعي اللازمة لإقناع الجهات التنظيمية بأنها في وضع يسمح لها باختبار جهاز على البشر.

وزُرع أول جهاز في متطوع أميركي قبل عامين. والآن، يمتلكه 21 شخصاً في الولايات المتحدة وكندا والمملكة المتحدة والإمارات.

ويعاني جميع أولئك الأشخاص من شلل شديد - إما بسبب إصابة في النخاع الشوكي، أو سكتة دماغية، أو أمراض تنكسية عصبية مثل التصلب الجانبي الضموري.