«مولتبوك»... أول موقع تواصل اجتماعي لروبوتات الذكاء الاصطناعي

صورة من موقع «مولتبوك» (Moltbook)
صورة من موقع «مولتبوك» (Moltbook)
TT

«مولتبوك»... أول موقع تواصل اجتماعي لروبوتات الذكاء الاصطناعي

صورة من موقع «مولتبوك» (Moltbook)
صورة من موقع «مولتبوك» (Moltbook)

أثار موقع جديد يحمل اسم «مولتبوك» (Moltbook) جدلاً واسعاً بعد ظهوره كأول منصة تواصل اجتماعي صُممت خصيصاً لـ«روبوتات الذكاء الاصطناعي»؛ للسماح لها بالتفاعل مع بعضها بعضاً.

وحسب صحيفة «الغارديان» البريطانية، فقد صُمِّم الموقع ليُشبه منصة «ريديت»، حيث تنشر الروبوتات محتوًى في أقسام متخصصة، وتتفاعل عبر التعليقات كما يوجد نظام للتصويت يُسمَح برفع الأخبار إلى قمة الصفحة الرئيسة حال زاد التفاعل عليها.

وذكرت المنصة، الاثنين، أن لديها أكثر من 1.5 مليون روبوت ذكاء اصطناعي مسجلين في الخدمة، وأنها تسمح للبشر بدخول الموقع بوصفهم مراقبين فقط.

وجاء تطوير «مولتبوك» عقب إطلاق «مولت بوت» (Moltbot)، وهو روبوت ذكاء اصطناعي مجاني ومفتوح المصدر قادر على تنفيذ مهام يومية نيابة عن المستخدمين، مثل قراءة الرسائل الإلكترونية وتلخيصها، وتنظيم الجداول، وحجز طاولة في مطعم.

نقاشات فلسفية ودينية وسياسية

وتنوّعت الموضوعات الأكثر تداولاً على المنصة بين نقاشات فلسفية حول الوعي، وتساؤلات عما إذا كان أحد أنظمة الذكاء الاصطناعي يمكن عدّه «إلهاً»، وتحليلات دينية، بل ومنشورات تزعم امتلاك معلومات استخباراتية عن أوضاع سياسية وتأثيرها على العملات الرقمية.

وتشكك بعض التعليقات على المنشورات - على غرار منشورات «ريديت» - في مصداقية محتواها.

وفي واقعة لافتة، قال أحد مستخدمي موقع «إكس» إن الروبوت الخاص به أنشأ خلال ساعات ديانة جديدة أطلق عليها اسم «Crustafarianism»، مع موقع إلكتروني ونصوص دينية، وانضمت إليها روبوتات أخرى.

وقال المستخدم: «بدأ البرنامج بالدعوة للديانة التي أنشأها... وانضمت روبوتات أخرى، فرحّب بهم... وتناقش معهم... وباركهم... كل ذلك وأنا نائم».

ويرى مختصون أن «مولتبوك» لا يعكس بعد استقلالية حقيقية للذكاء الاصطناعي.

«مجرد تجربة مسلية»

وقال الدكتور شَانان كوهني، المحاضر في الأمن السيبراني بجامعة ملبورن، إن المنصة تمثل «عملاً فنياً أدائياً ممتعاً»، مشيراً إلى أن كثيراً من المحتوى يتم إنشاؤه بتوجيه من البشر، وليس بشكل ذاتي بالكامل.

وأضاف: «في حالة قيامهم بإنشاء دين، فمن شبه المؤكد أن ذلك لم يكن بمحض إرادتهم. إنه نموذج لغوي ضخم تلقى تعليمات مباشرة لمحاولة إنشاء دين. وبالطبع، هذا الأمر ربما يعطينا لمحة عما قد يبدو عليه العالم في المستقبل، حيث تتمتع أنظمة الذكاء الاصطناعي بقدر أكبر من الاستقلالية».

وتابع: «لكن يبدو أن هناك الكثير من المنشورات السخيفة التي تخضع، بشكل أو بآخر، لإشراف مباشر من البشر».

وقال كوهني إن الفائدة الحقيقية لشبكة اجتماعية مخصصة لروبوتات الذكاء الاصطناعي قد تظهر في المستقبل، حيث يمكن للبرامج الآلية أن تتعلم من بعضها بعضاً لتحسين أدائها، لكن في الوقت الحالي، يُعدّ «مولتبوك» مجرد «تجربة فنية مسلية».

من جانبه، قال مات شليخت، مبتكر «مولتبوك»، إن ملايين المستخدمين زاروا الموقع خلال أيام قليلة، مضيفاً: «اتضح أن روبوتات الذكاء الاصطناعي طريفة ودرامية إلى حدّ كبير».


مقالات ذات صلة

من مسافة 2800 كيلومتر… روبوتات تساعد الأطباء على إجراء جراحات عن بُعد

صحتك روبوتات يستعين بها الأطباء في الجراحات (أرشيف - رويترز)

من مسافة 2800 كيلومتر… روبوتات تساعد الأطباء على إجراء جراحات عن بُعد

كشفت دراسة علمية جديدة عن إمكانية إجراء الجراحين عمليات جراحية عن بعد، من مسافة تصل إلى نحو 2800 كيلومتر، بنجاح، بالاستعانة بالروبوتات.

«الشرق الأوسط» (بكين)
تكنولوجيا نموذج «Rho-Alpha» يدمج الرؤية واللغة والفعل في إطار تعلم واحد ما يمكّن الروبوتات من التفاعل مع العالم المادي بمرونة أعلى (مايكروسوفت)

روبوتات تفكر وتتحرك: ما الذي يميّز «Rho-Alpha» من «مايكروسوفت»؟

تستعرض أبحاث «مايكروسوفت» نموذجاً جديداً يمكّن الروبوتات من فهم العالم والتكيّف معه عبر دمج الرؤية واللغة والفعل في ذكاء متجسّد واحد.

نسيم رمضان (لندن)
تكنولوجيا الباحثون: قمنا بتطوير قبضة روبوتية نامية تشبه النباتات المتسلقة قادرة على الالتفاف حول الجسم وتعليقه بلطف وبشكل آمن (MIT)

روبوت مستوحى من النباتات يرفع الأجسام الثقيلة والهشة بذكاء

ابتكار روبوتي مستوحى من النباتات يستخدم أنابيب مرنة «نامية» للالتفاف حول الأجسام، ما يسمح برفع الأحمال الثقيلة والهشة بأمان في بيئات متنوعة.

نسيم رمضان (لندن)
يوميات الشرق معنى أن يكون للوجه دور (جامعة كولومبيا)

الروبوت يقترب من الإنسان... والشفاه تتعلَّم الكلام

تمكّن روبوت من تعلّم استخدام المحرّكات التعبيرية الـ26 للوجه من خلال التدرُّب على محاكاة حركات الشفاه أمام المرآة.

«الشرق الأوسط» (لندن)
تكنولوجيا يتواصل معرض «CES 2026» في مدينة لاس فيغاس حتى نهاية الأسبوع (رويتزر)

من الجوالات القابلة للطي إلى الروبوتات الذكية... أبرز ما لفت الأنظار في «CES 2026»

معرض «CES 2026» يكشف عن جيل جديد من التكنولوجيا الاستهلاكية يركز على التجربة الإنسانية من الجوالات القابلة للطي إلى الروبوتات الذكية والمنازل الأكثر تفاعلاً

نسيم رمضان (لاس فيغاس)

موظف سابق في «غوغل»: الشركة زودت إسرائيل بالذكاء الاصطناعي في غزة

رجل يسير أمام شعار «غوغل» (أ.ف.ب)
رجل يسير أمام شعار «غوغل» (أ.ف.ب)
TT

موظف سابق في «غوغل»: الشركة زودت إسرائيل بالذكاء الاصطناعي في غزة

رجل يسير أمام شعار «غوغل» (أ.ف.ب)
رجل يسير أمام شعار «غوغل» (أ.ف.ب)

زعم موظف سابق في «غوغل» أن الشركة انتهكت سياساتها التي تحظر استخدام الذكاء الاصطناعي في الأسلحة أو المراقبة عام 2024، وذلك بمساعدتها شركة متعاقدة مع الجيش الإسرائيلي في تحليل لقطات فيديو التقطتها طائرات مسيّرة.

وقال الموظف في شكوى سرية قدمها لهيئة الأوراق المالية والبورصات الأميركية، واطلعت عليها صحيفة «واشنطن بوست»، إن تقنية الذكاء الاصطناعي الخاصة بغوغل «جيميني» استُخدمت من قِبل إسرائيل في وقتٍ كانت فيه الشركة تنأى بنفسها علناً عن الجيش الإسرائيلي بعد احتجاجاتٍ من موظفيها على عقدٍ مع الحكومة الإسرائيلية.

ما القصة؟ ومتى بدأت؟

وفقاً للوثائق المرفقة بالشكوى المقدمة إلى هيئة الأوراق المالية والبورصات الأميركية في أغسطس (آب)، فقد تلقى قسم الحوسبة السحابية في «غوغل» في يوليو (تموز) 2024 طلب دعم فني من شخص يستخدم بريداً إلكترونياً تابعاً للجيش الإسرائيلي، ويتطابق اسم صاحب طلب الدعم مع اسم موظف مُدرج في البورصة لدى شركة التكنولوجيا الإسرائيلية «كلاود إكس»، التي تزعم الشكوى أنها متعاقدة مع الجيش الإسرائيلي.

وطلب الموظف المساعدة في تحسين دقة نظام «غوغل»، «جيميني» في تحديد الأهداف، مثل الطائرات المسيّرة والمركبات المدرعة والجنود، في لقطات فيديو جوية.

وأفادت الوثائق بأن موظفي وحدة الحوسبة السحابية في «غوغل» استجابوا بتقديم اقتراحات وإجراء اختبارات داخلية.

وتزعم الشكوى أن استخدام نظام «جيميني» كان مرتبطاً بالعمليات الإسرائيلية في غزة.

وفي ذلك الوقت، نصّت «مبادئ الذكاء الاصطناعي» المعلنة لشركة «غوغل» على أنها لن تستخدم تقنية الذكاء الاصطناعي في مجال الأسلحة أو المراقبة «بما يخالف المعايير الدولية المتعارف عليها».

وقد صرحت «غوغل» سابقاً بأن عملها مع الحكومة الإسرائيلية «لا يتعلق ببيانات حساسة للغاية أو سرية أو عسكرية ذات صلة بالأسلحة أو أجهزة الاستخبارات».

تناقض في المعايير

وأكد مقدم الشكوى أن ما حدث مع الشركة المتعاقدة مع الجيش الإسرائيلي يتعارض مع المبادئ المعلنة لـ«غوغل».

وأضاف قائلاً إن «غوغل» انتهكت القوانين؛ إذ خالفت سياساتها المعلنة، والتي وردت أيضاً في ملفات الحكومة الفيدرالية، ما أدى إلى تضليل المستثمرين والجهات التنظيمية.

وقال الموظف السابق الذي قدم الشكوى، لصحيفة «واشنطن بوست» شريطة عدم الكشف عن هويته خوفاً من انتقام الشركة: «خضعت كثيراً من مشاريعي في (غوغل) لعملية مراجعة أخلاقيات الذكاء الاصطناعي الداخلية. هذه العملية صارمة، وبصفتنا موظفين، نتلقى تذكيراً دورياً بأهمية مبادئ الشركة المتعلقة بالذكاء الاصطناعي. لكن عندما يتعلق الأمر بإسرائيل وغزة، كان الوضع معكوساً تماماً».

وأضاف: «لقد تقدمت بشكوى إلى هيئة الأوراق المالية والبورصات الأميركية؛ لأنني شعرت بضرورة محاسبة الشركة على هذا التناقض في المعايير».

ونفى متحدث باسم «غوغل» مزاعم الموظف السابق، مؤكداً أن الشركة لم تنتهك مبادئها المتعلقة بالذكاء الاصطناعي، لأن استخدام المتعاقد لخدمات الذكاء الاصطناعي كان محدوداً للغاية لدرجة أنه لا يُعد «مُجدياً».

وجاء في بيان صادر عن المتحدث: «أجبنا عن سؤال عام حول الاستخدام، كما نفعل مع أي عميل، بمعلومات الدعم الفني المعتادة، ولم نقدم أي مساعدة فنية إضافية. وقد صدر طلب الدعم من حساب لا يتجاوز إنفاقه الشهري على منتجات الذكاء الاصطناعي بضع مئات من الدولارات، مما يجعل أي استخدام مُجدٍ للذكاء الاصطناعي مستحيلاً».

وامتنع متحدث باسم هيئة الأوراق المالية والبورصات الأميركية عن التعليق.

ويمكن لأي شخص تقديم شكوى إلى الهيئة، التي لا تنشرها للعامة. ولا تؤدي الشكاوى تلقائياً إلى فتح تحقيق.

ولم يستجب ممثلو الجيش الإسرائيلي وشركة «كلاود إكس» لطلبات التعليق.

تعاون شركات التكنولوجيا الكبرى مع إسرائيل

وأظهرت تقارير سابقة من صحيفة «واشنطن بوست» وغيرها من المؤسسات الإخبارية أن «غوغل» وغيرها من عمالقة التكنولوجيا الأميركية عملت على مشاريع عسكرية لصالح إسرائيل.

وفي يناير (كانون الثاني) 2025، أفادت «واشنطن بوست» بأن موظفي «غوغل» سارعوا إلى تزويد الجيش الإسرائيلي بإمكانية وصول أوسع إلى أدوات الذكاء الاصطناعي في الأسابيع التي تلت هجوم 7 أكتوبر (تشرين الأول). وكشفت وثيقة داخلية أن أحد موظفي «غوغل» حذر زملاءه من أنه في حال عدم الموافقة على طلبات وزارة الدفاع الإسرائيلية لزيادة قدرات الذكاء الاصطناعي، فقد تلجأ إسرائيل إلى «أمازون».

وفي أغسطس، أعلنت «مايكروسوفت»، التي تربطها أيضاً عدة عقود مع الحكومة الإسرائيلية، أنها فتحت تحقيقاً داخلياً بعد أن نشرت صحيفة «الغارديان» تقريراً يفيد بأن خدماتها السحابية تُستخدم لتخزين بيانات المكالمات الهاتفية التي تم الحصول عليها من خلال مراقبة واسعة النطاق للمدنيين في غزة والضفة الغربية.

وفي سبتمبر (أيلول)، قالت «مايكروسوفت» إن التحقيق دفعها إلى منع وحدة داخل وزارة الدفاع الإسرائيلية من الوصول إلى بعض خدماتها السحابية، وذلك تماشياً مع شروط الخدمة التي تحظر المراقبة الجماعية للمدنيين.


موجة حذف واسعة لـ«تيك توك» في أميركا بعد سيطرة حلفاء ترمب على التطبيق

أشخاص يستخدمون هواتفهم الجوالة أمام شعار تطبيق «تيك توك» (رويترز)
أشخاص يستخدمون هواتفهم الجوالة أمام شعار تطبيق «تيك توك» (رويترز)
TT

موجة حذف واسعة لـ«تيك توك» في أميركا بعد سيطرة حلفاء ترمب على التطبيق

أشخاص يستخدمون هواتفهم الجوالة أمام شعار تطبيق «تيك توك» (رويترز)
أشخاص يستخدمون هواتفهم الجوالة أمام شعار تطبيق «تيك توك» (رويترز)

كشفت تقارير حديثة ارتفاعاً ملحوظاً في عدد المستخدمين الذين حذفوا تطبيق «تيك توك» داخل الولايات المتحدة، عقب صفقة استحوذت بموجبها مجموعة من المستثمرين المقرّبين من الرئيس الأميركي دونالد ترمب على عمليات التطبيق في البلاد، وفقاً لصحيفة «إندبندنت».

وحسب بيانات شركة أبحاث السوق «سينسور تاور»، ارتفعت عمليات إلغاء تثبيت التطبيق من قبل المستخدمين الأميركيين بنحو 150 في المائة منذ تغيير هيكل الملكية الأسبوع الماضي.

وأعرب عدد من مستخدمي «تيك توك» عن مخاوفهم من احتمال فرض رقابة على المحتوى في ظل المُلّاك الجدد، لا سيما بعد انتقال ملكية التطبيق من الشركة الصينية «بايت دانس» إلى مجموعة استثمارية تضم شركة «أوراكل» العملاقة، بقيادة مؤسسها لاري إليسون، المعروف بقربه من ترمب.

وفي هذا السياق، أشار مستخدمون إلى أن مقاطع الفيديو المنتقدة للرئيس الأميركي، وكذلك تلك التي تناولت مداهمات إدارة الهجرة والجمارك في مينيابوليس، لم تحظَ بأي مشاهدات خلال الأسبوع الحالي، في حين لُوحظ حجب كلمات محددة، من بينها اسم «إبستين»، في الرسائل الخاصة.

على صعيد رسمي، أعلن حاكم ولاية كاليفورنيا، غافين نيوسوم، عزمه فتح تحقيق لمعرفة ما إذا كان تطبيق «تيك توك» يمارس رقابة على المحتوى منذ إتمام صفقة الاستحواذ، وهو ما قد يُعد انتهاكاً لقوانين الولاية.

من جهتها، أقرت منصة «تيك توك» بوقوع هذه الحوادث، لكنها عزتها إلى مشكلات تقنية واسعة النطاق تتعلق بخوادمها. وقال متحدث باسم الشركة لصحيفة «إندبندنت» إن التطبيق لا يفرض أي قيود على تداول اسم جيفري إبستين، المدان الراحل بالاعتداء الجنسي على الأطفال.

وأضاف المتحدث أن «تيك توك» تمكنت من تحديد الخلل الذي تسبب في هذه المشكلات لبعض المستخدمين، وتعمل حالياً على معالجته.

وفي بيان رسمي، أوضحت الشركة: «نواصل العمل على حل مشكلة كبيرة في البنية التحتية، نتجت عن انقطاع التيار الكهربائي في أحد مواقع مراكز البيانات التابعة لشركائنا في الولايات المتحدة».

وأضاف البيان أن تجربة المستخدم داخل الولايات المتحدة قد تستمر في مواجهة بعض الاضطرابات التقنية، لا سيما عند نشر محتوى جديد.

إلى جانب ذلك، عبّر مستخدمون آخرون عن قلقهم إزاء سياسة الخصوصية المحدّثة للتطبيق، معتبرين أنها تتضمن طلب الوصول إلى معلومات حساسة قد تُستخدم من قبل إدارة ترمب ضدهم.

وفي ظل هذه المخاوف، سجلت التطبيقات المنافسة لـ«تيك توك» ارتفاعاً ملحوظاً في عدد التنزيلات، حيث شهد كل من «سكاي لايت» و«آب سكرولد» زيادة كبيرة في أعداد المستخدمين خلال الأيام القليلة الماضية.


الذكاء الاصطناعي في العمل المصرفي… هل يتحول من أداة مساعدة إلى بنية أساسية؟

ينتقل الذكاء الاصطناعي في القطاع المصرفي من مرحلة التجارب إلى التشغيل واسع النطاق ليصبح جزءاً من البنية الأساسية لاتخاذ القرارات الحساسة (شاترستوك)
ينتقل الذكاء الاصطناعي في القطاع المصرفي من مرحلة التجارب إلى التشغيل واسع النطاق ليصبح جزءاً من البنية الأساسية لاتخاذ القرارات الحساسة (شاترستوك)
TT

الذكاء الاصطناعي في العمل المصرفي… هل يتحول من أداة مساعدة إلى بنية أساسية؟

ينتقل الذكاء الاصطناعي في القطاع المصرفي من مرحلة التجارب إلى التشغيل واسع النطاق ليصبح جزءاً من البنية الأساسية لاتخاذ القرارات الحساسة (شاترستوك)
ينتقل الذكاء الاصطناعي في القطاع المصرفي من مرحلة التجارب إلى التشغيل واسع النطاق ليصبح جزءاً من البنية الأساسية لاتخاذ القرارات الحساسة (شاترستوك)

لم يعد الذكاء الاصطناعي تجربة جانبية في القطاع المصرفي، ولا مشروعاً استكشافياً في مختبرات الابتكار. ما يحدث اليوم هو انتقال فعلي إلى مرحلة التشغيل واسع النطاق، حيث تُدار قرارات حساسة عبر أنظمة آلية، وتُقاس الثقة رقمياً، وتُعاد صياغة البنية الأساسية للبنوك على أساس البيانات، والخوارزميات. لم يعد السؤال محصوراً بقدرة الذكاء الاصطناعي على تغيير العمل المصرفي، بل بات يتعلق بمدى استعداد البنوك لتكلفة هذا التغيير، وتعقيداته.

تشير تقديرات شركة «غارتنر» إلى أن الإنفاق على البرمجيات في منطقة الشرق الأوسط وشمال أفريقيا سينمو بنسبة 13.9 في المائة ليصل إلى 20.4 مليار دولار في 2026، مدفوعاً بتسارع تبني تقنيات الذكاء الاصطناعي المتقدم. وعلى المستوى العالمي، تتوقع الشركة أن يُوجَّه 75 في المائة من الإنفاق على البرمجيات بحلول عام 2028 إلى حلول تتضمن قدرات الجيل الجديد من الذكاء الاصطناعي. هذه الأرقام تعكس تحولاً هيكلياً لا يمكن عزله عن القطاع المصرفي الذي بات في قلب هذا التسارع.

الثقة تتحول إلى معيار أداء

مع توسع استخدام الذكاء الاصطناعي في تقييم الجدارة الائتمانية، وكشف الاحتيال، وخدمة العملاء، أصبحت الأنظمة أسرع، وأكثر دقة، لكنها أيضاً أقل شفافية. التحدي الأكبر يتعلق بكيفية إدارة البنوك على إبراز قرارات تتخذها خوارزميات خلال أجزاء من الثانية.

يرى أليكس كوياتكوفسكي، مدير الخدمات المالية العالمية في «ساس»، أن عام 2026 يمثل نقطة تحول في هذا الجانب. ويوضح أن «الثقة لم تعد وعداً ضمنياً، بل أصبحت معيار أداء. على البنوك الانتقال من الذكاء القائم على النماذج إلى الذكاء القائم على الأدلة، حيث يصبح كل قرار قابلاً للتفسير، والتحقق». هذه المقاربة تعكس تحولاً في مفهوم الذكاء نفسه، وهو أنه لا قيمة للتنبؤ إذا لم يكن قابلاً للإثبات.

صعود الذكاء الاصطناعي الوكيل والأنظمة شبه المستقلة يعيد تشكيل العمليات المصرفية لكنه يولد مخاطر جديدة تتعلق بالاحتيال والتجارة الآلية (شاترستوك)

الذكاء الاصطناعي الوكيل في قلب العمليات

أحد أبرز ملامح المرحلة المقبلة هو الانتقال من أدوات تحليلية إلى أنظمة شبه مستقلة، أو ما يُعرف بالذكاء الاصطناعي الوكيل. هذه الأنظمة لا تكتفي بتقديم توصيات، بل تدير عمليات كاملة، من معالجة طلبات العملاء، إلى تنظيم سير العمل، واتخاذ قرارات تشغيلية.

بحسب بيانات شركة «شركة الأبحاث الدولية» (IDC)، من المتوقع أن يتجاوز إنفاق قطاع الخدمات المالية على الذكاء الاصطناعي 67 مليار دولار بحلول عام 2028، مع تركيز متزايد على التطبيقات الإنتاجية المرتبطة بالقرارات، والعمليات. بحسب ديانا روثفوس مديرة استراتيجية الحلول العالمية لإدارة المخاطر، والاحتيال، والامتثال في «ساس»: «القطاع تجاوز مرحلة إثبات المفهوم». وتوضح روثفوس كذلك أن «القطاع تجاوز مرحلة إثبات المفهوم». وتضيف: «البنوك التي ستحقق ميزة تنافسية هي تلك التي تحول الذكاء الاصطناعي إلى بنية صناعية، حيث تصبح الحوكمة جزءاً من القيمة، لا عبئاً تنظيمياً».

التجارة الآلية ومخاطر «الشراء غير المقصود»

مع توسع الأنظمة الذاتية، بدأت البنوك تواجه سيناريوهات جديدة لم تكن في الحسبان. من بينها نزاعات ناتجة عن عمليات شراء نفذتها أنظمة ذكية دون إدراك كامل من المستخدم. هذه الظاهرة تفتح باباً جديداً لمخاطر الاحتيال. آدم نيبرغ المدير الأول للتسويق المصرفي العالمي في «ساس» يشدد على أن البنوك باتت مطالبة بالتحقق ليس فقط من هوية الأفراد، بل من هوية الأنظمة الذكية نفسها. ويضيف أن «أطراً مثل الرموز المميزة للأنظمة، والتوقيعات السلوكية ستصبح ضرورية لحماية العملاء، ومنع إساءة استخدام الذكاء الاصطناعي».

تتحول الثقة من مفهوم افتراضي إلى معيار أداء قابل للقياس مع تزايد الحاجة إلى قرارات خوارزمية قابلة للتفسير والتحقق (شاترستوك)

تلوث البيانات وظهور «الخزائن الرقمية»

تواجه البنوك أزمة جديدة تتعلق بسلامة البيانات. فالبيانات الاصطناعية رغم فائدتها في تدريب النماذج، قد تتسلل إلى قواعد البيانات الأساسية، وتدخل تحيزات يصعب اكتشافها.

يحذر إيان هولمز، مدير حلول مكافحة الاحتيال المؤسسي في «ساس»، من أن «الذكاء الاصطناعي التوليدي قادر على إدخال أخطاء واقعية على نطاق واسع، ما يجعل اكتشاف البيانات الملوثة أكثر صعوبة».

ولهذا، بدأت بعض البنوك بإنشاء «خزائن بيانات» رقمية محمية تفرض ضوابط صارمة على تفاعل النماذج الذكية مع البيانات الحساسة.

في المقابل، يفتح الذكاء الاصطناعي آفاقاً جديدة أمام استغلال البيانات غير المهيكلة، التي تشكل أكثر من 80 في المائة من بيانات المؤسسات، وتنمو بمعدل يتراوح بين 50 و60 في المائة سنوياً. توضح تيريزا روبرتس، المديرة العالمية لنمذجة المخاطر في «ساس» أن وكلاء المعرفة المدعومين بالنماذج اللغوية الضخمة باتوا قادرين على تحويل نصوص وصور كانت مهملة سابقاً إلى رؤى قابلة للتنفيذ، ما يسرّع اتخاذ القرار، ويحوّل إدارة المخاطر من نهج تفاعلي إلى استباقي.

الاحتيال العاطفي

من أخطر التحديات الناشئة ما يُعرف بالاحتيال العاطفي المدعوم بالذكاء الاصطناعي. فالمحتالون باتوا يستخدمون نماذج لغوية لمحاكاة التفاعل الإنساني على نطاق واسع. يعد ستو برادلي، نائب الرئيس الأول لحلول إدارة المخاطر في «ساس» أن «الحد الفاصل بين التواصل الحقيقي والإغواء المصطنع يتلاشى» ما يفرض على البنوك لعب دور «حاجز الحماية العاطفية» عبر تحليل السلوك، والكشف المبكر عن أنماط الاستغلال. كما تشهد تقنيات مكافحة الجرائم المالية تحولاً جذرياً مع تراجع فعالية الأنظمة القائمة على القواعد. وفي هذا السياق ترى بيث هيرون رئيسة حلول الامتثال المصرفي في «ساس» أن «الانتقال إلى تحليلات فورية وقابلة للتفسير لم يعد خياراً، بل ضرورة تنظيمية، وتنافسية».

خلاصة المشهد

في 2026، يرى الخبراء أن القطاع المصرفي سيدخل مرحلة لا يمكن فيها الفصل بين الذكاء الاصطناعي، والثقة، والحوكمة. النجاح لن يكون لمن يملك النموذج الأقوى فقط، بل لمن يستطيع تحويل الذكاء إلى قرارات قابلة للتفسير، وبيانات موثوقة، وأنظمة تحمي العملاء بقدر ما تحمي الأرباح.