هل يلبّي نموذج «الذكاء الاصطناعي الواحد» متطلبات عالم متعدد الأجهزة؟

«لينوفو» تختبر ما بعد المساعد الواحد عبر «كيرا»

تنسيق النماذج أصبح ضرورياً خصوصاً في بيئات المؤسسات التي تتطلب حلولاً متخصصة حسب القطاع (أدوبي)
تنسيق النماذج أصبح ضرورياً خصوصاً في بيئات المؤسسات التي تتطلب حلولاً متخصصة حسب القطاع (أدوبي)
TT

هل يلبّي نموذج «الذكاء الاصطناعي الواحد» متطلبات عالم متعدد الأجهزة؟

تنسيق النماذج أصبح ضرورياً خصوصاً في بيئات المؤسسات التي تتطلب حلولاً متخصصة حسب القطاع (أدوبي)
تنسيق النماذج أصبح ضرورياً خصوصاً في بيئات المؤسسات التي تتطلب حلولاً متخصصة حسب القطاع (أدوبي)

خلال العامين الماضيين، دار جزء كبير من نقاشات الذكاء الاصطناعي حول فكرة بسيطة تقوم على اختيار نموذج قوي واحد ووضعه خلف نافذة محادثة وترك المستخدمين يتفاعلون معه. لكن خلال حدث «Tech World» السنوي من «لينوفو» بالتزامن مع «معرض المنتجات الاستهلاكية» في لاس فيغاس، والذي حضرته «الشرق الأوسط»، بات واضحاً أن هذا التصور بدأ يفقد صلاحيته.

المرحلة التالية من الذكاء الاصطناعي لا تتعلق بمساعد واحد أو نموذج واحد يؤدي جميع المهام، بل بقدرة الأنظمة على التنسيق بين نماذج متعددة، وأجهزة مختلفة، ومصادر بيانات موزعة، وسياقات استخدام متغيرة.

يقدّم نظام «كيرا» (Qira) الذي أعلنت عنه «لينوفو» مثالاً عملياً على هذا التحول؛ إذ يعكس انتقال الصناعة من منطق «نموذج واحد لكل شيء» إلى بنية أكثر تعقيداً، يصبح فيها الذكاء الاصطناعي طبقة تنسيق ذكية تعمل في الخلفية.

من المحادثة إلى السياق

بدل تقديم «كيرا» بوصفه روبوت محادثة جديداً، تصفه «لينوفو» بأنه شكل من «الذكاء المحيطي»؛ أي نظام حاضر عبر الأجهزة المختلفة، يدرك السياق، ويقرر متى وكيف يتم تفعيل الذكاء الاصطناعي. وخلف هذا الوعد الموجّه للمستخدم، تكمن تحولات تقنية أعمق.

يقول تولغا كورتوغلو نائب الرئيس الأول والمدير التقني في «لينوفو»، في حديث خاص لـ«الشرق الأوسط»: «لا نعتقد أن هناك نموذجاً واحداً يمكنه الإجابة عن جميع الأسئلة. هذا ينطبق على الذكاء الاصطناعي الشخصي، وينطبق بشكل أكبر على الذكاء الاصطناعي في المؤسسات». هذه العبارة تختصر اتجاهاً متزايداً في القطاع؛ إذ لم يعد التحدي يكمن في قوة النموذج بحد ذاته، بل في اختيار النموذج المناسب، وتوجيه المهام إليه، وإدارة التنسيق بين نماذج متعددة تعمل معاً.

تولغا كورتوغلو نائب الرئيس الأول والمدير التقني في «لينوفو» (الشرق الأوسط)

في بدايات «المساعِدات الذكية»، كان الذكاء الاصطناعي يُصمم كوجهة واضحة؛ يفتح المستخدم تطبيقاً محدداً، يكتب سؤالاً، ويحصل على إجابة. وحتى مع تطور النماذج، بقي هذا الهيكل قائماً، مع نقطة دخول واحدة متصلة بعقل واحد. يأتي «كيرا» ليكسر هذا النمط، من خلال التعامل مع الذكاء الاصطناعي كبنية تحتية لا كواجهة. فالنظام، بحسب «لينوفو»، يعمل عبر الحواسيب والأجهزة اللوحية والهواتف الذكية والأجهزة القابلة للارتداء، ويوفر تجربة موحدة حتى وإن اختلف الاسم بين «Lenovo Qira» و«Motorola Qira».

ذكاء متعدد النماذج

ما يجعل هذا ممكناً ليس الاعتماد على نموذج واحد ضخم، بل بناء نظام قادر على الربط بين مزودي نماذج مختلفين، والعمل بسلاسة بين السحابة والمعالجة المحلية على الجهاز، والتكيف مع طبيعة المهمة والسياق والقيود التقنية. ويوضح كورتوغلو أن فكرة «كيرا» تقوم أساساً على الاتصال بعدة مزودي نماذج؛ إذ تُستخدم في السحابة نماذج عامة معروفة، في حين يتم على الجهاز تشغيل نماذج محلية تبدأ أحياناً كنماذج مفتوحة المصدر، ثم تخضع لعمليات تقطير وضغط وضبط لاحق للتدريب، إضافة إلى تحسينات خاصة بالمعمارية التقنية للجهاز.

هذا التمييز ليس تفصيلياً، بل جوهري؛ لأن تشغيل الذكاء الاصطناعي على حاسوب محمول يختلف جذرياً عن تشغيله على هاتف ذكي أو داخل مركز بيانات سحابي، سواء من حيث استهلاك الطاقة أو الذاكرة أو زمن الاستجابة. ولهذا تركّز «لينوفو» على مفهوم التنسيق بدل السعي وراء امتلاك «أذكى نموذج» في السوق.

«كيرا» من «لينوفو» يقدّم الذكاء الاصطناعي بوصفه طبقة تعمل في الخلفية عبر الأجهزة لا مجرد روبوت محادثة داخل تطبيق (الشرق الأوسط)

قائد الأوركسترا الخفي

في طرحها خلال «2026 CES» (معرض المنتجات الاستهلاكية)، تؤكد الشركة أن «كيرا» يعمل كقائد أوركسترا غير مرئي؛ ينسّق بين النماذج المختلفة، ويقرر أيها أنسب لكل مهمة، وأين يجب تنفيذ المعالجة، سواء على الجهاز أو عند «الحافة» أو في السحابة. كما يوازن النظام باستمرار بين دقة النتائج وزمن الاستجابة وتكلفة الحوسبة واستهلاك الطاقة، مع فهم مستمر لسياق المستخدم ونواياه واستمرارية تجربته عبر الأجهزة.

يشرح كورتوغلو أن هناك دائماً مفاضلة بين زمن الاستجابة وتكلفة الحوسبة ودقة النتائج، مضيفاً أن «لينوفو» تبني نظاماً يتعلم هذه المفاضلات مع الوقت. فاختيار النموذج لا يتم بشكل ثابت، بل يتطور بناءً على معرفة تراكمية بأداء النماذج المختلفة في مهام محددة، مثل البرمجة أو التحليل أو الترجمة.

باتت القيمة الحقيقية للذكاء الاصطناعي في اختيار النموذج الأنسب وتحديد مكان التنفيذ لا في قوة النموذج وحده (أدوبي)

التعايش لا الإقصاء

تزداد أهمية هذا النهج في بيئات المؤسسات، حيث تختلف احتياجات القطاعات جذرياً. فالنموذج الذي تحتاجه مؤسسة مالية لإدارة الثروات، لا يشبه النموذج الذي تحتاجه جهة صحية لدعم التشخيص أو إدارة العمليات الطبية. ويتوقع كورتوغلو أن يؤدي ذلك إلى ظهور عدد متزايد من النماذج الصغيرة والمتخصصة، ما يجعل وجود طبقة تنسيق ذكية شرطاً أساسياً للاستفادة من هذا التنوع بدل أن يتحول إلى عبء تقني.

ضمن هذا السياق، لا يسعى «كيرا» إلى استبدال الأدوات الأخرى أو منافستها بشكل مباشر. فعندما سألت «الشرق الأوسط» كورتوغلو عن العلاقة بين «كيرا» وأنظمة مثل «مايكروسوفت كوبايلوت» (Microsoft Copilot)، كان واضحاً في تأكيده على فكرة التعايش. يقول: «(كوبايلوت) و(كيرا) يتعايشان على الأجهزة. هناك بعض التداخل، لكن لدى (كيرا) مزايا فريدة، خاصة في العمل عبر الأجهزة المختلفة وبناء قاعدة معرفية شخصية». الفكرة هنا ليست فرض خيار واحد على المستخدم، بل إنشاء طبقة أعلى تنسّق بين الأدوات المختلفة، بحيث تبقى تجربة الاستخدام موحدة، في حين تدار التعقيدات التقنية خلف الكواليس.

أحد العناصر المحورية في «كيرا» هو مفهوم الذاكرة، ليس بوصفها سجل محادثات فحسب، بل كنظام فهم طويل الأمد يتطور مع الوقت وبموافقة المستخدم. تصف «لينوفو» ذلك بقاعدة معرفة شخصية تجمع التفاعلات والوثائق والاختيارات، وتتيح استمرارية حقيقية بين الأجهزة. ويؤكد كورتوغلو أن التجربة تبقى واحدة، سواء طرح المستخدم سؤاله من الحاسوب أو الهاتف أو جهاز آخر.

«كيرا» صُمم ليتعايش مع أدوات ذكاء اصطناعي أخرى مثل «كوبايلوت» بدل استبدالها أو إقصائها (أدوبي)

دعم اللغة العربية

وخلال لقائه مع «الشرق الأوسط»، أشار كورتوغلو إلى أن دعم اللغة العربية جزء من خطط «كيرا»، مؤكداً أن التوطين لا يقتصر على الترجمة، بل يشمل الاستفادة من نماذج محلية وتطوير القدرات عبر التدريب اللاحق، بالتعاون مع فرق محلية في مناطق مثل الرياض. ويعكس ذلك مرة أخرى قصور فكرة «نموذج عالمي واحد»، مقابل مرونة أنظمة التنسيق التي تسمح بتكييف الذكاء الاصطناعي مع الخصوصيات اللغوية والثقافية.

ورغم استخدام مصطلح «الذكاء المحيطي»، تحرص «لينوفو» على التأكيد أن التحدي الأكبر لا يكمن في جعل الذكاء الاصطناعي حاضراً دائماً، بل في ضبط توقيت تدخله. فالقيمة الحقيقية لا تتحقق إلا عندما يعرف النظام متى يقترح، ومتى يتدخل، ومتى يلتزم الصمت، دون أن يتحول إلى عنصر إزعاج أو تشتيت.

ويبقى نجاح «كيرا» كمنتج مسألة وقت وتجربة واعتماد فعلي. لكن كإشارة إلى اتجاه الصناعة، يعكس هذا الطرح تحولاً واضحاً من المساعدات الأحادية إلى الأنظمة المنسّقة. وفي هذه المرحلة، لم يعد التحدي هو جعل الآلة تجيب، بل جعلها تختار بحكمة.


مقالات ذات صلة

الذكاء الاصطناعي في العمل المصرفي… هل يتحول من أداة مساعدة إلى بنية أساسية؟

تكنولوجيا ينتقل الذكاء الاصطناعي في القطاع المصرفي من مرحلة التجارب إلى التشغيل واسع النطاق ليصبح جزءاً من البنية الأساسية لاتخاذ القرارات الحساسة (شاترستوك)

الذكاء الاصطناعي في العمل المصرفي… هل يتحول من أداة مساعدة إلى بنية أساسية؟

يدخل الذكاء الاصطناعي العمل المصرفي بوصفه بنية أساسية، حيث تُدار القرارات آلياً، وتقاس الثقة رقمياً، وتتصاعد تحديات الحوكمة، والبيانات، والاحتيال.

نسيم رمضان (لندن)
علوم اختراقات 2026 العلمية

اختراقات 2026 العلمية

انطلاق البرمجة التوليدية وتصاميم لبطاريات مطورة وإحياء الكائنات المنقرضة

«الشرق الأوسط» (لندن)
تكنولوجيا يرى الباحثون أن الذكاء الاصطناعي قد يشارك خلال سنوات قليلة في صياغة الفرضيات العلمية وليس تنفيذ الحسابات فقط (أدوبي)

هل يقترب الذكاء الاصطناعي من «ممارسة العلم» بدلاً من دعمه فقط؟

يتوقع باحثون سويسريون أن يتحول الذكاء الاصطناعي خلال خمس سنوات من أداة داعمة إلى شريك فعلي في البحث العلمي والاكتشاف.

نسيم رمضان (لندن)
تكنولوجيا انطلاق جولة «أوراكل للذكاء الاصطناعي» العالمية من الرياض

الرياض... المحطة الأولى في جولة «أوراكل العالمية» نحو عالم الذكاء الاصطناعي

تسريع إنشاء مؤسسات سعودية متخصصة وقابلة للتوسع

خلدون غسان سعيد (جدة)
خاص يعيد الذكاء الاصطناعي تعريف مخاطر الخصوصية حيث أصبحت حماية البيانات مرتبطة بالسلوك البشري والثقافة المؤسسية بقدر ارتباطها بالتقنيات (شاترستوك)

خاص في اليوم العالمي لـ«خصوصية البيانات»، كيف تعيد السعودية تعريف الثقة الرقمية؟

تتحول خصوصية البيانات في السعودية والمنطقة إلى أساس للثقة الرقمية مع دمجها في الذكاء الاصطناعي والحوسبة السحابية والحوكمة المؤسسية.

نسيم رمضان (لندن)

موظف سابق في «غوغل»: الشركة زودت إسرائيل بالذكاء الاصطناعي في غزة

رجل يسير أمام شعار «غوغل» (أ.ف.ب)
رجل يسير أمام شعار «غوغل» (أ.ف.ب)
TT

موظف سابق في «غوغل»: الشركة زودت إسرائيل بالذكاء الاصطناعي في غزة

رجل يسير أمام شعار «غوغل» (أ.ف.ب)
رجل يسير أمام شعار «غوغل» (أ.ف.ب)

زعم موظف سابق في «غوغل» أن الشركة انتهكت سياساتها التي تحظر استخدام الذكاء الاصطناعي في الأسلحة أو المراقبة عام 2024، وذلك بمساعدتها شركة متعاقدة مع الجيش الإسرائيلي في تحليل لقطات فيديو التقطتها طائرات مسيّرة.

وقال الموظف في شكوى سرية قدمها لهيئة الأوراق المالية والبورصات الأميركية، واطلعت عليها صحيفة «واشنطن بوست»، إن تقنية الذكاء الاصطناعي الخاصة بغوغل «جيميني» استُخدمت من قِبل إسرائيل في وقتٍ كانت فيه الشركة تنأى بنفسها علناً عن الجيش الإسرائيلي بعد احتجاجاتٍ من موظفيها على عقدٍ مع الحكومة الإسرائيلية.

ما القصة؟ ومتى بدأت؟

وفقاً للوثائق المرفقة بالشكوى المقدمة إلى هيئة الأوراق المالية والبورصات الأميركية في أغسطس (آب)، فقد تلقى قسم الحوسبة السحابية في «غوغل» في يوليو (تموز) 2024 طلب دعم فني من شخص يستخدم بريداً إلكترونياً تابعاً للجيش الإسرائيلي، ويتطابق اسم صاحب طلب الدعم مع اسم موظف مُدرج في البورصة لدى شركة التكنولوجيا الإسرائيلية «كلاود إكس»، التي تزعم الشكوى أنها متعاقدة مع الجيش الإسرائيلي.

وطلب الموظف المساعدة في تحسين دقة نظام «غوغل»، «جيميني» في تحديد الأهداف، مثل الطائرات المسيّرة والمركبات المدرعة والجنود، في لقطات فيديو جوية.

وأفادت الوثائق بأن موظفي وحدة الحوسبة السحابية في «غوغل» استجابوا بتقديم اقتراحات وإجراء اختبارات داخلية.

وتزعم الشكوى أن استخدام نظام «جيميني» كان مرتبطاً بالعمليات الإسرائيلية في غزة.

وفي ذلك الوقت، نصّت «مبادئ الذكاء الاصطناعي» المعلنة لشركة «غوغل» على أنها لن تستخدم تقنية الذكاء الاصطناعي في مجال الأسلحة أو المراقبة «بما يخالف المعايير الدولية المتعارف عليها».

وقد صرحت «غوغل» سابقاً بأن عملها مع الحكومة الإسرائيلية «لا يتعلق ببيانات حساسة للغاية أو سرية أو عسكرية ذات صلة بالأسلحة أو أجهزة الاستخبارات».

تناقض في المعايير

وأكد مقدم الشكوى أن ما حدث مع الشركة المتعاقدة مع الجيش الإسرائيلي يتعارض مع المبادئ المعلنة لـ«غوغل».

وأضاف قائلاً إن «غوغل» انتهكت القوانين؛ إذ خالفت سياساتها المعلنة، والتي وردت أيضاً في ملفات الحكومة الفيدرالية، ما أدى إلى تضليل المستثمرين والجهات التنظيمية.

وقال الموظف السابق الذي قدم الشكوى، لصحيفة «واشنطن بوست» شريطة عدم الكشف عن هويته خوفاً من انتقام الشركة: «خضعت كثيراً من مشاريعي في (غوغل) لعملية مراجعة أخلاقيات الذكاء الاصطناعي الداخلية. هذه العملية صارمة، وبصفتنا موظفين، نتلقى تذكيراً دورياً بأهمية مبادئ الشركة المتعلقة بالذكاء الاصطناعي. لكن عندما يتعلق الأمر بإسرائيل وغزة، كان الوضع معكوساً تماماً».

وأضاف: «لقد تقدمت بشكوى إلى هيئة الأوراق المالية والبورصات الأميركية؛ لأنني شعرت بضرورة محاسبة الشركة على هذا التناقض في المعايير».

ونفى متحدث باسم «غوغل» مزاعم الموظف السابق، مؤكداً أن الشركة لم تنتهك مبادئها المتعلقة بالذكاء الاصطناعي، لأن استخدام المتعاقد لخدمات الذكاء الاصطناعي كان محدوداً للغاية لدرجة أنه لا يُعد «مُجدياً».

وجاء في بيان صادر عن المتحدث: «أجبنا عن سؤال عام حول الاستخدام، كما نفعل مع أي عميل، بمعلومات الدعم الفني المعتادة، ولم نقدم أي مساعدة فنية إضافية. وقد صدر طلب الدعم من حساب لا يتجاوز إنفاقه الشهري على منتجات الذكاء الاصطناعي بضع مئات من الدولارات، مما يجعل أي استخدام مُجدٍ للذكاء الاصطناعي مستحيلاً».

وامتنع متحدث باسم هيئة الأوراق المالية والبورصات الأميركية عن التعليق.

ويمكن لأي شخص تقديم شكوى إلى الهيئة، التي لا تنشرها للعامة. ولا تؤدي الشكاوى تلقائياً إلى فتح تحقيق.

ولم يستجب ممثلو الجيش الإسرائيلي وشركة «كلاود إكس» لطلبات التعليق.

تعاون شركات التكنولوجيا الكبرى مع إسرائيل

وأظهرت تقارير سابقة من صحيفة «واشنطن بوست» وغيرها من المؤسسات الإخبارية أن «غوغل» وغيرها من عمالقة التكنولوجيا الأميركية عملت على مشاريع عسكرية لصالح إسرائيل.

وفي يناير (كانون الثاني) 2025، أفادت «واشنطن بوست» بأن موظفي «غوغل» سارعوا إلى تزويد الجيش الإسرائيلي بإمكانية وصول أوسع إلى أدوات الذكاء الاصطناعي في الأسابيع التي تلت هجوم 7 أكتوبر (تشرين الأول). وكشفت وثيقة داخلية أن أحد موظفي «غوغل» حذر زملاءه من أنه في حال عدم الموافقة على طلبات وزارة الدفاع الإسرائيلية لزيادة قدرات الذكاء الاصطناعي، فقد تلجأ إسرائيل إلى «أمازون».

وفي أغسطس، أعلنت «مايكروسوفت»، التي تربطها أيضاً عدة عقود مع الحكومة الإسرائيلية، أنها فتحت تحقيقاً داخلياً بعد أن نشرت صحيفة «الغارديان» تقريراً يفيد بأن خدماتها السحابية تُستخدم لتخزين بيانات المكالمات الهاتفية التي تم الحصول عليها من خلال مراقبة واسعة النطاق للمدنيين في غزة والضفة الغربية.

وفي سبتمبر (أيلول)، قالت «مايكروسوفت» إن التحقيق دفعها إلى منع وحدة داخل وزارة الدفاع الإسرائيلية من الوصول إلى بعض خدماتها السحابية، وذلك تماشياً مع شروط الخدمة التي تحظر المراقبة الجماعية للمدنيين.


موجة حذف واسعة لـ«تيك توك» في أميركا بعد سيطرة حلفاء ترمب على التطبيق

أشخاص يستخدمون هواتفهم الجوالة أمام شعار تطبيق «تيك توك» (رويترز)
أشخاص يستخدمون هواتفهم الجوالة أمام شعار تطبيق «تيك توك» (رويترز)
TT

موجة حذف واسعة لـ«تيك توك» في أميركا بعد سيطرة حلفاء ترمب على التطبيق

أشخاص يستخدمون هواتفهم الجوالة أمام شعار تطبيق «تيك توك» (رويترز)
أشخاص يستخدمون هواتفهم الجوالة أمام شعار تطبيق «تيك توك» (رويترز)

كشفت تقارير حديثة ارتفاعاً ملحوظاً في عدد المستخدمين الذين حذفوا تطبيق «تيك توك» داخل الولايات المتحدة، عقب صفقة استحوذت بموجبها مجموعة من المستثمرين المقرّبين من الرئيس الأميركي دونالد ترمب على عمليات التطبيق في البلاد، وفقاً لصحيفة «إندبندنت».

وحسب بيانات شركة أبحاث السوق «سينسور تاور»، ارتفعت عمليات إلغاء تثبيت التطبيق من قبل المستخدمين الأميركيين بنحو 150 في المائة منذ تغيير هيكل الملكية الأسبوع الماضي.

وأعرب عدد من مستخدمي «تيك توك» عن مخاوفهم من احتمال فرض رقابة على المحتوى في ظل المُلّاك الجدد، لا سيما بعد انتقال ملكية التطبيق من الشركة الصينية «بايت دانس» إلى مجموعة استثمارية تضم شركة «أوراكل» العملاقة، بقيادة مؤسسها لاري إليسون، المعروف بقربه من ترمب.

وفي هذا السياق، أشار مستخدمون إلى أن مقاطع الفيديو المنتقدة للرئيس الأميركي، وكذلك تلك التي تناولت مداهمات إدارة الهجرة والجمارك في مينيابوليس، لم تحظَ بأي مشاهدات خلال الأسبوع الحالي، في حين لُوحظ حجب كلمات محددة، من بينها اسم «إبستين»، في الرسائل الخاصة.

على صعيد رسمي، أعلن حاكم ولاية كاليفورنيا، غافين نيوسوم، عزمه فتح تحقيق لمعرفة ما إذا كان تطبيق «تيك توك» يمارس رقابة على المحتوى منذ إتمام صفقة الاستحواذ، وهو ما قد يُعد انتهاكاً لقوانين الولاية.

من جهتها، أقرت منصة «تيك توك» بوقوع هذه الحوادث، لكنها عزتها إلى مشكلات تقنية واسعة النطاق تتعلق بخوادمها. وقال متحدث باسم الشركة لصحيفة «إندبندنت» إن التطبيق لا يفرض أي قيود على تداول اسم جيفري إبستين، المدان الراحل بالاعتداء الجنسي على الأطفال.

وأضاف المتحدث أن «تيك توك» تمكنت من تحديد الخلل الذي تسبب في هذه المشكلات لبعض المستخدمين، وتعمل حالياً على معالجته.

وفي بيان رسمي، أوضحت الشركة: «نواصل العمل على حل مشكلة كبيرة في البنية التحتية، نتجت عن انقطاع التيار الكهربائي في أحد مواقع مراكز البيانات التابعة لشركائنا في الولايات المتحدة».

وأضاف البيان أن تجربة المستخدم داخل الولايات المتحدة قد تستمر في مواجهة بعض الاضطرابات التقنية، لا سيما عند نشر محتوى جديد.

إلى جانب ذلك، عبّر مستخدمون آخرون عن قلقهم إزاء سياسة الخصوصية المحدّثة للتطبيق، معتبرين أنها تتضمن طلب الوصول إلى معلومات حساسة قد تُستخدم من قبل إدارة ترمب ضدهم.

وفي ظل هذه المخاوف، سجلت التطبيقات المنافسة لـ«تيك توك» ارتفاعاً ملحوظاً في عدد التنزيلات، حيث شهد كل من «سكاي لايت» و«آب سكرولد» زيادة كبيرة في أعداد المستخدمين خلال الأيام القليلة الماضية.


الذكاء الاصطناعي في العمل المصرفي… هل يتحول من أداة مساعدة إلى بنية أساسية؟

ينتقل الذكاء الاصطناعي في القطاع المصرفي من مرحلة التجارب إلى التشغيل واسع النطاق ليصبح جزءاً من البنية الأساسية لاتخاذ القرارات الحساسة (شاترستوك)
ينتقل الذكاء الاصطناعي في القطاع المصرفي من مرحلة التجارب إلى التشغيل واسع النطاق ليصبح جزءاً من البنية الأساسية لاتخاذ القرارات الحساسة (شاترستوك)
TT

الذكاء الاصطناعي في العمل المصرفي… هل يتحول من أداة مساعدة إلى بنية أساسية؟

ينتقل الذكاء الاصطناعي في القطاع المصرفي من مرحلة التجارب إلى التشغيل واسع النطاق ليصبح جزءاً من البنية الأساسية لاتخاذ القرارات الحساسة (شاترستوك)
ينتقل الذكاء الاصطناعي في القطاع المصرفي من مرحلة التجارب إلى التشغيل واسع النطاق ليصبح جزءاً من البنية الأساسية لاتخاذ القرارات الحساسة (شاترستوك)

لم يعد الذكاء الاصطناعي تجربة جانبية في القطاع المصرفي، ولا مشروعاً استكشافياً في مختبرات الابتكار. ما يحدث اليوم هو انتقال فعلي إلى مرحلة التشغيل واسع النطاق، حيث تُدار قرارات حساسة عبر أنظمة آلية، وتُقاس الثقة رقمياً، وتُعاد صياغة البنية الأساسية للبنوك على أساس البيانات، والخوارزميات. لم يعد السؤال محصوراً بقدرة الذكاء الاصطناعي على تغيير العمل المصرفي، بل بات يتعلق بمدى استعداد البنوك لتكلفة هذا التغيير، وتعقيداته.

تشير تقديرات شركة «غارتنر» إلى أن الإنفاق على البرمجيات في منطقة الشرق الأوسط وشمال أفريقيا سينمو بنسبة 13.9 في المائة ليصل إلى 20.4 مليار دولار في 2026، مدفوعاً بتسارع تبني تقنيات الذكاء الاصطناعي المتقدم. وعلى المستوى العالمي، تتوقع الشركة أن يُوجَّه 75 في المائة من الإنفاق على البرمجيات بحلول عام 2028 إلى حلول تتضمن قدرات الجيل الجديد من الذكاء الاصطناعي. هذه الأرقام تعكس تحولاً هيكلياً لا يمكن عزله عن القطاع المصرفي الذي بات في قلب هذا التسارع.

الثقة تتحول إلى معيار أداء

مع توسع استخدام الذكاء الاصطناعي في تقييم الجدارة الائتمانية، وكشف الاحتيال، وخدمة العملاء، أصبحت الأنظمة أسرع، وأكثر دقة، لكنها أيضاً أقل شفافية. التحدي الأكبر يتعلق بكيفية إدارة البنوك على إبراز قرارات تتخذها خوارزميات خلال أجزاء من الثانية.

يرى أليكس كوياتكوفسكي، مدير الخدمات المالية العالمية في «ساس»، أن عام 2026 يمثل نقطة تحول في هذا الجانب. ويوضح أن «الثقة لم تعد وعداً ضمنياً، بل أصبحت معيار أداء. على البنوك الانتقال من الذكاء القائم على النماذج إلى الذكاء القائم على الأدلة، حيث يصبح كل قرار قابلاً للتفسير، والتحقق». هذه المقاربة تعكس تحولاً في مفهوم الذكاء نفسه، وهو أنه لا قيمة للتنبؤ إذا لم يكن قابلاً للإثبات.

صعود الذكاء الاصطناعي الوكيل والأنظمة شبه المستقلة يعيد تشكيل العمليات المصرفية لكنه يولد مخاطر جديدة تتعلق بالاحتيال والتجارة الآلية (شاترستوك)

الذكاء الاصطناعي الوكيل في قلب العمليات

أحد أبرز ملامح المرحلة المقبلة هو الانتقال من أدوات تحليلية إلى أنظمة شبه مستقلة، أو ما يُعرف بالذكاء الاصطناعي الوكيل. هذه الأنظمة لا تكتفي بتقديم توصيات، بل تدير عمليات كاملة، من معالجة طلبات العملاء، إلى تنظيم سير العمل، واتخاذ قرارات تشغيلية.

بحسب بيانات شركة «شركة الأبحاث الدولية» (IDC)، من المتوقع أن يتجاوز إنفاق قطاع الخدمات المالية على الذكاء الاصطناعي 67 مليار دولار بحلول عام 2028، مع تركيز متزايد على التطبيقات الإنتاجية المرتبطة بالقرارات، والعمليات. بحسب ديانا روثفوس مديرة استراتيجية الحلول العالمية لإدارة المخاطر، والاحتيال، والامتثال في «ساس»: «القطاع تجاوز مرحلة إثبات المفهوم». وتوضح روثفوس كذلك أن «القطاع تجاوز مرحلة إثبات المفهوم». وتضيف: «البنوك التي ستحقق ميزة تنافسية هي تلك التي تحول الذكاء الاصطناعي إلى بنية صناعية، حيث تصبح الحوكمة جزءاً من القيمة، لا عبئاً تنظيمياً».

التجارة الآلية ومخاطر «الشراء غير المقصود»

مع توسع الأنظمة الذاتية، بدأت البنوك تواجه سيناريوهات جديدة لم تكن في الحسبان. من بينها نزاعات ناتجة عن عمليات شراء نفذتها أنظمة ذكية دون إدراك كامل من المستخدم. هذه الظاهرة تفتح باباً جديداً لمخاطر الاحتيال. آدم نيبرغ المدير الأول للتسويق المصرفي العالمي في «ساس» يشدد على أن البنوك باتت مطالبة بالتحقق ليس فقط من هوية الأفراد، بل من هوية الأنظمة الذكية نفسها. ويضيف أن «أطراً مثل الرموز المميزة للأنظمة، والتوقيعات السلوكية ستصبح ضرورية لحماية العملاء، ومنع إساءة استخدام الذكاء الاصطناعي».

تتحول الثقة من مفهوم افتراضي إلى معيار أداء قابل للقياس مع تزايد الحاجة إلى قرارات خوارزمية قابلة للتفسير والتحقق (شاترستوك)

تلوث البيانات وظهور «الخزائن الرقمية»

تواجه البنوك أزمة جديدة تتعلق بسلامة البيانات. فالبيانات الاصطناعية رغم فائدتها في تدريب النماذج، قد تتسلل إلى قواعد البيانات الأساسية، وتدخل تحيزات يصعب اكتشافها.

يحذر إيان هولمز، مدير حلول مكافحة الاحتيال المؤسسي في «ساس»، من أن «الذكاء الاصطناعي التوليدي قادر على إدخال أخطاء واقعية على نطاق واسع، ما يجعل اكتشاف البيانات الملوثة أكثر صعوبة».

ولهذا، بدأت بعض البنوك بإنشاء «خزائن بيانات» رقمية محمية تفرض ضوابط صارمة على تفاعل النماذج الذكية مع البيانات الحساسة.

في المقابل، يفتح الذكاء الاصطناعي آفاقاً جديدة أمام استغلال البيانات غير المهيكلة، التي تشكل أكثر من 80 في المائة من بيانات المؤسسات، وتنمو بمعدل يتراوح بين 50 و60 في المائة سنوياً. توضح تيريزا روبرتس، المديرة العالمية لنمذجة المخاطر في «ساس» أن وكلاء المعرفة المدعومين بالنماذج اللغوية الضخمة باتوا قادرين على تحويل نصوص وصور كانت مهملة سابقاً إلى رؤى قابلة للتنفيذ، ما يسرّع اتخاذ القرار، ويحوّل إدارة المخاطر من نهج تفاعلي إلى استباقي.

الاحتيال العاطفي

من أخطر التحديات الناشئة ما يُعرف بالاحتيال العاطفي المدعوم بالذكاء الاصطناعي. فالمحتالون باتوا يستخدمون نماذج لغوية لمحاكاة التفاعل الإنساني على نطاق واسع. يعد ستو برادلي، نائب الرئيس الأول لحلول إدارة المخاطر في «ساس» أن «الحد الفاصل بين التواصل الحقيقي والإغواء المصطنع يتلاشى» ما يفرض على البنوك لعب دور «حاجز الحماية العاطفية» عبر تحليل السلوك، والكشف المبكر عن أنماط الاستغلال. كما تشهد تقنيات مكافحة الجرائم المالية تحولاً جذرياً مع تراجع فعالية الأنظمة القائمة على القواعد. وفي هذا السياق ترى بيث هيرون رئيسة حلول الامتثال المصرفي في «ساس» أن «الانتقال إلى تحليلات فورية وقابلة للتفسير لم يعد خياراً، بل ضرورة تنظيمية، وتنافسية».

خلاصة المشهد

في 2026، يرى الخبراء أن القطاع المصرفي سيدخل مرحلة لا يمكن فيها الفصل بين الذكاء الاصطناعي، والثقة، والحوكمة. النجاح لن يكون لمن يملك النموذج الأقوى فقط، بل لمن يستطيع تحويل الذكاء إلى قرارات قابلة للتفسير، وبيانات موثوقة، وأنظمة تحمي العملاء بقدر ما تحمي الأرباح.