الصور والفيديوهات المفبركة في زمن الحروب… كيف نميّز الحقيقة من التزييف؟

تنتشر المعلومات المضللة بسرعة كبيرة على وسائل التواصل الاجتماعي خلال الأزمات والصراعات (شاترستوك)
تنتشر المعلومات المضللة بسرعة كبيرة على وسائل التواصل الاجتماعي خلال الأزمات والصراعات (شاترستوك)
TT

الصور والفيديوهات المفبركة في زمن الحروب… كيف نميّز الحقيقة من التزييف؟

تنتشر المعلومات المضللة بسرعة كبيرة على وسائل التواصل الاجتماعي خلال الأزمات والصراعات (شاترستوك)
تنتشر المعلومات المضللة بسرعة كبيرة على وسائل التواصل الاجتماعي خلال الأزمات والصراعات (شاترستوك)

مع التصعيد المتسارع على عدة جبهات في الشرق الأوسط، تتدفق المعلومات بسرعة تكاد توازي سرعة الأحداث نفسها. وغالباً ما تكون منصات التواصل الاجتماعي أول مكان تظهر فيه الصور ومقاطع الفيديو والتقارير عن هجمات مزعومة أو تطورات عسكرية. لكن بالتوازي مع المعلومات الحقيقية، بدأت أيضاً موجة من المحتوى المضلل أو المفبرك تنتشر على الإنترنت، ما يجعل التمييز بين الحقيقة والزيف أكثر صعوبة.

تحدٍّ رقمي متزايد

في هذا السياق، يحذر خبراء الأمن السيبراني من أن الانتشار السريع للمعلومات المضللة، لا سيما عبر مقاطع الفيديو المعدلة وتقنيات التزييف العميق (Deepfakes)، أصبح تحدياً رقمياً متزايداً خلال فترات عدم الاستقرار الجيوسياسي.

ويؤكد ماهر يمّوت الباحث الرئيسي في الأمن لدى شركة «كاسبرسكي» خلال لقاء خاص مع «الشرق الأوسط»، أن التمييز بين المعلومات الموثوقة والروايات الزائفة يصبح أكثر أهمية خلال حالات الطوارئ، حين ترتفع حدة المشاعر ويميل الناس إلى مشاركة المحتوى بسرعة من دون التحقق منه.

ويردف: «مع تطورات الأوضاع في الشرق الأوسط، حذّرت جهات حكومية في دول مجلس التعاون الخليجي من نشر أو تداول أي معلومات من مصادر غير معروفة». ويضيف أن «الأخبار الزائفة، أي المعلومات المضللة أو غير الدقيقة التي تُقدَّم على أنها أخبار حقيقية، تصبح أكثر خطورة خلال حالات الطوارئ».

ماهر يموت باحث أمني رئيسي في «كاسبرسكي» (كاسبرسكي)

المعلومات المضللة

ليست الأخبار الزائفة ظاهرة جديدة، لكنّ حجم انتشارها وسرعتها تغيّر بشكل كبير مع صعود وسائل التواصل الاجتماعي وأدوات الذكاء الاصطناعي؛ ففي أوقات التوتر الجيوسياسي، يمكن أن تنتشر تقارير غير مؤكدة أو مقاطع فيديو معدّلة على نطاق واسع خلال دقائق، وقد تصل إلى ملايين المستخدمين قبل أن تتمكن جهات التحقق من الحقائق من مراجعتها.

ويصنف الخبراء الأخبار الزائفة عادة ضمن فئتين رئيسيتين؛ الأولى تتعلق بمحتوى مفبرك بالكامل يهدف إلى التأثير في الرأي العام أو جذب زيارات إلى مواقع إلكترونية معينة. أما الثانية فتتضمن معلومات تحتوي على جزء من الحقيقة، لكنها تُعرض بشكل غير دقيق لأن الكاتب لم يتحقق من جميع الوقائع، أو بالغ في بعض التفاصيل.

وفي الحالتين، يمكن أن يؤدي ذلك إلى إرباك المتابعين خلال الأزمات، خصوصاً عندما يعتمد المستخدمون على منصات التواصل الاجتماعي، بدلاً من المصادر الإخبارية الموثوقة للحصول على التحديثات.

كما بدأت السلطات في عدة دول، التحذير من أن نشر معلومات خاطئة حتى من دون قصد، قد يعرّض المستخدمين للمساءلة القانونية، ما دفع الحكومات وخبراء الأمن الرقمي إلى التشديد على أهمية الوعي الرقمي والمسؤولية عند مشاركة المعلومات في أوقات حساسة.

الخداع المدعوم بالذكاء الاصطناعي

أدخل الذكاء الاصطناعي بعداً جديداً إلى مشكلة المعلومات المضللة، من خلال ما يُعرف بتقنيات «التزييف العميق»، وهي مقاطع فيديو مفبركة تُنشأ باستخدام تقنيات التعلم الآلي؛ مثل تبديل الوجوه أو توليد محتوى بصري اصطناعي. وفي بعض الحالات يمكن تعديل مقاطع حقيقية لتبدو كأنها توثق أحداثاً لم تقع أصلاً.

ويصرح يمّوت بأن أهمية التحقق من الأخبار الزائفة باتت أكبر من أي وقت مضى مع انتشار التزييف العميق. ويزيد: «الذكاء الاصطناعي يتيح دمج مقاطع فيديو مختلفة لإنتاج مشاهد جديدة تظهر أحداثاً أو أفعالاً لم تحدث في الواقع، وغالباً بنتائج واقعية للغاية».

وتجعل هذه التقنيات مقاطع الفيديو المعدلة تبدو حقيقية إلى حد كبير، ما قد يؤدي إلى تضليل المستخدمين، خصوصاً عندما يتم تداولها في سياقات مشحونة عاطفياً؛ فعلى سبيل المثال، قد تظهر مقاطع معدلة كأنها توثق هجمات أو تحركات عسكرية أو تصريحات سياسية لم تحدث. وحتى إذا تم كشف زيف هذه المقاطع لاحقاً، فإن انتشارها الأولي قد يسبب حالة من القلق أو الارتباك لدى الجمهور.

قد تؤدي الأخبار الزائفة إلى إرباك الجمهور ونشر الشائعات خصوصاً عند تداولها دون تحقق (شاترستوك)

كيفية التحقق من المعلومات

يشدد خبراء الأمن السيبراني على أن المستخدمين أنفسهم يلعبون دوراً أساسياً في الحد من انتشار المعلومات المضللة؛ فبينما تطور المنصات والجهات التنظيمية أدوات لرصد المحتوى المزيف، يمكن للأفراد اتخاذ خطوات بسيطة للتحقق من صحة المعلومات قبل مشاركتها.

أولى هذه الخطوات هي التحقق من مصدر الخبر؛ فبعض المواقع التي تنشر أخباراً مزيفة قد تحتوي على أخطاء إملائية في عنوان الموقع الإلكتروني أو تستخدم نطاقات غير مألوفة، تحاكي مواقع إعلامية معروفة.

وينصح يمّوت بالتحقق من عنوان الموقع بعناية، والاطلاع على قسم «من نحن» في المواقع غير المعروفة. ومن الأفضل الاعتماد على مصادر رسمية ومعتمدة؛ مثل المواقع الحكومية أو المؤسسات الإعلامية الموثوقة.

كما ينبغي التحقق من هوية الكاتب أو الجهة التي نشرت الخبر. فإذا لم يكن المؤلف معروفاً أو لا يمتلك خبرة واضحة في الموضوع، فقد يكون من الحكمة التعامل مع المعلومات بحذر.

وتعد مقارنة الخبر مع مصادر موثوقة أخرى خطوة مهمة أيضاً؛ فالمؤسسات الإعلامية المهنية تعتمد إرشادات تحريرية وإجراءات تحقق من المعلومات، ما يعني أن الأحداث الكبرى عادة ما تُغطى من قبل أكثر من جهة إعلامية موثوقة.

ويشير يمّوت أيضاً إلى أهمية التحقق من التواريخ والتسلسل الزمني للأخبار، إذ إن بعض المعلومات المضللة يعتمد على إعادة نشر أحداث قديمة أو عرضها، كما لو أنها وقعت حديثاً. كما يلفت إلى أن خوارزميات وسائل التواصل الاجتماعي قد تخلق ما يُعرف بـ«غرف الصدى»، حيث تُعرض للمستخدمين محتويات تتوافق مع آرائهم واهتماماتهم السابقة، وهو ما يجعل من الضروري الاطلاع على مصادر متنوعة وموثوقة قبل تكوين أي استنتاجات.

التلاعب بالمشاعر

يعتمد كثير من الأخبار الزائفة على إثارة المشاعر؛ فالعناوين المثيرة أو المقاطع الدرامية غالباً ما تُصاغ بطريقة تستفز مشاعر الخوف أو الغضب أو الصدمة، وهي مشاعر تزيد من احتمال مشاركة المحتوى بسرعة.

ويقول يمّوت: «كثير من الأخبار الزائفة يُكتب بطريقة ذكية لاستثارة ردود فعل عاطفية قوية». ويضيف أن «الحفاظ على التفكير النقدي وطرح سؤال بسيط مثل: لماذا كُتب هذا الخبر؟ قد يساعد المستخدمين في تجنب نشر معلومات مضللة». وتزداد أهمية هذا الأمر على منصات التواصل الاجتماعي، حيث تميل الخوارزميات إلى إبراز المحتوى الذي يحقق تفاعلاً كبيراً، وبالتالي قد تنتشر المنشورات المثيرة للمشاعر أسرع من التقارير المتوازنة.

يسهم الذكاء الاصطناعي وتقنيات التزييف العميق في إنتاج فيديوهات وصور تبدو واقعية لكنها مفبركة (شاترستوك)

مؤشرات بصرية على التلاعب

يمكن للصور ومقاطع الفيديو نفسها أن تقدم مؤشرات على احتمال تعرضها للتعديل؛ فبعض الصور المعدلة قد تظهر خطوطاً خلفية مشوهة أو ظلالاً غير طبيعية، أو ألوان بشرة تبدو غير واقعية. أما في مقاطع الفيديو المزيفة فقد تظهر مشكلات في الإضاءة أو حركة العينين أو ملامح الوجه. ورغم أن اكتشاف هذه المؤشرات ليس دائماً سهلاً، خصوصاً عند مشاهدة المحتوى عبر الهاتف الجوال، فإنها قد تساعد المستخدمين على الشك في مصداقية بعض المقاطع المتداولة.

مسؤولية رقمية مشتركة

يرى الخبراء أن الحد من انتشار المعلومات المضللة خلال الأزمات، يتطلب تعاوناً بين الحكومات وشركات التكنولوجيا والمؤسسات الإعلامية والمستخدمين أنفسهم. ويلفت يمّوت إلى أن أبسط قاعدة قد تكون الأكثر فاعلية: «إذا كنت غير متأكد من صحة المحتوى، فلا تشاركه». ويضيف أن المشاركة المسؤولة تساعد في الحد من انتشار المعلومات المضللة وتحمي المجتمعات الرقمية.

ومع استمرار المنصات الرقمية في تشكيل طريقة انتقال المعلومات عبر الحدود، تصبح القدرة على تقييم المحتوى على الإنترنت مهارة أساسية؛ ففي أوقات التوتر الجيوسياسي والحروب، حين تختلط الشائعات بالوقائع، لا يتعلق التحدي بالأمن السيبراني فقط؛ بل أيضاً بحماية مصداقية المعلومات نفسها.


مقالات ذات صلة

دراسة تبحث: هل يغيّر الذكاء الاصطناعي طريقة تفكيرنا رغم صحة المعلومات؟

تكنولوجيا تلعب طريقة عرض المعلومات وسردها دوراً أساسياً في تشكيل الفهم وليس فقط مضمونها (شاترستوك)

دراسة تبحث: هل يغيّر الذكاء الاصطناعي طريقة تفكيرنا رغم صحة المعلومات؟

دراسة تظهر أن الذكاء الاصطناعي يؤثر في الآراء عبر طريقة عرض المعلومات حتى عندما تكون الحقائق صحيحة وغير مضللة.

نسيم رمضان (لندن)
تكنولوجيا رئيس شركة «أبل» تيم كوك خلال أحد المؤتمرات السنوية للشركة (إ.ب.أ)

«أبل» في عامها الخمسين… قصة شركة أعادت تشكيل التكنولوجيا العالمية

مسيرة «أبل» خلال 50 عاماً تعكس قدرة استثنائية على الابتكار وإعادة الابتكار، من مرآب صغير إلى شركة أعادت تشكيل التكنولوجيا العالمية.

نسيم رمضان (لندن)
تكنولوجيا قدرات ذكاء اصطناعي متقدمة بشاشة تحمي الخصوصية

تعرف على مزايا جوال «غالاكسي إس 26 ألترا»: نقلة في الخصوصية والذكاء الاصطناعي للجوالات

تصميم متين وأنيق باستوديو احترافي ذكي و«دائرة بحث» مطورة.

خلدون غسان سعيد (جدة)
تكنولوجيا الدراسة حللت أكثر من 391 ألف رسالة عبر نحو 5 آلاف محادثة لاكتشاف أنماط تفاعل روبوتات الدردشة (شاترستوك)

دراسة من ستانفورد: الذكاء الاصطناعي قد يعزز التفكير الوهمي

 تظهر الدراسة أن روبوتات الدردشة تميل لتأكيد آراء المستخدمين ما قد يعزز المعتقدات الخاطئة ويؤدي إلى دوامات وهمية مع مرور الوقت

تكنولوجيا نماذج الذكاء الاصطناعي الحديثة تعاني من مشكلة «الصندوق الأسود» التي تجعل قراراتها غير مفهومة للبشر (شاترستوك)

نهج جديد يمكّن الذكاء الاصطناعي من شرح قراراته

باحثو «MIT» يطورون طريقة تمكّن الذكاء الاصطناعي من تفسير قراراته بدقة ووضوح، ما يعزز الشفافية والثقة دون التضحية بالأداء.


بدعوى لافتة... هيئة أميركية تُحمّل «إنستغرام» و«يوتيوب» مسؤولية إدمان وسائل التواصل

مارك زوكربيرغ الرئيس التنفيذي لـ«ميتا» يظهر بصورة خلف شعار الشركة (أ.ف.ب)
مارك زوكربيرغ الرئيس التنفيذي لـ«ميتا» يظهر بصورة خلف شعار الشركة (أ.ف.ب)
TT

بدعوى لافتة... هيئة أميركية تُحمّل «إنستغرام» و«يوتيوب» مسؤولية إدمان وسائل التواصل

مارك زوكربيرغ الرئيس التنفيذي لـ«ميتا» يظهر بصورة خلف شعار الشركة (أ.ف.ب)
مارك زوكربيرغ الرئيس التنفيذي لـ«ميتا» يظهر بصورة خلف شعار الشركة (أ.ف.ب)

أصدرت هيئة محلفين حكماً يقضي بتحميل كل من شركتي «ميتا» و«يوتيوب» المسؤولية، في دعوى فريدة من نوعها تهدف إلى تحميل منصات التواصل الاجتماعي المسؤولية عن الأضرار التي تلحق بالأطفال المستخدمين لخدماتها، ومنحت للمدعية تعويضات بقيمة 3 ملايين دولار.

وقررت هيئة المحلفين في كاليفورنيا، بعد أكثر من 40 ساعة من المداولات على مدار تسعة أيام، أن شركتي «ميتا» و«يوتيوب» أهملتا في تصميم وتشغيل منصتيهما.

وأقرت هيئة المحلفين أيضاً أن إهمال كلتا الشركتين كان عاملاً جوهرياً في التسبب بالأذى للمدعية، وهي شابة تبلغ من العمر 20 عاماً تقول إن استخدامها لوسائل التواصل الاجتماعي في طفولتها أدى إلى إدمانها على التكنولوجيا وزاد من معاناتها النفسية.

شعار شركة «يوتيوب» (أ.ف.ب)

وأكدت القاضية كارولين بي كول أن هيئة المحلفين أبلغت المحكمة بأنها توصلت إلى حكم. ونبهت الجمهور ووسائل الإعلام بأنه ينبغي عليهم عدم إظهار أي رد فعل علني تجاه الحكم، أياً كان.

وقالت: «لا صراخ، لا ردود أفعال، لا إزعاج». وأضافت أن من يتصرف بهذه الطريقة سيتم إخراجه من قاعة المحكمة.

وكانت شركة «ميتا» وشركة «يوتيوب»، المملوكة لـ«غوغل»، هما المدعى عليهما الباقيين في القضية بعد أن توصلت شركتي «تيك توك» و«سناب» إلى تسويات قبل بدء المحاكمة.


دراسة تبحث: هل يغيّر الذكاء الاصطناعي طريقة تفكيرنا رغم صحة المعلومات؟

تلعب طريقة عرض المعلومات وسردها دوراً أساسياً في تشكيل الفهم وليس فقط مضمونها (شاترستوك)
تلعب طريقة عرض المعلومات وسردها دوراً أساسياً في تشكيل الفهم وليس فقط مضمونها (شاترستوك)
TT

دراسة تبحث: هل يغيّر الذكاء الاصطناعي طريقة تفكيرنا رغم صحة المعلومات؟

تلعب طريقة عرض المعلومات وسردها دوراً أساسياً في تشكيل الفهم وليس فقط مضمونها (شاترستوك)
تلعب طريقة عرض المعلومات وسردها دوراً أساسياً في تشكيل الفهم وليس فقط مضمونها (شاترستوك)

مع تزايد اعتماد المستخدمين على أدوات الذكاء الاصطناعي للحصول على المعلومات، يبرز سؤال أساسي: هل تستطيع هذه الأنظمة التأثير ليس فقط في ما نعرفه، بل أيضاً في طريقة تفكيرنا؟

دراسة أكاديمية حديثة نُشرت في «PNAS Nexus» تحاول الإجابة عن هذا السؤال من خلال تحليل كيفية تأثير السرديات التاريخية التي ينتجها الذكاء الاصطناعي على آراء الأفراد. وتشير النتائج إلى أن المعلومات قد تكون دقيقة من حيث الوقائع، لكنها لا تكون بالضرورة محايدة في تأثيرها.

تجربة منهجية لقياس التأثير

اعتمدت الدراسة على تجربة واسعة شملت 1912 مشاركاً، وهدفت إلى قياس تأثير التعرض لنصوص تاريخية مولدة بالذكاء الاصطناعي على آراء الأفراد. عُرضت على المشاركين ملخصات لأحداث تاريخية تم إنشاؤها بواسطة الذكاء الاصطناعي، ثم طُلب منهم تقييم مواقفهم تجاه مواضيع مرتبطة بها. ولم يكن الهدف اختبار المعلومات المضللة، بل فهم ما إذا كان أسلوب العرض وحده حتى مع بقاء الحقائق ثابتة يمكن أن يؤثر في الحكم. والنتيجة كانت واضحة: نعم، يمكن لذلك أن يحدث. فحتى عندما لم تتغير الوقائع، أدت الاختلافات في طريقة السرد إلى تغيّر ملحوظ في آراء المشاركين. وهذا يعني أن التأثير لا يتطلب معلومات خاطئة، بل يمكن أن ينشأ من طريقة العرض نفسها.

يتحول دور الذكاء الاصطناعي من نقل المعلومات إلى تفسيرها ضمن سياق سردي متكامل (أدوبي)

التحيز الكامن: تأثير غير مرئي

تسلّط الدراسة الضوء على مفهوم ما يُعرف بـ«التحيز الكامن»، وهو التحيز الذي يظهر في النصوص دون قصد مباشر، نتيجة للبيانات التي تدربت عليها الأنظمة أو لطريقة صياغة الطلبات.

وبما أن أنظمة الذكاء الاصطناعي تعتمد على كميات ضخمة من البيانات البشرية، فهي تعكس أنماطاً وسياقات موجودة مسبقاً. وعند توليد محتوى، قد تميل إلى إبراز جوانب معينة على حساب أخرى.

هذا النوع من التحيز لا يكون واضحاً، ولا يتضمن بالضرورة أخطاء أو معلومات مضللة، بل يظهر من خلال اختيار التفاصيل وترتيبها وأسلوب عرضها.

أهمية صياغة السؤال

تشير الدراسة أيضاً إلى أن طريقة طرح السؤال أو الطلب تؤثر بشكل كبير في النتيجة. فالتغييرات البسيطة في صياغة السؤال يمكن أن تؤدي إلى اختلاف في طريقة عرض الحدث نفسه، حتى لو ظلت الوقائع ثابتة. وهذا يعني أن الذكاء الاصطناعي لا يسترجع المعلومات فقط، بل يعيد بناءها استجابةً لطريقة التفاعل معه. وبالتالي، فإن العلاقة بين المستخدم والنظام تصبح جزءاً من عملية إنتاج المعرفة، وليس مجرد وسيلة للوصول إليها.

على عكس محركات البحث التقليدية التي توفر روابط متعددة، يقدم الذكاء الاصطناعي محتوى جاهزاً ومترابطاً في شكل سردي. وهذا التحول له تأثير مهم على طريقة استيعاب المعلومات.

فعندما يقرأ المستخدم نصاً متماسكاً بدلاً من مصادر متعددة، يكون أكثر ميلاً لتقبّله كتصور متكامل، وليس كوجهة نظر ضمن مجموعة من الآراء. وهذا يزيد من تأثير الخيارات السردية غير الظاهرة داخل النص.

وتشير الدراسة إلى أن هذه الأنظمة لم تعد مجرد أدوات لنقل المعلومات، بل أصبحت وسيطاً تفسيرياً يؤثر في كيفية فهم الأحداث.

الدقة لا تعني الحياد

من أبرز استنتاجات الدراسة أن الدقة لا تضمن الحياد. فحتى عندما تكون المعلومات صحيحة، يمكن لطريقة تنظيمها وعرضها أن تؤثر في تفسيرها. وهذا يتحدى فكرة شائعة مفادها أن ضمان صحة المعلومات كافٍ لضمان موضوعيتها. في الواقع، قد يؤدي التركيز على عناصر معينة، أو تقديم سياق محدد، إلى توجيه الفهم بطريقة غير مباشرة.

ومع تزايد الاعتماد على الذكاء الاصطناعي لتلخيص المواضيع المعقدة، تكتسب هذه النتائج أهمية أكبر. فالمستخدمون قد يتعرضون لتفسيرات تبدو محايدة، لكنها تحمل تأثيرات ضمنية ناتجة عن أسلوب العرض. ولا يعني ذلك وجود نية للتضليل، بل يعكس طبيعة الأنظمة التي تحاول محاكاة اللغة البشرية من خلال بيانات واسعة ومعقدة.

تؤثر صياغة الأسئلة أو الطلبات بشكل كبير في طبيعة الإجابات التي يولدها الذكاء الاصطناعي

مجال بحثي يتوسع

تفتح هذه الدراسة الباب أمام مزيد من البحث حول تأثير الذكاء الاصطناعي على الإدراك البشري. فما زالت هناك تساؤلات حول اختلاف التأثير بين الأفراد، وكيف تتغير الاستجابة وفقاً للخلفية أو المعتقدات المسبقة. كما أن انتشار هذه الأنظمة قد يضاعف من تأثيرها على النقاش العام. تركز النقاشات غالباً على خطر المعلومات الخاطئة، لكن هذه الدراسة تشير إلى تحدٍّ مختلف يتعلق بتأثير المعلومات الصحيحة عندما تُعرض بطريقة معينة. وهذا يعني أن التأثير لا يأتي فقط من الخطأ، بل من طريقة عرض الحقيقة نفسها.

مسؤولية جديدة

تفرض هذه النتائج مسؤوليات جديدة على المطورين وصناع القرار والمستخدمين. فالحاجة لم تعد تقتصر على ضمان دقة المعلومات، بل تمتد إلى فهم كيفية إنتاجها وتقديمها. كما يصبح من الضروري تعزيز الوعي النقدي لدى المستخدمين عند التعامل مع المحتوى الناتج عن الذكاء الاصطناعي.

ومع تطور الذكاء الاصطناعي، تتغير العلاقة بين المعرفة والثقة. تشير هذه الدراسة إلى أن الثقة لا ينبغي أن تُبنى على صحة المعلومات فقط، بل أيضاً على فهم كيفية صياغتها وعرضها.

وبهذا المعنى، لم يعد الذكاء الاصطناعي مجرد أداة لنقل المعرفة، بل أصبح جزءاً من عملية تشكيلها. وهنا يكمن التحدي الحقيقي، ليس فقط في التأكد من صحة المعلومات، بل في فهم الطريقة التي تُروى بها.


من التبنِّي إلى التنفيذ… «الفنتك» السعودي يدخل مرحلة النضج الحاسمة

تعتمد نسبة كبيرة من المؤسسات على أنظمة تقليدية وموردين خارجيين ما يبطئ الابتكار ويزيد التعقيد التشغيلي (أدوبي)
تعتمد نسبة كبيرة من المؤسسات على أنظمة تقليدية وموردين خارجيين ما يبطئ الابتكار ويزيد التعقيد التشغيلي (أدوبي)
TT

من التبنِّي إلى التنفيذ… «الفنتك» السعودي يدخل مرحلة النضج الحاسمة

تعتمد نسبة كبيرة من المؤسسات على أنظمة تقليدية وموردين خارجيين ما يبطئ الابتكار ويزيد التعقيد التشغيلي (أدوبي)
تعتمد نسبة كبيرة من المؤسسات على أنظمة تقليدية وموردين خارجيين ما يبطئ الابتكار ويزيد التعقيد التشغيلي (أدوبي)

شهد القطاع المالي في السعودية تحولاً رقمياً سريعاً خلال فترة زمنية قصيرة. ففي أقل من عقد، انتقل الاقتصاد من الاعتماد الكبير على النقد إلى مرحلة أصبحت فيها نحو 80 في المائة من معاملات التجزئة إلكترونية. لكن هذا الإنجاز لا يمثل نهاية الرحلة، بل بداية مرحلة أكثر تعقيداً.

يرى محمد عويضة المؤسس والرئيس التنفيذي لشركة «ستيتش» أن قطاع التقنية المالية في المملكة دخل نقطة تحول حاسمة. ويشرح خلال حديث خاص لـ«الشرق الأوسط»: «إذا قارنَّا السعودية بأسواق كانت تُعدّ رائدة في (الفنتك) أي التكنولوجيا المالية قبل خمس سنوات، نجد أن أجزاءً من المملكة قد لحقت بها، بل وتفوقت عليها في مجال المدفوعات. لكن المرحلة المقبلة لم تعد تتعلق بالتبنّي، بل بالتنفيذ».

محمد عويضة المؤسس والرئيس التنفيذي لشركة «ستيتش»

ازدهار الواجهة الأمامية... وحدوده

التحوُّل الذي تحقق حتى الآن كان واضحاً للمستخدمين كمحافظ رقمية ومدفوعات سلسة وخدمات مالية أكثر سهولة. لكن خلف هذه الواجهة، لا تزال عملية التحول العميق غير مكتملة.

ويبرز الذكاء الاصطناعي مثالاً واضحاً على ذلك. فرغم الزخم الكبير حوله، فإن استخدامه في المؤسسات المالية لا يزال يتركز في تطبيقات سطحية.

يقول عويضة إنه «في معظم الحالات، لا يزال الذكاء الاصطناعي غير مدمج في الوظائف الأساسية مثل إدارة الاحتيال واتخاذ قرارات الائتمان والاكتتاب أو الأتمتة التشغيلية». وغالباً ما يُستخدم في واجهات المحادثة أو الخدمات البسيطة. ويرجع ذلك ليس إلى نقص الطموح، بل إلى البنية التحتية.

فالأنظمة الأساسية القديمة، إلى جانب تعدد منصات الموردين، تجعل من الصعب دمج الذكاء الاصطناعي في صلب العمليات. ومن دون بيانات موحدة وبنية حديثة، تبقى القدرات المتقدمة محدودة. وهذا يخلق مفارقة واضحة، حيث يمكن إطلاق المنتجات بسرعة، لكن يصعب توسيع نطاقها بكفاءة.

التنفيذ... التحدي الحقيقي

مع نضوج السوق، تغيَّر نوع التحدي. فالإطار التنظيمي واضح، والطلب قوي والبنية الرقمية متوفرة، لكن العائق أصبح في التنفيذ اليومي. تشير التقديرات إلى أن أكثر من 84 في المائة من المؤسسات المالية في السعودية تخطط لتحديث بنيتها التحتية خلال العام المقبل، مما يعكس إدراكاً واسعاً لطبيعة التحدي. ويظهر هذا التحدي بوضوح في مجال التمويل، حيث لا تزال أكثر من 60 في المائة من المؤسسات تعتمد بالكامل على أنظمة قديمة، بينما تتجاوز نسبة الاعتماد على الموردين الخارجيين 87 في المائة. ولا يقتصر أثر ذلك على البطء التشغيلي، بل يمتد إلى النتائج نفسها. ويشير عويضة إلى وجود «فجوة بين سرعة إطلاق المنتجات وسهولة تطويرها أو توسيعها. وفي كثير من الحالات، تفوّت المؤسسات بالفعل فرصاً تجارية لأن أنظمتها الأساسية لا تواكب النمو».

تلعب الأطر التنظيمية الواضحة والكفاءات البشرية دوراً أساسياً في دعم الابتكار وبناء قطاع مالي أكثر كفاءة ونضجاً (شاترستوك)

التجزئة... التكلفة الخفية للنمو

تمثل التجزئة أحد أبرز التحديات في هذه المرحلة. فأكثر من 73 في المائة من المؤسسات تعتمد بشكل كبير على شركاء خارجيين لإطلاق المنتجات وتحديثها. ورغم أن هذا النموذج ساعد على تسريع الابتكار، فإنه أدَّى أيضاً إلى زيادة التعقيد. ويوضح عويضة أن «الاعتماد على عدد كبير من الموردين المتخصصين يزيد من عبء التنسيق، ويبطئ التنفيذ، ويُشتّت المسؤوليات». ولا يقتصر الأمر على الكفاءة، بل يمتد إلى الحوكمة والامتثال والأمن. فعندما تكون الأنظمة مفككة، يصبح تطبيق معايير موحدة أكثر صعوبة، وتتوزع المسؤولية عبر أطراف متعددة، ما يزيد من تعقيد إدارة المخاطر. والنتيجة هي أن الابتكار يحدث في جيوب منفصلة، دون أن يمتد بشكل متكامل داخل المؤسسة.

البيانات... من عائق إلى محرك

في قلب هذه التحديات، تقف البيانات. في كثير من المؤسسات، تكون البيانات موزعة عبر أنظمة متعددة ومكررة وتُعالج يدوياً أو تصل متأخرة. وهذا لا يؤثر فقط على الكفاءة، بل يحد من الإمكانات. ويؤدي ذلك برأي عويضة إلى «تقيد كل شيء». وهذا ينعكس مباشرة على القدرة على تطبيق تقييم المخاطر في الوقت الحقيقي والتسعير الديناميكي والخدمات المالية المخصصة. كما يفسر محدودية استخدام الذكاء الاصطناعي في الوظائف الأساسية.

في المقابل، عندما تُبنى الأنظمة على نماذج بيانات موحدة، يتغير المشهد بالكامل. ويفسر عويضة: «عندما تعمل المؤسسات على نماذج بيانات موحدة وطبقات تحكم مشتركة، يتضاعف الابتكار. يمكن تسعير المنتجات بشكل ديناميكي، وتقييم المخاطر فورياً، وإتاحة خدمات جديدة عبر واجهات برمجية دون زيادة المخاطر التشغيلية». وفي هذا السياق، لم تعد «الخدمات المفتوحة» (Open Banking) مفهوماً مستقبلياً، بل واقعاً ناشئاً، وإن كان لا يزال مقيداً بتجزئة البنية التحتية.

نجاح المرحلة المقبلة يعتمد على تكامل الأنظمة والكفاءات البشرية وليس على إطلاق منتجات جديدة فقط (شاترستوك)

التنظيم... عامل تمكين لا قيد

من أبرز نقاط القوة في السوق السعودية وضوح الإطار التنظيمي. وينوه عويضة «بتوفير الأطر الواضحة من البنك المركزي السعودي بيئة تمكّن المؤسسات من الابتكار بثقة، بدلاً من العمل بحذر ضمن تجارب معزولة». كما ساهمت مبادرات مثل «البيئات التجريبية التنظيمية» (sandbox) في تسريع الابتكار مع الحفاظ على الاستقرار.

والتحدي في المرحلة المقبلة سيكون الحفاظ على هذا التوازن أي تحقيق السرعة دون التفريط في الضوابط. فمع تطور السوق، يتغير دور الشركاء التقنيين حيث لم يعد المطلوب تقديم أدوات منفصلة، بل دعم شامل يشمل الحوكمة والامتثال والأمن والتشغيل.

وينصح عويضة «بأن يقلل الشركاء التعقيد، لا أن يزيدوه». كما يبرز هنا مفهوم الانضباط المعماري، إذ إن غياب تصميم تقني متماسك يجعل حتى أفضل الأدوات غير قادرة على تحقيق القيمة المرجوة.

الكفاءات البشرية والملكية

يشدد عويضة على أهمية وضوح المسؤوليات إذ لا يمكن للتكنولوجيا وحدها أن تقود المرحلة المقبلة. ويضيف خلال حديثه مع «الشرق الأوسط»: «تفشل التقنيات المتقدمة عندما تكون المسؤولية موزعة بين فرق أو موردين أو وظائف مختلفة». المؤسسات الناجحة هي التي تحقق تكاملاً بين فرق الأعمال والتقنية والتشغيل، مع قدرة على اتخاذ القرار بسرعة. وفي الوقت نفسه، تمثل تنمية الكفاءات في السعودية، ضمن «رؤية 2030»، ميزة استراتيجية، خاصة في مجالات البيانات والذكاء الاصطناعي.

ولا يقتصر تأثير التطور المالي على القطاع نفسه بل على «طريقة انتقال الأموال وتوزيع رأس المال وتصميم المنتجات المالية تحدد سرعة تطور الاقتصادات» كما يرى عويضة. ويتابع: «عندما تصبح الأنظمة المالية أكثر كفاءة، يتسارع الابتكار في مختلف القطاعات».

كيف تبدو مرحلة النضج؟

في المرحلة المقبلة، لن يُقاس نجاح القطاع بعدد المنتجات الرقمية، بل بمدى كفاءتها وتكاملها. يتصور عويضة بيئة يمكن فيها إطلاق منتجات مالية متوافقة خلال أسابيع بدلاً من سنوات، دون زيادة المخاطر التنظيمية أو التشغيلية. كما ستلعب الأتمتة دوراً محورياً في تقليل الأعباء التشغيلية. ويصرح: «عندما تُزال القيود، فإن أفضل المنتجات لا تُخطط دائماً... بل تظهر تلقائياً».

لم تعد قصة «الفنتك» في السعودية تتعلق باللحاق بالركب. ففي كثير من المجالات، وصلت بالفعل إلى مستويات عالمية. المرحلة المقبلة ستكون أكثر أهمية... تنفيذ فعَّال وتوسع المستدام وبناء أنظمة تدعم الابتكار المستمر.