تقرير: 3 إنجازات مخيفة سيحققها الذكاء الاصطناعي عام 2024

تقرير: 3 إنجازات مخيفة سيحققها الذكاء الاصطناعي عام 2024
TT

تقرير: 3 إنجازات مخيفة سيحققها الذكاء الاصطناعي عام 2024

تقرير: 3 إنجازات مخيفة سيحققها الذكاء الاصطناعي عام 2024

على الرغم من أن عام 2023 كان عام تغيير قواعد اللعبة بالنسبة للذكاء الاصطناعي، إلا أنه مجرد بداية، حيث من المقرر أن يبدأ عام 2024 بمجموعة من التطورات المخيفة التي قد تشمل الذكاء العام الاصطناعي وحتى التزييف العميق الأكثر واقعية.

لقد كان الذكاء الاصطناعي (AI) موجودًا منذ عقود، ولكن هذا العام كان بمثابة انطلاقة للتكنولوجيا المخيفة، حيث أنشأ ChatGPT من OpenAI ذكاءً اصطناعيًا عمليًا يسهل الوصول إليه للجماهير. ومع ذلك، فإن الذكاء الاصطناعي له تاريخ متقلب، والتكنولوجيا اليوم سبقها سجل قصير من التجارب الفاشلة.

وفي أغلب الأحيان، يبدو أن الابتكارات في مجال الذكاء الاصطناعي مهيأة لتحسين أشياء مثل التشخيص الطبي والاكتشاف العلمي. حيث يمكن لأحد نماذج الذكاء الاصطناعي، على سبيل المثال، اكتشاف ما إذا كنت معرضًا لخطر كبير للإصابة بسرطان الرئة من خلال تحليل فحص الأشعة السينية.

وخلال فترة كوفيد-19، قام العلماء أيضًا ببناء خوارزمية يمكنها تشخيص الفيروس من خلال الاستماع إلى الاختلافات الدقيقة في صوت سعال الأشخاص.

كما تم استخدام الذكاء الاصطناعي لتصميم تجارب فيزياء الكم بما يتجاوز ما تصوره البشر.

لكن ليست كل الابتكارات حميدة إلى هذا الحد؛ فمن الطائرات بدون طيار القاتلة إلى الذكاء الاصطناعي الذي يهدد مستقبل البشرية، إليك بعض من أكثر اختراقات الذكاء الاصطناعي رعبًا والتي من المحتمل أن تحدث هذا العام 2024. وذلك وفق تقرير جديد نشره موقع «لايف ساينس» العلمي.

لا نعرف بالضبط سبب إقالة سام ألتمان الرئيس التنفيذي لشركة OpenAI، وإعادته إلى منصبه أواخر عام 2023. ولكن وسط الفوضى المؤسسية في OpenAI، انتشرت شائعات حول تقنية متقدمة يمكن أن تهدد مستقبل البشرية.

الذكاء الاصطناعي العام

وذكرت وكالة «رويترز» أن نظام OpenAI هذا، المسمى Q* (يلفظ Q-star)، قد يجسد الإدراك الرائد المحتمل للذكاء العام الاصطناعي (AGI). إذ لا يُعرف سوى القليل عن هذا النظام الغامض، ولكن إذا كانت التقارير صحيحة، فقد يؤدي ذلك إلى رفع قدرات الذكاء الاصطناعي عدة مرات. وهو نقطة تحول افتراضية، تُعرف أيضًا باسم «التفرد»، حيث يصبح الذكاء الاصطناعي أكثر ذكاءً من البشر.

ولا تزال الأجيال الحالية من الذكاء الاصطناعي متخلفة في المجالات التي يتفوق فيها البشر، مثل التفكير القائم على السياق والإبداع الحقيقي. فمعظم المحتوى الذي ينشئه الذكاء الاصطناعي، إن لم يكن كله، لا يؤدي إلا إلى اجترار، بطريقة ما، البيانات المستخدمة لتدريبه. لكن العلماء يقولون إن الذكاء الاصطناعي العام قد يؤدي وظائف معينة بشكل أفضل من معظم الناس. ويمكن أيضًا تسليحها واستخدامها، على سبيل المثال، لإنشاء مسببات الأمراض المحسنة، أو شنّ هجمات إلكترونية ضخمة، أو تنسيق التلاعب الجماعي.

لقد ظلت فكرة الذكاء الاصطناعي العام مقتصرة منذ فترة طويلة على الخيال العلمي، ويعتقد العديد من العلماء أننا لن نصل أبدًا إلى هذه النقطة. إلّا انه من المؤكد أن وصول OpenAI إلى نقطة التحول هذه سيكون بمثابة صدمة، لكن ليس خارج نطاق الاحتمالات.

نحن نعلم، على سبيل المثال، أن سام كان بالفعل يضع الأساس لـ AGI في فبراير (شباط) 2023، موضحًا نهج OpenAI تجاه AGI في منشور بالمدونة. كما نعلم أيضًا أن الخبراء بدأوا يتوقعون حدوث اختراق وشيك، بما في ذلك الرئيس التنفيذي لشركة «نيفيديا» جينسن هيونغ؛ الذي قال في نوفمبر (تشرين الثاني) إن الذكاء الاصطناعي العام (AGI) سيكون في متناول اليد خلال السنوات الخمس المقبلة. فهل يمكن أن يكون عام 2024 عام الاختراق للذكاء الاصطناعي العام؟ فقط الوقت كفيل بإثبات ذلك.

التزييف العميق

ان أحد التهديدات السيبرانية الأكثر إلحاحًا هو تهديد التزييف العميق (الصور أو مقاطع الفيديو الملفقة بالكامل لأشخاص لتجريمهم أو التنمر عليهم).

لم تكن تقنية التزييف العميق للذكاء الاصطناعي جيدة بما يكفي لتشكل تهديدًا كبيرًا، لكن هذا قد يكون على وشك التغيير. حيث يمكن للذكاء الاصطناعي الآن إنشاء صور مزيفة عميقة في الوقت الحقيقي (أي بث فيديو مباشر)؛ وبعبارة أخرى قد أصبح الآن جيدًا جدًا في إنشاء وجوه بشرية لدرجة أن الناس لم يعد بإمكانهم التمييز بين ما هو حقيقي وما هو مزيف.

وكشفت دراسة نشرت بمجلة «العلوم النفسية» في 13 نوفمبر، عن ظاهرة «الواقعية المفرطة»، حيث من المرجح أن يُنظر إلى المحتوى الناتج عن الذكاء الاصطناعي على أنه «حقيقي» أكثر من كونه محتوى حقيقيًا. وهذا من شأنه أن يجعل من المستحيل عمليا على الناس التمييز بين الحقيقة والخيال بالعين المجردة.

وعلى الرغم من أن الأدوات يمكن أن تساعد الأشخاص على اكتشاف التزييف العميق، إلا أنها ليست في الاتجاه السائد بعد؛ على سبيل المثال، قامت شركة «إنتل» ببناء كاشف عميق للتزييف العميق يعمل باستخدام الذكاء الاصطناعي لتحليل تدفق الدم. لكن برنامج FakeCatcher المعروف أدى إلى نتائج مختلطة، وفقا لهيئة الاذاعة البريطانية (بي بي سي).

ومع نضوج الذكاء الاصطناعي، فإن أحد الاحتمالات المخيفة هو أن يتمكن الناس من نشر التزييف العميق لمحاولة التأثير على الانتخابات.

وبينما تستعد الولايات المتحدة لإجراء انتخابات رئاسية في نوفمبر 2024، هناك احتمال أن يؤدي الذكاء الاصطناعي والتزييف العميق إلى تغيير نتيجة هذا التصويت الحاسم؛ على سبيل المثال، تراقب جامعة كاليفورنيا في بيركلي استخدام الذكاء الاصطناعي في الحملات الانتخابية،

وذكرت شبكة «إن بي سي نيوز» أيضًا أن العديد من الولايات تفتقر إلى القوانين أو الأدوات اللازمة للتعامل مع أي زيادة في المعلومات المضللة الناتجة عن الذكاء الاصطناعي.

الروبوتات القاتلة

تعمل الحكومات في جميع أنحاء العالم على دمج الذكاء الاصطناعي بشكل متزايد في أدوات الحرب. فقد أعلنت الحكومة الأميركية في 22 نوفمبر أن 47 ولاية قد أيدت إعلانًا بشأن الاستخدام المسؤول للذكاء الاصطناعي في الجيش، والذي تم إطلاقه لأول مرة في لاهاي بفبراير. وان الاستخدام «غير المسؤول» لهذه التقنيات هو احتمال حقيقي ومرعب. إذ يستطيع الذكاء الاصطناعي التعرف على الأنماط، والتعلم الذاتي، والتنبؤ أو إصدار توصيات في السياقات العسكرية، وقد بدأ بالفعل سباق تسلح للذكاء الاصطناعي. ففي عام 2024، من المحتمل أننا لن نرى استخدام الذكاء الاصطناعي في أنظمة الأسلحة فحسب، بل أيضًا في الأنظمة اللوجستية وأنظمة دعم القرار، فضلاً عن البحث والتطوير. ففي عام 2022، على سبيل المثال، أنتج الذكاء الاصطناعي 40 ألف سلاح كيميائي افتراضي جديد. وطلبت فروع مختلفة من الجيش الأميركي طائرات بدون طيار يمكنها التعرف على الأهداف وتتبع المعارك بشكل أفضل من البشر. .

لقد ابتكر العلماء ذكاءً اصطناعيًا يمكنه اكتشاف الحياة الفضائية، لكنهم ليسوا متأكدين تمامًا من كيفية عمله. إلّا ان أحد مجالات التطوير الأكثر إثارة للخوف هو مجال أنظمة الأسلحة الفتاكة المستقلة (LAWS) - أو الروبوتات القاتلة.

وقد حذر العديد من العلماء والتقنيين البارزين من الروبوتات القاتلة، بما في ذلك ستيفن هوكينغ عام 2015 وإيلون ماسك عام 2017، لكن التكنولوجيا لم تتحقق بعد على نطاق واسع. ومع ذلك، تشير بعض التطورات المثيرة للقلق إلى أن هذا العام قد يكون بمثابة انطلاقة للروبوتات القاتلة.

ويعد المبالغ التي تنفقها الدول حول العالم على الذكاء الاصطناعي مؤشرًا أيضًا، حيث رفعت الصين إنفاق الذكاء الاصطناعي من 11.6 مليون دولار في عام 2010 إلى 141 مليون دولار بحلول عام 2019، وفقًا لما ذكرته «رويترز». وأضاف المنشور أن السبب في ذلك هو أن الصين تخوض سباقًا مع الولايات المتحدة لنشر أنظمة الأسلحة الفتاكة ذاتية التشغيل.

وتشير هذه التطورات مجتمعة إلى أننا ندخل فجرًا جديدًا في حرب الذكاء الاصطناعي.


مقالات ذات صلة

موظف سابق في «غوغل»: الشركة زودت إسرائيل بالذكاء الاصطناعي في غزة

تكنولوجيا رجل يسير أمام شعار «غوغل» (أ.ف.ب)

موظف سابق في «غوغل»: الشركة زودت إسرائيل بالذكاء الاصطناعي في غزة

زعم موظف سابق في «غوغل» أن الشركة ساعدت شركة متعاقدة مع الجيش الإسرائيلي في تحليل لقطات فيديو التقطتها طائرات مسيّرة

«الشرق الأوسط» (نيويورك)
صحتك شعار تطبيق المحادثة بالذكاء الاصطناعي «شات جي بي تي» (إ.ب.أ)

دراسة تربط بين الاعتماد على تطبيقات محادثة الذكاء الاصطناعي والاكتئاب

دراسة تقول إن الأشخاص الذين يستخدمون تطبيقات محادثة الذكاء الاصطناعي باستمرار خارج العمل قد يكونون أكثر عرضة لأعراض الاكتئاب من غيرهم.

«الشرق الأوسط» (لندن)
الاقتصاد شركة ​«أوبن إيه آي» إحدى أكثر الشركات تأثيراً في العصر الحالي (رويترز)

«إنفيديا» تنفي تعثر خطتها للاستثمار في «أوبن إيه آي»

قال جنسن هوانغ، الرئيس التنفيذي لشركة «إنفيديا»، اليوم السبت، إن الشركة تعتزم استثمار مبلغ «ضخم»، ربما يكون الأكبر في تاريخها، في شركة ​«أوبن إيه آي».

«الشرق الأوسط» (لندن)
الاقتصاد «إنفيديا» كانت ستمنح «أوبن إيه آي» الأموال اللازمة لشراء رقائق متطورة تعد أساسية للحفاظ على هيمنتها في الذكاء الاصطناعي (رويترز)

تعثر خطة «إنفيديا» لاستثمار 100 مليار دولار في «أوبن إيه آي»

تعثرت خطة «إنفيديا» لاستثمار ما يصل إلى 100 مليار دولار في «أوبن ​إيه آي» لمساعدتها على تدريب وتشغيل أحدث نماذجها للذكاء الاصطناعي.

«الشرق الأوسط» (واشنطن)
تكنولوجيا ينتقل الذكاء الاصطناعي في القطاع المصرفي من مرحلة التجارب إلى التشغيل واسع النطاق ليصبح جزءاً من البنية الأساسية لاتخاذ القرارات الحساسة (شاترستوك)

الذكاء الاصطناعي في العمل المصرفي… هل يتحول من أداة مساعدة إلى بنية أساسية؟

يدخل الذكاء الاصطناعي العمل المصرفي بوصفه بنية أساسية، حيث تُدار القرارات آلياً، وتقاس الثقة رقمياً، وتتصاعد تحديات الحوكمة، والبيانات، والاحتيال.

نسيم رمضان (لندن)

موظف سابق في «غوغل»: الشركة زودت إسرائيل بالذكاء الاصطناعي في غزة

رجل يسير أمام شعار «غوغل» (أ.ف.ب)
رجل يسير أمام شعار «غوغل» (أ.ف.ب)
TT

موظف سابق في «غوغل»: الشركة زودت إسرائيل بالذكاء الاصطناعي في غزة

رجل يسير أمام شعار «غوغل» (أ.ف.ب)
رجل يسير أمام شعار «غوغل» (أ.ف.ب)

زعم موظف سابق في «غوغل» أن الشركة انتهكت سياساتها التي تحظر استخدام الذكاء الاصطناعي في الأسلحة أو المراقبة عام 2024، وذلك بمساعدتها شركة متعاقدة مع الجيش الإسرائيلي في تحليل لقطات فيديو التقطتها طائرات مسيّرة.

وقال الموظف في شكوى سرية قدمها لهيئة الأوراق المالية والبورصات الأميركية، واطلعت عليها صحيفة «واشنطن بوست»، إن تقنية الذكاء الاصطناعي الخاصة بغوغل «جيميني» استُخدمت من قِبل إسرائيل في وقتٍ كانت فيه الشركة تنأى بنفسها علناً عن الجيش الإسرائيلي بعد احتجاجاتٍ من موظفيها على عقدٍ مع الحكومة الإسرائيلية.

ما القصة؟ ومتى بدأت؟

وفقاً للوثائق المرفقة بالشكوى المقدمة إلى هيئة الأوراق المالية والبورصات الأميركية في أغسطس (آب)، فقد تلقى قسم الحوسبة السحابية في «غوغل» في يوليو (تموز) 2024 طلب دعم فني من شخص يستخدم بريداً إلكترونياً تابعاً للجيش الإسرائيلي، ويتطابق اسم صاحب طلب الدعم مع اسم موظف مُدرج في البورصة لدى شركة التكنولوجيا الإسرائيلية «كلاود إكس»، التي تزعم الشكوى أنها متعاقدة مع الجيش الإسرائيلي.

وطلب الموظف المساعدة في تحسين دقة نظام «غوغل»، «جيميني» في تحديد الأهداف، مثل الطائرات المسيّرة والمركبات المدرعة والجنود، في لقطات فيديو جوية.

وأفادت الوثائق بأن موظفي وحدة الحوسبة السحابية في «غوغل» استجابوا بتقديم اقتراحات وإجراء اختبارات داخلية.

وتزعم الشكوى أن استخدام نظام «جيميني» كان مرتبطاً بالعمليات الإسرائيلية في غزة.

وفي ذلك الوقت، نصّت «مبادئ الذكاء الاصطناعي» المعلنة لشركة «غوغل» على أنها لن تستخدم تقنية الذكاء الاصطناعي في مجال الأسلحة أو المراقبة «بما يخالف المعايير الدولية المتعارف عليها».

وقد صرحت «غوغل» سابقاً بأن عملها مع الحكومة الإسرائيلية «لا يتعلق ببيانات حساسة للغاية أو سرية أو عسكرية ذات صلة بالأسلحة أو أجهزة الاستخبارات».

تناقض في المعايير

وأكد مقدم الشكوى أن ما حدث مع الشركة المتعاقدة مع الجيش الإسرائيلي يتعارض مع المبادئ المعلنة لـ«غوغل».

وأضاف قائلاً إن «غوغل» انتهكت القوانين؛ إذ خالفت سياساتها المعلنة، والتي وردت أيضاً في ملفات الحكومة الفيدرالية، ما أدى إلى تضليل المستثمرين والجهات التنظيمية.

وقال الموظف السابق الذي قدم الشكوى، لصحيفة «واشنطن بوست» شريطة عدم الكشف عن هويته خوفاً من انتقام الشركة: «خضعت كثيراً من مشاريعي في (غوغل) لعملية مراجعة أخلاقيات الذكاء الاصطناعي الداخلية. هذه العملية صارمة، وبصفتنا موظفين، نتلقى تذكيراً دورياً بأهمية مبادئ الشركة المتعلقة بالذكاء الاصطناعي. لكن عندما يتعلق الأمر بإسرائيل وغزة، كان الوضع معكوساً تماماً».

وأضاف: «لقد تقدمت بشكوى إلى هيئة الأوراق المالية والبورصات الأميركية؛ لأنني شعرت بضرورة محاسبة الشركة على هذا التناقض في المعايير».

ونفى متحدث باسم «غوغل» مزاعم الموظف السابق، مؤكداً أن الشركة لم تنتهك مبادئها المتعلقة بالذكاء الاصطناعي، لأن استخدام المتعاقد لخدمات الذكاء الاصطناعي كان محدوداً للغاية لدرجة أنه لا يُعد «مُجدياً».

وجاء في بيان صادر عن المتحدث: «أجبنا عن سؤال عام حول الاستخدام، كما نفعل مع أي عميل، بمعلومات الدعم الفني المعتادة، ولم نقدم أي مساعدة فنية إضافية. وقد صدر طلب الدعم من حساب لا يتجاوز إنفاقه الشهري على منتجات الذكاء الاصطناعي بضع مئات من الدولارات، مما يجعل أي استخدام مُجدٍ للذكاء الاصطناعي مستحيلاً».

وامتنع متحدث باسم هيئة الأوراق المالية والبورصات الأميركية عن التعليق.

ويمكن لأي شخص تقديم شكوى إلى الهيئة، التي لا تنشرها للعامة. ولا تؤدي الشكاوى تلقائياً إلى فتح تحقيق.

ولم يستجب ممثلو الجيش الإسرائيلي وشركة «كلاود إكس» لطلبات التعليق.

تعاون شركات التكنولوجيا الكبرى مع إسرائيل

وأظهرت تقارير سابقة من صحيفة «واشنطن بوست» وغيرها من المؤسسات الإخبارية أن «غوغل» وغيرها من عمالقة التكنولوجيا الأميركية عملت على مشاريع عسكرية لصالح إسرائيل.

وفي يناير (كانون الثاني) 2025، أفادت «واشنطن بوست» بأن موظفي «غوغل» سارعوا إلى تزويد الجيش الإسرائيلي بإمكانية وصول أوسع إلى أدوات الذكاء الاصطناعي في الأسابيع التي تلت هجوم 7 أكتوبر (تشرين الأول). وكشفت وثيقة داخلية أن أحد موظفي «غوغل» حذر زملاءه من أنه في حال عدم الموافقة على طلبات وزارة الدفاع الإسرائيلية لزيادة قدرات الذكاء الاصطناعي، فقد تلجأ إسرائيل إلى «أمازون».

وفي أغسطس، أعلنت «مايكروسوفت»، التي تربطها أيضاً عدة عقود مع الحكومة الإسرائيلية، أنها فتحت تحقيقاً داخلياً بعد أن نشرت صحيفة «الغارديان» تقريراً يفيد بأن خدماتها السحابية تُستخدم لتخزين بيانات المكالمات الهاتفية التي تم الحصول عليها من خلال مراقبة واسعة النطاق للمدنيين في غزة والضفة الغربية.

وفي سبتمبر (أيلول)، قالت «مايكروسوفت» إن التحقيق دفعها إلى منع وحدة داخل وزارة الدفاع الإسرائيلية من الوصول إلى بعض خدماتها السحابية، وذلك تماشياً مع شروط الخدمة التي تحظر المراقبة الجماعية للمدنيين.


موجة حذف واسعة لـ«تيك توك» في أميركا بعد سيطرة حلفاء ترمب على التطبيق

أشخاص يستخدمون هواتفهم الجوالة أمام شعار تطبيق «تيك توك» (رويترز)
أشخاص يستخدمون هواتفهم الجوالة أمام شعار تطبيق «تيك توك» (رويترز)
TT

موجة حذف واسعة لـ«تيك توك» في أميركا بعد سيطرة حلفاء ترمب على التطبيق

أشخاص يستخدمون هواتفهم الجوالة أمام شعار تطبيق «تيك توك» (رويترز)
أشخاص يستخدمون هواتفهم الجوالة أمام شعار تطبيق «تيك توك» (رويترز)

كشفت تقارير حديثة ارتفاعاً ملحوظاً في عدد المستخدمين الذين حذفوا تطبيق «تيك توك» داخل الولايات المتحدة، عقب صفقة استحوذت بموجبها مجموعة من المستثمرين المقرّبين من الرئيس الأميركي دونالد ترمب على عمليات التطبيق في البلاد، وفقاً لصحيفة «إندبندنت».

وحسب بيانات شركة أبحاث السوق «سينسور تاور»، ارتفعت عمليات إلغاء تثبيت التطبيق من قبل المستخدمين الأميركيين بنحو 150 في المائة منذ تغيير هيكل الملكية الأسبوع الماضي.

وأعرب عدد من مستخدمي «تيك توك» عن مخاوفهم من احتمال فرض رقابة على المحتوى في ظل المُلّاك الجدد، لا سيما بعد انتقال ملكية التطبيق من الشركة الصينية «بايت دانس» إلى مجموعة استثمارية تضم شركة «أوراكل» العملاقة، بقيادة مؤسسها لاري إليسون، المعروف بقربه من ترمب.

وفي هذا السياق، أشار مستخدمون إلى أن مقاطع الفيديو المنتقدة للرئيس الأميركي، وكذلك تلك التي تناولت مداهمات إدارة الهجرة والجمارك في مينيابوليس، لم تحظَ بأي مشاهدات خلال الأسبوع الحالي، في حين لُوحظ حجب كلمات محددة، من بينها اسم «إبستين»، في الرسائل الخاصة.

على صعيد رسمي، أعلن حاكم ولاية كاليفورنيا، غافين نيوسوم، عزمه فتح تحقيق لمعرفة ما إذا كان تطبيق «تيك توك» يمارس رقابة على المحتوى منذ إتمام صفقة الاستحواذ، وهو ما قد يُعد انتهاكاً لقوانين الولاية.

من جهتها، أقرت منصة «تيك توك» بوقوع هذه الحوادث، لكنها عزتها إلى مشكلات تقنية واسعة النطاق تتعلق بخوادمها. وقال متحدث باسم الشركة لصحيفة «إندبندنت» إن التطبيق لا يفرض أي قيود على تداول اسم جيفري إبستين، المدان الراحل بالاعتداء الجنسي على الأطفال.

وأضاف المتحدث أن «تيك توك» تمكنت من تحديد الخلل الذي تسبب في هذه المشكلات لبعض المستخدمين، وتعمل حالياً على معالجته.

وفي بيان رسمي، أوضحت الشركة: «نواصل العمل على حل مشكلة كبيرة في البنية التحتية، نتجت عن انقطاع التيار الكهربائي في أحد مواقع مراكز البيانات التابعة لشركائنا في الولايات المتحدة».

وأضاف البيان أن تجربة المستخدم داخل الولايات المتحدة قد تستمر في مواجهة بعض الاضطرابات التقنية، لا سيما عند نشر محتوى جديد.

إلى جانب ذلك، عبّر مستخدمون آخرون عن قلقهم إزاء سياسة الخصوصية المحدّثة للتطبيق، معتبرين أنها تتضمن طلب الوصول إلى معلومات حساسة قد تُستخدم من قبل إدارة ترمب ضدهم.

وفي ظل هذه المخاوف، سجلت التطبيقات المنافسة لـ«تيك توك» ارتفاعاً ملحوظاً في عدد التنزيلات، حيث شهد كل من «سكاي لايت» و«آب سكرولد» زيادة كبيرة في أعداد المستخدمين خلال الأيام القليلة الماضية.


الذكاء الاصطناعي في العمل المصرفي… هل يتحول من أداة مساعدة إلى بنية أساسية؟

ينتقل الذكاء الاصطناعي في القطاع المصرفي من مرحلة التجارب إلى التشغيل واسع النطاق ليصبح جزءاً من البنية الأساسية لاتخاذ القرارات الحساسة (شاترستوك)
ينتقل الذكاء الاصطناعي في القطاع المصرفي من مرحلة التجارب إلى التشغيل واسع النطاق ليصبح جزءاً من البنية الأساسية لاتخاذ القرارات الحساسة (شاترستوك)
TT

الذكاء الاصطناعي في العمل المصرفي… هل يتحول من أداة مساعدة إلى بنية أساسية؟

ينتقل الذكاء الاصطناعي في القطاع المصرفي من مرحلة التجارب إلى التشغيل واسع النطاق ليصبح جزءاً من البنية الأساسية لاتخاذ القرارات الحساسة (شاترستوك)
ينتقل الذكاء الاصطناعي في القطاع المصرفي من مرحلة التجارب إلى التشغيل واسع النطاق ليصبح جزءاً من البنية الأساسية لاتخاذ القرارات الحساسة (شاترستوك)

لم يعد الذكاء الاصطناعي تجربة جانبية في القطاع المصرفي، ولا مشروعاً استكشافياً في مختبرات الابتكار. ما يحدث اليوم هو انتقال فعلي إلى مرحلة التشغيل واسع النطاق، حيث تُدار قرارات حساسة عبر أنظمة آلية، وتُقاس الثقة رقمياً، وتُعاد صياغة البنية الأساسية للبنوك على أساس البيانات، والخوارزميات. لم يعد السؤال محصوراً بقدرة الذكاء الاصطناعي على تغيير العمل المصرفي، بل بات يتعلق بمدى استعداد البنوك لتكلفة هذا التغيير، وتعقيداته.

تشير تقديرات شركة «غارتنر» إلى أن الإنفاق على البرمجيات في منطقة الشرق الأوسط وشمال أفريقيا سينمو بنسبة 13.9 في المائة ليصل إلى 20.4 مليار دولار في 2026، مدفوعاً بتسارع تبني تقنيات الذكاء الاصطناعي المتقدم. وعلى المستوى العالمي، تتوقع الشركة أن يُوجَّه 75 في المائة من الإنفاق على البرمجيات بحلول عام 2028 إلى حلول تتضمن قدرات الجيل الجديد من الذكاء الاصطناعي. هذه الأرقام تعكس تحولاً هيكلياً لا يمكن عزله عن القطاع المصرفي الذي بات في قلب هذا التسارع.

الثقة تتحول إلى معيار أداء

مع توسع استخدام الذكاء الاصطناعي في تقييم الجدارة الائتمانية، وكشف الاحتيال، وخدمة العملاء، أصبحت الأنظمة أسرع، وأكثر دقة، لكنها أيضاً أقل شفافية. التحدي الأكبر يتعلق بكيفية إدارة البنوك على إبراز قرارات تتخذها خوارزميات خلال أجزاء من الثانية.

يرى أليكس كوياتكوفسكي، مدير الخدمات المالية العالمية في «ساس»، أن عام 2026 يمثل نقطة تحول في هذا الجانب. ويوضح أن «الثقة لم تعد وعداً ضمنياً، بل أصبحت معيار أداء. على البنوك الانتقال من الذكاء القائم على النماذج إلى الذكاء القائم على الأدلة، حيث يصبح كل قرار قابلاً للتفسير، والتحقق». هذه المقاربة تعكس تحولاً في مفهوم الذكاء نفسه، وهو أنه لا قيمة للتنبؤ إذا لم يكن قابلاً للإثبات.

صعود الذكاء الاصطناعي الوكيل والأنظمة شبه المستقلة يعيد تشكيل العمليات المصرفية لكنه يولد مخاطر جديدة تتعلق بالاحتيال والتجارة الآلية (شاترستوك)

الذكاء الاصطناعي الوكيل في قلب العمليات

أحد أبرز ملامح المرحلة المقبلة هو الانتقال من أدوات تحليلية إلى أنظمة شبه مستقلة، أو ما يُعرف بالذكاء الاصطناعي الوكيل. هذه الأنظمة لا تكتفي بتقديم توصيات، بل تدير عمليات كاملة، من معالجة طلبات العملاء، إلى تنظيم سير العمل، واتخاذ قرارات تشغيلية.

بحسب بيانات شركة «شركة الأبحاث الدولية» (IDC)، من المتوقع أن يتجاوز إنفاق قطاع الخدمات المالية على الذكاء الاصطناعي 67 مليار دولار بحلول عام 2028، مع تركيز متزايد على التطبيقات الإنتاجية المرتبطة بالقرارات، والعمليات. بحسب ديانا روثفوس مديرة استراتيجية الحلول العالمية لإدارة المخاطر، والاحتيال، والامتثال في «ساس»: «القطاع تجاوز مرحلة إثبات المفهوم». وتوضح روثفوس كذلك أن «القطاع تجاوز مرحلة إثبات المفهوم». وتضيف: «البنوك التي ستحقق ميزة تنافسية هي تلك التي تحول الذكاء الاصطناعي إلى بنية صناعية، حيث تصبح الحوكمة جزءاً من القيمة، لا عبئاً تنظيمياً».

التجارة الآلية ومخاطر «الشراء غير المقصود»

مع توسع الأنظمة الذاتية، بدأت البنوك تواجه سيناريوهات جديدة لم تكن في الحسبان. من بينها نزاعات ناتجة عن عمليات شراء نفذتها أنظمة ذكية دون إدراك كامل من المستخدم. هذه الظاهرة تفتح باباً جديداً لمخاطر الاحتيال. آدم نيبرغ المدير الأول للتسويق المصرفي العالمي في «ساس» يشدد على أن البنوك باتت مطالبة بالتحقق ليس فقط من هوية الأفراد، بل من هوية الأنظمة الذكية نفسها. ويضيف أن «أطراً مثل الرموز المميزة للأنظمة، والتوقيعات السلوكية ستصبح ضرورية لحماية العملاء، ومنع إساءة استخدام الذكاء الاصطناعي».

تتحول الثقة من مفهوم افتراضي إلى معيار أداء قابل للقياس مع تزايد الحاجة إلى قرارات خوارزمية قابلة للتفسير والتحقق (شاترستوك)

تلوث البيانات وظهور «الخزائن الرقمية»

تواجه البنوك أزمة جديدة تتعلق بسلامة البيانات. فالبيانات الاصطناعية رغم فائدتها في تدريب النماذج، قد تتسلل إلى قواعد البيانات الأساسية، وتدخل تحيزات يصعب اكتشافها.

يحذر إيان هولمز، مدير حلول مكافحة الاحتيال المؤسسي في «ساس»، من أن «الذكاء الاصطناعي التوليدي قادر على إدخال أخطاء واقعية على نطاق واسع، ما يجعل اكتشاف البيانات الملوثة أكثر صعوبة».

ولهذا، بدأت بعض البنوك بإنشاء «خزائن بيانات» رقمية محمية تفرض ضوابط صارمة على تفاعل النماذج الذكية مع البيانات الحساسة.

في المقابل، يفتح الذكاء الاصطناعي آفاقاً جديدة أمام استغلال البيانات غير المهيكلة، التي تشكل أكثر من 80 في المائة من بيانات المؤسسات، وتنمو بمعدل يتراوح بين 50 و60 في المائة سنوياً. توضح تيريزا روبرتس، المديرة العالمية لنمذجة المخاطر في «ساس» أن وكلاء المعرفة المدعومين بالنماذج اللغوية الضخمة باتوا قادرين على تحويل نصوص وصور كانت مهملة سابقاً إلى رؤى قابلة للتنفيذ، ما يسرّع اتخاذ القرار، ويحوّل إدارة المخاطر من نهج تفاعلي إلى استباقي.

الاحتيال العاطفي

من أخطر التحديات الناشئة ما يُعرف بالاحتيال العاطفي المدعوم بالذكاء الاصطناعي. فالمحتالون باتوا يستخدمون نماذج لغوية لمحاكاة التفاعل الإنساني على نطاق واسع. يعد ستو برادلي، نائب الرئيس الأول لحلول إدارة المخاطر في «ساس» أن «الحد الفاصل بين التواصل الحقيقي والإغواء المصطنع يتلاشى» ما يفرض على البنوك لعب دور «حاجز الحماية العاطفية» عبر تحليل السلوك، والكشف المبكر عن أنماط الاستغلال. كما تشهد تقنيات مكافحة الجرائم المالية تحولاً جذرياً مع تراجع فعالية الأنظمة القائمة على القواعد. وفي هذا السياق ترى بيث هيرون رئيسة حلول الامتثال المصرفي في «ساس» أن «الانتقال إلى تحليلات فورية وقابلة للتفسير لم يعد خياراً، بل ضرورة تنظيمية، وتنافسية».

خلاصة المشهد

في 2026، يرى الخبراء أن القطاع المصرفي سيدخل مرحلة لا يمكن فيها الفصل بين الذكاء الاصطناعي، والثقة، والحوكمة. النجاح لن يكون لمن يملك النموذج الأقوى فقط، بل لمن يستطيع تحويل الذكاء إلى قرارات قابلة للتفسير، وبيانات موثوقة، وأنظمة تحمي العملاء بقدر ما تحمي الأرباح.