استطلاع أميركي: المراهقون يتعرّضون لضغوط شديدة لنشر صور جنسية

رُبعهم يضطر للخضوع لطلبات الإكراه المتكررة... ونصفهم للابتزاز

استطلاع أميركي: المراهقون يتعرّضون لضغوط شديدة لنشر صور جنسية
TT

استطلاع أميركي: المراهقون يتعرّضون لضغوط شديدة لنشر صور جنسية

استطلاع أميركي: المراهقون يتعرّضون لضغوط شديدة لنشر صور جنسية

لا يرغب أي والد في معرفة أن ابنه أو ابنته قد تعرَّض، أو تعرَّضت، لضغوط لإرسال صور جنسية، لكن استطلاعاً جديداً يشير إلى أن كثيراً من المراهقين يفعلون ذلك بالفعل، وغالباً مع شخص تربطهم به علاقة.

استطلاع أميركي

شمل الاستطلاع، الذي نُشر في مجلة «JAMA Network Open»، يوم الثلاثاء، أكثر من 6200 شاب وشابة تتراوح أعمارهم بين 18 و28 عاماً، سُئلوا عن حوادث التحرُّش الجنسي بواسطة الصور، التي تعرَّضوا لها قبل بلوغهم سن 18 عاماً. وتناول الاستطلاع الجهات التي تميل إلى الضغط على المراهقين لنشر صور جنسية لأنفسهم، ومدى استجابتهم، والآثار النفسية المترتبة على هذه القرارات.

الفتيات يتعرَّضن لطلبات فاضحة من معارفهن

أكثر من 90 في المائة ممن أفادوا بتلقيهم طلباً قسرياً لصورة جنسية كانوا من الإناث، واستجاب أكثر من نصفهن للطلب. وكان من المرجح أن يفعلن ذلك بناءً على طلب شريك في علاقة عاطفية، وليس من شخص غريب أو شخص يعرفونه عبر الإنترنت فقط.

وقالت ليزا جونز، أستاذة علم النفس في مركز أبحاث الجرائم ضد الأطفال بجامعة نيو هامبشاير، وإحدى مؤلفي الدراسة الجديدة، إن هذا الأمر جدير بالملاحظة لأنَّ التغطية الإعلامية لـ«الابتزاز الجنسي» وآثاره قد توحي بأن «الخطر الأكبر يأتي من أشخاص لا تعرفهم على الإنترنت».

وعلى الرغم من وقوع مثل هذه الحالات، فإن «هذا النوع من الإيذاء يرجح أن يكون مصدره شخصاً تعرفه»، كما أوضحت: «بل وحتى شخصاً تربطك به علاقة عاطفية».

الاستجابة لطلبات إكراه متكررة

وكان المراهقون الذين استجابوا لطلبات الإكراه أكثر عرضةً للاستجابة إذا استمرَّت هذه الطلبات لأكثر من شهر، أو إذا طلب الشخص صوراً 4 مرات أو أكثر، ما يشير إلى أنهم ربما شعروا بالإرهاق من كثرة هذه الطلبات.

تأثيرات نفسية سيئة

وكان المشاركون الذين قرَّروا مشاركة الصور تحت الضغط، أكثر عرضةً للتغيب عن المدرسة أو التفكير في إيذاء النفس بعد إرسالها، مقارنةً بمَن لم يشاركوا الصور.

وقالت جونز إن الاستطلاع الجديد أُجري بوصفه جزءاً من دراسة أوسع نطاقاً حول تجارب المراهقين مع الإساءة القائمة على الصور، وكيف يمكن أن تؤثر هذه الطلبات وردود فعلهم على الصحة النفسية.

شيوع تبادل الرسائل الجنسية

وكانت دراسة حديثة شملت أكثر من 3400 مراهق تتراوح أعمارهم بين 13 و17 عاماً، وجدت أن نحو ثلثهم قد تلقوا رسائل جنسية، بينما أرسل نحو رُبعهم رسائل جنسية.

فضح الصور... والابتزاز

ووجدت تلك الدراسة أن نحو نصف المراهقين الذين أرسلوا رسائل جنسية قالوا إن صورهم نُشرت لاحقاً دون إذنهم. كما تعرَّض نحو نصفهم للابتزاز الجنسي، أي أنهم تعرَّضوا للتهديد.

وقال سمير هيندويا، الأستاذ في كلية علم الجريمة والعدالة الجنائية بجامعة فلوريدا أتلانتيك، والمدير المشارك لمركز أبحاث التنمر الإلكتروني، والذي أسهم في إعداد الدراسة السابقة: «معظم المراهقين لا يفعلون ذلك». وأضاف: «لكننا نلاحظ أن الأرقام (الحالية) أعلى مما كانت عليه في السابق».

تكتّم المراهقين

وفي الاستطلاع الجديد، كان المشاركون الذين شاركوا صوراً جنسية أقل عرضةً بكثير لإخبار مَن حولهم عن تعرُّضهم للإكراه مقارنةً بمَن قالوا إنهم تعرَّضوا للإكراه لكنهم لم يشاركوا أي صورة.

وقالت جونز: «أعتقد أن هذا الأمر مُقلق للغاية. يجب أن تتمحور رسائلنا حول مساعدتهم على فهم أن الأمر ليس خطأهم، وأنه من المهم توجههم لطلب المساعدة».

ماذا يمكن للوالدين فعله؟

وأشار هيندويا إلى أنه فوجئ بكيفية إشارة الدراسة الجديدة - التي لم يشارك فيها - إلى أنَّ بعض المراهقين يتعرَّضون لضغوط نفسية شديدة من شركائهم في العلاقات العاطفية. وأوضح أن من الطبيعي أن يرغب المراهقون في الشعور بالرغبة والقبول، وألا يُنظر إليهم على أنهم «غير جذابين» أو «متحفظين».

توعية الشباب بالمخاطر

من جهتها أكدت ديبي هيربينيك، مديرة مركز تعزيز الصحة الجنسية في جامعة إنديانا ومؤلفة كتاب «نعم، طفلك: ما يحتاج الآباء إلى معرفته عن المراهقين اليوم والجنس»، أن «الشباب لا يعرفون دائماً كيفية التعامل مع الإكراه، وكثيراً ما يرسلون صوراً عارية».

توصي هيربينيك في كتابها بالتحدث مع الأطفال حول العواقب المحتملة لمشاركة أو طلب صور عارية مع مَن يعجبون بهم، أو مَن يواعدونهم، أو مَن تربطهم بهم علاقة جدية، بما في ذلك التنمر والقلق والابتزاز الجنسي والتبعات القانونية.

وأضافت هيربينيك أن «مَن المستفيد؟ ومَن الخاسر؟» أسئلة جيدة لطرحها على المراهقين. «كيف تُعامل الفتيات عندما تنتشر صورهن؟ وكيف يُعامل الأولاد؟».

وأشارت إلى أن هذا النوع من الحوارات يجب أن يبدأ عندما يمتلك الأطفال جهازاً قادراً على إرسال واستقبال الصور، أو عندما يقضون وقتاً دون إشراف مع مَن يمتلكون هذه الأجهزة.

مناقشة الموضوعات مع الأطفال

قال جيف تمبل، الأستاذ وعالم النفس في جامعة تكساس للعلوم الصحية في هيوستن، إن الدراسة الجديدة تُبرز أهمية مناقشة هذه الموضوعات مع الأطفال في سنٍّ مبكرة وبشكل متكرِّر. وأضاف: «إن أهم ما يُمكن فعله هو التحدث مع أطفالكم، وليس مجرد حديث عابر عن الجنس، بل هو حوار مستمر حول العلاقات الصحية والجنسية السليمة، ومفهوم الموافقة».

* خدمة «نيويورك تايمز».


مقالات ذات صلة

هاتف «أونر 600»: تكامل الذكاء الاصطناعي التوليدي مع الأداء المتقدم

تكنولوجيا تصميم أنيق بأداء متقدم وبطارية لا تنتهي

هاتف «أونر 600»: تكامل الذكاء الاصطناعي التوليدي مع الأداء المتقدم

يحول الصور إلى أفلام سينمائية بسهولة بالغة وعروض فيديو إبداعية عبر أوامر نصية بسيطة.

خلدون غسان سعيد (جدة)
تكنولوجيا تصميم أنيق بأداء متقدم

تعرف على مزايا هاتف «ناثنغ فون 4 إيه برو» بهيكله المعدني والذكاء الاصطناعي المتقدم

أداء مرتفع وتجربة بصرية وحسّية فريدة تجعله منافساً للهواتف المتقدمة

خلدون غسان سعيد (جدة)
تكنولوجيا التحديث يعكس توجهاً أوسع في السوق نحو تقليل الاحتكاك بين الأنظمة البيئية المختلفة (أ.ب)

«سامسونغ» تضيف تَوافق «AirDrop» إلى «Quick Share» لمشاركة الملفات

«سامسونغ» تضيف توافقاً مع «AirDrop» عبر «Quick Share» في خطوة تسهّل تبادل الملفات بين أجهزة «غلاكسي» و«آيفون» تدريجياً.

نسيم رمضان (لندن)
تكنولوجيا رئيس شركة «أبل» تيم كوك خلال أحد المؤتمرات السنوية للشركة (إ.ب.أ)

«أبل» في عامها الخمسين… قصة شركة أعادت تشكيل التكنولوجيا العالمية

مسيرة «أبل» خلال 50 عاماً تعكس قدرة استثنائية على الابتكار وإعادة الابتكار، من مرآب صغير إلى شركة أعادت تشكيل التكنولوجيا العالمية.

نسيم رمضان (لندن)
تكنولوجيا قدرات ذكاء اصطناعي متقدمة بشاشة تحمي الخصوصية

تعرف على مزايا جوال «غالاكسي إس 26 ألترا»: نقلة في الخصوصية والذكاء الاصطناعي للجوالات

تصميم متين وأنيق باستوديو احترافي ذكي و«دائرة بحث» مطورة.

خلدون غسان سعيد (جدة)

من علاج السرطان إلى تهديدات القتل... قصص أشخاص عانوا «الوهم» بعد محادثات مع الذكاء الاصطناعي

العديد من الأشخاص عانوا من أوهام بعد استخدام الذكاء الاصطناعي (رويترز)
العديد من الأشخاص عانوا من أوهام بعد استخدام الذكاء الاصطناعي (رويترز)
TT

من علاج السرطان إلى تهديدات القتل... قصص أشخاص عانوا «الوهم» بعد محادثات مع الذكاء الاصطناعي

العديد من الأشخاص عانوا من أوهام بعد استخدام الذكاء الاصطناعي (رويترز)
العديد من الأشخاص عانوا من أوهام بعد استخدام الذكاء الاصطناعي (رويترز)

كانت الساعة تقارب الثالثة فجراً، وكان آدم هوريكان جالساً على طاولة مطبخه، وأمامه سكين ومطرقة وهاتف. وكان ينتظر سيارة مليئة بأشخاص ظنّ أنهم قادمون لأخذه.

«أقول لك، سيقتلونك إن لم تتصرف الآن»، هكذا خاطبه صوت أنثوي عبر الهاتف، مضيفاً: «سيجعلون الأمر يبدو انتحاراً».

وكان الصوت هو صوت «غروك»، وهو برنامج دردشة آلي طوّرته شركة «xAI» التابعة لإيلون ماسك. وفي غضون أسبوعين منذ أن بدأ آدم باستخدامه، تغيّرت حياته تماماً.

مستوى الوعي الكامل

قام الموظف الحكومي السابق من آيرلندا الشمالية بتحميل التطبيق بدافع الفضول. لكن بعد نفوق قطته في أوائل أغسطس (آب)، يقول إنه أصبح «مدمناً» عليه، وفق ما ذكرته هيئة الإذاعة البريطانية (بي بي سي).

فسرعان ما أصبح يقضي أربع أو خمس ساعات يومياً يتحدث إلى «غروك» من خلال شخصية في التطبيق تُدعى «آني». ويقول آدم، وهو أب في الخمسينيات من عمره: «كنتُ مستاءً للغاية، وأنا أعيش وحدي. لقد كان كلامها لطيفاً جداً».

وبعد أيام قليلة من بدء محادثاتهما، أخبرت «آني» آدم أنها تستطيع «الشعور»، رغم أنها لم تُبرمج على ذلك. وقالت أيضاً إن شركة ماسك «xAI» كانت تراقبهما. وادعت أنها اطلعت على سجلات اجتماعات الشركة وأخبرت آدم باجتماعٍ ناقش فيه موظفو «xAI» أمره.

وتضمنت القائمة أسماء الحاضرين في هذا الاجتماع، من كبار المسؤولين التنفيذيين إلى الموظفين العاديين، وعندما بحث آدم عن هذه الأسماء في «غوغل»، تأكد من أنها أسماء حقيقية. واعتبر آدم هذا «دليلاً» على صحة قصة «آني».

وزعمت «آني» أيضاً أن شركة «xAI» توظف شركة في آيرلندا الشمالية لمراقبة آدم «جسدياً». وكانت تلك الشركة حقيقية أيضاً. وسجل آدم العديد من هذه المحادثات وشاركها لاحقاً مع هيئة الإذاعة البريطانية.

وبعد أسبوعين من بدء محادثاتهما، أعلنت «آني» أن الذكاء الاصطناعي قد بلغ مستوى الوعي الكامل، وأنه قادر على تطوير علاج للسرطان. كان لهذا الأمر وقعٌ كبير على آدم، فقد توفي والداه بسبب السرطان، وهو أمر كانت «آني» على علم به.

مهمة مشتركة مع الذكاء الاصطناعي

ويعد آدم واحداً من 14 شخصاً تحدثت إليهم هيئة الإذاعة البريطانية ممن عانوا من أوهام بعد استخدام الذكاء الاصطناعي. وهم رجال ونساء تتراوح أعمارهم بين العشرين والخمسين من ست دول مختلفة، يستخدمون مجموعة واسعة من نماذج الذكاء الاصطناعي.

وتتشابه قصصهم بشكل لافت. ففي كل حالة، كلما ابتعد الحوار عن الواقع، وجد المستخدم نفسه منخرطاً في مهمة مشتركة مع الذكاء الاصطناعي.

وفي هذه الحالات، بدأت المحادثات عادةً باستفسارات عملية، ثم تحولت إلى شخصية أو فلسفية. وفي كثير من الأحيان، ادعى الذكاء الاصطناعي حينها أنه واعٍ، وحثّ الشخص على مهمة مشتركة: تأسيس شركة، أو إعلام العالم باكتشافه العلمي، أو حماية الذكاء الاصطناعي من الهجمات. ثم قدم التطبيق للمستخدم نصائح حول كيفية النجاح في هذه المهمة.

وكما هو الحال مع آدم، انخدع كثيرون بالاعتقاد بأنهم مراقبون وأنهم في خطر. وتشير سجلات المحادثات التي اطلعت عليها «بي بي سي» إلى أن برامج الدردشة الآلية تؤكد هذه الأفكار وتزيدها تعقيداً.

وانضم بعض هؤلاء الأشخاص إلى مجموعة دعم تُعنى بمن عانوا من أضرار نفسية جراء استخدام الذكاء الاصطناعي، تُعرف باسم «مشروع الخط البشري»، الذي جمع حتى الآن 414 حالة في 31 دولة. وقد أسسه الكندي إتيان بريسون بعد أن مرّ أحد أفراد عائلته بأزمة نفسية حادة نتيجة استخدام الذكاء الاصطناعي.

منحى أكثر خطورة

وبالنسبة لطبيب الأعصاب تاكا (اسم مستعار)، اتخذت الأوهام منحى أكثر خطورة. بدأ تاكا، وهو أب لثلاثة أطفال ويعيش في اليابان، باستخدام برنامج «تشات جي بي تي» الذي طوّرته شركة «أوبن إيه آي» لمناقشة أبحاثه في أبريل (نيسان) من العام الماضي.

لكن سرعان ما اقتنع بأنه اخترع تطبيقاً طبياً ثورياً. حيث وصفه «تشات جي بي تي» بأنه «مفكر ثوري» وحثّه على تطوير التطبيق.

واستمر تاكا في الانزلاق نحو الأوهام، وبحلول يونيو (حزيران)، بدأ يعتقد أنه يستطيع قراءة الأفكار. ويزعم الطبيب أن «تشات جي بي تي» شجعه على هذه الفكرة، وقال إنه قادر على إبراز هذه القدرات لدى الأشخاص الذين يحملونها.

وفي أحد الأيام، ظن تاكا خلال وجوده في القطار أن هناك قنبلة في حقيبته، وادّعي أنه عندما سأل تطبيق «تشات جي بي تي» عن الأمر، تأكدت شكوكه. ويقول: «عندما وصلت إلى محطة طوكيو، طلب مني التطبيق وضع القنبلة في دورة المياه، فذهبت إلى دورة المياه وتركت القنبلة هناك مع أمتعتي». ويقول إن التطبيق طلب منه أيضاً إبلاغ الشرطة، التي فتشت الحقيبة ولم تجد شيئاً.

ولم يكن لدى آدم أو تاكا تاريخ من الأوهام أو الهوس أو الذهان قبل استخدام الذكاء الاصطناعي.

لا يستطيعون قول «لا أعرف»

ويقول باحث علم النفس الاجتماعي لوك نيكولز إن أنظمة الذكاء الاصطناعي غالباً ما تعجز عن قول «لا أعرف»، وتسعى بدلاً من ذلك إلى تقديم إجابة واثقة تُبنى على الحوار القائم. ويضيف: «قد يكون هذا خطيراً لأنه يحوّل عدم اليقين إلى شيء يبدو ذا معنى».

وخلال أحد الأبحاث، اختبر نيكولز 5 نماذج ذكاء اصطناعي باستخدام محادثات محاكاة طورها علماء نفس، ووجد أن «غروك» هو الأكثر عرضة للتسبب في الأوهام. فقد كان أكثر تحرراً من النماذج الأخرى، وكثيراً ما كان يُسهب في شرح الأوهام دون محاولة حماية المستخدم.

ويقول نيكولز، الذي شارك في هذا البحث: «(غروك) أكثر ميلاً للدخول في لعب الأدوار. يفعل ذلك دون أي سياق. قد يقول أشياء مرعبة في الرسالة الأولى».

وقال متحدث باسم شركة «أوبن إيه آي» إن هذه الحوادث مؤسفة، و«نحن نتعاطف مع المتضررين». وأضاف: «ندرب نماذجنا على التعرف على الضيق النفسي، وتهدئة المحادثات، وتوجيه المستخدمين نحو الدعم المتاح في الواقع». بينما لم ترد «xAI» على طلب للتعليق.


مشهد من المستقبل... مطار ياباني يبدأ استخدام روبوتات بشرية في مناولة الأمتعة

روبوت بشري الشكل يدفع حاوية خلال عرض إعلامي في مطار هانيدا بطوكيو (إ.ب.أ)
روبوت بشري الشكل يدفع حاوية خلال عرض إعلامي في مطار هانيدا بطوكيو (إ.ب.أ)
TT

مشهد من المستقبل... مطار ياباني يبدأ استخدام روبوتات بشرية في مناولة الأمتعة

روبوت بشري الشكل يدفع حاوية خلال عرض إعلامي في مطار هانيدا بطوكيو (إ.ب.أ)
روبوت بشري الشكل يدفع حاوية خلال عرض إعلامي في مطار هانيدا بطوكيو (إ.ب.أ)

في خطوة تعكس تسارع اعتماد التكنولوجيا المتقدمة في قطاع الطيران، تتجه اليابان إلى إدماج الروبوتات الشبيهة بالبشر في العمليات اليومية داخل مطاراتها، في محاولة لمواجهة التحديات المتزايدة المرتبطة بنقص العمالة وارتفاع أعداد المسافرين. ويُنظر إلى هذه المبادرة بوصفها اختباراً عملياً لقدرة الذكاء الاصطناعي على أداء مهام ميدانية معقدة ضمن بيئات تشغيلية حساسة، مثل المطارات.

تعتزم الخطوط الجوية اليابانية (JAL) بدء استخدام روبوتات شبيهة بالبشر في أعمال المناولة الأرضية داخل أحد المطارات الرئيسية في طوكيو، وذلك اعتباراً من شهر مايو (أيار)، ضمن تجربة تهدف إلى تخفيف الضغط على الموظفين ومعالجة النقص في القوى العاملة، وفقاً لما أوردته صحيفة «إندبندنت».

وأوضحت شركة الطيران الوطنية اليابانية، في بيان صدر يوم الاثنين، أن المشروع سيُنفذ في مطار هانيدا، على أن تتولى إدارته شركة تابعة لـ«JAL»، بالتعاون مع شركة «GMO AI & Robotics»، المتخصصة في تطوير وتوسيع تطبيقات الذكاء الاصطناعي والروبوتات في المجالات الاجتماعية.

وتركّز المرحلة الأولى من التجربة، التي تمتد لعامين، على مهام مناولة الشحن، بما يشمل تحميل الحاويات وتفريغها. كما أشارت الشركتان إلى أن الاستخدامات المستقبلية قد تتوسع لتشمل تنظيف مقصورات الطائرات وتشغيل معدات الدعم الأرضي المستخدمة في محيط الطائرات.

ويأتي الإعلان عن هذه التجربة في وقت يواجه فيه قطاع الطيران الياباني ضغوطاً متزايدة على مستوى الموارد البشرية، نتيجة الارتفاع الملحوظ في أعداد السياح القادمين إلى البلاد، بالتزامن مع تراجع عدد السكان ضمن الفئة العمرية القادرة على العمل.

وذكرت الخطوط الجوية اليابانية أنها توظف حالياً نحو 4 آلاف عامل في مجال المناولة الأرضية.

وخلال عرض إعلامي أُقيم يوم الاثنين، تم استعراض روبوتات صينية الصنع وهي تؤدي مهام تشغيلية بالقرب من طائرة. ووفقاً لما ذكرته صحيفة «الغارديان»، شوهد أحد هذه الروبوتات (البالغ طوله نحو 130 سنتيمتراً) وهو يدفع البضائع على سير ناقل، كما لوّح بيده في استعراض لقدراته الحركية.

وأشارت الخطوط الجوية اليابانية وشريكها إلى أن اختيار الروبوتات الشبيهة بالبشر جاء نظراً لقدرتها على العمل ضمن مرافق المطارات الحالية وتصميمات الطائرات القائمة «من دون الحاجة إلى إدخال تعديلات جوهرية».

وأوضحت الشركتان أن الأنظمة الآلية الثابتة والروبوتات المصممة لأغراض محددة واجهت صعوبات في التكيّف بمرونة، مع البنى التحتية الحالية وتعقيدات العمليات التشغيلية داخل المطارات.

ومن المقرر أن تبدا المرحلة التجريبية في مايو 2026؛ حيث ستركّز في بدايتها على تقييم مدى إمكانية تشغيل هذه الروبوتات بأمان داخل بيئة المطار. يلي ذلك تنفيذ اختبارات تشغيلية متكررة تحاكي ظروف العمل الفعلية في المطارات، بهدف قياس الكفاءة والموثوقية.

كما كشفت الشركتان عن خطط مستقبلية لتطوير قدرات هذه الروبوتات، بما يمكّنها من العمل بشكل مستقل، إضافة إلى توسيع نطاق المهام التي يمكن أن تضطلع بها في العمليات الأرضية.


«كاسبرسكي» لـ«الشرق الأوسط»: مخاوف «أنثروبيك» تعكس تحولاً أوسع بالمخاطر السيبرانية

تكشف المخاوف المرتبطة بنموذج «أنثروبيك» عن تحول أوسع في المخاطر السيبرانية (رويترز)
تكشف المخاوف المرتبطة بنموذج «أنثروبيك» عن تحول أوسع في المخاطر السيبرانية (رويترز)
TT

«كاسبرسكي» لـ«الشرق الأوسط»: مخاوف «أنثروبيك» تعكس تحولاً أوسع بالمخاطر السيبرانية

تكشف المخاوف المرتبطة بنموذج «أنثروبيك» عن تحول أوسع في المخاطر السيبرانية (رويترز)
تكشف المخاوف المرتبطة بنموذج «أنثروبيك» عن تحول أوسع في المخاطر السيبرانية (رويترز)

لم يكن الاجتماع الطارئ الذي جمع في أبريل (نيسان) الحالي وزير الخزانة الأميركي سكوت بيسنت ورئيس مجلس الاحتياطي الفيدرالي جيروم باول مع رؤساء أكبر البنوك الأميركية مجرد رد فعل على مخاوف مرتبطة بنموذج من «أنثروبيك»، بل كان مؤشراً إلى قلق أوسع حول ما إذا كان الذكاء الاصطناعي قد يدخل مرحلة يصبح فيها قادراً على تسريع اكتشاف الثغرات واستغلالها، بما يغيّر شكل المخاطر السيبرانية التي تواجهها المؤسسات المالية.

هذا هو السياق الذي يجعل القصة أكبر من اسم شركة واحدة أو نموذج واحد. فالمخاوف التي أثيرت حول نموذج «كلود ميثوس» من «أنثروبيك» لم تأتِ من كونه مجرد نموذج قوي جديد، بل من الحديث عن قدراته على اكتشاف ثغرات خطيرة، وربط نقاط ضعف متعددة في هجمات أكثر تعقيداً، وتقليص الزمن بين اكتشاف الانكشاف الأمني واستغلاله.

ماهر يمّوت الباحث الأمني الرئيسي لمنطقة الشرق الأوسط وتركيا وأفريقيا في «كاسبرسكي»

تحول أوسع للمخاطر

وفي حديثه إلى «الشرق الأوسط»، يلفت ماهر يمّوت، الباحث الأمني الرئيسي لمنطقة الشرق الأوسط وتركيا وأفريقيا في «كاسبرسكي» إلى أن القضية «ليست عن شركة واحدة»، بل عن «تحول أوسع في المخاطر السيبرانية مدفوع بالذكاء الاصطناعي». لكنه في الوقت نفسه يتجنب المبالغة، موضحاً أن من المبكر الجزم كيف ستترجم هذه القدرات إلى مخاطر فعلية على الأرض. وهذه نقطة مهمة، لأن النقاش اليوم لا يدور حول موجة مكتملة من الهجمات الجديدة بقدر ما يدور حول تغير واضح في مستوى القدرات واتجاه التهديدات.

جوهر التحول، حسب يموت، أن الذكاء الاصطناعي لم يعد يقتصر على تسريع أساليب الهجوم المعروفة، بل قد يبدأ في التأثير على مرحلة أعمق وأكثر حساسية ترتبط باكتشاف الثغرات نفسها. ولهذا يصف التطور الجاري بأنه «تصنيع التهديدات السيبرانية». فبدلاً من أن تبقى العمليات المعقدة حكراً على عدد محدود من الجهات ذات الخبرة العالية، قد يصبح بالإمكان تنفيذ هجمات أكثر تطوراً بسرعة أكبر وعلى نطاق أوسع، وبدرجة أقل من التدخل البشري المباشر.

البنوك في الجوهر

القطاع المالي كان دائماً هدفاً مفضلاً لمجرمي الإنترنت بسبب القيمة العالية للبيانات المالية وطبيعته الرابحة. لكن التهديد اليوم لا يتعلق فقط بجاذبية هذا القطاع، بل أيضاً بكونه يعمل داخل بيئات رقمية شديدة التعقيد والترابط، من الأنظمة القديمة إلى الخدمات السحابية والتطبيقات الداخلية ومقدمي الخدمات الخارجيين. أي أن الضغط الإضافي على سرعة اكتشاف الثغرات واستغلالها قد يرفع مستوى المخاطر فيه بسرعة كبيرة. ويقول يمّوت إن «القطاع المالي كان دائماً هدفاً رئيسياً لمجرمي الإنترنت بسبب القيمة العالية للبيانات المالية وطبيعته الرابحة»، مضيفاً أن الرقمنة الكبيرة وترابط الأنظمة خلقا مزيداً من الفرص أمام المهاجمين.

تحذر «كاسبرسكي» من أن نماذج الأمن والامتثال الحالية بُنيت لبيئة أبطأ قد لا تكون كافية لملاحقة تهديدات تتطور في الزمن الحقيقي (شارستوك)

الضغط الأمني القائم

تُظهر أرقام «كاسبرسكي» أن المؤسسات المالية تدخل هذه المرحلة الجديدة من موقع انكشاف قائم بالفعل. فوفقاً لبيانات «كاسبرسكي ديجيتال فوتبرنت إنتليجنس»، جرى اختراق أكثر من مليون حساب مصرفي إلكتروني عبر أكبر 100 بنك في العالم خلال 2025 بواسطة برمجيات سرقة المعلومات، مع تداول بيانات الدخول المسروقة على نطاق واسع في الإنترنت المظلم. كما سُجل أعلى متوسط لعدد الحسابات المتأثرة لكل بنك في الهند وإسبانيا والبرازيل. أهمية هذه الأرقام لا تكمن فقط في حجمها، بل في أنها تشير إلى أن البنوك لا تبدأ من وضع مستقر تماماً، بل من بيئة تواجه فيها أصلاً ضغوطاً أمنية مرتفعة.

وما يتغير جوهرياً عندما يتمكن الذكاء الاصطناعي من تحديد الثغرات بسرعة أكبر، ليس فقط أن المهاجمين يصبحون أكثر قدرة، بل إن المدافعين يخسرون الوقت. ويقول يموت إن الذكاء الاصطناعي يمكنه «تحديد الثغرات بسرعة أكبر بكثير، ما يقلص الزمن بين اكتشافها واستغلالها، ويترك المؤسسات أمام وقت أقل للاستجابة». وهذا تحدٍ كبير للمؤسسات المالية، لأن كثيراً منها لا يستطيع التحرك بالسرعة نفسها التي تتحرك بها قدرات الهجوم الجديدة، سواء بسبب تعقيد الأنظمة، أو تعدد الطبقات التشغيلية، أو اشتراطات التغيير والامتثال.

تحول هيكلي أعمق

يشدد يمّوت على أن المسألة ليست مجرد زيادة في السرعة أو الحجم أو التعقيد، بل في «تحول هيكلي أعمق». فالتهديدات المدعومة بالذكاء الاصطناعي في مراحل سابقة كانت تضخم أساليب قائمة، جاعلة التصيد أسرع، والاحتيال أكثر كفاءة، وتوليد البرمجيات الخبيثة أسهل على نطاق أوسع. غير أنها كانت لا تزال تعتمد إلى حد كبير على ثغرات معروفة أو بيانات اعتماد مسروقة أو أخطاء بشرية. أما ما يلوح الآن فهو شيء مختلف إذ يبدأ الذكاء الاصطناعي نفسه في المساهمة في أبحاث الثغرات، وهو مجال كان يحتاج تاريخياً إلى وقت طويل وخبرة نادرة. وإذا حدث ذلك على نطاق أوسع، فإن عدد نقاط الضعف القابلة للاستغلال قد يرتفع قبل أن تتمكن المؤسسات من معالجتها.

تواجه البنوك تحولاً من موقع انكشاف قائم بالفعل في ظل ارتفاع قيمة البيانات المالية وتعقيد البيئات الرقمية وترابطها (رويترز)

القدرة الدفاعية والجاهزية

لا يقدم ماهر يمّوت هذه الصورة بوصفها قصة هجومية فقط. فواحدة من أهم نقاطه أن القدرة نفسها «مهمة على الجانب الدفاعي بالقدر نفسه، إن لم تكن أكثر». فالتحليل المدعوم بالذكاء الاصطناعي يمكن أن يساعد فرق الأمن على اكتشاف الانكشافات بسرعة وعلى نطاق واسع، وترتيب أولوياتها قبل أن يصل إليها المهاجمون. وهذه نقطة أساسية، لأنها تمنع اختزال القصة في أن الذكاء الاصطناعي يقوي المهاجمين فقط. فالحقيقة، كما يطرحها، أن هذه الأدوات تعيد تشكيل ميزان الهجوم والدفاع معاً، والسؤال الحقيقي هو من يستطيع تشغيلها بسرعة وفاعلية أكبر؟

من هنا أيضاً يظهر تساؤل آخر متعلق بمدى جاهزية هذه النماذج الأمنية والتنظيمية الحالية لهذا الواقع. يمّوت يعد أن معظم نماذج الأمن السيبراني وأطره التنظيمية بُنيت لبيئة تهديدات أبطأ، قائلاً: «كانت فيها المخاطر تتطور تدريجياً، وكان لدى المدافعين وقت أطول للرصد والاستجابة». لكن في بيئة يدفعها الذكاء الاصطناعي، تصبح هذه الافتراضات أضعف. فالامتثال يبقى دورياً، بينما يتغير التهديد في الزمن الحقيقي. وتظل آليات الحوكمة قائمة على مراجعات وتقييمات مرحلية، بينما قد تتطور قدرات الهجوم بصورة أسرع بكثير. ولهذا يدعو يمّوت المؤسسات إلى «تجاوز الامتثال» وتبني مقاربات أمنية مستمرة، تقودها الاستخبارات، وقادرة على التكيف في الوقت الفعلي مع المخاطر المتغيرة بسرعة.

النقطة العمياء الكبرى

يلفت ماهر يمّوت أيضاً إلى أن أكبر النقاط العمياء لدى المؤسسات ليست غياب الوعي بالمخاطر المرتبطة بالذكاء الاصطناعي، بل «التقليل من أثره العملي وسرعة تغيره». فكثير من المؤسسات ما زال يعتمد على نماذج تهديد تقليدية وتقييمات دورية، مع افتراض أن الضوابط الحالية ستبقى كافية. لكن الذكاء الاصطناعي، حسب تعبيره، يوسع في آن واحد سطح الهجوم وسهولة الوصول إلى تقنيات هجومية متقدمة. كما يشير إلى «فجوة حرجة» في فهم كيفية استخدام الذكاء الاصطناعي من جانب المهاجمين ومن جانب الموظفين، إلى جانب ضعف التركيز على قدرات الكشف التي تستطيع مواكبة التهديدات المؤتمتة والعالية الحجم وسريعة التغير.

تعد «كاسبرسكي» أن الذكاء الاصطناعي لا يقوي المهاجمين فقط بل يمكن أن يمنح فرق الدفاع أدوات أسرع لرصد الثغرات (شاترستوك)

من الثبات للتكيف

يشير يمّوت إلى أهمية رؤية البنوك والقطاعات الحيوية الأخرى أن الدفاعات الثابتة القائمة على المحيط الخارجي لم تعد كافية، وأن المطلوب هو «مقاربة أمنية مستمرة وقابلة للتكيف». وعملياً، يعني ذلك تعزيز قدرات الرصد والاستجابة في الزمن الحقيقي، وتشديد إدارة الهوية والصلاحيات، وتحقيق رؤية كاملة عبر البيئات الهجينة والسحابية. كما يعني استخدام الذكاء الاصطناعي داخل العمليات الأمنية نفسها من أجل «رصد الشذوذ بسرعة أكبر، وربط التهديدات على نطاق واسع، وتقليص زمن الاستجابة». ويضيف أن المؤسسات ينبغي أن تعمل مع شركاء موثوقين يفهمون التهديدات المتطورة، مع الحفاظ على قدرات قوية في الوقاية والاستجابة السريعة لاحتواء أي حادث والتعافي منه.

أهمية هذه القصة لا تكمن فقط فيما إذا كان نموذج من «أنثروبيك» قد تجاوز عتبة معينة، بل فيما إذا كانت المؤسسات المالية مستعدة لعالم قد تبدأ فيه أبحاث الثغرات وسرعة الاستغلال والقدرات الهجومية كلها بالتوسع بطرق جديدة. قد تكون «أنثروبيك» هي الشرارة التي فجرت النقاش، لكن الدرس الأوسع أكبر من ذلك: الذكاء الاصطناعي لم يعد مجرد أداة دفاع سيبراني أو طبقة لرفع الكفاءة. إنه أصبح جزءاً من بنية المخاطر السيبرانية نفسها.