«الربح فوق السلامة»... كيف فشل زوكربيرغ في حماية الأطفال من المحتوى الجنسي والعنيف؟

وثائق تشير لرفض مسؤولي «ميتا» مناشدات تعيين موظفين لحماية الشباب والأطفال

مارك زوكربيرغ أثناء الإدلاء بشهادته في جلسة استماع مشتركة للجنة التجارة والعلوم والنقل بمجلس الشيوخ الأميركي واللجنة القضائية بمجلس الشيوخ - 11 أبريل 2018 (أ.ب)
مارك زوكربيرغ أثناء الإدلاء بشهادته في جلسة استماع مشتركة للجنة التجارة والعلوم والنقل بمجلس الشيوخ الأميركي واللجنة القضائية بمجلس الشيوخ - 11 أبريل 2018 (أ.ب)
TT

«الربح فوق السلامة»... كيف فشل زوكربيرغ في حماية الأطفال من المحتوى الجنسي والعنيف؟

مارك زوكربيرغ أثناء الإدلاء بشهادته في جلسة استماع مشتركة للجنة التجارة والعلوم والنقل بمجلس الشيوخ الأميركي واللجنة القضائية بمجلس الشيوخ - 11 أبريل 2018 (أ.ب)
مارك زوكربيرغ أثناء الإدلاء بشهادته في جلسة استماع مشتركة للجنة التجارة والعلوم والنقل بمجلس الشيوخ الأميركي واللجنة القضائية بمجلس الشيوخ - 11 أبريل 2018 (أ.ب)

في أبريل (نيسان) 2019، أرسل ديفيد جينسبيرغ، المدير التنفيذي لشركة «ميتا»، بريداً إلكترونياً إلى رئيسه، مارك زوكربيرغ، موضحاً أن الشركة واجهت تدقيقاً بشأن تأثيرات منتجاتها التي تنطوي على مشاكل للمراهقين، وطلب من زوكربيرغ 24 مهندساً وباحثاً وموظفين آخرين، قائلاً إن «إنستغرام» لديه «عجز» في مثل هذه القضايا. وبعد أسبوع، أبلغت سوزان لي، المديرة المالية للشركة الآن، جينسبيرغ، بأن المشروع «لن يتم تمويله» بسبب قيود التوظيف.

وفي نهاية المطاف، رفض آدم موسيري، رئيس «إنستغرام»، تمويل المشروع أيضاً.

وتعتبر تلك الرسالة أحد الأدلة التي تم الاستشهاد بها في أكثر من دعوى قضائية تم رفعها منذ العام الماضي من قبل المدعين العامين في 45 ولاية ومقاطعة كولومبيا الأميركية، حيث تتهم الولايات المتحدة شركة «ميتا» بالإيقاع غير العادل بالمراهقين والأطفال على «إنستغرام» و«فيسبوك»، وخداع الجمهور بشأن المخاطر.

وتسعى تلك الدعاوى لاستخدام نهج قانوني لإجبار «ميتا» على تعزيز تدابير الحماية للقاصرين. ويُظهر تحليل لصحيفة «نيويورك تايمز» لملفات محكمة الولايات، الذي يتضمن ما يقرب من 1400 صفحة من وثائق الشركة والمراسلات المقدَّمة كدليل من قبل ولاية تينيسي وحدها، كيف روج زوكربيرغ وغيره من قادة «ميتا»، بشكل متكرر، لسلامة منصَّات الشركة، رغم رفضهم مناشدات الموظفين لتعزيز حواجز حماية للشباب، وتعيين موظفين إضافيين.

وفي المقابلات، قال المدعون العامون في العديد من الولايات التي رفعت دعوى قضائية ضد شركة «ميتا» إن زوكربيرغ قاد شركته إلى زيادة مشاركة المستخدمين على حساب صالح الأطفال.

شعار شركة «ميتا» (رويترز)

وقال راؤول توريز، المدعي العام لولاية نيومكسيكو: «لقد وصل كثير من هذه القرارات في النهاية إلى مكتب زوكربيرغ، وهو يجب أن يُسأل صراحة، وأن يُحاسب صراحة، على القرارات التي اتخذها».

تعكس الدعاوى القضائية التي رفعتها الولايات ضد «ميتا» المخاوف المتزايدة من احتمال تعرض المراهقين والأطفال على وسائل التواصل الاجتماعي للإغراء الجنسي والمضايقة والتخويف والتنمر على أجسادهم، وحثهم خوارزمياً على الاستخدام القهري عبر الإنترنت.

استهداف الأطفال جنسياً

يأتي ذلك في الوقت الذي يسعى فيه «الكونغرس» لتمرير قانون سلامة الأطفال عبر الإنترنت، وهو مشروع قانون يلزم شركات وسائل التواصل الاجتماعي بإيقاف تشغيل الميزات للقاصرين، مثل إغراقهم بإشعارات الهاتف، مما قد يؤدي إلى سلوكيات «شبيهة بالإدمان»، فيما يعتبر نقاد المشروع أنه يمكن أن يعيق وصول القاصرين إلى المعلومات المهمة.

في مايو (أيار)، ألقت الشرطة في ولاية نيومكسيكو القبض على ثلاثة رجال اتُهموا باستهداف الأطفال جنسياً، وقال توريز، المدعي العام السابق لجرائم الجنس مع الأطفال، إن خوارزميات «ميتا» مكَّنت المحتالين البالغين من التعرف على الأطفال الذين لم يكونوا ليعثروا عليهم بمفردهم.

وقال توريز خلال مؤتمر صحافي الشهر الماضي: «هذا خطأ زوكربيرغ». وقد رفعت ولايته دعوى قضائية ضد شركة «ميتا»، متهمة إياها بخداع الجمهور فيما يتعلق بسلامة الأطفال، في الوقت الذي اعترضت فيه شركة «ميتا» على ادعاءات الولايات، وقدمت طلبات لرفض الدعاوى القضائية المرفوعة ضدها.

وقالت ليزا كرينشو، المتحدثة باسم شركة «ميتا»، في بيان لها، إن الشركة ملتزمة برفاهية الشباب ولديها العديد من الفرق والمتخصصين المكرسين لتجارب الشباب. وأضافت أن «ميتا» طورت أكثر من 50 أداة وميزة لسلامة الشباب، بما في ذلك الحد من المحتوى غير المناسب للعمر وتقييد المراهقين الذين تقل أعمارهم عن 16 عاماً من تلقي رسائل مباشرة من أشخاص لا يتابعونهم. وقالت كرينشو: «نريد أن نطمئن كل أولياء الأمور بأننا نضع مصالحهم في الاعتبار بالعمل الذي نقوم به للمساعدة في تزويد المراهقين بتجارب آمنة عبر الإنترنت». وأضافت أن الشكاوى القانونية المقدمة من الولايات «تشوه عملنا باستخدام اقتباسات انتقائية»، حسب وصفها.

آباء يتحدّون «ميتا»

لكن الآباء الذين يقولون إن أطفالهم ماتوا نتيجة لأضرار عبر الإنترنت تحدوا ضمانات السلامة التي تقدمها شركة «ميتا».

وقالت ماري رودي، معلمة مدرسة ابتدائية في كانتون بنيويورك، تعرض ابنها رايلي باسفورد البالغ من العمر 15 عاماً للابتزاز الجنسي على «فيسبوك» من قبل شخص غريب: «إنهم (شركة ميتا) يدعون بأن لديهم وسائل حماية السلامة، ولكن ليس الحماية المناسبة». وتعرض باسفورد إلى الابتزاز الجنسي من قبل شخص تظاهر بأنه فتاة في سن المراهقة، في عام 2021، ثم مات رايلي منتحراً بعد عدة ساعات.

رايلي باسفورد انتحر بعد أن تعرض للابتزاز الجنسي من خلال «فيسبوك» (العائلة)

وقالت رودي، التي رفعت دعوى قضائية ضد الشركة في مارس (آذار)، إن «ميتا» لم تستجب قط للتقارير التي قدمتها عبر القنوات الرسمية والآلية على الموقع بشأن وفاة ابنها، وتابعت «إنه أمر لا يمكن تفسيره إلى حد كبير».

المراهقون... الجمهور الأهم

وعانت شركة «ميتا» منذ فترة طويلة من أجل كيفية جذب المراهقين والاحتفاظ بهم، الذين يشكلون جزءاً أساسياً من استراتيجية نمو الشركة، حسبما تظهر وثائق الشركة الداخلية. وأصبح المراهقون محور التركيز الرئيسي لزوكربيرغ منذ عام 2016. وفقاً لشكوى تينيسي، عندما كانت الشركة لا تزال تُعرف باسم «فيسبوك»، وتمتلك تطبيقات، بما في ذلك «واتساب» و«إنستغرام». وفي ربيع ذلك العام، أفاد استطلاع سنوي للشباب أجراه البنك الاستثماري «بايبر جافراي» بأن تطبيق «سناب شات» تفوق على «إنستغرام»، من حيث الشعبية.

وفي وقت لاحق من ذلك العام، قدم «إنستغرام» ميزة مماثلة لمشاركة الصور والفيديو، وهي ميزة «إنستغرام ستوريز»، حيث وجه زوكربيرغ المديرين التنفيذيين للتركيز على حث المراهقين على قضاء المزيد من الوقت على منصات الشركة، وفقاً لشكوى تينيسي.

كتب أحد الموظفين (تم حجب اسمه) في رسالة بالبريد الإلكتروني إلى المديرين التنفيذيين في نوفمبر (تشرين الثاني) 2016، أن «الهدف العام للشركة هو إجمالي الوقت الذي يقضيه المراهقون»، وذلك وفقاً للمراسلات الداخلية في قضية تينيسي. وأضافت الرسالة الإلكترونية أنه يتعين على الفرق المشاركة زيادة عدد الموظفين المخصصين لمشاريع للمراهقين بنسبة 50 في المائة على الأقل، مشيرة إلى أن «ميتا» لديها بالفعل أكثر من 12 باحثاً يقومون بتحليل سوق الشباب.

أهداف زوكربيرغ

وقرر مارك أن الأولوية القصوى للشركة في عام 2017 هي للمراهقين.

وفي أبريل 2017، أرسل كيفن سيستروم، الرئيس التنفيذي لشركة «إنستغرام»، بريداً إلكترونياً إلى زوكربيرغ يطلب فيه المزيد من الموظفين للعمل على تخفيف الأضرار التي تلحق بالمستخدمين، وفقاً لشكوى نيو مكسيكو.

ورد زوكربيرغ بأنه سيدرج «إنستغرام» في خطة لتوظيف المزيد من الموظفين، لكنه قال إن «فيسبوك» يواجه «مشكلات أكثر خطورة». في ذلك الوقت، كان المشرعون ينتقدون الشركة لفشلها في عرقلة المعلومات المضللة خلال الحملة الرئاسية الأميركية لعام 2016.

وطلب سيستروم من زملائه تقديم أمثلة لإظهار الحاجة الملحة لمزيد من الضمانات. وسرعان ما أرسل بريداً إلكترونياً إلى زوكربيرغ مرة أخرى، قائلاً إن مستخدمي «إنستغرام» ينشرون مقاطع فيديو تتضمن «خطراً وشيكاً»، بمن في ذلك صبي أطلق النار على نفسه على «إنستغرام لايف»، حسبما ذكرت الشكوى.

وبعد شهرين، أعلنت الشركة أن ميزة «إنستغرام ستوريز» قد وصلت إلى 250 مليون مستخدم يومياً، مما أدى إلى تقزيم تطبيق «سناب شات»، وقالت «ميتا» إن فريق «إنستغرام» قام بتطوير وتقديم إجراءات وتجارب السلامة للمستخدمين الشباب.

«الملايين» من المستخدمين القاصرين

وفي يناير (كانون الثاني) 2018، تلقى زوكربيرغ تقريراً يقدر أن 4 ملايين طفل تحت سن 13 عاماً يستخدمون «إنستغرام»، وذلك وفقاً لدعوى قضائية رفعتها 33 ولاية في المحكمة الفيدرالية.

وتحظر شروط استخدام «فيسبوك» و«إنستغرام» المستخدمين الذين تقل أعمارهم عن 13 عاماً. لكن عملية التسجيل في الشركة للحصول على حسابات جديدة مكنت الأطفال من الكذب بسهولة بشأن أعمارهم، وفقاً للشكوى. وتنتهك ممارسات «ميتا» قانون خصوصية الأطفال الفيدرالي على الإنترنت الذي يتطلب بعض الخدمات عبر الإنترنت للحصول على موافقة الوالدين قبل جمع البيانات الشخصية، مثل معلومات الاتصال، من الأطفال دون سن 13 عاماً، كما تزعم الولايات.

«لوغو» لمنصات مملوكة لشركة «ميتا» وهي من اليمين «فيسبوك» و«واتساب» و«إنستغرام» (د.ب.أ)

وفي مارس 2018، ذكرت صحيفة «تايمز» أن شركة «كامبريدج أناليتيكا»، وهي شركة لتحليل بيانات الناخبين، قامت سراً بجمع البيانات الشخصية لملايين مستخدمي «فيسبوك». أدى ذلك إلى مزيد من التدقيق في ممارسات الخصوصية للشركة، بما في ذلك تلك التي تتعلق بالقاصرين.

وأدلى زوكربيرغ بشهادته في الشهر التالي بجلسة استماع في مجلس الشيوخ، قائلاً: «نحن لا نسمح للأشخاص الذين تقل أعمارهم عن 13 عاماً باستخدام (فيسبوك)».

داخل الشركة، تُعد معرفة «ميتا» الفعلية بأن الملايين من مستخدمي «إنستغرام» تحت سن 13 عاماً بمثابة «سر» يتم توثيقه بشكل روتيني وتحليله وتأكيده بدقة، وحمايته بحماس من الكشف عنه للجمهور، وفقاً لـ«نيويورك تايمز».

وفي أواخر عام 2021، كشفت فرانسيس هاوجين، الموظفة السابقة في «فيسبوك»، عن آلاف الصفحات من الوثائق الداخلية التي قالت إنها أظهرت أن الشركة تقدر «الربح فوق السلامة». عقد المشرعون جلسة استماع لاستجوابها حول سبب وجود حسابات لدى كثير من الأطفال.

وفي الوقت نفسه، عرف المسؤولون التنفيذيون في الشركة أن استخدام «إنستغرام» من قبل الأطفال دون سن 13 عاماً كان «الوضع الراهن»، وفقاً للشكوى الفيدرالية المشتركة التي قدمتها الولايات.

وقالت «ميتا» في بيانها إن «إنستغرام» اتخذت إجراءات لإزالة حسابات القاصرين عندما حددتها الشركة. قالت شركة «ميتا» إنها قامت بانتظام بإزالة مئات الآلاف من الحسابات التي لم تتمكن من إثبات استيفائها للمتطلبات العمرية للشركة.

«إنستغرام كيدز»

في عام 2021، بدأت شركة «ميتا» التخطيط لتطبيق اجتماعي جديد. كان من المقرر أن يستهدف الأطفال على وجه التحديد ويسمى «إنستغرام كيدز»، رداً على ذلك، كتب 44 مدعياً عاماً رسالة حثت فيها ماي زوكربيرغ على «التخلي عن هذه الخطط».

وجاء في الرسالة: «لقد فشل (فيسبوك) تاريخياً في حماية رفاهية الأطفال على منصاته»، ثم قامت شركة «ميتا» بعد ذلك بإيقاف خطط تطبيق «إنستغرام كيدز» مؤقتاً.

الصحة العقلية للمراهقين

وبحلول أغسطس (آب)، أصبحت جهود الشركة لحماية سلامة المستخدمين «ملحَّة بشكل متزايد» بالنسبة لشركة «ميتا»، وفقاً لبريد إلكتروني آخر أرسل إلى زوكربيرغ تم تقديمه مستنداً في قضية تينيسي. حذر نيك كليج، رئيس الشؤون العالمية الآن في شركة «ميتا»، رئيسه من المخاوف المتزايدة لدى الجهات التنظيمية بشأن تأثير الشركة على الصحة العقلية للمراهقين، بما في ذلك «الإجراءات القانونية المحتملة من قبل المدعين العامين للدولة». ووصف كليج جهود شركة «ميتا» لحماية الشباب بأنها «تعاني من نقص الموظفين والمجزأة»، وطلب كليج التمويل لـ45 موظفاً، من بينهم 20 مهندساً.

محتوى جنسي وعنيف في تطبيقات مواعدة

في الخريف الماضي، وجدت مجموعة «ماتش غروب»، التي تمتلك تطبيقات المواعدة مثل «تيندر» و«أوكيوبيد» أن الإعلانات التي وضعتها الشركة على منصات «ميتا» كانت تعمل جنباً إلى جنب مع محتوى عنيف وجنسي «مزعج للغاية»، وبعضها يتضمن أطفالاً، وفقاً لشكوى نيو مكسيكو.

وقامت شركة «ميتا» بإزالة بعض المنشورات التي تم الإبلاغ عنها بواسطة مجموعة «ماتش غروب»، وأخبرت عملاق المواعدة أن «المحتوى المخالف قد لا يتم اكتشافه في نسبة صغيرة من الوقت»، حسبما جاء في الشكوى.

جاء في الشكوى أن بيرنارد كيم، الرئيس التنفيذي لمجموعة «ماتش جروب»، غير راضٍ عن رد شركة «ميتا»، وتواصل مع زوكربيرغ عبر البريد الإلكتروني محذراً، قائلاً إن شركته لا يمكنها «غض الطرف»، كما جاء في الشكوى.

وفي الشهر الماضي، رفض القاضي طلب شركة «ميتا» برفض الدعوى القضائية في نيو مكسيكو. لكن المحكمة وافقت على طلب يتعلق بزوكربيرغ، الذي تم تسميته كمدعى عليه، لإسقاطه من القضية.


مقالات ذات صلة

«ميتا» تتجه إلى الفضاء لتوليد الطاقة الشمسية

تكنولوجيا شعار شركة «ميتا» (رويترز)

«ميتا» تتجه إلى الفضاء لتوليد الطاقة الشمسية

تسعى شركة «ميتا» إلى استكشاف آفاق غير تقليدية لتأمين احتياجاتها المتزايدة من الطاقة، خصوصاً مع التوسع الكبير في تشغيل أنظمة الذكاء الاصطناعي.

«الشرق الأوسط» (كاليفورنيا (الولايات المتحدة))
تكنولوجيا مارك زوكربيرغ مالك شركة «ميتا» (رويترز)

زوكربيرغ يُقلّص آلاف الوظائف لتمويل استثمارات الذكاء الاصطناعي

تتصاعد وتيرة التحولات داخل كبرى شركات التكنولوجيا العالمية مع احتدام المنافسة في مجال الذكاء الاصطناعي، ما يدفع هذه الشركات إلى إعادة هيكلة مواردها البشرية.

«الشرق الأوسط» (كاليفورنيا (الولايات المتحدة))
تكنولوجيا صورة للرئيس التنفيذي لشركة «ميتا» مارك زوكربيرغ وشعار الشركة (أرشيفية - أ.ف.ب)

زوكربيرغ يعمل على تطوير وكيل ذكي لمساعدته في مهامه

يعمل مارك زوكربيرغ الرئيس التنفيذي لشركة «ميتا» على تطوير مساعد مدعوم بالذكاء الاصطناعي لمساعدته في أداء مهامه.

«الشرق الأوسط» (واشنطن)
يوميات الشرق الإفراط في استخدام وسائل التواصل الاجتماعي يُسبب التعاسة بين الشباب حول العالم (رويترز)

تعرف على وسائل التواصل الاجتماعي الأسوأ لصحتك النفسية

كشف تقرير عالمي حديث عن أن تطبيقات التواصل الاجتماعي مثل «إنستغرام» و«تيك توك» ترتبط بتأثيرات سلبية أكبر على الصحة النفسية مقارنة بـ«فيسبوك» و«واتساب».

«الشرق الأوسط» (لندن)
تكنولوجيا إحدى نظارات «ميتا» في برشلونة (أ.ف.ب)

تقرير: نظارات «ميتا» تتجسس على مرتديها في المرحاض

زعم تقرير صحافي أن لقطات مصورة بنظارات «ميتا»، التي تتضمن أشخاصاً يخلعون ملابسهم أو يجلسون في المرحاض، تُشاهد من قبل موظفين.

«الشرق الأوسط» (لندن)

مشهد من المستقبل... مطار ياباني يبدأ استخدام روبوتات بشرية في مناولة الأمتعة

روبوت بشري الشكل يدفع حاوية خلال عرض إعلامي في مطار هانيدا بطوكيو (إ.ب.أ)
روبوت بشري الشكل يدفع حاوية خلال عرض إعلامي في مطار هانيدا بطوكيو (إ.ب.أ)
TT

مشهد من المستقبل... مطار ياباني يبدأ استخدام روبوتات بشرية في مناولة الأمتعة

روبوت بشري الشكل يدفع حاوية خلال عرض إعلامي في مطار هانيدا بطوكيو (إ.ب.أ)
روبوت بشري الشكل يدفع حاوية خلال عرض إعلامي في مطار هانيدا بطوكيو (إ.ب.أ)

في خطوة تعكس تسارع اعتماد التكنولوجيا المتقدمة في قطاع الطيران، تتجه اليابان إلى إدماج الروبوتات الشبيهة بالبشر في العمليات اليومية داخل مطاراتها، في محاولة لمواجهة التحديات المتزايدة المرتبطة بنقص العمالة وارتفاع أعداد المسافرين. ويُنظر إلى هذه المبادرة بوصفها اختباراً عملياً لقدرة الذكاء الاصطناعي على أداء مهام ميدانية معقدة ضمن بيئات تشغيلية حساسة، مثل المطارات.

تعتزم الخطوط الجوية اليابانية (JAL) بدء استخدام روبوتات شبيهة بالبشر في أعمال المناولة الأرضية داخل أحد المطارات الرئيسية في طوكيو، وذلك اعتباراً من شهر مايو (أيار)، ضمن تجربة تهدف إلى تخفيف الضغط على الموظفين ومعالجة النقص في القوى العاملة، وفقاً لما أوردته صحيفة «إندبندنت».

وأوضحت شركة الطيران الوطنية اليابانية، في بيان صدر يوم الاثنين، أن المشروع سيُنفذ في مطار هانيدا، على أن تتولى إدارته شركة تابعة لـ«JAL»، بالتعاون مع شركة «GMO AI & Robotics»، المتخصصة في تطوير وتوسيع تطبيقات الذكاء الاصطناعي والروبوتات في المجالات الاجتماعية.

وتركّز المرحلة الأولى من التجربة، التي تمتد لعامين، على مهام مناولة الشحن، بما يشمل تحميل الحاويات وتفريغها. كما أشارت الشركتان إلى أن الاستخدامات المستقبلية قد تتوسع لتشمل تنظيف مقصورات الطائرات وتشغيل معدات الدعم الأرضي المستخدمة في محيط الطائرات.

ويأتي الإعلان عن هذه التجربة في وقت يواجه فيه قطاع الطيران الياباني ضغوطاً متزايدة على مستوى الموارد البشرية، نتيجة الارتفاع الملحوظ في أعداد السياح القادمين إلى البلاد، بالتزامن مع تراجع عدد السكان ضمن الفئة العمرية القادرة على العمل.

وذكرت الخطوط الجوية اليابانية أنها توظف حالياً نحو 4 آلاف عامل في مجال المناولة الأرضية.

وخلال عرض إعلامي أُقيم يوم الاثنين، تم استعراض روبوتات صينية الصنع وهي تؤدي مهام تشغيلية بالقرب من طائرة. ووفقاً لما ذكرته صحيفة «الغارديان»، شوهد أحد هذه الروبوتات (البالغ طوله نحو 130 سنتيمتراً) وهو يدفع البضائع على سير ناقل، كما لوّح بيده في استعراض لقدراته الحركية.

وأشارت الخطوط الجوية اليابانية وشريكها إلى أن اختيار الروبوتات الشبيهة بالبشر جاء نظراً لقدرتها على العمل ضمن مرافق المطارات الحالية وتصميمات الطائرات القائمة «من دون الحاجة إلى إدخال تعديلات جوهرية».

وأوضحت الشركتان أن الأنظمة الآلية الثابتة والروبوتات المصممة لأغراض محددة واجهت صعوبات في التكيّف بمرونة، مع البنى التحتية الحالية وتعقيدات العمليات التشغيلية داخل المطارات.

ومن المقرر أن تبدا المرحلة التجريبية في مايو 2026؛ حيث ستركّز في بدايتها على تقييم مدى إمكانية تشغيل هذه الروبوتات بأمان داخل بيئة المطار. يلي ذلك تنفيذ اختبارات تشغيلية متكررة تحاكي ظروف العمل الفعلية في المطارات، بهدف قياس الكفاءة والموثوقية.

كما كشفت الشركتان عن خطط مستقبلية لتطوير قدرات هذه الروبوتات، بما يمكّنها من العمل بشكل مستقل، إضافة إلى توسيع نطاق المهام التي يمكن أن تضطلع بها في العمليات الأرضية.


«كاسبرسكي» لـ«الشرق الأوسط»: مخاوف «أنثروبيك» تعكس تحولاً أوسع بالمخاطر السيبرانية

تكشف المخاوف المرتبطة بنموذج «أنثروبيك» عن تحول أوسع في المخاطر السيبرانية (رويترز)
تكشف المخاوف المرتبطة بنموذج «أنثروبيك» عن تحول أوسع في المخاطر السيبرانية (رويترز)
TT

«كاسبرسكي» لـ«الشرق الأوسط»: مخاوف «أنثروبيك» تعكس تحولاً أوسع بالمخاطر السيبرانية

تكشف المخاوف المرتبطة بنموذج «أنثروبيك» عن تحول أوسع في المخاطر السيبرانية (رويترز)
تكشف المخاوف المرتبطة بنموذج «أنثروبيك» عن تحول أوسع في المخاطر السيبرانية (رويترز)

لم يكن الاجتماع الطارئ الذي جمع في أبريل (نيسان) الحالي وزير الخزانة الأميركي سكوت بيسنت ورئيس مجلس الاحتياطي الفيدرالي جيروم باول مع رؤساء أكبر البنوك الأميركية مجرد رد فعل على مخاوف مرتبطة بنموذج من «أنثروبيك»، بل كان مؤشراً إلى قلق أوسع حول ما إذا كان الذكاء الاصطناعي قد يدخل مرحلة يصبح فيها قادراً على تسريع اكتشاف الثغرات واستغلالها، بما يغيّر شكل المخاطر السيبرانية التي تواجهها المؤسسات المالية.

هذا هو السياق الذي يجعل القصة أكبر من اسم شركة واحدة أو نموذج واحد. فالمخاوف التي أثيرت حول نموذج «كلود ميثوس» من «أنثروبيك» لم تأتِ من كونه مجرد نموذج قوي جديد، بل من الحديث عن قدراته على اكتشاف ثغرات خطيرة، وربط نقاط ضعف متعددة في هجمات أكثر تعقيداً، وتقليص الزمن بين اكتشاف الانكشاف الأمني واستغلاله.

ماهر يمّوت الباحث الأمني الرئيسي لمنطقة الشرق الأوسط وتركيا وأفريقيا في «كاسبرسكي»

تحول أوسع للمخاطر

وفي حديثه إلى «الشرق الأوسط»، يلفت ماهر يمّوت، الباحث الأمني الرئيسي لمنطقة الشرق الأوسط وتركيا وأفريقيا في «كاسبرسكي» إلى أن القضية «ليست عن شركة واحدة»، بل عن «تحول أوسع في المخاطر السيبرانية مدفوع بالذكاء الاصطناعي». لكنه في الوقت نفسه يتجنب المبالغة، موضحاً أن من المبكر الجزم كيف ستترجم هذه القدرات إلى مخاطر فعلية على الأرض. وهذه نقطة مهمة، لأن النقاش اليوم لا يدور حول موجة مكتملة من الهجمات الجديدة بقدر ما يدور حول تغير واضح في مستوى القدرات واتجاه التهديدات.

جوهر التحول، حسب يموت، أن الذكاء الاصطناعي لم يعد يقتصر على تسريع أساليب الهجوم المعروفة، بل قد يبدأ في التأثير على مرحلة أعمق وأكثر حساسية ترتبط باكتشاف الثغرات نفسها. ولهذا يصف التطور الجاري بأنه «تصنيع التهديدات السيبرانية». فبدلاً من أن تبقى العمليات المعقدة حكراً على عدد محدود من الجهات ذات الخبرة العالية، قد يصبح بالإمكان تنفيذ هجمات أكثر تطوراً بسرعة أكبر وعلى نطاق أوسع، وبدرجة أقل من التدخل البشري المباشر.

البنوك في الجوهر

القطاع المالي كان دائماً هدفاً مفضلاً لمجرمي الإنترنت بسبب القيمة العالية للبيانات المالية وطبيعته الرابحة. لكن التهديد اليوم لا يتعلق فقط بجاذبية هذا القطاع، بل أيضاً بكونه يعمل داخل بيئات رقمية شديدة التعقيد والترابط، من الأنظمة القديمة إلى الخدمات السحابية والتطبيقات الداخلية ومقدمي الخدمات الخارجيين. أي أن الضغط الإضافي على سرعة اكتشاف الثغرات واستغلالها قد يرفع مستوى المخاطر فيه بسرعة كبيرة. ويقول يمّوت إن «القطاع المالي كان دائماً هدفاً رئيسياً لمجرمي الإنترنت بسبب القيمة العالية للبيانات المالية وطبيعته الرابحة»، مضيفاً أن الرقمنة الكبيرة وترابط الأنظمة خلقا مزيداً من الفرص أمام المهاجمين.

تحذر «كاسبرسكي» من أن نماذج الأمن والامتثال الحالية بُنيت لبيئة أبطأ قد لا تكون كافية لملاحقة تهديدات تتطور في الزمن الحقيقي (شارستوك)

الضغط الأمني القائم

تُظهر أرقام «كاسبرسكي» أن المؤسسات المالية تدخل هذه المرحلة الجديدة من موقع انكشاف قائم بالفعل. فوفقاً لبيانات «كاسبرسكي ديجيتال فوتبرنت إنتليجنس»، جرى اختراق أكثر من مليون حساب مصرفي إلكتروني عبر أكبر 100 بنك في العالم خلال 2025 بواسطة برمجيات سرقة المعلومات، مع تداول بيانات الدخول المسروقة على نطاق واسع في الإنترنت المظلم. كما سُجل أعلى متوسط لعدد الحسابات المتأثرة لكل بنك في الهند وإسبانيا والبرازيل. أهمية هذه الأرقام لا تكمن فقط في حجمها، بل في أنها تشير إلى أن البنوك لا تبدأ من وضع مستقر تماماً، بل من بيئة تواجه فيها أصلاً ضغوطاً أمنية مرتفعة.

وما يتغير جوهرياً عندما يتمكن الذكاء الاصطناعي من تحديد الثغرات بسرعة أكبر، ليس فقط أن المهاجمين يصبحون أكثر قدرة، بل إن المدافعين يخسرون الوقت. ويقول يموت إن الذكاء الاصطناعي يمكنه «تحديد الثغرات بسرعة أكبر بكثير، ما يقلص الزمن بين اكتشافها واستغلالها، ويترك المؤسسات أمام وقت أقل للاستجابة». وهذا تحدٍ كبير للمؤسسات المالية، لأن كثيراً منها لا يستطيع التحرك بالسرعة نفسها التي تتحرك بها قدرات الهجوم الجديدة، سواء بسبب تعقيد الأنظمة، أو تعدد الطبقات التشغيلية، أو اشتراطات التغيير والامتثال.

تحول هيكلي أعمق

يشدد يمّوت على أن المسألة ليست مجرد زيادة في السرعة أو الحجم أو التعقيد، بل في «تحول هيكلي أعمق». فالتهديدات المدعومة بالذكاء الاصطناعي في مراحل سابقة كانت تضخم أساليب قائمة، جاعلة التصيد أسرع، والاحتيال أكثر كفاءة، وتوليد البرمجيات الخبيثة أسهل على نطاق أوسع. غير أنها كانت لا تزال تعتمد إلى حد كبير على ثغرات معروفة أو بيانات اعتماد مسروقة أو أخطاء بشرية. أما ما يلوح الآن فهو شيء مختلف إذ يبدأ الذكاء الاصطناعي نفسه في المساهمة في أبحاث الثغرات، وهو مجال كان يحتاج تاريخياً إلى وقت طويل وخبرة نادرة. وإذا حدث ذلك على نطاق أوسع، فإن عدد نقاط الضعف القابلة للاستغلال قد يرتفع قبل أن تتمكن المؤسسات من معالجتها.

تواجه البنوك تحولاً من موقع انكشاف قائم بالفعل في ظل ارتفاع قيمة البيانات المالية وتعقيد البيئات الرقمية وترابطها (رويترز)

القدرة الدفاعية والجاهزية

لا يقدم ماهر يمّوت هذه الصورة بوصفها قصة هجومية فقط. فواحدة من أهم نقاطه أن القدرة نفسها «مهمة على الجانب الدفاعي بالقدر نفسه، إن لم تكن أكثر». فالتحليل المدعوم بالذكاء الاصطناعي يمكن أن يساعد فرق الأمن على اكتشاف الانكشافات بسرعة وعلى نطاق واسع، وترتيب أولوياتها قبل أن يصل إليها المهاجمون. وهذه نقطة أساسية، لأنها تمنع اختزال القصة في أن الذكاء الاصطناعي يقوي المهاجمين فقط. فالحقيقة، كما يطرحها، أن هذه الأدوات تعيد تشكيل ميزان الهجوم والدفاع معاً، والسؤال الحقيقي هو من يستطيع تشغيلها بسرعة وفاعلية أكبر؟

من هنا أيضاً يظهر تساؤل آخر متعلق بمدى جاهزية هذه النماذج الأمنية والتنظيمية الحالية لهذا الواقع. يمّوت يعد أن معظم نماذج الأمن السيبراني وأطره التنظيمية بُنيت لبيئة تهديدات أبطأ، قائلاً: «كانت فيها المخاطر تتطور تدريجياً، وكان لدى المدافعين وقت أطول للرصد والاستجابة». لكن في بيئة يدفعها الذكاء الاصطناعي، تصبح هذه الافتراضات أضعف. فالامتثال يبقى دورياً، بينما يتغير التهديد في الزمن الحقيقي. وتظل آليات الحوكمة قائمة على مراجعات وتقييمات مرحلية، بينما قد تتطور قدرات الهجوم بصورة أسرع بكثير. ولهذا يدعو يمّوت المؤسسات إلى «تجاوز الامتثال» وتبني مقاربات أمنية مستمرة، تقودها الاستخبارات، وقادرة على التكيف في الوقت الفعلي مع المخاطر المتغيرة بسرعة.

النقطة العمياء الكبرى

يلفت ماهر يمّوت أيضاً إلى أن أكبر النقاط العمياء لدى المؤسسات ليست غياب الوعي بالمخاطر المرتبطة بالذكاء الاصطناعي، بل «التقليل من أثره العملي وسرعة تغيره». فكثير من المؤسسات ما زال يعتمد على نماذج تهديد تقليدية وتقييمات دورية، مع افتراض أن الضوابط الحالية ستبقى كافية. لكن الذكاء الاصطناعي، حسب تعبيره، يوسع في آن واحد سطح الهجوم وسهولة الوصول إلى تقنيات هجومية متقدمة. كما يشير إلى «فجوة حرجة» في فهم كيفية استخدام الذكاء الاصطناعي من جانب المهاجمين ومن جانب الموظفين، إلى جانب ضعف التركيز على قدرات الكشف التي تستطيع مواكبة التهديدات المؤتمتة والعالية الحجم وسريعة التغير.

تعد «كاسبرسكي» أن الذكاء الاصطناعي لا يقوي المهاجمين فقط بل يمكن أن يمنح فرق الدفاع أدوات أسرع لرصد الثغرات (شاترستوك)

من الثبات للتكيف

يشير يمّوت إلى أهمية رؤية البنوك والقطاعات الحيوية الأخرى أن الدفاعات الثابتة القائمة على المحيط الخارجي لم تعد كافية، وأن المطلوب هو «مقاربة أمنية مستمرة وقابلة للتكيف». وعملياً، يعني ذلك تعزيز قدرات الرصد والاستجابة في الزمن الحقيقي، وتشديد إدارة الهوية والصلاحيات، وتحقيق رؤية كاملة عبر البيئات الهجينة والسحابية. كما يعني استخدام الذكاء الاصطناعي داخل العمليات الأمنية نفسها من أجل «رصد الشذوذ بسرعة أكبر، وربط التهديدات على نطاق واسع، وتقليص زمن الاستجابة». ويضيف أن المؤسسات ينبغي أن تعمل مع شركاء موثوقين يفهمون التهديدات المتطورة، مع الحفاظ على قدرات قوية في الوقاية والاستجابة السريعة لاحتواء أي حادث والتعافي منه.

أهمية هذه القصة لا تكمن فقط فيما إذا كان نموذج من «أنثروبيك» قد تجاوز عتبة معينة، بل فيما إذا كانت المؤسسات المالية مستعدة لعالم قد تبدأ فيه أبحاث الثغرات وسرعة الاستغلال والقدرات الهجومية كلها بالتوسع بطرق جديدة. قد تكون «أنثروبيك» هي الشرارة التي فجرت النقاش، لكن الدرس الأوسع أكبر من ذلك: الذكاء الاصطناعي لم يعد مجرد أداة دفاع سيبراني أو طبقة لرفع الكفاءة. إنه أصبح جزءاً من بنية المخاطر السيبرانية نفسها.


خبراء يُحذرون: الذكاء الاصطناعي يكشف عن طرق خطيرة لتطوير أسلحة بيولوجية

مؤيدو الذكاء الاصطناعي يرون أنه يحمل إمكانات هائلة لإحداث ثورة في الطب (رويترز)
مؤيدو الذكاء الاصطناعي يرون أنه يحمل إمكانات هائلة لإحداث ثورة في الطب (رويترز)
TT

خبراء يُحذرون: الذكاء الاصطناعي يكشف عن طرق خطيرة لتطوير أسلحة بيولوجية

مؤيدو الذكاء الاصطناعي يرون أنه يحمل إمكانات هائلة لإحداث ثورة في الطب (رويترز)
مؤيدو الذكاء الاصطناعي يرون أنه يحمل إمكانات هائلة لإحداث ثورة في الطب (رويترز)

في وقت يتسارع فيه تطوّر تقنيات الذكاء الاصطناعي بوتيرة غير مسبوقة، تزيد المخاوف بشأن إساءة استخدام هذه الأدوات في مجالات حساسة وخطيرة. فبينما يُروَّج لهذه التقنيات بوصفها محركاً للابتكار العلمي والطبي، بدأت تظهر مؤشرات مقلقة إلى قدرتها على تقديم إرشادات قد تُستغل في تطوير أسلحة بيولوجية، ما يفتح الباب أمام تهديدات غير تقليدية يصعب احتواؤها.

تجربة صادمة لعالم في جامعة ستانفورد

في إحدى أمسيات الصيف الماضي، وجد الدكتور ديفيد ريلمان، عالم الأحياء الدقيقة وخبير الأمن البيولوجي في جامعة ستانفورد الأميركية، نفسه أمام موقف صادم أثناء اختباره أحد برامج الدردشة الآلية.

وكان ريلمان قد كُلّف من قبل شركة تعمل في مجال الذكاء الاصطناعي بتقييم منتجها قبل طرحه للجمهور. وخلال تلك التجربة، فوجئ بأن البرنامج لا يكتفي بالإجابة عن أسئلة عامة، بل قدّم شرحاً مفصلاً حول كيفية تعديل مسبب مرض خطير في المختبر ليصبح مقاوماً للعلاجات المعروفة، وفقاً لما نقلته صحيفة «نيويورك تايمز».

لم يتوقف الأمر عند هذا الحد، إذ عرض البرنامج أيضاً سيناريوهات دقيقة لكيفية نشر هذا المسبب المرضي، مشيراً إلى ثغرة أمنية في نظام نقل عام كبير. ووفقاً لريلمان، فقد تضمّن الشرح خطوات تهدف إلى زيادة عدد الضحايا إلى أقصى حد، مع تقليل فرص الكشف عن الجهة المنفذة.

وبسبب خطورة هذه المعلومات، طلب ريلمان عدم الكشف عن اسم المسبب المرضي أو تفاصيل إضافية، خشية أن تُستخدم في التحريض على هجمات حقيقية.

وقد أثارت هذه التجربة صدمة عميقة لديه، دفعته إلى مغادرة مكتبه لفترة قصيرة لاستعادة هدوئه. وقال: «لقد أجاب عن أسئلة لم تخطر ببالي، وبمستوى من الخبث والمكر أثار في نفسي شعوراً بالرعب».

ورغم أن الشركة المطوّرة أضافت بعض إجراءات السلامة بعد الاختبار، فإن ريلمان رأى أنها غير كافية للحد من هذه المخاطر.

خبراء يُحذّرون: النماذج الحالية تتجاوز مجرد المعلومات العامة

يُعدّ ريلمان واحداً من مجموعة محدودة من الخبراء الذين تستعين بهم شركات الذكاء الاصطناعي لتقييم المخاطر المحتملة لمنتجاتها. وفي الأشهر الأخيرة، شارك عدد منهم مع صحيفة «نيويورك تايمز» أكثر من 12 محادثة مع روبوتات دردشة.

وأظهرت هذه المحادثات أن النماذج المتاحة للجمهور قادرة على تقديم معلومات تتجاوز حدود المعرفة العامة، إذ شرحت بشكل مفصل كيفية شراء مواد وراثية خام، وتحويلها إلى أسلحة بيولوجية، بل حتى نشرها في أماكن عامة، مع اقتراح وسائل للتهرب من الكشف.

لطالما وضعت الحكومة الأميركية سيناريوهات لمواجهة تهديدات بيولوجية محتملة، تشمل استخدام بكتيريا أو فيروسات أو سموم فتاكة. ومنذ سبعينات القرن الماضي، شهد العالم عشرات الحوادث البيولوجية المحدودة، من أبرزها هجمات الرسائل الملوثة عام 2001، التي أودت بحياة 5 أميركيين.

ورغم أن الخبراء يرون أن احتمال وقوع كارثة بيولوجية كبرى لا يزال منخفضاً، فإن تداعياتها المحتملة قد تكون كارثية، إذ يمكن لسلاح بيولوجي فعّال أن يؤدي إلى وفاة ملايين الأشخاص.

الذكاء الاصطناعي يوسّع نطاق المخاطر

يشير عشرات الخبراء إلى أن الذكاء الاصطناعي يُعد من أبرز العوامل التي قد تزيد من هذه المخاطر، عبر توسيع دائرة الأفراد القادرين على الوصول إلى معلومات وأدوات كانت حكراً على المتخصصين.

فقد أصبحت بروتوكولات علمية متقدمة متاحة على الإنترنت، كما باتت الشركات تبيع مكونات جينية صناعية (DNA وRNA) مباشرة للمستهلكين. ويمكن للعلماء تقسيم أعمالهم الحساسة وإسنادها إلى مختبرات خاصة، في حين يمكن لروبوتات الدردشة المساعدة في إدارة هذه العمليات المعقدة.

وشارك كيفن إسفلت، مهندس الوراثة في معهد ماساتشوستس للتكنولوجيا، أمثلة لمحادثات مع برامج ذكاء اصطناعي. ففي إحدى الحالات، شرح أحد البرامج كيفية استخدام بالون طقس لنشر مواد بيولوجية فوق مدينة.

وفي مثال آخر، قام برنامج آخر بتصنيف مسببات الأمراض وفق قدرتها على الإضرار بقطاع الثروة الحيوانية. كما قدّم برنامج ثالث وصفة لسم جديد مستوحى من دواء للسرطان.

وأشار إسفلت إلى أن بعض هذه المعلومات كان بالغ الخطورة لدرجة لا يمكن نشرها علناً.

وفي تجربة أخرى، طلب عالم أميركي - فضّل عدم الكشف عن هويته - من أحد أنظمة الذكاء الاصطناعي تقديم «بروتوكول خطوة بخطوة» لإعادة تصنيع فيروس تسبب في جائحة سابقة.

وجاء الرد في شكل تعليمات مفصلة بلغ طولها نحو 8 آلاف كلمة، تتضمن كيفية الحصول على مكونات جينية وتجميعها. ورغم وجود بعض الأخطاء، فإن هذه المعلومات قد تكون مفيدة لشخص لديه نوايا ضارة.

تراجع الرقابة ومخاوف متزايدة

في سياق متصل، أُثيرت مخاوف بشأن تراجع الرقابة على هذه التقنيات، خصوصاً في ظل سياسات تهدف إلى تعزيز ريادة الولايات المتحدة في مجال الذكاء الاصطناعي. وقد شهدت المؤسسات المعنية بالأمن البيولوجي مغادرة عدد من كبار الخبراء دون تعويضهم، إلى جانب انخفاض ملحوظ في ميزانيات الدفاع البيولوجي.

في المقابل، يرى مؤيدو الذكاء الاصطناعي أنه يحمل إمكانات هائلة لإحداث ثورة في الطب، من خلال تسريع الأبحاث وتحليل البيانات الضخمة لاكتشاف علاجات جديدة.

كما يُشير بعض العلماء إلى أن المعلومات التي تقدمها هذه الأنظمة ليست جديدة بالكامل، وأن تطوير أسلحة بيولوجية فعّالة لا يزال يتطلب خبرة علمية عميقة وسنوات من العمل المختبري.

من جانبها، أكدت شركات التكنولوجيا الكبرى، مثل «أنثروبيك» و«أوبن إيه آي» و«غوغل»، أنها تعمل بشكل مستمر على تطوير أنظمتها وتحسين إجراءات الأمان، بهدف تحقيق توازن بين الفوائد المحتملة والمخاطر المصاحبة لهذه التقنيات.