ماذا يعني وصول الهواتف وأجهزة الكمبيوتر المدعمة بالذكاء الاصطناعي إلى بياناتنا الشخصية؟

واجهات حوسبة ذكية تتمعن باستمرار بما يفعله المستخدم... لتقديم المساعدة

ماذا يعني وصول الهواتف وأجهزة الكمبيوتر المدعمة بالذكاء الاصطناعي إلى بياناتنا الشخصية؟
TT

ماذا يعني وصول الهواتف وأجهزة الكمبيوتر المدعمة بالذكاء الاصطناعي إلى بياناتنا الشخصية؟

ماذا يعني وصول الهواتف وأجهزة الكمبيوتر المدعمة بالذكاء الاصطناعي إلى بياناتنا الشخصية؟

تبشّر شركات «آبل» و«مايكروسوفت» و«غوغل» بعصر جديد لما تصفه بالهواتف الذكية وأجهزة الكمبيوتر ذات الذكاء الاصطناعي، وتقول إن الأجهزة ستقوم بأتمتة المهام، مثل تحرير الصور، والتهنئة بعيد ميلاد سعيد لصديق، ولكن لنجاح ذلك تحتاج هذه الشركات إلى شيء منك، وهو المزيد من البيانات.

نماذج لجمع المعلومات الشخصية

في هذا النموذج الجديد سيقوم جهاز الكمبيوتر الخاص بك، الذي يعمل بنظام «ويندوز» بالتقاط لقطة شاشة لكل ما تفعله كل بضع ثوانٍ، بينما سيقوم جهاز آيفون بتجميع المعلومات عبر العديد من التطبيقات التي تستخدمها، ويمكن لهاتف آندرويد الاستماع إلى مكالمة في الوقت الفعلي لتنبيهك بوجود عملية احتيال.

هل أنت على استعداد لمشاركة هذه المعلومات؟ هذا التغيير له آثار كبيرة على خصوصيتنا.

ولتوفير الخدمات الجديدة المخصّصة تحتاج الشركات وأجهزتها إلى وصول أكثر ثباتاً وحميمية لبياناتنا من ذي قبل.

في الماضي، كانت الطريقة التي نستخدم بها التطبيقات، ونسحب الملفات والصور على الهواتف وأجهزة الكمبيوتر منعزلة نسبياً، إلا أن خبراء الأمن يقولون إن الذكاء الاصطناعي يحتاج إلى نظرة عامة لربط النقاط بين ما نقوم به عبر التطبيقات ومواقع الويب والاتصالات.

«هل أشعر بالأمان عند إعطاء هذه المعلومات لهذه الشركة؟»، يتساءل كليف شتاينهاور، مدير التحالف الوطني للأمن السيبراني، وهي منظمة غير ربحية تركّز على الأمن السيبراني، عن استراتيجيات الذكاء الاصطناعي للشركات.

واجهات الحوسبة الذكية

يحدث كل هذا لأن «تشات جي بي تي» المطوّر من شركة «أوبن إيه آي» قلب صناعة التكنولوجيا رأساً على عقب منذ ما يقرب من عامين، ومنذ ذلك الحين قامت شركات «آبل» و«غوغل» و«مايكروسوفت» وغيرها، بإصلاح استراتيجيات منتجاتها، واستثمرت المليارات في خدمات جديدة تحت مظلّة الذكاء الاصطناعي.

إنها مقتنعة بأن هذا النوع الجديد من واجهات الحوسبة - التي تدرس باستمرار ما تفعله لتقديم المساعدة - سيصبح لا غنى عنه.

أكبر خطر أمني على البيانات

يقول الخبراء إن أكبر خطر أمني محتمَل مع هذا التغيير ينبع من التحول الدقيق الذي يحدث في طريقة عمل أجهزتنا الجديدة؛ نظراً لأن الذكاء الاصطناعي يمكنه أتمتة الإجراءات المعقّدة، مثل مسح الأشياء غير المرغوب فيها من الصورة، فإنه يتطلّب أحياناً قوة حسابية أكبر مما تستطيع هواتفنا التعامل معه، وهذا يعني أن المزيد من بياناتنا الشخصية قد تضطر إلى ترك هواتفنا ليتم التعامل معها في مكان آخر.

يتم نقل المعلومات إلى ما يسمى بالسحابة، وهي شبكة من الخوادم التي تعالج الطلبات، وبمجرد وصول المعلومات إلى السحابة يمكن للآخرين رؤيتها، بما في ذلك موظفو الشركة، والجهات الفاعلة السيئة، والوكالات الحكومية.

وبينما تُخزّن دائماً بعض بياناتنا في السحابة، فإن بياناتنا الشخصية والحميمة الأكثر عمقاً، التي كانت في السابق لأعيننا فقط، مثل الصور والرسائل ورسائل البريد الإلكتروني، قد يتم الآن ربطها وتحليلها بواسطة شركة على خوادمها.

تقول شركات التكنولوجيا إنها بذلت جهوداً كبيرة لتأمين بيانات الأشخاص.

تعرّفوا على الحقائق

في الوقت الحالي، من المهم أن نفهم ما سيحدث لمعلوماتنا عندما نستخدم أدوات الذكاء الاصطناعي، لذلك حصلتُ على مزيد من المعلومات من الشركات حول ممارساتها المتعلقة بالبيانات، وأجرَيت مقابلات مع خبراء أمنيين، وأخطِّط للانتظار لأرى ما إذا كانت التقنيات تعمل بشكل جيد بما فيه الكفاية قبل أن أقرّر ما إذا كان الأمر يستحق مشاركة بياناتي أم لا.

وإليكم ما يجب معرفته.

«أبل إنتلجنس»

أعلنت شركة «أبل» مؤخراً عن «أبل إنتلجنس» (Apple Intelligence)، وهي مجموعة من الخدمات تمثّل أول دخول رئيسي لها في سباق الذكاء الاصطناعي.

* دمج الذكاء في الأجهزة، سيتم دمج خدمات الذكاء الاصطناعي الجديدة في أسرع أجهزة «آيفون» و«آيباد» و«يماك» بدءاً من هذا الخريف، وسيتمكن الأشخاص من استخدامه لإزالة الأشياء غير المرغوب فيها تلقائياً من الصور، وإنشاء ملخّصات لمقالات الويب، وكتابة الردود على الرسائل النصية، ورسائل البريد الإلكتروني.

وتعمل «أبل» أيضاً على إصلاح مساعدها الصوتي «سيري» (Siri)، لجعله أكثر تحادُثاً، ومنحه إمكانية الوصول إلى البيانات عبر التطبيقات.

وخلال مؤتمر الشركة هذا الشهر عندما قدّمت «ذكاء أبل» شارك نائب الرئيس الأول لهندسة البرمجيات في الشركة، كريغ فيديريغي، الحضور بكيفية عمل النظام؛ سحب فيديريغي بريداً إلكترونياً من أحد زملائه يطلب منه تأجيل اجتماع، ولكنه كان من المفترض أن يذهب لمشاهدة مسرحية في تلك الليلة من بطولة ابنته. ثم قام هاتفه بسحب التقويم الخاص به، وهو مستنَد يحتوي على تفاصيل حول المسرحية، وتطبيق خرائط للتنبؤ بما إذا كان سيتأخر عن المسرحية إذا وافق على الاجتماع في وقت لاحق.

* تعهّد بمعالجة البيانات ضمن الأجهزة، قالت شركة «أبل» إنها تسعى جاهدة لمعالجة معظم بيانات الذكاء الاصطناعي مباشرة على هواتفها وأجهزة الكمبيوتر الخاصة بها، الأمر الذي من شأنه أن يمنع الآخرين، بما في ذلك «أبل» من الوصول إلى المعلومات.

* تشفير البيانات الموجّهة إلى السحابة، أما بالنسبة للمهام التي يجب دفعها إلى الخوادم، فقالت «أبل» إنها طوّرت ضمانات، بما في ذلك تشفير البيانات من خلال التشفير وحذفها على الفور، وأضافت أنها اتخذت أيضاً إجراءات حتى لا يتمكن موظفوها من الوصول إلى البيانات، وقالت أيضاً إنها ستسمح للباحثين الأمنيّين بمراجعة التكنولوجيا الخاصة بها؛ للتأكد من أنها تَفِي بوعودها.

إن التزام «أبل» بمسح بيانات المستخدم من خوادمها يميّزها عن الشركات الأخرى التي تحتفظ بالبيانات، وقال ماثيو غرين، الباحث الأمني ​​والأستاذ المشارك في علوم الكمبيوتر بجامعة جونز هوبكنز، الذي أطلعَته شركة «أبل» على تقنيتها الجديدة، إن شركة «أبل» لم تكن واضحة بشأن طلبات «سيري» الجديدة التي يمكن إرسالها إلى خوادم الشركة. وقال إن أي شيء يترك جهازك هو بطبيعته أقل أماناً.

وقالت «أبل» إنه عندما يتم إصدار «Apple Intelligence» سيتمكن المستخدمون من رؤية تقرير بالطلبات التي تترك الجهاز لتتم معالجتها في السحابة.

ذكاء «مايكروسوفت» للكمبيوترات المحمولة

تعمل «مايكروسوفت» على جلب الذكاء الاصطناعي إلى أجهزة الكمبيوتر المحمول ذات الطراز القديم، وفي الأسبوع الماضي، بدأت في طرح أجهزة كمبيوتر تعمل بنظام «ويندوز» سُمّي «Copilot+ PC»، التي تبدأ أسعارها من 1000 دولار.

* رقائق تحمي الخصوصية، تحتوي أجهزة الكمبيوتر على نوع جديد من الرقائق، وغيرها من المعدّات، التي تقول «مايكروسوفت» إنها ستحافظ على خصوصية بياناتك وأمانها، يمكن لأجهزة الكمبيوتر إنشاء صور وإعادة كتابة المستندات، من بين ميزات أخرى جديدة مدعومة بالذكاء الاصطناعي.

* ميزة «التذكّر»، قدّمت الشركة أيضاً نظام «Recall»، وهو نظام جديد لمساعدة المستخدمين في العثور بسرعة على المستندات والملفات التي عملوا عليها، أو رسائل البريد الإلكتروني التي قرأوها، أو مواقع الويب التي تصفّحوها.

تقارن الشركة ميزة «Recall» بوجود ذاكرة فوتوغرافية مدمجة في جهاز الكمبيوتر الخاص بك، وباستخدامها يمكنك كتابة عبارات غير رسمية، مثل «أفكّر في مكالمة فيديو أجريتها مع جو مؤخراً عندما كان يحمل كوب قهوة مكتوب عليه (أنا أحب نيويورك)».

سيقوم الكمبيوتر بعد ذلك باسترداد تسجيل مكالمة الفيديو التي تحتوي على تلك التفاصيل، ولتحقيق ذلك تقوم هذه الميزة بوظيفة أخذ لقطات شاشة كل خمس ثوانٍ لما يفعله المستخدم على الجهاز، ويقوم بتجميع تلك الصور في قاعدة بيانات قابلة للبحث.

وقالت الشركة إنه يتم تخزين اللقطات وتحليلها مباشرة على جهاز الكمبيوتر، لذلك لا تقوم «مايكروسوفت» بمراجعة البيانات أو استخدامها لتحسين الذكاء الاصطناعي الخاص بها.

* مخاطر محتملة، ومع ذلك حذّر الباحثون الأمنيون من المخاطر المحتملة، موضّحين أن البيانات يمكن أن تكشف بسهولة كل ما كتبته أو شاهدته في حالات التسلل والاختراق. ورداً على ذلك قامت شركة «مايكروسوفت»، التي كانت تنوي طرح برنامج «Recall»، الأسبوع الماضي، بتأجيل إصداره إلى أجل غير مسمى.

وتأتي أجهزة الكمبيوتر الشخصية الحالية مزوّدة بنظام التشغيل «Windows 11» الجديد من «مايكروسوفت»، وقال ديفيد ويستون، المدير التنفيذي للشركة المشرف على الأمن إن الشركة تتمتع بطبقات متعددة من الأمان.

الذكاء الاصطناعي من «غوغل»

أعلنت «غوغل» الشهر الماضي أيضاً عن مجموعة من خدمات الذكاء الاصطناعي «Google AI».

* كاشف الاحتيال الهاتفي، كان أحد أكبر ما تم عرضه هو كاشف الاحتيال الجديد الذي يعمل بالذكاء الاصطناعي للمكالمات الهاتفية (AI-powered scam detector for phone calls)؛ إذ تستمع الأداة إلى المكالمات الهاتفية في الوقت الفعلي، وإذا بدا المتصل وكأنه محتال محتمَل (على سبيل المثال، إذا طلب المتصل رقم التعريف الشخصي المصرفي)، تقوم الشركة بإعلامك.

وقالت «غوغل» إنه سيتعيَّن على الأشخاص تنشيط كاشف الاحتيال، الذي يتم تشغيله بالكامل بواسطة الهاتف، وهذا يعني أن الشركة لن تستمع إلى المكالمات.

* «طلب الصور»، أعلنت «غوغل» عن ميزة أخرى، وهي «Ask Photos»، التي تتطلب إرسال المعلومات إلى خوادم الشركة، يمكن للمستخدمين طرح أسئلة مثل: «متى تعلمت ابنتي السباحة؟»، لظهور الصور الأولى لطفلتهم وهي تسبح، وقالت الشركة إن موظّفيها يمكنهم، في حالات نادرة، مراجعة محادثات «Ask Photos» وبيانات الصور لمعالجة الإساءة أو الأذى، ويمكن أيضاً استخدام المعلومات للمساعدة في تحسين تطبيق الصور الخاص بها.

وبعبارة أخرى: يمكن استخدام سؤالك وصورة طفلك أثناء السباحة؛ لمساعدة الآباء الآخرين في العثور على صور لأطفالهم وهم يسبحون.

* أمن السحابة، وأضافت «غوغل» أن سحابتها مغلقة بتقنيات أمنية، بما في ذلك التشفير والبروتوكولات للحد من وصول الموظفين إلى البيانات، وقالت سوزان فراي، المديرة التنفيذية في «غوغل» التي تشرف على الثقة والخصوصية، في بيان: «ينطبق نهجنا في حماية الخصوصية على ميزات الذكاء الاصطناعي لدينا، بغض النظر عما إذا كانت مدعومة على الجهاز أو في السحابة».

لكن غرين، الباحث الأمني، قال إن نهج «غوغل» فيما يتعلق بخصوصية الذكاء الاصطناعي يبدو غامضاً نسبياً. وقال: «لا أحب فكرة أن صوري الشخصية للغاية وعمليات البحث الشخصية للغاية تذهب إلى سحابة ليست تحت سيطرتي».

* خدمة «نيويورك تايمز».


مقالات ذات صلة

«كاسبرسكي» لـ«الشرق الأوسط»: مخاوف «أنثروبيك» تعكس تحولاً أوسع بالمخاطر السيبرانية

خاص تكشف المخاوف المرتبطة بنموذج «أنثروبيك» عن تحول أوسع في المخاطر السيبرانية (رويترز)

«كاسبرسكي» لـ«الشرق الأوسط»: مخاوف «أنثروبيك» تعكس تحولاً أوسع بالمخاطر السيبرانية

تكشف مخاوف «أنثروبيك» تحولاً أوسع حول إعادة الذكاء الاصطناعي تشكيل المخاطر السيبرانية على البنوك ما يوسع الهجوم والدفاع معاً بسرعة

نسيم رمضان (لندن)
تكنولوجيا تصميم أنيق بأداء متقدم وبطارية لا تنتهي

هاتف «أونر 600»: تكامل الذكاء الاصطناعي التوليدي مع الأداء المتقدم

يحول الصور إلى أفلام سينمائية بسهولة بالغة وعروض فيديو إبداعية عبر أوامر نصية بسيطة.

خلدون غسان سعيد (جدة)
خاص توماس كوريان الرئيس التنفيذي لـ«غوغل كلاود» متحدثاً لـ«الشرق الأوسط» (الشرق الأوسط)

خاص الرئيس التنفيذي لـ«غوغل كلاود»: مراكز بياناتنا «مقاوِمَة للأزمات» ولا ترتبط بحدود

بينما تفرض التوترات الإقليمية تحديات على البنية التحتية، تعيد «غوغل» صياغة مفهوم استمرارية الأعمال عبر دمج الحصانة الرقمية بالذكاء الاصطناعي المؤسسي.

نسيم رمضان (لاس فيغاس)
الاقتصاد «رؤية 2030»: حكاية التحول من الإدارة التقليدية إلى الريادة الرقمية العالمية

«رؤية 2030»: حكاية التحول من الإدارة التقليدية إلى الريادة الرقمية العالمية

انطلقت السعودية في مسار التحوُّل الرقمي والاقتصاد المعرفي، مستندةً إلى بنية تحتية رقمية مُتقدِّمة وبناء معرفي تراكم عبر سنوات طويلة، ما عزز قدرتها على المنافسة.

عبير حمدي (الرياض)
خاص التوترات التي شهدها الشرق الأوسط خلال الشهرين الماضيين لم تؤدِّ إلى تصعيد سيبراني واسع وفوري بالقدر الذي كان متوقعاً (شاترستوك)

خاص «غوغل كلاود» لـ«الشرق الأوسط»: هدوء سيبراني «حذر» رغم التوترات الإقليمية

تقول «غوغل كلاود» إن هدوء الهجمات لا يلغي الخطر، وإن المرونة السيبرانية تبدأ من الثغرات والاستعداد المبكر قبل التصعيد.

نسيم رمضان (لاس فيغاس)

مشهد من المستقبل... مطار ياباني يبدأ استخدام روبوتات بشرية في مناولة الأمتعة

روبوت بشري الشكل يدفع حاوية خلال عرض إعلامي في مطار هانيدا بطوكيو (إ.ب.أ)
روبوت بشري الشكل يدفع حاوية خلال عرض إعلامي في مطار هانيدا بطوكيو (إ.ب.أ)
TT

مشهد من المستقبل... مطار ياباني يبدأ استخدام روبوتات بشرية في مناولة الأمتعة

روبوت بشري الشكل يدفع حاوية خلال عرض إعلامي في مطار هانيدا بطوكيو (إ.ب.أ)
روبوت بشري الشكل يدفع حاوية خلال عرض إعلامي في مطار هانيدا بطوكيو (إ.ب.أ)

في خطوة تعكس تسارع اعتماد التكنولوجيا المتقدمة في قطاع الطيران، تتجه اليابان إلى إدماج الروبوتات الشبيهة بالبشر في العمليات اليومية داخل مطاراتها، في محاولة لمواجهة التحديات المتزايدة المرتبطة بنقص العمالة وارتفاع أعداد المسافرين. ويُنظر إلى هذه المبادرة بوصفها اختباراً عملياً لقدرة الذكاء الاصطناعي على أداء مهام ميدانية معقدة ضمن بيئات تشغيلية حساسة، مثل المطارات.

تعتزم الخطوط الجوية اليابانية (JAL) بدء استخدام روبوتات شبيهة بالبشر في أعمال المناولة الأرضية داخل أحد المطارات الرئيسية في طوكيو، وذلك اعتباراً من شهر مايو (أيار)، ضمن تجربة تهدف إلى تخفيف الضغط على الموظفين ومعالجة النقص في القوى العاملة، وفقاً لما أوردته صحيفة «إندبندنت».

وأوضحت شركة الطيران الوطنية اليابانية، في بيان صدر يوم الاثنين، أن المشروع سيُنفذ في مطار هانيدا، على أن تتولى إدارته شركة تابعة لـ«JAL»، بالتعاون مع شركة «GMO AI & Robotics»، المتخصصة في تطوير وتوسيع تطبيقات الذكاء الاصطناعي والروبوتات في المجالات الاجتماعية.

وتركّز المرحلة الأولى من التجربة، التي تمتد لعامين، على مهام مناولة الشحن، بما يشمل تحميل الحاويات وتفريغها. كما أشارت الشركتان إلى أن الاستخدامات المستقبلية قد تتوسع لتشمل تنظيف مقصورات الطائرات وتشغيل معدات الدعم الأرضي المستخدمة في محيط الطائرات.

ويأتي الإعلان عن هذه التجربة في وقت يواجه فيه قطاع الطيران الياباني ضغوطاً متزايدة على مستوى الموارد البشرية، نتيجة الارتفاع الملحوظ في أعداد السياح القادمين إلى البلاد، بالتزامن مع تراجع عدد السكان ضمن الفئة العمرية القادرة على العمل.

وذكرت الخطوط الجوية اليابانية أنها توظف حالياً نحو 4 آلاف عامل في مجال المناولة الأرضية.

وخلال عرض إعلامي أُقيم يوم الاثنين، تم استعراض روبوتات صينية الصنع وهي تؤدي مهام تشغيلية بالقرب من طائرة. ووفقاً لما ذكرته صحيفة «الغارديان»، شوهد أحد هذه الروبوتات (البالغ طوله نحو 130 سنتيمتراً) وهو يدفع البضائع على سير ناقل، كما لوّح بيده في استعراض لقدراته الحركية.

وأشارت الخطوط الجوية اليابانية وشريكها إلى أن اختيار الروبوتات الشبيهة بالبشر جاء نظراً لقدرتها على العمل ضمن مرافق المطارات الحالية وتصميمات الطائرات القائمة «من دون الحاجة إلى إدخال تعديلات جوهرية».

وأوضحت الشركتان أن الأنظمة الآلية الثابتة والروبوتات المصممة لأغراض محددة واجهت صعوبات في التكيّف بمرونة، مع البنى التحتية الحالية وتعقيدات العمليات التشغيلية داخل المطارات.

ومن المقرر أن تبدا المرحلة التجريبية في مايو 2026؛ حيث ستركّز في بدايتها على تقييم مدى إمكانية تشغيل هذه الروبوتات بأمان داخل بيئة المطار. يلي ذلك تنفيذ اختبارات تشغيلية متكررة تحاكي ظروف العمل الفعلية في المطارات، بهدف قياس الكفاءة والموثوقية.

كما كشفت الشركتان عن خطط مستقبلية لتطوير قدرات هذه الروبوتات، بما يمكّنها من العمل بشكل مستقل، إضافة إلى توسيع نطاق المهام التي يمكن أن تضطلع بها في العمليات الأرضية.


«كاسبرسكي» لـ«الشرق الأوسط»: مخاوف «أنثروبيك» تعكس تحولاً أوسع بالمخاطر السيبرانية

تكشف المخاوف المرتبطة بنموذج «أنثروبيك» عن تحول أوسع في المخاطر السيبرانية (رويترز)
تكشف المخاوف المرتبطة بنموذج «أنثروبيك» عن تحول أوسع في المخاطر السيبرانية (رويترز)
TT

«كاسبرسكي» لـ«الشرق الأوسط»: مخاوف «أنثروبيك» تعكس تحولاً أوسع بالمخاطر السيبرانية

تكشف المخاوف المرتبطة بنموذج «أنثروبيك» عن تحول أوسع في المخاطر السيبرانية (رويترز)
تكشف المخاوف المرتبطة بنموذج «أنثروبيك» عن تحول أوسع في المخاطر السيبرانية (رويترز)

لم يكن الاجتماع الطارئ الذي جمع في أبريل (نيسان) الحالي وزير الخزانة الأميركي سكوت بيسنت ورئيس مجلس الاحتياطي الفيدرالي جيروم باول مع رؤساء أكبر البنوك الأميركية مجرد رد فعل على مخاوف مرتبطة بنموذج من «أنثروبيك»، بل كان مؤشراً إلى قلق أوسع حول ما إذا كان الذكاء الاصطناعي قد يدخل مرحلة يصبح فيها قادراً على تسريع اكتشاف الثغرات واستغلالها، بما يغيّر شكل المخاطر السيبرانية التي تواجهها المؤسسات المالية.

هذا هو السياق الذي يجعل القصة أكبر من اسم شركة واحدة أو نموذج واحد. فالمخاوف التي أثيرت حول نموذج «كلود ميثوس» من «أنثروبيك» لم تأتِ من كونه مجرد نموذج قوي جديد، بل من الحديث عن قدراته على اكتشاف ثغرات خطيرة، وربط نقاط ضعف متعددة في هجمات أكثر تعقيداً، وتقليص الزمن بين اكتشاف الانكشاف الأمني واستغلاله.

ماهر يمّوت الباحث الأمني الرئيسي لمنطقة الشرق الأوسط وتركيا وأفريقيا في «كاسبرسكي»

تحول أوسع للمخاطر

وفي حديثه إلى «الشرق الأوسط»، يلفت ماهر يمّوت، الباحث الأمني الرئيسي لمنطقة الشرق الأوسط وتركيا وأفريقيا في «كاسبرسكي» إلى أن القضية «ليست عن شركة واحدة»، بل عن «تحول أوسع في المخاطر السيبرانية مدفوع بالذكاء الاصطناعي». لكنه في الوقت نفسه يتجنب المبالغة، موضحاً أن من المبكر الجزم كيف ستترجم هذه القدرات إلى مخاطر فعلية على الأرض. وهذه نقطة مهمة، لأن النقاش اليوم لا يدور حول موجة مكتملة من الهجمات الجديدة بقدر ما يدور حول تغير واضح في مستوى القدرات واتجاه التهديدات.

جوهر التحول، حسب يموت، أن الذكاء الاصطناعي لم يعد يقتصر على تسريع أساليب الهجوم المعروفة، بل قد يبدأ في التأثير على مرحلة أعمق وأكثر حساسية ترتبط باكتشاف الثغرات نفسها. ولهذا يصف التطور الجاري بأنه «تصنيع التهديدات السيبرانية». فبدلاً من أن تبقى العمليات المعقدة حكراً على عدد محدود من الجهات ذات الخبرة العالية، قد يصبح بالإمكان تنفيذ هجمات أكثر تطوراً بسرعة أكبر وعلى نطاق أوسع، وبدرجة أقل من التدخل البشري المباشر.

البنوك في الجوهر

القطاع المالي كان دائماً هدفاً مفضلاً لمجرمي الإنترنت بسبب القيمة العالية للبيانات المالية وطبيعته الرابحة. لكن التهديد اليوم لا يتعلق فقط بجاذبية هذا القطاع، بل أيضاً بكونه يعمل داخل بيئات رقمية شديدة التعقيد والترابط، من الأنظمة القديمة إلى الخدمات السحابية والتطبيقات الداخلية ومقدمي الخدمات الخارجيين. أي أن الضغط الإضافي على سرعة اكتشاف الثغرات واستغلالها قد يرفع مستوى المخاطر فيه بسرعة كبيرة. ويقول يمّوت إن «القطاع المالي كان دائماً هدفاً رئيسياً لمجرمي الإنترنت بسبب القيمة العالية للبيانات المالية وطبيعته الرابحة»، مضيفاً أن الرقمنة الكبيرة وترابط الأنظمة خلقا مزيداً من الفرص أمام المهاجمين.

تحذر «كاسبرسكي» من أن نماذج الأمن والامتثال الحالية بُنيت لبيئة أبطأ قد لا تكون كافية لملاحقة تهديدات تتطور في الزمن الحقيقي (شارستوك)

الضغط الأمني القائم

تُظهر أرقام «كاسبرسكي» أن المؤسسات المالية تدخل هذه المرحلة الجديدة من موقع انكشاف قائم بالفعل. فوفقاً لبيانات «كاسبرسكي ديجيتال فوتبرنت إنتليجنس»، جرى اختراق أكثر من مليون حساب مصرفي إلكتروني عبر أكبر 100 بنك في العالم خلال 2025 بواسطة برمجيات سرقة المعلومات، مع تداول بيانات الدخول المسروقة على نطاق واسع في الإنترنت المظلم. كما سُجل أعلى متوسط لعدد الحسابات المتأثرة لكل بنك في الهند وإسبانيا والبرازيل. أهمية هذه الأرقام لا تكمن فقط في حجمها، بل في أنها تشير إلى أن البنوك لا تبدأ من وضع مستقر تماماً، بل من بيئة تواجه فيها أصلاً ضغوطاً أمنية مرتفعة.

وما يتغير جوهرياً عندما يتمكن الذكاء الاصطناعي من تحديد الثغرات بسرعة أكبر، ليس فقط أن المهاجمين يصبحون أكثر قدرة، بل إن المدافعين يخسرون الوقت. ويقول يموت إن الذكاء الاصطناعي يمكنه «تحديد الثغرات بسرعة أكبر بكثير، ما يقلص الزمن بين اكتشافها واستغلالها، ويترك المؤسسات أمام وقت أقل للاستجابة». وهذا تحدٍ كبير للمؤسسات المالية، لأن كثيراً منها لا يستطيع التحرك بالسرعة نفسها التي تتحرك بها قدرات الهجوم الجديدة، سواء بسبب تعقيد الأنظمة، أو تعدد الطبقات التشغيلية، أو اشتراطات التغيير والامتثال.

تحول هيكلي أعمق

يشدد يمّوت على أن المسألة ليست مجرد زيادة في السرعة أو الحجم أو التعقيد، بل في «تحول هيكلي أعمق». فالتهديدات المدعومة بالذكاء الاصطناعي في مراحل سابقة كانت تضخم أساليب قائمة، جاعلة التصيد أسرع، والاحتيال أكثر كفاءة، وتوليد البرمجيات الخبيثة أسهل على نطاق أوسع. غير أنها كانت لا تزال تعتمد إلى حد كبير على ثغرات معروفة أو بيانات اعتماد مسروقة أو أخطاء بشرية. أما ما يلوح الآن فهو شيء مختلف إذ يبدأ الذكاء الاصطناعي نفسه في المساهمة في أبحاث الثغرات، وهو مجال كان يحتاج تاريخياً إلى وقت طويل وخبرة نادرة. وإذا حدث ذلك على نطاق أوسع، فإن عدد نقاط الضعف القابلة للاستغلال قد يرتفع قبل أن تتمكن المؤسسات من معالجتها.

تواجه البنوك تحولاً من موقع انكشاف قائم بالفعل في ظل ارتفاع قيمة البيانات المالية وتعقيد البيئات الرقمية وترابطها (رويترز)

القدرة الدفاعية والجاهزية

لا يقدم ماهر يمّوت هذه الصورة بوصفها قصة هجومية فقط. فواحدة من أهم نقاطه أن القدرة نفسها «مهمة على الجانب الدفاعي بالقدر نفسه، إن لم تكن أكثر». فالتحليل المدعوم بالذكاء الاصطناعي يمكن أن يساعد فرق الأمن على اكتشاف الانكشافات بسرعة وعلى نطاق واسع، وترتيب أولوياتها قبل أن يصل إليها المهاجمون. وهذه نقطة أساسية، لأنها تمنع اختزال القصة في أن الذكاء الاصطناعي يقوي المهاجمين فقط. فالحقيقة، كما يطرحها، أن هذه الأدوات تعيد تشكيل ميزان الهجوم والدفاع معاً، والسؤال الحقيقي هو من يستطيع تشغيلها بسرعة وفاعلية أكبر؟

من هنا أيضاً يظهر تساؤل آخر متعلق بمدى جاهزية هذه النماذج الأمنية والتنظيمية الحالية لهذا الواقع. يمّوت يعد أن معظم نماذج الأمن السيبراني وأطره التنظيمية بُنيت لبيئة تهديدات أبطأ، قائلاً: «كانت فيها المخاطر تتطور تدريجياً، وكان لدى المدافعين وقت أطول للرصد والاستجابة». لكن في بيئة يدفعها الذكاء الاصطناعي، تصبح هذه الافتراضات أضعف. فالامتثال يبقى دورياً، بينما يتغير التهديد في الزمن الحقيقي. وتظل آليات الحوكمة قائمة على مراجعات وتقييمات مرحلية، بينما قد تتطور قدرات الهجوم بصورة أسرع بكثير. ولهذا يدعو يمّوت المؤسسات إلى «تجاوز الامتثال» وتبني مقاربات أمنية مستمرة، تقودها الاستخبارات، وقادرة على التكيف في الوقت الفعلي مع المخاطر المتغيرة بسرعة.

النقطة العمياء الكبرى

يلفت ماهر يمّوت أيضاً إلى أن أكبر النقاط العمياء لدى المؤسسات ليست غياب الوعي بالمخاطر المرتبطة بالذكاء الاصطناعي، بل «التقليل من أثره العملي وسرعة تغيره». فكثير من المؤسسات ما زال يعتمد على نماذج تهديد تقليدية وتقييمات دورية، مع افتراض أن الضوابط الحالية ستبقى كافية. لكن الذكاء الاصطناعي، حسب تعبيره، يوسع في آن واحد سطح الهجوم وسهولة الوصول إلى تقنيات هجومية متقدمة. كما يشير إلى «فجوة حرجة» في فهم كيفية استخدام الذكاء الاصطناعي من جانب المهاجمين ومن جانب الموظفين، إلى جانب ضعف التركيز على قدرات الكشف التي تستطيع مواكبة التهديدات المؤتمتة والعالية الحجم وسريعة التغير.

تعد «كاسبرسكي» أن الذكاء الاصطناعي لا يقوي المهاجمين فقط بل يمكن أن يمنح فرق الدفاع أدوات أسرع لرصد الثغرات (شاترستوك)

من الثبات للتكيف

يشير يمّوت إلى أهمية رؤية البنوك والقطاعات الحيوية الأخرى أن الدفاعات الثابتة القائمة على المحيط الخارجي لم تعد كافية، وأن المطلوب هو «مقاربة أمنية مستمرة وقابلة للتكيف». وعملياً، يعني ذلك تعزيز قدرات الرصد والاستجابة في الزمن الحقيقي، وتشديد إدارة الهوية والصلاحيات، وتحقيق رؤية كاملة عبر البيئات الهجينة والسحابية. كما يعني استخدام الذكاء الاصطناعي داخل العمليات الأمنية نفسها من أجل «رصد الشذوذ بسرعة أكبر، وربط التهديدات على نطاق واسع، وتقليص زمن الاستجابة». ويضيف أن المؤسسات ينبغي أن تعمل مع شركاء موثوقين يفهمون التهديدات المتطورة، مع الحفاظ على قدرات قوية في الوقاية والاستجابة السريعة لاحتواء أي حادث والتعافي منه.

أهمية هذه القصة لا تكمن فقط فيما إذا كان نموذج من «أنثروبيك» قد تجاوز عتبة معينة، بل فيما إذا كانت المؤسسات المالية مستعدة لعالم قد تبدأ فيه أبحاث الثغرات وسرعة الاستغلال والقدرات الهجومية كلها بالتوسع بطرق جديدة. قد تكون «أنثروبيك» هي الشرارة التي فجرت النقاش، لكن الدرس الأوسع أكبر من ذلك: الذكاء الاصطناعي لم يعد مجرد أداة دفاع سيبراني أو طبقة لرفع الكفاءة. إنه أصبح جزءاً من بنية المخاطر السيبرانية نفسها.


خبراء يُحذرون: الذكاء الاصطناعي يكشف عن طرق خطيرة لتطوير أسلحة بيولوجية

مؤيدو الذكاء الاصطناعي يرون أنه يحمل إمكانات هائلة لإحداث ثورة في الطب (رويترز)
مؤيدو الذكاء الاصطناعي يرون أنه يحمل إمكانات هائلة لإحداث ثورة في الطب (رويترز)
TT

خبراء يُحذرون: الذكاء الاصطناعي يكشف عن طرق خطيرة لتطوير أسلحة بيولوجية

مؤيدو الذكاء الاصطناعي يرون أنه يحمل إمكانات هائلة لإحداث ثورة في الطب (رويترز)
مؤيدو الذكاء الاصطناعي يرون أنه يحمل إمكانات هائلة لإحداث ثورة في الطب (رويترز)

في وقت يتسارع فيه تطوّر تقنيات الذكاء الاصطناعي بوتيرة غير مسبوقة، تزيد المخاوف بشأن إساءة استخدام هذه الأدوات في مجالات حساسة وخطيرة. فبينما يُروَّج لهذه التقنيات بوصفها محركاً للابتكار العلمي والطبي، بدأت تظهر مؤشرات مقلقة إلى قدرتها على تقديم إرشادات قد تُستغل في تطوير أسلحة بيولوجية، ما يفتح الباب أمام تهديدات غير تقليدية يصعب احتواؤها.

تجربة صادمة لعالم في جامعة ستانفورد

في إحدى أمسيات الصيف الماضي، وجد الدكتور ديفيد ريلمان، عالم الأحياء الدقيقة وخبير الأمن البيولوجي في جامعة ستانفورد الأميركية، نفسه أمام موقف صادم أثناء اختباره أحد برامج الدردشة الآلية.

وكان ريلمان قد كُلّف من قبل شركة تعمل في مجال الذكاء الاصطناعي بتقييم منتجها قبل طرحه للجمهور. وخلال تلك التجربة، فوجئ بأن البرنامج لا يكتفي بالإجابة عن أسئلة عامة، بل قدّم شرحاً مفصلاً حول كيفية تعديل مسبب مرض خطير في المختبر ليصبح مقاوماً للعلاجات المعروفة، وفقاً لما نقلته صحيفة «نيويورك تايمز».

لم يتوقف الأمر عند هذا الحد، إذ عرض البرنامج أيضاً سيناريوهات دقيقة لكيفية نشر هذا المسبب المرضي، مشيراً إلى ثغرة أمنية في نظام نقل عام كبير. ووفقاً لريلمان، فقد تضمّن الشرح خطوات تهدف إلى زيادة عدد الضحايا إلى أقصى حد، مع تقليل فرص الكشف عن الجهة المنفذة.

وبسبب خطورة هذه المعلومات، طلب ريلمان عدم الكشف عن اسم المسبب المرضي أو تفاصيل إضافية، خشية أن تُستخدم في التحريض على هجمات حقيقية.

وقد أثارت هذه التجربة صدمة عميقة لديه، دفعته إلى مغادرة مكتبه لفترة قصيرة لاستعادة هدوئه. وقال: «لقد أجاب عن أسئلة لم تخطر ببالي، وبمستوى من الخبث والمكر أثار في نفسي شعوراً بالرعب».

ورغم أن الشركة المطوّرة أضافت بعض إجراءات السلامة بعد الاختبار، فإن ريلمان رأى أنها غير كافية للحد من هذه المخاطر.

خبراء يُحذّرون: النماذج الحالية تتجاوز مجرد المعلومات العامة

يُعدّ ريلمان واحداً من مجموعة محدودة من الخبراء الذين تستعين بهم شركات الذكاء الاصطناعي لتقييم المخاطر المحتملة لمنتجاتها. وفي الأشهر الأخيرة، شارك عدد منهم مع صحيفة «نيويورك تايمز» أكثر من 12 محادثة مع روبوتات دردشة.

وأظهرت هذه المحادثات أن النماذج المتاحة للجمهور قادرة على تقديم معلومات تتجاوز حدود المعرفة العامة، إذ شرحت بشكل مفصل كيفية شراء مواد وراثية خام، وتحويلها إلى أسلحة بيولوجية، بل حتى نشرها في أماكن عامة، مع اقتراح وسائل للتهرب من الكشف.

لطالما وضعت الحكومة الأميركية سيناريوهات لمواجهة تهديدات بيولوجية محتملة، تشمل استخدام بكتيريا أو فيروسات أو سموم فتاكة. ومنذ سبعينات القرن الماضي، شهد العالم عشرات الحوادث البيولوجية المحدودة، من أبرزها هجمات الرسائل الملوثة عام 2001، التي أودت بحياة 5 أميركيين.

ورغم أن الخبراء يرون أن احتمال وقوع كارثة بيولوجية كبرى لا يزال منخفضاً، فإن تداعياتها المحتملة قد تكون كارثية، إذ يمكن لسلاح بيولوجي فعّال أن يؤدي إلى وفاة ملايين الأشخاص.

الذكاء الاصطناعي يوسّع نطاق المخاطر

يشير عشرات الخبراء إلى أن الذكاء الاصطناعي يُعد من أبرز العوامل التي قد تزيد من هذه المخاطر، عبر توسيع دائرة الأفراد القادرين على الوصول إلى معلومات وأدوات كانت حكراً على المتخصصين.

فقد أصبحت بروتوكولات علمية متقدمة متاحة على الإنترنت، كما باتت الشركات تبيع مكونات جينية صناعية (DNA وRNA) مباشرة للمستهلكين. ويمكن للعلماء تقسيم أعمالهم الحساسة وإسنادها إلى مختبرات خاصة، في حين يمكن لروبوتات الدردشة المساعدة في إدارة هذه العمليات المعقدة.

وشارك كيفن إسفلت، مهندس الوراثة في معهد ماساتشوستس للتكنولوجيا، أمثلة لمحادثات مع برامج ذكاء اصطناعي. ففي إحدى الحالات، شرح أحد البرامج كيفية استخدام بالون طقس لنشر مواد بيولوجية فوق مدينة.

وفي مثال آخر، قام برنامج آخر بتصنيف مسببات الأمراض وفق قدرتها على الإضرار بقطاع الثروة الحيوانية. كما قدّم برنامج ثالث وصفة لسم جديد مستوحى من دواء للسرطان.

وأشار إسفلت إلى أن بعض هذه المعلومات كان بالغ الخطورة لدرجة لا يمكن نشرها علناً.

وفي تجربة أخرى، طلب عالم أميركي - فضّل عدم الكشف عن هويته - من أحد أنظمة الذكاء الاصطناعي تقديم «بروتوكول خطوة بخطوة» لإعادة تصنيع فيروس تسبب في جائحة سابقة.

وجاء الرد في شكل تعليمات مفصلة بلغ طولها نحو 8 آلاف كلمة، تتضمن كيفية الحصول على مكونات جينية وتجميعها. ورغم وجود بعض الأخطاء، فإن هذه المعلومات قد تكون مفيدة لشخص لديه نوايا ضارة.

تراجع الرقابة ومخاوف متزايدة

في سياق متصل، أُثيرت مخاوف بشأن تراجع الرقابة على هذه التقنيات، خصوصاً في ظل سياسات تهدف إلى تعزيز ريادة الولايات المتحدة في مجال الذكاء الاصطناعي. وقد شهدت المؤسسات المعنية بالأمن البيولوجي مغادرة عدد من كبار الخبراء دون تعويضهم، إلى جانب انخفاض ملحوظ في ميزانيات الدفاع البيولوجي.

في المقابل، يرى مؤيدو الذكاء الاصطناعي أنه يحمل إمكانات هائلة لإحداث ثورة في الطب، من خلال تسريع الأبحاث وتحليل البيانات الضخمة لاكتشاف علاجات جديدة.

كما يُشير بعض العلماء إلى أن المعلومات التي تقدمها هذه الأنظمة ليست جديدة بالكامل، وأن تطوير أسلحة بيولوجية فعّالة لا يزال يتطلب خبرة علمية عميقة وسنوات من العمل المختبري.

من جانبها، أكدت شركات التكنولوجيا الكبرى، مثل «أنثروبيك» و«أوبن إيه آي» و«غوغل»، أنها تعمل بشكل مستمر على تطوير أنظمتها وتحسين إجراءات الأمان، بهدف تحقيق توازن بين الفوائد المحتملة والمخاطر المصاحبة لهذه التقنيات.