هل يصبح «الذكاء الاصطناعي المظلم» التهديد الأخطر القادم للأمن السيبراني؟

«كاسبرسكي»: المعركة المقبلة بين «ذكاءين اصطناعيين»

تشير تحليلات أمنية إلى أن نماذج الذكاء الاصطناعي المظلم تُستخدم في حملات تصيد وهجمات فدية (شاترستوك)
تشير تحليلات أمنية إلى أن نماذج الذكاء الاصطناعي المظلم تُستخدم في حملات تصيد وهجمات فدية (شاترستوك)
TT

هل يصبح «الذكاء الاصطناعي المظلم» التهديد الأخطر القادم للأمن السيبراني؟

تشير تحليلات أمنية إلى أن نماذج الذكاء الاصطناعي المظلم تُستخدم في حملات تصيد وهجمات فدية (شاترستوك)
تشير تحليلات أمنية إلى أن نماذج الذكاء الاصطناعي المظلم تُستخدم في حملات تصيد وهجمات فدية (شاترستوك)

عند تقاطع الذكاء الاصطناعي والأمن السيبراني، تبرز ساحة معركة جديدة تتسارع فيها وتيرة المخاطر: ما يُعرف بـ«الذكاء الاصطناعي المظلم». فمع ازدياد قوة أدوات الذكاء الاصطناعي وسهولة الوصول إليها، لم تعد هذه التقنيات حكراً على المطورين أو الباحثين، بل أصبحت في متناول مجرمي الإنترنت الذين باتوا يستخدمونها لأتمتة الهجمات، وتوسيع نطاقها، وتخصيصها بدقة غير مسبوقة.

هذا التحوّل كان في صميم تحذيرات خبراء شركة «كاسبرسكي»، خلال مشاركتهم في مؤتمر «Cyber Security Weekend 2025» الذي عُقد مؤخراً في جزيرة بوكيت التايلاندية، حيث ناقشوا مع «الشرق الأوسط» ملامح المرحلة المقبلة من التهديدات السيبرانية المدفوعة بالذكاء الاصطناعي.

أليكسي أنتونوف قائد فريق مركز أبحاث تقنيات الذكاء الاصطناعي لدى «كاسبرسكي» متحدثاً خلال المؤتمر (كاسبرسكي)

من الابتكار إلى الاستغلال

لطالما مثّل الذكاء الاصطناعي وعداً بتحولات جذرية في مختلف القطاعات من الرعاية الصحية والتعليم، إلى عالم التمويل والخدمات اللوجستية. لكن كأي أداة قوية، يبقى استخدامه مرهوناً بالنيات: فقد يكون محفزاً للابتكار، أو وسيلة فعالة في أيدي من يسعى للإضرار.

يقول أليكسي أنتونوف، قائد فريق مركز أبحاث تقنيات الذكاء الاصطناعي في «كاسبرسكي»، إن المهاجمين المحترفين بدأوا بالفعل تسخير الذكاء الاصطناعي لتعزيز أدواتهم. لكنه يحذر من المرحلة المقبلة: «الخطر الحقيقي سيظهر عندما يتمكن غير المحترفين من استخدام هذه النماذج بسهولة».

ويشاركه الرأي سيرغي لوجكين، رئيس فريق البحث والتحليل العالمي (GReAT) في «كاسبرسكي»، موضحاً أن «الذكاء الاصطناعي في الوقت الراهن لا يزال بحاجة إلى تدخل بشري لصياغة برمجيات خبيثة فعالة، لكن هذا الوضع لن يستمر طويلاً».

ويفصّل أنتونوف المشهد التقني الحالي، قائلاً إن النماذج الذكية اليوم يمكنها إنتاج شيفرات خبيثة، لكنها لا تزال تحتاج إلى تعديل يدوي لتجاوز أنظمة الحماية. فيما يؤكد لوجكين أن «الكود» الناتج يحتاج عادة إلى «تصحيح وتحسين بشري ليحقق أهدافه»، إلا أن كلا الخبيرين يتفقان على أن المستقبل القريب سيشهد بروز نماذج قادرة على إنتاج برمجيات خبيثة متقدمة بشكل تلقائي، دون تدخل بشري يُذكر.

سيرغي لوجكين، رئيس فريق البحث والتحليل العالمي (GReAT) في «كاسبرسكي» متحدثاً خلال المؤتمر (كاسبرسكي)

ولادة «الذكاء الاصطناعي المظلم»

قدّم كل من أنتونوف ولوجكين مفهوماً مقلقاً لما يُعرف بـ«الذكاء الاصطناعي المظلم»، وهي نماذج لغوية ضخمة يتم تطويرها أو تعديلها على يد مجرمي الإنترنت، بعيداً عن أي قيود أخلاقية أو ضوابط أمنية. يصف أنتونوف هذه النماذج بأنها «صُممت من مجرمين... لمجرمين». أما لوجكين فيُفصّل الأمر بقوله: «إذا حاولت استخدام نموذج ذكاء اصطناعي شرعي لإنشاء برمجية خبيثة، فسيرفض. أما الذكاء الاصطناعي المظلم، فلن يضع أي حدود، وسينفذ كل ما تطلبه من رسائل تصيّد مقنعة إلى نسخ مزيّفة من مواقع إلكترونية شهيرة».

سلاح الذكاء الاصطناعي الحقيقي

ورغم أن التركيز الإعلامي غالباً ما ينصب على القدرات الإبداعية للذكاء الاصطناعي، فإن التهديد الحقيقي يكمن في سرعته وقابليته للتوسع. ففي السابق، كان على المهاجمين إعادة كتابة الشيفرات يدوياً لتجاوز أنظمة الحماية بعد اكتشافها. أما اليوم، فيكفي أن يُدخل المهاجم أمراً بسيطاً مثل «اجعلها غير قابلة للكشف»، ليقوم الذكاء الاصطناعي بالباقي.

يشرح لوجكين أن هذا التطور يُسرّع بشكل كبير من دورات إنتاج البرمجيات الخبيثة، حيث يمكن للذكاء الاصطناعي تعديل البنى البرمجية القائمة وإضافة وظائف جديدة خلال وقت قصير، مع الحاجة إلى تدخل بشري محدود. هذه السرعة تمنح المهاجمين المحترفين وغير المحترفين ميزة واضحة، وتوسّع دائرة التهديد بشكل غير مسبوق.

ويستشهد لوجكين بمجموعة «فانكسيك» (FunkSec) التي ظهرت عام 2024 كنموذج لهذا التحول؛ إذ استخدمت شيفرات مكتوبة بالكامل بالذكاء الاصطناعي، مصحوبة بتعليقات برمجية عالية الجودة، لتنفيذ هجمات فدية مزدوجة. وتميزت هذه المجموعة باتباع نموذج «منخفض الكلفة وعالي الحجم»، معتمدة على أدوات الذكاء الاصطناعي لزيادة الكفاءة وتقليل التكاليف وهو تحول نوعي في أسلوب عمل مجرمي الإنترنت.

تحذر تقارير بأن الهجمات السيبرانية المدعومة بالذكاء الاصطناعي تزداد تعقيداً وسرعةً ما يجعل التصدي لها أكثر صعوبة (شاترستوك)

التحول والتكيف

من بين أبرز المخاوف المتصاعدة، استخدام الذكاء الاصطناعي في تطوير برمجيات خبيثة متحورة قادرة على تغيير شكلها باستمرار لتفادي أنظمة الكشف التقليدية. يوضح لوجكين: «كل عينة جديدة من البرمجية نفسها قد تبدو مختلفة»، مشيراً إلى أن النماذج الذكية أصبحت قادرة على توليد هذه المتغيرات بشكل تلقائي.

وخلال حديثه مع «الشرق الأوسط»، يضيف لوجكين أن المهاجمين بات بإمكانهم كذلك استخدام الذكاء الاصطناعي لتوليد وحدات خبيثة جديدة مثل أدوات تسجيل المفاتيح أو اعتراض الكاميرات بناءً على قوالب برمجية جاهزة، ما يجعل تطوير الهجمات أسرع وأقل تكلفة من أي وقت مضى.

ومع تصاعد هذا التهديد، يؤكد كل من أنتونوف ولوجكين أن المدافعين لا يزالون يملكون الفرصة للتفوق، بشرط تغيير طريقة التعامل مع التهديدات. ويشدد أنتونوف على أن «المدافع لا يحارب الذكاء الاصطناعي نفسه، بل يحارب ناتجه»، مشيراً إلى ضرورة تطوير أدوات استخباراتية ترصد البصمات الرقمية للهجمات، وتحديد مصادر أدوات التصيّد المتقدمة المنتشرة في الشبكات المظلمة.

كلا الخبيرين أشار أيضاً إلى مجموعة «لازاروس» سيئة السمعة كمثال بارز على الجرائم السيبرانية المدعومة بالذكاء الاصطناعي، حيث قامت المجموعة بإنشاء صفحات تصيّد وملفات تعريف مزيفة عبر منصات احترافية باستخدام أدوات توليد المحتوى الذكي. ويرجّح لوجكين، استناداً إلى تقارير غير مؤكدة، أن بعض الشيفرات المستخدمة من قبل المجموعة كُتبت جزئياً عبر نماذج ذكاء اصطناعي متقدمة.

محمد هاشم المدير العام للسعودية والبحرين لدى شركة «كاسبرسكي» (كاسبرسكي)

الشرق الأوسط... ساحة نشطة للتهديدات

تُعد منطقة الشرق الأوسط اليوم إحدى أكثر الساحات حساسية في مشهد التهديدات السيبرانية العالمية، حيث يتقاطع التحول الرقمي المتسارع مع تصاعد الهجمات المدعومة بالذكاء الاصطناعي. ويرى أليكسي أنتونوف أن هذا ليس بالأمر الجديد، إذ لطالما شكّلت المنطقة محور اهتمام استراتيجي للقوى الجيوسياسية، بفضل مكانتها كمركز مالي وتجاري آخذ في التوسع والنمو.

وتُظهر بيانات «كاسبرسكي» أن حدة هجمات الفدية في الشرق الأوسط ارتفعت لتبلغ 0.72في المائة في عام 2025، متجاوزة بذلك أفريقيا وتركيا. ويُعزى هذا الارتفاع إلى تسارع تبنّي التقنيات الرقمية في المنطقة، إلى جانب تفاوت مستويات النضج الأمني السيبراني بين القطاعات والدول. ومع ازدياد استخدام أدوات الذكاء الاصطناعي في تطوير البرمجيات الخبيثة، تصبح هذه التهديدات أكثر خفاءً وفاعلية من ذي قبل.

وفي سياق متصل، يؤكد محمد هاشم، المدير العام لشركة «كاسبرسكي» في السعودية والبحرين، أن المملكة تسير في طليعة الدول التي تستثمر في الذكاء الاصطناعي على مستوى المنطقة. لكنه يحذّر من أن هذه الطفرة التقنية لا تخلو من تحديات أمنية عميقة. ويقول في حديثه مع «الشرق الأوسط»: «السعودية تقود جهود التحول الرقمي في المنطقة باستثمارات ضخمة، لكن لا بد من مواجهة التحديات الأمنية المصاحبة لتقنيات الذكاء الاصطناعي منذ مراحلها الأولى».

ويشدد هاشم على أهمية دمج الأمن السيبراني ضمن دورة حياة تطوير الذكاء الاصطناعي، بدءاً من التصميم وحتى التنفيذ، مؤكداً أن ذلك هو السبيل لضمان الجاهزية المستقبلية. كما يسلّط الضوء على دور مؤسسات وطنية مثل الهيئة السعودية للبيانات والذكاء الاصطناعي (سدايا) ومكتب إدارة البيانات الوطني في بناء منظومة ذكاء اصطناعي آمنة وقادرة على الصمود. ويضيف أن هذه الجهود تصبح أكثر أهمية في القطاعات الحساسة، مثل المدن الذكية والرعاية الصحية والقطاع المالي، التي تشكّل محاور أساسية في «رؤية السعودية 2030».

تفيد تقارير بأن استخدام الذكاء الاصطناعي يساهم في تسريع تطوير البرمجيات الخبيثة ويقلل الحاجز التقني أمام المهاجمين الأقل خبرة (شاترستوك)

ذكاء اصطناعي ضد ذكاء اصطناعي

يتوقع خبراء «كاسبرسكي» أن يشهد المستقبل القريب تحولاً نوعياً في طبيعة المواجهات الرقمية، حيث تتحول المعركة من «البشر باستخدام الذكاء الاصطناعي» إلى صراع مباشر بين «أنظمة ذكاء اصطناعي» نفسها.

ويرى كل من أنتونوف ولوجكين أن هذه النقلة ليست بعيدة، مشيرين إلى أننا نعيش حالياً مرحلة انتقالية، لكن المؤشرات تدل على أن الذكاء الاصطناعي قد يصبح في وقت قريب اللاعب الوحيد على جانبي الهجوم والدفاع. ويعزّز محمد هاشم هذا الطرح، مؤكداً أن الشراكات العالمية ستكون مفتاحاً لحماية التقدم التقني من مخاطره المحتملة، ويقول: «من الضروري أن يترافق الابتكار في الذكاء الاصطناعي مع حماية سيبرانية بمستوى عالمي. فمواجهة التهديدات الناشئة مثل التزييف العميق والتصيّد المؤتمت تتطلب تنسيقاً دولياً وتبادلاً مستمراً للمعرفة والدفاعات».

من جهة أخرى، بات الذكاء الاصطناعي يشكّل اليوم العنصر المشترك في معظم التهديدات السيبرانية الحديثة من تطوير البرمجيات الخبيثة، إلى تنفيذ حملات تصيّد متقدمة، ووصولاً إلى مراقبة الأفراد عبر الأجهزة المحمولة. ومع ذلك، يُذكّر خبراء «كاسبرسكي» أن الذكاء الاصطناعي لا يزال أداة، وقيمة هذه الأداة تُحدَّد بطريقة استخدامها.

وفي وقت يقف فيه العالم الرقمي أمام مفترق طرق مصيري، لم يعد السؤال المطروح ما إذا كان الذكاء الاصطناعي سيغيّر شكل الصراع السيبراني، بل إلى أي مدى نحن مستعدون لتوجيه هذا التحوّل بدلاً من أن نُفاجَأ به.


مقالات ذات صلة

«غوغل كلاود» لـ«الشرق الأوسط»: هدوء سيبراني «حذر» رغم التوترات الإقليمية

خاص التوترات التي شهدها الشرق الأوسط خلال الشهرين الماضيين لم تؤدِّ إلى تصعيد سيبراني واسع وفوري بالقدر الذي كان متوقعاً (شاترستوك)

«غوغل كلاود» لـ«الشرق الأوسط»: هدوء سيبراني «حذر» رغم التوترات الإقليمية

تقول «غوغل كلاود» إن هدوء الهجمات لا يلغي الخطر، وإن المرونة السيبرانية تبدأ من الثغرات والاستعداد المبكر قبل التصعيد.

نسيم رمضان (لاس فيغاس)
تكنولوجيا التحديث الأمني العاجل يعالج ثغرة حرجة في برنامجي «Reader» و«Acrobat» على «ويندوز» و«ماك أو إس» (شاترستوك)

ثغرة خطيرة في «Reader» و«Acrobat » تدفع «أدوبي» إلى تحديث عاجل

أصدرت «أدوبي» تحديثاً عاجلاً لسد ثغرة خطيرة في «Reader» و«Acrobat» استُغلت فعلياً عبر ملفات «PDF» ما يتطلب التحديث فوراً.

نسيم رمضان (لندن)
تكنولوجيا قالت الشركة إن بيانات الدفع وحسابات المستخدمين نفسها لم تتعرض للاختراق لكنها لم تكشف عدد المتضررين (شاترستوك)

«Booking.com» تؤكد اختراق بعض بيانات حجوزات العملاء

أكدت «Booking.com» اختراق بعض بيانات الحجوزات، ما يثير مخاوف من استغلالها في التصيد، والاحتيال، رغم عدم تسرب بيانات الدفع.

نسيم رمضان (لندن)
خاص الاحتيال تحوّل من استهداف الأنظمة التقنية إلى التلاعب بالسلوك البشري ما يغيّر طبيعة التهديد بشكل جذري (رويترز)

خاص هل أنهى الذكاء الاصطناعي عصر أنظمة كشف الاحتيال الرقمية التقليدية؟

يُضعف تحول الاحتيال إلى استهداف السلوك البشري الأنظمة التقليدية، ويفرض اعتماد تحليلات سلوكية، ومقاربات جديدة لحماية الثقة الرقمية، والهوية.

نسيم رمضان (لندن)
تكنولوجيا حماية البيانات المالية لم تعد تعتمد على الحلول التقنية فقط بل تتطلب منظومة متكاملة تشمل التنظيم والسلوك البشري (شاترستوك)

دراسة: حماية البيانات المالية تحتاج إلى أكثر من حلول تقنية

تشير الدراسة إلى أن حماية البيانات المالية تتطلب مزيجاً من التقنية والتنظيم وسلوك المستخدم مع تزايد التهديدات التي تتجاوز الحلول الأمنية التقليدية.

نسيم رمضان (لندن)

خبراء يُحذرون: الذكاء الاصطناعي يكشف عن طرق خطيرة لتطوير أسلحة بيولوجية

مؤيدو الذكاء الاصطناعي يرون أنه يحمل إمكانات هائلة لإحداث ثورة في الطب (رويترز)
مؤيدو الذكاء الاصطناعي يرون أنه يحمل إمكانات هائلة لإحداث ثورة في الطب (رويترز)
TT

خبراء يُحذرون: الذكاء الاصطناعي يكشف عن طرق خطيرة لتطوير أسلحة بيولوجية

مؤيدو الذكاء الاصطناعي يرون أنه يحمل إمكانات هائلة لإحداث ثورة في الطب (رويترز)
مؤيدو الذكاء الاصطناعي يرون أنه يحمل إمكانات هائلة لإحداث ثورة في الطب (رويترز)

في وقت يتسارع فيه تطوّر تقنيات الذكاء الاصطناعي بوتيرة غير مسبوقة، تزيد المخاوف بشأن إساءة استخدام هذه الأدوات في مجالات حساسة وخطيرة. فبينما يُروَّج لهذه التقنيات بوصفها محركاً للابتكار العلمي والطبي، بدأت تظهر مؤشرات مقلقة إلى قدرتها على تقديم إرشادات قد تُستغل في تطوير أسلحة بيولوجية، ما يفتح الباب أمام تهديدات غير تقليدية يصعب احتواؤها.

تجربة صادمة لعالم في جامعة ستانفورد

في إحدى أمسيات الصيف الماضي، وجد الدكتور ديفيد ريلمان، عالم الأحياء الدقيقة وخبير الأمن البيولوجي في جامعة ستانفورد الأميركية، نفسه أمام موقف صادم أثناء اختباره أحد برامج الدردشة الآلية.

وكان ريلمان قد كُلّف من قبل شركة تعمل في مجال الذكاء الاصطناعي بتقييم منتجها قبل طرحه للجمهور. وخلال تلك التجربة، فوجئ بأن البرنامج لا يكتفي بالإجابة عن أسئلة عامة، بل قدّم شرحاً مفصلاً حول كيفية تعديل مسبب مرض خطير في المختبر ليصبح مقاوماً للعلاجات المعروفة، وفقاً لما نقلته صحيفة «نيويورك تايمز».

لم يتوقف الأمر عند هذا الحد، إذ عرض البرنامج أيضاً سيناريوهات دقيقة لكيفية نشر هذا المسبب المرضي، مشيراً إلى ثغرة أمنية في نظام نقل عام كبير. ووفقاً لريلمان، فقد تضمّن الشرح خطوات تهدف إلى زيادة عدد الضحايا إلى أقصى حد، مع تقليل فرص الكشف عن الجهة المنفذة.

وبسبب خطورة هذه المعلومات، طلب ريلمان عدم الكشف عن اسم المسبب المرضي أو تفاصيل إضافية، خشية أن تُستخدم في التحريض على هجمات حقيقية.

وقد أثارت هذه التجربة صدمة عميقة لديه، دفعته إلى مغادرة مكتبه لفترة قصيرة لاستعادة هدوئه. وقال: «لقد أجاب عن أسئلة لم تخطر ببالي، وبمستوى من الخبث والمكر أثار في نفسي شعوراً بالرعب».

ورغم أن الشركة المطوّرة أضافت بعض إجراءات السلامة بعد الاختبار، فإن ريلمان رأى أنها غير كافية للحد من هذه المخاطر.

خبراء يُحذّرون: النماذج الحالية تتجاوز مجرد المعلومات العامة

يُعدّ ريلمان واحداً من مجموعة محدودة من الخبراء الذين تستعين بهم شركات الذكاء الاصطناعي لتقييم المخاطر المحتملة لمنتجاتها. وفي الأشهر الأخيرة، شارك عدد منهم مع صحيفة «نيويورك تايمز» أكثر من 12 محادثة مع روبوتات دردشة.

وأظهرت هذه المحادثات أن النماذج المتاحة للجمهور قادرة على تقديم معلومات تتجاوز حدود المعرفة العامة، إذ شرحت بشكل مفصل كيفية شراء مواد وراثية خام، وتحويلها إلى أسلحة بيولوجية، بل حتى نشرها في أماكن عامة، مع اقتراح وسائل للتهرب من الكشف.

لطالما وضعت الحكومة الأميركية سيناريوهات لمواجهة تهديدات بيولوجية محتملة، تشمل استخدام بكتيريا أو فيروسات أو سموم فتاكة. ومنذ سبعينات القرن الماضي، شهد العالم عشرات الحوادث البيولوجية المحدودة، من أبرزها هجمات الرسائل الملوثة عام 2001، التي أودت بحياة 5 أميركيين.

ورغم أن الخبراء يرون أن احتمال وقوع كارثة بيولوجية كبرى لا يزال منخفضاً، فإن تداعياتها المحتملة قد تكون كارثية، إذ يمكن لسلاح بيولوجي فعّال أن يؤدي إلى وفاة ملايين الأشخاص.

الذكاء الاصطناعي يوسّع نطاق المخاطر

يشير عشرات الخبراء إلى أن الذكاء الاصطناعي يُعد من أبرز العوامل التي قد تزيد من هذه المخاطر، عبر توسيع دائرة الأفراد القادرين على الوصول إلى معلومات وأدوات كانت حكراً على المتخصصين.

فقد أصبحت بروتوكولات علمية متقدمة متاحة على الإنترنت، كما باتت الشركات تبيع مكونات جينية صناعية (DNA وRNA) مباشرة للمستهلكين. ويمكن للعلماء تقسيم أعمالهم الحساسة وإسنادها إلى مختبرات خاصة، في حين يمكن لروبوتات الدردشة المساعدة في إدارة هذه العمليات المعقدة.

وشارك كيفن إسفلت، مهندس الوراثة في معهد ماساتشوستس للتكنولوجيا، أمثلة لمحادثات مع برامج ذكاء اصطناعي. ففي إحدى الحالات، شرح أحد البرامج كيفية استخدام بالون طقس لنشر مواد بيولوجية فوق مدينة.

وفي مثال آخر، قام برنامج آخر بتصنيف مسببات الأمراض وفق قدرتها على الإضرار بقطاع الثروة الحيوانية. كما قدّم برنامج ثالث وصفة لسم جديد مستوحى من دواء للسرطان.

وأشار إسفلت إلى أن بعض هذه المعلومات كان بالغ الخطورة لدرجة لا يمكن نشرها علناً.

وفي تجربة أخرى، طلب عالم أميركي - فضّل عدم الكشف عن هويته - من أحد أنظمة الذكاء الاصطناعي تقديم «بروتوكول خطوة بخطوة» لإعادة تصنيع فيروس تسبب في جائحة سابقة.

وجاء الرد في شكل تعليمات مفصلة بلغ طولها نحو 8 آلاف كلمة، تتضمن كيفية الحصول على مكونات جينية وتجميعها. ورغم وجود بعض الأخطاء، فإن هذه المعلومات قد تكون مفيدة لشخص لديه نوايا ضارة.

تراجع الرقابة ومخاوف متزايدة

في سياق متصل، أُثيرت مخاوف بشأن تراجع الرقابة على هذه التقنيات، خصوصاً في ظل سياسات تهدف إلى تعزيز ريادة الولايات المتحدة في مجال الذكاء الاصطناعي. وقد شهدت المؤسسات المعنية بالأمن البيولوجي مغادرة عدد من كبار الخبراء دون تعويضهم، إلى جانب انخفاض ملحوظ في ميزانيات الدفاع البيولوجي.

في المقابل، يرى مؤيدو الذكاء الاصطناعي أنه يحمل إمكانات هائلة لإحداث ثورة في الطب، من خلال تسريع الأبحاث وتحليل البيانات الضخمة لاكتشاف علاجات جديدة.

كما يُشير بعض العلماء إلى أن المعلومات التي تقدمها هذه الأنظمة ليست جديدة بالكامل، وأن تطوير أسلحة بيولوجية فعّالة لا يزال يتطلب خبرة علمية عميقة وسنوات من العمل المختبري.

من جانبها، أكدت شركات التكنولوجيا الكبرى، مثل «أنثروبيك» و«أوبن إيه آي» و«غوغل»، أنها تعمل بشكل مستمر على تطوير أنظمتها وتحسين إجراءات الأمان، بهدف تحقيق توازن بين الفوائد المحتملة والمخاطر المصاحبة لهذه التقنيات.


«ميتا» توقع اتفاقية مع «أمازون ويب سيرفيسز» لتشغيل الذكاء الاصطناعي الوكيل عبر عشرات الملايين من المعالجات فائقة الأداء

معالج "غرافيتون5"
معالج "غرافيتون5"
TT

«ميتا» توقع اتفاقية مع «أمازون ويب سيرفيسز» لتشغيل الذكاء الاصطناعي الوكيل عبر عشرات الملايين من المعالجات فائقة الأداء

معالج "غرافيتون5"
معالج "غرافيتون5"

تعمل شركة «ميتا» على تطوير جيل جديد من تقنيات الذكاء الاصطناعي وتطوير تجارب غير مسبوقة للمستخدمين. ولتحقيق ذلك، تحتاج الشركة إلى جيل جديد من المعالجات، الأمر الذي توفره «أمازون ويب سيرفيسز (AWS)»، حيث تم توقيع اتفاقية بين الشركتين لاستخدام عشرات الملايين من معالجات «غرافيتون (AWS Graviton)»، ما يعكس تحولاً جوهرياً في كيفية بناء البنية التحتية للذكاء الاصطناعي.

معالج «غرافيتون 5»

وفي السابق، كانت «وحدات معالجة الرسومات (GPU)» أساسية لتدريب النماذج الضخمة، ولكن تطور «الذكاء الاصطناعي الوكيل (Agentic AI)» (وحدات برمجية مستقلة قادرة على التفكير والتخطيط وإنجاز المهام المعقدة وكأنها مستخدم يجلس أمام الكومبيوتر) يعني وجود حاجة متزايدة إلى طلب هائل على أحمال العمل التي تحتاج لموارد «معالجة مركزية (CPU)» مكثفة، مثل توليد النصوص البرمجية والبحث وتنسيق المهام متعددة الخطوات. وتم تصميم معالج «غرافيتون5» (Graviton5) خصيصاً لهذه المهام، ما يمنح «ميتا» قدرات الحوسبة اللازمة لتشغيلها بكفاءة وموثوقية.

معالجة أسرع للبيانات

ويتميز المعالج الجديد بتقديم 192 نواة وذاكرة تخزين مؤقتة أكبر بخمس مرات مقارنة بالجيل السابق، ما يخفض من زمن استجابة النوى بنسبة تصل إلى 33 في المائة، مما يعني معالجة أسرع للبيانات بنطاق ترددي أكبر، وهما شرطان أساسيان لنظم الذكاء الاصطناعي التي تتطلب تنفيذ مهام مستمرة ومتعددة الخطوات. وتم تصنيع المعالج بدقة 3 نانومتر للحصول على معالج بحجم أقل وكفاءة أعلى، ما ينجم عنه بنية تحتية بأداء أعلى بنسبة تصل إلى 25 في المائة مقارنة بالجيل السابق، مع الحفاظ على كفاءة فائقة باستهلاك الطاقة للحد من الأثر البيئي.

أعلى مستويات الأداء والأمان

كما صُممت المعالجات على نظام «إيه دبليو إس نايترو (AWS Nitro)» الذي يستخدم دارات إلكترونية وبرمجية مخصصة لتحقيق أعلى مستويات الأداء والتوافر والأمان. ويسمح هذا النظام بالوصول المباشر للعتاد الإلكتروني، مع توفير تقنيات متقدمة، مثل: «Elastic Network Adapter ENA» و«Amazon Elastic Block Store EBS»، لتشغيل البيئة الافتراضية الخاصة دون أي تأثير على الأداء.

كما يدعم المعالج تقنية «Elastic Fabric Adapter EFA» التي تتيح اتصالاً منخفض التأخير وعالي السعة بين البيئات الافتراضية المتعددة، وهو أمر بالغ الأهمية لتشغيل أعباء عمل الذكاء الاصطناعي الوكيل لدى «ميتا»، الذي يتطلب توزيع مهام واسعة النطاق على مجموعة متعددة من معالجات تعمل بتنسيق تام نحو تحقيق هدف واحد للمستخدم.


برنامج ذكاء اصطناعي... يتنبأ بترقيتك المقبلة

برنامج ذكاء اصطناعي... يتنبأ بترقيتك المقبلة
TT

برنامج ذكاء اصطناعي... يتنبأ بترقيتك المقبلة

برنامج ذكاء اصطناعي... يتنبأ بترقيتك المقبلة

ترقية الشخص غير المناسب مسألة مكلفة، كما أنها تحدث بشكل متكرر، إذ تتراوح نسبة فشل المديرين التنفيذيين المعينين بين 30 و50 في المائة خلال أول سنة ونصف من عملهم، كما كتبت سارة بريغل(*).

منصة ذكية لاختيار قادة المستقبل

وقد طورت شركة «وركهيومان» Workhuman، وهي منصة لإدارة الموظفين، أداة ذكاء اصطناعي جديدة باسم «فيوتشر ليدرز» Future Leaders (قادة المستقبل)، للمساعدة في تحسين قرارات الترقية.

رصد الإمكانات العالية للموظفين

تستطيع هذه الأداة التي أعلنت عنها الشركة يوم أمس الثلاثاء «تحديد الموظفين ذوي الإمكانات العالية الذين يُرجح أن يصبحوا قادة كباراً قبل الترقية بثلاث إلى خمس سنوات».

وقد تحدث الرئيس التنفيذي، إريك موسلي، أمام حشد من الحضور في المؤتمر السنوي للشركة في أورلاندو، فلوريدا، عن برنامج Future Leaders، قائلاً إن الشركة اختبرته من خلال بياناتها عام 2020، وقد تمكنت الأداة من التنبؤ بالترقيات بدقة تقارب 80 في المائة.

تحليل أسباب الثقة

ويقول إن نظام «فيوتشر ليدرز» قادر على تحليل أسباب حصول الموظفين على الترقيات. على سبيل المثال، عندما سُئل النظام عن سبب ترقية شخص ما إلى منصب نائب الرئيس، قدم شرحاً مفصلاً، مشيراً إلى أن المسؤوليات الموكلة إليه تدل على تقديره، وثقة النظام به بشكل كبير. وأوضح موسلي أن الذكاء الاصطناعي أطلق على هذا تعبير «الثقة الاستراتيجية». وأضاف أن هذا الأمر جعله يدرك أن الثقة الاستراتيجية «مؤشر رئيس على ترقية شخص ما في المستقبل».

استخلاص أنماط القادة

بما أن نظام «قادة المستقبل» مُدرب على مجموعة بيانات ضخمة من القادة، فإنه يستطيع استخلاص الأنماط التي تميز القادة الحقيقيين، وبالتالي إيجاد الموظفين الذين يتوافقون مع هذه الأنماط، والتوصية بهم. وأشار موسلي إلى أن هذه الأداة يمكن استخدامها لضمان عدم تفويت الشركات للموظفين الموهوبين الذين يستحقون الترقية.

توظيف الأدوات الذكية في التقييم

وقد بدأت العديد من الشركات بالفعل في تطبيق الذكاء الاصطناعي للمساعدة في الترقيات. ووفقاً لاستطلاع أجرته «Resume Builder» عام 2025، يستخدم 77 في المائة من المديرين الذكاء الاصطناعي للمساعدة في اتخاذ قرارات الترقية. وتتجاوز أدوات مثل «قادة المستقبل» ذلك، إذ تتيح للمديرين «استشراف» المستقبل.

التقدير البشري لا يزال مهماً

ومع ذلك، وحتى مع دقة تصل إلى 80 في المائة، قد يظل القرار النهائي بشأن من تتم ترقيته مرهوناً بعوامل لا يمكن لأي أداة ذكاء اصطناعي تحديدها. كما أشار موسلي إلى أنه لا يزال من المهم استخدام التقدير البشري، وفي نهاية المطاف، لا يكون الذكاء الاصطناعي فعالاً إلا بقدر فاعلية الإنسان الذي يوجهه.

* مجلة «فاست كومباني»