تهديدات سيبرانية لنظم «الذكاء الصناعي التوليدي»

من «تشات جي بي تي» المحاور إلى «هاك جي بي تي» القرصان

تهديدات سيبرانية لنظم «الذكاء الصناعي التوليدي»
TT

تهديدات سيبرانية لنظم «الذكاء الصناعي التوليدي»

تهديدات سيبرانية لنظم «الذكاء الصناعي التوليدي»

يستخدم المجرمون السيبرانيون منذ سنوات تقنيات الذكاء الصناعي لقرصنة نظم الشركات وتعطيل العمليات التجارية. ولكنّ أدوات الذكاء الصناعي التوليدي كـ«تشات جي بي تي» تضع قادة الأعمال أمام نسقٍ جديدٍ من التحديات.

تأمّلوا السيناريوهات المعقولة التالية:> قرصان يستخدم «تشات جي بي تي» ChatGPT لتوليد رسائل بهدف التصيّد الاحتيالي بناءً على مواد الترويج التي تعتمدها الشركة ورسائل التصيّد التي أثبتت نجاحها في تجارب سابقة، وينجح في خداع الأشخاص المدرّبين جيّداً على تمييز الرسائل الإلكترونية؛ لأنّها لا تبدو كالرسائل التي تدرّبوا على رصدها.> يتّصل روبوت محادثة بموظّف في المحاسبة ويتحدّث مستخدماً صوتاً مزيّفاً يبدو تماماً كصوت المدير. بعد تبادل بعض الطرائف، يطلب «المدير» من الموظّف تحويل آلاف الدولارات إلى حساب «لتسديد فاتورة». يعلم الموظّف أنّه يجب ألّا يفعل ذلك، ولكنّ المدير يمكنه القيام ببعض الاستثناءات، أليس كذلك؟

> يستخدم القراصنة السيبرانيون الذكاء الصناعي لـ«تسميم» المعلومات في أي نظام بشكلٍ واقعي، وصناعة ملفّ قيّم يمكنهم سحبه قبل اكتشاف عملية الاحتيال.

> في رسالة إلكترونية مزيّفة، ولكن مقنعة من إعداد الذكاء الصناعي التوليدي، يناقش أحد المديرين التنفيذيين في الشركة التغطية على عجز مالي. تنتشر الرسالة «المسرّبة» على نطاقٍ واسع بمساعدة جيش من روبوتات المحادثة على التواصل الاجتماعي، فتؤدّي إلى هبوط حاد في أسعار الأسهم وإلى ضررٍ دائم في سمعة الشركة.

قد تبدو هذه السيناريوهات مألوفة جداً للأشخاص الذين يتابعون بعناية قصص مواد «ديب فيك» والفوضى التي تحدثها على التواصل الاجتماعي أو الاختراقات الموجعة في أنظمة تكنولوجيا المعلومات في الشركات، ولكنّ طبيعة التهديدات الجديدة تقع في خانة مختلفة وفئة مخيفة؛ لأنّ التقنية التي تقف خلفها أصبحت «مخيفة أكثر».

- ابتكارات غير معهودة

استخدم معظم الاعتداءات السيبرانية حتّى اليوم منطلقات غير معقّدة. تخيّلوا ملايين التهديدات المتواصلة التي تفتقر إلى الأدمغة وتنجح فقط عندما تقع على نقطة أو نقطتي ضعف في الحاجز الدفاعي. في المقابل، تأتي التهديدات الأكثر تعقيداً – أي الاحتيالات والسرقات الكبرى التي نسمع عنها أحياناً في وسائل الإعلام – على شكل اعتداءات تتطلّب مشاركة بشرية حقيقية لتنجح.

هذا العصر الجديد من البرمجيات المدعومة بالذكاء الصناعي يعني أنّه لم يعد بإمكان الشركات استخدام منطلقات أفضل الممارسات التي كانت فعّالة قبل بضعة أشهر. بمعنى آخر، لن يكفي بعد اليوم أنّ تعتمد الشركات على الدفاع من العمق، أي تطبيق استراتيجية السياسات الأمنية الصحيحة، واستخدام الأدوات التقنية للوقاية والرصد، وتعزيز وعي الموظفين بالقواعد الأمنية؛ لأنّ عصراً جديداً قد بدأ.

باستخدام مجموعات من النصوص والأصوات والرسومات والفيديوهات، سيطلق الذكاء الصناعي التوليدي العنان لابتكارات غير معروفة وغير قابلة للكشف في مجال القرصنة، لا سيّما أنّ الدفاعات الناجعة ضدّها غير قابلة للأتمتة بعد.

- ردع ووقاية ذكية

> مواجهة الذكاء الصناعي التوليدي بالذكاء الصناعي التوليدي. يجب على الشركات أن تستخدم الذكاء الصناعي التوليدي لتقوية قدراتها الدفاعية وتسريع قدرتها على الاستجابة للتهديدات الجديدة في الوقت الحقيقي.

تعمل شركة «أوبن إي.آي». (صانعة «تشات جي بي تي») وغيرها على إطلاق أدوات كـ«جي بي تي. زيرو» GPTZero ستتيح للشركات رصد ما إذا كانت النصوص الجديدة (التي لا تتضمّن توقيعاً قابلاً للتعريف) هي من إنتاج الذكاء الصناعي التوليدي. تستطيع الشركات من خلال إدراج هذه الأدوات في خوادم البريد الإلكتروني تحسين احتمالية حجب رسائل التصيّد المتطوّرة.

ثانياً، من الضروري جداً أن يتحسّن الرصد بالوقت الحقيقي وبسرعة. تعتمد شركات كثيرة على رصد النمط لصدّ الاعتداءات، ولكنّ المشكلة هي أنّ الأنماط تتشكّل بناءً على معلومات من اعتداءات سابقة. لذا؛ ولمواجهة الاعتداءات المدفوعة بالذكاء الصناعي التوليدي، نحتاج إلى عصرٍ جديد من الوقاية «الذكية».

يملك الذكاء الصناعي التوليدي القدرة على تحسين قدرة الشركات على الرصد السريع للاعتلالات في السلوكيات والأفعال بين الموظفين أو أي مكان آخر في قلب أنظمة الشركة. تعدّ سلوكيات الموظفين – والتي يمكن تحديدها من خلال الأنظمة التي يلجون إليها، وكمية البيانات التي يصلون إليها، والجهات التي يتواصلون معها عبر البريد الإلكتروني – قابلة للتوقّع بشكلٍ يومي بحسب المهام الوظيفية الموكلة إليهم؛ الأمر الذي يمكن وصفه ببصمتهم السلوكية. إذا تغيّرت هذه البصمة فجأة ومن دون تعديل في توصيف وظيفتهم، قد يشير هذا الأمر مثلاً إلى وجود محاولة للقرصنة أو سلوك خاطئ من أحد الموظفين.

تستطيع الشركات استخدام الذكاء الصناعي التوليدي مع بعض أدوات الذكاء الصناعي لتحديد مدى الضرر – أو تحديد عدم حصول اختراق. أُعلن أخيراً عن عددٍ لا بأس به من إضافات المتصفّح وتطبيقات الطرف الثالث المطوّرة المدفوعة ببرنامج «جي بي تي - 4»؛ لذا يجب أن نتوقّع إطلاق أدوات أمنية مدعومة بالذكاء الصناعي قريباً.

> تدريب الأفراد على الاعتداءات الأكثر ذكاءً. يبقى السلوك البشري الواعي للأمن ضرورياً وأساسياً للسلامة السيبرانية، ولكنّ الناس يستمرّون في ارتكاب الأخطاء. تعمل حملات توعية كثيرة على توصيف التهديدات القائمة وتقدّم قواعد يجب اتباعها: لا تنقروا على الروابط، واحرصوا على استخدام كلمات مرور قوية، وحدّثوا جميع البرمجيات، والكثير غيرها.

في مجال الذكاء الصناعي التوليدي، يحتاج التدريب الواعي إلى الانتقال من السياسات التي تحكم السلوك إلى الجهوزية المعتمدة على المعرفة التي تتيح للموظف رصد التهديدات الجديدة. بمعنى آخر، يجب على الموظّف أن يعرف ما يكفي من المعلومات عن القرصنة ليتطوّر من مجرّد عارفٍ للقواعد إلى مدافعٍ نشط. مع تقدّم أدوات الذكاء الصناعي التوليدي، فقدت سياسات أمن المعلومات التقليدية فاعليتها؛ لأنّ المقاربة المبنية على القواعد لم تعد ببساطة ناجعة.

تحتاج الشركات إلى التخلّي عن الاستراتيجية المبنية على الامتثال لصالح أخرى يُصار فيها إلى تطوير مهارات الموظف؛ الأمر الذي يتطلّب تدريبات بقيادة مختص، وجهاً لوجه أو عبر الإنترنت، وتطوير المعرفة التي تتخطّى السياسات التقليدية.

باختصار، يمكن القول إنّ أفضل دفاع في وجه الحيل المدعومة بالذكاء الصناعي يكون بالتعلّم من الذكاء الصناعي نفسه، وهذا الأمر لا يعني استراتيجيات دفاعية أسرع وأقوى فقط، بل استراتيجيات أذكى للتقنية والنّاس أيضاً.

لن تستطيعوا مواجهة «الزومبي» الذكي بتعلية السور، ولكن يمكنكم تعزيز الدفاعات التقليدية بأدوات جديدة معززة بالذكاء الصناعي. في عالم جديد ومخيف من «هاك جي بي تي» HackGPT المتسلل والقرصان، يجب أن تبدأوا من اليوم بالتحضير للحفاظ على أمن وسلامة شركاتكم.

- باحثة علوم الكومبيوتر بجامعة ستراثكلايد الأسكوتلندية - بروفسورة النظم المعلوماتية بجامعة مسيسيبي الأميركية - مدرس أقدم في كلية سلاون للإدارة بمعهد ماساشوسيتس للتقنية. «سلاون مانيجمنت ريفيو» - معهد ماساتشوستس للتقنية

ـ خدمات «تريبيون ميديا»


مقالات ذات صلة

تحذير لمستخدمي «ChatGPT»: دعوات مزيفة عبر «أوبن إيه آي»

تكنولوجيا يستغل المحتالون ميزات الدعوات الرسمية في «OpenAI» لإرسال رسائل احتيالية تبدو موثوقة تقنياً (شاترستوك)

تحذير لمستخدمي «ChatGPT»: دعوات مزيفة عبر «أوبن إيه آي»

يحذّر خبراء «كاسبرسكي» من أسلوب احتيالي جديد يستغل دعوات «أوبن إيه آي» الرسمية لخداع مستخدمي «ChatGPT» ودفعهم إلى الروابط والمكالمات الوهمية.

نسيم رمضان (لندن)
تكنولوجيا تُظهر بيانات عام 2025 أن الغالبية العظمى من هجمات التصيد الاحتيالي تستهدف سرقة بيانات تسجيل الدخول للحسابات الإلكترونية (شاترستوك)

47 مليون رابط تصيد احتيالي استهدف مستخدمي الشرق الأوسط خلال عام

تكشف «كاسبرسكي» تصاعد التصيد الاحتيالي في الشرق الأوسط حيث تُسرق بيانات الدخول ويُعاد بيعها، ما يحول الهجمات الفردية إلى مخاطر سيبرانية طويلة الأمد.

نسيم رمضان (لندن)
أوروبا أوضح وزير الداخلية الفرنسي أن الخرق الأمني جرى بسبب ضعف إجراءات «السلامة الرقمية» (رويترز)

سرقة ملفات «حساسة» في هجوم سيبراني على الداخلية الفرنسية

أعلنت الحكومة الفرنسية، الأربعاء، أنه تم «استخراج... بضع عشرات» من السجلات السرية خلال هجوم سيبراني على وزارة الداخلية الفرنسية استمر عدة أيام.

«الشرق الأوسط» (باريس)
شؤون إقليمية رئيس الوزراء الإسرائيلي نفتالي بينيت يتحدث خلال مؤتمر صحافي في القدس يوم 6 يوليو 2021 (رويترز) play-circle 01:59

«عملية الأخطبوط»… قراصنة إيرانيون يزعمون اختراق هاتف رئيس وزراء إسرائيلي سابق

زعمَت مجموعة قرصنة إيرانية تُدعى «حنظلة» (Handala)، يوم الأربعاء، أنها نجحت في اختراق الهاتف المحمول لرئيس الوزراء الإسرائيلي الأسبق نفتالي بينيت.

«الشرق الأوسط» (تل أبيب)
تكنولوجيا معرض «بلاك هات» أفسح مساحة كبيرة للطلاب ضمن فعالياته (تصوير: تركي العقيلي) play-circle

ما الذي يدفع «ناشئين» سعوديين للالتحاق بقطاع الأمن السيبراني؟

أظهر تقرير حديث للهيئة الوطنية للأمن السيبراني في السعودية، أن حجم القوى العاملة في قطاع الأمن السيبراني بالمملكة؛ بلغ أكثر من 21 ألف مختص خلال عام 2024.

غازي الحارثي (الرياض)

تحذير لمستخدمي «ChatGPT»: دعوات مزيفة عبر «أوبن إيه آي»

يستغل المحتالون ميزات الدعوات الرسمية في «OpenAI» لإرسال رسائل احتيالية تبدو موثوقة تقنياً (شاترستوك)
يستغل المحتالون ميزات الدعوات الرسمية في «OpenAI» لإرسال رسائل احتيالية تبدو موثوقة تقنياً (شاترستوك)
TT

تحذير لمستخدمي «ChatGPT»: دعوات مزيفة عبر «أوبن إيه آي»

يستغل المحتالون ميزات الدعوات الرسمية في «OpenAI» لإرسال رسائل احتيالية تبدو موثوقة تقنياً (شاترستوك)
يستغل المحتالون ميزات الدعوات الرسمية في «OpenAI» لإرسال رسائل احتيالية تبدو موثوقة تقنياً (شاترستوك)

حذّر خبراء أمن سيبرانيون مستخدمي «شات جي بي تي» (ChatGPT) ومنصات «أوبن إيه آي» الأخرى من أسلوب احتيالي جديد يستغل آلية إرسال الدعوات داخل المنصة، ما يجعل رسائل احتيالية تبدو وكأنها صادرة رسمياً من «أوبن إيه آي».

وبحسب رصد حديث أجرته شركة «كاسبرسكي»، فقد اكتشف باحثوها أن مهاجمين باتوا يسيئون استخدام ميزات إنشاء «المؤسسات» ودعوة أعضاء الفريق في منصة «OpenAI» لإرسال رسائل احتيالية من عناوين بريد إلكتروني حقيقية تعود إلى الشركة نفسها. هذا الأمر يمنح الرسائل مصداقية تقنية عالية، ويزيد من فرص تجاوزها لفلاتر البريد المزعج وكسب ثقة المتلقين.

ولا يعتمد هذا الأسلوب على اختراق أنظمة «أوبن إيه آي»، بل على التلاعب بخصائص مشروعة صُممت في الأصل لتسهيل التعاون والعمل الجماعي، ثم تحويلها إلى أداة للهندسة الاجتماعية.

مثال على رسالة بريد إلكتروني احتيالية (كاسبرسكي)

كيف تعمل الحيلة؟

تبدأ العملية بإنشاء حساب عادي على منصة «أوبن إيه آي». وخلال التسجيل، يُطلب من المستخدم إنشاء «مؤسسة» وتحديد اسم لها. هذا الحقل مخصص عادة لاسم شركة أو فريق، لكنه يسمح بإدخال رموز ونصوص متنوعة.

يستغل المحتالون هذه المرونة لإدراج عبارات مضللة مباشرة في اسم المؤسسة، مثل رسائل تحذيرية أو عروض زائفة، وأحياناً أرقام هواتف أو روابط مشبوهة. وبعد إنشاء المؤسسة، تقترح المنصة خطوة «دعوة فريقك»، حيث يُدخل المهاجمون عناوين البريد الإلكتروني للضحايا المستهدفين.

عند إرسال الدعوات، تصل الرسائل من عناوين رسمية تابعة لـ«أوبن إيه آي»، وتظهر للمتلقي على أنها إشعار حقيقي لإضافته إلى مشروع أو فريق عمل. ويحتوي البريد الإلكتروني على القالب المعتاد لدعوات التعاون، لكن النص الاحتيالي الذي أدرجه المهاجم يظهر بشكل بارز داخل الرسالة. ويراهن المحتالون على أن كثيراً من المستخدمين سيركزون على العنوان الموثوق والرسالة المظللة، دون الانتباه إلى عدم منطقية المحتوى أو سبب تلقيهم دعوة لمؤسسة غير معروفة.

أنماط الرسائل الاحتيالية

رصدت «كاسبرسكي» عدة أنواع من الرسائل التي جرى تمريرها بهذه الطريقة. بعضها يروج لخدمات أو عروض احتيالية، بينما يتخذ الآخر طابعاً أكثر خطورة. أحد الأساليب الشائعة هو إرسال إشعارات كاذبة تفيد بتجديد اشتراك مرتفع التكلفة. وتطلب الرسالة من الضحية الاتصال برقم هاتف مرفق «لإلغاء العملية». هذا النوع من الهجمات يُعرف بـ«التصيد الصوتي» (Vishing)، حيث يحاول المحتالون أثناء المكالمة إقناع الضحية بالكشف عن بيانات شخصية أو مالية، أو تنفيذ خطوات تؤدي إلى اختراق إضافي. وفي جميع الحالات، يبقى الهدف دفع المتلقي إلى التصرف بسرعة، سواء عبر الضغط على رابط أو إجراء مكالمة قبل التحقق من صحة الرسالة.

تعتمد الحيلة على إدراج نصوص مضللة داخل اسم «المؤسسة» ثم إرسال دعوات تصل من عناوين بريد رسمية (غيتي)

لماذا تبدو الرسائل مقنعة؟

تكمن خطورة هذا الأسلوب في أن الرسائل ليست مزورة بالطريقة التقليدية. فهي تُرسل عبر قنوات رسمية وتخرج من بنية بريدية حقيقية تابعة للمنصة. لذلك، يختفي كثير من الإشارات التحذيرية المعتادة، مثل عناوين المرسل المشبوهة. ورغم أن محتوى الرسالة غالباً ما يكون غير منسجم مع قالب «دعوة للتعاون»، فإن هذا التناقض قد لا يكون واضحاً للجميع، خصوصاً لمن لا يتوقعون أن تُستغل منصة موثوقة بهذا الشكل. ويرى خبراء أمنيون أن هذه الحالة تسلط الضوء على مشكلة أوسع. حتى الخدمات ذات السمعة الجيدة يمكن أن تتحول إلى أدوات في يد المحتالين إذا أسيء استخدام ميزاتها.

ما الذي ينبغي فعله؟

بالنسبة لمستخدمي «تشات جي بي تي» ومنصات «أوبن إيه آي» عموماً، تشكل هذه الحملة تذكيراً بأهمية الحذر، حتى عند تلقي رسائل تبدو رسمية. وينصح الخبراء بالتعامل مع أي دعوة غير متوقعة بشكّ، خصوصاً إذا تضمنت لغة استعجال أو مطالب مالية أو أرقام هواتف. كما يُفضل تجنب الضغط على الروابط المضمنة أو الاتصال بالأرقام المذكورة في رسائل مشبوهة. وإذا كانت هناك حاجة فعلية للتواصل مع الدعم، فمن الأفضل زيارة الموقع الرسمي للخدمة والبحث عن بيانات الاتصال هناك.

كما أن الإبلاغ عن الرسائل المشبوهة للمنصة يساعد في الحدّ من انتشارها، في حين يظل تفعيل المصادقة الثنائية خطوة مهمة لتعزيز الأمان، حتى إن لم يعتمد هذا النوع من الاحتيال على اختراق الحسابات مباشرة. ورغم أن هذه الحملة تستهدف الأفراد، فإنها تطرح أيضاً تساؤلات أوسع أمام الشركات التي تدير منصات تعاونية. فالأدوات المصممة لتسهيل الانضمام والعمل الجماعي قد تتحول إلى نقاط ضعف إذا لم تُقيّد أو تُراقب بشكل كافٍ.


ماذا يعني أن تصبح «سيري» شبيهة بـ«ChatGPT»؟

تعمل «أبل» على إعادة تصميم «سيري» لتتحول من منفذة أوامر إلى مساعد حواري سياقي شبيه بـ«ChatGPT» (شاترستوك)
تعمل «أبل» على إعادة تصميم «سيري» لتتحول من منفذة أوامر إلى مساعد حواري سياقي شبيه بـ«ChatGPT» (شاترستوك)
TT

ماذا يعني أن تصبح «سيري» شبيهة بـ«ChatGPT»؟

تعمل «أبل» على إعادة تصميم «سيري» لتتحول من منفذة أوامر إلى مساعد حواري سياقي شبيه بـ«ChatGPT» (شاترستوك)
تعمل «أبل» على إعادة تصميم «سيري» لتتحول من منفذة أوامر إلى مساعد حواري سياقي شبيه بـ«ChatGPT» (شاترستوك)

تستعد «سيري»، المساعد الصوتي من شركة «أبل»، لأكبر تحول في تاريخها منذ إطلاقها قبل أكثر من عقد. فحسب تقارير متطابقة من وسائل إعلام تقنية، تعمل «أبل» على إعادة تصميم «سيري» لتتحول من أداة تعتمد على الأوامر الصوتية البسيطة إلى مساعد حواري متقدم، قادر على إجراء محادثات سياقية طويلة، على غرار «شات جي بي تي» (ChatGPT) وغيره من روبوتات الدردشة التوليدية.

لطالما واجهت «سيري» انتقادات بسبب محدودية فهمها للغة الطبيعية مقارنة بمنافسين مثل مساعد «غوغل» ونماذج الذكاء الاصطناعي التوليدي الحديثة. ففي الوقت الذي أصبحت فيه روبوتات الدردشة قادرة على تلخيص المعلومات وشرح المفاهيم المعقدة، والتفاعل مع المستخدمين بسلاسة، بقيت «سيري» مرتبطة بمهام أساسية، مثل ضبط المنبهات أو فتح التطبيقات، مع تحسينات تدريجية لم تغيّر جوهر التجربة.

اليوم، يبدو أن «أبل» تعترف بأن هذا النهج لم يعد كافياً.

من الأوامر إلى الحوار

تُشير التقارير إلى أن «أبل» تعمل على تحويل «سيري» إلى مساعد حواري متكامل، يستطيع متابعة السياق والرد عبر الصوت أو النص، والتعامل مع الأسئلة المركبة بطريقة أكثر طبيعية. ويُمثل هذا التحول قطيعة مع التصميم التقليدي لـ«سيري»، الذي بُني أساساً على تنفيذ أوامر محددة بدلاً من إجراء حوار مفتوح.

ووفق ما نُشر، تعتمد «أبل» في هذه المرحلة على دمج تقنيات ذكاء اصطناعي توليدي متقدمة، من بينها نماذج مثل «جيميناي» من «غوغل» ضمن إطارها الخاص المعروف باسم «ذكاء أبل» (Apple Intelligence). ولا يعني ذلك التخلي عن تطويرها الداخلي، بل الاستفادة من أفضل النماذج المتاحة لتعزيز قدرات «سيري» اللغوية والحوارية. الهدف هو جعل التفاعل مع «سيري» أقرب إلى محادثة حقيقية، بدلاً من سلسلة أوامر منفصلة، وهو ما أصبح معياراً جديداً في عالم المساعدات الذكية.

«سيري» ستستفيد من «غوغل جيميناي» لتعزيز الحوار والسياق ضمن توجه «أبل» لمواكبة الذكاء الاصطناعي التفاعلي (شاترستوك)

استجابة متأخرة

يأتي هذا التحول فيما تتسارع المنافسة على الذكاء الاصطناعي الحواري، فقد اعتاد المستخدمون خلال العامين الماضيين أدوات قادرة على إنتاج نصوص وشرح أفكار والمساعدة في التخطيط واتخاذ القرار. وفي المقابل، بدا أن «أبل» تتحرك بوتيرة أبطأ، مع تركيز واضح على الخصوصية والاستقرار بدل السبق التقني.

ورغم أن الشركة بدأت سابقاً دمج «ChatGPT» خياراً مساعداً ضمن بعض ميزات «ذكاء أبل»، فإن هذه الخطوة أبرزت الفجوة بين «سيري» التقليدية وتجربة الدردشة التوليدية الحديثة. ومع تزايد الاعتماد اليومي على هذه الأدوات، بات من الصعب على «أبل» تجاهل التحول الجاري في طريقة تفاعل المستخدمين مع التقنية.

الخصوصية في التصميم

على عكس بعض المنافسين، لا يبدو أن «أبل» تسعى إلى تحويل «سيري» إلى مجرد واجهة لخدمة سحابية خارجية، فالتقارير تشير إلى أن جزءاً كبيراً من المعالجة سيجري على الجهاز نفسه أو عبر خوادم خاضعة لسيطرة «أبل»، بما ينسجم مع سياستها التقليدية في تقليل جمع البيانات وحماية خصوصية المستخدم. هذا التوازن بين القدرات المتقدمة والخصوصية قد يكون العامل الفارق في تجربة «سيري» الجديدة، لكنه في الوقت نفسه يفرض قيوداً تقنية قد تؤثر في سرعة التطوير مقارنة بمنافسين يعتمدون بشكل أوسع على الحوسبة السحابية.

«سيري» الجديدة تستهدف التكامل العميق مع النظام لفهم ما على الشاشة وربط التطبيقات وتنفيذ مهام متعددة بطلب واحد (شاترستوك)

أكثر من دردشة

ولا يقتصر طموح «أبل» على جعل «سيري» أكثر بلاغة فحسب، بل على جعلها أكثر فاعلية، فالتقارير تُشير إلى أن النسخة الجديدة ستكون قادرة على فهم ما يجري على شاشة الجهاز، وربط المعلومات بين التطبيقات، وتنفيذ مهام متعددة بناءً على طلب واحد بلغة طبيعية. بهذا المعنى، لا تسعى «أبل» إلى تقديم «روبوت دردشة» فقط، بل إلى مساعد ذكي قادر على التحرك داخل النظام، وإدارة المهام اليومية، والتفاعل مع محتوى المستخدم وسياقه. وهذا يعكس توجهاً أوسع في صناعة التقنية نحو ما يُعرف بـ«الذكاء القابل للتنفيذ»؛ حيث لا يكتفي النظام بالإجابة بل يتخذ إجراءً.

ماذا يعني ذلك للمستخدمين؟

من المتوقع أن تكشف «أبل» عن ملامح هذا التحول خلال مؤتمرها السنوي للمطورين في شهر يونيو (حزيران) المقبل، على أن تُطرح التجربة الجديدة ضمن الإصدارات المقبلة من أنظمة «iOS» و«macOS» و«iPadOS». وإذا نجحت الشركة في تنفيذ رؤيتها، فقد تصبح «سيري» جزءاً أكثر مركزية في الحياة الرقمية اليومية لمستخدمي أجهزة «أبل».

لكن التحدي لا يزال قائماً، فالمستخدمون الذين اعتادوا مرونة وسرعة أدوات مثل «ChatGPT» ستكون لديهم توقعات عالية. وسيُقاس نجاح «سيري» الجديدة بمدى قدرتها على الجمع بين الحوار العميق، والتنفيذ العملي، والخصوصية من دون التضحية بتجربة الاستخدام.


روبوتات تفكر وتتحرك: ما الذي يميّز «Rho-Alpha» من «مايكروسوفت»؟

نموذج «Rho-Alpha» يدمج الرؤية واللغة والفعل في إطار تعلم واحد ما يمكّن الروبوتات من التفاعل مع العالم المادي بمرونة أعلى (مايكروسوفت)
نموذج «Rho-Alpha» يدمج الرؤية واللغة والفعل في إطار تعلم واحد ما يمكّن الروبوتات من التفاعل مع العالم المادي بمرونة أعلى (مايكروسوفت)
TT

روبوتات تفكر وتتحرك: ما الذي يميّز «Rho-Alpha» من «مايكروسوفت»؟

نموذج «Rho-Alpha» يدمج الرؤية واللغة والفعل في إطار تعلم واحد ما يمكّن الروبوتات من التفاعل مع العالم المادي بمرونة أعلى (مايكروسوفت)
نموذج «Rho-Alpha» يدمج الرؤية واللغة والفعل في إطار تعلم واحد ما يمكّن الروبوتات من التفاعل مع العالم المادي بمرونة أعلى (مايكروسوفت)

يشهد الذكاء الاصطناعي تقدماً سريعاً في فهم اللغة والصور، إلا أن تحويل هذا الذكاء إلى أفعال ملموسة في العالم الحقيقي لا يزال أحد أكثر التحديات تعقيداً في مجال الحوسبة. وفي هذا السياق، تخطو أبحاث «مايكروسوفت» خطوة مهمة نحو سد هذه الفجوة، من خلال الكشف عن أعمال جديدة تهدف إلى تمكين الروبوتات من الإدراك والتفكير والتنفيذ بفاعلية أكبر داخل البيئات المادية الديناميكية.

وفي صميم هذا التوجه يأتي نموذج جديد يُعرف باسم «Rho-Alpha»، وهو نموذج يجمع بين الرؤية واللغة والفعل، ويهدف إلى مساعدة الروبوتات على تجاوز السلوكيات المبرمجة مسبقاً، والعمل بدرجة أعلى من الاستقلالية. ويعكس هذا النموذج طموح «مايكروسوفت» الأوسع في تطوير أنظمة ذكاء اصطناعي لا تكتفي بفهم المعلومات الرقمية، بل قادرة أيضاً على التفاعل مع العالم الفيزيائي بطرق أكثر مرونة وواقعية.

دمج الإدراك والفعل

على عكس الأنظمة الروبوتية التقليدية التي تعتمد على سلاسل هندسية منفصلة حيث تُعالج الرؤية والتخطيط والتحكم كوحدات مستقلة، يدمج نموذج «Rho-Alpha» هذه القدرات ضمن إطار تعلم واحد. ويتم تدريب النموذج على تحليل المدخلات البصرية، وفهم التعليمات باللغة الطبيعية، وتوليد أفعال جسدية مناسبة، ما يسمح للروبوتات بالاستجابة بسلاسة أكبر للمهام المعقدة.

ويعالج هذا النهج أحد التحديات المزمنة في عالم الروبوتات، المعروف بمشكلة «الميل الأخير». فعلى الرغم من قدرة نماذج الذكاء الاصطناعي على التعرف على الأشياء أو تنفيذ أوامر محددة، فإنها غالباً ما تفشل عند حدوث تغييرات غير متوقعة في البيئة. فاختلاف بسيط في الإضاءة أو موقع الأجسام أو سلوك البشر قد يؤدي إلى تعطل الأنظمة التقليدية. وتسعى أبحاث «مايكروسوفت» إلى جعل الروبوتات أكثر قدرة على التكيف من خلال ربط قراراتها بالسياق الواقعي بدلاً من القواعد الجامدة.

تعلم يتجاوز المختبر

يستند نموذج «Rho-Alpha» إلى التطورات الحديثة في النماذج التأسيسية، مستفيداً من مفاهيم النماذج اللغوية الضخمة والأنظمة متعددة الوسائط، مع تكييفها لمتطلبات التفاعل المادي. وبدلاً من تعلم المهام بشكل منفصل، يستطيع النموذج التعميم عبر سيناريوهات مختلفة، ما يمكّن الروبوتات من التعامل مع أشياء أو تعليمات لم تُصادفها صراحة أثناء التدريب. وتُعد هذه القدرة أساسية لنشر الروبوتات خارج المختبرات والبيئات الخاضعة للتحكم. وتصف أبحاث «مايكروسوفت» هذا العمل بأنه جزء من رؤية أوسع لما يُعرف بـ«الذكاء الاصطناعي المتجسد»، حيث يتشكل الذكاء ليس فقط من البيانات، بل من التفاعل المباشر مع العالم المادي. وفي هذا الإطار، تصبح الرؤية والفعل عنصرين متلازمين، ما يسمح للآلات بالتعلم من التجربة بأسلوب أقرب إلى السلوك البشري.

آفاق التطبيق العملي

تتعدد التطبيقات المحتملة لهذه التقنيات عبر قطاعات مختلفة. ففي البيئات الصناعية، يمكن للروبوتات الأكثر مرونة دعم مهام التصنيع والخدمات اللوجيستية التي تتطلب إعادة تهيئة مستمرة. أما في مجالات الرعاية الصحية والخدمات، فقد تساعد هذه الأنظمة في تنفيذ أنشطة يومية تتطلب تفاعلاً مباشراً مع البشر وبيئات غير متوقعة. ورغم أن «مايكروسوفت» لم تعلن عن منتجات تجارية قائمة على «Rho-Alpha»، فإن هذا البحث يسلط الضوء على قدرات أساسية قد تُمهّد لتطبيقات مستقبلية.

تؤكد «مايكروسوفت» أن التقدم في مجال الذكاء الاصطناعي للعالم المادي لا يقتصر على الأداء التقني فحسب، بل يشمل أيضاً اعتبارات السلامة والموثوقية ومواءمة الأنظمة مع النيات البشرية. فالروبوتات ذاتية التشغيل يجب أن تكون قادرة على فهم التعليمات بدقة، والتعامل مع الحالات الاستثنائية، خصوصاً في البيئات المشتركة مع البشر. لذلك، لا تركز الأبحاث على تعزيز القدرات فقط، بل أيضاً على المتانة والتصميم المسؤول.

يعتمد النموذج على مفهوم الذكاء الاصطناعي المتجسّد حيث يتعلم الروبوت من التجربة المباشرة والتفاعل مع البيئة كما يفعل البشر (مايكروسوفت)

من الذكاء إلى الفعل

يعكس إطلاق نموذج «Rho-Alpha» تحولاً أوسع في صناعة التكنولوجيا. فمع تزايد قدرات الذكاء الاصطناعي في السياقات الرقمية، يتجه الاهتمام تدريجياً نحو كيفية تجسيد هذه القدرات في آلات تعمل في العالم الحقيقي. ويطرح هذا التحول أسئلة جديدة حول جمع البيانات والمحاكاة وطرق التقييم، نظراً لأن البيئات المادية أقل قابلية للتنبؤ مقارنة بالبيئات الافتراضية.

وتشير أبحاث «مايكروسوفت» إلى أن المرحلة المقبلة من تطور الذكاء الاصطناعي لن تُقاس فقط بذكاء النماذج، بل بقدرتها على تحويل هذا الذكاء إلى أفعال ملموسة. ومن خلال توحيد الرؤية واللغة والتحكم ضمن إطار واحد، يمثل نموذج «Rho-Alpha» محطة بحثية مهمة في مسار جعل الذكاء الاصطناعي أكثر حضوراً وفاعلية خارج نطاق الشاشات والخوادم.

ومع تلاشي الحدود بين الذكاء الرقمي والأنظمة المادية، قد تُسهم مثل هذه التطورات في إعادة تشكيل طريقة تعاون الروبوتات مع البشر عبر مختلف القطاعات، في تحول تدريجي من آلات مبرمجة إلى شركاء أكثر وعياً بالسياق وقدرة على التكيف مع العالم الحقيقي.