موجة من الصور ومقاطع الفيديو الزائفة تجتاح «طوفان الأقصى»

ألعاب فيديو تزعم أنها من ساحة الحرب

يرى مراقبون أنه لا يمكن اعتبار وسائل التواصل الاجتماعي مصدراً للأخبار بل هي وسيلة لنشر المصادر فقط (شاترستوك)
يرى مراقبون أنه لا يمكن اعتبار وسائل التواصل الاجتماعي مصدراً للأخبار بل هي وسيلة لنشر المصادر فقط (شاترستوك)
TT

موجة من الصور ومقاطع الفيديو الزائفة تجتاح «طوفان الأقصى»

يرى مراقبون أنه لا يمكن اعتبار وسائل التواصل الاجتماعي مصدراً للأخبار بل هي وسيلة لنشر المصادر فقط (شاترستوك)
يرى مراقبون أنه لا يمكن اعتبار وسائل التواصل الاجتماعي مصدراً للأخبار بل هي وسيلة لنشر المصادر فقط (شاترستوك)

في العصر الرقمي الذي نعيشه اليوم، لا يمكن الاستهانة بقوة العناصر المرئية في تشكيل وسرد القصص والأخبار. ومنذ بدء عملية «طوفان الأقصى» التي تشهد تصعيداً كبيراً، يستمر طوفان الصور ومقاطع الفيديو على منصات التواصل الاجتماعي، التي توثقها كاميرات المراسلين في الغالب، وأخرى يوثقها المدنيون بكاميرات هواتفهم الشخصية.

لكن ليس كل ما يتدفق من مواد هو حقيقي؛ بل قد تظهر صور ومقاطع فيديو مزيفة تؤدي إلى تضليل المشاهد، حتى وسائل الإعلام أحياناً.

من حسابات زائفة قد تنتحل شخصية صحافيين، إلى مشاهد من ألعاب فيديو حربية تُنشر على أنها حقيقية، كلها تضع منصات التواصل الاجتماعي أمام صعوبات لاحتواء موجة من المعلومات المضللة حول الحرب الدائرة بين إسرائيل وغزة.

الأخبار الكاذبة يمكن أن تؤدي إلى تضخيم الأحداث على الأرض أو تحريفها تماماً وتغيير الرأي العام ( شاترستوك)

سيل من الخداع

يقول باحثون في مجال التحقق من المعلومات المضللة: إن مستخدمي وسائل التواصل الاجتماعي يشاهدون كماً كبيراً من صور الحرب الزائفة، ومقاطع فيديو قديمة من سوريا أعيد نشرها لتبدو كأنها مصورة في غزة، ولقطات من ألعاب فيديو يتم تمريرها على أنها مشاهد من هجوم حركة «حماس».

على سبيل المثال، انتشرت صورة على الإنترنت يُزعم أنها تظهر جنوداً إسرائيليين أَسَرتهم حركة «حماس»، إلا أن صحافيي خدمة تقصّي صحّة الأخبار في وكالة «الصحافة الفرنسية» وجدوا أن الصورة التُقطت عام 2022 خلال تدريب عسكري في غزة.

هذه الصورة ملتقطة عام 2022 خلال مناورة في غزة وليست لجنود إسرائيليين أَسَرتهم «حماس» خلال عملية «طوفان الأقصى» (أ.ف.ب)

وفي مثال آخر، انتشر مقطع فيديو على نطاق واسع، ولأكثر من مليون مرة على وسائل التواصل الاجتماعي، يظهر فيه رجل فلسطيني ملثم يطلق النار على طائرة مروحية إسرائيلية، والتي تسقط بعد ذلك. تم الكشف عن أن الفيديو مزيف، وقد تم إنشاؤه باستخدام تقنية «التلاعب» بعد أن دمجت لقطات من لعبة الفيديو «أرما 3» مع لقطات من الحرب في غزة، بعد ملاحظة وجود عدد من العلامات تشمل أشياء غير منطقية فيه، مثل عدم حدوث تفاعل بين الطيار وإطلاق النار، واختلافات في جودة الفيديو.

فيديو مزيف آخر تم اكتشافه من قبل موقع «FactCheck.org» يزعم أن مجموعة من الناس يهاجمون امرأة إسرائيلية، وأن تصويره تم في غزة. لكن تبيَّن من خلال التحقيق أن التصوير حصل في غواتيمالا لحملة إعلانية عام 2015. وبعد تداوله على نطاق واسع على وسائل التواصل الاجتماعي، لاحظ موقع «FactCheck.org» وجود عدد من العلامات التي تشير إلى إنشائه باستخدام تقنية التلاعب بالفيديو، وعدم وجود رد فعل من المرأة التي تعرضت للهجوم، واختلافات في جودة الفيديو أيضاً.

وسائل التواصل والمعلومات الحقيقية

يلجأ الناس في أوقات الأزمات والحروب والكوارث الطبيعية إلى منصات التواصل الاجتماعي؛ للحصول على المعلومات؛ حيث يعد الحصول عليها أمراً سهلاً وسريعاً ومجانياً. قد يفتح ذلك شهية المخادعين الذين ينشرون الأكاذيب والكراهية بحثاً عن التفاعل والمتابعين، إضافة إلى الخوارزميات التي تنشر هذا المحتوى المثير للقلق، ما يطرح سؤالاً عن كون وسائل التواصل الاجتماعي مكاناً موثوقاً للحصول على المعلومات.

يقول أحمد الشيخ، خبير الدور السياسي لمنصات التواصل الاجتماعي، في حديث لـ«الشرق الأوسط» من لندن: «إنه لا يمكن اعتبار وسائل التواصل الاجتماعي مصدراً للأخبار؛ بل هي وسيلة لنشر المصادر» التي قد تكون موثوقة أو غير موثوقة. ويعتبر أن دور المستخدم يكمن في اختيار المصادر الموثوق بها. أما بالنسبة لنقل الأحداث المباشرة عبر وسائل التواصل الاجتماعي، يقول أحمد الشيخ: إن ذلك قد يجعل المصدر موثوقاً «للمدة التي يتم فيها نقل الحدث»، لكن لا يجعله مصدراً للحدث بشكل عام. وهنا يظهر جانب آخر من مشاكل التواصل الاجتماعي؛ حيث إنها تركز على جزء من الحدث وليس على الحدث كله، بحكم توجهات الناقل السياسية أو الاجتماعية، أو إمكاناته المادية واللوجستية، ما يعني عدم اعتداده مصدراً لنقل الأخبار.

التحقق من المعلومات

ما يزيد الطين بلة، هو أن منصات التواصل الاجتماعي تبدو كأنها تتخلى عن جهودها الرامية إلى إبراز المعلومات الجيّدة أو الحقيقية، وخصوصاً مع عمليات تسريح موظفين، وخفض التكاليف التي طالت فرق الأمن والسلامة، ما يعيق قدرتها على التعامل مع هذه الفوضى، وخصوصاً وقت الأزمات. وما يفاقم المشكلة -حسب مراقبين- أنه مثلاً في منصة «إكس» المملوكة لإيلون ماسك، يوجد عدد كبير من الإجراءات المثيرة للجدل، كإعادة تفعيل حسابات تروج لمؤامرات زائفة، ووضع برنامج لمشاركة عائدات الإعلانات مع صانعي المحتوى، ما يحفّز البحث عن التفاعل بدلاً من توخي الدقة.

يعتبر أحمد الشيخ، خبير الدور السياسي لمنصات التواصل الاجتماعي، في حديثه لـ«الشرق الأوسط»، أن «إكس» كغيرها من وسائل التواصل الاجتماعي تعيش فوضى توثيق الحسابات بالعلامة الزرقاء؛ حيث كانت في السابق تعتبر الحسابات الموثقة -نوعاً ما- مصدراً للخبر. لكن الآن يمكن لأي شخص توثيق حسابه مقابل مبلغ مالي قليل (8 دولارات) ما أدى إلى سيل من الأخبار الزائفة التي تؤثر على المستخدمين الذين لا يمكن أن يثقوا غالباً في تلك العلامات الزرقاء، واعتبارها تمثل جهات رسمية أو شخصيات حقيقية.

الملياردير الأميركي إيلون ماسك صاحب منصة «إكس» (أ.ف.ب)

آثار التزييف والتضليل

في الوقت الذي يكون من الصعب فيه إحصاء الآثار السلبية الناجمة عن المعلومات المضللة في أثناء الحروب والكوارث، يمكن أن تؤدي إلى تضخيم الأحداث على الأرض أو تحريفها تماماً. كما قد ينتج عنها تحريف الرأي العام، وصعوبة فهم الأطراف المحايدة للوضع الفعلي، واستنتاج تحليلات أو تدخلات خاطئة. ويعتبر البعض أنه من خلال الأدوات الرقمية المتاحة لها، يمكن للأحزاب استخدام المحتوى المزيف سلاحاً للدعاية، وتعميق الانقسامات، وإعاقة عمليات السلام. والأخطر من ذلك هو ما قد يتحمله المدنيون الذين غالباً ما يقعون في مرمى النيران.

هذا بالإضافة إلى أن وطأة ردود الفعل على التقارير الكاذبة، وما قد تثيره الصور ومقاطع الفيديو من مشاعر، يمكن أن يدفعا الأفراد نحو آراء أو أفعال متطرفة. وغالباً ما يقع هؤلاء ضحية للتحيز؛ حيث يعتقدون بالمعلومات التي تتوافق مع وجهات نظرهم. ويمكن للمحتوى المزيف أن يعزز هذه التحيزات، ما يزيد من ترسيخ الانقسامات.

يتم إنتاج فيديوهات مزيفة باستخدام تقنية «التلاعب» ودمج لقطات من أحداث سابقة أو ألعاب إلكترونية ( شاترستوك)

ما الحل؟

ليس هناك جواب واضح لذلك، أو عملية حسابية متوفرة تساعد مستخدمي وسائل التواصل الاجتماعي. لكن خبير الدور السياسي لمنصات التواصل الاجتماعي، أحمد الشيخ، يقول لـ«الشرق الأوسط»: إن أبسط ما يمكن أن يقوم به المستخدم هو «اللجوء إلى المصادر الموثوقة، مثل حسابات تمثل وزارات الصحة، أو منظمات رسمية، أو وزارات الخارجية، وبالطبع وسائل الإعلام الكبرى ووكالات الأنباء».

كما يمكن تطوير أدوات للتحقق من صحة المعلومات، تمكّن الذكاء الاصطناعي من التعرف على المضللة منها، وتحديد مقاطع الفيديو المزيفة، أو استخدام خاصية البحث العكسي التي توفرها «غوغل»؛ لإيجاد مصدر صورة أو فيديو ما. كما يساعد إنشاء وحدات متخصصة في التحقق من صحة المعلومات على وسائل التواصل الاجتماعي، أو المؤسسات الإخبارية التي تستطيع العمل على إزالة المعلومات المضللة ونشر تلك الصحيحة.

إضافة إلى ذلك، يعدّ تثقيف المستخدمين حول كيفية التحقق من صحة المعلومات على وسائل التواصل الاجتماعي أمراً لا يقل أهمية، عبر نشر مقاطع الفيديو التعليمية والمقالات التعريفية. والأهم أيضاً أن يكون المستخدمون أنفسهم على دراية بالمخاطر المرتبطة بمشاركتهم للمعلومات المضللة؛ حيث يمكن أن يؤدي ذلك إلى تفاقم التوترات ونشر الكراهيَة.


مقالات ذات صلة

كيف نقلت إسرائيل «الخط الأصفر» إلى عمق حي مدمّر في غزة

المشرق العربي صورة عامة لمنازل مدمرة في مناطق حددها الجيش الإسرائيلي بـ«الخط الأصفر» شرق مدينة غزة 16 يناير 2026 (رويترز)

كيف نقلت إسرائيل «الخط الأصفر» إلى عمق حي مدمّر في غزة

أظهرت صور التقطتها أقمار اصطناعية أن إسرائيل نقلت كتلاً ترسم الخط الفاصل بموجب الاتفاق المبرم مع حركة «حماس» إلى عمق أحد أحياء المدينة في ديسمبر (كانون الأول).

«الشرق الأوسط» (غزة)
الخليج الرئيس دونالد ترمب يصفق بعد توقيع الأمير فيصل بن فرحان على ميثاق تأسيس «مجلس السلام» في دافوس الخميس (أ.ف.ب)

السعودية تُوقِّع على ميثاق تأسيس «مجلس السلام»

وقَّع الأمير فيصل بن فرحان وزير الخارجية السعودي، الخميس، على ميثاق تأسيس «مجلس السلام» في غزة، بحضور الرئيس الأميركي دونالد ترمب، على هامش «دافوس 2026».

«الشرق الأوسط» (دافوس)
أوروبا باريس تقول إنها لن تنضم في الوقت الراهن إلى «مجلس السلام» الذي ‌اقترحه الرئيس ‌الأميركي ‌دونالد ⁠ترمب (أ.ف.ب)

فرنسا: لن ننضم إلى «مجلس السلام» في الوقت الراهن

قال المتحدث ​باسم وزارة الخارجية الفرنسية، الخميس، إن باريس لن تنضم ​في ‌الوقت الراهن إلى «مجلس السلام»، الذي ‌اقترحه الرئيس ‌الأميركي ‌دونالد ⁠ترمب.

«الشرق الأوسط» (باريس)
الولايات المتحدة​ الرئيس الأميركي دونالد ترمب خلال التوقيع على ميثاق مبادرة «مجلس السلام» في دافوس (أ.ف.ب)

ترمب يوقّع الميثاق التأسيسي لـ«مجلس السلام»

وقّع الرئيس الأميركي، دونالد ترمب، الخميس، ميثاق ما يُسمى «مجلس السلام»، الذي وصفه بأنه هيئة لحل النزاعات الدولية، وذلك بحضور الأعضاء المؤسسين الآخرين.

«الشرق الأوسط» (دافوس)
شمال افريقيا الرئيس الأميركي دونالد ترمب يصافح الرئيس المصري عبد الفتاح السيسي خلال اجتماع ثنائي على هامش الاجتماع السنوي للمنتدى الاقتصادي العالمي في دافوس 21 يناير 2026 (أ.ف.ب)

ترمب يسعى لعقد لقاء بين زعيمي مصر وإثيوبيا بشأن «سد النهضة»

قال الرئيس الأميركي دونالد ترمب إن لدى أميركا علاقة رائعة وقوية مع مصر، وأوضح أنه سيحاول عقد لقاء بين زعيمي مصر وإثيوبيا للوصول إلى اتفاق بشأن «سد النهضة».

«الشرق الأوسط» (دافوس)

تحذير لمستخدمي «ChatGPT»: دعوات مزيفة عبر «أوبن إيه آي»

يستغل المحتالون ميزات الدعوات الرسمية في «OpenAI» لإرسال رسائل احتيالية تبدو موثوقة تقنياً (شاترستوك)
يستغل المحتالون ميزات الدعوات الرسمية في «OpenAI» لإرسال رسائل احتيالية تبدو موثوقة تقنياً (شاترستوك)
TT

تحذير لمستخدمي «ChatGPT»: دعوات مزيفة عبر «أوبن إيه آي»

يستغل المحتالون ميزات الدعوات الرسمية في «OpenAI» لإرسال رسائل احتيالية تبدو موثوقة تقنياً (شاترستوك)
يستغل المحتالون ميزات الدعوات الرسمية في «OpenAI» لإرسال رسائل احتيالية تبدو موثوقة تقنياً (شاترستوك)

حذّر خبراء أمن سيبرانيون مستخدمي «شات جي بي تي» (ChatGPT) ومنصات «أوبن إيه آي» الأخرى من أسلوب احتيالي جديد يستغل آلية إرسال الدعوات داخل المنصة، ما يجعل رسائل احتيالية تبدو وكأنها صادرة رسمياً من «أوبن إيه آي».

وبحسب رصد حديث أجرته شركة «كاسبرسكي»، فقد اكتشف باحثوها أن مهاجمين باتوا يسيئون استخدام ميزات إنشاء «المؤسسات» ودعوة أعضاء الفريق في منصة «OpenAI» لإرسال رسائل احتيالية من عناوين بريد إلكتروني حقيقية تعود إلى الشركة نفسها. هذا الأمر يمنح الرسائل مصداقية تقنية عالية، ويزيد من فرص تجاوزها لفلاتر البريد المزعج وكسب ثقة المتلقين.

ولا يعتمد هذا الأسلوب على اختراق أنظمة «أوبن إيه آي»، بل على التلاعب بخصائص مشروعة صُممت في الأصل لتسهيل التعاون والعمل الجماعي، ثم تحويلها إلى أداة للهندسة الاجتماعية.

مثال على رسالة بريد إلكتروني احتيالية (كاسبرسكي)

كيف تعمل الحيلة؟

تبدأ العملية بإنشاء حساب عادي على منصة «أوبن إيه آي». وخلال التسجيل، يُطلب من المستخدم إنشاء «مؤسسة» وتحديد اسم لها. هذا الحقل مخصص عادة لاسم شركة أو فريق، لكنه يسمح بإدخال رموز ونصوص متنوعة.

يستغل المحتالون هذه المرونة لإدراج عبارات مضللة مباشرة في اسم المؤسسة، مثل رسائل تحذيرية أو عروض زائفة، وأحياناً أرقام هواتف أو روابط مشبوهة. وبعد إنشاء المؤسسة، تقترح المنصة خطوة «دعوة فريقك»، حيث يُدخل المهاجمون عناوين البريد الإلكتروني للضحايا المستهدفين.

عند إرسال الدعوات، تصل الرسائل من عناوين رسمية تابعة لـ«أوبن إيه آي»، وتظهر للمتلقي على أنها إشعار حقيقي لإضافته إلى مشروع أو فريق عمل. ويحتوي البريد الإلكتروني على القالب المعتاد لدعوات التعاون، لكن النص الاحتيالي الذي أدرجه المهاجم يظهر بشكل بارز داخل الرسالة. ويراهن المحتالون على أن كثيراً من المستخدمين سيركزون على العنوان الموثوق والرسالة المظللة، دون الانتباه إلى عدم منطقية المحتوى أو سبب تلقيهم دعوة لمؤسسة غير معروفة.

أنماط الرسائل الاحتيالية

رصدت «كاسبرسكي» عدة أنواع من الرسائل التي جرى تمريرها بهذه الطريقة. بعضها يروج لخدمات أو عروض احتيالية، بينما يتخذ الآخر طابعاً أكثر خطورة. أحد الأساليب الشائعة هو إرسال إشعارات كاذبة تفيد بتجديد اشتراك مرتفع التكلفة. وتطلب الرسالة من الضحية الاتصال برقم هاتف مرفق «لإلغاء العملية». هذا النوع من الهجمات يُعرف بـ«التصيد الصوتي» (Vishing)، حيث يحاول المحتالون أثناء المكالمة إقناع الضحية بالكشف عن بيانات شخصية أو مالية، أو تنفيذ خطوات تؤدي إلى اختراق إضافي. وفي جميع الحالات، يبقى الهدف دفع المتلقي إلى التصرف بسرعة، سواء عبر الضغط على رابط أو إجراء مكالمة قبل التحقق من صحة الرسالة.

تعتمد الحيلة على إدراج نصوص مضللة داخل اسم «المؤسسة» ثم إرسال دعوات تصل من عناوين بريد رسمية (غيتي)

لماذا تبدو الرسائل مقنعة؟

تكمن خطورة هذا الأسلوب في أن الرسائل ليست مزورة بالطريقة التقليدية. فهي تُرسل عبر قنوات رسمية وتخرج من بنية بريدية حقيقية تابعة للمنصة. لذلك، يختفي كثير من الإشارات التحذيرية المعتادة، مثل عناوين المرسل المشبوهة. ورغم أن محتوى الرسالة غالباً ما يكون غير منسجم مع قالب «دعوة للتعاون»، فإن هذا التناقض قد لا يكون واضحاً للجميع، خصوصاً لمن لا يتوقعون أن تُستغل منصة موثوقة بهذا الشكل. ويرى خبراء أمنيون أن هذه الحالة تسلط الضوء على مشكلة أوسع. حتى الخدمات ذات السمعة الجيدة يمكن أن تتحول إلى أدوات في يد المحتالين إذا أسيء استخدام ميزاتها.

ما الذي ينبغي فعله؟

بالنسبة لمستخدمي «تشات جي بي تي» ومنصات «أوبن إيه آي» عموماً، تشكل هذه الحملة تذكيراً بأهمية الحذر، حتى عند تلقي رسائل تبدو رسمية. وينصح الخبراء بالتعامل مع أي دعوة غير متوقعة بشكّ، خصوصاً إذا تضمنت لغة استعجال أو مطالب مالية أو أرقام هواتف. كما يُفضل تجنب الضغط على الروابط المضمنة أو الاتصال بالأرقام المذكورة في رسائل مشبوهة. وإذا كانت هناك حاجة فعلية للتواصل مع الدعم، فمن الأفضل زيارة الموقع الرسمي للخدمة والبحث عن بيانات الاتصال هناك.

كما أن الإبلاغ عن الرسائل المشبوهة للمنصة يساعد في الحدّ من انتشارها، في حين يظل تفعيل المصادقة الثنائية خطوة مهمة لتعزيز الأمان، حتى إن لم يعتمد هذا النوع من الاحتيال على اختراق الحسابات مباشرة. ورغم أن هذه الحملة تستهدف الأفراد، فإنها تطرح أيضاً تساؤلات أوسع أمام الشركات التي تدير منصات تعاونية. فالأدوات المصممة لتسهيل الانضمام والعمل الجماعي قد تتحول إلى نقاط ضعف إذا لم تُقيّد أو تُراقب بشكل كافٍ.


ماذا يعني أن تصبح «سيري» شبيهة بـ«ChatGPT»؟

تعمل «أبل» على إعادة تصميم «سيري» لتتحول من منفذة أوامر إلى مساعد حواري سياقي شبيه بـ«ChatGPT» (شاترستوك)
تعمل «أبل» على إعادة تصميم «سيري» لتتحول من منفذة أوامر إلى مساعد حواري سياقي شبيه بـ«ChatGPT» (شاترستوك)
TT

ماذا يعني أن تصبح «سيري» شبيهة بـ«ChatGPT»؟

تعمل «أبل» على إعادة تصميم «سيري» لتتحول من منفذة أوامر إلى مساعد حواري سياقي شبيه بـ«ChatGPT» (شاترستوك)
تعمل «أبل» على إعادة تصميم «سيري» لتتحول من منفذة أوامر إلى مساعد حواري سياقي شبيه بـ«ChatGPT» (شاترستوك)

تستعد «سيري»، المساعد الصوتي من شركة «أبل»، لأكبر تحول في تاريخها منذ إطلاقها قبل أكثر من عقد. فحسب تقارير متطابقة من وسائل إعلام تقنية، تعمل «أبل» على إعادة تصميم «سيري» لتتحول من أداة تعتمد على الأوامر الصوتية البسيطة إلى مساعد حواري متقدم، قادر على إجراء محادثات سياقية طويلة، على غرار «شات جي بي تي» (ChatGPT) وغيره من روبوتات الدردشة التوليدية.

لطالما واجهت «سيري» انتقادات بسبب محدودية فهمها للغة الطبيعية مقارنة بمنافسين مثل مساعد «غوغل» ونماذج الذكاء الاصطناعي التوليدي الحديثة. ففي الوقت الذي أصبحت فيه روبوتات الدردشة قادرة على تلخيص المعلومات وشرح المفاهيم المعقدة، والتفاعل مع المستخدمين بسلاسة، بقيت «سيري» مرتبطة بمهام أساسية، مثل ضبط المنبهات أو فتح التطبيقات، مع تحسينات تدريجية لم تغيّر جوهر التجربة.

اليوم، يبدو أن «أبل» تعترف بأن هذا النهج لم يعد كافياً.

من الأوامر إلى الحوار

تُشير التقارير إلى أن «أبل» تعمل على تحويل «سيري» إلى مساعد حواري متكامل، يستطيع متابعة السياق والرد عبر الصوت أو النص، والتعامل مع الأسئلة المركبة بطريقة أكثر طبيعية. ويُمثل هذا التحول قطيعة مع التصميم التقليدي لـ«سيري»، الذي بُني أساساً على تنفيذ أوامر محددة بدلاً من إجراء حوار مفتوح.

ووفق ما نُشر، تعتمد «أبل» في هذه المرحلة على دمج تقنيات ذكاء اصطناعي توليدي متقدمة، من بينها نماذج مثل «جيميناي» من «غوغل» ضمن إطارها الخاص المعروف باسم «ذكاء أبل» (Apple Intelligence). ولا يعني ذلك التخلي عن تطويرها الداخلي، بل الاستفادة من أفضل النماذج المتاحة لتعزيز قدرات «سيري» اللغوية والحوارية. الهدف هو جعل التفاعل مع «سيري» أقرب إلى محادثة حقيقية، بدلاً من سلسلة أوامر منفصلة، وهو ما أصبح معياراً جديداً في عالم المساعدات الذكية.

«سيري» ستستفيد من «غوغل جيميناي» لتعزيز الحوار والسياق ضمن توجه «أبل» لمواكبة الذكاء الاصطناعي التفاعلي (شاترستوك)

استجابة متأخرة

يأتي هذا التحول فيما تتسارع المنافسة على الذكاء الاصطناعي الحواري، فقد اعتاد المستخدمون خلال العامين الماضيين أدوات قادرة على إنتاج نصوص وشرح أفكار والمساعدة في التخطيط واتخاذ القرار. وفي المقابل، بدا أن «أبل» تتحرك بوتيرة أبطأ، مع تركيز واضح على الخصوصية والاستقرار بدل السبق التقني.

ورغم أن الشركة بدأت سابقاً دمج «ChatGPT» خياراً مساعداً ضمن بعض ميزات «ذكاء أبل»، فإن هذه الخطوة أبرزت الفجوة بين «سيري» التقليدية وتجربة الدردشة التوليدية الحديثة. ومع تزايد الاعتماد اليومي على هذه الأدوات، بات من الصعب على «أبل» تجاهل التحول الجاري في طريقة تفاعل المستخدمين مع التقنية.

الخصوصية في التصميم

على عكس بعض المنافسين، لا يبدو أن «أبل» تسعى إلى تحويل «سيري» إلى مجرد واجهة لخدمة سحابية خارجية، فالتقارير تشير إلى أن جزءاً كبيراً من المعالجة سيجري على الجهاز نفسه أو عبر خوادم خاضعة لسيطرة «أبل»، بما ينسجم مع سياستها التقليدية في تقليل جمع البيانات وحماية خصوصية المستخدم. هذا التوازن بين القدرات المتقدمة والخصوصية قد يكون العامل الفارق في تجربة «سيري» الجديدة، لكنه في الوقت نفسه يفرض قيوداً تقنية قد تؤثر في سرعة التطوير مقارنة بمنافسين يعتمدون بشكل أوسع على الحوسبة السحابية.

«سيري» الجديدة تستهدف التكامل العميق مع النظام لفهم ما على الشاشة وربط التطبيقات وتنفيذ مهام متعددة بطلب واحد (شاترستوك)

أكثر من دردشة

ولا يقتصر طموح «أبل» على جعل «سيري» أكثر بلاغة فحسب، بل على جعلها أكثر فاعلية، فالتقارير تُشير إلى أن النسخة الجديدة ستكون قادرة على فهم ما يجري على شاشة الجهاز، وربط المعلومات بين التطبيقات، وتنفيذ مهام متعددة بناءً على طلب واحد بلغة طبيعية. بهذا المعنى، لا تسعى «أبل» إلى تقديم «روبوت دردشة» فقط، بل إلى مساعد ذكي قادر على التحرك داخل النظام، وإدارة المهام اليومية، والتفاعل مع محتوى المستخدم وسياقه. وهذا يعكس توجهاً أوسع في صناعة التقنية نحو ما يُعرف بـ«الذكاء القابل للتنفيذ»؛ حيث لا يكتفي النظام بالإجابة بل يتخذ إجراءً.

ماذا يعني ذلك للمستخدمين؟

من المتوقع أن تكشف «أبل» عن ملامح هذا التحول خلال مؤتمرها السنوي للمطورين في شهر يونيو (حزيران) المقبل، على أن تُطرح التجربة الجديدة ضمن الإصدارات المقبلة من أنظمة «iOS» و«macOS» و«iPadOS». وإذا نجحت الشركة في تنفيذ رؤيتها، فقد تصبح «سيري» جزءاً أكثر مركزية في الحياة الرقمية اليومية لمستخدمي أجهزة «أبل».

لكن التحدي لا يزال قائماً، فالمستخدمون الذين اعتادوا مرونة وسرعة أدوات مثل «ChatGPT» ستكون لديهم توقعات عالية. وسيُقاس نجاح «سيري» الجديدة بمدى قدرتها على الجمع بين الحوار العميق، والتنفيذ العملي، والخصوصية من دون التضحية بتجربة الاستخدام.


روبوتات تفكر وتتحرك: ما الذي يميّز «Rho-Alpha» من «مايكروسوفت»؟

نموذج «Rho-Alpha» يدمج الرؤية واللغة والفعل في إطار تعلم واحد ما يمكّن الروبوتات من التفاعل مع العالم المادي بمرونة أعلى (مايكروسوفت)
نموذج «Rho-Alpha» يدمج الرؤية واللغة والفعل في إطار تعلم واحد ما يمكّن الروبوتات من التفاعل مع العالم المادي بمرونة أعلى (مايكروسوفت)
TT

روبوتات تفكر وتتحرك: ما الذي يميّز «Rho-Alpha» من «مايكروسوفت»؟

نموذج «Rho-Alpha» يدمج الرؤية واللغة والفعل في إطار تعلم واحد ما يمكّن الروبوتات من التفاعل مع العالم المادي بمرونة أعلى (مايكروسوفت)
نموذج «Rho-Alpha» يدمج الرؤية واللغة والفعل في إطار تعلم واحد ما يمكّن الروبوتات من التفاعل مع العالم المادي بمرونة أعلى (مايكروسوفت)

يشهد الذكاء الاصطناعي تقدماً سريعاً في فهم اللغة والصور، إلا أن تحويل هذا الذكاء إلى أفعال ملموسة في العالم الحقيقي لا يزال أحد أكثر التحديات تعقيداً في مجال الحوسبة. وفي هذا السياق، تخطو أبحاث «مايكروسوفت» خطوة مهمة نحو سد هذه الفجوة، من خلال الكشف عن أعمال جديدة تهدف إلى تمكين الروبوتات من الإدراك والتفكير والتنفيذ بفاعلية أكبر داخل البيئات المادية الديناميكية.

وفي صميم هذا التوجه يأتي نموذج جديد يُعرف باسم «Rho-Alpha»، وهو نموذج يجمع بين الرؤية واللغة والفعل، ويهدف إلى مساعدة الروبوتات على تجاوز السلوكيات المبرمجة مسبقاً، والعمل بدرجة أعلى من الاستقلالية. ويعكس هذا النموذج طموح «مايكروسوفت» الأوسع في تطوير أنظمة ذكاء اصطناعي لا تكتفي بفهم المعلومات الرقمية، بل قادرة أيضاً على التفاعل مع العالم الفيزيائي بطرق أكثر مرونة وواقعية.

دمج الإدراك والفعل

على عكس الأنظمة الروبوتية التقليدية التي تعتمد على سلاسل هندسية منفصلة حيث تُعالج الرؤية والتخطيط والتحكم كوحدات مستقلة، يدمج نموذج «Rho-Alpha» هذه القدرات ضمن إطار تعلم واحد. ويتم تدريب النموذج على تحليل المدخلات البصرية، وفهم التعليمات باللغة الطبيعية، وتوليد أفعال جسدية مناسبة، ما يسمح للروبوتات بالاستجابة بسلاسة أكبر للمهام المعقدة.

ويعالج هذا النهج أحد التحديات المزمنة في عالم الروبوتات، المعروف بمشكلة «الميل الأخير». فعلى الرغم من قدرة نماذج الذكاء الاصطناعي على التعرف على الأشياء أو تنفيذ أوامر محددة، فإنها غالباً ما تفشل عند حدوث تغييرات غير متوقعة في البيئة. فاختلاف بسيط في الإضاءة أو موقع الأجسام أو سلوك البشر قد يؤدي إلى تعطل الأنظمة التقليدية. وتسعى أبحاث «مايكروسوفت» إلى جعل الروبوتات أكثر قدرة على التكيف من خلال ربط قراراتها بالسياق الواقعي بدلاً من القواعد الجامدة.

تعلم يتجاوز المختبر

يستند نموذج «Rho-Alpha» إلى التطورات الحديثة في النماذج التأسيسية، مستفيداً من مفاهيم النماذج اللغوية الضخمة والأنظمة متعددة الوسائط، مع تكييفها لمتطلبات التفاعل المادي. وبدلاً من تعلم المهام بشكل منفصل، يستطيع النموذج التعميم عبر سيناريوهات مختلفة، ما يمكّن الروبوتات من التعامل مع أشياء أو تعليمات لم تُصادفها صراحة أثناء التدريب. وتُعد هذه القدرة أساسية لنشر الروبوتات خارج المختبرات والبيئات الخاضعة للتحكم. وتصف أبحاث «مايكروسوفت» هذا العمل بأنه جزء من رؤية أوسع لما يُعرف بـ«الذكاء الاصطناعي المتجسد»، حيث يتشكل الذكاء ليس فقط من البيانات، بل من التفاعل المباشر مع العالم المادي. وفي هذا الإطار، تصبح الرؤية والفعل عنصرين متلازمين، ما يسمح للآلات بالتعلم من التجربة بأسلوب أقرب إلى السلوك البشري.

آفاق التطبيق العملي

تتعدد التطبيقات المحتملة لهذه التقنيات عبر قطاعات مختلفة. ففي البيئات الصناعية، يمكن للروبوتات الأكثر مرونة دعم مهام التصنيع والخدمات اللوجيستية التي تتطلب إعادة تهيئة مستمرة. أما في مجالات الرعاية الصحية والخدمات، فقد تساعد هذه الأنظمة في تنفيذ أنشطة يومية تتطلب تفاعلاً مباشراً مع البشر وبيئات غير متوقعة. ورغم أن «مايكروسوفت» لم تعلن عن منتجات تجارية قائمة على «Rho-Alpha»، فإن هذا البحث يسلط الضوء على قدرات أساسية قد تُمهّد لتطبيقات مستقبلية.

تؤكد «مايكروسوفت» أن التقدم في مجال الذكاء الاصطناعي للعالم المادي لا يقتصر على الأداء التقني فحسب، بل يشمل أيضاً اعتبارات السلامة والموثوقية ومواءمة الأنظمة مع النيات البشرية. فالروبوتات ذاتية التشغيل يجب أن تكون قادرة على فهم التعليمات بدقة، والتعامل مع الحالات الاستثنائية، خصوصاً في البيئات المشتركة مع البشر. لذلك، لا تركز الأبحاث على تعزيز القدرات فقط، بل أيضاً على المتانة والتصميم المسؤول.

يعتمد النموذج على مفهوم الذكاء الاصطناعي المتجسّد حيث يتعلم الروبوت من التجربة المباشرة والتفاعل مع البيئة كما يفعل البشر (مايكروسوفت)

من الذكاء إلى الفعل

يعكس إطلاق نموذج «Rho-Alpha» تحولاً أوسع في صناعة التكنولوجيا. فمع تزايد قدرات الذكاء الاصطناعي في السياقات الرقمية، يتجه الاهتمام تدريجياً نحو كيفية تجسيد هذه القدرات في آلات تعمل في العالم الحقيقي. ويطرح هذا التحول أسئلة جديدة حول جمع البيانات والمحاكاة وطرق التقييم، نظراً لأن البيئات المادية أقل قابلية للتنبؤ مقارنة بالبيئات الافتراضية.

وتشير أبحاث «مايكروسوفت» إلى أن المرحلة المقبلة من تطور الذكاء الاصطناعي لن تُقاس فقط بذكاء النماذج، بل بقدرتها على تحويل هذا الذكاء إلى أفعال ملموسة. ومن خلال توحيد الرؤية واللغة والتحكم ضمن إطار واحد، يمثل نموذج «Rho-Alpha» محطة بحثية مهمة في مسار جعل الذكاء الاصطناعي أكثر حضوراً وفاعلية خارج نطاق الشاشات والخوادم.

ومع تلاشي الحدود بين الذكاء الرقمي والأنظمة المادية، قد تُسهم مثل هذه التطورات في إعادة تشكيل طريقة تعاون الروبوتات مع البشر عبر مختلف القطاعات، في تحول تدريجي من آلات مبرمجة إلى شركاء أكثر وعياً بالسياق وقدرة على التكيف مع العالم الحقيقي.