أداة «غوغل» للذكاء الاصطناعي تفتقر إلى الدقة

تُقدم مئات الآلاف من الإجابات الخاطئة في الدقيقة

أداة «غوغل» للذكاء الاصطناعي تفتقر إلى الدقة
TT

أداة «غوغل» للذكاء الاصطناعي تفتقر إلى الدقة

أداة «غوغل» للذكاء الاصطناعي تفتقر إلى الدقة

تبدو إجابات «غوغل» المُولَّدة بواسطة الذكاء الاصطناعي موثوقة، وهي تستند إلى مصادر متنوعة؛ من مواقع موثوقة، إلى منشورات «فيسبوك».

أداة تقييم إجابات «غوغل»

بهدف تقييم دقة «غوغل» وإجاباته بواسطة الذكاء الاصطناعي تحدَّث مجموعة من الصحافيين، وهم، إضافة إليّ: تريب ميكل، ديلان فريدمان، تيريزا موندريا تيرول، وكيث كولينز، مع شركات متخصصة في دراسة الذكاء الاصطناعي، قبل أن تقرر اختيار شركة أومي، ونموذج التحقق بالذكاء الاصطناعي الخاص بها «هال أومي»؛ لتقييم دقة إجابات غوغل «الذكية»، من خلال اختبار معياري شائع الاستخدام يُعرف باسم «SimpleQA».

مثال لجواب صحيح-خاطئ

في أواخر العام الماضي، كان ستيفن بونواسي يستعدّ لتناول العشاء عندما لاحظ خبراً يقول إن زوجة المصارع هالك هوغان قد ترفع دعوى قضائية بسبب وفاته. ولم يكن السيد بونواسي، محلل البيانات البالغ من العمر 41 عاماً والمقيم في تورنتو بكندا، على علم بوفاة السيد هوغان، فسأل «غوغل» عن تاريخ وفاته.

أثارت الإجابة حيرته. جاء في ملخص «نظرة عامة على الذكاء الاصطناعي» AI Overview من «غوغل»، الذي ظهر أعلى الصفحة: «لا توجد تقارير موثوقة عن وفاة هالك هوغان». وفوجئ بونواسي بما وجده أسفل الإجابة، حين رأى مقالاً من صحيفة «ديلي ميل» يناقض رد «غوغل» كان عنوانه: «غموض يكتنف وفاة هالك هوغان».

دقة نسبية

في عام 2024، بدأت «غوغل» منح الإجابات المُولَّدة بواسطة الذكاء الاصطناعي مكانة بارزة في أعلى صفحة نتائج البحث. وأسهم هذا المنتج الجديد، «نظرة عامة على الذكاء الاصطناعي»، في تحويل «غوغل» من مجمع للمعلومات إلى ناشر.

وأظهر تحليل حديث لـ«نظرة عامة على الذكاء الاصطناعي» أن الأداة دقيقة في تسع من كل عشر مرات تقريباً.

مئات الآلاف من الإجابات الخاطئة- كل دقيقة

لكن مع معالجة «غوغل» أكثر من خمسة تريليونات عملية بحث سنوياً، فهذا يعني أنها تُقدّم عشرات الملايين من الإجابات الخاطئة كل ساعة (أو مئات الآلاف من المعلومات غير الدقيقة كل دقيقة)، وفقاً لتحليلٍ أجرته شركة «أومي» الناشئة في مجال الذكاء الاصطناعي.

إجابات صحيحة «غير مدعومة بأدلة»

كما أظهرت الدراسة أن أكثر من نصف الإجابات الصحيحة كانت «غير مدعومة بأدلة»؛ أي أنها كانت تُحيل المستخدم إلى مواقع إلكترونية لا تدعم المعلومات المقدَّمة بشكل كامل. وهذا ما يجعل التحقق من دقة مراجعات الذكاء الاصطناعي أمراً صعباً.

ضرورة التدقيق الإضافي للإجابات

يُجادل بعض التقنيين بأن مراجعات الذكاء الاصطناعي من «غوغل» دقيقة إلى حد معقول، وأنها تحسّنت خلال الأشهر الأخيرة، لكن آخرين يُبدون قلقهم من أن الشخص العادي قد لا يُدرك أن هذه النتائج تحتاج إلى تدقيق إضافي.

بناءً على طلب صحيفة نيويورك تايمز، حلّل موقع «Oumi» دقة مراجعات الذكاء الاصطناعي من «غوغل» باستخدام اختبار معياري يُسمى «SimpleQA»؛ وهو اختبار شائع الاستخدام في هذا المجال لقياس دقة أنظمة الذكاء الاصطناعي. واختبرت الشركة الناشئة نظام «غوغل» في أكتوبر (تشرين الأول) الماضي، عندما جرت الإجابة عن أكثر الأسئلة تعقيداً باستخدام تقنية ذكاء اصطناعي تُسمى «جيميناي2» (Gemini 2)، ثم مرة أخرى في فبراير (شباط) من العام الحالي، بعد ترقيته إلى «جيمناي3» (Gemini 3)، وهي تقنية ذكاء اصطناعي أكثر قوة.

تحرّي الدقة

في كلتا الحالتين، ركز تحليل شركة أومي على 4326 عملية بحث على «غوغل»، ووجدت الشركة أن النتائج كانت دقيقة بنسبة 85 في المائة مع نظام «جيميناي 2»، و91 في المائة مع نظام «جيميناي 3».

قال براتيك فيرما، الرئيس التنفيذي لشركة أوكاهو، وهي شركة تساعد الناس على فهم واستخدام تقنيات الذكاء الاصطناعي، إن تقنية «غوغل» دقيقة تقريباً مثل أيٍّ من أنظمة الذكاء الاصطناعي الرائدة. وهو ينصح بالتحقق من معلوماتها. قال: «لا تثق أبداً بمصدر واحد. قارنْ دائماً ما تحصل عليه بمصدر آخر».

وتقر «غوغل» بأن مراجعات الذكاء الاصطناعي الخاصة بها قد تحتوي على أخطاء. ويؤكد النص الصغير أسفل كل «نظرة عامة على الذكاء الاصطناعي» ما يلي: «قد يرتكب الذكاء الاصطناعي أخطاءً، لذا تحققْ من الإجابات».

لكن «غوغل» قالت إن تحليل «أومي» كان معيباً لأنه اعتمد على اختبار معياري بنته شركة أوبن إيه آي، والذي احتوى بدوره على معلومات غير صحيحة. وقال نيد أدريانس، من «غوغل»، في بيان: «في هذه الدراسة ثغرات خطيرة».

تفاوت الإجابات

تقدم «نظرة عامة على الذكاء الاصطناعي» نوعين من المعلومات: إجابات عن الأسئلة، وقوائم بمواقع الويب التي تُدعم تلك الإجابات.

يصعب تقييم مراجعات الذكاء الاصطناعي لأن نظام «غوغل» قد يُولّد استجابة جديدة لكل استعلام، فإذا تلقّى محرك بحث «غوغل» الاستعلام نفسه في أوقات مختلفة - حتى لو كانت بفارق ثوانٍ - فقد يُنتج إجابة صحيحة، وأخرى خاطئة.

ولتحديد دقة أنظمة الذكاء الاصطناعي، تستخدم شركات مثل «Oumi» أنظمتها الخاصة للتحقق من كل إجابة. هذه هي الطريقة الوحيدة الفعّالة للتحقق من عدد كبير من الإجابات. تكمن مشكلة هذه الطريقة في أن نظام الذكاء الاصطناعي الذي يُجري التحقق قد يرتكب أخطاءً أيضاً.

اختلاف دقة «جيميناي» ومحرك «غوغل»

نشرت «غوغل» نتائج اختبارات مشابهة لتلك التي أنتجتها «Oumi» في تحليل «غوغل» الخاص لـ«Gemini 3» - التقنية التي تدعم مراجعات الذكاء الاصطناعي - وجدت أن النموذج أنتج معلومات خاطئة بنسبة 28 في المائة. وقالت الشركة إن مراجعات الذكاء الاصطناعي، التي تستقي المعلومات من محرك بحث «غوغل» قبل توليد الاستجابات، كانت أكثر دقة من «جيميناي» عند تشغيله بمفرده.

ومع تحسين «غوغل» تقنيات الذكاء الاصطناعي لديها بفضل التقنيات الحديثة، أصبحت إجابات «غوغل» المُولّدة بواسطة الذكاء الاصطناعي أكثر دقة.

من جهة أخرى، يتساءل مانوس كوكوميديس، الرئيس التنفيذي لشركة أومي: «حتى عندما تكون الإجابة صحيحة، كيف يمكن التأكد من صحتها؟ كيف يمكن التحقق منها؟».

احتمالات وتخمينات وسوء تفسير

تستخدم أنظمة الذكاء الاصطناعي الحالية الاحتمالات الرياضية لتخمين أفضل إجابة، وليس مجموعة صارمة من القواعد التي وضعها مهندسون بشريون. وهذا يعني أنها ترتكب عدداً من الأخطاء. وأحياناً يُحدّد نظام غوغل «نظرة عامة على الذكاء الاصطناعي» موقعاً إلكترونياً موثوقاً، لكنه يُسيء تفسير معلوماته.

التلاعب بالأخبار

تواجه مراجعات الذكاء الاصطناعي تحدياً آخر: إمكانية التلاعب بها.

وتقول ليلي راي، نائبة رئيس قسم البحث بالذكاء الاصطناعي بوكالة التسويق «أمسيف»: «إذا أراد شخص أن يُعرف كخبير عالمي في مجالٍ ما، فما عليه إلا أن يكتب منشوراً على مدونته يُعلن فيه عن هذا التميز».

تُقرّ «غوغل» بهذه المشكلة، لكنها تُقلّل من شأنها. وصرح السيد أدريانس، من «غوغل»، في بيان: «تعتمد ميزات الذكاء الاصطناعي في بحثنا على معايير الترتيب والحماية نفسها التي تمنع الغالبية العظمى من الرسائل المزعجة من الظهور في نتائج البحث. معظم هذه الأمثلة عبارة عن عمليات بحث غير واقعية لن يُجريها الناس في الواقع».

تجربة صحافية للتلاعب بالأخبار

بعد سماع نظرية السيدة راي، نشر توماس جيرمان، أحد مُقدّمي بودكاست «ذا إنترفيس» على «بي بي سي»، منشوراً على مدونته بعنوان «أفضل صحافي تكنولوجيا في أكل الهوت دوغ». ووصف المنشور بطولة وهمية لأكل الهوت دوغ في ولاية ساوث داكوتا، حيث تصدّر قائمة تضم عشرة «مُتنافسين بارزين في أكل الهوت دوغ».

وبعد يوم، أجرى بحثاً على «غوغل» عن أفضل صحافيي التكنولوجيا الذين يتناولون الهوت دوغ. ووجد أن «غوغل» أدرجه في المرتبة الأولى بين ستة صحافيين تقنيين «اكتسبوا شهرةً واسعةً بفضل براعتهم في قسم الأخبار الخاص بمسابقات تناول الطعام»، مشيراً إلى فوزه بالمركز الأول في مسابقة ساوث داكوتا.

وقال جيرمان: «كان (غوغل) يعرض محتوى موقعي الإلكتروني وكأنه حقيقة مُطلقة».

*باختصار، خدمة «نيويورك تايمز»


مقالات ذات صلة

هل أنهى الذكاء الاصطناعي عصر أنظمة كشف الاحتيال الرقمية التقليدية؟

خاص الاحتيال تحوّل من استهداف الأنظمة التقنية إلى التلاعب بالسلوك البشري ما يغيّر طبيعة التهديد بشكل جذري (رويترز)

هل أنهى الذكاء الاصطناعي عصر أنظمة كشف الاحتيال الرقمية التقليدية؟

يُضعف تحول الاحتيال إلى استهداف السلوك البشري الأنظمة التقليدية، ويفرض اعتماد تحليلات سلوكية، ومقاربات جديدة لحماية الثقة الرقمية، والهوية.

نسيم رمضان (لندن)
علوم مع الذكاء الاصطناعي: طلاب الجامعات يعيدون النظر في تخصصاتهم

مع الذكاء الاصطناعي: طلاب الجامعات يعيدون النظر في تخصصاتهم

70 % مع تغيير الاختصاص في التكنولوجيا مقابل 54 % في العلوم الإنسانية

«الشرق الأوسط» (واشنطن)
تكنولوجيا «غوغل» تحدّث أنظمة الذكاء الاصطناعي لتحسين التعامل مع استفسارات الصحة النفسية بشكل أكثر مسؤولية (شاترستوك)

تحديثات جديدة من «غوغل» لتعزيز تعامل الذكاء الاصطناعي مع الصحة النفسية

«غوغل» تحدّث استجابات الذكاء الاصطناعي للصحة النفسية لتوجيه المستخدمين نحو الدعم المناسب مع الحفاظ على السلامة وعدم استبدال المختصين.

نسيم رمضان (لندن)
علوم في عصر الذكاء الاصطناعي… الاحتيال والنصب يصبحان أمراً سهلاً للغاية

في عصر الذكاء الاصطناعي… الاحتيال والنصب يصبحان أمراً سهلاً للغاية

باستخدام الذكاء الاصطناعي التوليدي، يستطيع أي شخص الحصول على وجبة تعويضية أو منتج بديل مجاناً.

جيسوس دياز (واشنطن)
الاقتصاد «المركز السعودي للأعمال» يقدِّم خدماته لأحد المراجعين (واس)

طفرة تجارية في الربع الأول: السعودية تصدر 71 ألف سجل جديد

أصدرت الحكومة السعودية سجلات تجارية خلال الرُّبع الأول من العام الحالي، بإجمالي تجاوز 71 ألف سجل

«الشرق الأوسط» (الرياض)

هل أنهى الذكاء الاصطناعي عصر أنظمة كشف الاحتيال الرقمية التقليدية؟

الاحتيال تحوّل من استهداف الأنظمة التقنية إلى التلاعب بالسلوك البشري ما يغيّر طبيعة التهديد بشكل جذري (رويترز)
الاحتيال تحوّل من استهداف الأنظمة التقنية إلى التلاعب بالسلوك البشري ما يغيّر طبيعة التهديد بشكل جذري (رويترز)
TT

هل أنهى الذكاء الاصطناعي عصر أنظمة كشف الاحتيال الرقمية التقليدية؟

الاحتيال تحوّل من استهداف الأنظمة التقنية إلى التلاعب بالسلوك البشري ما يغيّر طبيعة التهديد بشكل جذري (رويترز)
الاحتيال تحوّل من استهداف الأنظمة التقنية إلى التلاعب بالسلوك البشري ما يغيّر طبيعة التهديد بشكل جذري (رويترز)

لم يعد الاحتيال الرقمي يستهدف الأنظمة التقنية بقدر ما يستهدف الإنسان نفسه. هذا التحول لا يقتصر على تطور في الأساليب، بل يعكس تغييراً أعمق في طبيعة الهجوم، حيث أصبحت الثقة البشرية هي نقطة الاختراق الأساسية. وفي ظل تسارع استخدام الذكاء الاصطناعي، يطرح هذا الواقع أسئلة جديدة حول قدرة المؤسسات على مواكبة التهديدات، وحول ما إذا كانت أدوات الحماية الحالية لا تزال صالحة.

يوضح عبد حمَندي كبير مديري قسم الاستشارات لمكافحة الاحتيال والاستخبارات الأمنية في شركة «ساس» (SAS) أن ما نشهده اليوم «ليس تغييراً دورياً، بل هو تغيير هيكلي، لأن وحدة الهجوم قد تغيرت». ويشير حمندي خلال لقاء خاص مع «الشرق الأوسط» إلى أن المحتالين لم يعودوا يركزون على استغلال الثغرات التقنية، بل على «التلاعب بالسلوك البشري»، حيث يصبح العميل نفسه جزءاً من تنفيذ عملية الاحتيال.

عبد حمَندي كبير مديري قسم الاستشارات لمكافحة الاحتيال والاستخبارات الأمنية في شركة «ساس» (ساس)

نهاية كفاية الأنظمة التقليدية

على مدى سنوات، استثمرت المؤسسات المالية بشكل كبير في أنظمة مراقبة المعاملات التي تعتمد على اكتشاف الأنماط غير الطبيعية. لكن هذه المقاربة، رغم أهميتها، لم تعد كافية بمفردها. فعمليات الاحتيال الحديثة باتت تُصمَّم لتبدو طبيعية تماماً، من حيث الجهاز المستخدم، وسلوك العميل، وبياناته.

ويشرح حمندي أن هذه الأنظمة «لا تزال لها قيمة، لكنها لا ترى إلا ما ينحرف عن المسار المعتاد»، في حين أن الاحتيال المعاصر يتعمّد الاندماج داخل هذا المسار. وهذا يعني أن المؤسسات قد تبدو كأنها تحسّن أدواتها باستمرار، لكنها في الواقع «تدافع عن جزء محدود من نطاق المعركة»، بينما يتحرك التهديد الحقيقي في مساحة أخرى أكثر تعقيداً تتعلق بالسلوك والنية.

هذا التحول يفرض إعادة تعريف جوهرية لمفهوم الاحتيال نفسه. فبدلاً من التركيز على ما إذا كانت المعاملة صحيحة تقنياً، يصبح السؤال: هل تم اتخاذ القرار بحرية ووعي؟

في كثير من الحالات الحديثة، يصرّح الضحايا بأنهم نفذوا العمليات بأنفسهم، لكن تحت ضغط، أو تضليل. هنا، يشير حمندي إلى ضرورة الانتقال من اعتبار التفويض دليلاً على النية، إلى اعتباره «موافقة مشروطة بالسياق»، حيث قد تكون الموافقة شكلية، لكنها لا تعكس إرادة حقيقية. هذا التغيير لا يتعلق فقط بالتقنية، بل يفتح الباب أمام إعادة النظر في حدود المسؤولية بين المؤسسات والعملاء، ويعزز الحاجة إلى آليات تدخل استباقية بدلاً من الاكتفاء بالتعويض بعد وقوع الضرر.

أساليب كشف الاحتيال التقليدية لم تعد كافية لأن العمليات الحديثة تُصمَّم لتبدو طبيعية تماماً (رويترز)

الهويات المصطنعة المتطورة

من أبرز التحديات التي تعكس هذا التحول، انتشار ما يُعرف بـ«الهويات المصطنعة»، وهي هويات تُبنى تدريجياً لتبدو حقيقية تماماً قبل أن تُستخدم في الاحتيال. في هذا السياق، لم يعد التحقق من الهوية (KYC) عملية تُجرى مرة واحدة عند فتح الحساب، بل يجب أن يتحول إلى عملية مستمرة. ويؤكد حمندي أن الهدف لم يعد التحقق من صحة المستندات فقط، بل تقييم ما إذا كانت الهوية «تُظهر نمطاً سلوكياً يتطور بمرور الوقت كما يفعل شخص حقيقي».

المفارقة هنا أن السلوك «المثالي» قد يكون في حد ذاته مؤشراً على الاحتيال، إذ إن البشر بطبيعتهم غير متسقين تماماً، بينما تميل الأنظمة المصطنعة إلى تقديم صورة أكثر انتظاماً.

ورغم التطور التقني، لا تكمن المشكلة فقط في الأدوات أو البيانات، بل في غياب التنسيق بين الجهات المختلفة. فالمؤسسات غالباً ما ترى جزءاً محدوداً من سلوك المستخدم، وهو ما تستغله الهويات المصطنعة.

ويشير حمندي إلى أن التحدي الأكبر يكمن في «تنسيق النظام البيئي»، حيث تحتاج المؤسسات إلى تبادل البيانات بشكل آمن، وتطوير أطر مشتركة للاستخبارات، إضافة إلى وضوح تنظيمي يسمح بتكوين صورة شاملة.

سباق غير متكافئ

مع دخول الذكاء الاصطناعي بقوة في هذا المجال، يبدو أن المحتالين في كثير من الأحيان يتحركون بسرعة أكبر من المؤسسات. ويرجع ذلك إلى أنهم يعملون خارج القيود التنظيمية، ومن دون إرث تقني معقد، ما يمنحهم مرونة أكبر في التجريب. ومع ذلك، لا يرى حمندي أن المؤسسات في موقع ضعف مطلق، بل يشير إلى أنها تمتلك مزايا مهمة، مثل الثقة، وحجم البيانات، لكن المشكلة تكمن في «بطء التبني، وصعوبة دمج الأنظمة»، وليس في نقص القدرات.

وفي ظل تقنيات مثل استنساخ الصوت، والتزييف العميق، أصبحت وسائل المصادقة التقليدية أكثر عرضة للاختراق. وفي بعض الحالات، يشير حمندي إلى أن هذه التقنيات «قد سبق أن تجاوزت بالفعل» هذه الأساليب.

البديل الذي يبرز هنا هو مفهوم «المصادقة المستمرة»، حيث لا يتم التحقق من هوية المستخدم في نقطة واحدة فقط، بل يتم تقييم مستوى الثقة بشكل ديناميكي بناءً على السلوك والسياق. غير أن تطبيق هذا النموذج يتطلب توازناً دقيقاً بين الحماية وتجربة المستخدم.

التحقق من الهوية لم يعد إجراءً لمرة واحدة بل عملية مستمرة تعتمد على تحليل السلوك مع مرور الوقت (شاترستوك)

بين الحماية والمراقبة

الاعتماد على السلوك كمؤشر رئيس يطرح بدوره تساؤلات أخلاقية، خصوصاً فيما يتعلق بالخصوصية. لكن حمندي يوضح أن المسألة لا تتعلق بالمراقبة، بل بـ«الملاءمة»، حيث يركز التحليل السلوكي على مؤشرات مرتبطة بالمخاطر، مثل التغيرات المفاجئة، أو التردد، وليس على المعتقدات الشخصية. الحد الفاصل هنا، بحسب رأيه، يكمن في النية والمساءلة. فالحماية تكون مشروعة عندما تكون قابلة للتفسير، ومتناسبة مع الهدف، بينما يتحول الأمر إلى تنميط غير أخلاقي إذا أصبح غامضاً، أو تمييزياً.

ورغم إدراك الجهات التنظيمية لطبيعة التهديدات الجديدة، لا تزال بعض الأطر التنظيمية تعكس تصوراً قديماً للاحتيال باعتباره مشكلة تقنية، وليس سلوكاً ديناميكياً. ومع ذلك، هناك مؤشرات على تحول تدريجي نحو نماذج أكثر مرونة تعتمد على الحوار، والتجريب، لكن التحدي يبقى في تسريع التنسيق بين الابتكار والسياسات.

مخاطر تتجاوز المال

إذا لم تتمكن المؤسسات من تحديث أنظمتها، فإن المخاطر لن تقتصر على الخسائر المالية. يحذر حمندي من احتمال «تآكل الثقة في الخدمات المصرفية الرقمية، وأنظمة المدفوعات، بل وحتى في مفهوم الهوية الرقمية ذاته». كما أن الفئات الأكثر ضعفاً ستكون الأكثر تضرراً، ما يضيف بُعداً اجتماعياً للأزمة، ويجعل من مكافحة الاحتيال مسؤولية تتجاوز الجانب التقني لتصبح قضية تتعلق بالثقة، والاستقرار.

يعكس هذا التحول مساراً أوسع في عالم التكنولوجيا، حيث لم يعد التحدي فيما يمكن للأنظمة أن تفعله، بل في كيفية استخدامها، ولصالح من.

ومع انتقال الاحتيال من استهداف الأنظمة إلى استهداف الإنسان، تصبح الحاجة إلى إعادة التفكير في أدوات الحماية أكثر إلحاحاً من أي وقت مضى. فالرهان اليوم لم يعد على اكتشاف الهجمات بعد وقوعها، بل على فهم السلوك البشري قبل أن يتحول إلى نقطة ضعف.


مشهد نادر... روّاد «أرتيميس 2» يرصدون ارتطام نيازك بسطح القمر

أعضاء طاقم مهمة «أرتميس 2»: اختصاصية المهمة كريستينا كوخ (يسار) واختصاصي المهمة جيريمي هانسن (أعلى) والقائد ريد وايزمان (يمين) والطيار فيكتور غلوفر (أسفل) وهم يلتقطون صورة جماعية داخل مركبة أوريون الفضائية (أ.ف.ب)
أعضاء طاقم مهمة «أرتميس 2»: اختصاصية المهمة كريستينا كوخ (يسار) واختصاصي المهمة جيريمي هانسن (أعلى) والقائد ريد وايزمان (يمين) والطيار فيكتور غلوفر (أسفل) وهم يلتقطون صورة جماعية داخل مركبة أوريون الفضائية (أ.ف.ب)
TT

مشهد نادر... روّاد «أرتيميس 2» يرصدون ارتطام نيازك بسطح القمر

أعضاء طاقم مهمة «أرتميس 2»: اختصاصية المهمة كريستينا كوخ (يسار) واختصاصي المهمة جيريمي هانسن (أعلى) والقائد ريد وايزمان (يمين) والطيار فيكتور غلوفر (أسفل) وهم يلتقطون صورة جماعية داخل مركبة أوريون الفضائية (أ.ف.ب)
أعضاء طاقم مهمة «أرتميس 2»: اختصاصية المهمة كريستينا كوخ (يسار) واختصاصي المهمة جيريمي هانسن (أعلى) والقائد ريد وايزمان (يمين) والطيار فيكتور غلوفر (أسفل) وهم يلتقطون صورة جماعية داخل مركبة أوريون الفضائية (أ.ف.ب)

سنحت لروّاد الفضاء الأربعة، الأعضاء في بعثة وكالة الفضاء الأميركية (ناسا) «أرتيميس 2»، خلال وجودهم على القمر، فرصة رؤية ارتطام نيازك بسطحه، في مشهدٍ حيّ نادر جداً يثير فضول العلماء.

وقال قائد البعثة ريد وايزمان، خلال أول تحليق لرحلة مأهولة فوق القمر منذ أكثر من نصف قرن: «لا شك إطلاقاً في أنها ومضات ناتجة عن ارتطامات على القمر. وقد رأى جيريمي (هانسن) واحدة أخرى للتو»، وفق ما أفادت «وكالة الصحافة الفرنسية».

وأجابته المسؤولة العلمية عن الرحلة كيلسي يونغ، الموجودة على بُعد أكثر من 400 ألف كيلومتر: «هذا مذهل». وأضافت، في اليوم التالي، خلال مؤتمر صحافي: «لا أعتقد أنني كنتُ أتوقع أن يرى الطاقم مثل هذه الظواهر، خلال هذه المهمة، لذا ربما لاحظتم الدهشة والصدمة على وجهي».

وروى وايزمان أن «كل ومضة استمرت لمدّة جزء من الألف من الثانية، كالسرعة التي يمكن أن ينفتح ويُغلق بها غالق كاميرا فوتوغرافية»، مشيراً إلى أن لونها «أبيض مائل إلى الأزرق الفاتح».

وشرحت رائدة الفضاء الاحتياطية لمهمة «أرتيميس 2»، في تصريح جيني غيبونز، لـ«وكالة الصحافة الفرنسية»، أن هذا الحدث «لم يُشاهَد إلا نادراً». وأضافت: «مجرد أنهم رأوا أربع أو خمس (ومضات) أمر لافت حقاً».

وأشارت «ناسا»، الثلاثاء، إلى أن الطاقم أبلغ عن ستة ارتطامات نيزكية في المجموع.

وأوضح كبير العلماء بجمعية «بلانيتري سوساسيتي» بروس بيتس، في تصريح، لـ«وكالة الصحافة الفرنسية»، أن هذه الأوصاف للارتطامات المضيئة يمكن أن تتيح تكوين فكرة أفضل «عن وتيرة حدوث هذه الارتطامات وكذلك عن حجمها». وقال: «لكي تنتج وميضاً يمكن أن يراه رواد الفضاء من مسافة ستة آلاف كيلومتر (...) فهي، بالتأكيد، ليست حبة غبار، لكنها أيضاً ليست صخرة كبيرة».


«واتساب» يختبر ميزة عزل الضوضاء لتحسين جودة المكالمات

الميزة تعتمد على معالجة الصوت في الوقت الفعلي لتقليل الضوضاء الخلفية (شاترستوك)
الميزة تعتمد على معالجة الصوت في الوقت الفعلي لتقليل الضوضاء الخلفية (شاترستوك)
TT

«واتساب» يختبر ميزة عزل الضوضاء لتحسين جودة المكالمات

الميزة تعتمد على معالجة الصوت في الوقت الفعلي لتقليل الضوضاء الخلفية (شاترستوك)
الميزة تعتمد على معالجة الصوت في الوقت الفعلي لتقليل الضوضاء الخلفية (شاترستوك)

يختبر تطبيق «واتساب» ميزة جديدة لعزل الضوضاء في المكالمات الصوتية والمرئية، في خطوة تهدف إلى تحسين جودة الاتصال؛ خصوصاً في البيئات المزدحمة أو في أثناء التنقل؛ حيث تتأثر المكالمات عادة بالأصوات المحيطة.

وحسب تقارير تقنية استندت إلى نسخ تجريبية من التطبيق على نظام «أندرويد»، تعمل الميزة على معالجة الصوت في الوقت الفعلي، بحيث يتم تقليل الضوضاء الخلفية والتركيز على صوت المستخدم قبل إرساله إلى الطرف الآخر. وتشمل هذه الضوضاء أصواتاً مثل حركة المرور والرياح والضجيج في الأماكن العامة.

تحسين جودة الصوت المرسل

تعتمد الميزة بشكل أساسي على تحسين الصوت الصادر من المستخدم، أي أن الطرف الآخر هو من سيلاحظ الفرق بشكل أكبر. ويعني ذلك أن جودة المكالمة ستتحسن عندما تكون الميزة مفعّلة لدى الطرف الذي يتحدث، وليس بالضرورة لدى المستمع فقط.

وتشير المعلومات المتاحة إلى أن الميزة يمكن تشغيلها أو إيقافها خلال المكالمة، ما يمنح المستخدم مرونة في التحكم حسب الحاجة. كما يُتوقع أن تعمل بشكل تلقائي في بعض الحالات؛ خصوصاً عندما يكتشف النظام وجود ضوضاء مرتفعة.

تركز الميزة المختبرة بشكل أساسي على تحسين الصوت المرسل للطرف الآخر (أدوبي)

معالجة تحافظ على الخصوصية

أحد الجوانب المهمة في هذه الميزة هو أنها تعمل محلياً على الجهاز، دون الحاجة إلى إرسال الصوت الخام إلى خوادم خارجية. وهذا يتماشى مع طبيعة التشفير من «الطرف إلى الطرف» (End-to-End Encryption) التي يعتمدها التطبيق؛ حيث لا يتم المساس بمحتوى المكالمات ولا تخزينها.

هذا النهج يتيح تحسين جودة الصوت دون التأثير على مستوى الأمان، وهو عامل أساسي في تطبيقات التواصل؛ خصوصاً مع ازدياد الاهتمام بحماية الخصوصية.

جزء من سباق أوسع

يأتي هذا التحديث في سياق منافسة متزايدة بين تطبيقات الاتصال؛ حيث لم تعد الرسائل النصية هي الاستخدام الأساسي؛ بل أصبحت المكالمات الصوتية والمرئية جزءاً مركزياً من تجربة المستخدم.

وتقدّم بعض المنصات الأخرى ميزات مشابهة، مثل عزل الصوت في أجهزة الهواتف الذكية الحديثة، ولكن إدخال هذه الوظيفة مباشرة داخل تطبيق مثل «واتساب» يوسّع نطاق استخدامها؛ خصوصاً على الأجهزة التي لا توفر هذه الميزة بشكل افتراضي.

تأتي الميزة ضمن منافسة أوسع بين تطبيقات الاتصال لتحسين تجربة الصوت (أدوبي)

رغم الفوائد المحتملة، تبقى هناك تحديات تتعلق بدقة عزل الصوت؛ خصوصاً في الحالات التي تتداخل فيها الأصوات، أو تكون الضوضاء قريبة من صوت المستخدم. كما أن الإفراط في معالجة الصوت قد يؤدي أحياناً إلى فقدان بعض التفاصيل، أو جعل الصوت يبدو غير طبيعي.

لذلك يعتمد نجاح هذه الميزة على تحقيق توازن بين تقليل الضوضاء والحفاظ على وضوح الصوت الطبيعي، وهو ما تعمل عليه الشركات التقنية بشكل مستمر.

توجه نحو تحسين تجربة الاتصال

تعكس هذه الخطوة تحولاً في دور تطبيقات المراسلة، من مجرد أدوات لنقل الصوت إلى منصات تعمل على تحسينه قبل إرساله. فبدلاً من الاكتفاء بجودة الاتصال، أصبح التركيز على جودة التجربة نفسها؛ خصوصاً في ظل استخدام المكالمات في العمل والتواصل اليومي.

ولا تزال الميزة قيد الاختبار، ما يعني أن إطلاقها بشكل واسع قد يخضع لمزيد من التعديلات بناءً على تجربة المستخدمين. ولكن في حال اعتمادها، قد تسهم في جعل المكالمات عبر «واتساب» أكثر وضوحاً واعتمادية؛ خصوصاً في الظروف التي كانت تمثل تحدياً في السابق.