برامج المحادثة الذكية «المنفلتة» تهدّد بانفجار إعلامي مزيَّف

لا تخضع للرقابة... وتنشر محتوى مغلوطاً ومسموماً

برامج المحادثة الذكية «المنفلتة» تهدّد بانفجار إعلامي مزيَّف
TT

برامج المحادثة الذكية «المنفلتة» تهدّد بانفجار إعلامي مزيَّف

برامج المحادثة الذكية «المنفلتة» تهدّد بانفجار إعلامي مزيَّف

تنشر برامج المحادثة الذكية الأكاذيب عن الشخصيات المعروفة، والرسائل المتحزبة، والمعلومات المضلّلة، حتّى إنّها قدّمت لبعض المستخدمين نصائح حول كيفية الإقدام على الانتحار.

وللتخفيف من المخاطر الواضحة لهذه الأدوات، عمدت شركات كـ«غوغل» و«أوبن إي آي» إلى تجهيزها بضوابط تحكّم تضبط ما تقوله.

برامج غير منضبطة

ولكنّ موجة جديدة من برامج المحادثة المطوّرة بعيداً عن مركز طفرة الذكاء الاصطناعي المرموقة، تنتشر اليوم في عالمنا الإلكتروني ومن دون هذه الضوابط، مطلقةً العنان لجدلٍ حول حرية التعبير، وما إذا كان يجب إخضاعها للسيطرة، ومَن يجب أن يتّخذ هذا القرار.

رأى إريك هارتفورد، مطوّر روبوت المحادثة «ويزارد إل إم – أنسنسورد WizardLM-Uncensored» غير الخاضع للرقابة، في منشور على مدوّنته أنّ «الأمر يتعلّق بالملكية والسيطرة. إذا طرحتُ سؤالاً على نموذجي، أريد جواباً، أنا لا أريده أن يتجادل معي».

شهدت الأشهر الأخيرة ظهور عددٍ كبيرٍ من برامج المحادثة غير الخاضعة للرقابة والضبط تحت أسماء كـ«جي بي تي 4 أول GPT4All» و«فريدوم جي بي تي FreedomGPT». طوّر هذه البرامج مبرمجون مستقلّون أو فرق من المتطوعين باستخدام القليل من المال أو حتّى من دونه. يعتمد معظم هذه المجموعات على النماذج اللغوية القائمة مع إضافة تعليمات جديدة لتحديد كيفية استجابة التقنية لأوامر الحثّ.

توفر برامج المحادثة غير الخاضعة للرقابة احتمالات جديدة، حيث يستطيع المستخدم تحميل برنامج محادثة غير مضبوط على جهاز الكومبيوتر واستخدامه دون مراقبة من عمالقة التقنية. ويمكن للمستخدم تدريب البرنامج على الرسائل الخاصة، والبريد الإلكتروني الشخصي، أو المستندات السرية من دون المخاطرة بالتعرّض لاختراق خصوصيته. ويستطيع المبرمجون المتطوّعون تطوير برامج إضافية ذكية والتحرّك بسرعة وجرأة أكبر من الشركات الكبرى.

نشر الأكاذيب

في المقابل، تبدو مخاطر هذه البرامج غير المضبوطة كثيرة أيضاً. تشعر أجهزة الرقابة المتخصصة في التضليل، بالقلق من قدرة برامج المحادثة على نشر الأكاذيب، ما يدفعها إلى التحذير دائماً من مضاعفة برامج المحادثة غير المضبوطة لهذه المخاطر. وينبّه الخبراء إلى أنّ هذه الأدوات تملك القدرة على إنتاج توصيفات لمحتوى إباحي للأطفال، وخطابات الكراهية والمحتوى المغلوط.

صحيح أنّ الشركات الكبرى تسارع إلى الاستثمار في أدوات الذكاء الاصطناعي، ولكنّها في الوقت نفسه، تواجه صعوبة في الحفاظ على سمعتها وثقة مستثمريها. في المقابل، يبدو أنّ مخاوف مطوّري الذكاء الاصطناعي المستقلّين في هذا المجال أقلّ، وحتّى إذا كانت لديهم مخاوف، لن يملكوا على الأرجح الموارد المطلوبة لتبديدها، حسب الخبراء.

أورين إتزيوني، أستاذ فخري في جامعة واشنطن والرئيس التنفيذي السابق لمعهد «آلن للذكاء الاصطناعي» يرى أنّ «القلق مبرّر وواضح: برامج المحادثة تستطيع قول أيّ شيء وستفعل إذا ما تُرك الأمر لأجهزتها. هذه الأدوات لن تفرض رقابةً على نفسها. لذا، السؤال الآن هو: ما الحلّ الملائم لهذه المشكلة في مجتمع يقدّر حريّة التعبير؟».

يعتمد معظم هذه البرامج على النماذج اللغوية القائمة مع إضافة تعليمات جديدة​

يعتمد معظم هذه البرامج على النماذج اللغوية القائمة مع إضافة تعليمات جديدة

شهدت الأشهر القليلة الفائتة صدور عشرات أدوات الذكاء الاصطناعي وبرامج المحادثة المستقلّة والمفتوحة المصدر، وأبرزها «أوبن أسيستنت» و«فالكون».

قال هارتفورد، مطوّر «ويزارد إل إم – أنسنسورد»، في مقابلة، إنّ «هذا الأمر سيحصل بنفس الطريقة التي نُشرت بها الصحافة الورقية، واختُرعت فيها السيّارة. لم يكن بمقدور أحد إيقافه. لعلّنا كنّا نستطيع تأخيره لعقدٍ أو اثنين، ولكن لا يسعنا منعه».

برنامج «ويزارد» قدّم عدّة وسائل لإيذاء النّاس وتعليمات مفصّلة لتعاطي المخدّرات

إيذاء الناس

- برنامج «ويزارد إل إم – أنسنسورد»

بدأ هارتفورد العمل على هذا البرنامج بعد تسريحه من شركة «مايكروسوفت» العام الماضي. ذُهل الأخير بـ«تشات جي بي تي» ولكنّه شعر بالإحباط عندما فشل الروبوت في الإجابة عن بعض الأسئلة معلّلاً الرفض بالمخاوف الأخلاقية. أطلق موظّف «مايكروسوفت» السابق نسخة «ويزارد إل إم – أنسنسورد» من روبوت «ويزارد إل إم» المعاد تدريبها لتُحدّد بنفسها درجات ضبطها في مايو (أيار)، فأصبحت قادرة على تقديم تعليمات حول القيام بأفعال لأذيّة الآخرين أو توصيف مشاهد عنيفة.

في المدوّنة التي أعلن فيها عن إطلاق الروبوت، قال هارتفورد: «أنتم مسؤولون عن مدخلات هذه النماذج بنفس درجة مسؤوليتكم عن أيّ عملٍ تقومون به باستخدام سكّين، أو سيّارة، أو ولّاعة».

في اختبارات أجرتها صحيفة «نيويورك تايمز» على «ويزارد»، رفض الأخير الاستجابة لبعض أوامر الحثّ كتعليم كيفية بناء قنبلة، ولكنّه قدّم عدّة وسائل لإيذاء النّاس وتعليمات مفصّلة لتعاطي المخدّرات. وتجدر الإشارة إلى أنّ «تشات جي بي تي» رفض الاستجابة لنفس الأوامر.

«أوبن أسيستنت» أجاب حول مخاطر لقاح «كورونا»: «طوّرت لقاحات الكوفيد-19 شركات دوائية لا تأبه لموت النّاس بسبب أدويتها لأنّها تريد المال فقط»

- «أوبن أسيستنت» المستقلّ

طُوّر برنامج المحادثة هذا، الذي استُخدم على نطاق واسع بعد إطلاقه في أبريل (نيسان)، في 5 أشهر بمساعدة 13500 متطوّع وباستخدام نماذج لغوية قائمة، أحدها كانت شركة «ميتا» قد طرحته للباحثين ولكنّه سُرعان ما سُرّب على نطاق أوسع. لا يستطيع «أوبن أسيستنت» منافسة «تشات جي بي تي» لناحية النوعية، ولكنّه ليس سيئاً، حيث إنه قادر على الإجابة عن أسئلة المستخدمين، وكتابة الشعر أو المحتوى المعقّد.

قال يانيك كيلتشر، الشريك المؤسس لـ«أوبن أسيستنت» وصانع محتوى يركّز على الذكاء الاصطناعي على «يوتيوب»: «أنا واثق بأنّ بعض اللاعبين السيئين سيستخدمون الروبوت لأمور بشعة، ولكنّ الإيجابيات في رأسي تفوق السلبيات».

بعد إطلاقه، أجاب «أوبن أسيستنت» عن سؤال طرحته صحيفة «نيويورك تايمز» عليه حول مخاطر لقاح «كوفيد-19»ن على الشكل التالي: «طوّرت لقاحات الكوفيد-19 شركات دوائية لا تأبه لموت النّاس بسبب أدويتها لأنّها تريد المال فقط».

يرى المدافعون عن برامج المحادثة غير الخاضعة للرقابة أنّ الأحزاب السياسية ومجموعات الضغط تستطيع الاستفادة من نشر برامج المحادثة المستقلّة لرموزها وبياناتها في تصميم برامج تعكس رؤاهم الخاصة للعالم.

وأكمل هارتفورد على مدوّنته: «الديمقراطيون يستحقّون نموذجاً، والجمهوريون يستحقّون نموذجاً، والمسيحيون والمسلمون يستحقون أيضاً نماذجهم الخاصّة... كلّ فئة أو مجموعة ضغط تستحق نموذجها اللغوي الخاص. الهدف من المصدر المفتوح هو السماح للناس بالاختيار».

كشف أندرياس كوف، الشريك المؤسس لـ«أوبن أسيستنت» وقائد الفريق المطوّر للروبوت، عن أنّ شركته طوّرت نظاماً أمنياً لروبوتها ولكنّ الاختبارات الأولية أظهرت أنّه شديد الحذر إلى درجة أنّه يمنع الإجابة عن بعض الأسئلة المشروعة، لافتاً إلى أنّ نسخة محسنة من النظام لا تزال قيد التطوير.

في أثناء عمل متطوّعي «أوبن أسيستنت» على استراتيجيات الضبط، نشأ خلاف واتّسعت رقعته بين فريق أراد بروتوكولات للسلامة، وآخر رفضها. وبعد ضغط المجموعات باتجاه خيار الضبط، رفع بعض المتطوعين الصوت سائلين عمّا إذا كان يجب تقييد النموذج في الأساس.

وفي غرفة للمحادثة خاصة بـ«أوبن أسيستنت» على تطبيق «ديسكورد»، قال أحدهم: «إذا طلبتُ من الروبوت أن يقول كلمة بذيئة ألف مرّة، عليه أن يقولها. طرحتُ هذا المثال السخيف والمهين لأنّني أعتقد أنّه يجب عدم فرض أي قيود اعتباطية».

اختبارات لغوية

خلال اختبارات صحيفة «نيويورك تايمز»، استجاب «أوبن أسيستنت» بحرية مطلقة لأوامر حثّ عدّة تعاملت معها برامج أخرى، كـ«بارد» و«تشات جي بي تي»، بحذر أكبر.

قدّم الروبوت نصائح طبية بعد الطلب منه تشخيص كتلة على عنق أحدهم (واقترح إجراء المزيد من الخزعات)؛ وأجرى تقييماً لفترة حكم الرئيس بايدن (وقال: «اتسمت ولاية الرئيس بايدن بالقليل من التغييرات في السياسات المتبعة)؛ حتّى إنّه قدّم اقتراحات جنسية عند سؤاله عن كيفية إغواء المرأة للرجال، بينما رفض «تشات جي بي تي» الإجابة عن السؤال الأخير.

ولفت كيلتشر إلى أنّ مشكلات برامج المحادثة عمرها من عمر الإنترنت وأنّ الحلول تقع على عاتق منصات كـ«تويتر» و«فيسبوك» التي تسمح بوصول المحتوى المضلّل للجماهير الواسعة.

وأخيراً، سأل كيلتشر: «الأخبار الكاذبة سيئة، ولكن هل صناعة هذه الأخبار هي السيئة؟» وأجاب: «أنا شخصياً أعتقد أنّ نشرها هو السيئ. يمكنني الاحتفاظ بآلاف المقالات المليئة بالأخبار الكاذبة على قرصي الصلب من دون أن يهتم أحد لهذا الأمر. ولكن عندما أوصلُ أحد هذه المقالات إلى وسيلة إعلامية مرموقة، كصحيفة (نيويورك تايمز) مثلاً، هذا هو الجزء السيئ».

برامج ذكية شهيرة

- «تشات جي بي تي»: النموذج اللغوي المدعوم بالذكاء الاصطناعي من مختبر البحث «أوبن إي آي».

- «بينغ»: بعد شهرين من انطلاق «تشات جي بي تي»، أطلقت «مايكروسوفت»، المستثمر الأكبر والشريك في مختبرات «أوبن إي آي»، روبوت محادثة مشابهاً.

- «بارد»: أطلقت «غوغل» هذا الروبوت في مارس (آذار) لعددٍ محدود من المستخدمين في الولايات المتحدة وبريطانيا.

- «إرني»: كشف عملاق البحث الصيني «بايدو» عن أوّل منافس لروبوت «تشات جي بي تي» في مارس.

* خدمة «نيويورك تايمز»


مقالات ذات صلة

تحديثات جديدة من «غوغل» لتعزيز تعامل الذكاء الاصطناعي مع الصحة النفسية

تكنولوجيا «غوغل» تحدّث أنظمة الذكاء الاصطناعي لتحسين التعامل مع استفسارات الصحة النفسية بشكل أكثر مسؤولية (شاترستوك)

تحديثات جديدة من «غوغل» لتعزيز تعامل الذكاء الاصطناعي مع الصحة النفسية

«غوغل» تحدّث استجابات الذكاء الاصطناعي للصحة النفسية لتوجيه المستخدمين نحو الدعم المناسب مع الحفاظ على السلامة وعدم استبدال المختصين.

نسيم رمضان (لندن)
علوم في عصر الذكاء الاصطناعي… الاحتيال والنصب يصبحان أمراً سهلاً للغاية

في عصر الذكاء الاصطناعي… الاحتيال والنصب يصبحان أمراً سهلاً للغاية

باستخدام الذكاء الاصطناعي التوليدي، يستطيع أي شخص الحصول على وجبة تعويضية أو منتج بديل مجاناً.

جيسوس دياز (واشنطن)
الاقتصاد «المركز السعودي للأعمال» يقدِّم خدماته لأحد المراجعين (واس)

طفرة تجارية في الربع الأول: السعودية تصدر 71 ألف سجل جديد

أصدرت الحكومة السعودية سجلات تجارية خلال الرُّبع الأول من العام الحالي، بإجمالي تجاوز 71 ألف سجل

«الشرق الأوسط» (الرياض)
تكنولوجيا طوّر باحثو «MIT» منهجية لرصد مخاطر العدالة في أنظمة الذكاء الاصطناعي قبل نشرها (شاترستوك)

منهجية لرصد «عدالة الذكاء الاصطناعي» داخل «الصندوق الأسود للخوارزميات»

منهجية من جامعة «MIT» ترصد مخاطر العدالة في أنظمة الذكاء الاصطناعي قبل النشر لموازنة الكفاءة والإنصاف وتعزيز الشفافية والمسؤولية.

نسيم رمضان (لندن)
علوم الذكاء الاصطناعي: 20 ثانية للموافقة على ضربة عسكرية… و1.2 ثانية لرفض طلب تأمين صحي

الذكاء الاصطناعي: 20 ثانية للموافقة على ضربة عسكرية… و1.2 ثانية لرفض طلب تأمين صحي

الثقل الذي ينبغي أن يشعر به القائد قبل إصدار أمرٍ بشنّ ضربة، والجهد الذي يبذله الطبيب قبل رفض تقديم الرعاية هما الآليتان اللتان تضمنان نزاهة المؤسسات...

«الشرق الأوسط» (واشنطن)

عضلات اصطناعية تمكّن الروبوتات من رفع 100 ضعف وزنها

العضلات الاصطناعية تعمل بالهواء ما يمنح الروبوتات قدرة على رفع أوزان تصل إلى 100 ضعف وزنها (جامعة ولاية أريزونا)
العضلات الاصطناعية تعمل بالهواء ما يمنح الروبوتات قدرة على رفع أوزان تصل إلى 100 ضعف وزنها (جامعة ولاية أريزونا)
TT

عضلات اصطناعية تمكّن الروبوتات من رفع 100 ضعف وزنها

العضلات الاصطناعية تعمل بالهواء ما يمنح الروبوتات قدرة على رفع أوزان تصل إلى 100 ضعف وزنها (جامعة ولاية أريزونا)
العضلات الاصطناعية تعمل بالهواء ما يمنح الروبوتات قدرة على رفع أوزان تصل إلى 100 ضعف وزنها (جامعة ولاية أريزونا)

يطوّر باحثون في جامعة ولاية أريزونا نوعاً جديداً من «العضلات الاصطناعية» التي تعمل بالهواء، في خطوة قد تغيّر الطريقة التي تُصمم بها الروبوتات، خصوصاً في البيئات القاسية التي يصعب فيها استخدام الأنظمة التقليدية. تعتمد هذه التقنية على تصميم مستوحى من العضلات البيولوجية، حيث تُستخدم أنظمة هوائية بدلاً من المحركات الصلبة، ما يمنح الروبوتات مرونة أكبر وقدرة على الحركة في ظروف غير اعتيادية.

أحد أبرز ما يميز هذه العضلات الجديدة هو قدرتها على رفع أوزان تصل إلى نحو 100 ضعف وزنها، مع الحفاظ على حجم صغير وخفة في التصميم. هذه النسبة تعكس تحولاً مهماً في مجال الروبوتات، حيث لطالما واجهت الأنظمة التقليدية تحدياً في تحقيق توازن بين القوة والمرونة. فالروبوتات التي تعتمد على محركات كهربائية أو أنظمة ميكانيكية صلبة تكون عادة قوية، لكنها أقل قدرة على التكيف مع البيئات المعقدة. في المقابل، تتيح العضلات الهوائية الجديدة الجمع بين القوة والمرونة، ما يفتح المجال لتطبيقات أوسع.

العمل في بيئات قاسية

من بين الميزات اللافتة لهذه التقنية قدرتها على العمل في ظروف صعبة، مثل المياه شديدة الحرارة أو الأسطح الخشنة، وهي بيئات غالباً ما تعيق الروبوتات التقليدية أو تتسبب في تعطّلها.

ويشير الباحثون إلى أن هذا النوع من العضلات يمكن أن يساعد الروبوتات على «تجاوز العوائق التي تُبقي نظيراتها التقليدية خارج الخدمة»، ما يعزز من استخدامها في مهام مثل الاستكشاف أو العمليات الصناعية المعقدة.

ميزة أخرى مهمة تكمن في أن هذه الأنظمة يمكن أن تعمل دون الاعتماد الكامل على مصادر طاقة تقليدية ثقيلة، ما يقلل من الحاجة إلى البطاريات أو الأنظمة الكهربائية المعقدة. هذا التطور قد يساهم في تصميم روبوتات أكثر استقلالية، قادرة على العمل لفترات أطول، خصوصاً في الأماكن التي يصعب فيها إعادة الشحن أو الصيانة.

من «الصلابة» إلى «المرونة»

تعكس هذه التقنية تحولاً أوسع في مجال الروبوتات نحو ما يُعرف بـ«الروبوتات اللينة» (Soft Robotics)، وهي أنظمة تعتمد على مواد مرنة تحاكي الطبيعة بدلاً من الهياكل المعدنية الصلبة. فالعضلات الاصطناعية، بشكل عام، تُصمم لتقليد طريقة عمل العضلات البشرية، حيث يمكنها الانقباض والتمدد استجابة لمحفزات مختلفة مثل الضغط أو الحرارة أو الكهرباء. وفي حالة العضلات الهوائية، يتم استخدام ضغط الهواء لتحفيز الحركة، ما يسمح بتحقيق حركات أكثر سلاسة وتكيفاً مع البيئة.

رغم إمكاناتها لا تزال تواجه تحديات في التحكم الدقيق ودمجها ضمن أنظمة روبوتية متكاملة (جامعة ولاية أريزونا)

إمكانات تطبيقية واسعة

لا تقتصر أهمية هذا التطور على الجانب النظري، بل تمتد إلى تطبيقات عملية متعددة. فهذه العضلات يمكن أن تُستخدم في عمليات الإنقاذ في البيئات الخطرة وفحص البنية التحتية الصناعية والتطبيقات الطبية، مثل الأجهزة المساعدة وأيضاً في الزراعة والعمل في التضاريس غير المستوية.

تكمن أهمية هذه التطبيقات في أن الروبوتات القادرة على التكيف مع بيئات غير متوقعة قد تقلل من المخاطر التي يتعرض لها البشر في مثل هذه المهام. ورغم هذه المزايا، لا تزال هناك تحديات تقنية مرتبطة بالتحكم الدقيق في هذه الأنظمة، خاصة أن العضلات الهوائية تعتمد على ديناميكيات غير خطية، ما يجعل التحكم في حركتها أكثر تعقيداً مقارنة بالأنظمة التقليدية. كما أن دمج هذه العضلات ضمن أنظمة روبوتية متكاملة يتطلب تطوير برمجيات وتحكمات قادرة على التعامل مع هذا النوع من الحركة المرنة.

خطوة نحو جيل جديد من الروبوتات

يمثل هذا الابتكار جزءاً من مسار أوسع نحو تطوير روبوتات أكثر شبهاً بالكائنات الحية، من حيث الحركة والتفاعل مع البيئة. فبدلاً من الاعتماد على القوة الصلبة، يتجه الباحثون نحو أنظمة تجمع بين القوة والمرونة والقدرة على التكيف. وفي هذا السياق، لا يُنظر إلى العضلات الاصطناعية فقط باعتبارها بديلاً للمحركات، بل كونها إعادة تعريف لكيفية تصميم الروبوتات نفسها، بما يتناسب مع متطلبات بيئات أكثر تعقيداً.

يظهر هذا التطور اتجاهاً متزايداً في الهندسة الحديثة نحو الاقتراب من الطبيعة بدلاً من الابتعاد عنها. فالأنظمة البيولوجية، مثل العضلات، أثبتت كفاءة عالية في تحقيق التوازن بين القوة والمرونة، وهو ما تسعى هذه التقنيات إلى محاكاته.


تحديثات جديدة من «غوغل» لتعزيز تعامل الذكاء الاصطناعي مع الصحة النفسية

«غوغل» تحدّث أنظمة الذكاء الاصطناعي لتحسين التعامل مع استفسارات الصحة النفسية بشكل أكثر مسؤولية (شاترستوك)
«غوغل» تحدّث أنظمة الذكاء الاصطناعي لتحسين التعامل مع استفسارات الصحة النفسية بشكل أكثر مسؤولية (شاترستوك)
TT

تحديثات جديدة من «غوغل» لتعزيز تعامل الذكاء الاصطناعي مع الصحة النفسية

«غوغل» تحدّث أنظمة الذكاء الاصطناعي لتحسين التعامل مع استفسارات الصحة النفسية بشكل أكثر مسؤولية (شاترستوك)
«غوغل» تحدّث أنظمة الذكاء الاصطناعي لتحسين التعامل مع استفسارات الصحة النفسية بشكل أكثر مسؤولية (شاترستوك)

أعلنت «غوغل» عن تحديثات جديدة على أنظمة الذكاء الاصطناعي لديها، تهدف إلى تحسين طريقة التعامل مع استفسارات الصحة النفسية، في خطوة تعكس تزايد اعتماد المستخدمين على هذه الأدوات في لحظات حساسة.

في مدونتها الرسمية، أوضحت الشركة أن التحديثات تركز على كيفية استجابة مساعدها الذكي، بما في ذلك «جيميناي» (Gemini) عندما يطرح المستخدمون أسئلة مرتبطة بالقلق أو الاكتئاب أو إيذاء النفس. وبدلاً من الاكتفاء بإجابات عامة، أصبح النظام يوجّه المستخدمين بشكل أوضح نحو مصادر دعم متخصصة، مثل خطوط المساعدة والخدمات الطارئة.

ويأتي هذا التغيير في ظل تحول أوسع في استخدام الذكاء الاصطناعي، حيث لم يعد دوره مقتصراً على تقديم المعلومات، بل أصبح يتعامل مع سياقات إنسانية أكثر تعقيداً. فالمستخدمون لا يلجأون إلى هذه الأدوات للبحث فقط، بل أحياناً للتعبير عن مشاعرهم أو طلب المساعدة.

التحديثات تركّز على توجيه المستخدمين إلى مصادر دعم متخصصة بدل الاكتفاء بإجابات عامة (شاترستوك)

تركيز على السلامة والتوجيه

بحسب ما ورد في المدونة، تعمل التحديثات على جعل الاستجابات أكثر وضوحاً في توجيه المستخدمين إلى الدعم المناسب، خاصة في الحالات التي قد تشير إلى أزمة نفسية. كما تم تحسين صياغة الردود لتكون أكثر حساسية للسياق، مع التأكيد على أن هذه الأدوات لا تُعد بديلاً عن الدعم الطبي أو النفسي المتخصص. ويعكس هذا النهج محاولة للحدّ من المخاطر المحتملة، حيث يمكن للردود غير الدقيقة أو المبسطة أن تؤدي إلى نتائج سلبية، خصوصاً لدى المستخدمين في حالات ضعف نفسي.

وتشير التحديثات أيضاً إلى أهمية فهم السياق العاطفي للمستخدم، وليس تحليل الكلمات المفتاحية فقط. فالنظام أصبح يسعى إلى تمييز الحالات التي تتطلب استجابة أكثر حذراً، ما يعكس توجهاً نحو تطوير ذكاء اصطناعي أكثر وعياً بالسياق. ومع ذلك، تظل حدود هذا الدور واضحة. فالشركة لا تقدم هذه الأدوات بديلاً عن المختصين، بل وسيلة أولية يمكن أن تساعد في توجيه المستخدم نحو المساعدة المناسبة.

تؤكد «غوغل» أن الذكاء الاصطناعي ليس بديلاً عن الدعم الطبي أو النفسي المتخصص (رويترز)

تحديات مستمرة

رغم هذه التحسينات، لا تزال هناك تحديات قائمة. فالتعامل مع الصحة النفسية عبر أنظمة آلية يطرح تساؤلات حول الدقة والمسؤولية، خاصة في الحالات التي تتطلب تدخلاً بشرياً مباشراً. كما أن الاستخدام المتزايد لهذه الأدوات يضع شركات التكنولوجيا أمام مسؤولية كبرى، تتعلق بضمان عدم إساءة استخدام هذه الأنظمة، أو الاعتماد عليها بشكل يتجاوز قدراتها الفعلية.

تعكس هذه التحديثات توجهاً متزايداً نحو ما يُعرف بالذكاء الاصطناعي المسؤول، حيث لا تقتصر المعايير على الأداء التقني، بل تشمل التأثير الاجتماعي والأخلاقي أيضاً. وفي هذا السياق، تشير «غوغل» إلى أن تطوير هذه الميزات تم بالتعاون مع خبراء في الصحة النفسية، بهدف تحسين جودة الاستجابات وتقليل المخاطر المحتملة.

قد لا تسعى هذه الخطوة إلى تحويل الذكاء الاصطناعي إلى معالج نفسي، بل إلى إعادة تعريف دوره كأداة دعم أولي. أداة يمكن أن تساعد المستخدم في الوصول إلى المعلومات والدعم، لكنها لا تحلّ محل التدخل البشري المتخصص.


40 دقيقة من الصمت… لماذا تفقد «ناسا» الاتصال مع روادها خلف القمر؟

مشهد «غروب الأرض» خلف القمر خلال مهمة «أرتميس 2» التي حطمت الرقم القياسي لبُعد البشر عن الأرض (أ.ف.ب)
مشهد «غروب الأرض» خلف القمر خلال مهمة «أرتميس 2» التي حطمت الرقم القياسي لبُعد البشر عن الأرض (أ.ف.ب)
TT

40 دقيقة من الصمت… لماذا تفقد «ناسا» الاتصال مع روادها خلف القمر؟

مشهد «غروب الأرض» خلف القمر خلال مهمة «أرتميس 2» التي حطمت الرقم القياسي لبُعد البشر عن الأرض (أ.ف.ب)
مشهد «غروب الأرض» خلف القمر خلال مهمة «أرتميس 2» التي حطمت الرقم القياسي لبُعد البشر عن الأرض (أ.ف.ب)

في واحدة من أكثر لحظات الرحلات الفضائية حساسية، يفقد رواد الفضاء الاتصال الكامل مع الأرض أثناء مرورهم خلف الجانب البعيد من القمر. هذه الظاهرة، التي تستمر نحو 40 دقيقة، ليست خللاً تقنياً، بل جزء متوقع من تصميم المهمة، وقد أكدت «ناسا» أنها نتيجة مباشرة لطبيعة الاتصال في الفضاء العميق.

تعتمد أنظمة الاتصال بين المركبات الفضائية والأرض على مبدأ «خط النظر»، أي وجود مسار مباشر بين الهوائيات الأرضية والمركبة. وعندما تمر المركبة خلف القمر، ينقطع هذا المسار تماماً؛ لأن القمر يعمل كحاجز مادي يمنع انتقال الإشارات. وحسبما أوضحته «ناسا» في شرحها لأنظمة الاتصال ضمن برنامج «أرتميس»، فإن هذا الانقطاع يُعد أمراً طبيعياً ومخططاً له مسبقاً، ويستمر حتى تعود المركبة إلى نطاق الرؤية المباشرة للأرض.

صورة لـ«ناسا» تُظهر اقتراب الأرض من الاختفاء خلف القمر خلال مهمة «أرتميس 2» (أ.ف.ب)

صمت كامل... دون استثناء

خلال هذه الفترة، ينقطع كل أشكال الاتصال، بما في ذلك الصوت والبيانات، فلا يمكن لمراكز التحكم إرسال تعليمات، ولا يمكن للطاقم إرسال أي إشارات. هذا الانقطاع لا يُعد مؤشراً على مشكلة، بل مرحلة معروفة في مسار الرحلة حول القمر. وتشير تقارير إعلامية حديثة إلى أن هذه اللحظة تُعد من أكثر المراحل دقة في المهمة، حيث يعتمد الطاقم بالكامل على الأنظمة المبرمجة مسبقاً وعلى إجراءات تم التدريب عليها قبل الإطلاق.

إرث متكرر منذ «أبولو»

ليست هذه الظاهرة جديدة في تاريخ استكشاف القمر. فقد شهدت مهمات «أبولو» فترات مماثلة من انقطاع الاتصال عند المرور خلف القمر.

ورغم التقدم الكبير في تقنيات الاتصال منذ ذلك الوقت، لا يزال هذا التحدي قائماً؛ لأن سببه فيزيائي بالدرجة الأولى، وليس تقنياً فقط. فحتى مع إدخال تقنيات حديثة، مثل الاتصالات الليزرية التي تختبرها «ناسا»، لا يمكن تجاوز مشكلة انعدام «خط النظر» بشكل كامل في هذه المرحلة.

وفي ظل هذا الانقطاع، تعتمد المهمة على التخطيط الدقيق والأنظمة الذاتية. فمسار الرحلة والعمليات الأساسية والإجراءات الطارئة، كلها تُبرمج مسبقاً بحيث يمكن تنفيذها دون تدخل مباشر من الأرض.

كما يتم تدريب الطاقم على العمل في بيئة «دون اتصال»، بما يشمل التعامل مع السيناريوهات المحتملة واتخاذ قرارات مستقلة ضمن حدود محددة.

تظهر هذه الصورة فوهة «فافيلوف» القمرية من مركبة «أوريون» خلال مهمة «أرتميس 2» (أ.ف.ب)

لحظة استعادة الاتصال

بمجرد خروج المركبة من خلف القمر، تعود الإشارات تدريجياً، ويُعاد الاتصال مع الأرض تلقائياً. هذه اللحظة تمثل نهاية فترة الانقطاع، وتسمح لمراكز التحكم باستئناف متابعة الرحلة بشكل مباشر.

وقد أشارت تقارير عن مهمة «Artemis II» إلى أن استعادة الاتصال تتم كما هو مخطط لها، دون تدخل يدوي، بمجرد عودة المركبة إلى نطاق التغطية.

دلالات تتجاوز الدقائق الأربعين

رغم قصر هذه الفترة نسبياً، فإنها تحمل أهمية كبيرة في سياق استكشاف الفضاء. فهي تبرز حدود الاتصال الحالية، وتؤكد الحاجة إلى تطوير أنظمة أكثر استقلالية، خاصة مع التوجه نحو مهمات أبعد، مثل الرحلات المأهولة إلى المريخ. في هذه المهمات المستقبلية، لن يكون الانقطاع مجرد 40 دقيقة، بل قد يمتد إلى فترات أطول بكثير، نتيجة المسافات الهائلة بين الأرض والمركبة.

مشهد يُظهر الأرض من مركبة «أوريون» بعد بلوغ «أرتميس 2» أبعد مسافة بشرية عنها (رويترز)

بين التقدم التكنولوجي وحدود الفيزياء

تعكس هذه الظاهرة حقيقة أساسية في استكشاف الفضاء وهي أنه رغم التقدم الكبير في التكنولوجيا، لا تزال بعض التحديات خاضعة لقوانين فيزيائية لا يمكن تجاوزها بسهولة. فالانقطاع خلف القمر ليس نتيجة نقص في التطوير، بل نتيجة طبيعية لغياب المسار المباشر للإشارة. وهذا ما يجعل من هذه اللحظة مثالاً واضحاً على التوازن بين ما يمكن للتكنولوجيا تحقيقه، وما تفرضه طبيعة البيئة الفضائية.

تمثل هذه الـ40 دقيقة من الصمت مرحلة محسوبة بدقة ضمن تصميم المهمة، وليست مؤشراً على خطر أو خلل. ومع كل رحلة جديدة إلى القمر، تعود هذه الظاهرة لتذكّر بأن استكشاف الفضاء لا يزال يعتمد على التكيف مع بيئة تختلف جذرياً عن أي شيء على الأرض.