وكلاء الذكاء الاصطناعي... «ومضات من التألق والإحباط»

وعود ومخاطر أدوات المساعدة الرقمية المستقبلية

وكلاء الذكاء الاصطناعي... «ومضات من التألق والإحباط»
TT

وكلاء الذكاء الاصطناعي... «ومضات من التألق والإحباط»

وكلاء الذكاء الاصطناعي... «ومضات من التألق والإحباط»

تركتُ وكيل الذكاء الاصطناعي يدير شؤوني اليومية. لنتخيل أنك تجلس لتناول وجبة لم تطلبها مباشرة، لتكتشف أن اختيارها ودفع ثمنها وتسليمها إلى طاولتك، تمت بواسطة وكيل ذكاء اصطناعي يعمل نيابة عنك.

فجر الذكاء الاصطناعي الوكيل

لم يعد هذا السيناريو خيالاً علمياً. إذ يضج قطاع التكنولوجيا الآن بـ«وكلاء الذكاء الاصطناعي»: مساعدون رقميون يتولون مهام متنوعة مثل طلب الطعام وإدارة البريد الإلكتروني أو تجميع الرموز البرمجية. ويَعِدُ هؤلاء الوكلاء بتغيير الحياة اليومية من خلال أتمتة القرارات الروتينية واللوجستيات، ما يقدم لمحة عن مستقبل يُدار فيه الكثير من عالمنا الرقمي والمادي من خلال أنظمة ذكية.

وأنا أتحدث هنا عن تجربتي مع اثنين من وكلاء الذكاء الاصطناعي الرائدين: «أوبريتور - Operator»، الذي طورته شركة «أوبن إيه آي» التي طورت «تشات جي بي تي»، و«مانوس - Manus»، من تطوير شركة «باترفلاي إيفكت - Butterfly Effect»، وهي شركة صينية ناشئة.

ومن خلال التجربة والخطأ، وقدر لا بأس به من التخمينات، فاني سأشرع في الإجابة على سؤالين أساسيين: هل نحن مستعدون للثقة في وكلاء الذكاء الاصطناعي الذين يتحكمون بشكل كبير في حياتنا، وهل تفي هذه الأنظمة بوعودها؟

من «التوليدي» إلى «الوكيل»

الذكاء الاصطناعي التوليدي. إن أساس هذه القفزة التكنولوجية هو الذكاء الاصطناعي التوليدي، المدعوم بالنماذج اللغوية الكبيرة (LLMs) المدربة على مجموعات بيانات ضخمة جُمعت من الإنترنت. ومنذ عام 2023، احتل الذكاء الاصطناعي التوليدي عناوين الأخبار لقدرته على إنشاء محتوى أصلي - سواء كان نصاً أو صوراً أو رموزاً كومبيوترية - بناء على مطالبات اللغة الطبيعية. ومع ذلك، على الرغم من الطابع التحويلي لهذا الأمر، فقد اقتصر دور الذكاء الاصطناعي بصورة كبيرة على دور «مساعد الطيار»: إذ إنه يقترح المحتوى، ويقدم التوصيات، أو يجيب على الأسئلة.

> الذكاء الاصطناعي الوكيل، من جانبه مصمم لتجاوز الاقتراحات السلبية إلى مستوى اتخاذ القرارات وتنفيذها بصورة فعالة. ويشرح بيتر ستون، مؤسس «مجموعة أبحاث وكلاء التعلم» في جامعة تكساس في أوستن، أن الذكاء الاصطناعي الوكيل «يستشعر البيئة، ويقرر ما يجب فعله، ويتخذ الإجراء». وبدلاً من مجرد التوصية بطبق ما أو تحديد موقع مطعم، يمكن للذكاء الاصطناعي الوكيل الآن تصفح قوائم الطعام، وتقديم الطلبات، والدفع باستخدام بطاقة الائتمان خاصتك، وتنسيق عملية التسليم - كل ذلك بشكل مستقل.

كيف يعمل الذكاء الاصطناعي الوكيل؟

بينما يدعم الذكاء الاصطناعي التوليدي أساس هذه الأنظمة، يضيف الذكاء الاصطناعي الوكيل طبقات من التفاعل في العالم الحقيقي. عندما يُمنح هدفاً، مثل «طلب العشاء» أو «إنشاء تطبيق»، يضع الذكاء الاصطناعي خطة متعددة الخطوات، ويقرر أفضل طريقة لاستخدام الأدوات الرقمية مثل متصفحات الويب أو التطبيقات. في كل خطوة، يُعيد تقييم تقدمه، ويُعدل إجراءاته حتى يُقرر أن الهدف قد تحقق أو أنه غير قابل للتحقيق. حتى أنه يستخدم حلقة تغذية مرتدة - تسمى التعلم المعزز من التغذية البشرية الراجعة - للتعلم من النجاحات والأخطاء.

يلاحظ ستون أنه على الرغم من أن برامج الذكاء الاصطناعي مثل «ديب بلو - Deep Blue» من تطوير شركة «آي بي إم - IBM» قد تغلبت على بطل العالم في الشطرنج غاري كاسباروف في عام 1997، غير أن تلك الأنظمة لم تكن «وكيلة» حقاً. إذ لم يكن برنامج «ديب بلو» قادراً على التفاعل مع العالم الحقيقي في غياب المساعدة البشرية. وعلى النقيض من ذلك، يمكن للذكاء الاصطناعي الوكيل اليوم أن يعمل في الفضاءات الرقمية مع تدخل بشري طفيف أو لعله لا يُذكر بالمرة.

اختبار الوكلاء

للوقوف على كيفية عمل الذكاء الاصطناعي الوكيل في الواقع العملي، طلبت الحصول على حق الوصول التجريبي إلى نظامين حقيقيين: «أوبريتور» و«مانوس». ووافقت الشركتان على منحي حق الوصول. ويتمثل هدفي في استخدام هذين النظامين الوكيلين كمساعدين شخصيين، مما يُخفف عن المستخدم أكبر قدر ممكن من العمل الروتيني المكثف.

> نتائج متباينة وإحباطات للمستخدمين. كشفت التجارب عن مزيج من النجاحات المبهرة والإحباطات المؤثرة. إذ عند تحميل عرض تقديمي إلى «مانوس»، وطلب إعادة تنسيقه، أكمل الوكيل المهمة ولكن بطريقة تتطلب تصحيحاً يدوياً كبيراً - ما يجعل التعديلات المستقبلية مرهقة. كان أداء «مانوس» أفضل عند إنشاء وتجهيز تطبيق لمتجر التطبيقات، حيث استفاد من مختلف الأدوات الرقمية وواجهات سطر الأوامر بدرجة معتبرة من الكفاءة.

في الوقت نفسه، يواجه «أوبريتور» صعوبات في تنفيذ المهام الإدارية. فعند الطلب منه إدارة الفواتير الإلكترونية لي، يرتكب أخطاء أساسية - مثل إدخال نص في حقول رقمية ونسخ المعلومات بشكل غير صحيح، مما يؤدي إلى اقتراح إصدار فاتورة للناشر بمبلغ 8001 جنيه إسترليني مقابل مقال واحد. هذه الأخطاء أكثر من مجرد إزعاج؛ إنها تكشف عن الطبيعة الناشئة والقابلة للخطأ لوكلاء الذكاء الاصطناعي الحاليين. ومع ذلك، أصررت على المضي قدماً، حتى أنني كلفت «أوبريتور» بمهمة الترويج لهذا المقال على وجه التحديد.

يقوم الذكاء الاصطناعي بصياغة وإرسال رسائل البريد الإلكتروني إلى الخبراء الذين تُجرى معهم المقابلات، ولكن نبرة الرسائل واختيار الكلمات فيها غير ملائم - فهي رسمية للغاية، وأحياناً ساذجة، وتفتقر إلى المعلومات الأساسية. كما أن «أوبريتور» لا يكشف أن وكيل الذكاء الاصطناعي - وليس المؤلف - هو الذي كتب المراسلات، ما قد يؤدي إلى حدوث ارتباك أو عدم ثقة.

> نجاحات جزئية وردود فعل اجتماعية. من المثير للاهتمام أن رسائل البريد الإلكتروني التي أرسلها «أوبريتور» لم تكن فاشلة تماماً. فقد رد بعض المستلمين، مثل خبير الذكاء الاصطناعي بيتر ستون، بشكل إيجابي، وتقبلوا غرابة الذكاء الاصطناعي. وأشاد آخر بـ«dogfooding: الاختبار التجريبي» للمؤلف - وهو مصطلح صناعي يستخدم للإشارة إلى استخدام المرء لتقنيته التجريبية الخاصة. ومع ذلك، رفض خبير آخر المشاركة، مشيراً إلى القيود المؤسسية.

> الحقيقة وراء هذا التهويل. تروج شركات التكنولوجيا للذكاء الاصطناعي الوكيل باعتباره المساعد الذي لا يخطئ في المستقبل، لكن التجارب الحالية تشير إلى عكس ذلك. وبحسب كاريسا فيليز، اختصاصية الأخلاقيات في جامعة أكسفورد، يجب دراسة الحوافز الكامنة وراء هذه الأنظمة بمنتهى الدقة.

يجري إنتاج وكلاء الذكاء الاصطناعي من قبل شركات لها مصالح تجارية خاصة بها. وإذا تمت برمجة وكيل ما أو استخدامه في شراكة لتفضيل خدمات معينة (على سبيل المثال، إعطاء الأولوية لشركات طيران أو مصادر أخبار معينة)، فقد لا تتوافق توصياته دائماً مع مصالح المستخدم. وهنا فإني أستشهد بشراكات «أوبن إيه آي»، مشيراً إلى أن «أوبريتور» قد يفضل شركات أو مصادر بيانات بعينها عند أداء المهام.

> مخاطر الأمان والخصوصية. هناك مصدر قلق أكثر أهمية وهو الخصوصية. يتطلب الذكاء الاصطناعي الوكيل عادة وصولاً واسعاً إلى المعلومات الحساسة - الحسابات المالية، والاتصالات الاجتماعية، وكلمات المرور، وغير ذلك. وتحذر كاريسا فيليز من أن استخدام مثل هذه الوكلاء يستلزم كسر الحواجز الرقمية التي تحمي بياناتنا، ما يزيد من خطر الانتهاكات أو سوء الاستخدام.

ويزداد قلقي عندما يطلب «أوبريتور» بيانات حساسة، مثل معلومات بطاقة الائتمان، عبر واجهات غير مألوفة. الثقة المطلوبة من المستخدمين كبيرة، وبالتالي فإن احتمال سوء الاستخدام أو الخطأ مرتفع بالتبعية* مجلة «نيو ساينتست»،

خدمات «تريبيون ميديا»يدعم هذا القلق بحث أجراه تيانشي لي من جامعة نورث إيسترن، الذي اختبر وكلاء الذكاء الاصطناعي الرائدين، ووجد أنهم عرضة لهجمات بسيطة. على سبيل المثال، إذا تم إخفاء تعليمات ضارة في مستند، فقد يتبعها الوكيل من دون وعي، ويدخل بيانات الاعتماد أو ينقر على روابط خطيرة من دون علم المستخدم. يشير تيانشي لي إلى عدم وجود آليات فعالة للمستخدمين للتدخل أو تصحيح هذه السلوكيات.

> الحواجز الوقائية والإخطارات. للإقلال من المخاطر، صُمم بعض وكلاء الذكاء الاصطناعي بحيث يُخطرون المستخدمين باستمرار قبل اتخاذ أي إجراء. ورغم أن هذا يوفر طبقة إضافية من الأمان، فإنه قد يصبح عبئاً ثقيلاً، حيث يتطلب قدراً كبيراً من الإشراف بحيث تفقد أي مكاسب في الراحة. ونتيجة لذلك، بدلاً من أن يعمل الذكاء الاصطناعي كمساعد مستقل، قد يبدو وكأنه متدرب غير منضبط يتطلب إشرافاً مستمراً وتصحيحات وإدارة دقيقة.

> تكنولوجيا غير ناضجة بعد. تُقر كل من «أوبن إيه آي» و«باترفلاي إيفكت» بأن وكلائهما لا يزالان قيد التطوير. يعترف كولين جارفيس، قائد فريق الهندسة في «أوبن إيه آي»، بأن الذكاء الاصطناعي الوكيل الحالي يحتاج إلى «الكثير من العمل للحصول على تلك الموثوقية». في حين تصف شركة «باترفلاي إيفكت» الوكيل «مانوس» بأنه في مرحلة «تجريبية»، مع استمرار الجهود لتحسين أدائه.

تردد صدى هذه الاعترافات في سابقة تاريخية. ففي عام 2018، وعد الوكيل «دوبلكس - Duplex» من شركة «غوغل» بإحداث ثورة في الحجوزات الهاتفية الآلية، لكنه أخفق في تحقيق انتشاره على نطاق واسع. ولا تزال التحديات المتعلقة بالموثوقية وثقة المستخدم والتكامل السلس تشكل عقبات كبيرة أمامه.

الطريق إلى الأمام

> المبالغة الترويجية مقابل الواقع. على الرغم من هذه العيوب، يستمر الضجيج حول الذكاء الاصطناعي الوكيل في الازدياد. وارتفعت الإشارات إلى الذكاء الاصطناعي الوكيل في تقارير الأرباح المالية بصورة كبيرة - حيث ارتفعت 51 ضعفاً مع نهاية العام الماضي مقارنة بأوائل عام 2022. وتباشر شركات مثل «سيلز فورس» بالفعل نشر وكلاء الذكاء الاصطناعي للتفاعل مع العملاء، ليس فقط كأدوات دعم، وإنما كممثلي مبيعات في الخطوط الأمامية.

ومع ذلك، يُحذر الخبراء من المبالغة في استنتاجات الأداء المثير للإعجاب لأنظمة الذكاء الاصطناعي الحالية مثل «تشات جي بي تي»، إذ يُحذر بيتر ستون من «المبالغة في الترويج»، مشيراً إلى أنه على الرغم من أن الذكاء الاصطناعي الوكيل يمكن أن يكون رائعاً في سياقات محددة ومحدودة، فإنه بعيد كل البعد عن أن يكون جاهزاً ليحل محل العمال البشريين، أو يدير جميع جوانب الحياة بصفة مستقلة. سوف يتطلب بلوغ هذه الطموحات تحقيق اختراقات تقنية كبيرة للغاية.

> الوعود والمخاطر. تقدم تجربتي هذه مع وكلاء الذكاء الاصطناعي صورة مصغرة للتحديات التي يواجهها المجتمع مع انتشار هذه الأدوات. يمكن للذكاء الاصطناعي الوكيل، في بعض الأحيان، أن يقدم لمحات من البراعة - من خلال تنفيذ المهام بسرعة التي قد تكون مملة أو تستغرق وقتاً طويلاً. غير أن الإحباط وعدم اليقين والمخاطر غالبا ما تطغى على هذه الفوائد.

في النهاية، سوف تعتمد رغبتنا في منح وكلاء الذكاء الاصطناعي مسؤوليات أكبر على مدى نضج التكنولوجيا، وشفافية الشركات التي تقف وراءها، وتطوير آليات فعالة لضمان تحكم المستخدم وأمنه. حتى ذلك الحين، قد يكون من الأفضل التعامل مع حتى أبسط الأمور مثل طلب وجبة دجاج بشيء من الحذر الصحي، وربما إعادة التحقق يدوياً للتأكد من عدم نسيان إضافة مقرمشات الروبيان!


مقالات ذات صلة

عضلات اصطناعية تمكّن الروبوتات من رفع 100 ضعف وزنها

تكنولوجيا العضلات الاصطناعية تعمل بالهواء ما يمنح الروبوتات قدرة على رفع أوزان تصل إلى 100 ضعف وزنها (جامعة ولاية أريزونا)

عضلات اصطناعية تمكّن الروبوتات من رفع 100 ضعف وزنها

عضلات اصطناعية تعمل بالهواء تمنح الروبوتات قوة ومرونة لرفع أوزان كبيرة والعمل بكفاءة في بيئات قاسية ومعقدة.

نسيم رمضان (لندن)
تكنولوجيا «غوغل» تحدّث أنظمة الذكاء الاصطناعي لتحسين التعامل مع استفسارات الصحة النفسية بشكل أكثر مسؤولية (شاترستوك)

تحديثات جديدة من «غوغل» لتعزيز تعامل الذكاء الاصطناعي مع الصحة النفسية

«غوغل» تحدّث استجابات الذكاء الاصطناعي للصحة النفسية لتوجيه المستخدمين نحو الدعم المناسب مع الحفاظ على السلامة وعدم استبدال المختصين.

نسيم رمضان (لندن)
تكنولوجيا مشهد «غروب الأرض» خلف القمر خلال مهمة «أرتميس 2» التي حطمت الرقم القياسي لبُعد البشر عن الأرض (أ.ف.ب)

40 دقيقة من الصمت… لماذا تفقد «ناسا» الاتصال مع روادها خلف القمر؟

انقطاع الاتصال خلف القمر ظاهرة طبيعية بسبب غياب خط النظر ما يفرض اعتماداً على الأنظمة الذاتية رغم التقدم التكنولوجي.

نسيم رمضان (لندن)
تكنولوجيا طوّر باحثو «MIT» منهجية لرصد مخاطر العدالة في أنظمة الذكاء الاصطناعي قبل نشرها (شاترستوك)

منهجية لرصد «عدالة الذكاء الاصطناعي» داخل «الصندوق الأسود للخوارزميات»

منهجية من جامعة «MIT» ترصد مخاطر العدالة في أنظمة الذكاء الاصطناعي قبل النشر لموازنة الكفاءة والإنصاف وتعزيز الشفافية والمسؤولية.

نسيم رمضان (لندن)
تكنولوجيا أطلقت «مايكروسوفت» 3 نماذج «MAI» جديدة تشمل تحويل الصوت إلى نص وتوليد الصوت وإنشاء الصور (مايكروسوفت)

3 نماذج ذكاء اصطناعي جديدة من «مايكروسوفت» للصوت والصورة والنص

«مايكروسوفت» تطلق نماذج «MAI » للصوت والصورة والنص؛ لتعزيز التطبيقات متعددة الوسائط مع تركيز على الأداء والتكلفة والتكامل داخل «فاوندري».

نسيم رمضان (لندن)

عضلات اصطناعية تمكّن الروبوتات من رفع 100 ضعف وزنها

العضلات الاصطناعية تعمل بالهواء ما يمنح الروبوتات قدرة على رفع أوزان تصل إلى 100 ضعف وزنها (جامعة ولاية أريزونا)
العضلات الاصطناعية تعمل بالهواء ما يمنح الروبوتات قدرة على رفع أوزان تصل إلى 100 ضعف وزنها (جامعة ولاية أريزونا)
TT

عضلات اصطناعية تمكّن الروبوتات من رفع 100 ضعف وزنها

العضلات الاصطناعية تعمل بالهواء ما يمنح الروبوتات قدرة على رفع أوزان تصل إلى 100 ضعف وزنها (جامعة ولاية أريزونا)
العضلات الاصطناعية تعمل بالهواء ما يمنح الروبوتات قدرة على رفع أوزان تصل إلى 100 ضعف وزنها (جامعة ولاية أريزونا)

يطوّر باحثون في جامعة ولاية أريزونا نوعاً جديداً من «العضلات الاصطناعية» التي تعمل بالهواء، في خطوة قد تغيّر الطريقة التي تُصمم بها الروبوتات، خصوصاً في البيئات القاسية التي يصعب فيها استخدام الأنظمة التقليدية. تعتمد هذه التقنية على تصميم مستوحى من العضلات البيولوجية، حيث تُستخدم أنظمة هوائية بدلاً من المحركات الصلبة، ما يمنح الروبوتات مرونة أكبر وقدرة على الحركة في ظروف غير اعتيادية.

أحد أبرز ما يميز هذه العضلات الجديدة هو قدرتها على رفع أوزان تصل إلى نحو 100 ضعف وزنها، مع الحفاظ على حجم صغير وخفة في التصميم. هذه النسبة تعكس تحولاً مهماً في مجال الروبوتات، حيث لطالما واجهت الأنظمة التقليدية تحدياً في تحقيق توازن بين القوة والمرونة. فالروبوتات التي تعتمد على محركات كهربائية أو أنظمة ميكانيكية صلبة تكون عادة قوية، لكنها أقل قدرة على التكيف مع البيئات المعقدة. في المقابل، تتيح العضلات الهوائية الجديدة الجمع بين القوة والمرونة، ما يفتح المجال لتطبيقات أوسع.

العمل في بيئات قاسية

من بين الميزات اللافتة لهذه التقنية قدرتها على العمل في ظروف صعبة، مثل المياه شديدة الحرارة أو الأسطح الخشنة، وهي بيئات غالباً ما تعيق الروبوتات التقليدية أو تتسبب في تعطّلها.

ويشير الباحثون إلى أن هذا النوع من العضلات يمكن أن يساعد الروبوتات على «تجاوز العوائق التي تُبقي نظيراتها التقليدية خارج الخدمة»، ما يعزز من استخدامها في مهام مثل الاستكشاف أو العمليات الصناعية المعقدة.

ميزة أخرى مهمة تكمن في أن هذه الأنظمة يمكن أن تعمل دون الاعتماد الكامل على مصادر طاقة تقليدية ثقيلة، ما يقلل من الحاجة إلى البطاريات أو الأنظمة الكهربائية المعقدة. هذا التطور قد يساهم في تصميم روبوتات أكثر استقلالية، قادرة على العمل لفترات أطول، خصوصاً في الأماكن التي يصعب فيها إعادة الشحن أو الصيانة.

من «الصلابة» إلى «المرونة»

تعكس هذه التقنية تحولاً أوسع في مجال الروبوتات نحو ما يُعرف بـ«الروبوتات اللينة» (Soft Robotics)، وهي أنظمة تعتمد على مواد مرنة تحاكي الطبيعة بدلاً من الهياكل المعدنية الصلبة. فالعضلات الاصطناعية، بشكل عام، تُصمم لتقليد طريقة عمل العضلات البشرية، حيث يمكنها الانقباض والتمدد استجابة لمحفزات مختلفة مثل الضغط أو الحرارة أو الكهرباء. وفي حالة العضلات الهوائية، يتم استخدام ضغط الهواء لتحفيز الحركة، ما يسمح بتحقيق حركات أكثر سلاسة وتكيفاً مع البيئة.

رغم إمكاناتها لا تزال تواجه تحديات في التحكم الدقيق ودمجها ضمن أنظمة روبوتية متكاملة (جامعة ولاية أريزونا)

إمكانات تطبيقية واسعة

لا تقتصر أهمية هذا التطور على الجانب النظري، بل تمتد إلى تطبيقات عملية متعددة. فهذه العضلات يمكن أن تُستخدم في عمليات الإنقاذ في البيئات الخطرة وفحص البنية التحتية الصناعية والتطبيقات الطبية، مثل الأجهزة المساعدة وأيضاً في الزراعة والعمل في التضاريس غير المستوية.

تكمن أهمية هذه التطبيقات في أن الروبوتات القادرة على التكيف مع بيئات غير متوقعة قد تقلل من المخاطر التي يتعرض لها البشر في مثل هذه المهام. ورغم هذه المزايا، لا تزال هناك تحديات تقنية مرتبطة بالتحكم الدقيق في هذه الأنظمة، خاصة أن العضلات الهوائية تعتمد على ديناميكيات غير خطية، ما يجعل التحكم في حركتها أكثر تعقيداً مقارنة بالأنظمة التقليدية. كما أن دمج هذه العضلات ضمن أنظمة روبوتية متكاملة يتطلب تطوير برمجيات وتحكمات قادرة على التعامل مع هذا النوع من الحركة المرنة.

خطوة نحو جيل جديد من الروبوتات

يمثل هذا الابتكار جزءاً من مسار أوسع نحو تطوير روبوتات أكثر شبهاً بالكائنات الحية، من حيث الحركة والتفاعل مع البيئة. فبدلاً من الاعتماد على القوة الصلبة، يتجه الباحثون نحو أنظمة تجمع بين القوة والمرونة والقدرة على التكيف. وفي هذا السياق، لا يُنظر إلى العضلات الاصطناعية فقط باعتبارها بديلاً للمحركات، بل كونها إعادة تعريف لكيفية تصميم الروبوتات نفسها، بما يتناسب مع متطلبات بيئات أكثر تعقيداً.

يظهر هذا التطور اتجاهاً متزايداً في الهندسة الحديثة نحو الاقتراب من الطبيعة بدلاً من الابتعاد عنها. فالأنظمة البيولوجية، مثل العضلات، أثبتت كفاءة عالية في تحقيق التوازن بين القوة والمرونة، وهو ما تسعى هذه التقنيات إلى محاكاته.


تحديثات جديدة من «غوغل» لتعزيز تعامل الذكاء الاصطناعي مع الصحة النفسية

«غوغل» تحدّث أنظمة الذكاء الاصطناعي لتحسين التعامل مع استفسارات الصحة النفسية بشكل أكثر مسؤولية (شاترستوك)
«غوغل» تحدّث أنظمة الذكاء الاصطناعي لتحسين التعامل مع استفسارات الصحة النفسية بشكل أكثر مسؤولية (شاترستوك)
TT

تحديثات جديدة من «غوغل» لتعزيز تعامل الذكاء الاصطناعي مع الصحة النفسية

«غوغل» تحدّث أنظمة الذكاء الاصطناعي لتحسين التعامل مع استفسارات الصحة النفسية بشكل أكثر مسؤولية (شاترستوك)
«غوغل» تحدّث أنظمة الذكاء الاصطناعي لتحسين التعامل مع استفسارات الصحة النفسية بشكل أكثر مسؤولية (شاترستوك)

أعلنت «غوغل» عن تحديثات جديدة على أنظمة الذكاء الاصطناعي لديها، تهدف إلى تحسين طريقة التعامل مع استفسارات الصحة النفسية، في خطوة تعكس تزايد اعتماد المستخدمين على هذه الأدوات في لحظات حساسة.

في مدونتها الرسمية، أوضحت الشركة أن التحديثات تركز على كيفية استجابة مساعدها الذكي، بما في ذلك «جيميناي» (Gemini) عندما يطرح المستخدمون أسئلة مرتبطة بالقلق أو الاكتئاب أو إيذاء النفس. وبدلاً من الاكتفاء بإجابات عامة، أصبح النظام يوجّه المستخدمين بشكل أوضح نحو مصادر دعم متخصصة، مثل خطوط المساعدة والخدمات الطارئة.

ويأتي هذا التغيير في ظل تحول أوسع في استخدام الذكاء الاصطناعي، حيث لم يعد دوره مقتصراً على تقديم المعلومات، بل أصبح يتعامل مع سياقات إنسانية أكثر تعقيداً. فالمستخدمون لا يلجأون إلى هذه الأدوات للبحث فقط، بل أحياناً للتعبير عن مشاعرهم أو طلب المساعدة.

التحديثات تركّز على توجيه المستخدمين إلى مصادر دعم متخصصة بدل الاكتفاء بإجابات عامة (شاترستوك)

تركيز على السلامة والتوجيه

بحسب ما ورد في المدونة، تعمل التحديثات على جعل الاستجابات أكثر وضوحاً في توجيه المستخدمين إلى الدعم المناسب، خاصة في الحالات التي قد تشير إلى أزمة نفسية. كما تم تحسين صياغة الردود لتكون أكثر حساسية للسياق، مع التأكيد على أن هذه الأدوات لا تُعد بديلاً عن الدعم الطبي أو النفسي المتخصص. ويعكس هذا النهج محاولة للحدّ من المخاطر المحتملة، حيث يمكن للردود غير الدقيقة أو المبسطة أن تؤدي إلى نتائج سلبية، خصوصاً لدى المستخدمين في حالات ضعف نفسي.

وتشير التحديثات أيضاً إلى أهمية فهم السياق العاطفي للمستخدم، وليس تحليل الكلمات المفتاحية فقط. فالنظام أصبح يسعى إلى تمييز الحالات التي تتطلب استجابة أكثر حذراً، ما يعكس توجهاً نحو تطوير ذكاء اصطناعي أكثر وعياً بالسياق. ومع ذلك، تظل حدود هذا الدور واضحة. فالشركة لا تقدم هذه الأدوات بديلاً عن المختصين، بل وسيلة أولية يمكن أن تساعد في توجيه المستخدم نحو المساعدة المناسبة.

تؤكد «غوغل» أن الذكاء الاصطناعي ليس بديلاً عن الدعم الطبي أو النفسي المتخصص (رويترز)

تحديات مستمرة

رغم هذه التحسينات، لا تزال هناك تحديات قائمة. فالتعامل مع الصحة النفسية عبر أنظمة آلية يطرح تساؤلات حول الدقة والمسؤولية، خاصة في الحالات التي تتطلب تدخلاً بشرياً مباشراً. كما أن الاستخدام المتزايد لهذه الأدوات يضع شركات التكنولوجيا أمام مسؤولية كبرى، تتعلق بضمان عدم إساءة استخدام هذه الأنظمة، أو الاعتماد عليها بشكل يتجاوز قدراتها الفعلية.

تعكس هذه التحديثات توجهاً متزايداً نحو ما يُعرف بالذكاء الاصطناعي المسؤول، حيث لا تقتصر المعايير على الأداء التقني، بل تشمل التأثير الاجتماعي والأخلاقي أيضاً. وفي هذا السياق، تشير «غوغل» إلى أن تطوير هذه الميزات تم بالتعاون مع خبراء في الصحة النفسية، بهدف تحسين جودة الاستجابات وتقليل المخاطر المحتملة.

قد لا تسعى هذه الخطوة إلى تحويل الذكاء الاصطناعي إلى معالج نفسي، بل إلى إعادة تعريف دوره كأداة دعم أولي. أداة يمكن أن تساعد المستخدم في الوصول إلى المعلومات والدعم، لكنها لا تحلّ محل التدخل البشري المتخصص.


40 دقيقة من الصمت… لماذا تفقد «ناسا» الاتصال مع روادها خلف القمر؟

مشهد «غروب الأرض» خلف القمر خلال مهمة «أرتميس 2» التي حطمت الرقم القياسي لبُعد البشر عن الأرض (أ.ف.ب)
مشهد «غروب الأرض» خلف القمر خلال مهمة «أرتميس 2» التي حطمت الرقم القياسي لبُعد البشر عن الأرض (أ.ف.ب)
TT

40 دقيقة من الصمت… لماذا تفقد «ناسا» الاتصال مع روادها خلف القمر؟

مشهد «غروب الأرض» خلف القمر خلال مهمة «أرتميس 2» التي حطمت الرقم القياسي لبُعد البشر عن الأرض (أ.ف.ب)
مشهد «غروب الأرض» خلف القمر خلال مهمة «أرتميس 2» التي حطمت الرقم القياسي لبُعد البشر عن الأرض (أ.ف.ب)

في واحدة من أكثر لحظات الرحلات الفضائية حساسية، يفقد رواد الفضاء الاتصال الكامل مع الأرض أثناء مرورهم خلف الجانب البعيد من القمر. هذه الظاهرة، التي تستمر نحو 40 دقيقة، ليست خللاً تقنياً، بل جزء متوقع من تصميم المهمة، وقد أكدت «ناسا» أنها نتيجة مباشرة لطبيعة الاتصال في الفضاء العميق.

تعتمد أنظمة الاتصال بين المركبات الفضائية والأرض على مبدأ «خط النظر»، أي وجود مسار مباشر بين الهوائيات الأرضية والمركبة. وعندما تمر المركبة خلف القمر، ينقطع هذا المسار تماماً؛ لأن القمر يعمل كحاجز مادي يمنع انتقال الإشارات. وحسبما أوضحته «ناسا» في شرحها لأنظمة الاتصال ضمن برنامج «أرتميس»، فإن هذا الانقطاع يُعد أمراً طبيعياً ومخططاً له مسبقاً، ويستمر حتى تعود المركبة إلى نطاق الرؤية المباشرة للأرض.

صورة لـ«ناسا» تُظهر اقتراب الأرض من الاختفاء خلف القمر خلال مهمة «أرتميس 2» (أ.ف.ب)

صمت كامل... دون استثناء

خلال هذه الفترة، ينقطع كل أشكال الاتصال، بما في ذلك الصوت والبيانات، فلا يمكن لمراكز التحكم إرسال تعليمات، ولا يمكن للطاقم إرسال أي إشارات. هذا الانقطاع لا يُعد مؤشراً على مشكلة، بل مرحلة معروفة في مسار الرحلة حول القمر. وتشير تقارير إعلامية حديثة إلى أن هذه اللحظة تُعد من أكثر المراحل دقة في المهمة، حيث يعتمد الطاقم بالكامل على الأنظمة المبرمجة مسبقاً وعلى إجراءات تم التدريب عليها قبل الإطلاق.

إرث متكرر منذ «أبولو»

ليست هذه الظاهرة جديدة في تاريخ استكشاف القمر. فقد شهدت مهمات «أبولو» فترات مماثلة من انقطاع الاتصال عند المرور خلف القمر.

ورغم التقدم الكبير في تقنيات الاتصال منذ ذلك الوقت، لا يزال هذا التحدي قائماً؛ لأن سببه فيزيائي بالدرجة الأولى، وليس تقنياً فقط. فحتى مع إدخال تقنيات حديثة، مثل الاتصالات الليزرية التي تختبرها «ناسا»، لا يمكن تجاوز مشكلة انعدام «خط النظر» بشكل كامل في هذه المرحلة.

وفي ظل هذا الانقطاع، تعتمد المهمة على التخطيط الدقيق والأنظمة الذاتية. فمسار الرحلة والعمليات الأساسية والإجراءات الطارئة، كلها تُبرمج مسبقاً بحيث يمكن تنفيذها دون تدخل مباشر من الأرض.

كما يتم تدريب الطاقم على العمل في بيئة «دون اتصال»، بما يشمل التعامل مع السيناريوهات المحتملة واتخاذ قرارات مستقلة ضمن حدود محددة.

تظهر هذه الصورة فوهة «فافيلوف» القمرية من مركبة «أوريون» خلال مهمة «أرتميس 2» (أ.ف.ب)

لحظة استعادة الاتصال

بمجرد خروج المركبة من خلف القمر، تعود الإشارات تدريجياً، ويُعاد الاتصال مع الأرض تلقائياً. هذه اللحظة تمثل نهاية فترة الانقطاع، وتسمح لمراكز التحكم باستئناف متابعة الرحلة بشكل مباشر.

وقد أشارت تقارير عن مهمة «Artemis II» إلى أن استعادة الاتصال تتم كما هو مخطط لها، دون تدخل يدوي، بمجرد عودة المركبة إلى نطاق التغطية.

دلالات تتجاوز الدقائق الأربعين

رغم قصر هذه الفترة نسبياً، فإنها تحمل أهمية كبيرة في سياق استكشاف الفضاء. فهي تبرز حدود الاتصال الحالية، وتؤكد الحاجة إلى تطوير أنظمة أكثر استقلالية، خاصة مع التوجه نحو مهمات أبعد، مثل الرحلات المأهولة إلى المريخ. في هذه المهمات المستقبلية، لن يكون الانقطاع مجرد 40 دقيقة، بل قد يمتد إلى فترات أطول بكثير، نتيجة المسافات الهائلة بين الأرض والمركبة.

مشهد يُظهر الأرض من مركبة «أوريون» بعد بلوغ «أرتميس 2» أبعد مسافة بشرية عنها (رويترز)

بين التقدم التكنولوجي وحدود الفيزياء

تعكس هذه الظاهرة حقيقة أساسية في استكشاف الفضاء وهي أنه رغم التقدم الكبير في التكنولوجيا، لا تزال بعض التحديات خاضعة لقوانين فيزيائية لا يمكن تجاوزها بسهولة. فالانقطاع خلف القمر ليس نتيجة نقص في التطوير، بل نتيجة طبيعية لغياب المسار المباشر للإشارة. وهذا ما يجعل من هذه اللحظة مثالاً واضحاً على التوازن بين ما يمكن للتكنولوجيا تحقيقه، وما تفرضه طبيعة البيئة الفضائية.

تمثل هذه الـ40 دقيقة من الصمت مرحلة محسوبة بدقة ضمن تصميم المهمة، وليست مؤشراً على خطر أو خلل. ومع كل رحلة جديدة إلى القمر، تعود هذه الظاهرة لتذكّر بأن استكشاف الفضاء لا يزال يعتمد على التكيف مع بيئة تختلف جذرياً عن أي شيء على الأرض.