أعلنت «غوغل» عن تحديثات جديدة على أنظمة الذكاء الاصطناعي لديها، تهدف إلى تحسين طريقة التعامل مع استفسارات الصحة النفسية، في خطوة تعكس تزايد اعتماد المستخدمين على هذه الأدوات في لحظات حساسة.
في مدونتها الرسمية، أوضحت الشركة أن التحديثات تركز على كيفية استجابة مساعدها الذكي، بما في ذلك «جيميناي» (Gemini) عندما يطرح المستخدمون أسئلة مرتبطة بالقلق أو الاكتئاب أو إيذاء النفس. وبدلاً من الاكتفاء بإجابات عامة، أصبح النظام يوجّه المستخدمين بشكل أوضح نحو مصادر دعم متخصصة، مثل خطوط المساعدة والخدمات الطارئة.
ويأتي هذا التغيير في ظل تحول أوسع في استخدام الذكاء الاصطناعي، حيث لم يعد دوره مقتصراً على تقديم المعلومات، بل أصبح يتعامل مع سياقات إنسانية أكثر تعقيداً. فالمستخدمون لا يلجأون إلى هذه الأدوات للبحث فقط، بل أحياناً للتعبير عن مشاعرهم أو طلب المساعدة.

تركيز على السلامة والتوجيه
بحسب ما ورد في المدونة، تعمل التحديثات على جعل الاستجابات أكثر وضوحاً في توجيه المستخدمين إلى الدعم المناسب، خاصة في الحالات التي قد تشير إلى أزمة نفسية. كما تم تحسين صياغة الردود لتكون أكثر حساسية للسياق، مع التأكيد على أن هذه الأدوات لا تُعد بديلاً عن الدعم الطبي أو النفسي المتخصص. ويعكس هذا النهج محاولة للحدّ من المخاطر المحتملة، حيث يمكن للردود غير الدقيقة أو المبسطة أن تؤدي إلى نتائج سلبية، خصوصاً لدى المستخدمين في حالات ضعف نفسي.
وتشير التحديثات أيضاً إلى أهمية فهم السياق العاطفي للمستخدم، وليس تحليل الكلمات المفتاحية فقط. فالنظام أصبح يسعى إلى تمييز الحالات التي تتطلب استجابة أكثر حذراً، ما يعكس توجهاً نحو تطوير ذكاء اصطناعي أكثر وعياً بالسياق. ومع ذلك، تظل حدود هذا الدور واضحة. فالشركة لا تقدم هذه الأدوات بديلاً عن المختصين، بل وسيلة أولية يمكن أن تساعد في توجيه المستخدم نحو المساعدة المناسبة.

تحديات مستمرة
رغم هذه التحسينات، لا تزال هناك تحديات قائمة. فالتعامل مع الصحة النفسية عبر أنظمة آلية يطرح تساؤلات حول الدقة والمسؤولية، خاصة في الحالات التي تتطلب تدخلاً بشرياً مباشراً. كما أن الاستخدام المتزايد لهذه الأدوات يضع شركات التكنولوجيا أمام مسؤولية كبرى، تتعلق بضمان عدم إساءة استخدام هذه الأنظمة، أو الاعتماد عليها بشكل يتجاوز قدراتها الفعلية.
تعكس هذه التحديثات توجهاً متزايداً نحو ما يُعرف بالذكاء الاصطناعي المسؤول، حيث لا تقتصر المعايير على الأداء التقني، بل تشمل التأثير الاجتماعي والأخلاقي أيضاً. وفي هذا السياق، تشير «غوغل» إلى أن تطوير هذه الميزات تم بالتعاون مع خبراء في الصحة النفسية، بهدف تحسين جودة الاستجابات وتقليل المخاطر المحتملة.
قد لا تسعى هذه الخطوة إلى تحويل الذكاء الاصطناعي إلى معالج نفسي، بل إلى إعادة تعريف دوره كأداة دعم أولي. أداة يمكن أن تساعد المستخدم في الوصول إلى المعلومات والدعم، لكنها لا تحلّ محل التدخل البشري المتخصص.







