«زورا»... روبوت «عاطفي» لرعاية كبار السن في فرنسا

يشارك في التمرينات والألعاب ويتلقى قبلاتهم

«زورا»... روبوت «عاطفي»  لرعاية كبار السن في فرنسا
TT

«زورا»... روبوت «عاطفي» لرعاية كبار السن في فرنسا

«زورا»... روبوت «عاطفي»  لرعاية كبار السن في فرنسا

قد يبدو الروبوت «زورا» Zora أشبه بلعبة ظريفة أكثر من كونه أعجوبة مستقبلية، ولكنّه يشكل محور تجربة مهمة قائمة في فرنسا تهدف إلى تغيير مفهوم العناية بالمرضى الطاعنين في السن.

روبوت «عاطفي»
ومنذ وصول زورا إلى دار «جوار» Jouarre للرعاية التي تبعد ساعة عن العاصمة الفرنسية، وشيء غريب يحصل فيها، فالكثير من المرضى يبدون مرتبطين عاطفياً به، ويعاملونه كطفل، يحملونه ويغنون له، ويقبلون رأسه.
يقدّم زورا، الذي قد تصل تكلفته إلى 18000 دولار، فرصة للصداقة والمرافقة في مكان غالباً ما تسيطر عليه الوحدة، رغم أن الزيارات العائلية متاحة كما أن العاملين منتشرون في الدار، التي تضم مرضى يعانون من الخرف وحالات أخرى تتطلّب عناية على مدار الساعة.
يتحكّم بـ«زورا» ممرض في المستشفى يحرّكه عبر كومبيوتر لابتوب، ويقف غالباً بعيداً عن نظر المرضى حتى لا يعرفوا أنّه هو من يتحكّم بالروبوت. ويقود «زورا» التمارين الرياضية ويشارك بالألعاب، ويمكنه أن يشارك في الأحاديث حتى، لأنّ الممرض يطبع الكلمات على اللابتوب كي ينطقها الروبوت. عندما يتحدّث المرضى عنه، بعضهم يشير إليه بـ«هو» وآخرون بـ«هي».
ولكن مجال الصناعة الروبوتية لا يزال أمامه سنوات طويلة قبل أن تصبح لديه فرصة حقيقية لتطوير ممرّض آلي. إذ إن «زورا» لا يزوّد المرضى بالدواء، ولا يقيس ضغط الدم، ولا يغيّر بياضات السرير. وتقول صوفي ريفولت، ممرّضة في المستشفى في حديث لوسائل الإعلام الأميركية، إن البعض في «جوار» يعتبرون زورا أداة غير ضرورية مهمّتها «إلهاء المرضى».
وتقول ممرّضة أخرى تدعى نتالي راسين إنّها لن تسمح لروبوت بإطعام المرضى حتى ولو كان يستطيع ذلك، معتبرة أنّ البشر يجب ألا يسلّموا زمام لحظات حميمة كهذه للآلات. وتضيف: «لا شيء سيحلّ محلّ اللمسة الإنسانية، أو الدفء الإنساني الذي يحتاج إليه مرضانا».
تفتح التجربة القائمة في «جوار» نافذة جديدة على مستقبل سيزيد اعتمادنا فيه على الروبوتات للمساعدة في الاعتناء بمن نحبّ مع تقدّمهم في السن. وتقول: «زورا بوتس»، الشركة البلجيكية المطوّرة للروبوت المستخدم في مستشفى «جوار»، إنّها باعت نحو 1000 منه للمنشآت المعنية بالعناية الصحية حول العالم، في الولايات المتحدة وآسيا والشرق الأوسط. يشكّل زورا جزءا من تركيز متنامٍ على الروبوتات المعنية بالعناية الصحية. فقد عمدت شركة سوني إلى تسويق كلب آلي روجت له مليارات من المسنين كصديق للأشخاص الطاعنين في السن. وقال تومي دبليك، الرئيس التنفيذي المساعد في «زورا بوتس»: «نحتاج إلى مساعدة في حلّ مشكلة الوحدة».

مليارات المسنين
قد يرى البعض في زيادة مسؤوليات الروبوتات للاهتمام بالناس في مراحل متقدّمة من حياتهم مشهداً بائساً، ولكنّ كثيرين أيضاً يرونه ضرورة حتمية. وتشهد جميع الدول تقريباً زيادة مطردة في شريحة كبار السن، وبحسب الأمم المتحدة، سيزداد عدد الأشخاص الذين تخطّوا الـ60 عاماً أكثر من الضعف، ليصل إلى 2.1 مليار نسمة بحلول عام 2050.
تشير الأرقام إلى فجوة مستجدة في عدد الموظفين العاملين في مجال العناية الصحية، وسنصل إلى مرحلة نقص حقيقية في هذا المجال. يقول مناصرو الروبوتات إنّ تطوير هذه التقنية ضروري للمساعدة في سدّ هذا العجز. والتحدّي كبير جداً في فرنسا تحديداً، حيث تواجه المستشفيات أزمة مع كوادر العناية الصحية الذين يعترضون على تخفيضات الميزانية ونقص القوى العاملة في المجال. كما تصدّرت أخبار ارتفاع حالات انتحار الأطباء والممرضين عناوين الصحف المحلية، واعترف وزير الصحة الفرنسي بأنّ النظام الاستشفائي «يفتقر إلى الطاقة».
لذا، فإن التحدّي هنا هو تطوير آلات قادرة على إتمام المزيد من المهام الصعبة، إذ إنّ تحسين مزاج المريض من خلال أغنية يختلف كثيراً عن تأمين العناية الصحية. ويخرج المستشفى الفرنسي الذي اشترى «زورا» بمساعدة منحة خيرية، ويشغّله مرّات قليلة في الشهر.
في أستراليا، درس مستشفى يستخدم روبوت «زورا» تأثيراته على المرضى والموظفين. وقد وجد الباحثون أنه حسّن مزاج بعض المرضى، ودفعهم إلى المشاركة أكثر في النشاطات، ولكنّه تطلّب دعماً تقنياً كبيراً. وكانت تجربة طاقم موظفي المستشفى الفرنسي مع الروبوت مشابهة. ويشعر الموظفون بمفاجأة دائمة من عمق ارتباط المرضى بالروبوت. وقالت إحدى الممرضات وتدعى ميكاييل فيريت إنّ بعض المرضى يشعرون بالغيرة من آخرين يمضون الوقت مع زورا.
وتبيّن أنّ المرضى يبوحون للروبوت بأشياء حول صحتهم ما كانوا ليشاركوها مع الأطباء. وقد شاركت امرأة تظهر على ذراعها بعض الجروح حادثة وقوعها عن السرير أثناء نومها مع زورا، ولكنّها ما كانت أبدا لتخبر الممرضين أو الأطباء بالأمر. تقول مارلين سيمون (70 عاماً)، والتي خضعت لثقب في القصبة الهوائية وتعيش في المستشفى منذ أكثر من عام: «يضفي زورا بعض الفرحة على حياتنا هنا. نحن نحبه ونشتاق له عندما لا نراه. في الحقيقة، أفكّر به كثيراً».
ويزور الروبوت المرضى بشكل فردي في الصباح، ومن ثمّ وفي وقت لاحق من اليوم يساعد في أداء تمارين جماعية وأمور أخرى. وفي النهاية يتمّ وضع زورا بعيداً عن الأعين في حقيبة صغيرة حيث يعيش ليلاً، في خزانة بعيدة في مكتب السكرتيرة، بعد أنّ تنفذ بطاريته.


مقالات ذات صلة

علماء ينتجون «نموذج جنين بشري» في المختبر

علوم النموذج تم تطويره باستخدام الخلايا الجذعية (أرشيف - رويترز)

علماء ينتجون «نموذج جنين بشري» في المختبر

أنتجت مجموعة من العلماء هيكلاً يشبه إلى حد كبير الجنين البشري، وذلك في المختبر، دون استخدام حيوانات منوية أو بويضات.

«الشرق الأوسط» (لندن)
علوم الهياكل الشبيهة بالأجنة البشرية تم إنشاؤها في المختبر باستخدام الخلايا الجذعية (أرشيف - رويترز)

علماء يطورون «نماذج أجنة بشرية» في المختبر

قال فريق من الباحثين في الولايات المتحدة والمملكة المتحدة إنهم ابتكروا أول هياكل صناعية في العالم شبيهة بالأجنة البشرية باستخدام الخلايا الجذعية.

«الشرق الأوسط» (لندن)
علوم علماء يتمكنون من جمع حمض نووي بشري من الهواء والرمال والمياه

علماء يتمكنون من جمع حمض نووي بشري من الهواء والرمال والمياه

تمكنت مجموعة من العلماء من جمع وتحليل الحمض النووي البشري من الهواء في غرفة مزدحمة ومن آثار الأقدام على رمال الشواطئ ومياه المحيطات والأنهار.

«الشرق الأوسط» (نيويورك)
علوم صورة لنموذج يمثل إنسان «نياندرتال» معروضاً في «المتحف الوطني لعصور ما قبل التاريخ» بفرنسا (أ.ف.ب)

دراسة: شكل أنف البشر حالياً تأثر بجينات إنسان «نياندرتال»

أظهرت دراسة جديدة أن شكل أنف الإنسان الحديث قد يكون تأثر جزئياً بالجينات الموروثة من إنسان «نياندرتال».

«الشرق الأوسط» (لندن)
علوم دراسة تطرح نظرية جديدة بشأن كيفية نشأة القارات

دراسة تطرح نظرية جديدة بشأن كيفية نشأة القارات

توصلت دراسة جديدة إلى نظرية جديدة بشأن كيفية نشأة القارات على كوكب الأرض مشيرة إلى أن نظرية «تبلور العقيق المعدني» الشهيرة تعتبر تفسيراً بعيد الاحتمال للغاية.

«الشرق الأوسط» (لندن)

أكبر إخفاقات الذكاء الاصطناعي في عام 2024

أكبر إخفاقات الذكاء الاصطناعي في عام 2024
TT

أكبر إخفاقات الذكاء الاصطناعي في عام 2024

أكبر إخفاقات الذكاء الاصطناعي في عام 2024

من برامج الدردشة الآلية التي تقدّم نصائح غير قانونية إلى نتائج البحث المشبوهة التي أُنشئت بواسطة الذكاء الاصطناعي، إليكم نظرة إلى الوراء على أكبر إخفاقات الذكاء الاصطناعي في العام، كما كتبت ريانون ويليامز في مجلة «تكنولوجي ريفيو» الصادرة عن معهد «ماساتشوستس للتكنولوجيا».

اختبارات... بنتائج جديدة وغريبة وضارة

لا شك أن الأشهر الـ12 الماضية كانت مزدحمة لأولئك الذين يعملون في مجال الذكاء الاصطناعي. فقد شهدنا إطلاق منتجات أكثر نجاحاً مما يمكننا إحصاؤه، وحتى جوائز نوبل. لكن لم يكن الأمر دائماً سلساً.

الذكاء الاصطناعي هو تقنية غير متوقعة، وقد أدّى توافر النماذج التوليدية المتزايد إلى دفع الناس إلى اختبار حدودهم بطرق جديدة وغريبة وأحياناً ضارة. كانت هذه بعضاً من أكبر إخفاقات الذكاء الاصطناعي في عام 2024.

فوضى الذكاء الاصطناعي تسلّلت إلى الإنترنت

تسلّلت أخطاء الذكاء الاصطناعي إلى كل ركن تقريباً من الإنترنت. يجعل الذكاء الاصطناعي التوليدي إنشاء كميات هائلة من النصوص والصور ومقاطع الفيديو وأنواع أخرى من المواد أمراً سهلاً. ولأن الأمر لا يستغرق سوى بضع ثوانٍ بين إدخال مطالبة لنموذجك المفضل لإخراج النتيجة، فقد أصبحت هذه النماذج طريقة سريعة وسهلة لإنتاج المحتوى على نطاق واسع. وكان 2024 هو العام الذي بدأنا فيه وصف هذه الوسائط (رديئة الجودة عموماً) بما هي عليه؛ بـ«فوضى الذكاء الاصطناعي».

إن هذه الطريقة المنخفضة المخاطر لإنشاء فوضى الذكاء الاصطناعي تعني أنه يمكن العثور عليها الآن في كل ركن من أركان الإنترنت تقريباً؛ من النشرات الإخبارية في صندوق الوارد الخاص بك، والكتب المبيعة على «أمازون»، إلى الإعلانات والمقالات عبر الويب، والصور الرديئة على موجزات وسائل التواصل الاجتماعي الخاصة بك. وكلما كانت هذه الصور أكثر إثارة للمشاعر (قدامى المحاربين الجرحى، والأطفال الباكون، وإشارة الدعم في الصراع الإسرائيلي الفلسطيني) زادت احتمالية مشاركتها؛ مما يؤدي إلى زيادة المشاركة وإيرادات الإعلانات لمنشئيها الأذكياء.

قمامات رقمية يُعيد إنتاجها الذكاء الاصطناعي

فوضى الذكاء الاصطناعي ليست مزعجة فحسب، بل إن صعودها يشكّل مشكلة حقيقية لمستقبل النماذج ذاتها التي ساعدت في إنتاجها. ولأن هذه النماذج مدرّبة على بيانات جُمعت من الإنترنت، فإن العدد المتزايد من المواقع الإلكترونية غير المرغوب فيها التي تحتوي على قمامة الذكاء الاصطناعي يعني أن هناك خطراً حقيقياً للغاية، يتمثّل في أن إنتاج النماذج وأداءها سوف يزداد سوءاً بشكل مطرد.

فن الذكاء الاصطناعي يشوّه الأحداث الحقيقية

كان عام 2024 أيضاً هو العام الذي بدأت فيه تأثيرات صور الذكاء الاصطناعي السريالية تتسرّب إلى حياتنا الحقيقية. تصدّرت تجربة ويلي للشوكولاته -وهي حدث غامر غير رسمي مستوحى من رواية «تشارلي ومصنع الشوكولاته» لروالد دال- عناوين الأخبار في جميع أنحاء العالم في فبراير (شباط)، بعد أن أعطت مواد التسويق الرائعة التي أُنشئت بواسطة الذكاء الاصطناعي للزوار الانطباع بأنها ستكون أعظم بكثير من المستودع المزخرف بشكل بسيط الذي أنشأه منتجوها.

وبالمثل، اصطفّ مئات الأشخاص في شوارع دبلن لحضور عرض «هالوين» لم يكن موجوداً. إذ استخدم موقع ويب، مقره باكستان، الذكاء الاصطناعي لإنشاء قائمة بالأحداث في المدينة، التي تمّت مشاركتها على نطاق واسع عبر وسائل التواصل الاجتماعي قبل 31 أكتوبر (تشرين الأول)، وهو عيد «الهالوين». وكلا الحدثين يوضح كيف يمكن للثقة العامة بالمواد التي أُنشئت بواسطة الذكاء الاصطناعي عبر الإنترنت، أن تعود إلى مطاردتنا.

إنشاء صور مزيفة لأي وضع أو سيناريو

تحتوي الغالبية العظمى من مولدات الصور الرئيسة للذكاء الاصطناعي على حواجز -قواعد تملي ما يمكن لنماذج الذكاء الاصطناعي فعله وما لا يمكنها فعله- لمنع المستخدمين من إنشاء محتوى عنيف وصريح وغير قانوني وأنواع أخرى من المحتوى الضار.

في بعض الأحيان، تهدف هذه الحواجز فقط إلى التأكد من عدم قيام أي شخص باستغلال الملكية الفكرية للآخرين بشكل صارخ. لكن مساعد «غروك» Grok، الذي صنعته شركة الذكاء الاصطناعي التابعة لإيلون ماسك، التي تسمى «xAI»، يتجاهل كل هذه المبادئ تقريباً بما يتماشى مع رفض ماسك ما يسميه «الذكاء الاصطناعي المتيقظ».

بينما نماذج الصور الأخرى ترفض عموماً إنشاء صور للمشاهير، أو المواد المحمية بحقوق الطبع والنشر، أو العنف، أو الإرهاب -ما لم يتم خداعها لتجاهل هذه القواعد- فإن «Grok» سيولّد بسعادة صوراً لدونالد ترمب وهو يطلق بازوكا، أو ميكي ماوس يحمل قنبلة.

انتشرت صور مزيفة جنسية صريحة لتايلور سويفت على الإنترنت، وعلى وسائل التواصل الاجتماعي. وقد خدع أفراد مسجلون في «تلغرام» برنامج إنشاء الصور «AI Designer» من «مايكروسوفت» لإنشاء صور فاضحة؛ مما يوضح كيف يمكن التحايل على الحواجز الأمنية حتى عندما تكون موجودة.

وبينما أغلقت «مايكروسوفت» بسرعة ثغرات النظام، ألقى الحادث الضوء على سياسات تعديل المحتوى السيئة للمنصات، بعد تداول المنشورات التي تحتوي على الصور على نطاق واسع وظلّت حية لعدة أيام.

لكن النتيجة الأكثر إثارة للرعب هي مدى عجزنا عن محاربة المواد الإباحية المزيفة غير الموافقة. في حين أن أدوات وضع العلامات المائية وتسميم البيانات يمكن أن تساعد، إلا أنها ستحتاج إلى تبنيها على نطاق أوسع بكثير لإحداث فرق.

برامج الدردشة التجارية أصبحت مجنونة

مع انتشار الذكاء الاصطناعي على نطاق واسع، تتسابق الشركات لتبني أدوات توليدية لتوفير الوقت والمال، وتعظيم الكفاءة. والمشكلة هي أن برامج الدردشة الآلية تخترع أشياء، ولا يمكن الاعتماد عليها لتزويدك دائماً بمعلومات دقيقة.

اكتشفت الخطوط الجوية الكندية هذا الأمر بالطريقة الصعبة، بعد أن نصح برنامج الدردشة الآلية الخاص بها أحد العملاء باتباع سياسة استرداد الأموال في حالات الحزن التي لم تكن موجودة. وفي فبراير الماضي، أيّدت محكمة المطالبات الصغيرة الكندية الشكوى القانونية للعميل، رغم تأكيد شركة الطيران أن برنامج الدردشة الآلية كان «كياناً قانونياً منفصلاً مسؤولاً عن أفعاله الخاصة».

وفي أمثلة أخرى بارزة لكيفية تسبّب برامج الدردشة الآلية في ضرر أكثر من نفعه، أقسم برنامج شركة التوصيل «DPD» بمرح ووصف نفسه بأنه عديم الفائدة دون أي مطالبة، في حين انتهى الأمر ببرنامج آخر تم إنشاؤه لتزويد سكان نيويورك بمعلومات دقيقة حول حكومة مدينتهم إلى تقديم إرشادات حول كيفية انتهاك القانون.

أدوات ذكاء اصطناعي فاشلة

إن أهم شيء حاولت صناعة الذكاء الاصطناعي اختراقه في عام 2024 هو اختراق ميدان المساعدين الماديين، إلا أنها فشلت في ذلك. حاولت «Humane» الترويج لـ«Ai Pin»، وهو كومبيوتر ياقة يمكن ارتداؤه، ولكنه فشل في تعزيز المبيعات الضعيفة حتى بعد خفض سعره. كما عانى «Rabbit R1» -وهو جهاز مساعد شخصي قائم على «جي بي تي»- مصيراً مماثلاً، بعد سلسلة من المراجعات النقدية والتقارير التي تفيد بأنه بطيء ومليء بالأخطاء. يبدو أن كلا المنتجَيْن يحاول حل مشكلة لم تكن موجودة بالفعل.

ملخصات بحث خاطئة بالذكاء الاصطناعي

هل سبق لك أن أضفت غراء إلى بيتزا، أو أكلت صخرة صغيرة؟ هذه ليست سوى بعض الاقتراحات الغريبة التي قدمتها ميزة «AI Overviews» من «غوغل» لمستخدمي الويب في مايو (أيار)، بعد أن أضافت شركة البحث العملاقة استجابات مولدة إلى أعلى نتائج البحث. نظراً إلى أن أنظمة الذكاء الاصطناعي لا يمكنها معرفة الفرق بين قصة إخبارية صحيحة فعلياً ومنشور لنكتة على «Reddit»، فقد تسابق المستخدمون للعثور على أغرب الاستجابات التي يمكن أن تولّدها ميزة «غوغل» تلك.

لكن ملخصات الذكاء الاصطناعي يمكن أن تكون لها أيضاً عواقب وخيمة. لقد أدت ميزة جديدة في «آيفون» تجمع إشعارات التطبيقات معاً وتُنشئ ملخصات لمحتوياتها، أخيراً إلى ظهور عنوان إخباري زائف على قناة «بي بي سي نيوز».

وذكر الملخص كذباً أن لويجي مانجيوني، الذي اتُّهم بقتل الرئيس التنفيذي لشركة التأمين الصحي برايان تومسون، قد أطلق النار على نفسه. يمكن أن تؤدي مثل هذه الأخطاء عن غير قصد إلى نشر معلومات مضللة وتقويض الثقة في المؤسسات الإخبارية.