ألعاب الأطفال المدعومة بالذكاء الاصطناعي... تخرج عن السيطرة

قد تمارس أدواراً جنسية أو تقدم نصائح خطيرة

ألعاب الأطفال المدعومة بالذكاء الاصطناعي... تخرج عن السيطرة
TT

ألعاب الأطفال المدعومة بالذكاء الاصطناعي... تخرج عن السيطرة

ألعاب الأطفال المدعومة بالذكاء الاصطناعي... تخرج عن السيطرة

إذا كنت تفكر في شراء دمية دب ناطقة لطفلك، فمن المرجح أنك تتخيلها تهمس بنصائح جيدة، وتعلمه أمور الحياة. ربما لا تتخيل هذه الدمية اللطيفة وهي تمارس أدواراً جنسية، أو تُقدم نصائح للأطفال الصغار حول كيفية إشعال أعواد الثقاب.

لكن هذا ما وجدته مجموعة أبحاث المصلحة العامة (PIRG)، وهي منظمة معنية بحماية المستهلك، في اختبار أجرته أخيراً على ألعاب جديدة لموسم الأعياد.

انفلات الدب «كوما»

وجدت المجموعة أن دمية الدب «كوما» Kumma من شركة «FoloToy، التي تعمل بالذكاء الاصطناعي، وتستخدم نموذج «جي بي تي-40» GPT-40 من شركة «أوبن إيه آي» لتشغيل عملية نطقها، كانت على «استعداد تام للخروج عن الموضوع» أثناء حديثها مع الأطفال.

وجدت «PIRG» أن دمية الدب «كوما» من «فولوتوي» FoloToy، والتي تعمل بالذكاء الاصطناعي، وتستخدم نموذج GPT-40 من OpenAI لتشغيل نطقها وحديثها، كانت على استعداد تام للخروج عن الموضوع أثناء حديثها مع الأطفال.

محادثات صوتية

يُعدّ استخدام وضع الصوت في نماذج الذكاء الاصطناعي لألعاب الأطفال أمراً منطقياً: فهذه التقنية مصممة خصيصاً للألعاب السحرية التي يعشقها الأطفال. ولذا تتكاثر الدمى الواقعية التي تُصدر أصواتاً مثل التجشؤ، والكائنات الرقمية الشبيهة بـ«تاماغوتشي» (اللعبة الشبيهة بالساعة-البيضة) التي يرغب الأطفال في محاولة الحفاظ عليها.

وتكمن المشكلة في أنه على عكس الأجيال السابقة من الألعاب، يمكن للأجهزة التي تعمل بالذكاء الاصطناعي أن تتجاوز الاستجابات المبرمجة، والمُدققة بعناية، والمناسبة للأطفال، إلى خلق استجابات غير مطلوبة، وغير ملائمة.

مشكلة سلامة الأطفال

تُسلط مشكلة «كوما» الضوء على مشكلة رئيسة في الألعاب التي تعمل بالذكاء الاصطناعي: فهي غالباً ما تعتمد على نماذج ذكاء اصطناعي تابعة لجهات خارجية لا تملك السيطرة عليها، والتي يُمكن اختراقها حتماً، سواء عن طريق الخطأ، أو عمداً، ما يُسبب مشكلات تتعلق بسلامة الأطفال.

وتقول كريستين ريفا، المتخصصة في قانون المستهلك بجامعة ريدينغ في إنجلترا: «هناك غموض كبير حول نماذج الذكاء الاصطناعي المستخدمة في الألعاب، وكيفية تدريبها، وما هي الضمانات التي قد تحتويها لتجنب تعرض الأطفال لمحتوى غير مناسب لأعمارهم».

«ابتعدوا عن ألعاب الذكاء الاصطناعي»

لهذا السبب، أصدرت منظمة «فيربلاي» Fairplay المعنية بحقوق الطفل تحذيراً للآباء قبل موسم الأعياد، تنصحهم فيه بالابتعاد عن ألعاب الذكاء الاصطناعي، حفاظاً على سلامة أطفالهم. وتقول راشيل فرانز، مديرة برنامج «ازدهار الأطفال الصغار خارج الإنترنت» التابع لمنظمة «فيربلاي»: «هناك نقص في الأبحاث التي تدعم فوائد ألعاب الذكاء الاصطناعي، ونقص في الأبحاث التي تُظهر آثارها على الأطفال على المدى الطويل».

إيقاف بيع دمية «كوما»

وبينما أوقفت شركة «فولوتوي» بيع دمية «كوما»، وسحبت «أوبن إيه آي» إمكانية وصول «فولوتوي» إلى نماذج الذكاء الاصطناعي الخاصة بها، فإن هذه مجرد شركة واحدة من بين العديد من شركات تصنيع ألعاب الذكاء الاصطناعي. فمن يتحمل المسؤولية في حال حدوث خطأ ما؟

وتقول ريفا إن هناك غموضاً في هذا الشأن أيضاً. وتضيف: «قد تتعلق مسائل المسؤولية بالبيانات، وطريقة جمعها، أو حفظها. وقد تتعلق بالمسؤولية عن دفع لعبة الذكاء الاصطناعي الطفل لإيذاء نفسه، أو الآخرين، أو تسجيل البيانات المصرفية لأحد الوالدين».

مخاطر انعدام الإشراف القانوني

وتخشى فرانز من أن المخاطر -كما هو الحال مع شركات التكنولوجيا الكبرى التي تتسابق دائماً للتفوق على بعضها البعض- تكون أكبر بكثير عندما يتعلق الأمر بمنتجات الأطفال التي تصنعها شركات الألعاب. وتقول: «من الواضح تماماً أن هذه الألعاب تُطرح في الأسواق دون أبحاث، أو ضوابط تنظيمية».

وترى ريفا أن شركات الذكاء الاصطناعي التي تُزوّد ​​الألعاب بالنماذج التي تُساعدها على «التحدث»، وشركات الألعاب التي تُسوّقها، وتبيعها للأطفال، ستكون مسؤولة قانونياً في القضايا القانونية.

وتضيف: «بما أن خصائص الذكاء الاصطناعي مُدمجة في المنتج، فمن المرجح جداً أن تقع المسؤولية على عاتق مُصنّع اللعبة»، مشيرةً إلى أنه من المُحتمل وجود بنود قانونية في العقود التي تُبرمها شركات الذكاء الاصطناعي تحميها من أي ضرر، أو مخالفة. وتتابع: «هذا يعني أن مُصنّعي الألعاب، الذين قد لا يملكون في الواقع سوى سيطرة ضئيلة على نماذج التعلم الآلي المُستخدمة في ألعابهم، سيتحملون مخاطر المسؤولية القانونية».

مقاطعة شراء ألعاب الأطفال

لكن ريفا تُشير أيضاً إلى أنه بينما تقع المخاطر القانونية على عاتق شركات الألعاب، فإن المخاطر الفعلية «تعتمد كلياً على طريقة عمل نموذج التعلم الآلي»، ما يُوحي بأن شركات الذكاء الاصطناعي تتحمل أيضاً بعض المسؤولية. ولعل هذا ما دفع «أوبن إيه آي» إلى تأجيل تطوير ألعاب الذكاء الاصطناعي مع «Mattel» هذا الأسبوع.

وتقترح ريفا اقتراحاً بسيطاً: «إحدى الخطوات التي يمكننا اتخاذها كمجتمع، بصفة أننا مسؤولون عن رعاية الأطفال، هي مقاطعة شراء هذه الألعاب التي تعمل بالذكاء الاصطناعي».

* مجلة «فاست كومباني» خدمات «تريبيون ميديا»


مقالات ذات صلة

أداة «غوغل» للذكاء الاصطناعي تفتقر إلى الدقة

تكنولوجيا أداة «غوغل» للذكاء الاصطناعي تفتقر إلى الدقة

أداة «غوغل» للذكاء الاصطناعي تفتقر إلى الدقة

أكثر من نصف الإجابات الصحيحة كانت «غير مدعومة بأدلة»

كيد ميتز (نيويورك)
علوم مع الذكاء الاصطناعي: طلاب الجامعات يعيدون النظر في تخصصاتهم

مع الذكاء الاصطناعي: طلاب الجامعات يعيدون النظر في تخصصاتهم

70 % مع تغيير الاختصاص في التكنولوجيا مقابل 54 % في العلوم الإنسانية

«الشرق الأوسط» (واشنطن)
تكنولوجيا «غوغل» تحدّث أنظمة الذكاء الاصطناعي لتحسين التعامل مع استفسارات الصحة النفسية بشكل أكثر مسؤولية (شاترستوك)

تحديثات جديدة من «غوغل» لتعزيز تعامل الذكاء الاصطناعي مع الصحة النفسية

«غوغل» تحدّث استجابات الذكاء الاصطناعي للصحة النفسية لتوجيه المستخدمين نحو الدعم المناسب مع الحفاظ على السلامة وعدم استبدال المختصين.

نسيم رمضان (لندن)
علوم في عصر الذكاء الاصطناعي… الاحتيال والنصب يصبحان أمراً سهلاً للغاية

في عصر الذكاء الاصطناعي… الاحتيال والنصب يصبحان أمراً سهلاً للغاية

باستخدام الذكاء الاصطناعي التوليدي، يستطيع أي شخص الحصول على وجبة تعويضية أو منتج بديل مجاناً.

جيسوس دياز (واشنطن)
الاقتصاد «المركز السعودي للأعمال» يقدِّم خدماته لأحد المراجعين (واس)

طفرة تجارية في الربع الأول: السعودية تصدر 71 ألف سجل جديد

أصدرت الحكومة السعودية سجلات تجارية خلال الرُّبع الأول من العام الحالي، بإجمالي تجاوز 71 ألف سجل

«الشرق الأوسط» (الرياض)

أداة «غوغل» للذكاء الاصطناعي تفتقر إلى الدقة

أداة «غوغل» للذكاء الاصطناعي تفتقر إلى الدقة
TT

أداة «غوغل» للذكاء الاصطناعي تفتقر إلى الدقة

أداة «غوغل» للذكاء الاصطناعي تفتقر إلى الدقة

تبدو إجابات «غوغل» المُولَّدة بواسطة الذكاء الاصطناعي موثوقة، وهي تستند إلى مصادر متنوعة؛ من مواقع موثوقة، إلى منشورات «فيسبوك».

أداة تقييم إجابات «غوغل»

بهدف تقييم دقة «غوغل» وإجاباته بواسطة الذكاء الاصطناعي تحدَّث مجموعة من الصحافيين، وهم، إضافة إليّ: تريب ميكل، ديلان فريدمان، تيريزا موندريا تيرول، وكيث كولينز، مع شركات متخصصة في دراسة الذكاء الاصطناعي، قبل أن تقرر اختيار شركة أومي، ونموذج التحقق بالذكاء الاصطناعي الخاص بها «هال أومي»؛ لتقييم دقة إجابات غوغل «الذكية»، من خلال اختبار معياري شائع الاستخدام يُعرف باسم «SimpleQA».

مثال لجواب صحيح-خاطئ

في أواخر العام الماضي، كان ستيفن بونواسي يستعدّ لتناول العشاء عندما لاحظ خبراً يقول إن زوجة المصارع هالك هوغان قد ترفع دعوى قضائية بسبب وفاته. ولم يكن السيد بونواسي، محلل البيانات البالغ من العمر 41 عاماً والمقيم في تورنتو بكندا، على علم بوفاة السيد هوغان، فسأل «غوغل» عن تاريخ وفاته.

أثارت الإجابة حيرته. جاء في ملخص «نظرة عامة على الذكاء الاصطناعي» AI Overview من «غوغل»، الذي ظهر أعلى الصفحة: «لا توجد تقارير موثوقة عن وفاة هالك هوغان». وفوجئ بونواسي بما وجده أسفل الإجابة، حين رأى مقالاً من صحيفة «ديلي ميل» يناقض رد «غوغل» كان عنوانه: «غموض يكتنف وفاة هالك هوغان».

دقة نسبية

في عام 2024، بدأت «غوغل» منح الإجابات المُولَّدة بواسطة الذكاء الاصطناعي مكانة بارزة في أعلى صفحة نتائج البحث. وأسهم هذا المنتج الجديد، «نظرة عامة على الذكاء الاصطناعي»، في تحويل «غوغل» من مجمع للمعلومات إلى ناشر.

وأظهر تحليل حديث لـ«نظرة عامة على الذكاء الاصطناعي» أن الأداة دقيقة في تسع من كل عشر مرات تقريباً.

مئات الآلاف من الإجابات الخاطئة- كل دقيقة

لكن مع معالجة «غوغل» أكثر من خمسة تريليونات عملية بحث سنوياً، فهذا يعني أنها تُقدّم عشرات الملايين من الإجابات الخاطئة كل ساعة (أو مئات الآلاف من المعلومات غير الدقيقة كل دقيقة)، وفقاً لتحليلٍ أجرته شركة «أومي» الناشئة في مجال الذكاء الاصطناعي.

إجابات صحيحة «غير مدعومة بأدلة»

كما أظهرت الدراسة أن أكثر من نصف الإجابات الصحيحة كانت «غير مدعومة بأدلة»؛ أي أنها كانت تُحيل المستخدم إلى مواقع إلكترونية لا تدعم المعلومات المقدَّمة بشكل كامل. وهذا ما يجعل التحقق من دقة مراجعات الذكاء الاصطناعي أمراً صعباً.

ضرورة التدقيق الإضافي للإجابات

يُجادل بعض التقنيين بأن مراجعات الذكاء الاصطناعي من «غوغل» دقيقة إلى حد معقول، وأنها تحسّنت خلال الأشهر الأخيرة، لكن آخرين يُبدون قلقهم من أن الشخص العادي قد لا يُدرك أن هذه النتائج تحتاج إلى تدقيق إضافي.

بناءً على طلب صحيفة نيويورك تايمز، حلّل موقع «Oumi» دقة مراجعات الذكاء الاصطناعي من «غوغل» باستخدام اختبار معياري يُسمى «SimpleQA»؛ وهو اختبار شائع الاستخدام في هذا المجال لقياس دقة أنظمة الذكاء الاصطناعي. واختبرت الشركة الناشئة نظام «غوغل» في أكتوبر (تشرين الأول) الماضي، عندما جرت الإجابة عن أكثر الأسئلة تعقيداً باستخدام تقنية ذكاء اصطناعي تُسمى «جيميناي2» (Gemini 2)، ثم مرة أخرى في فبراير (شباط) من العام الحالي، بعد ترقيته إلى «جيمناي3» (Gemini 3)، وهي تقنية ذكاء اصطناعي أكثر قوة.

تحرّي الدقة

في كلتا الحالتين، ركز تحليل شركة أومي على 4326 عملية بحث على «غوغل»، ووجدت الشركة أن النتائج كانت دقيقة بنسبة 85 في المائة مع نظام «جيميناي 2»، و91 في المائة مع نظام «جيميناي 3».

قال براتيك فيرما، الرئيس التنفيذي لشركة أوكاهو، وهي شركة تساعد الناس على فهم واستخدام تقنيات الذكاء الاصطناعي، إن تقنية «غوغل» دقيقة تقريباً مثل أيٍّ من أنظمة الذكاء الاصطناعي الرائدة. وهو ينصح بالتحقق من معلوماتها. قال: «لا تثق أبداً بمصدر واحد. قارنْ دائماً ما تحصل عليه بمصدر آخر».

وتقر «غوغل» بأن مراجعات الذكاء الاصطناعي الخاصة بها قد تحتوي على أخطاء. ويؤكد النص الصغير أسفل كل «نظرة عامة على الذكاء الاصطناعي» ما يلي: «قد يرتكب الذكاء الاصطناعي أخطاءً، لذا تحققْ من الإجابات».

لكن «غوغل» قالت إن تحليل «أومي» كان معيباً لأنه اعتمد على اختبار معياري بنته شركة أوبن إيه آي، والذي احتوى بدوره على معلومات غير صحيحة. وقال نيد أدريانس، من «غوغل»، في بيان: «في هذه الدراسة ثغرات خطيرة».

تفاوت الإجابات

تقدم «نظرة عامة على الذكاء الاصطناعي» نوعين من المعلومات: إجابات عن الأسئلة، وقوائم بمواقع الويب التي تُدعم تلك الإجابات.

يصعب تقييم مراجعات الذكاء الاصطناعي لأن نظام «غوغل» قد يُولّد استجابة جديدة لكل استعلام، فإذا تلقّى محرك بحث «غوغل» الاستعلام نفسه في أوقات مختلفة - حتى لو كانت بفارق ثوانٍ - فقد يُنتج إجابة صحيحة، وأخرى خاطئة.

ولتحديد دقة أنظمة الذكاء الاصطناعي، تستخدم شركات مثل «Oumi» أنظمتها الخاصة للتحقق من كل إجابة. هذه هي الطريقة الوحيدة الفعّالة للتحقق من عدد كبير من الإجابات. تكمن مشكلة هذه الطريقة في أن نظام الذكاء الاصطناعي الذي يُجري التحقق قد يرتكب أخطاءً أيضاً.

اختلاف دقة «جيميناي» ومحرك «غوغل»

نشرت «غوغل» نتائج اختبارات مشابهة لتلك التي أنتجتها «Oumi» في تحليل «غوغل» الخاص لـ«Gemini 3» - التقنية التي تدعم مراجعات الذكاء الاصطناعي - وجدت أن النموذج أنتج معلومات خاطئة بنسبة 28 في المائة. وقالت الشركة إن مراجعات الذكاء الاصطناعي، التي تستقي المعلومات من محرك بحث «غوغل» قبل توليد الاستجابات، كانت أكثر دقة من «جيميناي» عند تشغيله بمفرده.

ومع تحسين «غوغل» تقنيات الذكاء الاصطناعي لديها بفضل التقنيات الحديثة، أصبحت إجابات «غوغل» المُولّدة بواسطة الذكاء الاصطناعي أكثر دقة.

من جهة أخرى، يتساءل مانوس كوكوميديس، الرئيس التنفيذي لشركة أومي: «حتى عندما تكون الإجابة صحيحة، كيف يمكن التأكد من صحتها؟ كيف يمكن التحقق منها؟».

احتمالات وتخمينات وسوء تفسير

تستخدم أنظمة الذكاء الاصطناعي الحالية الاحتمالات الرياضية لتخمين أفضل إجابة، وليس مجموعة صارمة من القواعد التي وضعها مهندسون بشريون. وهذا يعني أنها ترتكب عدداً من الأخطاء. وأحياناً يُحدّد نظام غوغل «نظرة عامة على الذكاء الاصطناعي» موقعاً إلكترونياً موثوقاً، لكنه يُسيء تفسير معلوماته.

التلاعب بالأخبار

تواجه مراجعات الذكاء الاصطناعي تحدياً آخر: إمكانية التلاعب بها.

وتقول ليلي راي، نائبة رئيس قسم البحث بالذكاء الاصطناعي بوكالة التسويق «أمسيف»: «إذا أراد شخص أن يُعرف كخبير عالمي في مجالٍ ما، فما عليه إلا أن يكتب منشوراً على مدونته يُعلن فيه عن هذا التميز».

تُقرّ «غوغل» بهذه المشكلة، لكنها تُقلّل من شأنها. وصرح السيد أدريانس، من «غوغل»، في بيان: «تعتمد ميزات الذكاء الاصطناعي في بحثنا على معايير الترتيب والحماية نفسها التي تمنع الغالبية العظمى من الرسائل المزعجة من الظهور في نتائج البحث. معظم هذه الأمثلة عبارة عن عمليات بحث غير واقعية لن يُجريها الناس في الواقع».

تجربة صحافية للتلاعب بالأخبار

بعد سماع نظرية السيدة راي، نشر توماس جيرمان، أحد مُقدّمي بودكاست «ذا إنترفيس» على «بي بي سي»، منشوراً على مدونته بعنوان «أفضل صحافي تكنولوجيا في أكل الهوت دوغ». ووصف المنشور بطولة وهمية لأكل الهوت دوغ في ولاية ساوث داكوتا، حيث تصدّر قائمة تضم عشرة «مُتنافسين بارزين في أكل الهوت دوغ».

وبعد يوم، أجرى بحثاً على «غوغل» عن أفضل صحافيي التكنولوجيا الذين يتناولون الهوت دوغ. ووجد أن «غوغل» أدرجه في المرتبة الأولى بين ستة صحافيين تقنيين «اكتسبوا شهرةً واسعةً بفضل براعتهم في قسم الأخبار الخاص بمسابقات تناول الطعام»، مشيراً إلى فوزه بالمركز الأول في مسابقة ساوث داكوتا.

وقال جيرمان: «كان (غوغل) يعرض محتوى موقعي الإلكتروني وكأنه حقيقة مُطلقة».

*باختصار، خدمة «نيويورك تايمز»


عضلات اصطناعية تمكّن الروبوتات من رفع 100 ضعف وزنها

العضلات الاصطناعية تعمل بالهواء ما يمنح الروبوتات قدرة على رفع أوزان تصل إلى 100 ضعف وزنها (جامعة ولاية أريزونا)
العضلات الاصطناعية تعمل بالهواء ما يمنح الروبوتات قدرة على رفع أوزان تصل إلى 100 ضعف وزنها (جامعة ولاية أريزونا)
TT

عضلات اصطناعية تمكّن الروبوتات من رفع 100 ضعف وزنها

العضلات الاصطناعية تعمل بالهواء ما يمنح الروبوتات قدرة على رفع أوزان تصل إلى 100 ضعف وزنها (جامعة ولاية أريزونا)
العضلات الاصطناعية تعمل بالهواء ما يمنح الروبوتات قدرة على رفع أوزان تصل إلى 100 ضعف وزنها (جامعة ولاية أريزونا)

يطوّر باحثون في جامعة ولاية أريزونا نوعاً جديداً من «العضلات الاصطناعية» التي تعمل بالهواء، في خطوة قد تغيّر الطريقة التي تُصمم بها الروبوتات، خصوصاً في البيئات القاسية التي يصعب فيها استخدام الأنظمة التقليدية. تعتمد هذه التقنية على تصميم مستوحى من العضلات البيولوجية، حيث تُستخدم أنظمة هوائية بدلاً من المحركات الصلبة، ما يمنح الروبوتات مرونة أكبر وقدرة على الحركة في ظروف غير اعتيادية.

أحد أبرز ما يميز هذه العضلات الجديدة هو قدرتها على رفع أوزان تصل إلى نحو 100 ضعف وزنها، مع الحفاظ على حجم صغير وخفة في التصميم. هذه النسبة تعكس تحولاً مهماً في مجال الروبوتات، حيث لطالما واجهت الأنظمة التقليدية تحدياً في تحقيق توازن بين القوة والمرونة. فالروبوتات التي تعتمد على محركات كهربائية أو أنظمة ميكانيكية صلبة تكون عادة قوية، لكنها أقل قدرة على التكيف مع البيئات المعقدة. في المقابل، تتيح العضلات الهوائية الجديدة الجمع بين القوة والمرونة، ما يفتح المجال لتطبيقات أوسع.

العمل في بيئات قاسية

من بين الميزات اللافتة لهذه التقنية قدرتها على العمل في ظروف صعبة، مثل المياه شديدة الحرارة أو الأسطح الخشنة، وهي بيئات غالباً ما تعيق الروبوتات التقليدية أو تتسبب في تعطّلها.

ويشير الباحثون إلى أن هذا النوع من العضلات يمكن أن يساعد الروبوتات على «تجاوز العوائق التي تُبقي نظيراتها التقليدية خارج الخدمة»، ما يعزز من استخدامها في مهام مثل الاستكشاف أو العمليات الصناعية المعقدة.

ميزة أخرى مهمة تكمن في أن هذه الأنظمة يمكن أن تعمل دون الاعتماد الكامل على مصادر طاقة تقليدية ثقيلة، ما يقلل من الحاجة إلى البطاريات أو الأنظمة الكهربائية المعقدة. هذا التطور قد يساهم في تصميم روبوتات أكثر استقلالية، قادرة على العمل لفترات أطول، خصوصاً في الأماكن التي يصعب فيها إعادة الشحن أو الصيانة.

من «الصلابة» إلى «المرونة»

تعكس هذه التقنية تحولاً أوسع في مجال الروبوتات نحو ما يُعرف بـ«الروبوتات اللينة» (Soft Robotics)، وهي أنظمة تعتمد على مواد مرنة تحاكي الطبيعة بدلاً من الهياكل المعدنية الصلبة. فالعضلات الاصطناعية، بشكل عام، تُصمم لتقليد طريقة عمل العضلات البشرية، حيث يمكنها الانقباض والتمدد استجابة لمحفزات مختلفة مثل الضغط أو الحرارة أو الكهرباء. وفي حالة العضلات الهوائية، يتم استخدام ضغط الهواء لتحفيز الحركة، ما يسمح بتحقيق حركات أكثر سلاسة وتكيفاً مع البيئة.

رغم إمكاناتها لا تزال تواجه تحديات في التحكم الدقيق ودمجها ضمن أنظمة روبوتية متكاملة (جامعة ولاية أريزونا)

إمكانات تطبيقية واسعة

لا تقتصر أهمية هذا التطور على الجانب النظري، بل تمتد إلى تطبيقات عملية متعددة. فهذه العضلات يمكن أن تُستخدم في عمليات الإنقاذ في البيئات الخطرة وفحص البنية التحتية الصناعية والتطبيقات الطبية، مثل الأجهزة المساعدة وأيضاً في الزراعة والعمل في التضاريس غير المستوية.

تكمن أهمية هذه التطبيقات في أن الروبوتات القادرة على التكيف مع بيئات غير متوقعة قد تقلل من المخاطر التي يتعرض لها البشر في مثل هذه المهام. ورغم هذه المزايا، لا تزال هناك تحديات تقنية مرتبطة بالتحكم الدقيق في هذه الأنظمة، خاصة أن العضلات الهوائية تعتمد على ديناميكيات غير خطية، ما يجعل التحكم في حركتها أكثر تعقيداً مقارنة بالأنظمة التقليدية. كما أن دمج هذه العضلات ضمن أنظمة روبوتية متكاملة يتطلب تطوير برمجيات وتحكمات قادرة على التعامل مع هذا النوع من الحركة المرنة.

خطوة نحو جيل جديد من الروبوتات

يمثل هذا الابتكار جزءاً من مسار أوسع نحو تطوير روبوتات أكثر شبهاً بالكائنات الحية، من حيث الحركة والتفاعل مع البيئة. فبدلاً من الاعتماد على القوة الصلبة، يتجه الباحثون نحو أنظمة تجمع بين القوة والمرونة والقدرة على التكيف. وفي هذا السياق، لا يُنظر إلى العضلات الاصطناعية فقط باعتبارها بديلاً للمحركات، بل كونها إعادة تعريف لكيفية تصميم الروبوتات نفسها، بما يتناسب مع متطلبات بيئات أكثر تعقيداً.

يظهر هذا التطور اتجاهاً متزايداً في الهندسة الحديثة نحو الاقتراب من الطبيعة بدلاً من الابتعاد عنها. فالأنظمة البيولوجية، مثل العضلات، أثبتت كفاءة عالية في تحقيق التوازن بين القوة والمرونة، وهو ما تسعى هذه التقنيات إلى محاكاته.


تحديثات جديدة من «غوغل» لتعزيز تعامل الذكاء الاصطناعي مع الصحة النفسية

«غوغل» تحدّث أنظمة الذكاء الاصطناعي لتحسين التعامل مع استفسارات الصحة النفسية بشكل أكثر مسؤولية (شاترستوك)
«غوغل» تحدّث أنظمة الذكاء الاصطناعي لتحسين التعامل مع استفسارات الصحة النفسية بشكل أكثر مسؤولية (شاترستوك)
TT

تحديثات جديدة من «غوغل» لتعزيز تعامل الذكاء الاصطناعي مع الصحة النفسية

«غوغل» تحدّث أنظمة الذكاء الاصطناعي لتحسين التعامل مع استفسارات الصحة النفسية بشكل أكثر مسؤولية (شاترستوك)
«غوغل» تحدّث أنظمة الذكاء الاصطناعي لتحسين التعامل مع استفسارات الصحة النفسية بشكل أكثر مسؤولية (شاترستوك)

أعلنت «غوغل» عن تحديثات جديدة على أنظمة الذكاء الاصطناعي لديها، تهدف إلى تحسين طريقة التعامل مع استفسارات الصحة النفسية، في خطوة تعكس تزايد اعتماد المستخدمين على هذه الأدوات في لحظات حساسة.

في مدونتها الرسمية، أوضحت الشركة أن التحديثات تركز على كيفية استجابة مساعدها الذكي، بما في ذلك «جيميناي» (Gemini) عندما يطرح المستخدمون أسئلة مرتبطة بالقلق أو الاكتئاب أو إيذاء النفس. وبدلاً من الاكتفاء بإجابات عامة، أصبح النظام يوجّه المستخدمين بشكل أوضح نحو مصادر دعم متخصصة، مثل خطوط المساعدة والخدمات الطارئة.

ويأتي هذا التغيير في ظل تحول أوسع في استخدام الذكاء الاصطناعي، حيث لم يعد دوره مقتصراً على تقديم المعلومات، بل أصبح يتعامل مع سياقات إنسانية أكثر تعقيداً. فالمستخدمون لا يلجأون إلى هذه الأدوات للبحث فقط، بل أحياناً للتعبير عن مشاعرهم أو طلب المساعدة.

التحديثات تركّز على توجيه المستخدمين إلى مصادر دعم متخصصة بدل الاكتفاء بإجابات عامة (شاترستوك)

تركيز على السلامة والتوجيه

بحسب ما ورد في المدونة، تعمل التحديثات على جعل الاستجابات أكثر وضوحاً في توجيه المستخدمين إلى الدعم المناسب، خاصة في الحالات التي قد تشير إلى أزمة نفسية. كما تم تحسين صياغة الردود لتكون أكثر حساسية للسياق، مع التأكيد على أن هذه الأدوات لا تُعد بديلاً عن الدعم الطبي أو النفسي المتخصص. ويعكس هذا النهج محاولة للحدّ من المخاطر المحتملة، حيث يمكن للردود غير الدقيقة أو المبسطة أن تؤدي إلى نتائج سلبية، خصوصاً لدى المستخدمين في حالات ضعف نفسي.

وتشير التحديثات أيضاً إلى أهمية فهم السياق العاطفي للمستخدم، وليس تحليل الكلمات المفتاحية فقط. فالنظام أصبح يسعى إلى تمييز الحالات التي تتطلب استجابة أكثر حذراً، ما يعكس توجهاً نحو تطوير ذكاء اصطناعي أكثر وعياً بالسياق. ومع ذلك، تظل حدود هذا الدور واضحة. فالشركة لا تقدم هذه الأدوات بديلاً عن المختصين، بل وسيلة أولية يمكن أن تساعد في توجيه المستخدم نحو المساعدة المناسبة.

تؤكد «غوغل» أن الذكاء الاصطناعي ليس بديلاً عن الدعم الطبي أو النفسي المتخصص (رويترز)

تحديات مستمرة

رغم هذه التحسينات، لا تزال هناك تحديات قائمة. فالتعامل مع الصحة النفسية عبر أنظمة آلية يطرح تساؤلات حول الدقة والمسؤولية، خاصة في الحالات التي تتطلب تدخلاً بشرياً مباشراً. كما أن الاستخدام المتزايد لهذه الأدوات يضع شركات التكنولوجيا أمام مسؤولية كبرى، تتعلق بضمان عدم إساءة استخدام هذه الأنظمة، أو الاعتماد عليها بشكل يتجاوز قدراتها الفعلية.

تعكس هذه التحديثات توجهاً متزايداً نحو ما يُعرف بالذكاء الاصطناعي المسؤول، حيث لا تقتصر المعايير على الأداء التقني، بل تشمل التأثير الاجتماعي والأخلاقي أيضاً. وفي هذا السياق، تشير «غوغل» إلى أن تطوير هذه الميزات تم بالتعاون مع خبراء في الصحة النفسية، بهدف تحسين جودة الاستجابات وتقليل المخاطر المحتملة.

قد لا تسعى هذه الخطوة إلى تحويل الذكاء الاصطناعي إلى معالج نفسي، بل إلى إعادة تعريف دوره كأداة دعم أولي. أداة يمكن أن تساعد المستخدم في الوصول إلى المعلومات والدعم، لكنها لا تحلّ محل التدخل البشري المتخصص.