منهجية لرصد «عدالة الذكاء الاصطناعي» داخل «الصندوق الأسود للخوارزميات»

لموازنة الكفاءة والإنصاف والمسؤولية

طوّر باحثو «MIT» منهجية لرصد مخاطر العدالة في أنظمة الذكاء الاصطناعي قبل نشرها (شاترستوك)
طوّر باحثو «MIT» منهجية لرصد مخاطر العدالة في أنظمة الذكاء الاصطناعي قبل نشرها (شاترستوك)
TT

منهجية لرصد «عدالة الذكاء الاصطناعي» داخل «الصندوق الأسود للخوارزميات»

طوّر باحثو «MIT» منهجية لرصد مخاطر العدالة في أنظمة الذكاء الاصطناعي قبل نشرها (شاترستوك)
طوّر باحثو «MIT» منهجية لرصد مخاطر العدالة في أنظمة الذكاء الاصطناعي قبل نشرها (شاترستوك)

مع توسّع دور أنظمة الذكاء الاصطناعي في اتخاذ قرارات مستقلة داخل قطاعات حيوية، لم يعد السؤال يقتصر على كفاءة هذه الأنظمة؛ بل أصبح يشمل مدى عدالتها أيضاً. وفي هذا السياق، قدّم باحثون من معهد ماساتشوستس للتكنولوجيا (MIT) منهجية جديدة تهدف إلى رصد مخاطر العدالة في أنظمة اتخاذ القرار المستقلة قبل نشرها، ما قد يشكّل تحولاً في طريقة تقييم هذه التقنيات.

وعادةً ما تُصمَّم الأنظمة المستقلة لتحسين نتائج قابلة للقياس؛ ففي شبكات الطاقة، على سبيل المثال، قد يحدد نموذج ذكاء اصطناعي كيفية توزيع الكهرباء بطريقة تقلل التكاليف وتحافظ على الاستقرار. لكن هذا النوع من التحسين لا يأخذ بالضرورة في الاعتبار كيفية توزيع النتائج بين مختلف الفئات المجتمعية؛ فقد تبدو الاستراتيجية فعّالة من الناحية التقنية، لكنها قد تؤدي إلى تحميل أحياء ذات دخل منخفض عبء انقطاعات الكهرباء، مقابل حماية مناطق أكثر ثراءً.

العدالة في الذكاء الاصطناعي غالباً غير واضحة بسبب طبيعة «الصندوق الأسود» للخوارزميات (غيتي)

«الصناديق سوداء»

هذا التوتر بين الكفاءة والعدالة يشكّل جوهر البحث الجديد؛ فقد طوّر فريق «MIT» منهجية تقيم بشكل منهجي كيف توازن الأنظمة المستقلة بين هذه الأولويات المتنافسة. وبدلاً من التركيز فقط على مؤشرات الأداء التقنية، يدمج النهج الجديد عوامل كمية مثل التكلفة وموثوقية النظام مع اعتبارات نوعية تشمل العدالة والإنصاف.

تقنياً، تعمل هذه المنهجية بوضفها إطار تقييم آلياً، حيث تحلل القرارات التي تتخذها أنظمة الذكاء الاصطناعي وتحدد الحالات التي قد تؤدي إلى نتائج إشكالية أخلاقياً. ومن خلال رصد هذه المخاطر في مرحلة مبكرة، تتيح الأداة للمطورين وصناع القرار وأصحاب المصلحة تقييم المفاضلات قبل تطبيق الأنظمة في الواقع.

وتكتسب هذه القدرة أهمية خاصة لأن العدالة في الذكاء الاصطناعي ليست دائماً واضحة؛ فكثير من الخوارزميات تعمل بوصفها «صناديق سوداء»، ما يجعل من الصعب تتبع كيفية اتخاذ القرارات أو تفسير النتائج. وفي كثير من الأحيان، لا يكون التحيّز مقصوداً؛ بل ينشأ من البيانات المستخدمة في تدريب النظام أو من طريقة تصميم أهدافه.

وتعالج المنهجية الجديدة هذا التحدي من خلال توفير طريقة منظمة لتقييم العدالة جنباً إلى جنب مع مؤشرات الأداء التقليدية. وبدلاً من التعامل مع العدالة عاملاً ثانوياً أو متطلباً تنظيمياً منفصلاً، تصبح جزءاً أساسياً من عملية تصميم واختبار الأنظمة.

المنهجية توازن بين الكفاءة التقنية والاعتبارات الأخلاقية مثل الإنصاف وتوزيع النتائج (غيتي)

تداعيات الذكاء المستقل

لا تقتصر تداعيات هذا النهج على قطاع الطاقة؛ فأنظمة اتخاذ القرار المستقلة تُستخدم بشكل متزايد في مجالات مثل التخطيط الحضري، وتوزيع الموارد الصحية، والمركبات ذاتية القيادة. وفي كل من هذه المجالات، يمكن أن يكون لقرارات الذكاء الاصطناعي تأثيرات اجتماعية واسعة، خصوصاً عندما تتعلق بالوصول إلى خدمات أساسية.

وفي قطاع النقل، على سبيل المثال، قد تعمل خوارزميات التوجيه على تقليل زمن الرحلات، لكنها قد تفضّل مناطق معينة على حساب أخرى. وفي الرعاية الصحية، قد تسعى نماذج توزيع الموارد إلى تحقيق الكفاءة، لكنها قد لا تضمن توزيعاً عادلاً بين مختلف الفئات السكانية. ومن خلال توفير وسيلة منهجية لرصد هذه المخاطر، يُسهم بحث «MIT» في تعزيز تطوير أنظمة ذكاء اصطناعي أكثر مسؤولية ومواءمة مع القيم الاجتماعية.

كما يعكس هذا العمل توجهاً متزايداً نحو ما يُعرف بـ«الذكاء الاصطناعي الموثوق»، وهو إطار يركز على الشفافية والمساءلة والعدالة إلى جانب الأداء. ومع ذلك، فإن مفهوم العدالة في هذا السياق ليس موحداً؛ إذ قد يشير إلى المساواة في النتائج، أو في المعاملة، أو في توزيع الموارد، بحسب التطبيق. وهذا التعقيد يجعل من الصعب تصميم أنظمة تحقق الكفاءة والإنصاف في الوقت ذاته.

ولا تسعى منهجية «MIT» إلى حسم هذه النقاشات الفلسفية؛ بل تقدم أداة عملية تكشف نقاط التوازن والمفاضلة بين هذه الأهداف. ومن خلال إظهار هذه المفاضلات بشكل واضح، تتيح لصنّاع القرار التعامل معها بوعي، بدلاً من بقائها مخفية داخل العمليات الخوارزمية.

ومن أبرز مساهمات هذا البحث تركيزه على التقييم قبل النشر؛ فكثير من الجهود الحالية في مجال عدالة الذكاء الاصطناعي يركز على اكتشاف التحيّز بعد تطبيق الأنظمة، وهو نهج تفاعلي قد يكون مكلفاً وصعب التنفيذ، خصوصاً عندما تكون الأنظمة قد أصبحت جزءاً من بنى تحتية حيوية.

النهج الاستباقي يساعد في تقليل الأضرار المحتملة ويدعم تطوير أنظمة أكثر شفافية ومسؤولية (رويترز)

تقييم قبل النشر

في المقابل، يتيح النهج الجديد استراتيجية استباقية، حيث يمكن للمطورين اختبار سيناريوهات متعددة، وتقييم التأثيرات المحتملة، وضبط معايير النظام قبل إطلاقه. وهذا لا يقلل فقط من مخاطر الأضرار غير المقصودة؛ بل يتماشى أيضاً مع التوجهات التنظيمية المتزايدة التي تركز على تقييم المخاطر والمساءلة في أنظمة الذكاء الاصطناعي.

ومع ذلك، يسلّط هذا النهج الضوء أيضاً على التحديات المستمرة في تحويل مفهوم العدالة إلى تطبيق عملي داخل أنظمة معقدة؛ فالأنظمة المستقلة غالباً ما تتكون من عناصر متعددة تتفاعل ضمن بيئات ديناميكية، ما يجعل ضمان العدالة بشكل مستمر أمراً صعباً، خصوصاً مع توسّع نطاق استخدامها.

إضافة إلى ذلك، قد تتعارض اعتبارات العدالة أحياناً مع أهداف أخرى مثل تقليل التكاليف أو تحسين الكفاءة. والتعامل مع هذه التعارضات يتطلب ليس فقط حلولاً تقنية؛ بل أيضاً قرارات سياسية ومشاركة مجتمعية.

وفي هذا الإطار، لا تهدف الأدوات مثل تلك التي طوّرها فريق «MIT» إلى استبدال الحكم البشري؛ بل إلى دعمه وتزويده بمعلومات أوضح. ومع استمرار توسّع دور الأنظمة المستقلة في المجتمع، تصبح القدرة على تقييم آثارها الأوسع أمراً ضرورياً.

ويمثّل هذا البحث خطوة نحو تقييم أكثر شفافية ومنهجية لهذه الأنظمة، من خلال توفير وسيلة لرصد المخاطر الأخلاقية قبل أن تتحول إلى واقع. وهو ما يعكس تحوّلاً أوسع في مسار الذكاء الاصطناعي: من التركيز على ما يمكن أن تفعله الأنظمة، إلى التساؤل عن كيفية أدائها، ولصالح مَنْ.


مقالات ذات صلة

أداة «غوغل» للذكاء الاصطناعي تفتقر إلى الدقة

تكنولوجيا أداة «غوغل» للذكاء الاصطناعي تفتقر إلى الدقة

أداة «غوغل» للذكاء الاصطناعي تفتقر إلى الدقة

أكثر من نصف الإجابات الصحيحة كانت «غير مدعومة بأدلة»

كيد ميتز (نيويورك)
علوم مع الذكاء الاصطناعي: طلاب الجامعات يعيدون النظر في تخصصاتهم

مع الذكاء الاصطناعي: طلاب الجامعات يعيدون النظر في تخصصاتهم

70 % مع تغيير الاختصاص في التكنولوجيا مقابل 54 % في العلوم الإنسانية

«الشرق الأوسط» (واشنطن)
تكنولوجيا «غوغل» تحدّث أنظمة الذكاء الاصطناعي لتحسين التعامل مع استفسارات الصحة النفسية بشكل أكثر مسؤولية (شاترستوك)

تحديثات جديدة من «غوغل» لتعزيز تعامل الذكاء الاصطناعي مع الصحة النفسية

«غوغل» تحدّث استجابات الذكاء الاصطناعي للصحة النفسية لتوجيه المستخدمين نحو الدعم المناسب مع الحفاظ على السلامة وعدم استبدال المختصين.

نسيم رمضان (لندن)
علوم في عصر الذكاء الاصطناعي… الاحتيال والنصب يصبحان أمراً سهلاً للغاية

في عصر الذكاء الاصطناعي… الاحتيال والنصب يصبحان أمراً سهلاً للغاية

باستخدام الذكاء الاصطناعي التوليدي، يستطيع أي شخص الحصول على وجبة تعويضية أو منتج بديل مجاناً.

جيسوس دياز (واشنطن)
الاقتصاد «المركز السعودي للأعمال» يقدِّم خدماته لأحد المراجعين (واس)

طفرة تجارية في الربع الأول: السعودية تصدر 71 ألف سجل جديد

أصدرت الحكومة السعودية سجلات تجارية خلال الرُّبع الأول من العام الحالي، بإجمالي تجاوز 71 ألف سجل

«الشرق الأوسط» (الرياض)

أداة «غوغل» للذكاء الاصطناعي تفتقر إلى الدقة

أداة «غوغل» للذكاء الاصطناعي تفتقر إلى الدقة
TT

أداة «غوغل» للذكاء الاصطناعي تفتقر إلى الدقة

أداة «غوغل» للذكاء الاصطناعي تفتقر إلى الدقة

تبدو إجابات «غوغل» المُولَّدة بواسطة الذكاء الاصطناعي موثوقة، وهي تستند إلى مصادر متنوعة؛ من مواقع موثوقة، إلى منشورات «فيسبوك».

أداة تقييم إجابات «غوغل»

بهدف تقييم دقة «غوغل» وإجاباته بواسطة الذكاء الاصطناعي تحدَّث مجموعة من الصحافيين، وهم، إضافة إليّ: تريب ميكل، ديلان فريدمان، تيريزا موندريا تيرول، وكيث كولينز، مع شركات متخصصة في دراسة الذكاء الاصطناعي، قبل أن تقرر اختيار شركة أومي، ونموذج التحقق بالذكاء الاصطناعي الخاص بها «هال أومي»؛ لتقييم دقة إجابات غوغل «الذكية»، من خلال اختبار معياري شائع الاستخدام يُعرف باسم «SimpleQA».

مثال لجواب صحيح-خاطئ

في أواخر العام الماضي، كان ستيفن بونواسي يستعدّ لتناول العشاء عندما لاحظ خبراً يقول إن زوجة المصارع هالك هوغان قد ترفع دعوى قضائية بسبب وفاته. ولم يكن السيد بونواسي، محلل البيانات البالغ من العمر 41 عاماً والمقيم في تورنتو بكندا، على علم بوفاة السيد هوغان، فسأل «غوغل» عن تاريخ وفاته.

أثارت الإجابة حيرته. جاء في ملخص «نظرة عامة على الذكاء الاصطناعي» AI Overview من «غوغل»، الذي ظهر أعلى الصفحة: «لا توجد تقارير موثوقة عن وفاة هالك هوغان». وفوجئ بونواسي بما وجده أسفل الإجابة، حين رأى مقالاً من صحيفة «ديلي ميل» يناقض رد «غوغل» كان عنوانه: «غموض يكتنف وفاة هالك هوغان».

دقة نسبية

في عام 2024، بدأت «غوغل» منح الإجابات المُولَّدة بواسطة الذكاء الاصطناعي مكانة بارزة في أعلى صفحة نتائج البحث. وأسهم هذا المنتج الجديد، «نظرة عامة على الذكاء الاصطناعي»، في تحويل «غوغل» من مجمع للمعلومات إلى ناشر.

وأظهر تحليل حديث لـ«نظرة عامة على الذكاء الاصطناعي» أن الأداة دقيقة في تسع من كل عشر مرات تقريباً.

مئات الآلاف من الإجابات الخاطئة- كل دقيقة

لكن مع معالجة «غوغل» أكثر من خمسة تريليونات عملية بحث سنوياً، فهذا يعني أنها تُقدّم عشرات الملايين من الإجابات الخاطئة كل ساعة (أو مئات الآلاف من المعلومات غير الدقيقة كل دقيقة)، وفقاً لتحليلٍ أجرته شركة «أومي» الناشئة في مجال الذكاء الاصطناعي.

إجابات صحيحة «غير مدعومة بأدلة»

كما أظهرت الدراسة أن أكثر من نصف الإجابات الصحيحة كانت «غير مدعومة بأدلة»؛ أي أنها كانت تُحيل المستخدم إلى مواقع إلكترونية لا تدعم المعلومات المقدَّمة بشكل كامل. وهذا ما يجعل التحقق من دقة مراجعات الذكاء الاصطناعي أمراً صعباً.

ضرورة التدقيق الإضافي للإجابات

يُجادل بعض التقنيين بأن مراجعات الذكاء الاصطناعي من «غوغل» دقيقة إلى حد معقول، وأنها تحسّنت خلال الأشهر الأخيرة، لكن آخرين يُبدون قلقهم من أن الشخص العادي قد لا يُدرك أن هذه النتائج تحتاج إلى تدقيق إضافي.

بناءً على طلب صحيفة نيويورك تايمز، حلّل موقع «Oumi» دقة مراجعات الذكاء الاصطناعي من «غوغل» باستخدام اختبار معياري يُسمى «SimpleQA»؛ وهو اختبار شائع الاستخدام في هذا المجال لقياس دقة أنظمة الذكاء الاصطناعي. واختبرت الشركة الناشئة نظام «غوغل» في أكتوبر (تشرين الأول) الماضي، عندما جرت الإجابة عن أكثر الأسئلة تعقيداً باستخدام تقنية ذكاء اصطناعي تُسمى «جيميناي2» (Gemini 2)، ثم مرة أخرى في فبراير (شباط) من العام الحالي، بعد ترقيته إلى «جيمناي3» (Gemini 3)، وهي تقنية ذكاء اصطناعي أكثر قوة.

تحرّي الدقة

في كلتا الحالتين، ركز تحليل شركة أومي على 4326 عملية بحث على «غوغل»، ووجدت الشركة أن النتائج كانت دقيقة بنسبة 85 في المائة مع نظام «جيميناي 2»، و91 في المائة مع نظام «جيميناي 3».

قال براتيك فيرما، الرئيس التنفيذي لشركة أوكاهو، وهي شركة تساعد الناس على فهم واستخدام تقنيات الذكاء الاصطناعي، إن تقنية «غوغل» دقيقة تقريباً مثل أيٍّ من أنظمة الذكاء الاصطناعي الرائدة. وهو ينصح بالتحقق من معلوماتها. قال: «لا تثق أبداً بمصدر واحد. قارنْ دائماً ما تحصل عليه بمصدر آخر».

وتقر «غوغل» بأن مراجعات الذكاء الاصطناعي الخاصة بها قد تحتوي على أخطاء. ويؤكد النص الصغير أسفل كل «نظرة عامة على الذكاء الاصطناعي» ما يلي: «قد يرتكب الذكاء الاصطناعي أخطاءً، لذا تحققْ من الإجابات».

لكن «غوغل» قالت إن تحليل «أومي» كان معيباً لأنه اعتمد على اختبار معياري بنته شركة أوبن إيه آي، والذي احتوى بدوره على معلومات غير صحيحة. وقال نيد أدريانس، من «غوغل»، في بيان: «في هذه الدراسة ثغرات خطيرة».

تفاوت الإجابات

تقدم «نظرة عامة على الذكاء الاصطناعي» نوعين من المعلومات: إجابات عن الأسئلة، وقوائم بمواقع الويب التي تُدعم تلك الإجابات.

يصعب تقييم مراجعات الذكاء الاصطناعي لأن نظام «غوغل» قد يُولّد استجابة جديدة لكل استعلام، فإذا تلقّى محرك بحث «غوغل» الاستعلام نفسه في أوقات مختلفة - حتى لو كانت بفارق ثوانٍ - فقد يُنتج إجابة صحيحة، وأخرى خاطئة.

ولتحديد دقة أنظمة الذكاء الاصطناعي، تستخدم شركات مثل «Oumi» أنظمتها الخاصة للتحقق من كل إجابة. هذه هي الطريقة الوحيدة الفعّالة للتحقق من عدد كبير من الإجابات. تكمن مشكلة هذه الطريقة في أن نظام الذكاء الاصطناعي الذي يُجري التحقق قد يرتكب أخطاءً أيضاً.

اختلاف دقة «جيميناي» ومحرك «غوغل»

نشرت «غوغل» نتائج اختبارات مشابهة لتلك التي أنتجتها «Oumi» في تحليل «غوغل» الخاص لـ«Gemini 3» - التقنية التي تدعم مراجعات الذكاء الاصطناعي - وجدت أن النموذج أنتج معلومات خاطئة بنسبة 28 في المائة. وقالت الشركة إن مراجعات الذكاء الاصطناعي، التي تستقي المعلومات من محرك بحث «غوغل» قبل توليد الاستجابات، كانت أكثر دقة من «جيميناي» عند تشغيله بمفرده.

ومع تحسين «غوغل» تقنيات الذكاء الاصطناعي لديها بفضل التقنيات الحديثة، أصبحت إجابات «غوغل» المُولّدة بواسطة الذكاء الاصطناعي أكثر دقة.

من جهة أخرى، يتساءل مانوس كوكوميديس، الرئيس التنفيذي لشركة أومي: «حتى عندما تكون الإجابة صحيحة، كيف يمكن التأكد من صحتها؟ كيف يمكن التحقق منها؟».

احتمالات وتخمينات وسوء تفسير

تستخدم أنظمة الذكاء الاصطناعي الحالية الاحتمالات الرياضية لتخمين أفضل إجابة، وليس مجموعة صارمة من القواعد التي وضعها مهندسون بشريون. وهذا يعني أنها ترتكب عدداً من الأخطاء. وأحياناً يُحدّد نظام غوغل «نظرة عامة على الذكاء الاصطناعي» موقعاً إلكترونياً موثوقاً، لكنه يُسيء تفسير معلوماته.

التلاعب بالأخبار

تواجه مراجعات الذكاء الاصطناعي تحدياً آخر: إمكانية التلاعب بها.

وتقول ليلي راي، نائبة رئيس قسم البحث بالذكاء الاصطناعي بوكالة التسويق «أمسيف»: «إذا أراد شخص أن يُعرف كخبير عالمي في مجالٍ ما، فما عليه إلا أن يكتب منشوراً على مدونته يُعلن فيه عن هذا التميز».

تُقرّ «غوغل» بهذه المشكلة، لكنها تُقلّل من شأنها. وصرح السيد أدريانس، من «غوغل»، في بيان: «تعتمد ميزات الذكاء الاصطناعي في بحثنا على معايير الترتيب والحماية نفسها التي تمنع الغالبية العظمى من الرسائل المزعجة من الظهور في نتائج البحث. معظم هذه الأمثلة عبارة عن عمليات بحث غير واقعية لن يُجريها الناس في الواقع».

تجربة صحافية للتلاعب بالأخبار

بعد سماع نظرية السيدة راي، نشر توماس جيرمان، أحد مُقدّمي بودكاست «ذا إنترفيس» على «بي بي سي»، منشوراً على مدونته بعنوان «أفضل صحافي تكنولوجيا في أكل الهوت دوغ». ووصف المنشور بطولة وهمية لأكل الهوت دوغ في ولاية ساوث داكوتا، حيث تصدّر قائمة تضم عشرة «مُتنافسين بارزين في أكل الهوت دوغ».

وبعد يوم، أجرى بحثاً على «غوغل» عن أفضل صحافيي التكنولوجيا الذين يتناولون الهوت دوغ. ووجد أن «غوغل» أدرجه في المرتبة الأولى بين ستة صحافيين تقنيين «اكتسبوا شهرةً واسعةً بفضل براعتهم في قسم الأخبار الخاص بمسابقات تناول الطعام»، مشيراً إلى فوزه بالمركز الأول في مسابقة ساوث داكوتا.

وقال جيرمان: «كان (غوغل) يعرض محتوى موقعي الإلكتروني وكأنه حقيقة مُطلقة».

*باختصار، خدمة «نيويورك تايمز»


عضلات اصطناعية تمكّن الروبوتات من رفع 100 ضعف وزنها

العضلات الاصطناعية تعمل بالهواء ما يمنح الروبوتات قدرة على رفع أوزان تصل إلى 100 ضعف وزنها (جامعة ولاية أريزونا)
العضلات الاصطناعية تعمل بالهواء ما يمنح الروبوتات قدرة على رفع أوزان تصل إلى 100 ضعف وزنها (جامعة ولاية أريزونا)
TT

عضلات اصطناعية تمكّن الروبوتات من رفع 100 ضعف وزنها

العضلات الاصطناعية تعمل بالهواء ما يمنح الروبوتات قدرة على رفع أوزان تصل إلى 100 ضعف وزنها (جامعة ولاية أريزونا)
العضلات الاصطناعية تعمل بالهواء ما يمنح الروبوتات قدرة على رفع أوزان تصل إلى 100 ضعف وزنها (جامعة ولاية أريزونا)

يطوّر باحثون في جامعة ولاية أريزونا نوعاً جديداً من «العضلات الاصطناعية» التي تعمل بالهواء، في خطوة قد تغيّر الطريقة التي تُصمم بها الروبوتات، خصوصاً في البيئات القاسية التي يصعب فيها استخدام الأنظمة التقليدية. تعتمد هذه التقنية على تصميم مستوحى من العضلات البيولوجية، حيث تُستخدم أنظمة هوائية بدلاً من المحركات الصلبة، ما يمنح الروبوتات مرونة أكبر وقدرة على الحركة في ظروف غير اعتيادية.

أحد أبرز ما يميز هذه العضلات الجديدة هو قدرتها على رفع أوزان تصل إلى نحو 100 ضعف وزنها، مع الحفاظ على حجم صغير وخفة في التصميم. هذه النسبة تعكس تحولاً مهماً في مجال الروبوتات، حيث لطالما واجهت الأنظمة التقليدية تحدياً في تحقيق توازن بين القوة والمرونة. فالروبوتات التي تعتمد على محركات كهربائية أو أنظمة ميكانيكية صلبة تكون عادة قوية، لكنها أقل قدرة على التكيف مع البيئات المعقدة. في المقابل، تتيح العضلات الهوائية الجديدة الجمع بين القوة والمرونة، ما يفتح المجال لتطبيقات أوسع.

العمل في بيئات قاسية

من بين الميزات اللافتة لهذه التقنية قدرتها على العمل في ظروف صعبة، مثل المياه شديدة الحرارة أو الأسطح الخشنة، وهي بيئات غالباً ما تعيق الروبوتات التقليدية أو تتسبب في تعطّلها.

ويشير الباحثون إلى أن هذا النوع من العضلات يمكن أن يساعد الروبوتات على «تجاوز العوائق التي تُبقي نظيراتها التقليدية خارج الخدمة»، ما يعزز من استخدامها في مهام مثل الاستكشاف أو العمليات الصناعية المعقدة.

ميزة أخرى مهمة تكمن في أن هذه الأنظمة يمكن أن تعمل دون الاعتماد الكامل على مصادر طاقة تقليدية ثقيلة، ما يقلل من الحاجة إلى البطاريات أو الأنظمة الكهربائية المعقدة. هذا التطور قد يساهم في تصميم روبوتات أكثر استقلالية، قادرة على العمل لفترات أطول، خصوصاً في الأماكن التي يصعب فيها إعادة الشحن أو الصيانة.

من «الصلابة» إلى «المرونة»

تعكس هذه التقنية تحولاً أوسع في مجال الروبوتات نحو ما يُعرف بـ«الروبوتات اللينة» (Soft Robotics)، وهي أنظمة تعتمد على مواد مرنة تحاكي الطبيعة بدلاً من الهياكل المعدنية الصلبة. فالعضلات الاصطناعية، بشكل عام، تُصمم لتقليد طريقة عمل العضلات البشرية، حيث يمكنها الانقباض والتمدد استجابة لمحفزات مختلفة مثل الضغط أو الحرارة أو الكهرباء. وفي حالة العضلات الهوائية، يتم استخدام ضغط الهواء لتحفيز الحركة، ما يسمح بتحقيق حركات أكثر سلاسة وتكيفاً مع البيئة.

رغم إمكاناتها لا تزال تواجه تحديات في التحكم الدقيق ودمجها ضمن أنظمة روبوتية متكاملة (جامعة ولاية أريزونا)

إمكانات تطبيقية واسعة

لا تقتصر أهمية هذا التطور على الجانب النظري، بل تمتد إلى تطبيقات عملية متعددة. فهذه العضلات يمكن أن تُستخدم في عمليات الإنقاذ في البيئات الخطرة وفحص البنية التحتية الصناعية والتطبيقات الطبية، مثل الأجهزة المساعدة وأيضاً في الزراعة والعمل في التضاريس غير المستوية.

تكمن أهمية هذه التطبيقات في أن الروبوتات القادرة على التكيف مع بيئات غير متوقعة قد تقلل من المخاطر التي يتعرض لها البشر في مثل هذه المهام. ورغم هذه المزايا، لا تزال هناك تحديات تقنية مرتبطة بالتحكم الدقيق في هذه الأنظمة، خاصة أن العضلات الهوائية تعتمد على ديناميكيات غير خطية، ما يجعل التحكم في حركتها أكثر تعقيداً مقارنة بالأنظمة التقليدية. كما أن دمج هذه العضلات ضمن أنظمة روبوتية متكاملة يتطلب تطوير برمجيات وتحكمات قادرة على التعامل مع هذا النوع من الحركة المرنة.

خطوة نحو جيل جديد من الروبوتات

يمثل هذا الابتكار جزءاً من مسار أوسع نحو تطوير روبوتات أكثر شبهاً بالكائنات الحية، من حيث الحركة والتفاعل مع البيئة. فبدلاً من الاعتماد على القوة الصلبة، يتجه الباحثون نحو أنظمة تجمع بين القوة والمرونة والقدرة على التكيف. وفي هذا السياق، لا يُنظر إلى العضلات الاصطناعية فقط باعتبارها بديلاً للمحركات، بل كونها إعادة تعريف لكيفية تصميم الروبوتات نفسها، بما يتناسب مع متطلبات بيئات أكثر تعقيداً.

يظهر هذا التطور اتجاهاً متزايداً في الهندسة الحديثة نحو الاقتراب من الطبيعة بدلاً من الابتعاد عنها. فالأنظمة البيولوجية، مثل العضلات، أثبتت كفاءة عالية في تحقيق التوازن بين القوة والمرونة، وهو ما تسعى هذه التقنيات إلى محاكاته.


تحديثات جديدة من «غوغل» لتعزيز تعامل الذكاء الاصطناعي مع الصحة النفسية

«غوغل» تحدّث أنظمة الذكاء الاصطناعي لتحسين التعامل مع استفسارات الصحة النفسية بشكل أكثر مسؤولية (شاترستوك)
«غوغل» تحدّث أنظمة الذكاء الاصطناعي لتحسين التعامل مع استفسارات الصحة النفسية بشكل أكثر مسؤولية (شاترستوك)
TT

تحديثات جديدة من «غوغل» لتعزيز تعامل الذكاء الاصطناعي مع الصحة النفسية

«غوغل» تحدّث أنظمة الذكاء الاصطناعي لتحسين التعامل مع استفسارات الصحة النفسية بشكل أكثر مسؤولية (شاترستوك)
«غوغل» تحدّث أنظمة الذكاء الاصطناعي لتحسين التعامل مع استفسارات الصحة النفسية بشكل أكثر مسؤولية (شاترستوك)

أعلنت «غوغل» عن تحديثات جديدة على أنظمة الذكاء الاصطناعي لديها، تهدف إلى تحسين طريقة التعامل مع استفسارات الصحة النفسية، في خطوة تعكس تزايد اعتماد المستخدمين على هذه الأدوات في لحظات حساسة.

في مدونتها الرسمية، أوضحت الشركة أن التحديثات تركز على كيفية استجابة مساعدها الذكي، بما في ذلك «جيميناي» (Gemini) عندما يطرح المستخدمون أسئلة مرتبطة بالقلق أو الاكتئاب أو إيذاء النفس. وبدلاً من الاكتفاء بإجابات عامة، أصبح النظام يوجّه المستخدمين بشكل أوضح نحو مصادر دعم متخصصة، مثل خطوط المساعدة والخدمات الطارئة.

ويأتي هذا التغيير في ظل تحول أوسع في استخدام الذكاء الاصطناعي، حيث لم يعد دوره مقتصراً على تقديم المعلومات، بل أصبح يتعامل مع سياقات إنسانية أكثر تعقيداً. فالمستخدمون لا يلجأون إلى هذه الأدوات للبحث فقط، بل أحياناً للتعبير عن مشاعرهم أو طلب المساعدة.

التحديثات تركّز على توجيه المستخدمين إلى مصادر دعم متخصصة بدل الاكتفاء بإجابات عامة (شاترستوك)

تركيز على السلامة والتوجيه

بحسب ما ورد في المدونة، تعمل التحديثات على جعل الاستجابات أكثر وضوحاً في توجيه المستخدمين إلى الدعم المناسب، خاصة في الحالات التي قد تشير إلى أزمة نفسية. كما تم تحسين صياغة الردود لتكون أكثر حساسية للسياق، مع التأكيد على أن هذه الأدوات لا تُعد بديلاً عن الدعم الطبي أو النفسي المتخصص. ويعكس هذا النهج محاولة للحدّ من المخاطر المحتملة، حيث يمكن للردود غير الدقيقة أو المبسطة أن تؤدي إلى نتائج سلبية، خصوصاً لدى المستخدمين في حالات ضعف نفسي.

وتشير التحديثات أيضاً إلى أهمية فهم السياق العاطفي للمستخدم، وليس تحليل الكلمات المفتاحية فقط. فالنظام أصبح يسعى إلى تمييز الحالات التي تتطلب استجابة أكثر حذراً، ما يعكس توجهاً نحو تطوير ذكاء اصطناعي أكثر وعياً بالسياق. ومع ذلك، تظل حدود هذا الدور واضحة. فالشركة لا تقدم هذه الأدوات بديلاً عن المختصين، بل وسيلة أولية يمكن أن تساعد في توجيه المستخدم نحو المساعدة المناسبة.

تؤكد «غوغل» أن الذكاء الاصطناعي ليس بديلاً عن الدعم الطبي أو النفسي المتخصص (رويترز)

تحديات مستمرة

رغم هذه التحسينات، لا تزال هناك تحديات قائمة. فالتعامل مع الصحة النفسية عبر أنظمة آلية يطرح تساؤلات حول الدقة والمسؤولية، خاصة في الحالات التي تتطلب تدخلاً بشرياً مباشراً. كما أن الاستخدام المتزايد لهذه الأدوات يضع شركات التكنولوجيا أمام مسؤولية كبرى، تتعلق بضمان عدم إساءة استخدام هذه الأنظمة، أو الاعتماد عليها بشكل يتجاوز قدراتها الفعلية.

تعكس هذه التحديثات توجهاً متزايداً نحو ما يُعرف بالذكاء الاصطناعي المسؤول، حيث لا تقتصر المعايير على الأداء التقني، بل تشمل التأثير الاجتماعي والأخلاقي أيضاً. وفي هذا السياق، تشير «غوغل» إلى أن تطوير هذه الميزات تم بالتعاون مع خبراء في الصحة النفسية، بهدف تحسين جودة الاستجابات وتقليل المخاطر المحتملة.

قد لا تسعى هذه الخطوة إلى تحويل الذكاء الاصطناعي إلى معالج نفسي، بل إلى إعادة تعريف دوره كأداة دعم أولي. أداة يمكن أن تساعد المستخدم في الوصول إلى المعلومات والدعم، لكنها لا تحلّ محل التدخل البشري المتخصص.