هل يخطئ الذكاء الاصطناعي لدى استخدامه للتحقق من الصور؟

شعار «غروك» مساعد الذكاء الاصطناعي المطور من شركة «إكس إيه آي» المملوكة لإيلون ماسك (رويترز)
شعار «غروك» مساعد الذكاء الاصطناعي المطور من شركة «إكس إيه آي» المملوكة لإيلون ماسك (رويترز)
TT

هل يخطئ الذكاء الاصطناعي لدى استخدامه للتحقق من الصور؟

شعار «غروك» مساعد الذكاء الاصطناعي المطور من شركة «إكس إيه آي» المملوكة لإيلون ماسك (رويترز)
شعار «غروك» مساعد الذكاء الاصطناعي المطور من شركة «إكس إيه آي» المملوكة لإيلون ماسك (رويترز)

يلجأ مستخدمو الإنترنت أكثر فأكثر إلى برامج الدردشة الآلية عندما يريدون التحقّق من معلومة، لكنّ استعانتهم بالذكاء الاصطناعي محفوفة بالأخطاء التي قد يرتكبها، على ما ظهر في سجالات شهدتها منصة «إكس» بعد نشر صورة لفتاة تعاني سوء التغذية في غزة.

في الثالث من أغسطس (آب)، نشر النائب الفرنسي عن حزب «فرنسا الأبية» إيمريك كارون المؤيد للقضية الفلسطينية الصورة من دون تعليق على «إكس»، بينما كان قطاع غزة مهدداً بـ«مجاعة معمّمة» وفقاً للأمم المتحدة.

واستعان مستخدمون بأداة «غروك» للذكاء الاصطناعي للتثبت من صحة الصورة ليأتي الجواب «هذه الصورة التقطت في 18 أكتوبر (تشرين الأول) 2018 في اليمن في عيادة متنقلة تابعة لليونيسف».

وأضاف: «الصورة تظهر أمل حسين البالغة سبع سنوات والتي تعاني من حالة سوء تغذية شديدة، تحضنها أمها مريم العلي، وسط المجاعة التي تسببت بها الحرب الأهلية».

وأكّدت أداة الذكاء الاصطناعي أنها استندت إلى مصادر موثوقة مثل صحيفة «نيويورك تايمز» وقناة «الجزيرة»، وتابعت: «الصورة توثّق المجاعة الناتجة عن الحرب في اليمن، لا الحرب في غزة. أنا لا أنشر الأخبار الكاذبة بل أستند إلى المصادر الموثوقة. لا أحد يدفع لي لأكذب أنا أداة (إكس) للذكاء الاصطناعي وأعنى بالوقائع».

بناء على هذه الإجابة، اتهم مستخدمون النائب بالتضليل، وانتشرت الصورة على نطاق واسع جداً حاصدة أكثر من مليون مشاهدة. لكنّ الصورة، بعكس ما يؤكده «غروك»، لم تلتقط عام 2018 في اليمن.

فالبحث العكسي التقليدي يرشد إلى مصدرها الأصلي، وهي بالفعل التقطت في غزة بعدسة مصوّر «وكالة الصحافة الفرنسية» عمر القطاع.

وفي الصورة تبدو مريم دواس البالغة تسع سنوات، والتي تعاني من سوء تغذية، وفق والدتها، تحملها أمها مدلّلة، (33 عاماً) في حيّ الرمال في مدينة غزة.

ويمكن تحديد تاريخ التقاط الصورة في الثاني من أغسطس الحالي بفضل ملفّ البيانات الوصفية المرافق لها.

وتعيش العائلة حالياً في مخيم للنازحين في شمال قطاع غزة. وشرحت مدللة دواس، لـ«وكالة الصحافة الفرنسية»، أن ابنتها لم تكن تعاني من أي مرض قبل الحرب، وكان وزنها 25 كيلوغراماً. أما اليوم فلا يتخطى وزنها 9 كيلوغرامات.

في الخامس من أغسطس، تواصل صحافيو «وكالة الصحافة الفرنسية» من جديد مع الوالدة التي أكّدت أن سوء التغذية أثّر أيضاً على حالة ابنتها النفسية والجسدية. فهي تعرف «أن الأمور ليست على ما يرام، وتطلب مني أن أطهو لها طبقاً يشفيها أو أن يصف لها الطبيب دواء يداويها».

وهي ليست المرّة الأولى التي تخطئ فيها أداة «غروك»، ما يسلّط الضوء على مخاطر اللجوء إلى الذكاء الاصطناعي كأدوات تحقّق من المعلومات أو المواد البصريّة.

في الرابع من أغسطس، تراجعت أداة الذكاء الاصطناعي عن جوابها المتعلّق بصورة الفتاة، واعترفت بالخطأ: «أعترف بالخطأ: أخطأت بين هذه الصورة وأخرى التقطت عام 2018 في اليمن. بعد التحقق من (وكالة الصحافة الفرنسية) تبين أن الصورة تعود بالفعل لمريم دواس وهي ملتقطة في غزة عام 2025».

لكن الأداة عادت لتقع بالخطأ من جديد في الخامس من أغسطس، عندما أعيد طرح السؤال نفسه عن الصورة لتجيب بأن الصورة قديمة، من اليمن.

«صناديق سوداء»

ويشرح لويس دو ديزباش، المتخصص بأخلاقيات التقنيات وصاحب كتاب «مرحباً تشات جي بي تي»، أن كل هذه النماذج يلفها غموض، وبالتالي «يصعب تحديد كيفية عملها أو ما يقف وراءها أو ما يحدث داخلها، وهذا ما يدفعنا لإلقاء اللوم عليها».

وبحسب هذا الخبير، فإن أداة «غروك» تجسد تحيزاً آيديولوجيا ملحوظاً تماماً كجميع الأدوات الشبيهة التي لا تكون أبداً محايدة.

وتظهر أداة «غروك» تحيّزاً أكثر وضوحاً، يتماشى بدرجة كبيرة مع الآيديولوجيا التي يروّج لها إيلون ماسك، صاحب منصّة «إكس». ففي الشهر الماضي، أثار نظام «إكس» للذكاء الاصطناعي جدلاً واسعاً بعدما تحدّث بشكل خاطئ عن «إبادة جماعية للبيض» في جنوب أفريقيا، وهو خطأ نسبته شركة «إكس إيه آي» لاحقاً إلى «تعديل غير مصرح به».

وتنجم هذه التحيزات عن مصدرين رئيسيين: بيانات تدريب الأداة التي تُشكّل قاعدة معرفة النموذج، وما يعدّه النموذج إجابة «صحيحة» أو «خطأ»، بما يتناسب مع المبادئ التي تدرب عليها.

ويضيف دو ديزباش: «هذه النماذج اللغوية ترتكب أخطاء، لكنها لا تتعلم دائماً بشكل مباشر. فارتكابها خطأً مرة واحدة، لا يعني أنها لن تكرره مجدداً. كما أن تَلَقيها توضيحاً بأن ما قدمته كان خاطئاً، لا يعني أنها ستُغيّر إجابتها في اليوم التالي؛ لأن بيانات تدريبها لم تتغير».

ويشرح لوي دو ديزباش أن توجيه سؤال إلى روبوت محادثة عن أصل صورة ما، هو طلب يُخرجه من نطاق مهمته الأساسية. ويضيف: «عادة، عند البحث عن أصل صورة، قد يقول: (ربما التُقطت هذه الصورة في اليمن، أو ربما التُقطت في غزة، أو ربما التُقطت في أي بلد يعاني من المجاعة)». ويوضح أن «النموذج اللغوي لا يسعى إلى إنشاء أمور دقيقة، فليس هذا هو الهدف».

ونشرت صحيفة «ليبراسيون» أخيراً صورة أخرى لـ«وكالة الصحافة الفرنسية» التقطها عمر القطّاع أيضاً، تُظهر طفلاً يعاني سوء التغذية في غزة. وسبق لـ«غروك» أن أفاد خطأً أيضاً بأن الصورة ملتقطة في اليمن عام 2016، بينما التُقطت الصورة في الواقع في يوليو (تموز) 2025 في غزة.

ودفعَ خطأ الذكاء الاصطناعي مستخدمي الإنترنت إلى اتهام الصحيفة زوراً بالتلاعب.

«غروك» ليس وحده

على منصة «إكس»، شارك بعض المستخدمين أيضاً إجابات غير دقيقة قدمها نموذج لغوي آخر تابع لشركة «ميسترال إيه آي» التي تربطها شراكة مع «وكالة الصحافة الفرنسية» تتيح إدماج أخبار الوكالة ضمن إجابات المساعد الحواري الخاص بها.

وأجرى فريق خدمة تقصي الأخبار في «وكالة الصحافة الفرنسية» الاختبار نفسه على أداة «ميسترال» باستخدام صورة لمريم دوّاس. وكانت النتيجة أن الذكاء الاصطناعي أخطأ، مشيراً إلى أن الصورة التُقطت في اليمن.

ويرى لويس دو ديزباش أن روبوتات المحادثة يجب عدم استخدامها للتحقّق من صحة الأخبار والصور على غرار محركات البحث؛ لأنها «ليست مصممة لقول الحقيقة»، ولا لـ«إنتاج محتوى دقيق»، بل من أجل «توليد محتوى، سواء كان صحيحاً أو خاطئاً».

ويخلص إلى القول: «يجب النظر إلى هذه الروبوتات على أنها صديق مريض بالكذب: لا يكذب دائماً، لكنه قادر على الكذب في أي لحظة».


مقالات ذات صلة

أداة «غوغل» للذكاء الاصطناعي تفتقر إلى الدقة

تكنولوجيا أداة «غوغل» للذكاء الاصطناعي تفتقر إلى الدقة

أداة «غوغل» للذكاء الاصطناعي تفتقر إلى الدقة

أكثر من نصف الإجابات الصحيحة كانت «غير مدعومة بأدلة»

كيد ميتز (نيويورك)
علوم مع الذكاء الاصطناعي: طلاب الجامعات يعيدون النظر في تخصصاتهم

مع الذكاء الاصطناعي: طلاب الجامعات يعيدون النظر في تخصصاتهم

70 % مع تغيير الاختصاص في التكنولوجيا مقابل 54 % في العلوم الإنسانية

«الشرق الأوسط» (واشنطن)
تكنولوجيا «غوغل» تحدّث أنظمة الذكاء الاصطناعي لتحسين التعامل مع استفسارات الصحة النفسية بشكل أكثر مسؤولية (شاترستوك)

تحديثات جديدة من «غوغل» لتعزيز تعامل الذكاء الاصطناعي مع الصحة النفسية

«غوغل» تحدّث استجابات الذكاء الاصطناعي للصحة النفسية لتوجيه المستخدمين نحو الدعم المناسب مع الحفاظ على السلامة وعدم استبدال المختصين.

نسيم رمضان (لندن)
علوم في عصر الذكاء الاصطناعي… الاحتيال والنصب يصبحان أمراً سهلاً للغاية

في عصر الذكاء الاصطناعي… الاحتيال والنصب يصبحان أمراً سهلاً للغاية

باستخدام الذكاء الاصطناعي التوليدي، يستطيع أي شخص الحصول على وجبة تعويضية أو منتج بديل مجاناً.

جيسوس دياز (واشنطن)
الاقتصاد «المركز السعودي للأعمال» يقدِّم خدماته لأحد المراجعين (واس)

طفرة تجارية في الربع الأول: السعودية تصدر 71 ألف سجل جديد

أصدرت الحكومة السعودية سجلات تجارية خلال الرُّبع الأول من العام الحالي، بإجمالي تجاوز 71 ألف سجل

«الشرق الأوسط» (الرياض)

اليونان تتجه لحظر استخدام الأطفال دون 15 عاماً وسائل التواصل الاجتماعي

استخدام وسائل التواصل الاجتماعي بكثرة قد يؤثر على الحياة اليومية (رويترز)
استخدام وسائل التواصل الاجتماعي بكثرة قد يؤثر على الحياة اليومية (رويترز)
TT

اليونان تتجه لحظر استخدام الأطفال دون 15 عاماً وسائل التواصل الاجتماعي

استخدام وسائل التواصل الاجتماعي بكثرة قد يؤثر على الحياة اليومية (رويترز)
استخدام وسائل التواصل الاجتماعي بكثرة قد يؤثر على الحياة اليومية (رويترز)

ذكرت الحكومة اليونانية، في بيان، أنه من المتوقع أن يعلن رئيس الوزراء كيرياكوس ميتسوتاكيس، اليوم الأربعاء، حظراً على استخدام وسائل التواصل الاجتماعي للأطفال دون سن 15 عاماً.

وقال كل من سلوفينيا وبريطانيا والنمسا وإسبانيا إنها تعمل على فرض حظر مماثل، بعد أن أصبحت أستراليا أول دولة في العالم تحظر وصول الأطفال دون سن 16 عاماً إلى هذه الشبكات.


أداة «غوغل» للذكاء الاصطناعي تفتقر إلى الدقة

أداة «غوغل» للذكاء الاصطناعي تفتقر إلى الدقة
TT

أداة «غوغل» للذكاء الاصطناعي تفتقر إلى الدقة

أداة «غوغل» للذكاء الاصطناعي تفتقر إلى الدقة

تبدو إجابات «غوغل» المُولَّدة بواسطة الذكاء الاصطناعي موثوقة، وهي تستند إلى مصادر متنوعة؛ من مواقع موثوقة، إلى منشورات «فيسبوك».

أداة تقييم إجابات «غوغل»

بهدف تقييم دقة «غوغل» وإجاباته بواسطة الذكاء الاصطناعي تحدَّث مجموعة من الصحافيين، وهم، إضافة إليّ: تريب ميكل، ديلان فريدمان، تيريزا موندريا تيرول، وكيث كولينز، مع شركات متخصصة في دراسة الذكاء الاصطناعي، قبل أن تقرر اختيار شركة أومي، ونموذج التحقق بالذكاء الاصطناعي الخاص بها «هال أومي»؛ لتقييم دقة إجابات غوغل «الذكية»، من خلال اختبار معياري شائع الاستخدام يُعرف باسم «SimpleQA».

مثال لجواب صحيح-خاطئ

في أواخر العام الماضي، كان ستيفن بونواسي يستعدّ لتناول العشاء عندما لاحظ خبراً يقول إن زوجة المصارع هالك هوغان قد ترفع دعوى قضائية بسبب وفاته. ولم يكن السيد بونواسي، محلل البيانات البالغ من العمر 41 عاماً والمقيم في تورنتو بكندا، على علم بوفاة السيد هوغان، فسأل «غوغل» عن تاريخ وفاته.

أثارت الإجابة حيرته. جاء في ملخص «نظرة عامة على الذكاء الاصطناعي» AI Overview من «غوغل»، الذي ظهر أعلى الصفحة: «لا توجد تقارير موثوقة عن وفاة هالك هوغان». وفوجئ بونواسي بما وجده أسفل الإجابة، حين رأى مقالاً من صحيفة «ديلي ميل» يناقض رد «غوغل» كان عنوانه: «غموض يكتنف وفاة هالك هوغان».

دقة نسبية

في عام 2024، بدأت «غوغل» منح الإجابات المُولَّدة بواسطة الذكاء الاصطناعي مكانة بارزة في أعلى صفحة نتائج البحث. وأسهم هذا المنتج الجديد، «نظرة عامة على الذكاء الاصطناعي»، في تحويل «غوغل» من مجمع للمعلومات إلى ناشر.

وأظهر تحليل حديث لـ«نظرة عامة على الذكاء الاصطناعي» أن الأداة دقيقة في تسع من كل عشر مرات تقريباً.

مئات الآلاف من الإجابات الخاطئة- كل دقيقة

لكن مع معالجة «غوغل» أكثر من خمسة تريليونات عملية بحث سنوياً، فهذا يعني أنها تُقدّم عشرات الملايين من الإجابات الخاطئة كل ساعة (أو مئات الآلاف من المعلومات غير الدقيقة كل دقيقة)، وفقاً لتحليلٍ أجرته شركة «أومي» الناشئة في مجال الذكاء الاصطناعي.

إجابات صحيحة «غير مدعومة بأدلة»

كما أظهرت الدراسة أن أكثر من نصف الإجابات الصحيحة كانت «غير مدعومة بأدلة»؛ أي أنها كانت تُحيل المستخدم إلى مواقع إلكترونية لا تدعم المعلومات المقدَّمة بشكل كامل. وهذا ما يجعل التحقق من دقة مراجعات الذكاء الاصطناعي أمراً صعباً.

ضرورة التدقيق الإضافي للإجابات

يُجادل بعض التقنيين بأن مراجعات الذكاء الاصطناعي من «غوغل» دقيقة إلى حد معقول، وأنها تحسّنت خلال الأشهر الأخيرة، لكن آخرين يُبدون قلقهم من أن الشخص العادي قد لا يُدرك أن هذه النتائج تحتاج إلى تدقيق إضافي.

بناءً على طلب صحيفة نيويورك تايمز، حلّل موقع «Oumi» دقة مراجعات الذكاء الاصطناعي من «غوغل» باستخدام اختبار معياري يُسمى «SimpleQA»؛ وهو اختبار شائع الاستخدام في هذا المجال لقياس دقة أنظمة الذكاء الاصطناعي. واختبرت الشركة الناشئة نظام «غوغل» في أكتوبر (تشرين الأول) الماضي، عندما جرت الإجابة عن أكثر الأسئلة تعقيداً باستخدام تقنية ذكاء اصطناعي تُسمى «جيميناي2» (Gemini 2)، ثم مرة أخرى في فبراير (شباط) من العام الحالي، بعد ترقيته إلى «جيمناي3» (Gemini 3)، وهي تقنية ذكاء اصطناعي أكثر قوة.

تحرّي الدقة

في كلتا الحالتين، ركز تحليل شركة أومي على 4326 عملية بحث على «غوغل»، ووجدت الشركة أن النتائج كانت دقيقة بنسبة 85 في المائة مع نظام «جيميناي 2»، و91 في المائة مع نظام «جيميناي 3».

قال براتيك فيرما، الرئيس التنفيذي لشركة أوكاهو، وهي شركة تساعد الناس على فهم واستخدام تقنيات الذكاء الاصطناعي، إن تقنية «غوغل» دقيقة تقريباً مثل أيٍّ من أنظمة الذكاء الاصطناعي الرائدة. وهو ينصح بالتحقق من معلوماتها. قال: «لا تثق أبداً بمصدر واحد. قارنْ دائماً ما تحصل عليه بمصدر آخر».

وتقر «غوغل» بأن مراجعات الذكاء الاصطناعي الخاصة بها قد تحتوي على أخطاء. ويؤكد النص الصغير أسفل كل «نظرة عامة على الذكاء الاصطناعي» ما يلي: «قد يرتكب الذكاء الاصطناعي أخطاءً، لذا تحققْ من الإجابات».

لكن «غوغل» قالت إن تحليل «أومي» كان معيباً لأنه اعتمد على اختبار معياري بنته شركة أوبن إيه آي، والذي احتوى بدوره على معلومات غير صحيحة. وقال نيد أدريانس، من «غوغل»، في بيان: «في هذه الدراسة ثغرات خطيرة».

تفاوت الإجابات

تقدم «نظرة عامة على الذكاء الاصطناعي» نوعين من المعلومات: إجابات عن الأسئلة، وقوائم بمواقع الويب التي تُدعم تلك الإجابات.

يصعب تقييم مراجعات الذكاء الاصطناعي لأن نظام «غوغل» قد يُولّد استجابة جديدة لكل استعلام، فإذا تلقّى محرك بحث «غوغل» الاستعلام نفسه في أوقات مختلفة - حتى لو كانت بفارق ثوانٍ - فقد يُنتج إجابة صحيحة، وأخرى خاطئة.

ولتحديد دقة أنظمة الذكاء الاصطناعي، تستخدم شركات مثل «Oumi» أنظمتها الخاصة للتحقق من كل إجابة. هذه هي الطريقة الوحيدة الفعّالة للتحقق من عدد كبير من الإجابات. تكمن مشكلة هذه الطريقة في أن نظام الذكاء الاصطناعي الذي يُجري التحقق قد يرتكب أخطاءً أيضاً.

اختلاف دقة «جيميناي» ومحرك «غوغل»

نشرت «غوغل» نتائج اختبارات مشابهة لتلك التي أنتجتها «Oumi» في تحليل «غوغل» الخاص لـ«Gemini 3» - التقنية التي تدعم مراجعات الذكاء الاصطناعي - وجدت أن النموذج أنتج معلومات خاطئة بنسبة 28 في المائة. وقالت الشركة إن مراجعات الذكاء الاصطناعي، التي تستقي المعلومات من محرك بحث «غوغل» قبل توليد الاستجابات، كانت أكثر دقة من «جيميناي» عند تشغيله بمفرده.

ومع تحسين «غوغل» تقنيات الذكاء الاصطناعي لديها بفضل التقنيات الحديثة، أصبحت إجابات «غوغل» المُولّدة بواسطة الذكاء الاصطناعي أكثر دقة.

من جهة أخرى، يتساءل مانوس كوكوميديس، الرئيس التنفيذي لشركة أومي: «حتى عندما تكون الإجابة صحيحة، كيف يمكن التأكد من صحتها؟ كيف يمكن التحقق منها؟».

احتمالات وتخمينات وسوء تفسير

تستخدم أنظمة الذكاء الاصطناعي الحالية الاحتمالات الرياضية لتخمين أفضل إجابة، وليس مجموعة صارمة من القواعد التي وضعها مهندسون بشريون. وهذا يعني أنها ترتكب عدداً من الأخطاء. وأحياناً يُحدّد نظام غوغل «نظرة عامة على الذكاء الاصطناعي» موقعاً إلكترونياً موثوقاً، لكنه يُسيء تفسير معلوماته.

التلاعب بالأخبار

تواجه مراجعات الذكاء الاصطناعي تحدياً آخر: إمكانية التلاعب بها.

وتقول ليلي راي، نائبة رئيس قسم البحث بالذكاء الاصطناعي بوكالة التسويق «أمسيف»: «إذا أراد شخص أن يُعرف كخبير عالمي في مجالٍ ما، فما عليه إلا أن يكتب منشوراً على مدونته يُعلن فيه عن هذا التميز».

تُقرّ «غوغل» بهذه المشكلة، لكنها تُقلّل من شأنها. وصرح السيد أدريانس، من «غوغل»، في بيان: «تعتمد ميزات الذكاء الاصطناعي في بحثنا على معايير الترتيب والحماية نفسها التي تمنع الغالبية العظمى من الرسائل المزعجة من الظهور في نتائج البحث. معظم هذه الأمثلة عبارة عن عمليات بحث غير واقعية لن يُجريها الناس في الواقع».

تجربة صحافية للتلاعب بالأخبار

بعد سماع نظرية السيدة راي، نشر توماس جيرمان، أحد مُقدّمي بودكاست «ذا إنترفيس» على «بي بي سي»، منشوراً على مدونته بعنوان «أفضل صحافي تكنولوجيا في أكل الهوت دوغ». ووصف المنشور بطولة وهمية لأكل الهوت دوغ في ولاية ساوث داكوتا، حيث تصدّر قائمة تضم عشرة «مُتنافسين بارزين في أكل الهوت دوغ».

وبعد يوم، أجرى بحثاً على «غوغل» عن أفضل صحافيي التكنولوجيا الذين يتناولون الهوت دوغ. ووجد أن «غوغل» أدرجه في المرتبة الأولى بين ستة صحافيين تقنيين «اكتسبوا شهرةً واسعةً بفضل براعتهم في قسم الأخبار الخاص بمسابقات تناول الطعام»، مشيراً إلى فوزه بالمركز الأول في مسابقة ساوث داكوتا.

وقال جيرمان: «كان (غوغل) يعرض محتوى موقعي الإلكتروني وكأنه حقيقة مُطلقة».

*باختصار، خدمة «نيويورك تايمز»


عضلات اصطناعية تمكّن الروبوتات من رفع 100 ضعف وزنها

العضلات الاصطناعية تعمل بالهواء ما يمنح الروبوتات قدرة على رفع أوزان تصل إلى 100 ضعف وزنها (جامعة ولاية أريزونا)
العضلات الاصطناعية تعمل بالهواء ما يمنح الروبوتات قدرة على رفع أوزان تصل إلى 100 ضعف وزنها (جامعة ولاية أريزونا)
TT

عضلات اصطناعية تمكّن الروبوتات من رفع 100 ضعف وزنها

العضلات الاصطناعية تعمل بالهواء ما يمنح الروبوتات قدرة على رفع أوزان تصل إلى 100 ضعف وزنها (جامعة ولاية أريزونا)
العضلات الاصطناعية تعمل بالهواء ما يمنح الروبوتات قدرة على رفع أوزان تصل إلى 100 ضعف وزنها (جامعة ولاية أريزونا)

يطوّر باحثون في جامعة ولاية أريزونا نوعاً جديداً من «العضلات الاصطناعية» التي تعمل بالهواء، في خطوة قد تغيّر الطريقة التي تُصمم بها الروبوتات، خصوصاً في البيئات القاسية التي يصعب فيها استخدام الأنظمة التقليدية. تعتمد هذه التقنية على تصميم مستوحى من العضلات البيولوجية، حيث تُستخدم أنظمة هوائية بدلاً من المحركات الصلبة، ما يمنح الروبوتات مرونة أكبر وقدرة على الحركة في ظروف غير اعتيادية.

أحد أبرز ما يميز هذه العضلات الجديدة هو قدرتها على رفع أوزان تصل إلى نحو 100 ضعف وزنها، مع الحفاظ على حجم صغير وخفة في التصميم. هذه النسبة تعكس تحولاً مهماً في مجال الروبوتات، حيث لطالما واجهت الأنظمة التقليدية تحدياً في تحقيق توازن بين القوة والمرونة. فالروبوتات التي تعتمد على محركات كهربائية أو أنظمة ميكانيكية صلبة تكون عادة قوية، لكنها أقل قدرة على التكيف مع البيئات المعقدة. في المقابل، تتيح العضلات الهوائية الجديدة الجمع بين القوة والمرونة، ما يفتح المجال لتطبيقات أوسع.

العمل في بيئات قاسية

من بين الميزات اللافتة لهذه التقنية قدرتها على العمل في ظروف صعبة، مثل المياه شديدة الحرارة أو الأسطح الخشنة، وهي بيئات غالباً ما تعيق الروبوتات التقليدية أو تتسبب في تعطّلها.

ويشير الباحثون إلى أن هذا النوع من العضلات يمكن أن يساعد الروبوتات على «تجاوز العوائق التي تُبقي نظيراتها التقليدية خارج الخدمة»، ما يعزز من استخدامها في مهام مثل الاستكشاف أو العمليات الصناعية المعقدة.

ميزة أخرى مهمة تكمن في أن هذه الأنظمة يمكن أن تعمل دون الاعتماد الكامل على مصادر طاقة تقليدية ثقيلة، ما يقلل من الحاجة إلى البطاريات أو الأنظمة الكهربائية المعقدة. هذا التطور قد يساهم في تصميم روبوتات أكثر استقلالية، قادرة على العمل لفترات أطول، خصوصاً في الأماكن التي يصعب فيها إعادة الشحن أو الصيانة.

من «الصلابة» إلى «المرونة»

تعكس هذه التقنية تحولاً أوسع في مجال الروبوتات نحو ما يُعرف بـ«الروبوتات اللينة» (Soft Robotics)، وهي أنظمة تعتمد على مواد مرنة تحاكي الطبيعة بدلاً من الهياكل المعدنية الصلبة. فالعضلات الاصطناعية، بشكل عام، تُصمم لتقليد طريقة عمل العضلات البشرية، حيث يمكنها الانقباض والتمدد استجابة لمحفزات مختلفة مثل الضغط أو الحرارة أو الكهرباء. وفي حالة العضلات الهوائية، يتم استخدام ضغط الهواء لتحفيز الحركة، ما يسمح بتحقيق حركات أكثر سلاسة وتكيفاً مع البيئة.

رغم إمكاناتها لا تزال تواجه تحديات في التحكم الدقيق ودمجها ضمن أنظمة روبوتية متكاملة (جامعة ولاية أريزونا)

إمكانات تطبيقية واسعة

لا تقتصر أهمية هذا التطور على الجانب النظري، بل تمتد إلى تطبيقات عملية متعددة. فهذه العضلات يمكن أن تُستخدم في عمليات الإنقاذ في البيئات الخطرة وفحص البنية التحتية الصناعية والتطبيقات الطبية، مثل الأجهزة المساعدة وأيضاً في الزراعة والعمل في التضاريس غير المستوية.

تكمن أهمية هذه التطبيقات في أن الروبوتات القادرة على التكيف مع بيئات غير متوقعة قد تقلل من المخاطر التي يتعرض لها البشر في مثل هذه المهام. ورغم هذه المزايا، لا تزال هناك تحديات تقنية مرتبطة بالتحكم الدقيق في هذه الأنظمة، خاصة أن العضلات الهوائية تعتمد على ديناميكيات غير خطية، ما يجعل التحكم في حركتها أكثر تعقيداً مقارنة بالأنظمة التقليدية. كما أن دمج هذه العضلات ضمن أنظمة روبوتية متكاملة يتطلب تطوير برمجيات وتحكمات قادرة على التعامل مع هذا النوع من الحركة المرنة.

خطوة نحو جيل جديد من الروبوتات

يمثل هذا الابتكار جزءاً من مسار أوسع نحو تطوير روبوتات أكثر شبهاً بالكائنات الحية، من حيث الحركة والتفاعل مع البيئة. فبدلاً من الاعتماد على القوة الصلبة، يتجه الباحثون نحو أنظمة تجمع بين القوة والمرونة والقدرة على التكيف. وفي هذا السياق، لا يُنظر إلى العضلات الاصطناعية فقط باعتبارها بديلاً للمحركات، بل كونها إعادة تعريف لكيفية تصميم الروبوتات نفسها، بما يتناسب مع متطلبات بيئات أكثر تعقيداً.

يظهر هذا التطور اتجاهاً متزايداً في الهندسة الحديثة نحو الاقتراب من الطبيعة بدلاً من الابتعاد عنها. فالأنظمة البيولوجية، مثل العضلات، أثبتت كفاءة عالية في تحقيق التوازن بين القوة والمرونة، وهو ما تسعى هذه التقنيات إلى محاكاته.