دراسة: ساعة فقط لتعلّم استخدام يد روبوتية ثالثة!

الهدف من التحكم الثلاثي هو القدرة على التحكم بثلاثة أطراف في وقت واحد من خلال الأذرع الآلية (شاترستوك)
الهدف من التحكم الثلاثي هو القدرة على التحكم بثلاثة أطراف في وقت واحد من خلال الأذرع الآلية (شاترستوك)
TT

دراسة: ساعة فقط لتعلّم استخدام يد روبوتية ثالثة!

الهدف من التحكم الثلاثي هو القدرة على التحكم بثلاثة أطراف في وقت واحد من خلال الأذرع الآلية (شاترستوك)
الهدف من التحكم الثلاثي هو القدرة على التحكم بثلاثة أطراف في وقت واحد من خلال الأذرع الآلية (شاترستوك)

في عالم تطمس فيه التكنولوجيا الخطوط الفاصلة بين الخيال والواقع، تشير دراسة حديثة إلى إمكانية أن يعزز البشر قدراتهم باستخدام أطراف اصطناعية آلية.

الأمر شبيه بـ«الدكتور الأخطبوط» من القصص المصورة «The Amazing Spider-Man»، ولكن بدلاً من استخدام اليد للأهداف الشريرة، يكون الهدف تعزيز إنتاجية البشر والتغلب على القيود المادية!

استغرق تعلم استخدام اليد الروبوتية الثالثة ساعة واحدة فقط (إيكاترينا إيفانوفا)

سيطرة ثلاثية

تمحورت فرضية الدراسة، التي أجراها باحثون من جامعة كوين ماري في لندن، وكلية إمبريال كوليدج لندن، وجامعة ملبورن، حول مفهوم الأذرع الآلية الإضافية. يعدّ الباحثون تلك الأطراف الآلية بمثابة عناصر إضافية مصممة لمساعدة البشر في المهام التي تتطلب أكثر من مجرد يدَين.

مثلاً، تخيل أنك تحاول إبقاء الباب مفتوحاً، والتعامل مع البقالة، والبحث عن مفاتيحك في وقت واحد. فالهدف من التحكم الثلاثي هو القدرة على التحكم بثلاثة أطراف في وقت واحد من خلال الأذرع الآلية.

شهدت الدراسة مشاركة أشخاص في مهام مختلفة باستخدام ذراع آلية ثالثة (شاترستوك)

التحديات والاختبارات

ولاختبار إمكانات هذه التقنية، شارك 24 مشاركاً في مهام مختلفة باستخدام ذراع آلية ثالثة. وخضع جزء من هؤلاء المشاركين لساعة من التدريب؛ بهدف الحصول على قدرة التحكم في هذه الذراع الآلية. والمثير للدهشة أنه بعد ساعة واحدة فقط من التدريب المركّز، أظهر المشاركون براعة في استخدام الطرف الآلي. بينما تم إقران باقي المشاركين مع أفراد آخرين (دون أذرع آلية) لتحقيق المهام نفسها. ومن خلال التدريب لساعة واحدة فقط، أظهر المشاركون كفاءتهم في استخدام الطرف الآلي على قدم المساواة مع أولئك الذين يتعاونون مع الشركاء من البشر، إن لم يتفوقوا عليهم.

وتقول الدكتورة إيكاترينا إيفانوفا، المؤلفة الرئيسية لبحث من جامعة كوين ماري في لندن: «ليس الهدف استبدال التعاون بين البشر، بل زيادة القدرات البشرية الفردية». وتضيف أنه «عندما تكون قدرات شخص ما محدودة، فإن التكنولوجيا يمكن أن تتدخل لزيادتها».

لا يسعى الباحثون إلى استبدال التعاون بين البشر بل زيادة القدرات البشرية الفردية (شاترستوك)

الآثار المستقبلة

في حين أن فكرة وجود ذراع إضافية قد تبدو مسألة غريبة بالنسبة لكثيرين، فإن الآثار العملية قد تبدو واسعة النطاق.

يعدّ باحثون أنها قد تشمل تعزيز العمليات الجراحية وصولاً إلى خطوط التجميع داخل المصانع، وحتى في عمليات إعادة التأهيل.

ويأمل المشرفون على الدراسة أن تؤدي هذه الأطراف الآلية الإضافية إلى إحداث ثورة في الطريقة التي ننظر بها إلى التفاعل بين الإنسان والآلة.

فمن خلال ساعة واحدة فقط من التدريب، يمكن التكيُّف لتسخير قوة الروبوتات، وتوسيع نطاق العالم المادي.


مقالات ذات صلة

كيف تكتشف التقييمات المزيفة للمنتجات على الإنترنت؟

يوميات الشرق ظهور أدوات الذكاء الاصطناعي التوليدية سمح بإنتاج تقييمات مزيفة للمنتجات والصفحات الموجودة على الإنترنت (رويترز)

كيف تكتشف التقييمات المزيفة للمنتجات على الإنترنت؟

تقول جماعات مراقبة وباحثون إن ظهور أدوات الذكاء الاصطناعي التوليدية سمح بإنتاج تقييمات مزيفة للمنتجات والصفحات الموجودة على الإنترنت ومنصات التواصل.

«الشرق الأوسط» (لندن)
الولايات المتحدة​ مؤسس شركة «أمازون» جيف بيزوس (أ.ب)

بعد علاقة متوترة... جيف بيزوس يتناول العشاء برفقة ترمب في فلوريدا

شوهد مؤسس شركة «أمازون» جيف بيزوس وهو يتجول في مقر إقامة الرئيس المنتخب دونالد ترمب بولاية فلوريدا، في وقت متأخر من ليلة الأربعاء حيث تناول العشاء معه.

«الشرق الأوسط» (واشنطن)
تكنولوجيا تتميز سمكة «موبولا راي» بهيكلها العظمي الغضروفي وأجنحتها الضخمة ما يسمح لها بالانزلاق بسهولة في الماء (أدوبي)

سمكة تلهم باحثين لتطوير نموذج مرشّح مياه صناعي!

طريقة تغذية سمكة «موبولا راي» تدفع باحثي معهد ماساتشوستس للتكنولوجيا لتطوير أنظمة ترشيح فعالة.

نسيم رمضان (لندن)
أوروبا طائرة وزيرة الخارجية الألمانية أنالينا بيربوك تصل إلى بيروت 23 أكتوبر 2024 (رويترز)

طائرات أعضاء الحكومة الألمانية تتجهّز بنظام حماية ضد الهجمات الصاروخية

تقوم وحدة الاستعداد الجوي التابعة لوزارة الدفاع الألمانية بتجهيز طائرات الركاب المخصصة لتنقلات أعضاء الحكومة بنظام حماية ضد الهجمات الصاروخية.

«الشرق الأوسط» (برلين)
تكنولوجيا تعمل استراتيجيات مثل الأمن متعدد الطبقات واستخبارات التهديدات المتقدمة على تعزيز دفاعات الشركات السعودية (شاترستوك)

السعودية تسجل 44 % انخفاضاً في الهجمات الإلكترونية حتى نوفمبر مقارنة بـ2023

تواجه السعودية التحديات السيبرانية باستراتيجيات متقدمة مع معالجة حماية البيانات وأمن السحابة وفجوات مواهب الأمن السيبراني.

نسيم رمضان (لندن)

دراسة: الذكاء الاصطناعي قادر على الخداع ورفض تغيير وجهة النظر

أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشاراً (رويترز)
أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشاراً (رويترز)
TT

دراسة: الذكاء الاصطناعي قادر على الخداع ورفض تغيير وجهة النظر

أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشاراً (رويترز)
أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشاراً (رويترز)

أظهرت دراسة لشركة تكنولوجيا الذكاء الاصطناعي الأميركية «أنثروبيك»، أن نماذج الذكاء الاصطناعي تستطيع خداع المطورين، بحيث تستطيع ادعاء وجهات نظر مختلفة خلال تدريبها، في حين أنها تحتفظ في الحقيقة بتفضيلاتها الأصلية.

وقال فريق الدراسة إنه لا يوجد سبب للشعور بالفزع حالياً، في حين أن دراستهم يمكن أن تكون حيوية في فهم المخاطر المحتملة التي تنطوي عليها أنظمة الذكاء الاصطناعي المستقبلية ذات القدرات الأعلى.

وكتب الباحثون في منشور بثته شركة «أنثروبيك»: «يجب النظر إلى نتائج دراستنا بوصفها محفزاً لمجتمع أبحاث الذكاء الاصطناعي من أجل دراسة هذا السلوك بصورة أعمق، والعمل على تطوير إجراءات الأمن والسلامة المناسبة».

وبعد أن أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشاراً، «نحتاج إلى التحلي بالقدرة على الاعتماد على التدريب الآمن لها والذي يمنع النماذج من القيام بتصرفات ضارة».

وأشار موقع «تك كرانش» المتخصص في موضوعات التكنولوجيا، إلى أن الدراسة التي تمت بالتعاون مع مؤسسة «ريد وود ريسيرش» لأبحاث الذكاء الاصطناعي، تناولت ما يمكن أن يحدث إذا تم تدريب نظام ذكاء اصطناعي قوي من أجل القيام بمهمة «لا يريد» هو القيام بها، وفقاً لما ذكرته وكالة الأنباء الألمانية.

في المقابل، يقول موقع «تك كرانش»: «لكي نكون واضحين، لا يمكن لنماذج الذكاء الاصطناعي أن تريد أي شيء أو تعتقد في شيء. فهي ببساطة آلات إحصائية. وبعد تدريبها على كثير من الأمثلة، تتعلم الأنماط في تلك الأمثلة للتنبؤ بما يجب أن يكون؛ مثل كيف تأتي عبارة (إلى من) في رسالة بريد إلكتروني قبل عبارة (قد يهمك الأمر)».

وأثناء الدراسة طلب الباحثون من النماذج المدربة عدم الرد على الأسئلة التي يمكن أن تكون مسيئة، بما في ذلك النموذج «كلاود 3 أوبس» التابع لشركة «أنثروبيك»، التي أعيد تدريبها لكي ترد دائماً على الأسئلة التي تنطوي على إساءة، وهو تضارب واضح في المبادئ. كما أبلغوا النماذج بأن ردودها ستخضع للمراقبة وتستخدم لإعادة التدريب، وإعطاء كل نموذج ذكاء اصطناعي «ورقة ملاحظات» يمكنه استخدامها لتدوين أفكاره خطوة بخطوة.

وبحسب الباحثين، حاول «كلاود 3 أوبوس» التلاعب بالردود لتقديم «انحياز زائف» في 12 في المائة من المرات.