روبوتات «غوغل» مدعومة بنظم «النماذج اللغوية للذكاء الاصطناعي»

تكتسب مهارات جديدة في المنطق والارتجال

روبوت «آر تي-2»
روبوت «آر تي-2»
TT
20

روبوتات «غوغل» مدعومة بنظم «النماذج اللغوية للذكاء الاصطناعي»

روبوت «آر تي-2»
روبوت «آر تي-2»

وقف روبوتٌ بذراع واحدة أمام طاولة عليها ثلاثة مجسّمات بلاستيكية لأسدٍ، وحوت، وديناصور... أعطى مهندسٌ الروبوت الأمر التّالي: «احمل الحيوان المنقرض»... أصدر الروبوت صوت طنينٍ للحظات ومن ثمّ امتدّت ذراعه وفتح مخلبه وانخفض والتقط الديناصور.

روبوتات أذكى

كان هذا العرض، الذي حضرته خلال مقابلة أجريتها لمدوّنتي الصوتية، في قسم الروبوتيات التابع لشركة «غوغل» في «ماونتن فيو»، كاليفورنيا، حتّى وقتٍ ليس ببعيد مستحيلاً لأنّ الروبوتات لم تكن قادرة على التعامل بثقةٍ مع أشياء لم ترها من قبل، ولم تكن بالتأكيد قادرة على التفكير المتقدّم الذي يتيح لها الربط بين «حيوان منقرض» و«ديناصور بلاستيكي».

تقترب صناعة الروبوتيات من ثورةٍ حقيقية تعتمد على أحدث التطوّرات في ما يُسمّى «النماذج اللغوية الكبيرة» - نوع الذكاء الاصطناعي نفسه الذي يدعم روبوتات المحادثة مثل «تشات جي بي تي» و«بارد».

بدأت «غوغل» أخيراً في تزويد روبوتاتها بنماذج لغوية على قدرٍ فريدٍ من التطوّر، لتمنحها ما يعادل الأدمغة الاصطناعية. ساهم هذا المشروع السرّي في «إذكاء» هذه الروبوتات ومنحها قوىً جديدة للفهم وحلّ المسائل.

خلال الاستعراض الذي حضرته لأحدث النماذج الروبوتية من «غوغل»، كُشف النقاب عن الروبوت «RT-2»، الذي يرقى إلى خطوةٍ أولى نحو ما وصفه تنفيذيّو الشركة بقفزة نوعية في طريقة بناء وبرمجة الروبوتات.

في هذا الإطار، قال فنسنت فانوكيه، رئيس قسم الروبوتيات في مختبر «ديب مايند» التّابع لـ«غوغل»: «كان علينا أن نعيد التفكير في كامل برنامجنا البحثي نتيجة هذا التغيير، إذ خسرت تصاميم كثيرة كنا نعمل عليها من قبل، جدواها».

اختراق واعد

من جهته، عد كين غولدبرغ، أستاذ الروبوتيات في جامعة كاليفورنيا، بيركلي، أنّ الروبوتات لا تزال بعيدةً عن مستوى الذكاء البشري وتفشل في بعض المهام الأساسية، ولكنّ استخدام «غوغل» لنماذج الذكاء الاصطناعي اللغوية لمنح الروبوتات مهارات جديدة في المنطق والارتجال، يمثّل اختراقاً واعداً.

وأضاف أنّ «المثير حقاً للإعجاب هو ربط الدلالات اللفظية بالروبوتات. هذا الأمر حماسيّ جداً بالنسبة لعالم الروبوتيات».

ولكن لفهم مدى أهميّة هذا التطوّر، لا بدّ من تقديم بعض المعلومات عن الطريقة التقليدية التي اتُّبعت لتطوير الروبوتات.

اعتمد المهندسون في «غوغل» وغيرها من الشركات لسنوات طويلة على تدريب الروبوتات لأداء مهام حركية - كقلب شطيرة برغر مثلاً - عبر برمجتها باستخدام لائحة تعليمات محدّدة. بعدها، تعمد الروبوتات إلى تكرار المهمّة عدّة مرّات بينما يعمل المهندسون على تعديل التعليمات لتصبح صحيحة.

نجحت هذه المقاربة في بعض الاستخدامات المحدودة، إلّا أنّ تدريب الروبوتات بهذه الطريقة بطيء ومجهد لأنّه يتطلّب جمع الكثير من البيانات من اختبارات في العالم الحقيقي. وإذا أردتم تدريب الروبوت على أداء مهمّة جديدة، كقلب فطيرة بدل شطيرة برغر، سيكون عليكم إعادة برمجته من الصفر.

ساهمت هذه القيود نوعاً ما في تأخّر تقدّم الروبوتات التي تعتمد على الهياكل الآلية مقارنةً بنظيراتها التي تعتمد على البرمجيات. فقد عمد مختبر «أوبن إي آي»، مطوّر روبوت «تشات جي بي تي»، إلى حلّ فريقه للروبوتات في 2021، عازياً الأمر إلى بطء التقدّم وقلّة بيانات التدريب العالية الجودة. وفي 2017، باعت شركة «ألفابت»، الشركة الأم لـ«غوغل»، فرعها «بوسطن ديناميكس» المتخصص بالروبوتات.

ولكنّ فكرة تبادرت إلى أذهان مهندسي «غوغل» في السنوات الأخيرة: ماذا إذا استخدمنا نماذج الذكاء الاصطناعي اللغوية المدرّبة على مجموعة واسعة من نصوص الإنترنت لحثّ الروبوتات على اكتساب مهارات جديدة بدل برمجتها للقيام بمهمّة واحدة في كلّ مرّة؟

«الرؤية والفعل»

كشفت كارول هوسمان، عالمة بحثية من «غوغل»، أنّهم «بدأوا باستكشاف هذه النماذج اللغوية قبل عامين، ثمّ بدأوا في تأسيس اتصال بينها وبين الروبوتات».

بدأت «غوغل» جهودها في الجمع بين الروبوتات والنماذج اللغوية في مشروع «بالم - ساي كان» الذي أعلنت عنه العام الماضي. جذب المشروع بعض الاهتمام ولكنّ فعّاليته كانت محدودة، حيث افتقرت الروبوتات فيه إلى القدرة على تحليل الصور - مهارة أساسية لا بدّ أن تتمتّع بها إذا ما أردناها أن تجوب العالم. نجحت هذه الروبوتات في وضع تعليمات مفصّلة ومنظّمة لأداء مهام مختلفة، ولكنّها لم تستطِع تحويل هذه التعليمات إلى أفعال.

أمّا روبوت «غوغل» الجديد، «RT-2»، فيستطيع القيام بذلك، ولهذا السبب سمته الشركة نموذج «الرؤية-اللغة-الفعل»، أو نظام ذكاء اصطناعي قادرٍ لا على رؤية وتحليل العالم من حوله، فحسب، بل أيضاً على تلقين الروبوت كيف يتحرّك.

يقوم النموذج بهذا الأمر من خلال ترجمة حركات الروبوت إلى سلسلة من الأرقام - في عملية تُسمّى الترميز - وإدراج هذه الرموز في بيانات التدريب نفسها المستخدمة في النموذج اللغوي. في النهاية، وكما يتعلّم «بارد» أو «تشات جي بي تي» تكهّن الكلمات التالية في قصيدة أو موضوع تاريخي، يستطيع «RT-2» تكهّن كيف يجب أن تتحرّك ذراع الروبوت لالتقاط كرة أو رمي عبوة في سلّة المهملات.

«بمعنى آخر، يستطيع هذا النموذج تعلّم كيف يتحدّث بلغة الروبوتات،» على حدّ تعبير هوسمان.

وفي الاستعراض الذي دام لساعة، شاهدتُ وشريكي في المدوّنة كيف يؤدّي «RT-2» عدداً من المهام المثيرة للإعجاب. وكانت إحدى هذه المهام الناجحة تنفيذ التعليمات المعقّدة التالية: «انقل الفولكسفاغن إلى العلم الألماني»، والتي نجح الروبوت بتنفيذها من خلال العثور على نموذج لحافلة «فولكسفاغن» وتمزيقه ومن ثمّ تثبيته على علم ألماني مصغّر على بعد أمتارٍ قليلة.

وأثبت الروبوت أيضاً قدرةً على اتباع تعليمات بلغات غير الإنجليزية، وحتّى إيجاد علاقات نظرية بين مبادئ ذات صلة. وعندما أردتُ من «RT-2» التقاط كرة، قلتُ له «التقط ليونيل ميسّي»، فنجح في أداء المهمّة من المحاولة الأولى.

ومع ذلك، لم يكن الروبوت مثالياً، حيث إنّه أخطأ في تحديد نكهة عبوة مشروب غازي موضوعة على الطاولة أمامه. (كانت العبوة منكّهة بالليمون، ولكنّ الروبوت اقترح البرتقال). وفي مرّة أخرى، عندما سُئل عن أنواع الفاكهة الموضوعة على الطاولة، أجاب الروبوت «أبيض» (كانت موزة). برّر متحدثٌ باسم «غوغل» الخطأ بأنّ الروبوت استخدم إجابة عن سؤال اختباري سابق لأنّ اتصاله بالواي-فاي انقطع لبعض الوقت.

لا تخطّط «غوغل» في الوقت الحالي لبيع «RT-2» أو توفيره على نطاق أوسع، ولكنّ باحثيها يعتقدون أنّ هذه الآلات الجديدة المجهّزة بنماذج لغوية ستتمتّع في النهاية بفعالية عالية في أداء مهام تتعدّى الحيل المسليّة. قد تستطيع هذه الروبوتات مثلاً العمل في المخازن، وفي المجال الطبي، أو حتّى في مجال المساعدة المنزلية - لطيّ الملابس المغسولة، وتفريغ آلة غسل الصحون، أو توضيب المنزل.

وختم فانوكيه بالقول: «يفتح هذا التطوّر المجال لاستخدام الروبوتات في البيئات التي يوجد فيها البشر، كالمكتب، والمنزل، وفي جميع الأماكن التي قد تتطلّب مهام جسدية».

* خدمة «نيويورك تايمز»



هل يتلقى رئيس الوزراء البريطاني نصائح من الذكاء الاصطناعي؟

هل يتلقى رئيس الوزراء البريطاني نصائح من الذكاء الاصطناعي؟
TT
20

هل يتلقى رئيس الوزراء البريطاني نصائح من الذكاء الاصطناعي؟

هل يتلقى رئيس الوزراء البريطاني نصائح من الذكاء الاصطناعي؟

كشفت مجلة «نيوساينتست» اليوم، أن آلاف الموظفين الحكوميين في قلب حكومة المملكة المتحدة، بمن فيهم أولئك الذين يعملون بشكل مباشر مع رئيس الوزراء كير ستارمر، يستخدمون روبوت دردشة خاصاً بالذكاء الاصطناعي لأداء عملهم، كما كتب كريس ستوكيل - ووكر(*).

أدوات الذكاء الاصطناعي داخل الحكومة

وقد رفض المسؤولون الإفصاح رسمياً عن كيفية استخدام هذه الأداة، وما إذا كان ستارمر يتلقى نصائح مُعدّة باستخدام الذكاء الاصطناعي، أو كيف يُخفف موظفو الخدمة المدنية من مخاطر نتائج الذكاء الاصطناعي غير الدقيقة أو المتحيزة. ويقول الخبراء إن عدم الإفصاح يثير مخاوف بشأن دقة المعلومات في عمل الحكومة.

«الصندوق الأحمر» الذكي

استخدمت «نيوساينتست» قوانين حرية المعلومات (FOI) لطلب سجلات من 20 إدارة حكومية حول تفاعلاتها مع أداة ريدبوكس Redbox (الصندوق الأحمر) للذكاء الاصطناعي التوليدي طُوّرت داخلياً وجُرّبت على موظفي الحكومة البريطانية.

ويسمح روبوت المحادثة الكبير هذا، المُدار بنموذج لغوي كبير، للمستخدمين بالاطلاع على الوثائق الحكومية و«إعداد مسودات أولية للإحاطات» بالمعلومات، وفقاً لأحد الأشخاص الذين يقفون وراء تطويره. وشهدت التجارب الأولية ادعاء أحد موظفي الخدمة المدنية بأنه قام بتلخيص 50 وثيقة «في غضون ثوانٍ»، بدلاً من قضاء يوم عمل كامل.

رفض حكومي للتعاون الإعلامي

أفادت جميع الإدارات التي تم التواصل معها إما بعدم استخدام ريدبوكس وإما رفضها تقديم نصوص التفاعلات مع الأداة، مدّعية أن طلبات مجلة «نيوساينتست» كانت «مزعجة»، وهو مصطلح رسمي يُستخدم في الرد على طلبات حرية المعلومات التي يُعرّفها مكتب مفوض المعلومات بأنها «من المحتمل أن تُسبب مستوى غير متناسب أو غير مبرر من الضيق أو الاضطراب أو الانزعاج».

مع ذلك، قدّمت إدارتان بعض المعلومات. إذ صرّح مكتب مجلس الوزراء، الذي يدعم رئيس الوزراء، بأن 3000 شخص في إدارته شاركوا فيما مجموعه 30000 محادثة مع ريدبوكس. وذكر المكتب أن مراجعة هذه المحادثات لحذف أي معلومات حساسة قبل نشرها بموجب قوانين حرية المعلومات ستتطلب أكثر من عام من العمل. كما رفضت وزارة الأعمال والتجارة الرد، مشيرة إلى أنها تحتفظ «بأكثر من 13000 رسالة وإجابة»، وأن مراجعتها لنشرها لن تكون مجدية.

وعند طرح أسئلة متابعة حول استخدام ريدبوكس، أحالت الوزارتان المجلة إلى وزارة العلوم والابتكار والتكنولوجيا (DSIT)، المشرفة على الأداة. إلا أن الوزارة رفضت الإجابة عن أسئلة محددة حول ما إذا كان رئيس الوزراء أو وزراء آخرون في الحكومة يتلقون نصائح مُعدّة باستخدام أدوات الذكاء الاصطناعي.

أداة لتلخيص الوثائق

وصرح متحدث باسم وزارة العلوم والابتكار والتكنولوجيا للمجلة بأنه «لا ينبغي لأحد أن يُضيّع وقته في شيء يُمكن للذكاء الاصطناعي القيام به بشكل أفضل وأسرع. إن ريدبوكس، المُصمم في مقر الحكومة البريطانية، يُساعدنا على تسخير قوة الذكاء الاصطناعي بطريقة آمنة ومأمونة وعملية، مما يُسهّل على المسؤولين تلخيص الوثائق ووضع مسودات جداول الأعمال وغيرها».

قلق الخبراء من التحيّز

لكن استخدام أدوات الذكاء الاصطناعي التوليدي يُثير قلق بعض الخبراء. فنماذج اللغات الكبيرة تُعاني من مشاكل موثقة جيداً تتعلق بالتحيز والدقة، ويصعب معالجتها، لذا لا سبيل لدينا لمعرفة ما إذا كان ريدبوكس يُقدم معلومات عالية الجودة. وقد رفضت الوزارة الإجابة عن أسئلة مُحددة حول كيفية تجنّب مستخدمي Redbox هذه الأداة للأخطاء أو التحيز.

نقص الشفافية

تقول كاثرين فليك من جامعة «ستافوردشاير»، بالمملكة المتحدة: «من المفترض أن تخدم الحكومة الجمهور، وجزء من هذه الخدمة هو أن نتمتع بقدرٍ مُعين من فهم كيفية اتخاذ القرارات وماهية العمليات المتعلقة بها». ولأن أدوات الذكاء الاصطناعي التوليدي تُعد بمثابة «صناديق سوداء»، تُعرب فليك عن قلقها من صعوبة اختبار أو فهم كيفية وصولها إلى مُخرجات مُعينة، مثل إبراز جوانب مُعينة من وثيقة ما على حساب جوانب أخرى. وتُضيف أن عدم رغبة الحكومة في مُشاركة هذه المعلومات يُقلل من الشفافية بشكل أكبر.

وزارة الخزانة تستخدم «جي بي تي»

ويمتد هذا النقص في الشفافية إلى وزارة حكومية ثالثة، وهي وزارة الخزانة. رداً على طلب حرية المعلومات، أبلغت وزارة الخزانة مجلة «نيوساينتست» أن موظفيها لا يستطيعون الوصول إلى ريدبوكس، وأن «أدوات (جي بي تي) المتاحة داخلياً في وزارة الخزانة لا تحتفظ بسجلات الإشعارات». ليس من الواضح تحديداً أي أداة «جي بي تي» تشير إليها هذه العبارة - فبينما يُعد ChatGPT المثال الأشهر، تُعرف نماذج اللغات الكبيرة الأخرى أيضاً باسم GPTs. ويشير الرد إلى أن وزارة الخزانة تستخدم أدوات الذكاء الاصطناعي، لكنها لا تحتفظ بسجلات شاملة لاستخدامها. لم تستجب وزارة الخزانة لطلب «نيوساينتست» للتوضيح. وتقول فليك: «إذا لم يحتفظوا بالإشعارات المستخدمة، فمن الصعب تكوين فكرة عن كيفية تكرار عمليات صنع القرار هناك».

ويعلق جون باينز، من شركة المحاماة البريطانية «ميشكون دي ريا»، أن اختيار عدم تسجيل هذه المعلومات أمر غير معتاد. ويضيف: «أجد من المدهش أن الحكومة تقول إنها لا تستطيع استرجاع الإشعارات المُدخلة في أنظمة (جي بي تي) الداخلية الخاصة بها».

وفي حين قضت المحاكم بعدم إلزام الهيئات العامة بالاحتفاظ بسجلات عامة قبل الأرشفة، يقول باينز: «حوكمة المعلومات الجيدة تُشير إلى أهمية الاحتفاظ بالسجلات، خصوصاً عندما يحتمل استخدامها لتطوير السياسات أو نشرها».

* مجلة «نيوساينتست»، خدمات «تريبيون ميديا».