«جي بي تي ـ 3»... نظام ذكاء صناعي بديل عن الكتاب والمؤلفين

يكتب النصوص بعد معالجته تريليون كلمة وتعلمه اللغة الطبيعية

«جي بي تي ـ 3»... نظام ذكاء صناعي بديل عن الكتاب والمؤلفين
TT

«جي بي تي ـ 3»... نظام ذكاء صناعي بديل عن الكتاب والمؤلفين

«جي بي تي ـ 3»... نظام ذكاء صناعي بديل عن الكتاب والمؤلفين

كشف مختبر «أوبن إي آي» للذكاء الصناعي في سان فرنسيسكو هذا الصيف النقاب عن تقنية كان قد عمل لأشهر على تطويرها. وقد أمضى هذا النظام الجديد واسمه «جي بي تي - 3» GPT - 3 وهو مختصر لعبارة Generative Pre - trained Transformer 3. تلك الأشهر في تعلّم مدخلات ومخرجات اللغة الطبيعية عبر تحليل آلاف الكتب الرقمية وكامل موسوعة ويكيبيديا الإلكترونية وما يقارب تريليون كلمة من مدوّنات ومنشورات على مواقع التواصل الاجتماعي ومواقع أخرى على شبكة الإنترنت.

نظام للكتابة
كان ماكاي ريغلي (23 عاما)، مبرمج الكومبيوتر الشّاب من مدينة «سولت ليك» واحدا من القلّة الذين تمّت دعوتهم لتجربة النظام الذي يستخدم كلّ شيءٍ تعلّمه من بحر النصوص الرقمية الواسع لإنتاج لغة جديدة بنفسه. وتساءل ريغلي ما إذا كان النظام يستطيع تقليد الشخصيات المعروفة والكتابة مثلهم وربّما التحدّث مثلهم. في واحدة من تجاربه، استعان ريغلي باسم عالم النفس الشهير سكوت باري كوفمان. وأخذ النظام اسم كوفمان واختار قضية الإبداع موضوعا للنقاش.
بعدها، عندما سُئِل «جي بي تي - 3» «كيف نصبح أكثر إبداعا؟»، سارع إلى إعطاء الجواب التالي: «أعتقدُ أن التعبير الإبداعي هو نتاج ثانوي طبيعي للعيش منذ الصغر في عالم متنوّع. وكلّما زاد تنوّع هذا العالم، زاد اجتماعُنا بأناسٍ مختلفين وتعرضنا إلى فرص مختلفة وتعرفنا بأماكن مختلفة واصطدامنا بتحديات مختلفة. وكلّما زاد تنوّع هذا الاختلاف، أصبحنا أكثر قدرة على جمع هذه النقاط مع بعضها لتشكيل شيء جديد. أعتقد أنّكم إذا أردتم أن تكونوا مبدعين، فعليكم أن تفعلوا ذلك. إذا أردتُم أن تكونوا كتّابا، فعليكم أن تكتبوا، وإذا أردتم أن تكونوا موسيقيين، فعليكم أن تؤلّفوا، وإذا أردتكم أن تكونوا ممثلين كوميديين، فعليكم أن تصنعوا الكوميديا... وكلّما أبدعتُم أكثر، زاد احتمال عثوركم على أمورٍ شيّقة».
في وقت لاحق، نشر ريغلي المقطع على تويتر واستدعى أحدهم كوفمان الحقيقي لقراءته. شعر الأخير بالذهول وقال: «يبدو هذا المقطع كشيء قد أقوله حقا»، وأضاف لاحقا في تغريدة أخرى: «ذكاء صناعي دقيق ومجنون».

شعر ورسائل
منذ وصوله، دخل نظام «جي بي تي - 3» في عشرات التجارب الأخرى التي أذهلت الكثيرين بالطريقة نفسها. عمل النظام بالقليل من التشجيع فقط على تأليف التغريدات وكتابة الشعر وتلخيص الرسائل الإلكترونية والإجابة على أسئلة عادية وترجمة اللغات وحتّى صناعة برامجه الخاصة على الكومبيوتر. لفتت هذه المهارات انتباه بعض الخبراء في مجال الذكاء الصناعي، ووجد فيها الكثيرون من الباحثين خطوة غير متوقّعة باتجاه الآلات القادرة على فهم تقلّبات اللغة البشرية وأداء بعض المهارات البشرية. وقد رأت ميلاني ميتشل، باحثة في الذكاء الصناعي من معهد «سانتا في» المستقلّ في نيو مكسيكو وواحدة ممن حصلوا على فرصة اختبار هذا النظام، أنّ «الأمر كان مفاجئا بالنسبة لي ولكثير من النّاس. من الصعب أن نعرف ما الذي يفعله هذا النظام تحديدا». ولكنّ هذا النظام ليس أبدا خاليا من العيوب لأنّه غالبا يبتكر لغة تمييزية، وسامّة. وإذا طلبتُم منه تحضير 10 مقاطع بأسلوب عالم النفس سكوت باري كوفمان، فقد يعطيكم 5 نصوص مقنعة و5 أخرى غير مفهومة. وعندما تحادث كوفمان مع شبيهه المصنوع من الذكاء الصناعي، لم يشعر بالمفاجأة التي شعر بها أوّل مرّة. ودار بين الطرفين الحوار التالي:
> سكوت باري كوفمان (الحقيقي): ما هي المخيّلة؟
- نموذج الذكاء الصناعي من سكوت باري كوفمان: ما هي المخيّلة؟ أنت قُل لي!
> سكوت باري كوفمان: أنت يجب أن تعلم!
- نموذج الذكاء الصناعي من سكوت باري كوفمان: لا، أنت يجب أن تعلم. أنت الذي تعلم ما هي المخيّلة. ما هي باعتقادك؟
ولكن حتّى هذه السطور بدت كمحادثة حقيقية وأظهرت بشكل واضح ما يستطيع النظام القيام به وحده دون ترميز إضافي أو تعديل.

نماذج لغوية
نظام «جي بي تي - 3» هو ثمرة سنوات كثيرة من العمل داخل أبرز مختبرات الذكاء الصناعي في العالم ومنها «أوبن إي آي»، المنظّمة المستقلّة المدعومة بتمويل قيمته مليار دولار من مايكروسوفت ومختبرات أخرى تابعة لغوغل وفيسبوك. وتجدر الإشارة إلى أنّ شركة غوغل تملك نظاما مشابها يساعد في الإجابة على الاستفسارات على محرّك البحث خاصتها.
تساعد هذه الأنظمة التي تُعرّف على أنّها نماذج لغوية عالمية في تشغيل مجموعة متنوعة من الأدوات كالخدمات التي تلخّص المقالات الإخبارية أوتوماتيكيا وروبوتات المحادثة المصمّمة للمشاركة في الأحاديث الإلكترونية، إلّا أنّ تأثيرها على تكنولوجيا العالم الحقيقي لا يزال طفيفا. ولكنّ «جي بي تي - 3» الذي تلقّى تعليمه من مجموعة أكبر من النصوص الإلكترونية مقارنة بالأنظمة السابقة، فتح الباب أمام مجموعة واسعة من الاحتمالات الجديدة كالبرامج الرقمية القادرة على تسريع تطوير تطبيقات هاتفية جديدة أو روبوتات محادثة بأداء أقرب إلى البشر من التقنيات التي سبقتها. مع اختبار مصمّمي البرامج وروّاد الأعمال والخبراء والفنّانين لهذا النظام، تثير كلّ تجربة جديدة جدلا حاميا حول القوّة التي سيصل إليها هذا الجيل من التقنية في النهاية. يقول البعض إنّ هذا النظام قد يكون ممرا باتجاه آلات ذكية حقا، بينما يرى آخرون أنّ هذه التجارب مضلّلة رغم الذهول الكبير الذي تولّده.
من جهته، يقول مارك ريدل، أستاذ وباحث في معهد جورجيا للتقنية: «هذا النظام طلقٌ جدا ويتكلّم بوضوح شديد وبارعٌ جدا في إنتاج نصوص منطقية لسامِعِها ولكنّه لا يعرف بعد كيف يفكّر مسبقا ولا يخطّط لما سيقوله، أي أنّه لا يملك هدفا حقيقيا».

إبداعات ناشئة
يعملُ جوردان سينغر مصمّما للمنتج في شركة «سكوير» المتخصصة في منتجات الدفع الإلكتروني في سيليكون فالي، ويساعد في تصميم تطبيقات الشركة للهواتف الذكية.
زوّد المصمّم النظام الجديد بوصفة بسيطة لتطبيق هاتفي ورموز الكومبيوتر الذي يحتاجه لصناعة التطبيق. كانت الوصفة باللغة الإنجليزية الصحيحة وتمّ تصميم الرمز في أداة «فيغما» التي يستخدمها المحترفون مثل سينغر.
وعندما انتهى، استطاع «جي بي تي - 3» كتابة رموز مشابهة وحده دون مساعدة. ويعتبر هذا السلوك جديدا بالكامل وقد فاجأ صانعي «جي بي تي - 3» الذين لم يصمّموا النظام لصناعة رموز الكومبيوتر، بل للتأليف أو كتابة التغريدات أو ترجمة اللغات. لقد صنعوه للقيام بشيء واحد فقط هو توقّع الكلمة التالية في سلسلة من الكلمات.
*خدمة «نيويورك تايمز»



دراسة جديدة: نماذج الذكاء الاصطناعي اللغوية تفتقر لفهم حقيقي للعالم

بحسب الدراسة أظهرت نماذج الذكاء الاصطناعي أنها لا تتعلم بالفعل الحقائق الكامنة عن العالم (أدوبي)
بحسب الدراسة أظهرت نماذج الذكاء الاصطناعي أنها لا تتعلم بالفعل الحقائق الكامنة عن العالم (أدوبي)
TT

دراسة جديدة: نماذج الذكاء الاصطناعي اللغوية تفتقر لفهم حقيقي للعالم

بحسب الدراسة أظهرت نماذج الذكاء الاصطناعي أنها لا تتعلم بالفعل الحقائق الكامنة عن العالم (أدوبي)
بحسب الدراسة أظهرت نماذج الذكاء الاصطناعي أنها لا تتعلم بالفعل الحقائق الكامنة عن العالم (أدوبي)

أظهرت نماذج اللغة الكبيرة (LLMs)، مثل النماذج التي يقوم عليها نموذج «GPT-4»، قدرات مذهلة في توليد النصوص، سواء أكان ذلك في كتابة الشعر، أو تأليف المقالات، حتى تقديم حلول برمجية. تُدرَّب هذه النماذج، المعتمدة على بنى معمارية متقدمة تُعرف باسم «المحوّلات» (Transformers)، على توقع تسلسل الكلمات، ما يمكّنها من الاستجابة للمطالبات بطرق تحاكي فهماً يشبه البشري. ومع ذلك، تشير أبحاث حديثة إلى أن هذه النماذج، على الرغم من قدراتها المثيرة للإعجاب، قد لا تتعلم بالفعل الحقائق الكامنة عن العالم.

خريطة لمدينة نيويورك الأميركية (أدوبي)

التنقل في مدينة نيويورك دون خريطة

في دراسة حديثة قادها آشِش رامباتشان، أستاذ مساعد في الاقتصاد وباحث في مختبر نظم المعلومات واتخاذ القرار بمعهد ماساتشوستس للتكنولوجيا (LIDS)، قام الباحثون باختبار مدى قدرة نموذج لغوي مبني على «المحوّلات» على التنقل في مدينة نيويورك. وبينما أظهر النموذج دقة عالية في تقديم توجيهات دقيقة خطوة فخطوة عبر شبكة شوارع المدينة، تراجع أداؤه بشكل كبير عندما تمت إضافة عراقيل مثل إغلاق بعض الشوارع والتحويلات.

وعندما حلّل الباحثون أنماط التنقل التي أنتجها النموذج، اكتشفوا أن «خرائط» مدينة نيويورك التي كوّنها النموذج كانت تحتوي على مسارات غير واقعية، مثل شوارع غير موجودة وروابط غير دقيقة بين تقاطعات متباعدة. هذا الاكتشاف أثار تساؤلات حول حدود هذه النماذج، خاصة في البيئات التي تتطلب دقة كبيرة.

التداعيات في العالم الحقيقي

تنطوي هذه القيود على تداعيات هامة. فعلى الرغم من أن نماذج الذكاء الاصطناعي تبدو قادرة على التعامل مع مهام معقدة، فإن أداءها قد يتراجع بشكل كبير عندما تتغير المتغيرات البيئية، ولو بشكل بسيط. على سبيل المثال، قد يتمكن النموذج من التنقل في خريطة ثابتة لمدينة نيويورك، لكنه يتعثر عند مواجهة تحديات غير متوقعة، مثل إغلاق الشوارع. ويحذر فريق البحث من أن استخدام هذه النماذج في تطبيقات حقيقية قد يؤدي إلى فشل غير متوقع إذا واجهت سيناريوهات خارجة عن بيانات التدريب.

لعبة «أوثيللو» هي لعبة ألواح استراتيجية يشارك فيها لاعبان يلعبان على لوح مقسم إلى 8 × 8 مربعات غير مختلفة اللون (أدوبي)

مقاييس لتقييم الفهم

لمزيد من التعمق في مدى قدرة نماذج الذكاء الاصطناعي على تكوين «نماذج للعالم»، أي تمثيلات داخلية للقواعد والهيكليات، طوّر الفريق مقياسين جديدين للتقييم، هما «تمييز التسلسل» و«ضغط التسلسل».

يقيس «تمييز التسلسل» قدرة النموذج على التمييز بين سيناريوهات مختلفة، مثل تمييز موضعين مختلفين على لوحة لعبة «أوثيللو». ويقيّم المقياس ما إذا كان النموذج يفهم أن مدخلات مختلفة تحمل دلالات مختلفة.

أما مقياس «ضغط التسلسل» فيقيّم قدرة النموذج على إدراك الحالات المتطابقة، مثل وضعين متطابقين على لوحة لعبة «أوثيللو»، ويفهم أن خطوات التحرك التالية من كل وضع يجب أن تكون متشابهة.

قام الفريق باختبار هذه المقاييس على فئة معينة من المسائل تشمل تسلسلاً محدداً من الحالات والقواعد، مثل التنقل في شبكة شوارع أو لعب «أوثيللو». من خلال هذه التقييمات، سعى الباحثون لفهم ما إذا كانت النماذج قد طوّرت بالفعل نماذج منطقية للعالم.

العشوائية قد تؤدي إلى فهم أعمق

كشف البحث عن نتيجة غير متوقعة، حيث أظهرت النماذج التي دربت على تسلسلات عشوائية قدرة أكبر على بناء نماذج داخلية دقيقة مقارنة بتلك التي دربت على بيانات منظمة. على سبيل المثال، في لعبة «أوثيللو»، كانت النماذج المدربة على حركات عشوائية قادرة على التعرف على جميع الحركات الممكنة، حتى الحركات غير المثلى التي لا يلجأ إليها اللاعبون المحترفون.

وأوضح كيون فافا، الباحث الرئيسي وأستاذ زائر في جامعة هارفارد، أنه «من الناحية النظرية، عندما يتم تدريب النموذج على حركات عشوائية، فإنه يرى مجموعة كاملة من الاحتمالات، بما في ذلك الخيارات غير المحتملة». ويبدو أن هذا التعرض الواسع «يساعد النموذج في تكوين نموذج أكثر دقة للعالم، وإن لم يلتزم بالأسلوب الأمثل».

ورغم هذه النتائج، لم يستطع أي من النماذج تكوين نموذج منطقي متكامل للعالم في مهمة التنقل. وعندما أضاف الباحثون تحويلات إلى خريطة نيويورك، فشلت جميع النماذج في التكيف. وأشار فافا إلى أن «التراجع في الأداء كان مفاجئاً؛ إغلاق واحد في المائة فقط من الشوارع تسبب في انخفاض الدقة بشكل حاد، من أداء شبه مثالي إلى 67 بالمائة فقط».

تراجع أداء نماذج الذكاء الاصطناعي بشكل كبير عندما تتغير المتغيرات البيئية ولو بشكل بسيط (أدوبي)

بناء نماذج للعالم موثوقة

تسلط نتائج هذه الدراسة الضوء على تحدٍ كبير، يتمثل في أنه عندما تبدو المحوّلات قادرة على أداء مهام معينة، فإنها قد تفتقر إلى الفهم الأساسي للقواعد. وشدّد رامباتشان على ضرورة الحذر، قائلاً: «غالباً ما يفترض الناس أنه بما أن هذه النماذج تحقق نتائج رائعة، فلا بد أنها طوّرت فهماً جوهرياً للعالم. لكن دراستنا تشير إلى أننا بحاجة إلى النظر في هذا الافتراض بعناية وعدم الاعتماد على الحدس فقط».

ويخطط الباحثون لتوسيع دراستهم لتشمل تحديات أكثر تعقيداً حيث قد تكون القواعد غير معروفة كلياً أو متغيرة. وباستخدام مقاييسهم التقييمية على هذه المجالات، يأملون في فهم حدود نماذج الذكاء الاصطناعي بشكل أفضل وتوجيه تطويرها في المستقبل.

تداعيات أوسع وأهداف مستقبلية

تتجاوز تداعيات هذا البحث فهم العالم الافتراضي، وتمس التطبيقات العملية. إذا كانت نماذج الذكاء الاصطناعي غير قادرة على تكوين نماذج داخلية دقيقة للعالم، فإن ذلك يثير تساؤلات حول استخدامها في مجالات تتطلب منطقاً دقيقاً، مثل القيادة الذاتية، والأبحاث العلمية، والتخطيط اللوجستي. ويقول الباحثون إن الحاجة ملحة لإعادة التفكير في كيفية تدريب هذه النماذج وتقييمها لتكون أكثر تكيفاً وموثوقية.

هذا البحث مدعوم من قبل عدة مؤسسات، بما في ذلك مبادرة علوم البيانات في جامعة هارفارد، ومؤسسة العلوم الوطنية، ومؤسسة ماك آرثر. سيتم عرض الدراسة في مؤتمر نظم معالجة المعلومات العصبية، حيث سيواصل الباحثون مناقشة تعقيدات نماذج الذكاء الاصطناعي واستكشاف مسارات جديدة لتطويرها.