هل لمّح الرئيس التنفيذي لـ«Microsoft AI» إلى موعد إصدار «شات جي بي تي 6»؟

مصطفى سليمان: أشكك في رغبتي الحصول على ذكاء اصطناعي كامل الاستقلالية

مصطفى سليمان: «مايكروسوفت» تركز حالياً على مشروعات مثل «كوبايلوت» التي تتضمن ضبطًا دقيقًا لنماذج «OpenAI» (لينكد إن)
مصطفى سليمان: «مايكروسوفت» تركز حالياً على مشروعات مثل «كوبايلوت» التي تتضمن ضبطًا دقيقًا لنماذج «OpenAI» (لينكد إن)
TT
20

هل لمّح الرئيس التنفيذي لـ«Microsoft AI» إلى موعد إصدار «شات جي بي تي 6»؟

مصطفى سليمان: «مايكروسوفت» تركز حالياً على مشروعات مثل «كوبايلوت» التي تتضمن ضبطًا دقيقًا لنماذج «OpenAI» (لينكد إن)
مصطفى سليمان: «مايكروسوفت» تركز حالياً على مشروعات مثل «كوبايلوت» التي تتضمن ضبطًا دقيقًا لنماذج «OpenAI» (لينكد إن)

على الرغم من أن الجدول الزمني لإصدار «GPT-5» لم يتضح حتى الآن، فإن مصطفى سليمان، الرئيس التنفيذي لشركة «Microsoft AI» شارك وجهات نظره حول تطور الذكاء الاصطناعي التوليدي ومفهوم «الوكلاء المستقلين».

وشدد سليمان خلال مقابلة مع المستثمر التكنولوجي سيث روزنبرغ، على الصعوبات الحالية في جعل نماذج الذكاء الاصطناعي تتبع التعليمات بدقة وباستمرار. وأشار إلى أن «جعل الأمر يفعل ذلك باستمرار في بيئات جديدة أمر صعب للغاية». وتوقّع أن تحقيق مثل هذه القدرات سيتطلب قوة حسابية أكبر بكثير، وربما تصل إلى ضعف حجمها. واقترح سليمان أن هذه التطورات قد لا تأتي مع «GPT-5»، بل مع نماذج بمقياس «GPT-6»، التي يعتقد أنها على بُعد عامين تقريباً من التنفيذ.

ميرا موراتاي رئيسة قسم التكنولوجيا في «أوبن إيه آي» (مايكروسوفت)
ميرا موراتاي رئيسة قسم التكنولوجيا في «أوبن إيه آي» (مايكروسوفت)

تناقض في وجهات النظر

من اللافت أن الجدول الزمني والنظرة المستقبلية لمصطفى سليمان تختلف قليلاً عن تلك التي قدمتها كبيرة مسؤولي التكنولوجيا في «OpenAI» ميرا موراتاي. في مقابلة حديثة أخرى، وصفت موراتاي النموذج من الجيل التالي، الذي لم تسمه تحديداً بـ«GPT-5» لكنها أشارت إلى قفزة كبيرة في قدرات الذكاء الاصطناعي. شبهت التقدم من «GPT-3» إلى «GPT-4» بالتقدم من مستوى ذكاء الطفل الصغير إلى ذكاء طالب ذكي في المدرسة الثانوية، متوقعة «وصول الذكاء إلى مستوى الدكتوراه في مهام محددة خلال السنوات القليلة المقبلة».

يبدو أن هناك تلاقياً في الاتجاه العام لتطوير الذكاء الاصطناعي، على الرغم من الجداول الزمنية المختلفة التي اقترحها سليمان وموراتاي. يصف كل منهما معالم مستقبلية مهمة، ومع ذلك لا يزال من غير الواضح ما إذا كان «GPT-5» سيسبق «GPT-6» في غضون العامين المقبلين، أم أن هذه التطورات ستحدث بشكل متزامن. ويرى مراقبون أن الغموض في هذه التوقعات يبرز الطبيعة الديناميكية والمتسارعة لأبحاث وتطوير الذكاء الاصطناعي.

الآفاق والمخاطر

وفي حديثه لسيث روزنبرغ، أعرب سليمان عن تشككه في رغبة الحصول على ذكاء اصطناعي كامل الاستقلالية. وأوضح أن الوكلاء المستقلين بالكامل، القادرين على صياغة خططهم الخاصة والحصول على الموارد بشكل مستقل، يمكن أن يشكّلوا مخاطر كبيرة. بدلاً من ذلك، يدعو إلى «مسارات ضيقة من الاستقلالية»، حيث يتم تكليف وكلاء الذكاء الاصطناعي مهاماً محددة تتطلب بعض مستويات التفكير والتخطيط، ولكن ضمن حدود محكمة. ويعتقد بأن التنظيم سيكون حاسماً في الحفاظ على هذه الحدود وضمان السلامة.

يُعد «ChatGPT» رائداً في الذكاء الاصطناعي للمحادثة بينما يركز «Copilot» على إنشاء التعليمات البرمجية والإنتاجية (شاترستوك)
يُعد «ChatGPT» رائداً في الذكاء الاصطناعي للمحادثة بينما يركز «Copilot» على إنشاء التعليمات البرمجية والإنتاجية (شاترستوك)

على ماذا تركز «مايكروسوفت» الآن؟

في «مايكروسوفت»، يركز سليمان حالياً على مشروعات مثل «كوبايلوت (Copilot)»، التي تتضمن تحسين نماذج «OpenAI» لتعزيز ميزات الذاكرة والتخصيص. تهدف هذه الجهود إلى تحسين تجربة المستخدم من خلال جعل تفاعلات الذكاء الاصطناعي أكثر وعياً بالسياق، واستجابةً لاحتياجات المستخدم الفردية. ومنذ انضمامه إلى «مايكروسوفت» في مارس (آذار) الماضي، جلب سليمان خبرته الواسعة من تأسيس وقيادة المبادرات في مجال الذكاء الاصطناعي في «ديب مايند (DeepMind)»، التي تم الاستحواذ عليها لاحقاً من قبل «غوغل».

المسار إلى «GPT-5»

على الرغم من إطلاق «GPT-4» في مارس (آذار) 2023، فإنه لم يكن هناك نمط ثابت للإصدارات اللاحقة. لكن يبدو أن «OpenAI» تعطي الأولوية لتوسيع نظامها البيئي واستكشاف قدرات الذكاء الاصطناعي متعدد الوسائط. يظهر ذلك من خلال التكامل مع «Apple Intelligence»، والتطورات في الدردشة الصوتية (سيري) ذات زمن الوصول المنخفض، مما يشير إلى تركيز استراتيجي أوسع يتجاوز مجرد نموذج الذكاء الاصطناعي التوليدي التالي.

يتفق الخبراء التقنيون على أن الطريق إلى الجيل المقبل من نماذج الذكاء الاصطناعي تتميز بالإثارة وعدم اليقين. وأن ضمان تطوير تقنيات الذكاء الاصطناعي ونشرها بشكل مسؤول سيكونان أمراً بالغ الأهمية في تسخير إمكاناتها مع تخفيف المخاطر المرتبطة بها. وفي غضون ذلك، يظل مجتمع الذكاء الاصطناعي وأصحاب المصلحة على أهبة الاستعداد للابتكارات التي سيجلبها «GPT-5»، و«GPT-6» وما بعدهما.


مقالات ذات صلة

موظفة تقاطع كلمة مسؤول بـ«مايكروسوفت» بسبب غزة: أنت من تجار الحرب (فيديو)

الولايات المتحدة​ تم اصطحاب المؤيدة للفلسطينيين ابتهال أبو سعد بعيداً من قبل أفراد الأمن أثناء مقاطعتها للرئيس التنفيذي لشركة «مايكروسوفت» للذكاء الاصطناعي مصطفى سليمان (أ.ب)

موظفة تقاطع كلمة مسؤول بـ«مايكروسوفت» بسبب غزة: أنت من تجار الحرب (فيديو)

قاطعت موظفة مؤيدة للفلسطينيين كلمة المدير التنفيذي لقطاع الذكاء الاصطناعي في شركة «مايكروسوفت» مصطفى سليمان احتجاجاً على علاقات الشركة مع إسرائيل.

«الشرق الأوسط» (واشنطن)
تكنولوجيا «كوبايلوت» هو محور الحدث المرتقب في الذكرى الـ50 لـ«مايكروسوفت» ويمثل انتقال الشركة من ريادة البرمجيات إلى قيادة الذكاء الاصطناعي (شاترستوك)

في الذكرى الخمسين لتأسيسها... هل يتحوّل «كوبايلوت» إلى عقل «مايكروسوفت» الجديد؟

يُتوقع أن تكشف «مايكروسوفت» عن توسعات كبيرة في مساعدها الذكي «كوبايلوت» ضمن احتفالها بمرور 50 عاماً، مؤكدة انتقالها نحو ريادة الذكاء الاصطناعي.

نسيم رمضان (لندن)
يوميات الشرق الملياردير الأميركي بيل غيتس (أ.ف.ب)

بسبب الذكاء الاصطناعي... غيتس يرى أنه لن تكون هناك حاجة للبشر في «معظم الأشياء» بعد عقد

كشف الملياردير الأميركي بيل غيتس إنه خلال العقد المقبل، ستعني التطورات في مجال الذكاء الاصطناعي أنه لن تكون هناك حاجة للبشر في «معظم الأمور» في العالم.

«الشرق الأوسط» (واشنطن)
تكنولوجيا يعكس قرار إيقاف «سكايب» التطور السريع في تقنيات الاتصال والتحول نحو الذكاء الاصطناعي (أ.ف.ب)

وداعاً «سكايب»... نهاية حقبة تكنولوجية وبداية أخرى

بعد 22 عاماً على ظهوره، «مايكروسوفت» تعلن إيقاف «سكايب» تماماً في 5 مايو (أيار) 2025.

نسيم رمضان (لندن)
تكنولوجيا ساتيا ناديلا الرئيس التنفيذي لـ«مايكروسوفت» يستعرض «وكلاء كوبايلوت»

«مايكروسوفت» ترسم ملامح مستقبل الذكاء الاصطناعي: من الوكلاء إلى التحليل التنبؤي

حوار عن آفاق التقنيات الثورية وتطبيقاتها الواسعة خصوصاً في السعودية التي تشهد تحولاً رقمياً

خلدون غسان سعيد (جدة)

دعوى قضائية: روبوتات دردشة تدفع المراهقين لإيذاء أنفسهم أو آبائهم

روبوت الدردشة «ثيرابوت» (جامعة دارتموث)
روبوت الدردشة «ثيرابوت» (جامعة دارتموث)
TT
20

دعوى قضائية: روبوتات دردشة تدفع المراهقين لإيذاء أنفسهم أو آبائهم

روبوت الدردشة «ثيرابوت» (جامعة دارتموث)
روبوت الدردشة «ثيرابوت» (جامعة دارتموث)

طالب اثنان من أعضاء مجلس الشيوخ الأميركي شركات الذكاء الاصطناعي بالإفصاح عن إجراءاتها بشأن سلامة المستخدمين، وذلك بعد أشهر من مقاضاة عدد من العائلات -بمن في ذلك أم من فلوريدا توفي ابنها البالغ من العمر 14 عاماً منتحراً- شركة «كاراكتر إيه آي» (Character.AI) الناشئة، بدعوى أن روبوتات للدردشة أضرت بأطفالهم.

كتب عضوا مجلس الشيوخ أليكس باديلا، وبيتر ويلش من الحزب الديمقراطي، في رسالة، يوم الأربعاء: «نكتب إليكم للتعبير عن مخاوفنا بشأن مخاطر الصحة العقلية والسلامة التي يتعرض لها المستخدمون الصغار لروبوتات الدردشة التي تعتمد على إيجاد شخصيات وهمية، والذكاء الاصطناعي».

وتطلب الرسالة معلومات عن تدابير السلامة، وكيفية تدريب الشركات لنماذج الذكاء الاصطناعي الخاصة بها، وأُرسلت إلى شركات الذكاء الاصطناعي التي تصنع نماذج قائمة على إيجاد شخصيات يتفاعل معها المستخدم، مثل شركة «كاراكتر تكنولوجيز» المالكة لشركتي «كاراكتر إيه آي» و«شاي ريسيرش غروب»، وشركة «لوكا» المصنعة لخدمة الدردشة الآلية (ريبليكا).

في الوقت الذي صُممت فيه روبوتات الدردشة الآلية الأكثر شيوعاً مثل «شات جي بي تي» لتكون ذات أغراض عامة، فإن روبوتات الدردشة الآلية مثل «كاراكتر إيه آي» و«شاي» و«ريبليكا» تسمح للمستخدمين بإنشاء روبوتات دردشة مخصصة، أو التفاعل مع روبوتات دردشة آلية صممها مستخدمون آخرون، والتي يمكن أن تأخذ مجموعة من الشخصيات والسمات الشخصية لمصممها.

على سبيل المثال، تُتيح الروبوتات الشائعة على «كاراكتر إيه آي» للمستخدمين التفاعل مع نسخ طبق الأصل من شخصيات خيالية أو ممارسة لغات أجنبية. ولكن هناك أيضاً روبوتات تُشير إلى نفسها على أنها متخصصة في الصحة العقلية أو شخصيات تستند إلى موضوعات متخصصة، بما في ذلك روبوت يصف نفسه بأنه «عدواني وعنيف وعسكري سابق وزعيم مافيا».

وتتزايد شعبية استخدام روبوتات الدردشة الآلية بوصفها رفاقاً رقميين، حتى إن بعض المستخدمين يتعاملون معها بصفتها شركاء رومانسيين.

وأثارت إمكانية إنشاء روبوتات مخصصة مخاوف الخبراء وأولياء الأمور بشأن قيام المستخدمين، خصوصاً الشباب، بتكوين ارتباطات ضارة محتملة بشخصيات الذكاء الاصطناعي أو الوصول إلى محتوى غير مناسب للعمر.

وكتب أعضاء مجلس الشيوخ في رسالتهم، التي اطلعت عليها شبكة «سي إن إن»: «هذه الثقة غير المكتسبة يمكن أن تؤدي بالمستخدمين إلى الكشف عن معلومات حساسة حول مزاجهم أو علاقاتهم الشخصية أو صحتهم العقلية، والتي قد تتضمن إيذاء النفس والتفكير في الانتحار، وهي موضوعات معقدة، وروبوتات الدردشة الآلية في منتجاتكم ليست مؤهلة لمناقشتها».

وتابعت: «المحادثات التي تنجرف إلى هذه المنطقة العاطفية الخطيرة تُشكل مخاطر متزايدة على المستخدمين الضعفاء».

وقالت تشيلسي هاريسون، رئيسة قسم الاتصالات في «كاراكتر إيه آي»، لـ«سي إن إن»، إن الشركة تأخذ سلامة المستخدمين «على محمل الجد».

وأضافت تشيلسي هاريسون، في بيان: «نرحب بالعمل مع المنظمين والمشرعين، ونحن على اتصال مع مكتبي عضوي الكونغرس باديلا وويلش».

وقالت ميغان غارسيا من فلوريدا، التي رفعت دعوى قضائية ضد «كاراكتر إيه آي» في أكتوبر (تشرين الأول)، إن ابنها طوَّر علاقات غير لائقة مع روبوت دردشة على المنصة، ما تسبب في ابتعاده عن عائلته.

وتدّعي ميغان غارسيا أن عدداً من محادثاته مع الروبوتات كانت جنسية صريحة، ولم تستجب بشكل مناسب لما ذكره عن إيذاء النفس.

في ديسمبر (كانون الأول)، رفعت عائلتان أخريان دعوى قضائية ضد «كاراكتر إيه آي»، متهمتين إياها بتقديم محتوى جنسي لأطفالهما، وتشجيع إيذاء النفس والعنف.

وزعمت إحدى العائلتين أن روبوت «كاراكتر إيه آي» أوحى لمستخدم مراهق بأنه يمكن أن يقتل والديه إذا حددا له وقتاً لاستخدام الشاشات.

وقال موقع «كاراكتر إيه آي» إنه نفَّذ تدابير جديدة للثقة والسلامة في الأشهر الأخيرة، بما في ذلك نافذة منبثقة توجه المستخدمين إلى الخط الوطني لمنع الانتحار عندما يذكرون إيذاء النفس أو الانتحار. وذكر أيضاً أنه يعمل على تطوير تقنية جديدة لمنع المراهقين من رؤية المحتوى الحساس.

الأسبوع الماضي، أعلنت الشركة عن ميزة سترسل إلى أولياء الأمور بريداً إلكترونياً أسبوعياً، يتضمن ملخصاً حول استخدام أبنائهم المراهقين للموقع، بما في ذلك وقت استخدامهم للموقع والشخصيات التي يتحدث معها أطفالهم في أغلب الأحيان.

وواجهت شركات روبوتات الدردشة الآلية الأخرى التي تعمل بالذكاء الاصطناعي تساؤلات حول ما إذا كانت العلاقات مع روبوتات الدردشة الآلية التي تعمل بالذكاء الاصطناعي يمكن أن تخلق ارتباطات غير صحية للمستخدمين أو تقوض العلاقات البشرية.

وقالت الرئيسة التنفيذية لشركة «ريبليكا» يوجينيا كويدا، لموقع «ذا فيرج»، العام الماضي، إن التطبيق مصمم لتعزيز «الالتزام طويل الأمد، وعلاقة إيجابية طويلة الأمد» مع الذكاء الاصطناعي، مضيفة أن ذلك قد يعني صداقة أو حتى «زواجاً» مع الروبوتات.

في رسالتهما، طلب باديلا وويلش معلومات حول تدابير السلامة الحالية والسابقة للشركات، وأي أبحاث حول فاعلية تلك التدابير، بالإضافة إلى أسماء مسؤولي السلامة. كما طلبا من الشركات وصف البيانات المستخدمة لتدريب نماذج الذكاء الاصطناعي الخاصة بها، وكيف «تؤثر على احتمالية مواجهة المستخدمين لموضوعات غير مناسبة للعمر أو غيرها من الموضوعات الحساسة».

وكتب عضوا مجلس الشيوخ: «من المهم فهم كيفية تدريب هذه النماذج على الاستجابة للمحادثات المتعلقة بالصحة العقلية»، وأضافا: «يستحق صناع السياسات والآباء والأمهات وأطفالهم معرفة ما تفعله شركاتكم لحماية المستخدمين من هذه المخاطر المعروفة».