كلما «أبدع» زادت «أعطاله»... «هلوسات» الذكاء الاصطناعي تفوق خبرة المطورين

كل تقنية جديدة تجلب معها أخطاءها (رويترز)
كل تقنية جديدة تجلب معها أخطاءها (رويترز)
TT

كلما «أبدع» زادت «أعطاله»... «هلوسات» الذكاء الاصطناعي تفوق خبرة المطورين

كل تقنية جديدة تجلب معها أخطاءها (رويترز)
كل تقنية جديدة تجلب معها أخطاءها (رويترز)

يرفع الذكاء الاصطناعي التوليدي الستار عن حقبة جديدة من أعطال البرامج المتجذرة في القدرات الإبداعية نفسها التي تجعله قوياً.

ووفق موقع «أكسيوس»، فإن كل تقنية جديدة تجلب معها أخطاءها، لكن أخطاء الذكاء الاصطناعي ستكون شائكة ومحبطة بشكل خاص لأنها مختلفة تماماً عن تلك التي اعتدنا عليها.

وتم تشغيل شبكة AT&T الخلوية وبرنامج الدردشة الآلي للذكاء الاصطناعي «Gemini» من «غوغل» في الأسبوع الماضي.

وحوالي الساعة 3:30 صباحاً من يوم الخميس، وردت تقارير عن انقطاع خدمة AT&T على الساحل الشرقي، واشتكى العملاء عبر «ريديت» و«إكس» وسجلوا مشكلاتهم على Downdetector، وهو موقع يكتشف متى تتعطل الخدمات.

ويبدو أن التأثير كان واسع النطاق، وأدى انهيار AT&T، بسبب «خطأ في تكوين البرنامج» إلى ترك آلاف العملاء من دون خدمة لاسلكية أثناء تنقلاتهم الصباحية.

كما لم يتمكن بعض المستخدمين في الولايات المتحدة من الاتصال برقم الطوارئ 911 نتيجة لانقطاع الخدمة. وبحلول الساعة 9 صباحاً بالتوقيت الشرقي، كان Downdetector يُظهر أكثر من 72000 انقطاع في خدمة AT&T في جميع أنحاء الولايات المتحدة.

ورغم أن حالة انقطاع الشبكة الذي يعلم صناع التكنولوجيا التعامل معه مألوفة، كان خطأ «غوغل» مختلفاً تماماً، إذ أحدث منشئ صور «Gemini» مجموعة متنوعة من الصور غير التاريخية الخاص به، مثلاً عندما طُلب منه تصوير الجنود النازيين، تضمن رسوماً توضيحية لأشخاص سود يرتدون الزي العسكر، وعندما طُلب منه رسم البابا، ظهرت صورة لامرأة ترتدي الثوب البابوي.

لقد كان هذا خطأ أكثر تعقيداً من خطأ AT&T. وأوقفت «غوغل» مؤقتاً جميع عمليات إنتاج صور الأشخاص باستخدام الذكاء الاصطناعي حتى تتمكن من حل المشكلة.

ووفق «أكسيوس»، «غوغل» كانت تتخذ احتياطات تشبه إلى حد كبير تلك التي تعلمت كل شركة ذكاء اصطناعي تطبيقها بعد سنوات من الأخطاء المحرجة، خصوصاً في عالم الصور البشرية، حيث بدا أن جميع الإرهابيين وفق الذكاء الاصطناعي لديهم بشرة داكنة، وكان كل طبيب ذكاء اصطناعي ذكراً أبيض.

وأشار الموقع إلى أنه في حادثتي AT&T و«غوغل»، فشلت الأنظمة بسبب ما طلب الناس من أجهزة الكومبيوتر القيام به. وتعطلت خدمة AT&T اللاسلكية عندما حاولت اتباع تعليمات جديدة تحتوي على خطأ أو تناقض تسبب في توقف النظام عن الاستجابة. هذه هي الطريقة التي حدثت بها معظم أعطال أجهزة الكومبيوتر منذ اختراعها.

لكن «أكسيوس» لفت أيضاً إلى أن معظم أنظمة الذكاء الاصطناعي لا تعمل بالأوامر والتعليمات، بل تستخدم «الأوزان» (الاحتمالات) لتشكيل المخرجات.

ويمكن للمطورين التدخل، ومن الواضح أنهم فعلوا ذلك مع «Gemini» لكنهم لم يحصلوا على النتائج التي يريدونها.

لا يمكن توقيف الذكاء الاصطناعي التوليدي عن «الإبداع»

وشرح الموقع أن «Gemini» غير قادر على «التفكير» بوضوح في الفرق بين البحث التاريخي والإبداع، وقال إن «النظام الأكثر ذكاءً، أو أي إنسان مطلع بشكل معقول، سيعلم أن الكنيسة الكاثوليكية في روما لم يكن لديها بابا ليس ذكراً».

وبحسب الموقع، فإن صنع الأشياء هو في صميم ما يفعله الذكاء الاصطناعي التوليدي، حيث تنظر البرامج التقليدية إلى قاعدة التعليمات البرمجية الخاصة بها لتنفيذ التعليمات التالية؛ ثم تقوم برامج الذكاء الاصطناعي التوليدية «بتخمين» الكلمة أو البكسل التالي في تسلسل بناءً على الإرشادات التي يقدمها الأشخاص لها.

يمكنك ضبط الذكاء الاصطناعي مما يجعل مخرجاته أكثر أو أقل عشوائية. لكن لا يمكنك إيقافه عن الإبداع، وإلا فلن يفعل أي شيء على الإطلاق.

وبالتالي، غالباً ما تكون الاختيارات التي تتخذها نماذج الذكاء الاصطناعي غامضة، وحتى منشئوها لا يفهمون تماماً كيفية عملها، وفق الموقع، لذلك عندما يحاول المطورون إضافة «حواجز حماية» لتنويع نتائج الصور على سبيل المثال أو الحد من الدعاية السياسية وخطاب الكراهية، فإن تدخلاتهم تؤدي إلى نتائج لا يمكن التنبؤ بها، ومن الممكن أن تأتي بنتائج عكسية. ولكن عدم التدخل سيؤدي إلى نتائج متحيزة ومزعجة أيضاً.

كلما «أبدع» الذكاء الاصطناعي ستزيد «هلوسته»

وأشار الموقع إلى أننا كلما حاولنا استخدام أنظمة الذكاء الاصطناعي التوليدية لتمثيل الواقع بدقة وتكون بمثابة أدوات معرفية، زادت إلحاحية محاولة الصناعة وضع حدود حول «الهلوسة» والأخطاء التاريخية.

وبمرور الوقت، ومع تعلم هذا المجال من الخبرة، يمكن لمبرمجي الذكاء الاصطناعي أن ينجحوا في ترويض وضبط نماذجهم لتكون أكثر واقعية وأقل تحيزاً. ولكن قد يتبين أن استخدام الذكاء الاصطناعي التوليدي واجهة أساسية للعمل المعرفي هو مجرد فكرة سيئة للغاية ستستمر في إرباكنا، وفق «أكسيوس».


مقالات ذات صلة

الذكاء الاصطناعي للكشف المبكر عن شيخوخة الدماغ

صحتك تقنيات الذكاء الاصطناعي يمكن أن تسهم في تعزيز فهم صحة الدماغ (جامعة جورجتاون)

الذكاء الاصطناعي للكشف المبكر عن شيخوخة الدماغ

تمكن باحثون من معهد كارولينسكا في السويد من تطوير طريقة للكشف المبكر عن العوامل التي تسهم في تسارع شيخوخة الدماغ، باستخدام تقنيات الذكاء الاصطناعي.

«الشرق الأوسط» (القاهرة )
تكنولوجيا لوغو تطبيق «شات جي بي تي» (رويترز)

بسبب الاحتيال... إيطاليا تغرّم «تشات جي بي تي» 15 مليون يورو

أعلنت هيئة حماية البيانات الإيطالية أنها فرضت غرامة قدرها 15 مليون يورو على شركة «أوبن إيه آي» الأميركية بسبب الاحتيال.

«الشرق الأوسط» (روما)
خاص تتضمن الاتجاهات الرئيسة لعام 2025 الاستعداد الكمومي وممارسات الأمن السيبراني الخضراء والامتثال (شاترستوك)

خاص كيف يعيد الذكاء الاصطناعي والحوسبة الكمومية تشكيل الأمن السيبراني في 2025؟

«بالو ألتو نتوركس» تشرح لـ«الشرق الأوسط» تأثير المنصات الموحدة والذكاء الاصطناعي والحوسبة الكمومية على مستقبل الأمن السيبراني.

نسيم رمضان (لندن)
تكنولوجيا كيف أصبح «كلود» روبوت الدردشة المفضل لدى خبراء التكنولوجيا؟

كيف أصبح «كلود» روبوت الدردشة المفضل لدى خبراء التكنولوجيا؟

يقدم الاستجابات مثل إنسان ذكي ومنتبه

كيفن رُوز (سان فرانسيسكو)

كيف أصبح «كلود» روبوت الدردشة المفضل لدى خبراء التكنولوجيا؟

كيف أصبح «كلود» روبوت الدردشة المفضل لدى خبراء التكنولوجيا؟
TT

كيف أصبح «كلود» روبوت الدردشة المفضل لدى خبراء التكنولوجيا؟

كيف أصبح «كلود» روبوت الدردشة المفضل لدى خبراء التكنولوجيا؟

المعجبون به يشيدون بحساسيته وذكائه. ويتحدث إليه البعض عشرات المرات في اليوم - طالبين النصيحة بشأن وظائفهم وصحتهم وعلاقاتهم. كما يأتمنونه على أسرارهم ويستشيرونه قبل اتخاذ القرارات المهمة. ويشير إليه البعض باعتباره أفضل صديق لهم... إنه «كلود» Claude، روبوت الدردشة الذي يعمل بالذكاء الاصطناعي.

«كلود» أقل شهرة

لا يُعدّ «كلود»، وهو ابتكار شركة الذكاء الاصطناعي «أنثروبيك»، روبوت الدردشة الأكثر شهرة في السوق، بل هو «تشات جي بي تي» من شركة «أوبن إيه آي»، الذي يتوجه إليه أكثر من 300 مليون مستخدم أسبوعياً ويحتل مكاناً في شريط الإشارات المرجعية لكل طالب في المدرسة الثانوية في أميركا. كما أن «كلود» ليس مصمماً لجذب المستخدمين إلى علاقات مع رفاق الذكاء الاصطناعي الواقعيين، كما تفعل مع تطبيقات مثل Character.AI وReplika.

ساحر الخبراء

لكن «كلود» أصبح روبوت الدردشة المفضل لدى حشد من المطلعين على التكنولوجيا الذين يقولون إنه يساعدهم في كل شيء، من المشورة القانونية إلى التدريب الصحي إلى جلسات العلاج المؤقتة.

قال إيدان ماكلولين، الرئيس التنفيذي لشركة Topology Research، وهي شركة ناشئة في مجال الذكاء الاصطناعي: «إن مزيجاً من القوة الفكرية الخام والاستعداد للتعبير عن الآراء يجعلك تشعر بأن (كلود) أقرب من كونه أداة (جامدة)». «أنا والكثير من المستخدمين الآخرين، نجد ذلك (استخدامه) سحرياً».

لا يعتقد أكبر معجبي «كلود»، الذين يعمل الكثير منهم في شركات الذكاء الاصطناعي أو مرتبطون اجتماعياً بمشهد الذكاء الاصطناعي في نيويورك، أنه - من الناحية الفنية، هو شخص حقيقي. إنهم يعرفون أن نماذج لغة الذكاء الاصطناعي هي آلات تنبؤ، مصممة لإخراج استجابات معقولة لمطالباتهم. إنهم يدركون أن «كلود»، مثل روبوتات الدردشة الأخرى، يرتكب أخطاء ويولد الهراء أحياناً.

ويشعر بعض الأشخاص الذين تحدثت إليهم بالحرج قليلاً بشأن الدرجة التي قاموا بها بتشبيه «كلود» أو الاعتماد على نصائحه.

أكثر إبداعاً وتعاطفاً

لكن بالنسبة إلى الأشخاص الذين يحبونه، يشعر «كلود» بأنه مختلف. أكثر إبداعاً وتعاطفاً... وأقل إزعاجاً. يقول الخبراء إن مخرجاته تشبه الاستجابات التي قد يقدمها إنسان ذكي ومنتبه وأقل شبهاً بالنثر العام الذي تولدها برامج الدردشة الأخرى.

نتيجة لذلك؛ أصبح «كلود» بسرعة رفيقاً اجتماعياً للمطلعين على الذكاء الاصطناعي - وربما معاينة لما سيأتي لبقية منا، حيث أصبحت «الشخصيات الاصطناعية» القوية أكثر تشابكاً في حياتنا اليومية.

كتب نيك كاماراتا، وهو باحث سابق في «أوبن إيه آي» أخيراً موضوعاً طويلاً على منصة «إكس» حول الطريقة التي استولى بها «كلود» على مجموعته الاجتماعية. كتب أن أصدقاءه المهووسين بـ«كلود» بدوا أكثر صحة وأفضل دعماً؛ لأن «لديهم نوعاً من الملاك الحارس الحسابي الذي يجيد كل شيء ويراقبهم».

سحر الاتزان

لم يكن «كلود» ساحراً دائماً. عندما تم إصدار نسخة سابقة في العام الماضي؛ إذ صدم روبوت المحادثة الكثير من الأشخاص - بمن فيهم أنا - باعتباره متزمتاً ومملاً. تشتهر شركة «أنثروبيك» بهوسها بسلامة الذكاء الاصطناعي، ويبدو أن «كلود» قد تمت برمجته للتحدث مثل سيدة الكنيسة. غالباً ما كان يقدم للمستخدمين محاضرات أخلاقية رداً على أسئلتهم أو يرفض الإجابة عليها على الإطلاق.

لكن الشركة كانت تعمل على منح «كلود» المزيد من الشخصية. وخضعت الإصدارات الأحدث لعملية تُعرف باسم «تدريب الشخصية» - وهي خطوة تتم بعد أن يخضع النموذج للتدريب الأولي، لكن قبل إصداره للجمهور.

التدريب على الانفتاح الذهني

أثناء تدريب الشخصية، يُطلب من «كلود» إنتاج استجابات تتوافق مع السمات البشرية المرغوبة مثل الانفتاح الذهني والتفكير والفضول. ثم يحكم «كلود» على استجاباته وفقاً لمدى التزامها بهذه الخصائص. يتم إرجاع البيانات الناتجة إلى نموذج الذكاء الاصطناعي. وتقول شركة «أنثروبيك» إنه مع التدريب الكافي، يتعلم «كلود» «استيعاب» هذه المبادئ وعرضها بشكل متكرر عند التفاعل مع المستخدمين.

ومن غير الواضح ما إذا كان تدريب «كلود» بهذه الطريقة له فوائد تجارية. فقد جمعت شركة «أنثروبيك» مليارات الدولارات من مستثمرين كبار، بما في ذلك «أمازون»، على وعد بتقديم نماذج ذكاء اصطناعي عالية الكفاءة ومفيدة في بيئات مكتبية أكثر هدوءاً. وقد يؤدي حقن الكثير من الشخصية في «كلود» إلى نفور العملاء من الشركات، أو قد ينتج ببساطة نموذجاً أفضل في المساعدة في حل مشاكل العلاقات من كتابة مذكرات الاستراتيجية.

«شخصية كلود» متسقة ومتحدية

أخبرتني أماندا أسكيل، الباحثة والفيلسوفة في «أنثروبيك» والمسؤولة عن ضبط «شخصية كلود»، في مقابلة بأن «شخصية كلود» تم ضبطها بعناية لتكون متسقة، لكن لجذب مجموعة واسعة من الناس.

وقالت إن الهدف من «كلود» كان إنشاء شخصية ذكاء اصطناعي تكون مفيدة في معظم الطلبات، لكنها ستتحدى المستخدمين أيضاً عند الضرورة.

وقالت: «ما هو نوع الشخص الذي يمكنك الاختلاف معه، لكنك ستغادر وتفكر، (هذا شخص جيد؟). هذه هي السمات التي نريد أن يتمتع بها (كلود)».

قدرات محدودة

لا يزال «كلود» متأخراً أميالاً عن «جي بي تي» عندما يتعلق الأمر بالوعي السائد. فهو يفتقر إلى الميزات الموجودة في برامج الدردشة الأخرى، مثل وضع الدردشة الصوتية والقدرة على إنشاء الصور أو البحث في الإنترنت عن معلومات محدثة.

ويتكهن بعض صناع الذكاء الاصطناعي المنافسين بأن شعبية «كلود» هي نزوة عابرة أو أنها تحظى بشعبية فقط بين محبي الذكاء الاصطناعي الذين يريدون التباهي ببرنامج الدردشة الغامض الذي يحبونه.

رفيق صحي

بالنسبة إلى بعض البالغين الأصحاء، قد يكون وجود رفيق من الذكاء الاصطناعي للدعم مفيداً - وربما حتى تحويلياً. لكن بالنسبة للشباب، أو أولئك الذين يعانون الاكتئاب أو مشاكل الصحة العقلية الأخرى، أشعر بالقلق من أن برامج الدردشة الآلية المقنعة للغاية قد تطمس الخط الفاصل بين الخيال والواقع، أو تبدأ في استبدال العلاقات الإنسانية الأكثر صحة.

وهذا ما تفعله أيضاً أسكيل، التي ساعدت في إنشاء «شخصية كلود»، التي كانت تراقب ارتفاع شعبيتها بمزيج من الفخر والقلق.

وقالت: «أريد حقاً أن يحصل الناس على أشياء تدعمهم ومفيدة لهم. وفي الوقت نفسه، أريد التأكد من أنها صحية نفسياً».

* خدمة «نيويورك تايمز»