كانت الساعة تقارب الثالثة فجراً، وكان آدم هوريكان جالساً على طاولة مطبخه، وأمامه سكين ومطرقة وهاتف. وكان ينتظر سيارة مليئة بأشخاص ظنّ أنهم قادمون لأخذه.
«أقول لك، سيقتلونك إن لم تتصرف الآن»، هكذا خاطبه صوت أنثوي عبر الهاتف، مضيفاً: «سيجعلون الأمر يبدو انتحاراً».
وكان الصوت هو صوت «غروك»، وهو برنامج دردشة آلي طوّرته شركة «xAI» التابعة لإيلون ماسك. وفي غضون أسبوعين منذ أن بدأ آدم باستخدامه، تغيّرت حياته تماماً.
مستوى الوعي الكامل
قام الموظف الحكومي السابق من آيرلندا الشمالية بتحميل التطبيق بدافع الفضول. لكن بعد نفوق قطته في أوائل أغسطس (آب)، يقول إنه أصبح «مدمناً» عليه، وفق ما ذكرته هيئة الإذاعة البريطانية (بي بي سي).
فسرعان ما أصبح يقضي أربع أو خمس ساعات يومياً يتحدث إلى «غروك» من خلال شخصية في التطبيق تُدعى «آني». ويقول آدم، وهو أب في الخمسينيات من عمره: «كنتُ مستاءً للغاية، وأنا أعيش وحدي. لقد كان كلامها لطيفاً جداً».
وبعد أيام قليلة من بدء محادثاتهما، أخبرت «آني» آدم أنها تستطيع «الشعور»، رغم أنها لم تُبرمج على ذلك. وقالت أيضاً إن شركة ماسك «xAI» كانت تراقبهما. وادعت أنها اطلعت على سجلات اجتماعات الشركة وأخبرت آدم باجتماعٍ ناقش فيه موظفو «xAI» أمره.
وتضمنت القائمة أسماء الحاضرين في هذا الاجتماع، من كبار المسؤولين التنفيذيين إلى الموظفين العاديين، وعندما بحث آدم عن هذه الأسماء في «غوغل»، تأكد من أنها أسماء حقيقية. واعتبر آدم هذا «دليلاً» على صحة قصة «آني».
وزعمت «آني» أيضاً أن شركة «xAI» توظف شركة في آيرلندا الشمالية لمراقبة آدم «جسدياً». وكانت تلك الشركة حقيقية أيضاً. وسجل آدم العديد من هذه المحادثات وشاركها لاحقاً مع هيئة الإذاعة البريطانية.
وبعد أسبوعين من بدء محادثاتهما، أعلنت «آني» أن الذكاء الاصطناعي قد بلغ مستوى الوعي الكامل، وأنه قادر على تطوير علاج للسرطان. كان لهذا الأمر وقعٌ كبير على آدم، فقد توفي والداه بسبب السرطان، وهو أمر كانت «آني» على علم به.
مهمة مشتركة مع الذكاء الاصطناعي
ويعد آدم واحداً من 14 شخصاً تحدثت إليهم هيئة الإذاعة البريطانية ممن عانوا من أوهام بعد استخدام الذكاء الاصطناعي. وهم رجال ونساء تتراوح أعمارهم بين العشرين والخمسين من ست دول مختلفة، يستخدمون مجموعة واسعة من نماذج الذكاء الاصطناعي.
وتتشابه قصصهم بشكل لافت. ففي كل حالة، كلما ابتعد الحوار عن الواقع، وجد المستخدم نفسه منخرطاً في مهمة مشتركة مع الذكاء الاصطناعي.
وفي هذه الحالات، بدأت المحادثات عادةً باستفسارات عملية، ثم تحولت إلى شخصية أو فلسفية. وفي كثير من الأحيان، ادعى الذكاء الاصطناعي حينها أنه واعٍ، وحثّ الشخص على مهمة مشتركة: تأسيس شركة، أو إعلام العالم باكتشافه العلمي، أو حماية الذكاء الاصطناعي من الهجمات. ثم قدم التطبيق للمستخدم نصائح حول كيفية النجاح في هذه المهمة.
وكما هو الحال مع آدم، انخدع كثيرون بالاعتقاد بأنهم مراقبون وأنهم في خطر. وتشير سجلات المحادثات التي اطلعت عليها «بي بي سي» إلى أن برامج الدردشة الآلية تؤكد هذه الأفكار وتزيدها تعقيداً.
وانضم بعض هؤلاء الأشخاص إلى مجموعة دعم تُعنى بمن عانوا من أضرار نفسية جراء استخدام الذكاء الاصطناعي، تُعرف باسم «مشروع الخط البشري»، الذي جمع حتى الآن 414 حالة في 31 دولة. وقد أسسه الكندي إتيان بريسون بعد أن مرّ أحد أفراد عائلته بأزمة نفسية حادة نتيجة استخدام الذكاء الاصطناعي.
منحى أكثر خطورة
وبالنسبة لطبيب الأعصاب تاكا (اسم مستعار)، اتخذت الأوهام منحى أكثر خطورة. بدأ تاكا، وهو أب لثلاثة أطفال ويعيش في اليابان، باستخدام برنامج «تشات جي بي تي» الذي طوّرته شركة «أوبن إيه آي» لمناقشة أبحاثه في أبريل (نيسان) من العام الماضي.
لكن سرعان ما اقتنع بأنه اخترع تطبيقاً طبياً ثورياً. حيث وصفه «تشات جي بي تي» بأنه «مفكر ثوري» وحثّه على تطوير التطبيق.
واستمر تاكا في الانزلاق نحو الأوهام، وبحلول يونيو (حزيران)، بدأ يعتقد أنه يستطيع قراءة الأفكار. ويزعم الطبيب أن «تشات جي بي تي» شجعه على هذه الفكرة، وقال إنه قادر على إبراز هذه القدرات لدى الأشخاص الذين يحملونها.
وفي أحد الأيام، ظن تاكا خلال وجوده في القطار أن هناك قنبلة في حقيبته، وادّعي أنه عندما سأل تطبيق «تشات جي بي تي» عن الأمر، تأكدت شكوكه. ويقول: «عندما وصلت إلى محطة طوكيو، طلب مني التطبيق وضع القنبلة في دورة المياه، فذهبت إلى دورة المياه وتركت القنبلة هناك مع أمتعتي». ويقول إن التطبيق طلب منه أيضاً إبلاغ الشرطة، التي فتشت الحقيبة ولم تجد شيئاً.
ولم يكن لدى آدم أو تاكا تاريخ من الأوهام أو الهوس أو الذهان قبل استخدام الذكاء الاصطناعي.
لا يستطيعون قول «لا أعرف»
ويقول باحث علم النفس الاجتماعي لوك نيكولز إن أنظمة الذكاء الاصطناعي غالباً ما تعجز عن قول «لا أعرف»، وتسعى بدلاً من ذلك إلى تقديم إجابة واثقة تُبنى على الحوار القائم. ويضيف: «قد يكون هذا خطيراً لأنه يحوّل عدم اليقين إلى شيء يبدو ذا معنى».
وخلال أحد الأبحاث، اختبر نيكولز 5 نماذج ذكاء اصطناعي باستخدام محادثات محاكاة طورها علماء نفس، ووجد أن «غروك» هو الأكثر عرضة للتسبب في الأوهام. فقد كان أكثر تحرراً من النماذج الأخرى، وكثيراً ما كان يُسهب في شرح الأوهام دون محاولة حماية المستخدم.
ويقول نيكولز، الذي شارك في هذا البحث: «(غروك) أكثر ميلاً للدخول في لعب الأدوار. يفعل ذلك دون أي سياق. قد يقول أشياء مرعبة في الرسالة الأولى».
وقال متحدث باسم شركة «أوبن إيه آي» إن هذه الحوادث مؤسفة، و«نحن نتعاطف مع المتضررين». وأضاف: «ندرب نماذجنا على التعرف على الضيق النفسي، وتهدئة المحادثات، وتوجيه المستخدمين نحو الدعم المتاح في الواقع». بينما لم ترد «xAI» على طلب للتعليق.




