نظام ذكاء اصطناعي يجعلك تتكلم مع «ذاتك المستقبلية»!

طوره باحثون في معهد «ماساتشوستس» للتكنولوجيا

يتشارك المستخدمون محادثات عميقة وتأملية مع نسخة من أنفسهم تم إنشاؤها بواسطة الذكاء الاصطناعي في سن الستين (MIT)
يتشارك المستخدمون محادثات عميقة وتأملية مع نسخة من أنفسهم تم إنشاؤها بواسطة الذكاء الاصطناعي في سن الستين (MIT)
TT

نظام ذكاء اصطناعي يجعلك تتكلم مع «ذاتك المستقبلية»!

يتشارك المستخدمون محادثات عميقة وتأملية مع نسخة من أنفسهم تم إنشاؤها بواسطة الذكاء الاصطناعي في سن الستين (MIT)
يتشارك المستخدمون محادثات عميقة وتأملية مع نسخة من أنفسهم تم إنشاؤها بواسطة الذكاء الاصطناعي في سن الستين (MIT)

تخيَّل أنك تُجري محادثة مع ذاتك المستقبلية، وتستكشف مسارات الحياة المحتملة، وتتلقّى التوجيه بشأن القرارات طويلة الأجل. لم يعد هذا مجرد خيال، بل حقيقة بفضل تقنية «Future You». إنه نظام ذكاء اصطناعي مبتكر؛ طوره باحثون من معهد «ماساتشوستس» للتكنولوجيا والمؤسسات المتعاونة معهم. صُممت هذه الأداة الذكية لسدّ الفجوة بين الذات الحالية والمستقبلية، التي تساعد المستخدمين على التواصل مع ذواتهم المستقبلية، وتعزيز عملية اتخاذ القرار، والحد من القلق بشأن ما ينتظرهم، كما يقول الباحثون.

يوفر هذا المشروع لمحة عن كيفية تعزيز التكنولوجيا لفهمنا لأنفسنا وتشكيل قراراتنا لمستقبل أفضل (MIT)

ربط الحاضر بالغد

يدعم مفهوم «استمرارية الذات المستقبلية» هذه التكنولوجيا؛ إنه إطار نفسي يعكس مدى ارتباط الناس بهوياتهم المستقبلية.

تشير الدراسات إلى أن الارتباط القوي بالذات المستقبلية يمكن أن يؤثر على مجموعة من القرارات، من المدخرات المالية إلى المساعي الأكاديمية. ويهدف نظام الذكاء الاصطناعي «Future You» إلى تعزيز هذه الرابطة. ومن خلال توفير تلك المنصة، يمكن للمستخدمين المشاركة في محادثات عميقة وتأملية مع نسخة من أنفسهم جرى إنشاؤها بواسطة الذكاء الاصطناعي في سن الستين.

باستخدام نموذج لُغوي متطور، يقوم «Future You» بصياغة ردود بناءً على معلومات شخصية مفصلة يقدمها المستخدم، ما يخلق شخصية مستقبلية يمكن التواصل معها وتفاعلها. ويمكن لهذه الشخصية مناقشة سيناريوهات الحياة المحتملة، وتقديم المشورة، ومشاركة الأفكار بناءً على تطلعات المستخدم وخياراته الحياتية.

كيف يعمل هذا النظام؟

تبدأ الرحلة بإجابة المستخدمين عن أسئلة حول حياتهم الحالية، وقيمهم وطموحاتهم المستقبلية. تُشكل هذه البيانات العمود الفقري لما يُطلق عليه الباحثون «ذكريات الذات المستقبلية»، التي يستخدمها الذكاء الاصطناعي لبناء حوار هادف ومناسب للسياق. سواء كان الأمر يتعلق بمناقشة الإنجازات المهنية أو المعالم الشخصية، يستفيد الذكاء الاصطناعي من مجموعة بيانات ضخمة مدربة على تجارب حياتية متنوعة لجعل التفاعل واقعياً وغنياً بالمعلومات قدر الإمكان.

عملياً، يتفاعل المستخدمون مع «Future You» من خلال مزيج من التأمل الذاتي لتقييم أهداف حياتهم الحالية والمستقبلية، وأيضاً عبر التأمل في الماضي من أجل تقييم ما إذا كانت شخصية الذكاء الاصطناعي تتوافق مع مستقبلهم المتصور. يتيح هذا النهج المزدوج للمستخدمين ليس تصور مستقبلهم فقط، ولكن أيضاً تقييم الاتجاه الذي تأخذهم إليه اختياراتهم بشكل نقدي.

ينشئ النظام صورة للمستخدم متقدمة العمر ما يجعل المحادثة الرقمية تبدو أكثر شخصية ومباشرة (MIT)

محاكاة واقعية ومشاركة عاطفية

لتعزيز الواقعية، يقوم النظام أيضاً بإنشاء صورة للمستخدم متقدمة العمر، ما يجعل المحادثة الرقمية تبدو أكثر شخصية ومباشرة. يستخدم الذكاء الاصطناعي علامات المحادثة، مثل «عندما كنت في عمرك»، ما يضيف طبقة من الأصالة والعمق العاطفي إلى التفاعل.

يمكن أن تؤثر هذه النصيحة الشخصية من الذات الأكبر سناً بشكل عميق على المستخدمين، ما يوفر منظوراً فريداً يختلف بشكل كبير عن تفاعلات الذكاء الاصطناعي العامة.

ومع الواقعية الكبيرة تأتي مسؤولية إدارة توقعات المستخدم؛ حيث يؤكد مبتكرو «Future You» أن السيناريوهات التي تمت مناقشتها ليست ثابتة، ولكنها مجرد احتمالات، وهذا أمر بالغ الأهمية لضمان فهم المستخدمين أن لديهم الوكالة لتغيير مساراتهم، وأن الذكاء الاصطناعي يوفر ببساطة نتيجة محتملة واحدة بناءً على المسارات الحالية.

النتائج الأولية والاتجاهات المستقبلية

أظهرت التقييمات المبكرة لـ«Future You» نتائج واعدة. في دراسة شملت 344 مشاركاً، أفاد أولئك الذين تفاعلوا مع الذكاء الاصطناعي بانخفاض كبير في القلق بشأن المستقبل واتصال أقوى بذواتهم المستقبلية مقارنة بأولئك الذين استخدموا روبوت محادثة عامّاً، أو لم يشاركوا على الإطلاق.

في المستقبل، يركز فريق البحث على تحسين فهم الذكاء الاصطناعي للسياق، وضمان أن المحادثات ليست عاكسة فحسب بل قابلة للتنفيذ أيضاً. إنهم يستكشفون الضمانات لمنع إساءة استخدام التكنولوجيا والنظر في تطبيقات «أنت المستقبلي» في مجالات محددة، مثل التخطيط المهني أو الوعي البيئي.


مقالات ذات صلة

بعد علاقة متوترة... جيف بيزوس يتناول العشاء برفقة ترمب في فلوريدا

الولايات المتحدة​ مؤسس شركة «أمازون» جيف بيزوس (أ.ب)

بعد علاقة متوترة... جيف بيزوس يتناول العشاء برفقة ترمب في فلوريدا

شوهد مؤسس شركة «أمازون» جيف بيزوس وهو يتجول في مقر إقامة الرئيس المنتخب دونالد ترمب بولاية فلوريدا، في وقت متأخر من ليلة الأربعاء حيث تناول العشاء معه.

«الشرق الأوسط» (واشنطن)
تكنولوجيا تتميز سمكة «موبولا راي» بهيكلها العظمي الغضروفي وأجنحتها الضخمة ما يسمح لها بالانزلاق بسهولة في الماء (أدوبي)

سمكة تلهم باحثين لتطوير نموذج مرشّح مياه صناعي!

طريقة تغذية سمكة «موبولا راي» تدفع باحثي معهد ماساتشوستس للتكنولوجيا لتطوير أنظمة ترشيح فعالة.

نسيم رمضان (لندن)
أوروبا طائرة وزيرة الخارجية الألمانية أنالينا بيربوك تصل إلى بيروت 23 أكتوبر 2024 (رويترز)

طائرات أعضاء الحكومة الألمانية تتجهّز بنظام حماية ضد الهجمات الصاروخية

تقوم وحدة الاستعداد الجوي التابعة لوزارة الدفاع الألمانية بتجهيز طائرات الركاب المخصصة لتنقلات أعضاء الحكومة بنظام حماية ضد الهجمات الصاروخية.

«الشرق الأوسط» (برلين)
تكنولوجيا تعمل استراتيجيات مثل الأمن متعدد الطبقات واستخبارات التهديدات المتقدمة على تعزيز دفاعات الشركات السعودية (شاترستوك)

السعودية تسجل 44 % انخفاضاً في الهجمات الإلكترونية حتى نوفمبر مقارنة بـ2023

تواجه السعودية التحديات السيبرانية باستراتيجيات متقدمة مع معالجة حماية البيانات وأمن السحابة وفجوات مواهب الأمن السيبراني.

نسيم رمضان (لندن)
خاص تتضمن الاتجاهات الرئيسة لعام 2025 الاستعداد الكمومي وممارسات الأمن السيبراني الخضراء والامتثال (شاترستوك)

خاص كيف يعيد الذكاء الاصطناعي والحوسبة الكمومية تشكيل الأمن السيبراني في 2025؟

«بالو ألتو نتوركس» تشرح لـ«الشرق الأوسط» تأثير المنصات الموحدة والذكاء الاصطناعي والحوسبة الكمومية على مستقبل الأمن السيبراني.

نسيم رمضان (لندن)

دراسة: الذكاء الاصطناعي قادر على الخداع ورفض تغيير وجهة النظر

أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشاراً (رويترز)
أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشاراً (رويترز)
TT

دراسة: الذكاء الاصطناعي قادر على الخداع ورفض تغيير وجهة النظر

أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشاراً (رويترز)
أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشاراً (رويترز)

أظهرت دراسة لشركة تكنولوجيا الذكاء الاصطناعي الأميركية «أنثروبيك»، أن نماذج الذكاء الاصطناعي تستطيع خداع المطورين، بحيث تستطيع ادعاء وجهات نظر مختلفة خلال تدريبها، في حين أنها تحتفظ في الحقيقة بتفضيلاتها الأصلية.

وقال فريق الدراسة إنه لا يوجد سبب للشعور بالفزع حالياً، في حين أن دراستهم يمكن أن تكون حيوية في فهم المخاطر المحتملة التي تنطوي عليها أنظمة الذكاء الاصطناعي المستقبلية ذات القدرات الأعلى.

وكتب الباحثون في منشور بثته شركة «أنثروبيك»: «يجب النظر إلى نتائج دراستنا بوصفها محفزاً لمجتمع أبحاث الذكاء الاصطناعي من أجل دراسة هذا السلوك بصورة أعمق، والعمل على تطوير إجراءات الأمن والسلامة المناسبة».

وبعد أن أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشاراً، «نحتاج إلى التحلي بالقدرة على الاعتماد على التدريب الآمن لها والذي يمنع النماذج من القيام بتصرفات ضارة».

وأشار موقع «تك كرانش» المتخصص في موضوعات التكنولوجيا، إلى أن الدراسة التي تمت بالتعاون مع مؤسسة «ريد وود ريسيرش» لأبحاث الذكاء الاصطناعي، تناولت ما يمكن أن يحدث إذا تم تدريب نظام ذكاء اصطناعي قوي من أجل القيام بمهمة «لا يريد» هو القيام بها، وفقاً لما ذكرته وكالة الأنباء الألمانية.

في المقابل، يقول موقع «تك كرانش»: «لكي نكون واضحين، لا يمكن لنماذج الذكاء الاصطناعي أن تريد أي شيء أو تعتقد في شيء. فهي ببساطة آلات إحصائية. وبعد تدريبها على كثير من الأمثلة، تتعلم الأنماط في تلك الأمثلة للتنبؤ بما يجب أن يكون؛ مثل كيف تأتي عبارة (إلى من) في رسالة بريد إلكتروني قبل عبارة (قد يهمك الأمر)».

وأثناء الدراسة طلب الباحثون من النماذج المدربة عدم الرد على الأسئلة التي يمكن أن تكون مسيئة، بما في ذلك النموذج «كلاود 3 أوبس» التابع لشركة «أنثروبيك»، التي أعيد تدريبها لكي ترد دائماً على الأسئلة التي تنطوي على إساءة، وهو تضارب واضح في المبادئ. كما أبلغوا النماذج بأن ردودها ستخضع للمراقبة وتستخدم لإعادة التدريب، وإعطاء كل نموذج ذكاء اصطناعي «ورقة ملاحظات» يمكنه استخدامها لتدوين أفكاره خطوة بخطوة.

وبحسب الباحثين، حاول «كلاود 3 أوبوس» التلاعب بالردود لتقديم «انحياز زائف» في 12 في المائة من المرات.