«أوبن إيه آي» تعترف بأن «تشات جي بي تي» قد يزيد الشعور بالوحدة

شعار «تشات جي بي تي» (رويترز)
شعار «تشات جي بي تي» (رويترز)
TT
20

«أوبن إيه آي» تعترف بأن «تشات جي بي تي» قد يزيد الشعور بالوحدة

شعار «تشات جي بي تي» (رويترز)
شعار «تشات جي بي تي» (رويترز)

قال باحثون من شركة «أوبن إيه آي» الأميركية العملاقة في مجال الذكاء الاصطناعي إن روبوت الدردشة الشهير الخاص بالشركة «تشات جي بي تي» قد يزيد شعور مستخدميه بالوحدة والعزلة.

ووفق موقع «بيزنس إنسايدر»، فقد أجرى باحثو «أوبن إيه آي» دراسة، بالتعاون مع مختبر أنظمة المعلومات في معهد ماساتشوستس للتكنولوجيا، حللوا فيها ملايين محادثات الدردشة وآلاف التفاعلات الصوتية على «تشات جي بي تي»، كما استطلعوا آراء 4000 مستخدم حول سلوكياتهم المبلَّغ عنها ذاتياً مع هذا الروبوت.

وبعد ذلك، ​​حلل مختبر أنظمة المعلومات مدى تفاعل ما يقرب من 1000 مستخدم مع «تشات جي بي تي»، على مدار أربعة أسابيع. وجمع الباحثون بيانات نصية وصوتية في محادثات شخصية وغير شخصية.

ونظر الباحثون في معاناة المشاركين من الوحدة، والضعف، ومشكلات تقدير الذات، والاعتماد على النفس.

وقال الباحثون إنهم وجدوا أن «تشات جي بي تي» قد يُفاقم الشعور بالوحدة لدى المستخدمين الذين يستخدمونه بكثرة.

وكتب فريق الدراسة: «كان أولئك الذين استخدموا التطبيق بصورة يومية في مختلف المجالات وجميع أنواع المحادثات أكثر عرضة للشعور بالوحدة، وانخفاض التواصل الاجتماعي وقلة الاعتماد على النفس».

وأظهرت النتائج أيضاً أن الأشخاص الذين كانوا يعانون الوحدة في بداية الدراسة كانوا أكثر عرضة للإفراط في استخدام الروبوت، مما أدى إلى تفاقم حالتهم، في النهاية.

ومنذ انطلاق «تشات جي بي تي» قبل أكثر من عامين، نجح الروبوت في جذب 400 مليون مستخدم نشط أسبوعياً حول العالم.

ويستخدم كثير من الأشخاص هذه الروبوتات في العلاج النفسي ولتعزيز الصحة العقلية، حيث ازداد الاعتماد عليها، بدلاً من الأطباء النفسيين.

يُذكر أن أكبر جمعية لعلماء النفس في الولايات المتحدة حذَّرت، الشهر الماضي، الجهات التنظيمية الفيدرالية من أن روبوتات الدردشة بالذكاء الاصطناعي «المتنكرة» في هيئة معالجين طبيعيين «therapists»، لكنها مبرمجة لتعزيز ما يفكر به المستخدم، بدلاً من تحدي تلك الأفكار، يمكن أن تدفع الأشخاص الضعفاء إلى إيذاء أنفسهم أو الآخرين.


مقالات ذات صلة

جامعة «جونز هوبكنز»: نماذج الذكاء الاصطناعي تفشل في فهم التفاعلات البشرية

تكنولوجيا أظهرت الدراسة أن البشر يتفقون بدرجة عالية على تقييم مشاهد التفاعل الاجتماعي في حين فشل أكثر من 350 نموذجاً للذكاء الاصطناعي في محاكاتهم

جامعة «جونز هوبكنز»: نماذج الذكاء الاصطناعي تفشل في فهم التفاعلات البشرية

الدراسة تكشف أن الذكاء الاصطناعي لا يزال عاجزاً عن فهم التفاعلات الاجتماعية ويحتاج لإعادة تصميم ليحاكي التفكير البشري.

نسيم رمضان (لندن)
الاقتصاد شعار «ألفابت» على شاشة في سوق «ناسداك ماركت سايت» بنيويورك (أ.ب)

أرباح قوية من «ألفابت» تُنعش أسهمها مع تنامي أثر الذكاء الاصطناعي

قفزت أسهم «ألفابت» 4 في المائة بعد تقرير أرباح قوي أظهر أن استثماراتها في الذكاء الاصطناعي تعزز نمو إيراداتها الإعلانية، مبددةً مخاوف المنافسة والرسوم.

«الشرق الأوسط» (نيويورك)
تكنولوجيا ثلثي العاملين في بريطانيا لم يستخدموا الذكاء الاصطناعي التوليدي في وظائفهم أبدا (رويترز)

«غوغل»: بريطانيا تخاطر بفقدان المليارات بسبب بطء تبني الذكاء الاصطناعي

وجهت رئيسة عمليات «غوغل» في المملكة المتحدة وأوروبا «نداء للعمل» بشأن فجوة مقلقة في تبني المملكة المتحدة للذكاء الاصطناعي.

«الشرق الأوسط» (لندن)
يوميات الشرق تستهدف الشراكة الأفراد والجهات الحكومية والشركات عبر مجموعة دورات تدريبية واسعة (الشرق الأوسط)

شراكة بين «أكاديمية SRMG» و«الخليج» في التدريب الإعلامي

أعلنت المجموعة السعودية للأبحاث والإعلام عن شراكة بين «أكاديمية SRMG» وشركة «الخليج للتدريب» لتقديم برامج تدريبية متقدمة للقادة والمحترفين في الإعلام والاتصال.

«الشرق الأوسط» (الرياض)
يوميات الشرق دونالد ترمب وفولوديمير زيلينسكي في المكتب البيضاوي - (أ.ف.ب)

زيلينسكي ينضم إلى «قائمة ضحايا» مُصممي الذكاء الاصطناعي المصريين

بمقطع فيديو ساخر، وعلى صوت الممثل الكوميدي المصري محمد سعد، انضم الرئيس الأوكراني فولوديمير زيلينسكي إلى «قائمة ضحايا» مُصممي الذكاء الاصطناعي المصريين.

أحمد عدلي (القاهرة )

جامعة «جونز هوبكنز»: نماذج الذكاء الاصطناعي تفشل في فهم التفاعلات البشرية

أظهرت الدراسة أن البشر يتفقون بدرجة عالية على تقييم مشاهد التفاعل الاجتماعي في حين فشل أكثر من 350 نموذجاً للذكاء الاصطناعي في محاكاتهم
أظهرت الدراسة أن البشر يتفقون بدرجة عالية على تقييم مشاهد التفاعل الاجتماعي في حين فشل أكثر من 350 نموذجاً للذكاء الاصطناعي في محاكاتهم
TT
20

جامعة «جونز هوبكنز»: نماذج الذكاء الاصطناعي تفشل في فهم التفاعلات البشرية

أظهرت الدراسة أن البشر يتفقون بدرجة عالية على تقييم مشاهد التفاعل الاجتماعي في حين فشل أكثر من 350 نموذجاً للذكاء الاصطناعي في محاكاتهم
أظهرت الدراسة أن البشر يتفقون بدرجة عالية على تقييم مشاهد التفاعل الاجتماعي في حين فشل أكثر من 350 نموذجاً للذكاء الاصطناعي في محاكاتهم

في سباق تطوير أنظمة ذكاء اصطناعي أكثر ذكاءً وتفاعلاً مع البشر، تكشف دراسة جديدة من جامعة «جونز هوبكنز» حقيقة مقلقة؛ أنه حتى أكثر تقنيات الذكاء الاصطناعي تقدماً لا تزال تعاني من فهم أحد أبسط الأمور التي يجيدها البشر بالفطرة، وهو تفسير التفاعلات الاجتماعية.

من السيارات ذاتية القيادة إلى الروبوتات المساعدة والمساعدين الافتراضيين، يعتمد مستقبل الذكاء الاصطناعي على قدرته على قراءة السلوك البشري في السياقات الحقيقية. لكن وفقاً لهذه الدراسة الرائدة، لا يزال الذكاء الاصطناعي غير قادر على «قراءة المشهد».

تقول ليلى إيشيك، الأستاذة المساعدة في علم الإدراك بجامعة جونز هوبكنز، والمؤلفة الرئيسية للدراسة: «إن هذه الأنظمة تعاني من قيود أساسية عندما يتعلق الأمر بفهم كيفية تفاعل البشر بعضهم مع بعض». وتضيف: «إذا كنت تصمم ذكاءً اصطناعياً لسيارة ذاتية القيادة، فأنت بحاجة إلى أن يتنبأ بحركة المشاة. كأن يعرف ما إذا كان أحدهم على وشك العبور، أو ما إذا كان شخصان يتحدثان فقط. في الوقت الحالي، الذكاء الاصطناعي لا يستطيع القيام بذلك بدقة كافية».

دراسة «جونز هوبكنز»: لا تزال نماذج الذكاء الاصطناعي رغم تطورها غير قادرة على فهم التفاعلات الاجتماعية كما يفعل البشر
دراسة «جونز هوبكنز»: لا تزال نماذج الذكاء الاصطناعي رغم تطورها غير قادرة على فهم التفاعلات الاجتماعية كما يفعل البشر

تطبيق عملي

تم عرض الدراسة في مؤتمر التعلم التمثيلي الدولي (ICLR) حيث حاول الباحثون اختبار قدرة الذكاء الاصطناعي على فهم الديناميكيات الاجتماعية، مقارنة بالبشر. صمّم الفريق تجربة بسيطة، لكنها فعّالة، فطُلب من المشاركين البشريين مشاهدة مقاطع فيديو قصيرة، مدتها 3 ثوانٍ لأشخاص، إما يتفاعل بعضهم مع بعض، أو يؤدون أنشطة متجاورة، أو يعملون بشكل مستقل. بعد ذلك، طُلب منهم تقييم مدى التفاعل الاجتماعي في كل مقطع على مقياس من 1 إلى 5.

ثم طُبّق التقييم نفسه على أكثر من 350 نموذج ذكاء اصطناعي، بما في ذلك نماذج متقدمة لمعالجة الصور والفيديو واللغة. وكانت النتائج واضحة.

نتائج مقلقة

اتفق المشاركون من البشر إلى حدّ كبير في تقييماتهم، لكن نماذج الذكاء الاصطناعي بغضّ النظر عن مدى تطورها أو حجم بياناتها فشلت في الوصول إلى نفس الدقة. النماذج المعتمدة على الفيديو كانت الأسوأ أداءً، إذ لم تتمكن من التعرف على التفاعلات الاجتماعية في المشاهد الديناميكية. حتى النماذج المعتمدة على الصور الثابتة لم تستطع بدقة التنبؤ بما إذا كان الأشخاص يتواصلون أم لا.

أما النماذج اللغوية، التي أُعطيت أوصافاً مكتوبة للمشاهد، فقد أظهرت أداءً أفضل إلى حد ما، خصوصاً في محاولة التنبؤ بكيفية تفسير البشر للمشاهد. لكنها لم تتمكن من التقاط الصورة الكاملة لسياق المشهد المرئي المتغير. وترى كاثي غارسيا، الباحثة في مختبر إيشيك والمؤلفة المشاركة الأولى، التي عرضت النتائج في المؤتمر، أن هذا يعكس قصوراً بنيوياً في الطريقة التي تُبنى بها أنظمة الذكاء الاصطناعي.

تقول: «إن القدرة على التعرف على الوجوه أو الأجسام في الصور الثابتة كانت إنجازاً مهماً في مسار الذكاء الاصطناعي، لكنها ليست كافية. الحياة ليست صورة جامدة. الناس يتحركون، يتفاعلون، يتجاوب بعضهم مع بعض. وهذا المستوى من الفهم هو ما نحتاج من الذكاء الاصطناعي أن يصل إليه. ودراستنا تظهر أننا لم نصل بعد».

سبب القصور يعود إلى أن بنية الشبكات العصبية للذكاء الاصطناعي مستوحاة من مناطق الدماغ التي تعالج الصور الثابتة وليس التفاعلات الاجتماعية المعقدة (شاترستوك)
سبب القصور يعود إلى أن بنية الشبكات العصبية للذكاء الاصطناعي مستوحاة من مناطق الدماغ التي تعالج الصور الثابتة وليس التفاعلات الاجتماعية المعقدة (شاترستوك)

ما السبب؟

يعتقد الباحثون أن السبب يعود إلى الأساس الذي بُنيت عليه الشبكات العصبية للذكاء الاصطناعي، وهو جزء الدماغ المسؤول عن معالجة الصور الثابتة. أما التفاعلات الاجتماعية، فهي تتطلب فهماً أعمق للحركة والسياق والنية، وهي عمليات يعالجها جزء مختلف تماماً في دماغ الإنسان. توضح إيشيك أن هناك تفاصيل كثيرة، لكن الرسالة الكبرى هي أن أياً من نماذج الذكاء الاصطناعي التي اختبرناها لم تتمكن من مطابقة استجابات الدماغ البشري أو السلوك الإنساني لمشاهد متحركة، كما تفعل مع الصور الثابتة. هناك شيء أساسي في طريقة معالجة البشر للمشاهد الديناميكية، لا تزال هذه النماذج تفتقده.

تأثيرات بعيدة المدى

مع دخول الذكاء الاصطناعي إلى حياتنا اليومية، سواء في السيارات أو المستشفيات حتى الأماكن العامة، يصبح من الضروري أن يفهم سلوك البشر في السياق الاجتماعي بشكل دقيق. تردد بسيط من أحد المشاة، لغة جسد خفية، حتى تبادل نظرات، كلها إشارات يفسرها الإنسان دون تفكير، لكنها لا تزال لغزاً للذكاء الاصطناعي. هذه الدراسة لا تدعو إلى إيقاف استخدام الذكاء الاصطناعي في هذه السياقات، بل تؤكد على الحاجة إلى إعادة التفكير في كيفية تدريب وتصميم هذه الأنظمة، لتتشابه أكثر مع طريقة تفكير الدماغ البشري.

تختتم غارسيا قائلة إن هذه دعوة للاستيقاظ. وتضيف: «إذا أردنا أن نبني ذكاءً اصطناعياً يفهمنا فعلاً، فعلينا أن نعيد النظر في الطريقة التي نصمم بها هذه النماذج، من الأساس».

في نهاية المطاف، ربما يكون أحد أكبر تحديات الذكاء الاصطناعي ليس الفوز على البشر في الألعاب أو تأليف القصائد، بل أن يفهم نظرة أو إيماءة أو لحظة صامتة بين اثنين.

وعلى الأقل حتى الآن، يبقى البشر هم الأفضل في ذلك.