«الحوسبة العاطفية»... لتحليل المشاعر وهندستها

نظم مطورة يمكن توظيفها في المجالات الصحية والتربوية

«الحوسبة العاطفية»... لتحليل المشاعر وهندستها
TT

«الحوسبة العاطفية»... لتحليل المشاعر وهندستها

«الحوسبة العاطفية»... لتحليل المشاعر وهندستها

يرتكز قطاع «الحوسبة العاطفية» المتنامي على جمع كميات هائلة من البيانات السلوكية والعاطفية.
وتزداد التكنولوجيا حميمية على الصعيدين الجسدي والعاطفي يوماً بعد آخر، ما ولّد طلباً على تقنيات جديدة قادرة على استنتاج الأوضاع العاطفية لدى البشر. وظهر مصطلح «الحوسبة العاطفية» لأول مرة عام 1995، على يد البروفسورة روزاليند بيكارد، مؤسسة مديرة مجموعة الحوسبة العاطفية البحثية في مختبر الإعلام التابع لمعهد ماساتشوستس للتقنية. واعترفت البروفسورة بمدى تأثير المشاعر على حياتنا، وقررت المضي قدماً نحو تطوير فكرة «هندسة المشاعر»:
الحوسبة العاطفية
ما الحوسبة العاطفية؟ يهدف تطوير نظم الحوسبة العاطفية إلى التعرف على التجارب والمشاعر البشرية، وتحليلها ومعالجتها. وتعتمد جميع هذه النظم على بيانات واسعة حول السلوك البشري، تجمعها أنواع مختلفة من الأجهزة، وتعالجها تشكيلة واسعة من تطبيقات برامج التعلم الآلي المتطورة.
وتشكل البرامج التي تعتمد على الذكاء الصناعي العصب في قدرة كل برنامج على تحليل إشارات مستخدمه العاطفية، والعمل عليها. وتعمل هذه النظم على تعريف التباينات الطفيفة بين البيانات السلوكية، وربطها بالمشاعر المتصلة بها.
والأجهزة الأكثر شيوعاً المستخدمة في جمع البيانات السلوكية هي الكاميرات، وغيرها من أجهزة المسح التي تراقب تعابير الوجه، وحركة العينين، والإيماءات، والوضعيات. ويمكن معالجة هذه البيانات لتعريف التعابير الصغيرة والبسيطة التي قد يعاني التقييم البشري من صعوبة في تحديد ماهيتها.
علاوة على ذلك، تسجل المعدات الصوتية المتطورة المتغيرات والتركيبات في أصوات مستخدميها. وتعمل بعض شركات التأمين اليوم على اختبار تقنية تحليل الاتصالات الصوتية التي ترصد كذب المتصل على متلقي الادعاء. وقد طور الفريق الذي يستخدم نظام «واطسون» الكومبيوتري للسؤال والجواب، التابع لشركة «آي بي إم»، «محللاً للنبرة» يعتمد على التحليل اللغوي لرصد 3 نبرات مختلفة من النصوص: أسلوب اللغة، والمشاعر، والميول الاجتماعية.
ويتم تطوير معدات الواقع الافتراضي والشاشات التي تثبت على الرأس لصناعة تجارب محاكاة أكثر واقعية. وتتيح هذه التقنيات للعبة تعديل نفسها، وفقاً لمشاعر المستخدم، لتقدم له تجربة محاكاة أكثر حماسة وخصوصية.
تفاعلات بشرية
كيف تستخدم الشركات الحوسبة العاطفية؟ تعتمد شركات كثيرة على الحوسبة العاطفية لجمع كميات هائلة من البيانات حول تفاعلات المستهلكين مع حملاتها الإعلانية. وتعمل «ريلايز»، إحدى أهم مؤسسات الإعلان في عالم التجزئة وأكثرها إبداعاً، مع عمالقة كـ«كوكاكولا»، و«إكسبيديا»، و«مارس»، و«إي تي أند تي»، و«إل جي»، وتوظف هذه التقنية لمساعدة عملائها في قياس، وتحسين، ومقارنة تأثير محتواها.
ويقيس البرنامج الذي طورته شركة «ريلايز» مشاعر المشاهدين، ومستويات تركيزهم، باستخدام الكاميرات الإلكترونية. كما يستطيع عرض محتوى العلامة التجارية على لجنة من المستهلكين من حول العالم، وقياس تفاعل الجماهير مع حملة إعلانية معينة، من خلال مراقبة مستوى تركيزهم، وتسجيل لحظات اندماجهم. وبعدها، يحصل المعلنون على نتيجة شاملة بناء على انخراط المستهلكين العاطفي وتركيزهم، مما يتيح لهم تقييم العائدات، أو تقييمها مقارنة بحملات سابقة.
وفي سياق متصل، يعمل فريق «الإدراك والتعاطف البشري» من «مايكروسوفت» على مشاريع متعددة لاستثمار الحوسبة العاطفية في منتجات الشركة. ويضم هذا العمل تطوير منصة متعددة النماذج لاستشعار العواطف، تدمج تحليل الرؤية الكومبيوترية لتعابير الوجه ووضعية الجسم مع المعالجة الصوتية التي ترصد الكلام والإحساس، ليتيحا معاً للنظام إنتاج نماذج كومبيوترية للمحادثات تستعرض المشاعر بشكل أوضح.
مجالات صحية وتربوية
ما المسائل الأخلاقية التي تحيط بالحوسبة العاطفية؟ يحيط بتطوير تقنية الذكاء الصناعي كثير من المخاوف والشكوك التي لا يمكن تجاهلها، والأمر نفسه يسري على الحوسبة العاطفية. ولكن من السهل جداً أن نتخيل أننا في يوم قريب سنمتلك أجهزة تلفزيون تضم كاميرات وميكروفونات قادرة على رصد تفاعلاتنا مع البرامج والإعلانات، لتتم مراقبة هذه التفاعلات من قبل صناعة الإعلام؛ هذا الأمر قد يؤدي إلى بروز مشكلات كبيرة مرتبطة بحماية الخصوصية والبيانات، وهذا هو العائق الأكبر أمام الشركات.
وتعارض روزاليند بيكارد، مبتكرة الحوسبة العاطفية، وبشدة استخدام فكرتها لأهداف غير أخلاقية، وتأمل في أن تبقى إمكاناتها محصورة بهدفها الأساسي، وهو مساعدة الناس على التواصل بشكل أفضل، وفقاً لموقع جمعية المهندسين الكهربائيين الأميركية.
مثلاً، يمكن للحوسبة العاطفية أن تساعد الأشخاص المصابين بالتوحد على إيصال مشاعرهم التي يعانون من صعوبة في التعبير عنها. وقبل سنوات قليلة، صنع فريق بيكارد البحثي قفازاً مجهزاً بأجهزة استشعارات في راحته، مهمتها مراقبة الاستجابة العاطفية. ويستطيع هذا القفاز التعرف على اللحظات التي يعاني فيها الشخص من الإحباط، مما قد يساعد في تفادي حالات الألم العاطفي. ويمكن استخدام هذا الجهاز نفسه لمراقبة التوتر الذي يشعر به الأولاد في المدارس.
ويرى سلاومير ناسوتو، أستاذ السيبرانية في جامعة «ريدنغ» في المملكة المتحدة، أن هذه التقنيات يمكن دمجها بسهولة في البنى التحتية الخاصة بالقطاع العام.
كما يتخيل ناسوتو مستقبلاً يتم فيه إدراج التعليم الكومبيوتري في المناهج المدرسية، إذ يمكن استخدام التقنية في التعرف على وضع الطلاب النفسي، كالتوتر أو التركيز، لمعرفة ما إذا كانوا يعانون من صعوبات معينة، أو يشعرون بالاهتمام أو بالملل.
كما استكشف ناسوتو كيفية توظيف نظام مشابه في وحدات العناية المركزة في المستشفيات.



«مرايا» الذكاء الاصطناعي تعكس دواخلها «مع كل التحيزات»

«بوابة السحاب» مرآة تعكس الحياة وتشوهاتها
«بوابة السحاب» مرآة تعكس الحياة وتشوهاتها
TT

«مرايا» الذكاء الاصطناعي تعكس دواخلها «مع كل التحيزات»

«بوابة السحاب» مرآة تعكس الحياة وتشوهاتها
«بوابة السحاب» مرآة تعكس الحياة وتشوهاتها

قبل بضع سنوات، وجدت شانون فالور نفسها أمام تمثال «بوابة السحاب (Cloud Gate)»، الضخم المُصمَّم على شكل قطرة زئبقية من تصميم أنيش كابور، في حديقة الألفية في شيكاغو. وبينما كانت تحدق في سطحه اللامع المرآتي، لاحظت شيئاً، كما كتب أليكس باستيرناك (*).

وتتذكر قائلة: «كنت أرى كيف أنه لا يعكس أشكال الأفراد فحسب، بل والحشود الكبيرة، وحتى الهياكل البشرية الأكبر مثل أفق شيكاغو... ولكن أيضاً كانت هذه الهياكل مشوَّهة؛ بعضها مُكبَّر، وبعضها الآخر منكمش أو ملتوٍ».

الفيلسوفة البريطانية شانون فالور

تشويهات التعلم الآلي

بالنسبة لفالور، أستاذة الفلسفة في جامعة أدنبره، كان هذا يذكِّرنا بالتعلم الآلي، «الذي يعكس الأنماط الموجودة في بياناتنا، ولكن بطرق ليست محايدة أو موضوعية أبداً»، كما تقول. أصبحت الاستعارة جزءاً شائعاً من محاضراتها، ومع ظهور نماذج اللغة الكبيرة (والأدوات الكثيرة للذكاء الاصطناعي التي تعمل بها)، اكتسبت مزيداً من القوة.

مرايا الذكاء الاصطناعي مثل البشر

تبدو «مرايا» الذكاء الاصطناعي مثلنا كثيراً؛ لأنها تعكس مدخلاتها وبيانات التدريب، مع كل التحيزات والخصائص التي يستلزمها ذلك. وبينما قد تنقل القياسات الأخرى للذكاء الاصطناعي شعوراً بالذكاء الحي، فإن «المرآة» تعبير أكثر ملاءمة، كما تقول فالور: «الذكاء الاصطناعي ليس واعياً، بل مجرد سطح مسطح خامل، يأسرنا بأوهامه المرحة بالعمق».

غلاف كتاب «مرايا الذكاء الاصطناعي»

النرجسية تبحث عن صورتها

كتابها الأخير «مرآة الذكاء الاصطناعي (The AI Mirror)»، هو نقد حاد وذكي يحطِّم عدداً من الأوهام السائدة التي لدينا حول الآلات «الذكية». يوجه بعض الاهتمام الثمين إلينا نحن البشر. في الحكايات عن لقاءاتنا المبكرة مع برامج الدردشة الآلية، تسمع أصداء نرجس، الصياد في الأساطير اليونانية الذي وقع في حب الوجه الجميل الذي رآه عندما نظر في بركة من الماء، معتقداً بأنه شخص آخر. تقول فالور، مثله، «إن إنسانيتنا مُعرَّضة للتضحية من أجل هذا الانعكاس».

تقول الفيلسوفة إنها ليست ضد الذكاء الاصطناعي، لكي نكون واضحين. وسواء بشكل فردي، أو بصفتها المديرة المشارِكة لمنظمة «BRAID»، غير الربحية في جميع أنحاء المملكة المتحدة المكرسة لدمج التكنولوجيا والعلوم الإنسانية، قدَّمت فالور المشورة لشركات وادي السيليكون بشأن الذكاء الاصطناعي المسؤول.

نماذج «مسؤولة» ومختبرة

وهي ترى بعض القيمة في «نماذج الذكاء الاصطناعي المستهدفة بشكل ضيق والآمنة والمختبرة جيداً والمبررة أخلاقياً وبيئياً» لمعالجة المشكلات الصحية والبيئية الصعبة. ولكن بينما كانت تراقب صعود الخوارزميات، من وسائل التواصل الاجتماعي إلى رفاق الذكاء الاصطناعي، تعترف بأن ارتباطها بالتكنولوجيا كان مؤخراً «أشبه بالوجود في علاقة تحوَّلت ببطء إلى علاقة سيئة. أنك لا تملك خيار الانفصال».

فضائل وقيم إنسانية

بالنسبة لفالور، إحدى الطرق للتنقل وإرشاد علاقاتنا المتزايدة عدم اليقين بالتكنولوجيا الرقمية، هي الاستفادة من فضائلنا وقيمنا، مثل العدالة والحكمة العملية. وتشير إلى أن الفضيلة لا تتعلق بمَن نحن، بل بما نفعله، وهذا جزء من «صراع» صنع الذات، بينما نختبر العالم، في علاقة مع أشخاص آخرين. من ناحية أخرى، قد تعكس أنظمة الذكاء الاصطناعي صورة للسلوك أو القيم البشرية، ولكن كما كتبت في كتابها، فإنها «لا تعرف عن التجربة الحية للتفكير والشعور أكثر مما تعرف مرايا غرف نومنا آلامنا وأوجاعنا الداخلية».

الخوارزميات والعنصرية وعدم المساواة

في الوقت نفسه تعمل الخوارزميات المدربة على البيانات التاريخية، بهدوء، على تقييد مستقبلنا بالتفكير نفسه الذي ترك العالم «مليئاً بالعنصرية والفقر، وعدم المساواة، والتمييز، وكارثة المناخ».

«كيف سنتعامل مع تلك المشكلات الناشئة التي ليست لها سابقة؟»، تتساءل فالور، وتشير: «مرايانا الرقمية الجديدة تشير إلى الوراء».

الاعتماد على السمات البشرية المفيدة

مع اعتمادنا بشكل أكبر على الآلات، وتحسينها وفقاً لمعايير معينة مثل الكفاءة والربح، تخشى فالور أننا نخاطر بإضعاف عضلاتنا الأخلاقية أيضاً، وفقدان المسار للقيم التي تجعل الحياة تستحق العناء.

مع اكتشافنا لما يمكن أن يفعله الذكاء الاصطناعي، سنحتاج إلى التركيز على الاستفادة من السمات البشرية الفريدة أيضاً، مثل التفكير القائم على السياق والحكم الأخلاقي، وعلى تنمية قدراتنا البشرية المتميزة. كما تعلمون. وهي تقول: «لسنا بحاجة إلى هزيمة الذكاء الاصطناعي. نحن بحاجة إلى عدم هزيمة أنفسنا».

* مجلة «فاست كومباني» - خدمات «تريبيون ميديا»

اقرأ أيضاً