كومبيوتر.. يقرأ الألم على وجه الإنسان

يميز بين تعبيرات الوجه الحقيقية والمتصنعة

كومبيوتر.. يقرأ الألم على وجه الإنسان
TT

كومبيوتر.. يقرأ الألم على وجه الإنسان

كومبيوتر.. يقرأ الألم على وجه الإنسان

إلى أي مدى تستطيع الكومبيوترات أن تتفاعل مع البشر؟ إنها بالتأكيد تلعب معه الشطرنج، اللعبة التي تتطلب منطقا واستراتيجية، وحتى المخاطرة. كما تستطيع أيضا معالجة اللغات وتفهم مغاليقها. لكن في السنوات الأخيرة عكف العلماء على تحقيق هدف أكثر تعقيدا، ألا وهو برمجة الكومبيوترات لقراءة تعبيرات الوجه لدى الإنسان.
كلنا نعلم كيف نتجرع الألم الذي يجعل وجوهنا تتلوى وتتجهم، ولكن هل بالمقدور معرفة وجه الشخص الآخر، وما إذا كان متألما فعلا، أو متكلفا؟
إن التطبيقات العملية الموجودة قد تكون متعمقة وصحيحة، فأجهزة الكومبيوتر يمكنها أن تحل محل أجهزة كشف الكذب. ويمكن تركيبها في المطارات والنقاط الحدودية، كما يمكنها أن تعمل كمساعد لعمليات التشخيص لدى الأطباء.

* رصد الألم
وقد تمكن الباحثون في جامعة كاليفورنيا في سان دييغو من كتابة برنامج لا يقوم بكشف ما إذا كان وجه الشخص يعبر عن ألم حقيقي أو مزيف فحسب، بل يفعل ذلك أيضا بشكل أكثر دقة من المراقبين من البشر.
وفي الوقت الذي تمكن العلماء من تهذيب قدرة الكومبيوتر في التعرف على الفوارق الدقيقة بين الابتسامات وتهجم الوجوه، إلا أن هذه هي المرة الأولى الذي يتمكن فيها الكومبيوتر من التفوق على البشر في قراءة وجوه أفراد من صنفهم. ويقول ماثيو إيه ترك أستاذ علوم الكومبيوتر في جامعة كاليفورنيا في سانتا باربرا إن «تحقيق نجاح مثل هذا قد يكون أمرا مراوغا. فهو واحد من أمثلة كثيرة حول كيفية الوصول إلى تقنيات مفيدة بدلا من الأبحاث فقط، التي تبقى قيد المختبرات. لكن نحن هنا بعملنا هذا قد نؤثر على العالم الحقيقي».
والأفراد عادة بصورة عامة يجيدون استخدام الإشارات غير اللفظية أو الشفهية، بما فيها تعبيرات الوجه، بغية خداع الآخرين. وهم جيدون أيضا في تصنع الألم، مدركين بالغريزة لكيفية التحكم بقسمات وجوههم، للتعبير عن عدم ارتياحهم الجسدي. في حين أن الآخرين، كما تظهر الدراسة، يخفقون في كشف مثل هذا الخداع.
وفي دراسة جديدة في مجلة «كارينت بيولوجي»، أجراها باحثون من جامعات سان دييغو، وتورنتو، وولاية نيويورك في بافلو، عرضت أمام أشخاص، وأمام أجهزة كومبيوتر أيضا، فيديوهات لأشخاص يعانون من ألم حقيقي، وأخرى لأشخاص يتظاهرون به، واستطاع الكومبيوتر تمييز الحقيقي من الكاذب بدقة وحذاقة كبيرة، عن طريق تعقب حركات عضلات الوجه.
وفي هذا الصدد يقول ماريان بارليت الأستاذ الباحث في معهد الحسابات الكومبيوترية العصبية في سان دييغو، والمساهم الرئيس في هذه الدراسة: «لدينا كمية كافية من الدلائل التي تظهر أن الأشخاص يركزون اهتمامهم على الإشارات الخاطئة».
ولغرض الدراسة، استخدم الباحثون بروتوكولا متبعا لتوليد الألم عن طريق غطس الذراع في مياه مثلجة لمدة دقيقة. كما طلب الباحثون من أشخاص آخرين خضعوا للدراسة، وضع الذراع في مياه دافئة، وبالتالي اصطناع تعبير ينم عن الألم. وقام المراقبون بمشاهدة فيديو صامت لمدة دقيقة واحدة، محاولين التعرف على الأشخاص المتألمين، والآخرين الذين يتظاهرون به، وجاءت النتيجة أن نصف الأجوبة كانت صحيحة، وهو معدل قريب من التخمين.
وبعد ذلك قام الباحثون بتدريب مجموعة جديدة من المراقبين لمدة ساعة. وجرى عرض فيديو عليهم، وطلب منهم تخمين: من هو الذي يعاني من ألم حقيقي، ليجري إبلاغهم فورا بالذين تعرفوا عليهم بشكل صحيح. ثم جرى عرض المزيد من الفيديوهات عليهم ليسألوا مجددا عن أحكامهم. لكن التدريب الذي خضعوا له لم يأت سوى بفرق بسيط، إذ لم يتحسن معدل الدقة سوى قليلا إلى نسبة 55 في المائة.

* كومبيوتر متقدم
وبعد ذلك واجه الكومبيوتر هذا التحدي مستخدما برنامجا أطلق عليه باحثو سان دييغو اسم «سيرت» (CERT)، الذي يعني اختصارا «أداة التعرف على التعبيرات بواسطة الكومبيوتر» (computer expression recognition toolbox)، الذي قام بقياس حركة 20 عضلة وجه، في كل من صور الإطارات الـ1800 التي تضمنها شريط الفيديو لمدة دقيقة واحدة. وقام الكومبيوتر بتقييم الفيديوهات الـ50 التي جرت مشاهدتها من قبل المراقبين البشريين الأصليين غير المدربين.
وتمكن الكومبيوتر من تمييز الإشارات الصغيرة والسريعة التي استعصت على العين البشرية، فقد نجح في كشف سرعة تقلص العضلة وسلاستها، وفترتها الزمنية التي كانت تشير إما إلى الحقيقة، أو إلى عملية الخداع. فلدى تعرض الشخص إلى ألم حقيقي على سبيل المثال، كانت فترة فمه الفاغرة المفتوحة تراوح زمنيا، لكن عندما كان الشخص يصطنع الألم ويتظاهر به، كانت فترة فمه المفتوحة منتظمة ثابتة، ومتناسقة. أما الحركات العضلية الأخرى فقد شملت التجعد والتغصن بين الحاجبين، واقتراب العضلات المحجرية حول العينين، وغيرها من الإشارات الأخرى.
من جهته يقول جيفري كوهن أستاذ علم النفس في جامعة بتسبرغ، الذي يقوم هو أيضا ببحث على أجهزة الكومبيوتر وتعبيرات الوجه، إن «دراسة (سيرت) موجهة لمعالجة مشكلة كبيرة على الصعيد الطبي والاجتماعي معا»، إلا أنه أشار إلى أن المراقبين الذين شاركوا في الدراسة كانوا من طلاب الجامعات، وليسوا اختصاصيين في الألم.
ويعمل الدكتوران بارليت وكوهن على تطبيق تقنية التعرف على الوجوه هذه في مجال العناية الصحية، عن طريق تهذيب برنامج كومبيوتري يمكنه التعرف على شدة الألم لدى الأطفال، خصوصا وأنهم لا يستطيعون التعبير عنه، لكن الكومبيوتر يستطيع تقدير مدى هذا الألم وشدته.

* خدمة «نيويورك تايمز»



«مرايا» الذكاء الاصطناعي تعكس دواخلها «مع كل التحيزات»

«بوابة السحاب» مرآة تعكس الحياة وتشوهاتها
«بوابة السحاب» مرآة تعكس الحياة وتشوهاتها
TT

«مرايا» الذكاء الاصطناعي تعكس دواخلها «مع كل التحيزات»

«بوابة السحاب» مرآة تعكس الحياة وتشوهاتها
«بوابة السحاب» مرآة تعكس الحياة وتشوهاتها

قبل بضع سنوات، وجدت شانون فالور نفسها أمام تمثال «بوابة السحاب (Cloud Gate)»، الضخم المُصمَّم على شكل قطرة زئبقية من تصميم أنيش كابور، في حديقة الألفية في شيكاغو. وبينما كانت تحدق في سطحه اللامع المرآتي، لاحظت شيئاً، كما كتب أليكس باستيرناك (*).

وتتذكر قائلة: «كنت أرى كيف أنه لا يعكس أشكال الأفراد فحسب، بل والحشود الكبيرة، وحتى الهياكل البشرية الأكبر مثل أفق شيكاغو... ولكن أيضاً كانت هذه الهياكل مشوَّهة؛ بعضها مُكبَّر، وبعضها الآخر منكمش أو ملتوٍ».

الفيلسوفة البريطانية شانون فالور

تشويهات التعلم الآلي

بالنسبة لفالور، أستاذة الفلسفة في جامعة أدنبره، كان هذا يذكِّرنا بالتعلم الآلي، «الذي يعكس الأنماط الموجودة في بياناتنا، ولكن بطرق ليست محايدة أو موضوعية أبداً»، كما تقول. أصبحت الاستعارة جزءاً شائعاً من محاضراتها، ومع ظهور نماذج اللغة الكبيرة (والأدوات الكثيرة للذكاء الاصطناعي التي تعمل بها)، اكتسبت مزيداً من القوة.

مرايا الذكاء الاصطناعي مثل البشر

تبدو «مرايا» الذكاء الاصطناعي مثلنا كثيراً؛ لأنها تعكس مدخلاتها وبيانات التدريب، مع كل التحيزات والخصائص التي يستلزمها ذلك. وبينما قد تنقل القياسات الأخرى للذكاء الاصطناعي شعوراً بالذكاء الحي، فإن «المرآة» تعبير أكثر ملاءمة، كما تقول فالور: «الذكاء الاصطناعي ليس واعياً، بل مجرد سطح مسطح خامل، يأسرنا بأوهامه المرحة بالعمق».

غلاف كتاب «مرايا الذكاء الاصطناعي»

النرجسية تبحث عن صورتها

كتابها الأخير «مرآة الذكاء الاصطناعي (The AI Mirror)»، هو نقد حاد وذكي يحطِّم عدداً من الأوهام السائدة التي لدينا حول الآلات «الذكية». يوجه بعض الاهتمام الثمين إلينا نحن البشر. في الحكايات عن لقاءاتنا المبكرة مع برامج الدردشة الآلية، تسمع أصداء نرجس، الصياد في الأساطير اليونانية الذي وقع في حب الوجه الجميل الذي رآه عندما نظر في بركة من الماء، معتقداً بأنه شخص آخر. تقول فالور، مثله، «إن إنسانيتنا مُعرَّضة للتضحية من أجل هذا الانعكاس».

تقول الفيلسوفة إنها ليست ضد الذكاء الاصطناعي، لكي نكون واضحين. وسواء بشكل فردي، أو بصفتها المديرة المشارِكة لمنظمة «BRAID»، غير الربحية في جميع أنحاء المملكة المتحدة المكرسة لدمج التكنولوجيا والعلوم الإنسانية، قدَّمت فالور المشورة لشركات وادي السيليكون بشأن الذكاء الاصطناعي المسؤول.

نماذج «مسؤولة» ومختبرة

وهي ترى بعض القيمة في «نماذج الذكاء الاصطناعي المستهدفة بشكل ضيق والآمنة والمختبرة جيداً والمبررة أخلاقياً وبيئياً» لمعالجة المشكلات الصحية والبيئية الصعبة. ولكن بينما كانت تراقب صعود الخوارزميات، من وسائل التواصل الاجتماعي إلى رفاق الذكاء الاصطناعي، تعترف بأن ارتباطها بالتكنولوجيا كان مؤخراً «أشبه بالوجود في علاقة تحوَّلت ببطء إلى علاقة سيئة. أنك لا تملك خيار الانفصال».

فضائل وقيم إنسانية

بالنسبة لفالور، إحدى الطرق للتنقل وإرشاد علاقاتنا المتزايدة عدم اليقين بالتكنولوجيا الرقمية، هي الاستفادة من فضائلنا وقيمنا، مثل العدالة والحكمة العملية. وتشير إلى أن الفضيلة لا تتعلق بمَن نحن، بل بما نفعله، وهذا جزء من «صراع» صنع الذات، بينما نختبر العالم، في علاقة مع أشخاص آخرين. من ناحية أخرى، قد تعكس أنظمة الذكاء الاصطناعي صورة للسلوك أو القيم البشرية، ولكن كما كتبت في كتابها، فإنها «لا تعرف عن التجربة الحية للتفكير والشعور أكثر مما تعرف مرايا غرف نومنا آلامنا وأوجاعنا الداخلية».

الخوارزميات والعنصرية وعدم المساواة

في الوقت نفسه تعمل الخوارزميات المدربة على البيانات التاريخية، بهدوء، على تقييد مستقبلنا بالتفكير نفسه الذي ترك العالم «مليئاً بالعنصرية والفقر، وعدم المساواة، والتمييز، وكارثة المناخ».

«كيف سنتعامل مع تلك المشكلات الناشئة التي ليست لها سابقة؟»، تتساءل فالور، وتشير: «مرايانا الرقمية الجديدة تشير إلى الوراء».

الاعتماد على السمات البشرية المفيدة

مع اعتمادنا بشكل أكبر على الآلات، وتحسينها وفقاً لمعايير معينة مثل الكفاءة والربح، تخشى فالور أننا نخاطر بإضعاف عضلاتنا الأخلاقية أيضاً، وفقدان المسار للقيم التي تجعل الحياة تستحق العناء.

مع اكتشافنا لما يمكن أن يفعله الذكاء الاصطناعي، سنحتاج إلى التركيز على الاستفادة من السمات البشرية الفريدة أيضاً، مثل التفكير القائم على السياق والحكم الأخلاقي، وعلى تنمية قدراتنا البشرية المتميزة. كما تعلمون. وهي تقول: «لسنا بحاجة إلى هزيمة الذكاء الاصطناعي. نحن بحاجة إلى عدم هزيمة أنفسنا».

* مجلة «فاست كومباني» - خدمات «تريبيون ميديا»

اقرأ أيضاً