برامج ذكاء صناعي منفلتة تزوّر الوجوه والأصوات

تقنية «التزوير العميق» تزدهر مع انعدام التشريعات القانونية

يغطى الوجه بإطار من الأسلاك بهدف إجراء التغييرات بتقنية «التزوير العميق»
يغطى الوجه بإطار من الأسلاك بهدف إجراء التغييرات بتقنية «التزوير العميق»
TT

برامج ذكاء صناعي منفلتة تزوّر الوجوه والأصوات

يغطى الوجه بإطار من الأسلاك بهدف إجراء التغييرات بتقنية «التزوير العميق»
يغطى الوجه بإطار من الأسلاك بهدف إجراء التغييرات بتقنية «التزوير العميق»

تُستخدم تقنية «ديب فيك» (برنامج إلكتروني يتيح للنّاس تبديل الوجوه، والأصوات، وغيرها من السمات لابتكار محتوى رقمي مزوّر) منذ بضع سنوات لصناعة بديلٍ لإيلون ماسك وهو يروّج لعملية احتيال بواسطة العملات المشفّرة، أو «لتعرية» أكثر من 100 ألف امرأة رقمياً على منصّة تليغرام، أو لسرقة ملايين الدولارات من شركات عبر تقليد أصوات تنفيذيّيها على الهاتف.

تقنية منفلتة

تعجز السلطات في معظم أنحاء العالم عن التعامل مع هذه التقنية، حتّى إنّ القوانين التي تضبط انتشارها لا تزال قليلة جداً، على الرغم من نموّ هذا البرنامج وزيادة تطوّره ووصوله للمستخدمين.
وتأمل الصين أن تكون استثناءً في هذا المجال بعد أن أقرّت الشهر الماضي قوانين جديدة تفرض الحصول على موافقة الشخص أو صاحب موضوع المادّة التي أخضعت للتلاعب، وأن تحمل دمغات بتواقيع رقمية أو علامات مائية، وإجبار مزوّدي خدمات «ديب فيك» على توفير وسائل لـ«دحض الشائعات».
لكنّ الصين تواجه العقبات نفسها التي أدت إلى إحباط جهود سابقة لتنظيم المواد المزيّفة التي تنتجها هذه التقنية. ذلك لأنّ أسوأ مستخدميها يكونون غالباً الأصعب ضبطاً لأنّهم يعملون دون هوية، ويتأقلمون بسرعة، ويتشاركون بابتكاراتهم الصناعية من خلال منصّات إلكترونية مفتوحة. سلّطت خطوة الصين الضوء أيضاً على سببٍ آخر لتبنّي عددٍ قليلٍ من الدول قوانين ضابطة في هذا المجال، وهو شعور كثيرين بالقلق من استخدام الحكومات هذه القوانين لخنق حريّة التعبير.
ويرى خبراء التقنية أنّ مجرّد مضيّ الصين بتطبيقها لقوانينها الجديدة سيؤثّر على كيفية تعاطي حكومات أخرى مع التعلّم الآلي والذكاء الصناعي اللذين يشغّلان تقنية «ديب فيك». وبسبب السوابق القليلة في هذا المجال، يبحث المشرّعون اليوم حول العالم عن حالات اختبار للّحاق بالصين أو رفض خطوتها.
يعتبر رافيت دوتان، باحثٌ في مرحلة ما بعد الدكتوراه ومدير مختبر «كولابوريتف إي آي ريسبونسبليتي» في جامعة بيتسبرغ، أنّ «مشهد الذكاء الصناعي مثير لاهتمام السياسات العالمية، لأنّ الدول تتنافس لفرض طريقة التعامل مع هذه المسألة. نعلم أنّ القوانين آتية، لكنّنا لا نعرف ما هي بعد، إذ يوجد كثير من الاحتمالات».

تطبيقات واعدة ومخيفة

تحمل تقنيات «ديب فيك» آمالاً واعدة في قطاعات كثيرة. فقد أحيت الشرطة الهولندية العام الفائت قضية مجمّدة من عام 2003 بابتكار شخصية رقمية لضحية جريمة قتل (13 عاماً) ونشرت صوراً له يسير بين مجموعة من أصدقائه وأفراد عائلته في الزمن الحاضر. تُستخدم التقنية أيضاً للسخرية والتهكّم، وتخدم المتبضّعين الإلكترونيين في تجربة الملابس في غرف تبديل افتراضية، وفي محاكاة المتاحف، ومن قبل الممثلين الذين يأملون التحدّث بلغات عدّة في إطلاقات الأفلام الدولية. علاوةً على ذلك، استخدم باحثون من مختبر الإعلام في معهد ماساتشوستس للتقنية، وفي منظّمة اليونيسف، تقنيات مشابهة لدراسة حالات التعاطف، من خلال وضع مشاهد الحرب والدمار، التي سبّبتها الحرب السورية، على صور مدن في أميركا الشمالية وأوروبا.
في المقابل، يساهم برنامج «ديب فيك» في تطبيقاتٍ مخيفة كثيرة أيضاً، إذ يتخوّف خبراء القانون من أن سوء استخدام تقنيات «ديب فيك» يهشم ثقة الناس بشرائط المراقبة الأمنية، والكاميرات الجسدية، وغيرها من الأدلّة، «ففي قضية حضانة في إحدى المحاكم البريطانية عام 2019، قدّم وكيل أحد الأبوين مقطعاً معدّلاً يظهر الطرف الآخر وهو يهدّد الطفل بعنف».
قد يساهم المحتوى الرقمي المزوّر أيضاً بتشويه سمعة رجال الشرطة والتحريض عليهم، أو في إرسالهم في مهام كاذبة. وكانت وزارة الأمن الداخلي في الولايات المتحدة قد حذّرت من مخاطر أخرى للـ«ديب فيك»، أبرزها التنمّر الإلكتروني، والابتزاز، والتلاعب بالبورصة، والاضطرابات السياسية.
ويتوقّع بعض الخبراء أن يصبح 90 في المائة من المحتوى الإلكتروني مفبركاً خلال سنواتٍ قليلة.
وأشار تقرير لليوروبول (وكالة تطبيق القانون الأوروبية) العام الماضي إلى أنّ العدد المتزايد لمواد «ديب فيك» يمكن أن يؤدّي إلى وضعٍ يفتقر فيه النّاس إلى واقعٍ مشترك، أو يؤسس لارتباك اجتماعي حول أيّ من مصادر المعلومات يتمتّع بالموثوقية، أي ما يُعرف بـ«نهاية عالم المعلومات» أو «لا مبالاة الواقع».

فشل قانوني

تحدّث مسؤولون بريطانيون العام الفائت أيضاً عن تهديدات عدّة، أبرزها موقع إلكتروني «يعرّي النساء افتراضياً» حصد 38 مليون زيارة في الأشهر الثمانية الأولى من 2021. لكنّ الاقتراحات القاضية بوضع ضوابط لهذه التقنية في المملكة المتحدة ودول الاتحاد الأوروبي لا تزال بانتظار تحويلها إلى قوانين.
وفي الولايات المتّحدة، باءت محاولات تشكيل قوّة خاصّة لمعاينة تقنية «ديب فيك» بالفشل. ففي عامي 2019 و2021 تقدّمت عضو الكونغرس إيفيت د. كلارك، بمشروع قانون، عنوانه «الدفاع عن كلّ شخص من الإطلالات المزيفة من خلال شمل فعل الاستغلال بقانون المحاسبة»، لكنّه لا يزال بانتظار التصويت عليه. وتحدّثت كلارك عن نيّتها تقديم مشروع القانون نفسه هذا العام أيضاً.
واعتبرت كلارك أنّ قانونها، الذي سيفرض على محتوى «ديب فيك» عرض علامات مائية أو أسماء تعريفية، كان «إجراءً للحماية» على عكس القوانين الصينية التي وصفتها بأنّها «تميل إلى آليات للسيطرة».
وتستهدف القوانين المطبّقة في الولايات المتّحدة بمعظمها المقاطع المزيّفة السياسية والإباحية. من جهته، قال مارك بيرمن، عضو الحزب الديمقراطي في جمعية ولاية كاليفورنيا، الذي يمثّل أجزاء من وادي سيليكون، ويرعى هذا النوع من التشريعات، إنّه ليس على علمٍ بأيّ جهود تُبذل لإنفاذ قوانينه عبر الدعاوى القانونية أو الغرامات.
وتحظر ولايات قليلة أخرى، كنيويورك، المحتوى المزيّف الإباحي. وخلال ترشّحه لدورة أخرى في انتخابات عام 2019، قال حاكم ولاية هيوستن إنّ إعلاناً حساساً تابعاً لمرشّح آخر خرق أحد قوانين تكساس التي تحظر المحتوى السياسي المضلّل المصمّم بتقنيات «ديب فيك».
لكنّ القوانين وقرارات الحظر قد تواجه صعوبة في احتواء تقنية صُمّمت للتأقلم والتحسّن المستمر. فقد أثبت باحثون من مؤسسة راند للأبحاث والتطوير مدى صعوبة تحديد محتوى «ديب فيك»، بعرض مجموعة مقاطع فيديو على أكثر من 3 آلاف شخص، طلبوا منهم تحديد المقاطع المزوّرة (كمقطع «ديب فيك» الذي أظهر الناشطة في مجال المناخ غريتا تونبرغ وهي تتنصّل من نظرية وجود التغير المناخي).
أخطأت المجموعة المشاركة في ثلث الحالات، حتّى إنّ عشرات الطلّاب الذين يدرسون التعلّم الآلي في جامعة كارنيغي ميلون أخطأوا في أكثر من 20 في المائة من المرّات.
وتحاول مبادرات من شركات كـ«مايكروسوفت» و«أدوبي» اليوم إثبات أصالة المواد الإعلامية وتدريب تقنيات الاعتدال للتعرّف على التناقضات التي تكشف المحتوى المفبرك. لكنّ المعاناة في التفوق على صانعي محتوى «ديب فيك» حقيقية ومتواصلة، لأنّهم يكتشفون غالباً وسائل جديدة لتصحيح العيوب، وإزالة العلامات المائية المعرّفة، وتعديل البيانات الوصفية لتغطية آثارهم.
وأخيراً، يقول جاريد موندشين، عالم في مؤسسة راند: «يوجد سباق تسلّح تقني بين صانعي مقاطع (ديب فيك) وراصديها، وحتّى يحين وقت البدء بابتكار وسائل تحسّن رصد المحتوى المزوّر، سيكون من الصعب على أيّ تشريعات، مهما كثرت، أن تضع حداً لهذا الموضوع».

* خدمة «نيويورك تايمز»


مقالات ذات صلة

بسبب محتوى فاضح... تدقيق عالمي في روبوت الدردشة «غروك»

تكنولوجيا شعار روبوت الدردشة «غروك» من «إكس إيه آي» التابعة لشركة «إكس» (رويترز)

بسبب محتوى فاضح... تدقيق عالمي في روبوت الدردشة «غروك»

تشنّ حكومات وجهات تنظيمية حول ‌العالم حملة على محتوى جنسي فاضح ينتجه روبوت الدردشة «غروك» من «إكس إيه آي» التابعة لشركة «إكس» المملوكة للملياردير إيلون ماسك.

«الشرق الأوسط» (واشنطن)
الاقتصاد رسم بياني في بورصة نيويورك يعرض رقماً خلال اليوم لمؤشر «SPY» الذي يتتبع «ستاندرد آند بورز» (أ.ب)

الذكاء الاصطناعي يهز ثقة المستثمرين في قطاعات «وول ستريت» التقليدية

لم يعد الذكاء الاصطناعي مجرد محرك للصعود في أسواق المال بل بدأ يظهر وجهه الآخر بوصفه عامل «تعطيل» يهدد نماذج الأعمال التقليدية

«الشرق الأوسط» (نيويورك)
الاقتصاد الرئيس التنفيذي لشركة «غوغل» سوندار بيتشاي يتفاعل مع وزير الإعلام والتكنولوجيا الهندية أشويني فايشناو في 2022 (أ.ب)

الهند تخطط لجذب 200 مليار دولار في قطاع مراكز البيانات

تتطلع الهند لجذب استثمارات ضخمة تصل إلى 200 مليار دولار في قطاع مراكز البيانات خلال السنوات القليلة المقبلة.

«الشرق الأوسط» (نيودلهي)
أوروبا «غروك» يقوم بتوليد الصور عبر تقنيات الذكاء الاصطناعي (رويترز) p-circle

فتح تحقيق أوروبي في توليد «غروك» لصور ذات طابع جنسي على منصة «إكس»

فتح الاتحاد الأوروبي، الثلاثاء، تحقيقاً في قيام برنامج الدردشة الآلي «غروك» على منصة «إكس» والمدعوم بالذكاء الاصطناعي، بتوليد صور جنسية بتقنية التزييف العميق.

«الشرق الأوسط» (دبلن)

بسبب محتوى فاضح... تدقيق عالمي في روبوت الدردشة «غروك»

شعار روبوت الدردشة «غروك» من «إكس إيه آي» التابعة لشركة «إكس» (رويترز)
شعار روبوت الدردشة «غروك» من «إكس إيه آي» التابعة لشركة «إكس» (رويترز)
TT

بسبب محتوى فاضح... تدقيق عالمي في روبوت الدردشة «غروك»

شعار روبوت الدردشة «غروك» من «إكس إيه آي» التابعة لشركة «إكس» (رويترز)
شعار روبوت الدردشة «غروك» من «إكس إيه آي» التابعة لشركة «إكس» (رويترز)

تشنّ حكومات وجهات تنظيمية حول ‌العالم حملة على محتوى جنسي فاضح ينتجه روبوت الدردشة «غروك» من «إكس إيه آي» التابعة لشركة «إكس» المملوكة للملياردير إيلون ماسك، تشمل تحقيقات وحظراً، وتطالب بضمانات، في إطار مسعى عالمي متنامٍ للحد من المواد غير القانونية. فيما يلي بعض ردود الفعل من حكومات وجهات تنظيمية حول العالم...

أوروبا

- ​فتحت المفوضية الأوروبية في 26 يناير (كانون الثاني) تحقيقاً بشأن ما إذا كان «غروك» ينشر محتوى غير قانوني في الاتحاد الأوروبي، يشمل صوراً جنسية معدلة. ويدرس التحقيق ما إذا كانت شركة «إكس» قيّمت المخاطر وحدّت منها على النحو المطلوب بموجب القواعد الرقمية للاتحاد.

- مددت المفوضية في 8 يناير أمراً أرسلته إلى «إكس» العام الماضي، يلزمها بالاحتفاظ بجميع الوثائق والبيانات الداخلية المتعلقة بـ«غروك» حتى نهاية 2026.

- فتحت هيئة حماية البيانات في آيرلندا تحقيقاً بشأن «غروك» في 17 فبراير (شباط) لاختبار طريقة تعامله مع البيانات الشخصية وقدراته على إنتاج صور ومقاطع فيديو جنسية ضارة بأشخاص، من بينهم قصر. وتشرف الهيئة على شركة «إكس» داخل الاتحاد، حيث يقع مقرها الأوروبي في آيرلندا.

- قال رئيس الوزراء الإسباني بيدرو سانتشيث إن الحكومة أمرت مدعين بالتحقيق مع شركات «إكس» و«ميتا» ‌و«تيك توك» بتهمة ‌توزيع مواد مولدة بالذكاء الاصطناعي تستغل الأطفال جنسياً.

- فتحت هيئة تنظيم الاتصالات البريطانية (​أوفكوم) ‌تحقيقاً ⁠بشأن «إكس» لتحديد ​ما ⁠إذا كانت الشركة قد أخلت بواجبها في حماية المستخدمين في بريطانيا من المحتوى الذي قد يكون غير قانوني بموجب إطار عمل قانون السلامة على الإنترنت، عن طريق إنتاج «غروك» مقاطع فيديو مزيفة عن علاقات جنسية.

- داهمت وحدة مكافحة الجرائم الإلكترونية التابعة لمكتب المدعي العام في باريس مقر شركة «إكس» في العاصمة الفرنسية يوم 3 فبراير (شباط)، وأمرت ماسك بالردّ على أسئلة ستوجه إليه في أبريل (نيسان) ضمن تحقيق موسع عما يقال عن تحيز الخوارزميات والتواطؤ في احتجاز ونشر صور أطفال ذات طبيعة إباحية وانتهاك حقوق الأفراد في الصور الشخصية، من خلال تزييفها بمحتوى جنسي فاضح.

- حذّرت هيئة حماية البيانات الإيطالية من أن استخدام أدوات الذكاء الاصطناعي لإنشاء صور مزيفة ⁠بدقة عالية و«فاضحة» لأشخاص حقيقيين دون موافقة يشكل انتهاكات خطيرة للخصوصية، ويشكل في بعض الحالات ‌أيضاً جرائم جنائية.

شعار روبوت الدردشة «غروك» يظهر على شاشتين (أ.ف.ب)

آسيا

- أرسلت وزارة تكنولوجيا المعلومات في الهند مذكرة رسمية ‌إلى «إكس» في 2 يناير بشأن اتهامات عن إنتاج صور جنسية ​فاضحة باستخدام إمكانات «غروك» وتداولها، وطالبت بإزالة هذا المحتوى، وطلبت ‌تقريراً عن الإجراءات التي ستتخذ خلال 72 ساعة.

- حقّقت اليابان أيضاً مع «إكس» بشأن «غروك»، وقالت إن الحكومة ‌ستدرس كل الخيارات الممكنة لمنع توليد صور غير لائقة.

- قالت وزارة الاتصالات والشؤون الرقمية في إندونيسيا إنها حظرت الوصول إلى «غروك»، وهي خطوة قالت وزيرة الاتصالات الإندونيسية، ميوتيا حفيظ، إنها تهدف إلى حماية النساء والأطفال من المحتوى الإباحي المزيف الذي ينتجه الذكاء الاصطناعي، مستندة إلى قوانين البلاد الصارمة لمكافحة تداول المواد الإباحية.

- ذكرت هيئة تنظيم الاتصالات في ماليزيا، يوم 23 يناير، أن البلاد أعادت إمكانية دخول المستخدمين على «غروك» ‌بعد أن طبّقت «إكس» إجراءات أمان إضافية.

- أعلنت وحدة مكافحة الجرائم الإلكترونية في الفلبين، يوم 21 يناير، إعادة تفعيل «غروك» بعد أن تعهدت الشركة المطورة بإزالة أدوات التلاعب ⁠بالصور، التي أثارت مخاوف ⁠بشأن سلامة الأطفال.

الأميركتان

- قال حاكم ولاية كاليفورنيا والمدعي العام، في 14 يناير، إنهما طالبا «إكس إيه آي» بالردّ، في ظل انتشار صور جنسية على منصتها من دون موافقة المستخدمين.

- ذكرت هيئة حماية الخصوصية في كندا أنها توسع نطاق تحقيق قائم بشأن «إكس»، بعد ورود تقارير عن إنتاج «غروك» صوراً مفبركة ذات محتوى جنسي فاضح من دون موافقة المستخدمين.

- قالت الحكومة ومدعون في البرازيل، في بيان مشترك، صدر يوم 20 يناير، إنهما أمهلا شركة «إكس إيه آي» مهلة مدتها 30 يوماً لمنع روبوت الدردشة من نشر محتوى جنسي مفبرك.

منطقة الأوقيانوس

- قالت الهيئة المعنية بالسلامة الإلكترونية على الإنترنت في أستراليا (إي سيفتي)، في 7 يناير، إنها تحقق في صور جنسية رقمية «فاضحة» جرى إنتاجها بتزييف بالغ الدقة بواسطة «غروك»، وتقيّم محتوى إباحياً بموجب برنامجها المخصص لمكافحة الانتهاكات عبر الصور، مشيرة إلى أن الأمثلة الحالية المتعلقة بالأطفال التي راجعتها لا تفي بالحدّ القانوني لمواد تمثل انتهاكات جنسية للأطفال، بموجب القانون الأسترالي.

كيف ردّت «إكس إيه آي»؟

- قالت الشركة، في 14 يناير، إنها ​فرضت على مستخدمي «غروك» قيوداً على استخدام ميزة تعديل الصور، ​ومنعتهم بناء على مواقعهم الجغرافية من توليد صور لأشخاص يرتدون ملابس فاضحة في «المناطق التي يعدّ فيها ذلك غير قانوني». ولم تحدد هذه الدول.

- قصرت الشركة في وقت سابق استخدام خاصيتي توليد «غروك» للصور وتعديلها على من يدفعون اشتراكات فقط.


بسبب محتوى يضر الأطفال... إسبانيا تحقق مع «إكس» و«ميتا» و«تيك توك»

رئيس الوزراء الإسباني بيدرو سانشيز (إ.ب.أ)
رئيس الوزراء الإسباني بيدرو سانشيز (إ.ب.أ)
TT

بسبب محتوى يضر الأطفال... إسبانيا تحقق مع «إكس» و«ميتا» و«تيك توك»

رئيس الوزراء الإسباني بيدرو سانشيز (إ.ب.أ)
رئيس الوزراء الإسباني بيدرو سانشيز (إ.ب.أ)

ذكر رئيس الوزراء الإسباني بيدرو سانشيز، اليوم الثلاثاء، أن الحكومة وجّهت ممثلي الادعاء للتحقيق مع منصات ​التواصل الاجتماعي «إكس» و«ميتا» و«تيك توك» بسبب ما تردَّد حول نشر محتوى مُنتَج بتقنيات الذكاء الاصطناعي يشكل استغلالاً جنسياً للأطفال.

يأتي هذا في الوقت الذي تُشدد فيه الجهات التنظيمية الأوروبية التدقيق على شركات التكنولوجيا الكبرى، قائلة إن الممارسات المُسيئة على المنصات الإلكترونية متباينة؛ بداية من السلوك المناهض للمنافسة في الإعلانات الرقمية، وحتى تعمُّد تقديم الميزات الإدمانية على وسائل التواصل الاجتماعي.

ولم تردَّ الشركات الثلاث بعدُ ‌على طلبات ‌التعليق المرسَلة عبر البريد الإلكتروني، وفق وكالة «رويترز».

وذكر مكتب رئيس ​الوزراء، ‌في ⁠بيان ​لاحق، أن ⁠هذه الخطوة استندت إلى تقرير فني من ثلاث وزارات، وهي الأولى ضِمن حزمة اللوائح التنظيمية المتعلقة بوسائل التواصل الاجتماعي، والتي كشف عنها سانشيز في قمة حكومية بدبي، مطلع هذا الشهر.

وقالت المتحدثة باسم الحكومة إلما سايث، للصحافيين، إن السلطات «لا يمكنها السماح للخوارزميات بزيادة أو حماية» مثل هذه الجرائم، مضيفة أن سلامة الأطفال وخصوصيتهم ⁠وكرامتهم معرضة للخطر.

ونقل مكتب سانشيز عن منظمة «أنقذوا ‌الأطفال» الحقوقية قولها إن واحداً من ‌كل خمسة شبان في إسبانيا، معظمهم ​من الفتيات، قالوا إن صوراً عارية ‌مزيَّفة لهم أُنشئت من خلال الذكاء الاصطناعي، ونُشرت على الإنترنت عندما ‌كانوا قُصّراً.

وكتب سانشيز، على حسابه عبر منصة «إكس»: «هذه المنصات تُقوض الصحة العقلية لأطفالنا وكرامتهم وحقوقهم. لا يمكن للدولة أن تسمح بذلك. يجب أن ينتهي إفلات هذه الشركات الكبرى من العقاب».

وقال إن وزارة العدل ستطلب ‌من مسؤولي الادعاء «التحقيق في جرائم يحتمل أن شركات (إكس) و(ميتا) و(تيك توك) ترتكبها من خلال ⁠إنشاء ونشر مواد ⁠إباحية للأطفال باستخدام تقنيات الذكاء الاصطناعي الخاصة بها».

ولا تُعد إسبانيا الدولة الوحيدة التي تُشدد الرقابة على منصات التواصل الاجتماعي إذ فتحت حكومات أخرى تحقيقات وفرضت حظراً وسعت إلى وضع ضمانات في إطار حملة عالمية متنامية للحد من المحتوى غير القانوني.

وتُجري المفوضية الأوروبية تحقيقاً مع «ميتا» و«تيك توك» و«غروك»، بموجب قانون الخدمات الرقمية للاتحاد الأوروبي، في حين أقامت فرنسا والبرازيل وكندا دعاوى على «غروك» بتهمة توزيع محتوى غير قانوني.

وأعلن سانشيز، في وقت سابق من هذا الشهر، عدة تدابير تهدف إلى الحد من الأضرار عبر ​الإنترنت وحماية الأطفال، بما ​في ذلك اقتراح بحظر الوصول إلى منصات التواصل الاجتماعي لمن هم دون سن 16 عاماً.


آلة بالذكاء الاصطناعي… تحوّل الصور إلى روائح

الصورة لعائلة من أربعة أشخاص تتمتع بجلسة على شاطئ مع شكل الآلة الجديدة وجمع العطور وشمها
الصورة لعائلة من أربعة أشخاص تتمتع بجلسة على شاطئ مع شكل الآلة الجديدة وجمع العطور وشمها
TT

آلة بالذكاء الاصطناعي… تحوّل الصور إلى روائح

الصورة لعائلة من أربعة أشخاص تتمتع بجلسة على شاطئ مع شكل الآلة الجديدة وجمع العطور وشمها
الصورة لعائلة من أربعة أشخاص تتمتع بجلسة على شاطئ مع شكل الآلة الجديدة وجمع العطور وشمها

تخيّل ذكرى من الطفولة، ذكرى تبدو حقيقية، وحنينية، لكنها في الوقت نفسه بعيدة المنال: ربما رحلة عائلية إلى الشاطئ، أو لحظة مرح على أرجوحة في الملعب، أو عصر قضيناه في البحث عن أوراق نباتات فوّاحة. الآن، تخيّل أن بإمكانك تعبئة تلك اللحظة الذهبية... في عطر، كما كتبت غريس سنيلينغ(*).

جهاز «الحنين» يولد الرائحة

يعمل العالم سايروس كلارك من معهد ماساتشوستس للتكنولوجيا على تحقيق ذلك. وبالتعاون مع فريق من الباحثين، طوّر كلارك آلة تُسمى «جهاز أنيمويا» Anemoia Device، تستخدم نموذجاً توليدياً للذكاء الاصطناعي لتحليل صورة أرشيفية، ثم وصفها بجملة قصيرة، وبناءً على مدخلات إضافية من المستخدم، فإنها تحوّل ذلك الوصف إلى عطر فريد.

وكان الكاتب جون كونيغ صاغ مصطلح «أنيمويا»، وأدرجه في كتابه «قاموس الأحزان الخفية» الصادر عام 2021. ويشير المصطلح إلى شعورٍ خاص بالحنين إلى زمنٍ أو مكانٍ لم يعشه المرء بنفسه، وهو تحديداً ما يأمل فريق كلارك في تجسيده من خلال جهاز أنيمويا.

الذاكرة الممتدة

ووفقاً لورقة بحثية نشرها الفريق، يستكشف الجهاز مفهوم «الذاكرة الممتدة»، أو فكرة أن الذاكرة في العصر الرقمي تُخزَّن، ثم يتم استجلابها بشكلٍ متزايد عبر وسائط خارجية، كالأرشيفات الرقمية.

وقد أظهرت الدراسات بالفعل أن الذاكرة قد تتشكل بشكلٍ غير مباشر، كما هو الحال عندما تُشكِّل روايةٌ منقولة، ربما من أحد الوالدين، ذكريات المرء. لكن جهاز أنيمويا هو تجربةٌ تفاعليةٌ ملموسةٌ وممتعةٌ تُبيِّن كيف يمكن للذكاء الاصطناعي أن يُتيح للمستخدمين تجربة ذكرى ماضٍ لم يعيشوه.

جهاز فريد

يبدو جهاز أنيمويا وكأنه شيءٌ قد يجده المرء في الجناح الطبي لسفينة فضاءٍ من أفلام الخيال العلمي القديمة. وهو جهاز صغير الحجم، مصنوع من المعدن والبلاستيك، ومزود بشاشة خضراء نيون فريدة، ومجموعة بسيطة من ثلاثة أقراص تحكم. في أسفله، يوجد دورق زجاجي لالتقاط العطر النهائي.

للبدء، يُدخل المستخدم صورة في الجهاز. يقوم نموذج لغة-رؤية مدمج (VLM) بتحليل الصورة، وإنشاء تعليق أولي بناءً على ما يجده. على سبيل المثال، بالنسبة لصورة سياح في الصين، كما ورد في البحث، قد يكتب الجهاز: «سائح يرتدي بنطلوناً قصيراً أسود وطفل يقفان عند مدخل سور الصين العظيم، مع الدرجات الحجرية الشهيرة والمناظر الجبلية الممتدة نحو السماء».

بعد ذلك، يمكن للمستخدمين تعديل خصائص التعليق باستخدام الأقراص الثلاثة: الأول لتحديد الشخص أو الشيء الذي يجب أن يكون محور الصورة؛ والثاني لوصف عمر الشخص أو الشيء؛ والثالث لوصف جو المشهد.

يقول كلارك: «أنا شخصياً مهتم جداً بابتكار واجهات مادية جديدة للذكاء الاصطناعي التوليدي». يقوم نموذج تعلم اللغة، المبني على «تشات جي بي تي-40» ChatGPT-40، بتجميع النص الأصلي ومدخلات المستخدم في سرد ​​شعري قصير. إذا اخترنا سور الصين العظيم نفسه موضوعاً للنص المذكور، فستكون النتيجة شيئاً مثل: «لعدة قرون، من فترة الممالك المتحاربة إلى عهد أسرة مينغ، راقبتُ بفرح مسيرة الزمن، وعدداً لا يحصى من المسافرين على دربي المصنوع من الحجر والطوب والخشب».

ثم تأتي المهمة الأكثر إثارة للإعجاب لنموذج تعلم اللغة: تحويل هذه القصيدة المكتوبة إلى رائحة ملموسة.

* دُرّب النموذج على الاختيار من مكتبة عطرية تضم 50 عطراً*

الرائحة بوابة للذاكرة

لا تقتصر عملية تطوير العطور على تحديد المكونات العطرية المناسبة فحسب، بل تتعداها إلى استحضار المشاعر الصحيحة.

وقد درّب فريق كلارك النموذج على الاختيار من مكتبة عطرية تضم 39 عطراً مختلفاً (تم توسيعها لاحقاً لتشمل 50 عطراً)، وتتراوح بين رائحة الكتب القديمة والجلد والتراب. وتم ترميز كل عطر بمجموعة من الأوصاف، مع تحديد تفاصيل مثل مكوناته الأساسية، والمفاهيم المرتبطة به، وأقوى المشاعر التي يثيرها. يستخدم نموذج اللغة الكبير (LLM) تدريبه لاختيار العطور المناسبة، وتحديد كمية كل منها في التركيبة النهائية.

شاشة عرض عطرية وأربع مضخات

تُوجّه جميع هذه المعلومات إلى شاشة عرض عطرية مخصصة، تستخدم أربع مضخات لسحب السائل اللازم من قواريره إلى الكأس (تتضمن التركيبة النهائية لعطر سور الصين العظيم رائحة نار المخيم والتراب وخشب الأرز والخيزران). يستطيع جهاز أنيمويا التقاط نطاق لا حصر له من الروائح، بدءاً من رائحة شاطئ رملي في يوم صيفي حار في ثمانينات القرن الماضي، وصولاً إلى عبير من زوجين يستمتعان بتناول إجاصة في حديقة خلابة.

ابتكار قصص خيالية جميلة وعطرة عن ماضٍ لم نعشه

خلصت الدراسة إلى أن الجهاز يمثل استفزازاً يطرح تساؤلات حول «معنى التذكر عندما يمكن توليد الذاكرة نفسها، ومعنى الشعور عندما يُشارك الجهاز في صياغته، ومعنى الإنسانية عندما نستطيع ابتكار قصص خيالية جميلة وعطرة عن ماضٍ لم نعشه قط».

* مجلة «فاست كومباني»