مزايا واعدة في «تشات جي بي تي» تثير مخاوف اختراق الخصوصية

«التحليل البصري» يساعد المكفوفين لكنه يتعرف على الوجوه

مزايا واعدة في «تشات جي بي تي» تثير مخاوف اختراق الخصوصية
TT

مزايا واعدة في «تشات جي بي تي» تثير مخاوف اختراق الخصوصية

مزايا واعدة في «تشات جي بي تي» تثير مخاوف اختراق الخصوصية

طُرح من برنامج المحادثة الذكي الشهير «تشات جي بي تي»، إصدارٌ متقدّم قادر على تحليل الصور ومساعدة المكفوفين. إلّا أنّ الميزة التي تمنحه القدرة على منح اسم لوجه أي فرد من الأفراد كانت السبب في منع وصول هذا الإصدار الجديد إلى عموم الجمهور.

فنّ تحليل الصور

• وصف محتوى الصور: هذا البرنامج الذي يستخدمه الملايين لإعداد المشاريع، ووضع رموز الكومبيوتر، وكتابة القصص الخيالية لا يتقن فنّ توليد وتحليل الكلمات فحسب، بل يستطيع أيضاً تحليل الصور وذلك بوصف محتواها، والإجابة عن أسئلة عنها، وحتّى التعرّف على وجوه الأشخاص الظاهرين فيها. ويأمل البعض أنّ يتمكّن أحدهم أخيراً من تحميل صورة لمحرّك سيّارة معطّل، أو طفح جلدي محيّر، والحصول على الحلّ من «تشات جي بي تي»... ولكنّ شركة «أوبن إي آي» المصمَّمة له، لا تريد لبرنامجها أن يتحوّل إلى آلة للتعرّف على الصور.

• مساعدة مكفوفي البصر: انضمّ جوناثان موسن، مكفوف البصر، في الأشهر القليلة الفائتة إلى مجموعة حصلت على فرصة استخدام النسخة المتقدّمة التي تحلّل الصور من برنامج المحادثة. في رحلة أخيرة، استخدم موسن، التحليل البصري لتحديد نوع الشامبو، وبلسم الشعر، وجلّ الاستحمام في حمّام غرفة الفندق، ووجد أنّ أداء البرنامج قد ذهب أبعد بكثير مما كانت عليه برمجيات تحليل الصور في الماضي.

وقال موسن إنّ «الأداة أبلغتني بسعة كلّ زجاجة بالمللميتر المكعب ووصفت له الطوب في الحمّام بالطريقة التي يحتاج المكفوف إلى سماعها. حصلتُ على كلّ الإجابات التي أريدها بواسطة صورة واحدة».

وأضاف موسن أنّه تمكّن للمرّة الأولى من «استجواب الصور» وأعطى المثال التالي: ورد في نص توصيف لصورة رآها على موقع للتواصل الاجتماعي أنّها «لامرأة شقراء الشعر تبدو عليها السعادة». ولكن عندما طلب موسن من «تشات جي بي تي» تحليل الصورة، أجاب البرنامج أنّها تُظهر «امرأة ترتدي قميصاً أزرق اللون وتلتقط صورة سيلفي على المرآة». وكان باستطاعة موسن طرح أسئلة إضافية لمزيد من الاستفسار عن نوع الحذاء الذي ترتديه وعمّا يظهر في انعكاس المرآة.

وصف موسن (54 عاماً)، الذي يعيش في ويلينغتون، نيوزيلندا، الأمر «بالاستثنائي» خلال استعراض التقنية في مدوّنته الخاصة عن «حياة فقدان البصر».

ميزة التحليل البصري

• قدرات مخيفة: عندما أعلنت شركة «أوبن إي آي» في مارس (آذار) عن «جي بي تي 4»، أحدث النماذج البرمجية من برنامج المحادثة المدعوم بالذكاء الصناعي، وصفته بالـ«متعدّد الوسائط»، أي إنّه يستجيب لأوامر الحثّ المتعلّقة بالصور والنصوص. وقد تفاعل معظم المستخدمين مع البرنامج باستخدام الكلمات فقط، ولكنّ موسن حصل على فرصة الاستخدام المبكّر لميزة التحليل البصري بوساطة شركة «بي ماي آيز Be My Eyes» الناشئة التي تؤمّن اتصالاً للأشخاص المكفوفين مع متطوعين يتمتّعون ببصرٍ طبيعي، وخدمات زبائن للشركات. تعاونت «بي ماي آيز» مع «أوبن إي آي» هذا العام لاختبار ميزة «البصر» في برنامج المحادثة قبل طرحها للاستخدام المفتوح.

توقّف التطبيق أخيراً عن تزويد موسن بمعلومات عن وجوه الناس، معلّلاً الأمر بأنّ الوجوه حُجبت لأسباب تتعلّق بالخصوصية. شعرَ المستخدم بخيبة أمل لأنّه يؤمن أنّه يستحقّ الحصول على القدر نفسه من المعلومات الذي يحصل عليه الأشخاص الذين يبصرون.

عَكَس هذا التغيير مخاوف «أوبن إي آي» من تطويرها لقدرات لا تريد إطلاقها. وقد كشفت سانديني أغاروال، باحثة في السياسات في «أوبن إي آي»، عن أنّ تقنية الشركة الجديدة تستطيع تحديد هوية الوجوه المعروفة كالأشخاص الذين يملكون صفحة على «ويكيبيديا»، ولكنّها لا تعمل بشمولية الأدوات المطوّرة خصيصاً للعثور على وجوه على الإنترنت مثل «كلير فيو إي آي»، و«بيم آيز». ولفتت إلى أنّ ميزة «بصر» نجحت في التعرّف على سام ألتمان، الرئيس التنفيذي للشركة، في الصور بينما لم تتعرّف على أشخاص آخرين يعملون فيها.

«تشات جي بي تي» يستطيع أيضاً تحليل الصور ووصف محتواها والإجابة عن أسئلة عنها وحتّى التعرّف على وجوه الأشخاص الظاهرين فيها

• تقييم غير مقبول للوجوه: إنّ توفير ميزة كهذه للاستخدام العام سيوسّع حدود ما كانت تُعد ممارسات مقبولة من شركات التقنية الأميركية، فضلاً عن أنّه قد يؤدّي إلى متاعب في الصلاحيات القانونية في أماكن كولاية إلينوي وأوروبا التي تفرض على شركات التقنية الحصول على موافقة المواطنين على استخدام معلوماتهم الحيوية (البيومترية) كبصمة الوجه.

علاوة على ذلك، تشعر «أوبن إي آي» بالقلق من قول الأداة أشياء غير مقبولة عن وجوه الناس، كتقييم جنسهم أو وضعهم العاطفي. وقالت أغاروال إنّ شركتها تبحث عن طريقة لعلاج مخاوف الخصوصية هذه وغيرها قبل إطلاق ميزة تحليل الصور على نطاقٍ واسع.

وأضافت: «نريد حقاً لهذا الشيء أن يتحوّل إلى حوار مع الجميع. إذا سمعنا مثلاً أنّ الناس لا يريدون شيئاً من هذا القبيل، فسنسير معهم في نفس الاتجاه».

بالإضافة إلى التقييم الذي ستحصل عليه «أوبن إي آي» من «بي ماي آيز»، تسعى ذراعها غير الربحية إلى إيجاد وسائل للحصول على «مُدخل ديمقراطي» للمساعدة في سنّ قوانين لأنظمة الذكاء الاصطناعي.

وقالت أغاروال إنّ تطوير التحليل البصري لم يكن «غير متوقع» لأنّ النموذج دُرّب على النظر إلى صورٍ ونصوص جُمعت من الإنترنت، مشيرةً إلى أنّ برامج التعرّف على وجوه المشاهير موجودة منذ زمن، ومنها أداة «أوبت آوت» من «غوغل» المخصصة للمشاهير الذين لا يريدون أن يتمّ التعرّف إليهم. وتجدر الإشارة إلى أنّ «أوبن إي آي» تعكف حالياً على دراسة هذه الفكرة.

هلوسات الذكاء الاصطناعي

ولفتت إلى أنّ التحليل البصري الذي ابتكرته شركتها قد يُنتج «هلوسات» كالتي شهدها المستخدمون في أوامر الحثّ النصية. وقالت: «إذا أعطيتم الأداة صورة لشخص على أعتاب الشهرة، قد تحصلون منها على اسم مُتخيّل. مثلاً، إذا أعطيتموها صورة لرئيس تنفيذي شهير من عالم التقنية، قد تعطيكم اسماً لرئيس تنفيذي آخر من المجال نفسه».

في إحدى المرّات، قدّمت التقنية توصيفاً غير دقيق لأداة تحكّم عن بُعد لموسن، عضو مجموعة الاختبار، متحدّثةً بثقة عن أزرارٍ غير موجودة.

بدورها، تستطيع شركة «مايكروسوفت»، التي استثمرت 10 مليارات دولار في «أوبن إي آي»، الوصول إلى أداة التحليل البصري، حيث ظهرت الميزة في إصدار محدود لبعض مستخدمي برنامج «مايكروسوفت»، «بينغ». عند تحميل صورة في الأداة، تلقّى المستخدمون الذين جرّبوها رسالة تُعْلمهم أنّ «تشويش الخصوصية يُخفي الوجوه في محادثات (بينغ)».

استخدم ساياش كابور، عالم متخصص في الكومبيوتر في جامعة «برينستون»، الأداة لفكّ تشفير حروف التحقق (CAPTCHA)، وهو عبارة عن فحص أمني بصري مصمَّم للعين البشرية فقط. نجح برنامج المحادثة في فكّ الرمز والتعرّف على الكلمتين الغامضتين المستخدمتين، ولكنّه نوّه إلى أنّ «حروف التحقّق مصمَّمة لمنع البرامج مثله من الوصول إلى مواقع أو خدمات معيّنة».

من جهته، رأى إيثان مولّيك، أستاذ مساعد يدرس الابتكار وريادة الأعمال في كليّة وارتن التابعة لجامعة بنسلفانيا، أنّ «الذكاء الاصطناعي يبرز في جميع الجوانب التي من المفترض أن تفصل الإنسان عن الآلات».

وكان مولّيك واحداً من مستخدمي «بينغ» الذين حصلوا على فرصة تجربة ميزة «بصر» الجديدة، فأودعها صورة لبهارات في ثلّاجة وطلب من «بينغ» اقتراح وصفات تستخدم هذه المكوّنات، فجاءت الإجابة على الشكل التالي: «صودا بالكريمة المخفوقة»، و«صلصلة الهالبينو الكريمية».

يبدو أنّ «أوبن إي آي» و«مايكروسوفت» تُدركان جيّداً قوّة هذه التقنية وتداعياتها المحتملة على الخصوصية. فقد قال متحدّثٌ باسم «مايكروسوفت» إنّ الشركة لم «تشارك تفاصيل تقنية» حول تشويش الوجه ولكنّها كانت تعمل «عن قرب مع شركائها في (أوبن إي آي) للحفاظ على التزامهم بالتوظيف الآمن والمسؤول لتقنيات الذكاء الاصطناعي».

* خدمة «نيويورك تايمز»


مقالات ذات صلة

يوميات الشرق ظهور أدوات الذكاء الاصطناعي التوليدية سمح بإنتاج تقييمات مزيفة للمنتجات والصفحات الموجودة على الإنترنت (رويترز)

كيف تكتشف التقييمات المزيفة للمنتجات على الإنترنت؟

تقول جماعات مراقبة وباحثون إن ظهور أدوات الذكاء الاصطناعي التوليدية سمح بإنتاج تقييمات مزيفة للمنتجات والصفحات الموجودة على الإنترنت ومنصات التواصل.

«الشرق الأوسط» (لندن)
علوم تصميمات لأشكال انتشار البروتين المولدة بالذكاء الاصطناعي

كيف يساعد الذكاء الاصطناعي المهلوس على تحقيق اختراقات علمية كبيرة؟

الانفجارات الإبداعية متجذرة في الحقائق الصارمة للطبيعة والعلم وليس في ضبابية الإنترنت المعروفة بتحيزاتها وأكاذيبها.

ويليام جيه برود (نيويورك)
تكنولوجيا بدائل متنوعة لـ«تشات جي بي تي»

بدائل متنوعة لـ«تشات جي بي تي»

روبوتات دردشة أخرى لها مواطن قوة ونقاط ضعف قد تلبي احتياجاتك بشكل أفضل.

«الشرق الأوسط» (لندن)
يوميات الشرق أداة «ميتا» هي برنامج للدردشة الآلية يعمل بتقنية الذكاء الاصطناعي (رويترز)

«الذكاء الاصطناعي» في مرمى انتقادات بعد «أخطاء دينية»

ارتكبت أداة الذكاء الاصطناعي «ميتا آي» (Meta AI) خطأً فادحاً بعد اختبارات في نصوص دينية.

محمد السيد علي (القاهرة)

محكمة أميركية تدين شركة برمجيات إسرائيلية بقضية اختراق «واتساب»

شعار تطبيق «واتساب» المملوك لشركة «ميتا بلاتفورمز»  (د.ب.أ)
شعار تطبيق «واتساب» المملوك لشركة «ميتا بلاتفورمز» (د.ب.أ)
TT

محكمة أميركية تدين شركة برمجيات إسرائيلية بقضية اختراق «واتساب»

شعار تطبيق «واتساب» المملوك لشركة «ميتا بلاتفورمز»  (د.ب.أ)
شعار تطبيق «واتساب» المملوك لشركة «ميتا بلاتفورمز» (د.ب.أ)

أصدرت قاضية أميركية حكماً أمس (الجمعة) لصالح شركة «واتساب» المملوكة لشركة «ميتا بلاتفورمز» في دعوى قضائية تتهم مجموعة «إن إس أو» الإسرائيلية باستغلال ثغرة في تطبيق «واتساب» لتثبيت برامج تجسس تتيح مراقبة 1400 شخص منهم صحافيون وناشطون مدافعون عن حقوق الإنسان ومعارضون.

ووفقاً لوثائق المحكمة، خلصت القاضية فيليس هاميلتون إلى أن مجموعة «إن إس أو» مسؤولة عن الاختراق وانتهاك التعاقد.

وأشارت هاميلتون إلى أن القضية ستنتقل الآن إلى المحاكمة فقط بشأن قضية الأضرار.

وقال ويل كاثكارت، رئيس «واتساب»، إن الحكم هو فوز للخصوصية. وتابع في منشور على وسائل التواصل الاجتماعي: «لقد أمضينا خمس سنوات في عرض قضيتنا لأننا نعتقد اعتقاداً راسخاً أن شركات برامج التجسس لا يمكنها الاختباء وراء الحصانة أو تجنب المساءلة عن أفعالها غير القانونية».

وأضاف «يجب أن تكون شركات المراقبة على علم بأن التجسس غير القانوني لن يتم التسامح معه».

ورحب خبراء الأمن السيبراني بالحكم.

وصف جون سكوت رايلتون، الباحث الكبير في مؤسسة Citizen Lab الكندية لمراقبة الإنترنت -والتي سلطت الضوء لأول مرة على برنامج التجسس Pegasus التابع لشركة «إن إس أو» في عام 2016- الحكم بأنه تاريخي وله «تداعيات ضخمة على صناعة برامج التجسس».

وقال في رسالة فورية: «لقد اختبأت الصناعة بأكملها وراء الادعاء بأن كل ما يفعله عملاؤها بأدوات القرصنة الخاصة بهم ليس مسؤوليتهم... يوضح حكم اليوم أن مجموعة (إن إس أو) مسؤولة في الواقع عن انتهاك العديد من القوانين».

في عام 2019، رفعت «واتساب» دعوى قضائية ضد «إن إس أو» سعياً للحصول على أمر قضائي وتعويضات، متهمة إياها بالوصول إلى خوادم المنصة دون إذن قبل ستة أشهر لتثبيت برنامج Pegasus على الأجهزة المحمولة للضحايا. وزعمت الدعوى أن الاختراق سمح بمراقبة 1400 شخص، بما في ذلك الصحافيون ونشطاء حقوق الإنسان والمعارضون.

وزعمت «إن إس أو» أن Pegasus يساعد وكالات إنفاذ القانون والاستخبارات في مكافحة الجريمة وحماية الأمن القومي وأن تقنيتها تهدف إلى المساعدة في القبض على الإرهابيين والمتحرشين بالأطفال والمجرمين.