ميزة التعرف على الوجه كيف تتملص منها؟

أخطاؤها قد تؤدي إلى احتجاز أبرياء بتهم مشبوهة

ميزة التعرف على الوجه كيف تتملص منها؟
TT

ميزة التعرف على الوجه كيف تتملص منها؟

ميزة التعرف على الوجه كيف تتملص منها؟

يتساءل ليوناردو سيلفاغيو، الفنّان المتعدّد الاختصاصات: «لماذا لا نريد أن نعطي الكاميرا ما تريده، أي وجهنا؟» ويجيب: «المفروض هو ألا تعطوها ما تريده».
أقنعة مموهة
وبهدف مساعدة الناس على إرباك برامج التعرّف إلى الوجه، صمم سيلفاغيو (34 عاماً)، وهو رجل أبيض البشرة، أقنعة صناعية ثلاثية الأبعاد شبه حقيقية لوجهه، لأي شخص قد يرغب في ارتدائها. وأراد الفنّان اختبار هذه الأقنعة فطلب من معارفه على «فيسبوك» نشر صور لهم وهم يرتدونها.
وكانت النتيجة واحدة. فقد عرّف برنامج التعرّف إلى الوجه في «فيسبوك» الجميع على أنّهم سيلفاغيو على اختلاف المشاركين من الذين لبسوا الأقنعة بين نساء نحيلات ورجال عارمي الصدر، وبين قصار وطوال القامة، وبين أصحاب بشرة سوداء وسمراء وبيضاء وآسيوية. وتعليقاً على النتائج، قال صاحب الأقنعة: «لا شيء يعمي تقنيات المراقبة والأمن أكثر من الرجل الأبيض».
خرج سيلفاغيو بفكرة المشروع الذي أطلق عليه اسم «URME Surveillance» عندما كان يعيش في شيكاغو، المدينة التي تمنح مسؤولي إنفاذ القانون حقّ استخدام أكثر من 30 ألف كاميرا فيديو متصل بعضها ببعض في جميع أرجاء المدينة. لقد أراد أن يبدأ سلسلة من النقاشات حول المراقبة وما قد تفعله التكنولوجيا بهويتنا، خصوصاً بعد ما توصّل إليه الباحثون حول برامج التعرّف إلى الوجه وإصابتها بحمّى التمييز العرقي.
وقد بيّنت الدراسات أنّ هذه البرامج تعطي أفضل ما عندها للتعرّف على وجوه الرجال وأصحاب البشرة البيضاء، لأنّ تدريبها شمل مجموعات تضمّ أعداداً غير متجانسة من الأعراق والأجناس، وأنّ أسوأ نتائجها تبرز عند التعرّف على وجوه أصحاب البشرة السوداء. وفي سياقات إنفاذ القانون، قد تؤدّي هذه الأخطاء إلى زيادة احتمال توريط أشخاص في جرائم لم يرتكبوها.
خطوات التملص
يرى سيلفاغيو طريقين يمكن من خلالهما التملّص من برامج التعرّف إلى الوجه:
> الأوّل هو الاختفاء، أي اعتزال النشاط الإلكتروني وشبكة الإنترنت.
> ولكنه يفضّل الطريق الآخر، أي إغراق هذه الأنظمة ببيانات غريبة ومتضاربة. يمكنكم ارتداء هيئة شخص آخر أو إقراض هيئتكم للآخرين. (قبل اللجوء إلى حيلة ارتداء القناع، تأكّدوا ما إذا كانت مدينتكم تحظّر ارتداء الأقنعة في قوانينها).
> ويمكنكم إرباك برامج التعرّف إلى الوجه من دون قناع حتّى من خلال تعتيم أجزاء من وجهكم بواسطة الماكياج، والتنكّر، وتصفيف الشعر، وضوء الأشعة تحت الحمراء.
> تبحث برامج الذكاء الصناعي عادةً عن وجوه بيضاوية ومتناسقة، لذا ركّزوا على تعتيم إحدى العينين، أو تغطية عظمة الأنف، أو ارتدوا ما يجعلكم تبدون كأنكم من دون رأس.
يقول سيلفاغيو: «تملك هذه الأنظمة جميع معلوماتنا. لذا، لنعمل على صناعة المزيد من المعلومات غير الحقيقية، ولنستمرّ في فبركة معلومات أكثر وأكثر».
- خدمة «نيويورك تايمز»



هل أصبحنا على أعتاب مرحلة تباطؤ الذكاء الاصطناعي؟

هل أصبحنا على أعتاب مرحلة تباطؤ الذكاء الاصطناعي؟
TT

هل أصبحنا على أعتاب مرحلة تباطؤ الذكاء الاصطناعي؟

هل أصبحنا على أعتاب مرحلة تباطؤ الذكاء الاصطناعي؟

يوجه ديميس هاسابيس، أحد أكثر خبراء الذكاء الاصطناعي نفوذاً في العالم، تحذيراً لبقية صناعة التكنولوجيا: لا تتوقعوا أن تستمر برامج المحادثة الآلية في التحسن بنفس السرعة التي كانت عليها خلال السنوات القليلة الماضية، كما كتب كاد ميتز وتريب ميكل (*).

التهام بيانات الإنترنت

لقد اعتمد باحثو الذكاء الاصطناعي لبعض الوقت على مفهوم بسيط إلى حد ما لتحسين أنظمتهم: فكلما زادت البيانات التي جمعوها من الإنترنت، والتي ضخُّوها في نماذج لغوية كبيرة (التكنولوجيا التي تقف وراء برامج المحادثة الآلية) كان أداء هذه الأنظمة أفضل.

ولكن هاسابيس، الذي يشرف على «غوغل ديب مايند»، مختبر الذكاء الاصطناعي الرئيسي للشركة، يقول الآن إن هذه الطريقة بدأت تفقد زخمها ببساطة، لأن البيانات نفدت من أيدي شركات التكنولوجيا.

وقال هاسابيس، هذا الشهر، في مقابلة مع صحيفة «نيويورك تايمز»، وهو يستعد لقبول «جائزة نوبل» عن عمله في مجال الذكاء الاصطناعي: «يشهد الجميع في الصناعة عائدات متناقصة».

استنفاد النصوص الرقمية المتاحة

هاسابيس ليس الخبير الوحيد في مجال الذكاء الاصطناعي الذي يحذر من تباطؤ؛ إذ أظهرت المقابلات التي أُجريت مع 20 من المديرين التنفيذيين والباحثين اعتقاداً واسع النطاق بأن صناعة التكنولوجيا تواجه مشكلة كان يعتقد كثيرون أنها لا يمكن تصورها قبل بضع سنوات فقط؛ فقد استنفدت معظم النصوص الرقمية المتاحة على الإنترنت.

استثمارات رغم المخاوف

بدأت هذه المشكلة في الظهور، حتى مع استمرار ضخ مليارات الدولارات في تطوير الذكاء الاصطناعي. في الأسبوع الماضي، قالت شركة «داتابريكس (Databricks)»، وهي شركة بيانات الذكاء الاصطناعي، إنها تقترب من 10 مليارات دولار في التمويل، وهي أكبر جولة تمويل خاصة على الإطلاق لشركة ناشئة. وتشير أكبر الشركات في مجال التكنولوجيا إلى أنها لا تخطط لإبطاء إنفاقها على مراكز البيانات العملاقة التي تدير أنظمة الذكاء الاصطناعي.

لا يشعر الجميع في عالم الذكاء الاصطناعي بالقلق. يقول البعض، بمن في ذلك سام ألتمان الرئيس التنفيذي لشركة «أوبن إيه آي»، إن التقدم سيستمر بنفس الوتيرة، وإن كان مع بعض التغييرات في التقنيات القديمة. كما أن داريو أمودي، الرئيس التنفيذي لشركة الذكاء الاصطناعي الناشئة، «أنثروبيك»، وجينسن هوانغ، الرئيس التنفيذي لشركة «نيفيديا»، متفائلان أيضاً.

قوانين التوسع... هل تتوقف؟

تعود جذور المناقشة إلى عام 2020، عندما نشر جاريد كابلان، وهو فيزيائي نظري في جامعة جونز هوبكنز، ورقة بحثية تُظهِر أن نماذج اللغة الكبيرة أصبحت أكثر قوة وواقعية بشكل مطرد مع تحليل المزيد من البيانات.

أطلق الباحثون على نتائج كابلان «قوانين التوسع (Scaling Laws)»... فكما يتعلم الطلاب المزيد من خلال قراءة المزيد من الكتب، تحسنت أنظمة الذكاء الاصطناعي مع تناولها كميات كبيرة بشكل متزايد من النصوص الرقمية التي تم جمعها من الإنترنت، بما في ذلك المقالات الإخبارية وسجلات الدردشة وبرامج الكومبيوتر.

ونظراً لقوة هذه الظاهرة، سارعت شركات، مثل «OpenAI (أوبن إيه آي)» و«غوغل» و«ميتا» إلى الحصول على أكبر قدر ممكن من بيانات الإنترنت، وتجاهلت السياسات المؤسسية وحتى مناقشة ما إذا كان ينبغي لها التحايل على القانون، وفقاً لفحص أجرته صحيفة «نيويورك تايمز»، هذا العام.

كان هذا هو المعادل الحديث لـ«قانون مور»، وهو المبدأ الذي كثيراً ما يُستشهد به، والذي صاغه في ستينات القرن العشرين المؤسس المشارك لشركة «إنتل غوردون مور»؛ فقد أظهر مور أن عدد الترانزستورات على شريحة السيليكون يتضاعف كل عامين، أو نحو ذلك، ما يزيد بشكل مطرد من قوة أجهزة الكومبيوتر في العالم. وقد صمد «قانون مور» لمدة 40 عاماً. ولكن في النهاية، بدأ يتباطأ.

المشكلة هي أنه لا قوانين القياس ولا «قانون مور» هي قوانين الطبيعة الثابتة. إنها ببساطة ملاحظات ذكية. صمد أحدها لعقود من الزمن. وقد يكون للقوانين الأخرى عمر افتراضي أقصر بكثير؛ إذ لا تستطيع «غوغل» و«أنثروبيك» إلقاء المزيد من النصوص على أنظمة الذكاء الاصطناعي الخاصة بهما، لأنه لم يتبقَّ سوى القليل من النصوص لإلقائها.

«لقد كانت هناك عائدات غير عادية على مدى السنوات الثلاث أو الأربع الماضية، مع بدء تطبيق قوانين التوسع»، كما قال هاسابيس. «لكننا لم نعد نحصل على نفس التقدم».

آلة تضاهي قوة العقل البشري

وقال هاسابيس إن التقنيات الحالية ستستمر في تحسين الذكاء الاصطناعي في بعض النواحي. لكنه قال إنه يعتقد أن هناك حاجة إلى أفكار جديدة تماماً للوصول إلى الهدف الذي تسعى إليه «غوغل» والعديد من الشركات الأخرى: آلة يمكنها أن تضاهي قوة الدماغ البشري.

أما إيليا سوتسكيفر، الذي كان له دور فعال في دفع الصناعة إلى التفكير الكبير، كباحث في كل من «غوغل» و«أوبن أيه آي»، قبل مغادرته إياها، لإنشاء شركة ناشئة جديدة، الربيع الماضي، طرح النقطة ذاتها خلال خطاب ألقاه هذا الشهر. قال: «لقد حققنا ذروة البيانات، ولن يكون هناك المزيد. علينا التعامل مع البيانات التي لدينا. لا يوجد سوى شبكة إنترنت واحدة».

بيانات مركبة اصطناعياً

يستكشف هاسابيس وآخرون نهجاً مختلفاً. إنهم يطورون طرقاً لنماذج اللغة الكبيرة للتعلُّم من تجربتهم وأخطائهم الخاصة. من خلال العمل على حل مشاكل رياضية مختلفة، على سبيل المثال، يمكن لنماذج اللغة أن تتعلم أي الطرق تؤدي إلى الإجابة الصحيحة، وأيها لا. في الأساس، تتدرب النماذج على البيانات التي تولِّدها بنفسها. يطلق الباحثون على هذا «البيانات الاصطناعية».

أصدرت «اوبن أيه آي» مؤخراً نظاماً جديداً يسمى «OpenAI o1» تم بناؤه بهذه الطريقة. لكن الطريقة تعمل فقط في مجالات مثل الرياضيات وبرمجة الحوسبة؛ حيث يوجد تمييز واضح بين الصواب والخطأ.

تباطؤ محتمل

على صعيد آخر، وخلال مكالمة مع المحللين، الشهر الماضي، سُئل هوانغ عن كيفية مساعدة شركته «نيفيديا» للعملاء في التغلب على تباطؤ محتمل، وما قد تكون العواقب على أعمالها. قال إن الأدلة أظهرت أنه لا يزال يتم تحقيق مكاسب، لكن الشركات كانت تختبر أيضاً عمليات وتقنيات جديدة على شرائح الذكاء الاصطناعي. وأضاف: «نتيجة لذلك، فإن الطلب على بنيتنا التحتية كبير حقاً». وعلى الرغم من ثقته في آفاق «نيفيديا»، فإن بعض أكبر عملاء الشركة يعترفون بأنهم يجب أن يستعدوا لاحتمال عدم تقدم الذكاء الاصطناعي بالسرعة المتوقَّعة.

وعن التباطؤ المحتمل قالت راشيل بيترسون، نائبة رئيس مراكز البيانات في شركة «ميتا»: «إنه سؤال رائع نظراً لكل الأموال التي يتم إنفاقها على هذا المشروع على نطاق واسع».

* خدمة «نيويورك تايمز»