تقنيات التعرف على الوجوه تكشف هوية كل إنسان

قوى الأمن توظفها و«غوغل» و«فيسبوك» تطورها لشبكاتها الاجتماعية

د. جوزيف عتيق
د. جوزيف عتيق
TT

تقنيات التعرف على الوجوه تكشف هوية كل إنسان

د. جوزيف عتيق
د. جوزيف عتيق

جوزيف عتيق فيزيائي من أوائل الرواد في مجال تقنيات التعرف على الوجوه، قام بمراقبة مبنى رونالد ريغان (مركز التجارة العالمي في واشنطن)، كما لو أنه يملك ذلك المبنى، ولحد ما فإنه يملكه فعلا، فقد كان أحد منظمي الحدث هناك، الذي كان معرضا تجاريا لتقنيات الأمن بالقياسات البيولوجية (بايومتريكس)؛ حيث عرض عددا من الأجهزة، مثل آلة لمسح الوجوه كالتي تستخدم في المطارات.
وقد ساعد الدكتور عتيق الذي يعود أصله إلى مدينة القدس في تحديث وتطوير التقنيات الأساسية للتعرف على الوجوه في التسعينات، عندما دخل في هذا المجال، وروج لهذه النظم لكي تعتمدها الوكالات الحكومية التي تنظر في التعرف على المجرمين منعا لعمليات الغش التي تنتحل الهوية الشخصية. ويرجع الفضل في ذلك إلى مساهمته في أعمال القياسات البيولوجية التي انتعشت عالميا، أي استخدام الخصائص الطبيعية الفريدة للأشخاص، مثل تعرجات بصمات الأصابع، وتقاسيم الوجه، للتعرف على الهوية وإثباتها. ويقدر مردود مجمل هذه الأعمال بـ7.2 مليارات دولار في عام 2012 استنادا إلى تقارير «فروست آند سولفان».

* مقارنة الوجوه
من شأن عملية مقارنة الوجوه في يومنا هذا، التمكين من القيام بعمليات مراقبة واسعة النطاق، تشمل جماهير غفيرة، وبالتالي القضاء على التنكر الشخصي وإخفاء الهوية، استنادا إلى عتيق، وبالتالي تمكين الأشخاص من السلوك الطبيعي الحسن خارج منازلهم. وحذر في مجال إشارته إلى المستندات ووثائق الاستخبارات التي كشفت للعلن من قبل إدوارد سنودن، من احتمال حصول الوكالات الحكومية أيضا على بيانات الوجوه الخاصة بالأفراد والمواطنين التي تجمعها الشركات وتكدسها.
وبالنسبة إلى صناعة القياسات البيولوجية، يأتي تحذير الدكتور عتيق في مكانه، فالتعرف على الوجوه بالنسبة إلى هذه الصناعة لا يختلف كثيرا عن استخدام السيارة، أي أنها تقنية محايدة، منافعها تغلب سيئاتها ومخاطرها. وهذه المنافع تبدو جلية واضحة، فالرمز الفريد الخاص بك يصاحبك ويرافقك في كل مكان. وتتخيل هذه الصناعة عالما يمكن فيه عن طريق الوجه، فتح مغلاق الهاتف الذكي، والدخول إلى المصارف، والمباني الخاصة، ومرائب السيارات، ونوادي الصحة واللياقة البدنية، بدلا من الاعتماد على بطاقات الهوية المعرضة للضياع، أو مجموعة من كلمات المرور التي يمكن نسيانها، من دون ذكر تعرضها للسرقة.
وكان عتيق قد سمع قبل أشهر قليلة عن تطبيق «نايم تاغ» NameTag الذي بات متوافرا بشكله الأولي للأشخاص الذين يستخدمون نظارات «غوغل»؛ إذ ما عليهم سوى التحديق في رجل غريب، ولفظ «نايم تاغ» حتى يجري فورا الحصول على مقارنات، والحصول على اسم ذلك الشخص الغريب، ومهنته، والمعلومات الواردة عنه في «فيسبوك»، «مما يعني السماح أيضا لهذا الشخص بالكشف عن هويتنا نحن أيضا»، وفقا إلى عتيق.
ويبدو أن عتيق منزعج لما يدور بهدوء وخفاء داخل الشركات الكبيرة، فخلال السنوات القليلة الماضية، تمكنت شركات تقنية عملاقة كثيرة من الشراء والاستحواذ على شركات ناشئة جديدة تعمل في مجال التعرف على الوجوه. ففي عام 2011 قامت «غوغل» بشراء «بتسبرغ باترن ريكوغنيشن» التي تعمل في مجال المرئيات الكومبيوترية، وهي من تطوير باحثين في جامعة «كارنيغي ميلون» في أميركا. وفي عام 2012 اشترت «فيسبوك»، Face.com الشركة الإسرائيلية الناشئة. وبالطبع رفضت «غوغل» و«فيسبوك» التعليق لدى إعداد المقال هذا، والكشف عن خططهما حول هذه التقنية.
ويقول الدكتور عتيق إن التقنية التي ساعد في تأسيسها تحتاج إلى بعض الضوابط، خلافا لبصمات الأصابع وغيرها من أساليب القياسات البيولوجية الأخرى، فهي، أي التعرف على الوجوه، يمكن استخدامها من مسافات، من دون معرفة مستهدفيها، وبالتالي يمكن ربط وجوههم وهوياتهم بكثير من الصور التي يقومون بوضعها على الشبكة. لكن في الولايات المتحدة لا يوجد قانون اتحادي محدد يتحكم بتقنية التعرف على الوجوه.

* تقنيات التعرف
وثمة كثير من الاستخدامات للتعرف على الوجوه باتت حاليا من الأمور العادية. وهذا ما يسمح لـ«فيسبوك» و«غوغل بلاس» تلقائيا باقتراح عناوين وأسماء لصور الأعضاء وأصدقائهم. وقد يكون هنالك في الطريق مزيد من التطبيقات، فقد قدمت «غوغل» طلبا للحصول على براءة اختراع تتعلق بأساليب لتمييز الوجوه على الفيديوهات، وعلى براءة أخرى تسمح للأشخاص بالدخول إلى أجهزتهم عن طريق الرمش بالعيون، أو عن طريق تعبيرات الوجه الأخرى. وكان باحثو «فيسبوك» قد أفادوا أخيرا كيف أن شركتهم قد طورت نظاما قويا للتعرف على الأنماط يسمى «ديب فيس» DeepFace، الذي حقق دقة تقارب الدقة البشرية في التعرف على وجوه الأشخاص. لكن التعرف على الوجوه تلقائيا في الزمن الفعلي ظاهرة جديدة نسبيا، على الأقل حاليا، وهو أيضا تقنية رفيعة جدا. وفي أوائل التسعينات بحث كثير من الباحثين الأكاديميين، بما فيهم الدكتور عتيق، فكرة برمجة الكومبيوترات للتعرف على التقاسيم المميزة للوجوه، ليقوم البرنامج بعد ذلك باستخدام هذه الملامح للتعرف على ذلك الوجه لدى ظهوره في الصور الأخرى.
ولكي تعمل هذه التقنية، فإنها بحاجة إلى بيانات واسعة تدعى «غاليري صور» تضم صورا أو فيديوهات ساكنة للوجوه التي جرى التعرف عليها بالأسماء. ويقوم البرنامج أوتوماتيكيا بتحويل تقاسيم كل وجه موجود في الغاليري إلى رمز رياضي فريد من نوعه يدعى «بصمة الوجه»، وحال تحويل الأشخاص إلى بصمات وجه يمكن تمييزهم في الصور الحالية أو اللاحقة، أو لدى مرورهم أمام كاميرا الفيديو.
وتستخدم هذه التقنية سلفا في ضمان الأمن في الكازينوهات. وبمقدور دوائر الشرطة في عدد من المدن والولايات الأميركية، وبالاستعانة بنظم التعرف على الوجوه، تلقيم صور المشتبه بهم في عمليات سطو، أو سرقة، مأخوذة من فيديوهات مراقبة في المصارف مثلا، ومقارنة «بصمة وجه» مع غاليري صور المجرمين المدانين بحثا عن شبيه. وتقوم بعض الكازينوهات بأخذ بصمات وجه بعض زائريها لمعرفة من هم أكثر ارتيادا لها ممن يقامرون بمبالغ كبيرة بغية معاملتهم معاملة خاصة. وفي اليابان تقوم بعض المتاجر باستخدام تقنية مقارنة الوجوه لتصنيف النشالين بغية منعهم ثانية من ارتيادها.

* خدمة «نيويورك تايمز»



«غوغل»: متسللون يبتكرون أساليب اختراق باستخدام الذكاء الاصطناعي

شعار شركة «غوغل» (رويترز)
شعار شركة «غوغل» (رويترز)
TT

«غوغل»: متسللون يبتكرون أساليب اختراق باستخدام الذكاء الاصطناعي

شعار شركة «غوغل» (رويترز)
شعار شركة «غوغل» (رويترز)

قالت شركة «غوغل» المملوكة لـ«ألفابت»، اليوم الاثنين، إن متسللين إلكترونيين من مجموعة بارزة في مجال الجرائم الإلكترونية استخدموا الذكاء الاصطناعي لاكتشاف ثغرة برمجية غير معروفة سابقاً، وتمكنوا من استغلالها لأول مرة.

وذكرت «غوغل» في تقرير صادر عن مجموعة «ثريت إنتليجينس غروب» المعنية برصد التهديدات لديها أن الهجوم المخطط له استهدف أداة إدارة نظام مفتوحة المصدر واسعة الانتشار، لكن جرى حظره قبل أن يستغل ضمن «واقعة استغلال جماعي».

وتمثل هذه الواقعة المرة الأولى التي تحدد فيها «غوغل» استخدام متسللين للذكاء الاصطناعي لاكتشاف نقاط ضعف جديدة، ومحاولة استغلالها على نطاق واسع.

هاكرز (رويترز)

وقال جون هولتكوست كبير محللي المجموعة إن النتائج من المرجح أن تمثل ما وصفه بأنه «غيض من فيض» فيما يتعلق بكيفية بتطوير المجرمين والمتسللين المدعومين من دول لعمليات الابتكار في مجال التسلل والاختراق باستخدام الذكاء الاصطناعي.

وشرح التقرير كيف يوكل متسللون أجزاء من عملياتهم عبر الإنترنت إلى الذكاء الاصطناعي، ويستغلونه ليبحث بشكل مستقل عن ثغرات برمجية، ويساعد في تطوير برمجيات خبيثة.

وقال الباحثون إن هذا التحول يمثل خطوة مبكرة نحو عمليات إلكترونية عبر الإنترنت تتسم باستقلالية أكبر، في وقت بدأ فيه متسللون في الاعتماد على أنظمة الذكاء الاصطناعي، ليس فقط من بين الأدوات البحثية بل أيضاً على أساس أنها مكونات نشطة يمكنها تحليل الأهداف وإنشاء أكواد ورموز واتخاذ قرارات بإشراف بشري محدود.

وتأتي هذه النتائج في وقت تواجه فيه حكومات في أنحاء العالم صعوبات في كيفية وضع قواعد تنظيمية لنماذج الذكاء الاصطناعي الجديدة القوية التي يمكن أن تسهل على المتسللين تحديد الأهداف، وشن الهجمات باستخدام عيوب البرامج المعروفة والمكتشفة حديثاً.

وتعكس هذه النتائج تحذيرات صدرت في الآونة الأخيرة عن جهات تنظيمية مالية في أوروبا تقول إن نماذج الذكاء الاصطناعي سريعة التطور تزيد من سرعة ونطاق المخاطر السيبرانية في وقت يتصاعد فيه التوتر الجيوسياسي.

وأفاد التقرير بأن المتسللين الإلكترونيين، بالإضافة إلى مجموعات قرصنة واختراق مرتبطة بدول مثل الصين وروسيا وكوريا الشمالية، يجربون بالفعل دمج الذكاء الاصطناعي مباشرة في سير وتتابع المهام المتعلقة بعمليات الهجوم الإلكترونية عبر الإنترنت.

ورغم أن هذه التقنيات لا تزال في مرحلة أولية، حذرت «غوغل» من أنها قد تسرع وتيرة حملات الهجمات الإلكترونية بتقليل الوقت والخبرة اللازمين لشن هجمات معقدة.


ميزة جديدة في «شات جي بي تي» تُخطر المقربين عند الأزمات النفسية

عبارة «مرحباً بكم في أوبن إيه آي» تظهر على الصفحة الرئيسية لـ«شات جي بي تي» (د.ب.أ)
عبارة «مرحباً بكم في أوبن إيه آي» تظهر على الصفحة الرئيسية لـ«شات جي بي تي» (د.ب.أ)
TT

ميزة جديدة في «شات جي بي تي» تُخطر المقربين عند الأزمات النفسية

عبارة «مرحباً بكم في أوبن إيه آي» تظهر على الصفحة الرئيسية لـ«شات جي بي تي» (د.ب.أ)
عبارة «مرحباً بكم في أوبن إيه آي» تظهر على الصفحة الرئيسية لـ«شات جي بي تي» (د.ب.أ)

ضمن خطوة تعكس تنامي الاهتمام بسلامة المستخدمين في الفضاء الرقمي، أعلنت «أوبن إيه آي» عن إطلاق ميزة أمان جديدة ضمن تطبيق «شات جي بي تي»، تهدف إلى التدخل المبكر في حالات الطوارئ المرتبطة بالصحة النفسية. وتأتي هذه المبادرة استجابةً لمخاوف متزايدة بشأن تأثير تقنيات الذكاء الاصطناعي على المستخدمين، لا سيما في الظروف النفسية الحساسة؛ إذ تسعى إلى ربط الدعم الرقمي بالدعم الواقعي من خلال إشعار أشخاص موثوقين عند الحاجة.

ووفقاً لما أوردته صحيفة «إندبندنت»، تتيح ميزة «جهة الاتصال الموثوقة» للمستخدمين، اختيار شخص من الأصدقاء أو أفراد العائلة، ليتم إخطاره في حال أظهرت محادثاتهم مع النظام إشارات إلى إيذاء النفس، أو التفكير في الانتحار.

ويأتي هذا التحديث في سياق تزايد القلق حيال أدوات الذكاء الاصطناعي؛ مثل «شات جي بي تي»، التي يرى بعض المنتقدين أنها قد تسهم في تفاقم حالات الهوس أو الذهان، أو حتى المخاطر المرتبطة بالحياة.

وكشفت «أوبن إيه آي» العام الماضي، أن نحو 0.07 في المائة من المستخدمين المنتظمين لـ«شات جي بي تي»، أظهروا مؤشرات على «حالات طوارئ نفسية مرتبطة بالذهان أو الهوس». ومع وجود ما يقارب 900 مليون مستخدم نشط أسبوعياً، فإن هذه النسبة تعادل أكثر من نصف مليون شخص.

كما أفاد 0.15 في المائة من المستخدمين - أي ما يقارب 1.3 مليون شخص - بأنهم عبّروا عن مخاطر تتعلق بإيذاء النفس أو التفكير في الانتحار، وهو ما يعكس حجم التحدي الذي تحاول هذه الميزة الجديدة التعامل معه.

وتعتمد الخاصية المستحدثة على أنظمة مراقبة آلية داخل «شات جي بي تي»، ترصد الأنماط والسلوكيات التي قد تشير إلى وجود خطر حقيقي يهدد سلامة المستخدم. وعند اكتشاف مثل هذه المؤشرات، يتولى فريق متخصص مراجعة سجل المحادثات لتقييم الحالة، وتحديد ما إذا كان ينبغي إخطار «جهة الاتصال الموثوقة» للتدخل، أم لا.

وفي هذا السياق، قال آرثر إيفانز، الرئيس التنفيذي للجمعية الأميركية لعلم النفس: «يُظهر علم النفس باستمرار أن التواصل الاجتماعي يُعدّ عاملاً وقائياً قوياً، خصوصاً خلال فترات الضيق النفسي». وأضاف: «إن مساعدة الأفراد في تحديد شخص موثوق به مسبقاً، مع الحفاظ على استقلاليتهم وحقهم في الاختيار، يمكن أن يُسهّل وصولهم إلى الدعم في العالم الحقيقي عندما يكونون في أمسّ الحاجة إليه».

وتُبنى ميزة «جهة الاتصال الموثوقة» على منظومة الأمان الحالية في «شات جي بي تي»، التي تشمل أيضاً تقديم معلومات حول خطوط المساعدة المحلية عندما تشير التفاعلات إلى أن المستخدم يمرّ بأزمة نفسية


بحث يحذر: محادثاتك مع الذكاء الاصطناعي قد لا تكون بالخصوصية التي تعتقدها

الدراسة تقول إن بعض منصات الذكاء الاصطناعي ترسل بيانات محادثات إلى أدوات تتبع خارجية (د.ب.أ)
الدراسة تقول إن بعض منصات الذكاء الاصطناعي ترسل بيانات محادثات إلى أدوات تتبع خارجية (د.ب.أ)
TT

بحث يحذر: محادثاتك مع الذكاء الاصطناعي قد لا تكون بالخصوصية التي تعتقدها

الدراسة تقول إن بعض منصات الذكاء الاصطناعي ترسل بيانات محادثات إلى أدوات تتبع خارجية (د.ب.أ)
الدراسة تقول إن بعض منصات الذكاء الاصطناعي ترسل بيانات محادثات إلى أدوات تتبع خارجية (د.ب.أ)

كشفت دراسة بحثية منشورة على موقع «LeakyLM» عن مخاطر خصوصية قالت إنها تطول عدداً من أبرز منصات الذكاء الاصطناعي التوليدي، من بينها «شات جي بي تي» و«كلود» و«غروك» و«بيربلكسيتي»، عبر ما وصفه الباحثون بتسرب بيانات المحادثات والبيانات التعريفية إلى خدمات تتبع وإعلانات تابعة لجهات خارجية. ووفقاً للبحث، فإن المشكلة لا تتعلق فقط بوجود أدوات تحليل ومتابعة داخل هذه الخدمات، بل أيضاً بالطريقة التي يمكن أن ترتبط بها روابط المحادثات وبيانات المستخدمين بمعرفات إعلانية وملفات تعريف على الإنترنت.

ويقول القائمون على الدراسة إنهم اختبروا أربع منصات للذكاء الاصطناعي، ووجدوا أكثر من 13 أداة تتبع خارجية، مع الإشارة إلى أن جميع المنصات الأربع التي شملها الاختبار كانت متأثرة بدرجات مختلفة. كما يذكر الموقع أن هذه الممارسات لا تُشرح للمستخدمين بشكل مباشر وواضح، رغم أن سياسات الخصوصية الخاصة بالشركات تؤكد جمع المحادثات وبيانات الاستخدام والاعتماد على ملفات تعريف الارتباط الخاصة بجهات خارجية لأغراض تتعلق بالتحليلات والإعلانات.

الباحثون رصدوا أكثر من 13 أداة تتبع داخل أربع منصات شهيرة للذكاء الاصطناعي (أ.ف.ب)

روابط تكشف المحادثات

تتركز إحدى أكثر النقاط حساسية في الدراسة حول روابط المحادثات نفسها. فالباحثون يعدون أن روابط بعض المحادثات تُرسل إلى خدمات تتبع مثل «Meta Pixel» و«Google Analytics»، في حين قد تكون هذه الروابط، في بعض الحالات، كافية للوصول إلى محتوى المحادثة أو إلى معلومات تكشف موضوعها. ويضيف التقرير أن العناوين أو عناوين الصفحات الخاصة بالمحادثات يمكن أن تحمل بدورها مؤشرات حساسة حول اهتمامات المستخدم أو مشكلاته أو طبيعة الموضوع الذي يناقشه مع المساعد الذكي.

ووجد الباحثون أن «شات جي بي تي» كان يرسل رابط المحادثة الكامل وعنوان الصفحة إلى «Google Analytics» عند تحميل الصفحة للمستخدمين المسجلين ضمن الفئة المجانية، بصرف النظر عن قبول أو رفض ملفات تعريف الارتباط، وفقاً لما أورده التقرير. كما رصدوا في «Grok» تسرب رابط المحادثة وعنوانها إلى «Google Analytics» و«DoubleClick»، وفي بعض الحالات إلى «TikTok» و«Meta»، مع ملاحظة أن بعض المحادثات أو الصور المرتبطة بها قد تكون متاحة علناً في سياقات المشاركة.

أما في حالة «Claude»، فتشير الدراسة إلى وجود تسربات من نوع مختلف، منها إرسال عناوين البريد الإلكتروني وعنوان المحادثة إلى «Intercom»، إضافة إلى إشارات لربط نشاط المستخدم عبر أدوات متعددة على الجانب الخادمي عند قبول ملفات تعريف الارتباط غير الأساسية. وفي «Perplexity»، تقول الدراسة إن الشركة أوقفت «Meta Pixel» في أبريل (نيسان) 2026، لكن الباحثين رصدوا استمرار إرسال بيانات أخرى مثل عنوان البريد الإلكتروني الخام أو عنوان المحادثة وبيانات وصفية إلى أدوات مثل «Datadog» و«Singular».

التقرير يحذر من إمكانية ربط المحادثات بهوية المستخدم وملفه الإعلاني (رويترز)

ربط المحادثة بالهوية

يذهب التقرير إلى أن الخطر لا يتوقف عند نقل رابط أو عنوان صفحة فقط، بل يمتد إلى إمكانية الربط بين المحادثة وهوية المستخدم. ويشرح الباحثون أن بعض خدمات التتبع تتلقى مع روابط المحادثات ملفات تعريف ارتباط ومعرفات أخرى يمكن أن تساعد، وفق سياسات تلك الشركات نفسها، في ربط النشاط الإلكتروني بملفات تعريف سلوكية أو إعلانية. وفي بعض الحالات، يقول التقرير إن عمليات التتبع تتضمن أيضاً تجزئات للبريد الإلكتروني أو آليات مزامنة ملفات تعريف، بما قد يسهّل إعادة التعرف على المستخدم أو إزالة هويته المجهولة.

وتكتسب هذه النتائج حساسية أكبر، بحسب الدراسة؛ لأن مستخدمي المساعدات الذكية يشاركون معها كثيراً من المعلومات الشخصية والحساسة باعتبارها مساعدات موثوقة. ويشير الموقع إلى أبحاث سابقة أظهرت أن المستخدمين يكشفون للأنظمة التوليدية بيانات شخصية في سياقات غير متوقعة، تشمل مسائل صحية أو نفسية أو شخصية. ويرى الباحثون أن هذه المخاطر لا تقتصر على الأفراد، بل تمتد أيضاً إلى الشركات والقطاع العام؛ إذ يمكن أن تتسرب ملكية فكرية أو معلومات مؤسسية حساسة.

بعض روابط المحادثات قد تكشف موضوع النقاش أو تتيح الوصول إلى محتواه (الشركة)

ضبابية في الخصوصية

ينتقد البحث ما يصفه بالضبابية في أدوات الخصوصية. ويفيد بأن المنصات المدروسة توفر إعدادات للتحكم في الخصوصية ورؤية المحادثات، لكنها قد توحي بحماية أقوى مما يتم تطبيقه فعلياً في بعض السيناريوهات. ويضيف أن نماذج الموافقة على ملفات تعريف الارتباط نفسها تعاني من نقص في الشفافية؛ لأن الباحثين رصدوا حالات يحدث فيها التتبع رغم خيارات المستخدم، أو بطريقة يصعب رصدها عبر المتصفح بسبب استخدام قنوات تتبع خادمية.

ولا يزعم التقرير أنه يملك دليلاً على أن هذه الجهات الخارجية «تقرأ» المحادثات فعلاً، لكنه يقول إن إمكانية الوصول أو الربط موجودة من الناحية التقنية، وهذا في حد ذاته يخلق خطراً هيكلياً على الخصوصية. ومن هنا، يخلص الباحثون إلى أن ما يحدث يعكس انتقال نموذج الويب القائم على التتبع والإعلانات إلى بيئة المساعدات التوليدية أيضاً، في وقت تتوسع فيه هذه الخدمات بسرعة، وتصبح جزءاً أساسياً من حياة المستخدمين اليومية والعملية.

وتسلط الدراسة بذلك الضوء على جانب أقل بروزاً في سباق الذكاء الاصطناعي متعلق بأنه ليس فقط ماذا تستطيع هذه المنصات فعله، بل أيضاً بكيفية بنية اقتصاداتها الرقمية، وكيف تُدار محادثات المستخدمين داخلها، وإلى أي مدى تبقى هذه المحادثات خاصة بالفعل.