تجدد المخاوف على «خصوصية» المستخدمين من الذكاء الاصطناعي

تجدد المخاوف على «خصوصية» المستخدمين من الذكاء الاصطناعي
TT

تجدد المخاوف على «خصوصية» المستخدمين من الذكاء الاصطناعي

تجدد المخاوف على «خصوصية» المستخدمين من الذكاء الاصطناعي

تجددت المخاوف بشأن تأثير الذكاء الاصطناعي على «خصوصية» بيانات المستخدمين، مع اعتراف شركة «ميتا» باستغلال صور المستخدمين المنشورة على المنصات التابعة لها في تدريب أنظمة الذكاء الاصطناعي الخاصة بها. وتزامن هذا الاعتراف مع تحذيرات أطلقتها منصة «سيغنال» بشأن اعتماد تقنية الذكاء الاصطناعي على ما سمّته «المراقبة الجماعية». ولكن في حين رأى خبراء «خطورة» ذلك على الخصوصية، فإنهم عدّوا أن لا سبيل لحماية البيانات إلا الامتناع عن نشرها رقمياً.

جاء «اعتراف» كريس كوكس، مدير قطاع المنتجات بشركة «ميتا»، على هامش مؤتمر «بلومبرغ تك» الشهر الماضي، عندما قال إن «شركة ميتا تستخدم جميع البيانات التي يشاركها المستخدمون مع الجمهور public، لا سيما الصور في تدريب أنظمة الذكاء الاصطناعي التابعة لها... وتلك البيانات المتنوعة تُسهم في رفع مستوى أداء وكفاءة نتائج تقنيات الذكاء الاصطناعي». وأضاف كوكس أن «ميتا لا تستخدم في هذا المجال الصور والبيانات الجارية تشاركها بشكل خاص (Private) مع الأصدقاء والعائلة عبر الحسابات الشخصية للمستخدمين».

تصريحات المسؤول في شركة «ميتا» تزامنت مع تحذيرات أطلقتها ميريديث ويتاكر، رئيسة منصة «سيغنال»، خلال معرض «فيفاتك» للتكنولوجيا الحديثة، الذي نظم أخيراً في باريس. إذ نقلت وكالة «الصحافة الفرنسية» عن ويتاكر قولها إن «تقنيات الذكاء الاصطناعي الراهنة تعتمد على المراقبة الجماعية، التي باتت المحرك الاقتصادي للقطاع التكنولوجي». وأضافت ويتاكر، التي عملت لأكثر من 10 سنوات على مسألة الأخلاقيات المرتبطة بالذكاء الاصطناعي لدى «غوغل» قبل تركها الشركة، أنّ «الذكاء الاصطناعي يتطلب كمية هائلة من البيانات ويستخدمها في كل مرة ينشئ محتوى... وهذه البيانات التي قد تكون خاطئة بشكل كامل، لديها القدرة على توجيه حياتنا بطريقة ينبغي أن تثير القلق». وبينما ذكرت ويتاكر أن «إتاحة الوصول إلى مجموعات من البيانات والسماح باعتماد مزيد من الشفافية في النماذج أمر مفيد»، فإنها دعت إلى «مراجعة تعريف المقصود بالمصدر المفتوح».

وتعليقاً على هذا الأمر، قالت الدكتورة مي عبد الغني، أستاذة الإعلام بجامعة بنغازي والباحثة في الإعلام الرقمي، في لقاء مع «الشرق الأوسط»، إن «الذكاء الاصطناعي يتمتّع بإمكانات هائلة للوصول إلى بيانات المستخدمين، إذ بإمكانه تتبع أغلب جوانب حياتهم الشخصية... وفي هذا قضاء مبرم على الخصوصية بشكل تام». وأردفت أن «مواقع التواصل الاجتماعي تكفّلت بجمع بيانات المستخدمين، كونها تعدّ تلك البيانات رأسمالها الحقيقي والمحرك لعجلة اقتصادها، وهي تعتمد عليها في العمليات التسويقية والأبحاث الاجتماعية المرتبطة بمشاعر المستخدمين واتجاهاتهم الفكرية وسلوكهم... ومن ثم؛ هناك تأثير لهذه البيانات على المستويين السياسي والأمني لجهة الوصول إلى الناخبين وغير ذلك من الاستخدامات المتنوعة والمتعددة».

وشددت عبد الغني على التأثير الكبير والخطير لإتاحة البيانات بهذا الشكل، مرجحة أن «تزداد وتيرته وتتعاظم مع التطور المتسارع في تطبيقات الذكاء الاصطناعي الذي شهد تطورات متسارعة في السنة الماضية». وفي حين تطرّقت إلى «عمل كثير من مطوّري برمجيات الذكاء الاصطناعي على تطوير برمجيات تحمي بيانات المستخدمين»، لفتت إلى «صعوبة ذلك، لا سيما مع ما يحتمه استخدام تطبيقات مواقع التواصل الاجتماعي من التخلي عن البيانات، وقدر من الخصوصية بشكل أو بآخر».

ثم أوضحت: «هناك تجارب تحاول أن تحمي بيانات المستخدمين، كتجربة الاتحاد الأوروبي الذي أصدر أخيراً لائحة لحماية البيانات، وإقدام بعض المؤسسات الأميركية على استخدام الذكاء الاصطناعي لترميز (تشفير) بيانات المستخدمين، وإجراء التحديثات الأمنية بشكل دوري وآلي. ولكن حماية بيانات المستخدمين تنبع من الوعي الذاتي بأهمية تلك البيانات... ومن الضروري جداً تعزيز المعرفة بإجراءات الأمن الرقمي للحد من التأثيرات السلبية لاختراق الخصوصية». وهنا تلفت إلى أن عدداً من الشركات العاملة على تطوير تقنيات الذكاء الاصطناعي يسعى إلى عقد صفقات مع صُناع المحتوى، ومنصات التواصل والمؤسسات الإعلامية وغيرها، بهدف الحصول على إذن باستخدام المحتوى المنشور رقمياً في تدريب وتشغيل برامج الذكاء الاصطناعي.

من جهته، أشار خالد البرماوي، الباحث المصري في مجال الإعلام الرقمي، في حوار مع «الشرق الأوسط»، إلى أن «قضية الخصوصية وحمايتها في عصر الذكاء الاصطناعي مُثارة، وتتجدد إثارتها بين الحين والآخر، سواءً كان ذلك متعلقاً بالبيانات المنظمة التي تنتجها مؤسسات، أو البيانات العشوائية المنشورة على مواقع التواصل الاجتماعي».

ومع تأكيد البرماوي على «التأثير الكبير» لتقنيات الذكاء الاصطناعي على خصوصية البيانات، فإنه لفت إلى صعوبة ضبط أداء هذه التقنية، قائلاً إن «برامج الذكاء الاصطناعي تستخدم مليارات البيانات، ما يجعل من الصعب التيقن من استخدامها صورة أو معلومة محددة أنتجتها جهة معروفة».


مقالات ذات صلة

إصابة مصورَين صحافيَين بنيران إسرائيلية في جنوب لبنان

المشرق العربي جنود إسرائيليون يقودون مركباتهم في منطقة قريبة من الحدود الإسرائيلية اللبنانية كما شوهد من شمال إسرائيل الأربعاء 27 نوفمبر 2024 (أ.ب)

إصابة مصورَين صحافيَين بنيران إسرائيلية في جنوب لبنان

أصيب مصوران صحافيان بجروح بعد إطلاق جنود إسرائيليين النار عليهما في جنوب لبنان اليوم الأربعاء.

«الشرق الأوسط» (بيروت)
المشرق العربي نازحون في أثناء عودتهم إلى قراهم بعد وقف إطلاق النار بين إسرائيل و«حزب الله» الذي دخل حيز التنفيذ يوم الأربعاء 27 نوفمبر 2024... الصورة في أبلح شرقي لبنان (أ.ب)

«انتصار للبيت الأبيض»... صحف تحلل اتفاق وقف إطلاق النار في لبنان

رأى موقع «بوليتيكو» أن اتفاق وقف إطلاق النار «انتصار كبير للبيت الأبيض»، وقالت «نيويورك تايمز» إن بايدن يريد تذكّره بأنه وضع الشرق الأوسط على طريق تسوية دائمة.

«الشرق الأوسط» (بيروت)
آسيا خلال احتجاج نظمته حركة «طالبان» في أفغانستان (رويترز - أرشيفية)

إحصاء 336 اعتداءً ضد الصحافيين في 3 سنوات من حكم «طالبان» في أفغانستان

أفادت الأمم المتحدة، الثلاثاء، بأنها سجّلت 336 اعتداءً على صحافيين وعاملين في وسائل إعلام منذ عودة «طالبان» لحكم أفغانستان في أغسطس 2021.

«الشرق الأوسط» (جنيف)
شمال افريقيا مبنى التلفزيون المصري في ماسبيرو (الهيئة الوطنية للإعلام)

تشكيلة جديدة للهيئات الإعلامية بمصر وسط ترقب لتغييرات

استقبلت الأوساط الإعلامية والصحافية المصرية، التشكيلة الجديدة للهيئات المنظمة لعملهم، آملين في أن تحمل معها تغييرات إيجابية.

فتحية الدخاخني (القاهرة)
المشرق العربي المسؤول الإعلامي في «حزب الله» محمد عفيف خلال مؤتمر صحافي بالضاحية الجنوبية لبيروت (أ.ف.ب) play-circle 00:40

محمد عفيف... صوت «حزب الله» وحائك سياسته الإعلامية

باغتيال مسؤول العلاقات الإعلامية في «حزب الله» محمد عفيف تكون إسرائيل انتقلت من اغتيال القادة العسكريين في الحزب إلى المسؤولين والقياديين السياسيين والإعلاميين.

بولا أسطيح (بيروت)

تساؤلات بشأن سياسات «ميتا» لحماية المستخدمين بعد حذف مليوني حساب

شعار «ميتا» مطبوع بتقنية الطباعة ثلاثية الأبعاد على لوحة مفاتيح كومبيوتر جوال (رويترز)
شعار «ميتا» مطبوع بتقنية الطباعة ثلاثية الأبعاد على لوحة مفاتيح كومبيوتر جوال (رويترز)
TT

تساؤلات بشأن سياسات «ميتا» لحماية المستخدمين بعد حذف مليوني حساب

شعار «ميتا» مطبوع بتقنية الطباعة ثلاثية الأبعاد على لوحة مفاتيح كومبيوتر جوال (رويترز)
شعار «ميتا» مطبوع بتقنية الطباعة ثلاثية الأبعاد على لوحة مفاتيح كومبيوتر جوال (رويترز)

أثار قرار شركة «ميتا» بحذف أكثر من مليونَي حساب على منصات «فيسبوك»، و«إنستغرام»، و«واتساب»، خلال الأشهر الماضية، تساؤلات بشأن سياسات الشركة حول حماية بيانات المستخدمين، لا سيما أن القائمين على القرار برّروا الخطوة بأنها جاءت بهدف «مواجهة عمليات الاحتيال الرقمي». ووفق خبراء تحدَّثوا مع «الشرق الأوسط» فإن «الخطوة تعد تطوراً في سياسات (ميتا) لحماية البيانات».

«ميتا» ذكرت، في تقرير صدر نهاية نوفمبر (تشرين الثاني) الماضي، أن السبب وراء حذف الحسابات هو «رصد عمليات احتيال رقمي كانت قد قامت بها تلك الحسابات». ويُعدّ هذا التقرير الأول الذي تكشف من خلاله «ميتا» عن تفاصيل استراتيجيتها للتصدي للأنشطة الاحتيالية العابرة للحدود. وعدّ مراقبون هذه الخطوة تعزيزاً لاتباع سياسة واضحة تجاه أي اختراق لحماية المستخدمين. وكتبت الشركة عبر مدونتها «لا مكان على (فيسبوك) أو (إنستغرام) أو (واتساب) للمجموعات أو الأفراد الذين يروّجون للعنف، والإرهاب، أو الجريمة المنظمة، أو الكراهية».

هيفاء البنا، الصحافية اللبنانية والمدرّبة في الإعلام ومواقع التواصل، رأت في لقاء مع «الشرق الأوسط» أن «ميتا» تعمل على تحديث أدواتها لحماية المستخدمين. وأضافت: «تركز سياسات (ميتا) على الحدِّ من الجريمة المنظمة عبر استخدام تقنيات الذكاء الاصطناعي (AI) المتطورة، وتعمل هذه التقنيات على تحليل النشاطات المُريبة على المنصات واكتشاف المحتويات المرتبطة بالجريمة المنظمة».

ووفق البنا فإن «(ميتا) تُراجع وتحدّث سياساتها بشكل دوري، كي تتفادى أي تهديدات تلاحق المستخدمين، وكانت الشركة قد أوضحت أن خوادمها الـ(Servers) المنتشرة في الدول يتم تحديثها بشكل دوري؛ لضمان مواكبة أي تغييرات، ولضمان بيئة أكثر أماناً لمستخدمي منصاتها حول العالم».

وأردفت: «التزاماً بلائحة حماية البيانات العامة، تتعامل (ميتا) مع الأشخاص الذين تُحلّل بياناتهم عبر رموز مشفّرة، وليس عبر أسمائهم الحقيقية، ما يضمن الحفاظ على خصوصياتهم»، مشيرة إلى أن حماية بيانات المستخدمين لا تتوقف على «ميتا» فقط.

إذ شدّدت الإعلامية والمدرّبة اللبنانية على تدابير يجب أن يتخذها المستخدم نفسه لحماية بياناته، إذ توصي مثلاً «بتفعيل خاصية (التحقق بخطوتين/ Two-Factor Authentication)؛ لضمان أمان الحسابات، ويمكن أيضاً استخدام تطبيقات مثل (Google Authentication)، التي تولّد رموزاً سرية تُستخدم للدخول والتحقق من هوية المستخدم، وكذا يمكن استخدام خاصية الإبلاغ التي توفّرها (ميتا) بسرية تامة، حيث يصار إلى التعامل مع هذه البلاغات من خلال فرق مختصة أو تقنيات الذكاء الاصطناعي؛ لضمان بيئة آمنة للجميع».

معتز نادي، المدرّب المتخصص في الإعلام الرقمي، عدّ خلال حوار مع «الشرق الأوسط» تحرّكات «ميتا» الأخيرة انعكاساً لـ«تفاقم مشكلة الاحتيال عبر الإنترنت وزيادة التهديدات السيبرانية التي تواجه المستخدمين». ورأى أن «تحديات (ميتا)» تصطدم بتطور الاحتيال، وازدياد عدد المستخدمين بما يتجاوز نحو مليارَي مستخدم، وتشديد الرقابة الرقمية التي تضعها في مرمى نيران الانتقادات، خصوصاً مع انتقاد خوارزمياتها الكثير من الأحداث السياسية التي شهدها العالم أخيراً.

وحول جدية «ميتا» في حماية بيانات المستخدمين، قال معتز نادي: «بنظرة إلى المستقبل، سيكون الأمان الرقمي بحاجة إلى مجاراة التطور من حيث تقنيات الذكاء الاصطناعي، والعمل على تثقيف المستخدمين عبر وسائل الإعلام والمنصات الرقمية لمنع أي اختراق لخصوصياتهم».