تجدد المخاوف على «خصوصية» المستخدمين من الذكاء الاصطناعي

تجدد المخاوف على «خصوصية» المستخدمين من الذكاء الاصطناعي
TT

تجدد المخاوف على «خصوصية» المستخدمين من الذكاء الاصطناعي

تجدد المخاوف على «خصوصية» المستخدمين من الذكاء الاصطناعي

تجددت المخاوف بشأن تأثير الذكاء الاصطناعي على «خصوصية» بيانات المستخدمين، مع اعتراف شركة «ميتا» باستغلال صور المستخدمين المنشورة على المنصات التابعة لها في تدريب أنظمة الذكاء الاصطناعي الخاصة بها. وتزامن هذا الاعتراف مع تحذيرات أطلقتها منصة «سيغنال» بشأن اعتماد تقنية الذكاء الاصطناعي على ما سمّته «المراقبة الجماعية». ولكن في حين رأى خبراء «خطورة» ذلك على الخصوصية، فإنهم عدّوا أن لا سبيل لحماية البيانات إلا الامتناع عن نشرها رقمياً.

جاء «اعتراف» كريس كوكس، مدير قطاع المنتجات بشركة «ميتا»، على هامش مؤتمر «بلومبرغ تك» الشهر الماضي، عندما قال إن «شركة ميتا تستخدم جميع البيانات التي يشاركها المستخدمون مع الجمهور public، لا سيما الصور في تدريب أنظمة الذكاء الاصطناعي التابعة لها... وتلك البيانات المتنوعة تُسهم في رفع مستوى أداء وكفاءة نتائج تقنيات الذكاء الاصطناعي». وأضاف كوكس أن «ميتا لا تستخدم في هذا المجال الصور والبيانات الجارية تشاركها بشكل خاص (Private) مع الأصدقاء والعائلة عبر الحسابات الشخصية للمستخدمين».

تصريحات المسؤول في شركة «ميتا» تزامنت مع تحذيرات أطلقتها ميريديث ويتاكر، رئيسة منصة «سيغنال»، خلال معرض «فيفاتك» للتكنولوجيا الحديثة، الذي نظم أخيراً في باريس. إذ نقلت وكالة «الصحافة الفرنسية» عن ويتاكر قولها إن «تقنيات الذكاء الاصطناعي الراهنة تعتمد على المراقبة الجماعية، التي باتت المحرك الاقتصادي للقطاع التكنولوجي». وأضافت ويتاكر، التي عملت لأكثر من 10 سنوات على مسألة الأخلاقيات المرتبطة بالذكاء الاصطناعي لدى «غوغل» قبل تركها الشركة، أنّ «الذكاء الاصطناعي يتطلب كمية هائلة من البيانات ويستخدمها في كل مرة ينشئ محتوى... وهذه البيانات التي قد تكون خاطئة بشكل كامل، لديها القدرة على توجيه حياتنا بطريقة ينبغي أن تثير القلق». وبينما ذكرت ويتاكر أن «إتاحة الوصول إلى مجموعات من البيانات والسماح باعتماد مزيد من الشفافية في النماذج أمر مفيد»، فإنها دعت إلى «مراجعة تعريف المقصود بالمصدر المفتوح».

وتعليقاً على هذا الأمر، قالت الدكتورة مي عبد الغني، أستاذة الإعلام بجامعة بنغازي والباحثة في الإعلام الرقمي، في لقاء مع «الشرق الأوسط»، إن «الذكاء الاصطناعي يتمتّع بإمكانات هائلة للوصول إلى بيانات المستخدمين، إذ بإمكانه تتبع أغلب جوانب حياتهم الشخصية... وفي هذا قضاء مبرم على الخصوصية بشكل تام». وأردفت أن «مواقع التواصل الاجتماعي تكفّلت بجمع بيانات المستخدمين، كونها تعدّ تلك البيانات رأسمالها الحقيقي والمحرك لعجلة اقتصادها، وهي تعتمد عليها في العمليات التسويقية والأبحاث الاجتماعية المرتبطة بمشاعر المستخدمين واتجاهاتهم الفكرية وسلوكهم... ومن ثم؛ هناك تأثير لهذه البيانات على المستويين السياسي والأمني لجهة الوصول إلى الناخبين وغير ذلك من الاستخدامات المتنوعة والمتعددة».

وشددت عبد الغني على التأثير الكبير والخطير لإتاحة البيانات بهذا الشكل، مرجحة أن «تزداد وتيرته وتتعاظم مع التطور المتسارع في تطبيقات الذكاء الاصطناعي الذي شهد تطورات متسارعة في السنة الماضية». وفي حين تطرّقت إلى «عمل كثير من مطوّري برمجيات الذكاء الاصطناعي على تطوير برمجيات تحمي بيانات المستخدمين»، لفتت إلى «صعوبة ذلك، لا سيما مع ما يحتمه استخدام تطبيقات مواقع التواصل الاجتماعي من التخلي عن البيانات، وقدر من الخصوصية بشكل أو بآخر».

ثم أوضحت: «هناك تجارب تحاول أن تحمي بيانات المستخدمين، كتجربة الاتحاد الأوروبي الذي أصدر أخيراً لائحة لحماية البيانات، وإقدام بعض المؤسسات الأميركية على استخدام الذكاء الاصطناعي لترميز (تشفير) بيانات المستخدمين، وإجراء التحديثات الأمنية بشكل دوري وآلي. ولكن حماية بيانات المستخدمين تنبع من الوعي الذاتي بأهمية تلك البيانات... ومن الضروري جداً تعزيز المعرفة بإجراءات الأمن الرقمي للحد من التأثيرات السلبية لاختراق الخصوصية». وهنا تلفت إلى أن عدداً من الشركات العاملة على تطوير تقنيات الذكاء الاصطناعي يسعى إلى عقد صفقات مع صُناع المحتوى، ومنصات التواصل والمؤسسات الإعلامية وغيرها، بهدف الحصول على إذن باستخدام المحتوى المنشور رقمياً في تدريب وتشغيل برامج الذكاء الاصطناعي.

من جهته، أشار خالد البرماوي، الباحث المصري في مجال الإعلام الرقمي، في حوار مع «الشرق الأوسط»، إلى أن «قضية الخصوصية وحمايتها في عصر الذكاء الاصطناعي مُثارة، وتتجدد إثارتها بين الحين والآخر، سواءً كان ذلك متعلقاً بالبيانات المنظمة التي تنتجها مؤسسات، أو البيانات العشوائية المنشورة على مواقع التواصل الاجتماعي».

ومع تأكيد البرماوي على «التأثير الكبير» لتقنيات الذكاء الاصطناعي على خصوصية البيانات، فإنه لفت إلى صعوبة ضبط أداء هذه التقنية، قائلاً إن «برامج الذكاء الاصطناعي تستخدم مليارات البيانات، ما يجعل من الصعب التيقن من استخدامها صورة أو معلومة محددة أنتجتها جهة معروفة».


مقالات ذات صلة

يوميات الشرق تقرير «ليونز العالمي» يُعدّ معياراً عالمياً موثوقاً في مجالات الإبداع والتسويق لدى الوكالات والعلامات التجارية (الشرق الأوسط)

«SRMG Labs» تحصد لقب أفضل شركة سعودية للخدمات الإبداعية والإعلانية

حلّت «SRMG Labs» شركة الخدمات الإبداعية والإعلانية في المراتب الأفضل بين الشركات المدرجة هذا العام في تقرير «ليونز العالمي للإبداع».

«الشرق الأوسط» (الرياض)
يوميات الشرق صدر كتاب السيرة الذاتية للإعلامي اللبناني كميل منسّى بعد أشهر على وفاته (الشرق الأوسط)

كميل منسّى يختم نشرته الأخيرة ويمضي

رحل كميل منسى، أحد مؤسسي الإعلام التلفزيوني اللبناني قبل أشهر، فلم يسعفه الوقت ليحقق أمنية توقيع سيرته الذاتية. تسلّم ابنه الأمانة وأشرف على إصدار الكتاب.

كريستين حبيب (بيروت)
العالم شعار مجموعة «ميتا» (رويترز)

«ميتا» تحظر وسائل الإعلام الحكومية الروسية على منصاتها

أعلنت مجموعة «ميتا»، المالكة لـ«فيسبوك» و«إنستغرام» و«واتساب»، فرض حظر على استخدام وسائل الإعلام الحكومية الروسية لمنصاتها، وذلك تجنّبا لأي «نشاط تدخلي أجنبي».

«الشرق الأوسط» (نيويورك)
شؤون إقليمية طرد صحافي من «جويش كرونيكل» لتقارير مزيَّفة عن «حماس» تخدم نتنياهو

طرد صحافي من «جويش كرونيكل» لتقارير مزيَّفة عن «حماس» تخدم نتنياهو

«جويش كرونيكل» تطرد صحافياً لنشره وثائق مزيَّفة تخدم تخريب نتنياهو للهدنة، وادعاءات أن «حماس» ستهرّب المختطفين إلى إيران واليمن.

«الشرق الأوسط» (تل أبيب)

إغلاق «كراود تانغل» يُجدد مخاوف انتشار «الأخبار الزائفة»

نك كليغ (ميتا)
نك كليغ (ميتا)
TT

إغلاق «كراود تانغل» يُجدد مخاوف انتشار «الأخبار الزائفة»

نك كليغ (ميتا)
نك كليغ (ميتا)

أثار قرار شركة «ميتا» إغلاق أداة تعقّب المعلومات المضلّلة «كراود تانغل» مخاوف الباحثين والصحافيين بشأن انتشار المحتوى المضرّ والمضلل، لا سيما مع اقتراب موعد الانتخابات الأميركية.

ويرى خبراء التقتهم «الشرق الأوسط» أن الخطوة تُهدد شفافية الشركة الأبرز في سوق التواصل الاجتماعي. وعدّوا القرار عائقاً أمام الوصول إلى المعلومات والمعطيات الدقيقة، ما يزيد من انتشار الأخبار الزائفة على منصات التواصل.

يذكر أن «ميتا» أعلنت أنها لن تتيح استخدام أداة تتبّع اتجاهات المحتوى على الإنترنت «كراود تانغل» اعتباراً من منتصف أغسطس (آب) الحالي، وهي التي كانت قد استحوذت عليها منذ 2016. وأفادت الشركة العملاقة عبر مدوّنتها بأنها استعاضت عن أداة «كراود تانغل» بمكتبة محتوى تضم بيانات (معطيات) «عالية الجودة» للباحثين، وفق إفادة رسمية أصدرتها الشركة.

وتابعت الشركة أنه «جرى تصميم مكتبة محتوى (ميتا) على نحو يتيح التشارك في البيانات وتحقيق الشفافية، مع تلبية معايير الخصوصية والأمان الصارمة»، غير أن خبراء شككوا في «شفافية» هذه المكتبة.

أكثر من هذا، إعلان «ميتا» في وقت سابق من هذا العام نيّتها إغلاق أداة «كراود تانغل»، قوبل باحتجاج من قِبَل الباحثين والمنظمات غير الربحية، حتى إنه في مايو (أيار) السابق، أرسلت كيانات معنية تضم كلاً من «مركز الديمقراطية والتكنولوجيا الأميركي»، و«مختبر أبحاث الطب الشرعي الرقمي» في «المجلس الأطلسي»، ومنظمة «هيومن رايتس ووتش»، و«مركز وسائل التواصل الاجتماعي والسياسة» التابع لجامعة نيويورك، خطاباً إلى «ميتا»، طالبوا بضرورة «التراجع عن القرار، والإبقاء على أداة تتبّع المعلومات المضللة على الأقل حتى مطلع العام المقبل، أي بعد إجراء الانتخابات الرئاسية الأميركية، المقرر تنظيمها في نوفمبر (تشرين الثاني) المقبل، لكن الشركة لم ترضخ لطلبه»، وفق ما نشرته وكالة «أسوشييتد برس» للأنباء قبل أيام.

أحمد سعيد العلوي، رئيس تحرير «سي إن إن – اقتصادية»، ربط قرار التخلي عن أداة تتبّع المعلومات المضللة الآن بالانتخابات الرئاسية الأميركية. وأشار لـ«الشرق الأوسط» إلى تصريحات نك كليغ، رئيس الشؤون العالمية في «ميتا» -ونائب رئيس وزراء بريطانيا السابق- التي زعم فيها «عجز (كراود تانغل) عن قياس مدى الانتشار الحقيقي للمحتوى، ما يحول دون قدرتها عن عرض ما هو مضلل حقاً على المنصات».

وأضاف: «إضافة إلى ذلك، تسعى (ميتا) إلى تلبية متطلبات الوصول إلى البيانات التي يفرضها قانون الخدمات الرقمية (DSA) للاتحاد الأوروبي، وتعتقد أن الأداة الجديدة مكتبة محتوى (ميتا) (MCL) ستكون أكثر توافقاً مع هذه المتطلبات»، وهذا مع اعتباره «مثيراً للمخاوف».

العلوي تابع: «ثمة مخاوف تتصاعد بشأن شفافية البيانات وإمكانية الوصول إليها، خصوصاً أن مكتبة محتوى (ميتا) تعد أقل شفافية، وقد تتسم بصعوبة في الوصول... وهذه التبعات تعني أن الباحثين والصحافيين سيفقدون أدوات حيوية كانت تتيح لهم تتبّع المعلومات وانتشارها على وسائل التواصل الاجتماعي، ما سيؤثر على قدرتهم على رصد الأخبار الزائفة، خصوصاً في فترات الانتخابات».

ولفت العلوي إلى تأثير إغلاق «كراود تانغل» على الصحافيين بشكل خاص، بقوله: «هذه الأداة كانت متاحة وسهلة الاستخدام، ما أتاح للصحافيين على مدار السنوات السابقة مراقبة اتجاهات المعلومات على نطاق واسع، لكن بعد إغلاقها والاستعاضة عنها بأداة أقل شفافية، سيتعين على الصحافيين الاعتماد على مصادر بيانات أقل موثوقية أو تواجه صعوبة في الوصول إليها».

ومن ثم، يرى العلوي «أن القرار جزء من توجه (ميتا) للابتعاد عن دورها التقليدي في دعم الصحافة والمحتوى الإخباري، خصوصاً في ظل التغييرات الأخيرة التي قامت بها الشركة تجاه الأخبار».

والجدير بالإشارة أن المفوضية الأوروبية طلبت منتصف أغسطس الحالي من «ميتا» تقديم مزيد من التفاصيل بشأن إيقاف «كراود تانغل»، والتدابير التي اتخذتها الشركة لمواصلة الامتثال للالتزامات بموجب قانون الخدمات الرقمية (DSA)، فيما يخص السماح للباحثين بالوصول إلى البيانات.

من جهة ثانية، أفاد محمود تعلب، المتخصص في وسائل التواصل الاجتماعي بدولة الإمارات العربية المتحدة، بأن قرار «ميتا» يعد «خطوة إلى الوراء، لا سيما فيما يخص الصحافيين... إذ قلّص أمام الصحافيين موارد التنقل في مشهد معلوماتي معقد بشكل زائد، ومن شأن هذا إثارة تساؤلات حول مدى التزام «ميتا» بالشفافية، خصوصاً في أيام غدت الحاجة إلى الوصول المفتوح إلى بيانات وسائل التواصل الاجتماعي أكثر أهمية من أي وقت مضى».

تعلب عزا توقيت قرار «ميتا» إلى رغبتها في «تجنّب أي مزاعم محتملة بالتحيّز أو التدخل في العملية الانتخابية الأميركية»، وهذا مع أن غياب «كراود تانغل» ربما يجعل من «الصعب مراقبة ومعالجة حملات المعلومات المضللة التي ربما تستهدف الانتخابات». ومن ثم، قال عن تبعات القرار «قد يواجه الصحافيون تحديات أكبر في تغطية الأخبار العاجلة وفهم الخطاب العام، والتحقيق في انتشار المعلومات المضللة، ولذا يمكن اعتبار هذا القرار جزءاً من تحول أوسع نطاقاً لشركة (ميتا) بعيداً عن المحتوى الإخباري».

واختتم تعلب بالتطرق إلى دور المؤسسات الدولية في المرحلة المقبلة فيما يخص درء تبعات إغلاق أداة «الشفافية»، قائلاً: «إن المعلومات المضللة لا تزال تُشكل تحدياً عالمياً كبيراً. وربما تدفع المؤسسات نحو وضع لوائح أو اتفاقيات جديدة لضمان اتخاذ منصات التواصل الاجتماعي تدابير أكثر استباقية لمكافحة انتشار المعلومات الكاذبة»، مرجحاً «أن تخضع تصرفات (ميتا) للتدقيق عن كثب في هذا السياق، وأيضاً رؤية تعاون متزايد بين المنصات المستقلة المتخصصة في التحقق من الأخبار».