تجدد المخاوف على «خصوصية» المستخدمين من الذكاء الاصطناعي

تجدد المخاوف على «خصوصية» المستخدمين من الذكاء الاصطناعي
TT

تجدد المخاوف على «خصوصية» المستخدمين من الذكاء الاصطناعي

تجدد المخاوف على «خصوصية» المستخدمين من الذكاء الاصطناعي

تجددت المخاوف بشأن تأثير الذكاء الاصطناعي على «خصوصية» بيانات المستخدمين، مع اعتراف شركة «ميتا» باستغلال صور المستخدمين المنشورة على المنصات التابعة لها في تدريب أنظمة الذكاء الاصطناعي الخاصة بها. وتزامن هذا الاعتراف مع تحذيرات أطلقتها منصة «سيغنال» بشأن اعتماد تقنية الذكاء الاصطناعي على ما سمّته «المراقبة الجماعية». ولكن في حين رأى خبراء «خطورة» ذلك على الخصوصية، فإنهم عدّوا أن لا سبيل لحماية البيانات إلا الامتناع عن نشرها رقمياً.

جاء «اعتراف» كريس كوكس، مدير قطاع المنتجات بشركة «ميتا»، على هامش مؤتمر «بلومبرغ تك» الشهر الماضي، عندما قال إن «شركة ميتا تستخدم جميع البيانات التي يشاركها المستخدمون مع الجمهور public، لا سيما الصور في تدريب أنظمة الذكاء الاصطناعي التابعة لها... وتلك البيانات المتنوعة تُسهم في رفع مستوى أداء وكفاءة نتائج تقنيات الذكاء الاصطناعي». وأضاف كوكس أن «ميتا لا تستخدم في هذا المجال الصور والبيانات الجارية تشاركها بشكل خاص (Private) مع الأصدقاء والعائلة عبر الحسابات الشخصية للمستخدمين».

تصريحات المسؤول في شركة «ميتا» تزامنت مع تحذيرات أطلقتها ميريديث ويتاكر، رئيسة منصة «سيغنال»، خلال معرض «فيفاتك» للتكنولوجيا الحديثة، الذي نظم أخيراً في باريس. إذ نقلت وكالة «الصحافة الفرنسية» عن ويتاكر قولها إن «تقنيات الذكاء الاصطناعي الراهنة تعتمد على المراقبة الجماعية، التي باتت المحرك الاقتصادي للقطاع التكنولوجي». وأضافت ويتاكر، التي عملت لأكثر من 10 سنوات على مسألة الأخلاقيات المرتبطة بالذكاء الاصطناعي لدى «غوغل» قبل تركها الشركة، أنّ «الذكاء الاصطناعي يتطلب كمية هائلة من البيانات ويستخدمها في كل مرة ينشئ محتوى... وهذه البيانات التي قد تكون خاطئة بشكل كامل، لديها القدرة على توجيه حياتنا بطريقة ينبغي أن تثير القلق». وبينما ذكرت ويتاكر أن «إتاحة الوصول إلى مجموعات من البيانات والسماح باعتماد مزيد من الشفافية في النماذج أمر مفيد»، فإنها دعت إلى «مراجعة تعريف المقصود بالمصدر المفتوح».

وتعليقاً على هذا الأمر، قالت الدكتورة مي عبد الغني، أستاذة الإعلام بجامعة بنغازي والباحثة في الإعلام الرقمي، في لقاء مع «الشرق الأوسط»، إن «الذكاء الاصطناعي يتمتّع بإمكانات هائلة للوصول إلى بيانات المستخدمين، إذ بإمكانه تتبع أغلب جوانب حياتهم الشخصية... وفي هذا قضاء مبرم على الخصوصية بشكل تام». وأردفت أن «مواقع التواصل الاجتماعي تكفّلت بجمع بيانات المستخدمين، كونها تعدّ تلك البيانات رأسمالها الحقيقي والمحرك لعجلة اقتصادها، وهي تعتمد عليها في العمليات التسويقية والأبحاث الاجتماعية المرتبطة بمشاعر المستخدمين واتجاهاتهم الفكرية وسلوكهم... ومن ثم؛ هناك تأثير لهذه البيانات على المستويين السياسي والأمني لجهة الوصول إلى الناخبين وغير ذلك من الاستخدامات المتنوعة والمتعددة».

وشددت عبد الغني على التأثير الكبير والخطير لإتاحة البيانات بهذا الشكل، مرجحة أن «تزداد وتيرته وتتعاظم مع التطور المتسارع في تطبيقات الذكاء الاصطناعي الذي شهد تطورات متسارعة في السنة الماضية». وفي حين تطرّقت إلى «عمل كثير من مطوّري برمجيات الذكاء الاصطناعي على تطوير برمجيات تحمي بيانات المستخدمين»، لفتت إلى «صعوبة ذلك، لا سيما مع ما يحتمه استخدام تطبيقات مواقع التواصل الاجتماعي من التخلي عن البيانات، وقدر من الخصوصية بشكل أو بآخر».

ثم أوضحت: «هناك تجارب تحاول أن تحمي بيانات المستخدمين، كتجربة الاتحاد الأوروبي الذي أصدر أخيراً لائحة لحماية البيانات، وإقدام بعض المؤسسات الأميركية على استخدام الذكاء الاصطناعي لترميز (تشفير) بيانات المستخدمين، وإجراء التحديثات الأمنية بشكل دوري وآلي. ولكن حماية بيانات المستخدمين تنبع من الوعي الذاتي بأهمية تلك البيانات... ومن الضروري جداً تعزيز المعرفة بإجراءات الأمن الرقمي للحد من التأثيرات السلبية لاختراق الخصوصية». وهنا تلفت إلى أن عدداً من الشركات العاملة على تطوير تقنيات الذكاء الاصطناعي يسعى إلى عقد صفقات مع صُناع المحتوى، ومنصات التواصل والمؤسسات الإعلامية وغيرها، بهدف الحصول على إذن باستخدام المحتوى المنشور رقمياً في تدريب وتشغيل برامج الذكاء الاصطناعي.

من جهته، أشار خالد البرماوي، الباحث المصري في مجال الإعلام الرقمي، في حوار مع «الشرق الأوسط»، إلى أن «قضية الخصوصية وحمايتها في عصر الذكاء الاصطناعي مُثارة، وتتجدد إثارتها بين الحين والآخر، سواءً كان ذلك متعلقاً بالبيانات المنظمة التي تنتجها مؤسسات، أو البيانات العشوائية المنشورة على مواقع التواصل الاجتماعي».

ومع تأكيد البرماوي على «التأثير الكبير» لتقنيات الذكاء الاصطناعي على خصوصية البيانات، فإنه لفت إلى صعوبة ضبط أداء هذه التقنية، قائلاً إن «برامج الذكاء الاصطناعي تستخدم مليارات البيانات، ما يجعل من الصعب التيقن من استخدامها صورة أو معلومة محددة أنتجتها جهة معروفة».


مقالات ذات صلة

يوميات الشرق تقرير «ليونز العالمي» يُعدّ معياراً عالمياً موثوقاً في مجالات الإبداع والتسويق لدى الوكالات والعلامات التجارية (الشرق الأوسط)

«SRMG Labs» تحصد لقب أفضل شركة سعودية للخدمات الإبداعية والإعلانية

حلّت «SRMG Labs» شركة الخدمات الإبداعية والإعلانية في المراتب الأفضل بين الشركات المدرجة هذا العام في تقرير «ليونز العالمي للإبداع».

«الشرق الأوسط» (الرياض)
يوميات الشرق صدر كتاب السيرة الذاتية للإعلامي اللبناني كميل منسّى بعد أشهر على وفاته (الشرق الأوسط)

كميل منسّى يختم نشرته الأخيرة ويمضي

رحل كميل منسى، أحد مؤسسي الإعلام التلفزيوني اللبناني قبل أشهر، فلم يسعفه الوقت ليحقق أمنية توقيع سيرته الذاتية. تسلّم ابنه الأمانة وأشرف على إصدار الكتاب.

كريستين حبيب (بيروت)
العالم شعار مجموعة «ميتا» (رويترز)

«ميتا» تحظر وسائل الإعلام الحكومية الروسية على منصاتها

أعلنت مجموعة «ميتا»، المالكة لـ«فيسبوك» و«إنستغرام» و«واتساب»، فرض حظر على استخدام وسائل الإعلام الحكومية الروسية لمنصاتها، وذلك تجنّبا لأي «نشاط تدخلي أجنبي».

«الشرق الأوسط» (نيويورك)
شؤون إقليمية طرد صحافي من «جويش كرونيكل» لتقارير مزيَّفة عن «حماس» تخدم نتنياهو

طرد صحافي من «جويش كرونيكل» لتقارير مزيَّفة عن «حماس» تخدم نتنياهو

«جويش كرونيكل» تطرد صحافياً لنشره وثائق مزيَّفة تخدم تخريب نتنياهو للهدنة، وادعاءات أن «حماس» ستهرّب المختطفين إلى إيران واليمن.

«الشرق الأوسط» (تل أبيب)

ملخصات الذكاء الاصطناعي على «غوغل» تقلق ناشري الأخبار

ملخصات الذكاء الاصطناعي على «غوغل» تقلق ناشري الأخبار
TT

ملخصات الذكاء الاصطناعي على «غوغل» تقلق ناشري الأخبار

ملخصات الذكاء الاصطناعي على «غوغل» تقلق ناشري الأخبار

أثار إطلاق «غوغل» خدمة ملخصات الأخبار المدعومة بالذكاء الاصطناعي، أو ما أطلقت عليه «Google AI Overviews»، قلق الناشرين، بسبب تأثير هذا الاتجاه على نتائج البحث، إذ تسبب ذلك في «دفن» المحتوى الأصلي المُعَد من قِبل ناشرين مُحنكين أسفل الملخصات والإعلانات المدفوعة، وفق مراقبين.

«غوغل» كانت قد أعلنت نهاية أغسطس (آب) الماضي عن إطلاق ملخصات مكتوبة بواسطة الذكاء الاصطناعي لبعض الأخبار، وتصدّرها نتائج البحث قبل الأخبار، في تجربة اقتصرت على الولايات المتحدة وبريطانيا.

ويذكر أن «غوغل» أطلقت الخدمة عينها في 21 مايو (أيار) الماضي في الولايات المتحدة، لكنها أوقفت لاحقاً بعد الكشف عن «نتائج غير دقيقة أنتجت بواسطة الذكاء الاصطناعي». ومع أنه يندر لـ«غوغل» تقديم ملخصات لأحداث جارية، أبلغ خبراء «الشرق الأوسط» في لقاءات معهم عن قلقهم بشأن تأثير هذه الخطوة على «ظهور الصحف ومصادر الأخبار الرئيسية خلال عمليات البحث في مراتب متأخرة».

وفق نتائج نشرتها شركة «أوثوريتاس» للاستشارات البحثية على موقعها الرسمي، فإن 17 في المائة من نتائج البحث على «غوغل» في بريطانيا والولايات المتحدة تتصدرها ملخّصات مدعومة بالذكاء الاصطناعي، في حين يظهر مصدر الخبر في مراتب متأخرة. وقال الرئيس التنفيذي للشركة، لورانس أوتول، لـ«بريس غازيت»، إنه يعتقد أن خدمة ملخصات «غوغل» ستصبح «الأولوية في نتائج البحث»، وأشار إلى أن «غوغل لم تكن واضحة بشأن معايير نتائج محركات البحث، ما قد يؤثر على زيارات المواقع الإخبارية».

محمد الكبيسي، الباحث والمدرب العراقي في الإعلام الرقمي بفنلندا، قال: «إن ملخصات الأخبار المدعومة بالذكاء الاصطناعي من (غوغل) ربما تكون مفيدة؛ لكن إذا خضعت لضوابط الشفافية». وأوضح أن «هذه الخدمة قد تفيد الذين يبحثون عن معلومات سريعة وشاملة حول موضوعات معينة... وإذا طبّقت هذه التقنية بدقة، فإنها قد توفر قيمة مضافة للمستخدمين».

وعن تأثير هذا الاتجاه على الأخبار، شرح الكبيسي أن «هذا الاتجاه لا يعني بالضرورة تقليص حجم الأخبار، بل يمكن أن يكون تكميلياً، فالملخصات توفر نظرة عامة سريعة، في حين تظل المقالات الإخبارية المفصلة متاحة لأولئك الذين يرغبون في قراءة معلومات أعمق... ذلك أن الأمر يتعلق بتلبية احتياجات مختلفة من الجمهور».

من جهة ثانية، يؤيد الباحث العراقي حقوق الناشرين، موضحاً: «يجب أن تحقق ملخصات (غوغل) هذه عنصر الشفافية، وهذا مرهون بالإشارة إلى المصادر الأصلية. المصادر الإخبارية الأصلية عنصر أساسي لاستمرارية هذه الخدمات، كما أن إظهار المصادر بوضوح يسهم في ضمان الاعتراف الدقيق بالمحتوى الأصلي»، مشدداً على حتمية تكامل الجهود بين «غوغل» والناشرين لضمان تحسين الخدمات.

أما بشأن معارضة البعض لخدمات «غوغل» المدعومة بالذكاء الاصطناعي خوفاً على مستقبل الناشرين، فيرى محمد الكبيسي أن ثمة جهوداً يجب أن تُبذل من قبل الطرفين، «ومن المهم أن تعمل الصحف على تطوير استراتيجيات رقمية فعالة تتناسب مع التطور السريع في العالم الرقمي وآلياته، والتأكد من أن تقنيات الذكاء الاصطناعي تبرز المصادر بوضوح، كما أن التعاون مع مقدمي الخدمات، رُبما يمكن أن يسهم في تحقيق توازن بين الابتكار والحفاظ على حقوق المحتوى».

هذا، وفي تجربة أجرتها صحيفة «بريس غازيت» لقياس مدى تأثير ملخصات «غوغل» المدعومة بالذكاء الاصطناعي على الأخبار، وجدت أنه لدى البحث عن إجابة لسؤال: «مَن هم رؤساء تحرير الصحف الوطنية في بريطانيا؟»، يقدم «غوغل» ملخصاً بواسطة الذكاء الاصطناعي بوصفه نتيجة أولى. وأشارت إلى أن المعلومات التي استند إليها الملخص مصدرها تقرير سابق نشرته «بريس غازيت»، لكن الملخص لم يُشر لها بصفته مالكاً أصلياً للمعلومات، في حين ظهر رابط التقرير الأصلي في نتائج متأخرة على محرك البحث.

وتعليقاً على خدمة الملخصات الإخبارية من «غوغل»، قالت الدكتورة رضوى عبد اللطيف، مدير العلاقات الأكاديمية بمؤسسة «صحافة الذكاء الاصطناعي للبحث والاستشراف» في دبي، وخبيرة ومدربة الإعلام الرقمي وصحافة الذكاء الاصطناعي، لـ«الشرق الأوسط»: «إن (غوغل) عازمة على مواصلة طريقها نحو مشاريع الذكاء الاصطناعي، وفي هذا الإطار عقدت شراكات مع ناشرين بارزين بهدف مشاريع تغذية أدوات الذكاء الاصطناعي بالمعلومات... غير أن هذا لا يُشير إلى إمكانية الاستغناء عن المنصات الإخبارية، وإن شهدت تأثيراً يخص ظهورها على محرك البحث، ومن ثم تراجع الزيارات».

وتابعت رضوى عبد اللطيف: «في تجربة (غوغل) التي صدرت للمرة الأولى في مايو الماضي، أمكن رصد معلومات غير دقيقة، وهو أمر وارد ومقبول، لكن علينا أن نعي، سواء أكنا متخصصين أم حتى مستخدمين، أنه لا يمكن الاعتماد على الذكاء الاصطناعي وحده للحصول على المعلومات، بينما هو أداة لها حدود». وأضافت: «لا يمكننا الثقة بعد في قواعد بيانات أدوات الذكاء الاصطناعي، لا سيما أنه جرى رصد محتوى متحيز وغير دقيق؛ لذلك لا غنى عن المراجعة البشرية».

رضوى عبد اللطيف عدّت، من ناحية ثانية، أنه بوسع الناشرين حماية دورهم ومحتواهم، من خلال إبرام صفقات مع شركات التكنولوجيا على شاكلة «غوغل». وشرحت: «على الناشرين التكيف والاستفادة، من خلال قواعد تحمي حقوق الملكية للأرشيف، كما يجب أن يعمل الناشرون مع أكثر من محرك بحث لمقاومة نموذج الاحتكار الممثل في (غوغل)، الذي أضر بالصحف الفترة الماضية».