تمديد «ميتا» لقيود الإعلانات... هل يحُدّ من «المعلومات المضلّلة»؟

ترند

تمديد «ميتا» لقيود الإعلانات... هل يحُدّ من «المعلومات المضلّلة»؟
TT

تمديد «ميتا» لقيود الإعلانات... هل يحُدّ من «المعلومات المضلّلة»؟

تمديد «ميتا» لقيود الإعلانات... هل يحُدّ من «المعلومات المضلّلة»؟

أثار إعلان شركة «ميتا» تمديد فترة تقييد الإعلانات المتعلقة بالقضايا الاجتماعية أو السياسية لما بعد انتخابات الرئاسة الأميركية، من دون أن تحدّد الشركة وقتاً لنهاية هذا التمديد، تساؤلات حول مدى فاعلية القرار في الحدّ من انتشار «المعلومات المضلّلة»، يأتي ذلك بالتزامن مع رصد تجاوزات مرّرَتها المنصة الأشهَر «فيسبوك» خلال الفترة السابقة برغم تقييد الإعلانات.

ما يُذكر أن «فيسبوك» أعانت بنهاية أكتوبر (تشرين الأول) الماضي «حظر أي إعلان يحمل رسائل توجيه سياسي أو اجتماعي من شأنه التأثير في سير الانتخابات الرئاسية الأميركية»، غير أن مراقبين قاموا برصد تجاوزات على المنصة وصفوها بـ«التضليل»، وقالوا إن «فلاتر» المحتوى على «ميتا» – التي تملك «فيسبوك» – «غير متمرّسة» بما يكفي لتمييز المحتوى الذي ينتهك إرشادات المصداقية، ما يثير شكوكاً بشأن جدوى قرار الشركة تقييد الإعلانات.

الدكتور حسن مصطفى، أستاذ التسويق الرقمي والذكاء الاصطناعي في عدد من الجامعات الإماراتية، عدّ قرار «ميتا» الأخير «محاولةً لتجاوز المخاوف المتزايدة حول استغلال الإعلانات في التأثير على الرأي العام»، وقال لـ«الشرق الأوسط» إن «ميتا تخشى اتهامها بنشر المعلومات غير الموثوقة بشكل واسع إبان الفترات الانتخابية وما بعدها، لا سيما وأنه سبق اتهام الشركة من قبل بوجود محتوى يؤثر على الرأي العام خلال فترات انتخابية سابقة».

وعن دور «ميتا» في الحدّ من «المعلومات المضللة»، أوضح مصطفى أنه «لا تزال المعلومات المضلّلة تحدياً قائماً برغم ما اتخذته (ميتا) من إجراءات لمكافحتها، والتقليل من انتشار الأخبار الكاذبة»، وقال عن دور الشركة في هذا الصدد: «لقد عزّزَت (ميتا) التعاون مع جهات خارجية للتحقّق من صحة الأخبار، فباتت تعتمد على منظمة (فاكت تشيك/ FactCheck)، وشبكات من المؤسسات المستقلة؛ للتحقّق من الأخبار المتداوَلة عبر المنصة».

واستشهد الدكتور مصطفى ببعض التقارير الصادرة عن منظمة «هيومن رايتس ووتش»، التي أظهرت إحراز «ميتا» تقدماً في مجال الحد من «خطاب الكراهية»؛ «إذ تمكّنت خوارزميات الشركة من التعرّف على بعض الأنماط المتكرّرة للمحتوى المسيء، وحذفه تلقائياً قبل أن ينتشر»، غير أنه مع ذلك عدّ إجراءات «ميتا» غير كافية، مشيراً إلى أن «خوارزميات الذكاء الاصطناعي ما زالت محدودة القدرة على معالجة المحتوى بلغات ولهجات متنوعة، أو فهم السياقات الثقافية المعقّدة، ما يجعل من الصعوبة بمكان وضع حدود واضحة أمام تحقيق نجاح كامل في تقليص خطاب الكراهية».

هذا، وكانت المنظمة الدولية «غلوبال ويتنس» قد أعدّت تقريراً حول ما إذا كانت منصات التواصل الاجتماعي قادرةً على اكتشاف وإزالة «المعلومات المضلّلة الضارّة»، لا سيما المتعلقة بانتخابات الرئاسة الأميركية، وأشارت في نتائجها عقب الانتخابات الأميركية إلى أن أداء «فيسبوك» كان أفضل مقارنةً بمنصة مثل «تيك توك»، لكن التقرير لم ينفِ التورّط في نشر «معلومات مضلّلة» برغم القيود، كذلك ذكر التقرير أن «فيسبوك» وافَق على واحد من بين 8 إعلانات اختبرت بها المنظمة قيود المنصة للحَدّ من «المعلومات المضلّلة»، ما رأته المنظمة «تحسّناً ملحوظاً مقارنةً بأداء المنصة السابق مع أنه لا يزال غير كافٍ».

من ناحية أخرى أشار تقرير صادر عن منظمات المجتمع المدني «إيكو» و«المراقبة المدنية الهندية الدولية»، إلى أن «ميتا» سمحت بظهور إعلانات تحتوي على عبارات تحريضية ضد الأقليات على منصّتها خلال فترة الانتخابات الأميركية، كما أشارت إلى رصد «محتوى زائف» مصنوع بأدوات الذكاء الاصطناعي.

وحول هذا الأمر، علّق خالد عبد الراضي، الخبير في إدارة وتحليل بيانات «السوشيال ميديا» بمصر والمملكة العربية السعودية، لـ«الشرق الأوسط»، على قرار «ميتا» بالقول إننا بصدد محاولات عدّها «غير جادة»، ودلّل على ذلك بأن «(ميتا) قيّدت الإعلانات قبل الانتخابات الأميركية بأسبوع واحد فقط، وهذه مدة غير كافية إذا كانت المنصة بالفعل جادّة في الحدّ من التضليل والتأثير على الرأي العام، مثلاً (إكس) كانت أكثر جدّية من خلال تقييد أي منشور موجّه قبل الانتخابات بشهر»، مشيراً إلى أنه «بالتبعية شاهدنا على منصة (فيسبوك) محتوى مضلّلاً وزائفاً طُوّر بالذكاء الاصطناعي».

وأوضح عبد الراضي أن «(ميتا) لم تفرض قيوداً على الإعلانات بشكل عام، بل على نوع واحد فقط هو الإعلانات السياسية المدفوعة، ومن ثم تركت المجال أمام التضليل والتأثير على الرأي العام»، ودلّل كذلك على قلة جدّية الشركة بقوله: «بعد الانتخابات الأميركية في 2020 واجهت (ميتا) عدة اتهامات بتوجيه الرأي العام، ما دفع الشركة لاتخاذ إجراءات جادّة، من بينها توظيف (فِرق سلامة) معنية بمراجعة النصوص؛ للتأكد من ملاءمتها مع معايير المنصة، غير أن عمل هذه الفِرق أُنهِي لاحقاً، ما يشير إلى أن ادّعاءات المنصة لم تكن جدّية».


مقالات ذات صلة

«ميتا إيه آي» مرة أخرى… روبوت الدردشة «المُخصّص شخصياً» يُثير مخاوف الخصوصية

تكنولوجيا «ميتا إيه آي» مرة أخرى… روبوت الدردشة «المُخصّص شخصياً» يُثير مخاوف الخصوصية

«ميتا إيه آي» مرة أخرى… روبوت الدردشة «المُخصّص شخصياً» يُثير مخاوف الخصوصية

تاريخ الشركة في التعامل مع المعلومات الشخصية في الماضي قد يدفع بعض المستخدمين إلى التوقف عن استخدامه

كريس موريس (واشنطن)
تكنولوجيا تطبيق «ميتا» للذكاء الاصطناعي... كارثة قد تهدد الخصوصية

تطبيق «ميتا» للذكاء الاصطناعي... كارثة قد تهدد الخصوصية

منذ أن أطلق «تشات جي بي تي» ثورة الذكاء الاصطناعي التوليدي في نوفمبر 2022، أصبح التفاعل مع الذكاء الاصطناعي أشبه بغرفة اعتراف رقمية.

كريس ستوكل - والكر (واشنطن)
يوميات الشرق مؤسس شركة «ميتا» مارك زوكربيرغ (أ.ب)

مارك زوكربيرغ يعترف بأنه «الشخص الأكثر غرابة»

وصف الملياردير مارك زوكربيرغ نفسه بأنه «الشخص الأكثر غرابة» - واعترف بأن هناك كلمة واحدة وُصف بها على الإنترنت أضرّت بثقته بنفسه.

«الشرق الأوسط» (واشنطن)
تكنولوجيا شعار شركة «ميتا» (رويترز)

لمنافسة «شات جي بي تي»... «ميتا» تطلق تطبيقاً مستقلاً للذكاء الاصطناعي

كشفت شركة «ميتا» العملاقة في مجال التواصل الاجتماعي، الثلاثاء، عن أول تطبيق مستقل لها لخدمات المساعدة بالذكاء الاصطناعي.

«الشرق الأوسط» (واشنطن)
الولايات المتحدة​ العلامة التجارية لشركة «ميتا» (رويترز)

«ميتا» تتيح بعض ميزات الذكاء الاصطناعي في نظاراتها الذكية لمختلف مستخدميها

أعلنت شركة «ميتا»، أمس (الأربعاء)، أنّ بعض الميزات مثل الترجمة الفورية ستُصبح مُتاحة لمختلف مستخدمي نظاراتها «راي بان» التي تعمل بالذكاء الاصطناعي.

«الشرق الأوسط» (باريس)

«تشات جي بي تي» يثير جدلاً بشأن تحديث أسماء المُستخدمين

هاني سيمو (الشرق الأوسط)
هاني سيمو (الشرق الأوسط)
TT

«تشات جي بي تي» يثير جدلاً بشأن تحديث أسماء المُستخدمين

هاني سيمو (الشرق الأوسط)
هاني سيمو (الشرق الأوسط)

أثار تحديث ظهر على تطبيق «تشات جي بي تي» سجالاً بين خبراء التكنولوجيا والمُستخدمين، بعد ملاحظة أن الروبوت الخاص بالتطبيق يسمّي المُستخدمين بأسمائهم، حتى من دون إخباره بتلك الأسماء أو إعطائه صلاحية تخزينها، ما عدّه بعض الخبراء «اختراقاً للخصوصية». وأيضاً فتح التحديث جدلاً حول مستقبل بيانات المُستخدمين وحدود استخدامها دون موافقة مسبقة.

كان التطبيق قد عزّز تجربة الاستخدام منذ أبريل (نيسان) الماضي، بميزة «غير معلنة» تتلخّص في تقديم الإجابات أو الاستنتاجات بشكل شخصي للمُستخدم من خلال ذكر اسمه، وهو «سلوك لم يكن موجوداً في النسخ السابقة».

اللافت أن بعض المُستخدمين تكلّموا عن تجربتهم عبر تطبيق «إكس»، وقالوا إنهم عطّلوا خاصية «الذاكرة» وإعدادات التخصيص، ومع ذلك لم يتوقف الروبوت عن إدراج اسم الشخص داخل الإجابة، الأمر الذي أثار تساؤلات حول مدى اهتمام الشركة المالكة للتطبيق «أوبن إيه آي» بـ«حماية الخصوصية»، ومدى وعي المُستخدم بهذه التعديلات البرمجية المثيرة للقلق.

وعلى منصة «إكس» (تويتر سابقاً)، توالت تغريدات عشرات المُستخدمين الذين أعربوا عن استيائهم أو ارتباكهم من أن يبدأ الروبوت في مخاطبتهم بأسمائهم دون طلب.

فادي عمروش (الشرق الأوسط)

ميزة غير معلنة

جدير بالإشارة أن شركة «أوبن إيه آي» لم تعلن بشكل رسمي عن هذا التحديث، كما لم تردّ حتى الآن على استفسارات المُستخدمين حول السبب وراء التحديث أو إمكانية تعطيله حسب الرغبة. ومع أن البعض يربط السلوك بميزة «الذاكرة» الجديدة التي تمكن «تشات جي بي تي» من تخصيص الردود بناءً على محادثات سابقة، فإن ظهور الأسماء لدى مَن عطّلوا هذه الميزة «يضع علامات استفهام حول مستوى الشفافية في التصميم البرمجي».

هاني سيمو، خبير المشاريع الرقمية في دولة الإمارات العربية المتحدة، رأى في لقاء مع «الشرق الأوسط»، أن استخدام «تشات جي بي تي» أسماء المٌستخدمين «لا يخرج عن كونه ميزة ضمن تطوير النماذج، وتهدف إلى تحسين تجربة المُستخدم»، مضيفاً: «استخدام الأسماء في المحادثات يضفي مزيداً من الطابع الشخصي، ويجعلها أقرب إلى التواصل البشري. ومن ثم جاء التحديث لتحسين أسلوب التفاعل بين الذكاء الاصطناعي والمُستخدمين من خلال تخصيص طريقة مخاطبة المستخدم بناءً على الاسم الذي يحدده بنفسه أو الاسم الموجود في حسابه».

سيمو قال إن أمام المُستخدم آليات واضحة لطلب حذف بياناته الشخصية من «تشات جي بي تي»، وأضاف أنه «لأصحاب الحسابات عدة خيارات للتحكم في الخصوصية، ومن أهم الخيارات الموجودة حالياً، التحكّم بالسماح أو رفض السماح باستخدام محادثات وتفاعل المُستخدم مع (تشات جي بي تي) في عمليات تحسين تدريب النموذج».

وتابع أنه «وفق التفاصيل التي توضحها الشركة بخصوص هذا الخيار، فإن كل البيانات الشخصية والتفاصيل مثل الأسماء، والأرقام، والعناوين، تُزال قبل معالجة بيانات المحادثات في عمليات تحسين التدريب».

كذلك أشار سيمو إلى ميزة «الذاكرة» لدى «تشات جي بي تي»، موضحاً أنه «لجعل الإجابات أكثر شخصية، ومناسبة لطبيعة الاحتياجات الخاصة لكل مُستخدم، فإن التطبيق يجمع ويحلل ويتذكر تفاصيل من المحادثات، وأخيراً يتذكر محادثات كاملة سابقة بينه وبين المُستخدم». إلا أن حدود هذه الذاكرة هو تحسين التفاعل بين التطبيق والمُستخدم، وتحسين جودة الإجابات وسياقها، ولا يشارك هذه التفاصيل مع مُستخدمين آخرين، أو في عمليات تهدد الخصوصية. وفي هذا السياق - كما أردف - «يوجد أيضاً خيار المحادثات المؤقتة، التي تختفي بمجرد الخروج منها بشكل مباشر».

ومن ثم، عدّ سيمو مسألة الخصوصية في أنظمة الذكاء الاصطناعي من بين عوامل المنافسة المحتدمة؛ «إذ ستتسابق الشركات على اتباع أعلى المعايير وإثبات التزامها الكامل بالحفاظ على الخصوصية، ويساعدها هذا ليس فقط على الاحتفاظ بالمستخدمين، بل على جذب المزيد منهم».

محمد عبد الوهاب السويعي (الشرق الأوسط)

للعلم، هذا التحديث يأتي في ظل تصريحات صحافية من سام ألتمان، الرئيس التنفيذي لشركة «أوبن إيه آي»، الذي تطرق أخيراً إلى رؤية مستقبلية تطمح إلى تعريف أنظمة الذكاء الاصطناعي على مستخدميها بشكل مستمر وطويل الأمد لتقديم تجارب «شخصية ومفيدة للغاية». لكن ردود الفعل على هذا التحديث تشير إلى أن «هذه الرؤية قد لا تلقى ترحيباً واسعاً، على الأقل في شكلها الحالي».

طابع بشري يثير مخاوف

من جهة ثانية، في حين يمنح تضمين الاسم في المحادثة المُستخدم شعوراً بتجربة أكثر ودية وإنسانية - وهو ما يمثل في جوهره أحد أهداف التخصيص في أنظمة الذكاء الاصطناعي - اعتبر محمد عبد الوهاب السويعي، المتخصص في إدارة تقنية المعلومات والأمن السيبراني، والباحث في أنظمة الذكاء الاصطناعي بالمملكة العربية السعودية، «أن هذا الأسلوب قد يفتح باب المخاوف والتأويل إذا لم يُوضح بشفافية». وتابع خلال حوار مع «الشرق الأوسط» أن «مخاوف الخصوصية تتزايد عالمياً بسبب تتبع البيانات واستخدامها لأغراض تسويقية أو تصنيفية من دون علم المُستخدم».

وأوضح السويعي أنه من الناحية التقنية «فإن اسم المُستخدم الذي يظهر في (تشات جي بي تي) يُستخرج من إعدادات الحساب العامة كجزء من بيانات الجلسة، وليس من قاعدة بيانات مخفية أو من تتبع مباشر». ثم أضاف: «لكن يظل التحدي في أن كثيرين من المُستخدمين لا يدركون هذه التفاصيل التقنية، ما يعني أن الثقة قد تهتز بسهولة حتى من دون وجود خرق حقيقي... ولذا يُنصح بأن تقدم المنصات مثل (أوبن إيه آي) تفسيرات صريحة حول الخصائص التي ترتبط بالمعلومات الشخصية مهما كانت بسيطة».

الخبير السعودي ذكر أنه «لا توجد حالات موثّقة تشير إلى أن (تشات جي بي تي) استخدم معلومات شخصية للمُستخدمين بشكل غير مناسب أو في سياقات مضللة... فالنموذج مصمّم بطريقة عديمة الحالة، ما يعني أنه لا يحتفظ بسجل دائم للمُستخدم، ولا يمكنه استدعاء معلومات من جلسات سابقة، إلا إذا كانت ظاهرة ضمن المحادثة الجارية».

ومع أن هذا التصميم الآمن، أفاد السويعي أن عام 2023 شهد حادثة تقنية عابرة، حين اكتشف بعض المُستخدمين أنهم قادرون مؤقتاً على رؤية عناوين محادثات تعود لمُستخدمين آخرين، من دون القدرة على الاطلاع على محتوى تلك المحادثات. وشرح قائلاً: «صحيح أن (أوبن إيه آي) تعاملت بسرعة مع هذه الثغرة وأغلقتها، إلا أنها كانت تنبيهاً مهماً حول ضرورة تعزيز تدقيقات الأمان الداخلي في هذه الأنظمة». وأردف: «هذه الواقعة لم تكن متعلقة باستخدام مقصود للمعلومات، لكنها تؤكد أن حتى أكثر الأنظمة تقدماً ليست محصّنة ضد الأخطاء البرمجية، وأن الشفافية وسرعة الاستجابة هما ما تصنعان الفارق في الحفاظ على الثقة».

«تشات جي بي تي»... وتحيزاته

أيضاً، أثار الخبير السعودي بُعداً آخر مثيراً للاهتمام حال استخدام الروبوت لأسماء المُستخدمين، هو التحيّزات القائمة على الدين أو العرق أو الجنس، فقال: «استخدام اسم المُستخدم قد يُفسّر من قبل النموذج على أنه مؤشر على الجنس، أو الخلفية الدينية، أو الهوية الثقافية، وبالتالي قد يؤثر - من دون وعي - على صياغة الردود. فمثلاً، قد يتغير أسلوب المخاطبة أو مستوى التفصيل بحسب الاسم، من دون أن يقصد النظام ذلك».

وأضاف أن رغم بذل «أوبن إيه آي» وغيرها من الجهات المطوّرة لتقنية الذكاء الاصطناعي جهداً كبيراً لتقليل الانحيازات في النماذج اللغوية، يظل خطر التحيزات المبطّنة قائماً.

في هذه الأثناء، اعتبر الدكتور فادي عمروش، الباحث المختص في التحوّل الرقمي والذكاء الاصطناعي التوليدي، أن التحديث يُعد اختراقاً لقوانين حماية البيانات الدولية. وأوضح لـ«الشرق الأوسط» أن «التحديث جاء جزءاً من ميزة الذاكرة الشاملة، والتي تشمل مهمتها تخزين معلومات من المحادثات السابقة تلقائياً، مثل الأهداف الشخصية، والاهتمامات، وأسلوب الكتابة، من دون الحاجة إلى إدخال يدوي من قِبل المُستخدم».

وأفاد بأنه «على الرغم من أن الهدف من هذه الميزة تعزيز التخصيص، وتحسين تجربة المُستخدم، فإنها تثير تساؤلات جدية تتعلق بالخصوصية وحماية البيانات المحمية بقوة القوانين الدولية. ونتيجة لتلك المخاوف، لم تُطرح هذه الميزة في دول الاتحاد الأوروبي، بما في ذلك إسبانيا، بسبب التحديات المرتبطة بالامتثال للوائح اللائحة العامة لحماية البيانات (GDPR)».

أخيراً، قال عمروش: «تنص المادة الرابعة من اللائحة على أن الاسم الشخصي يُعد من البيانات الشخصية، وبالتالي فإن استخدام أو تخزين أسماء الأفراد من دون الحصول على موافقة صريحة، أو من دون وجود أساس قانوني واضح، مثل المصلحة المشروعة أو تنفيذ عقد، قد يُعدّ انتهاكاً لتلك اللائحة». ومن ثم «في سياق استخدام (تشات جي بي تي)، إذا خزّن النظام أو استخدم أسماء أشخاص من دون الحصول على موافقة صريحة، فإن هذا قد يُعد معالجة غير قانونية للبيانات الشخصية. وعليه، يتوجب على شركة (أوبن إيه آي) توفير آليات واضحة وفعالة للمُستخدمين تتيح لهم إدارة بياناتهم».