مسؤولة الذكاء الاصطناعي لدى «أسوشييتد برس»: الوظائف الصحافية الروتينية ستلغى

ليسا غيبس تكشف لـ «الشرق الأوسط» عن أداة تطورها الوكالة لكشف الأخبار الكاذبة على مواقع التواصل الاجتماعي

من جلسة ليسا غيبس ضمن فعاليات منتدى الإعلام العربي الأسبوع الماضي (نادي دبي للصحافة)
من جلسة ليسا غيبس ضمن فعاليات منتدى الإعلام العربي الأسبوع الماضي (نادي دبي للصحافة)
TT

مسؤولة الذكاء الاصطناعي لدى «أسوشييتد برس»: الوظائف الصحافية الروتينية ستلغى

من جلسة ليسا غيبس ضمن فعاليات منتدى الإعلام العربي الأسبوع الماضي (نادي دبي للصحافة)
من جلسة ليسا غيبس ضمن فعاليات منتدى الإعلام العربي الأسبوع الماضي (نادي دبي للصحافة)

عند تصفح أجندة جلسات منتدى الإعلام العربي لهذا العام، لفت انتباهي، وانتباه غيري جلسة تحت عنوان «ثورة الروبوتات ومستقبل الصحافة». الموضوع مقلق لأهل المهنة. فهناك مخاوف باستبدالهم بـ«روبوتات» تنجز عملهم بسعر أقل وسرعة أعلى. وشحة المعلومات المتوفرة حول هذه الثورة، ومدى تأثيرها على غرف التحرير زادت من الإرباك. لذلك، لم يفاجئني إقبال حضور المنتدى من نخبة الإعلاميين على هذه الجلسة. وبعد ظهر اليوم الأول للمنتدى، طلت علينا ليسا غيبس مسؤولة استراتيجية الذكاء الاصطناعي لدى وكالة «أسوشييتد برس» (أ.ب) لتحدثنا عن هذه الظاهرة التي يتخيلها البعض بفنتازية أفلام الخيال العلمي. إلا أن الغموض تبدد شيئا فشيئا خلال الجلسة خصوصا عندما كشفت لنا غيبس أن الذكاء الاصطناعي بإمكانه أن يكون السلاح الأمثل لمحاربة ظاهرة الأخبار الكاذبة التي تهدد اليوم كبريات المؤسسات الإعلامية. انتهزت فرصة وجود غيبس في دبي علما أن مقر عملها في نيويورك لإجراء حديث معها عن أسئلة خطرت في بالي خلال الجلسة، فرحبت بذلك. فحدثتني عن توظيف الذكاء الاصطناعي في عالم الصحافة، وكشفت لي عن أداة «أ.ب فيريفاي» التي تطورها الوكالة لكشف الأخبار الكاذبة على مواقع التواصل الاجتماعي. ولم أستطع إلا أن أسألها سؤالا يراود جميع الصحافيين اليوم.. «هل ستطردنا التكنولوجيا من مكاتبنا وتعفينا من مهامنا؟» وفيما يلي نص الحوار:
> تلقت جلستك «ثورة الروبوتات ومستقبل الصحافة» خلال فعاليات منتدى الإعلام العربي الكثير من التغطية الصحافية. وعنونت معظم التقارير تصريحك بأن «الذكاء الاصطناعي أداة لصناعة ومحاربة الاخبار الكاذبة». فكيف ذلك؟
- هناك أدوات قد تستخدم لكتابة نماذج قصص. هذه النماذج قد توظف لتوليد كم كبير من الأخبار استنادا على بيانات يتم تجميعها. هذا النوع من التكنولوجيا بالإمكان أن توظفه المؤسسات الإعلامية المرموقة لضخ الكثير من القصص البسيطة مثل تغطيات المباريات الرياضية أو أخبار عن حالة الطقس أو حتى التقارير المالية. ولكن، قد يوظفها البعض الآخر أيضا لضخ الأخبار الكاذبة (Fake News). هذه الأخبار قد تكون بروباغندا سياسية، أو مجرد وسيلة لزيادة زيارات ومتابعات مواقع معينة لكي تستفيد من أرباح الإعلانات.
هناك أيضا تكنولوجيا أخرى أبدى المعظم قلقهم منها. هذه التكنولوجيا بإمكانها تجميع سلسلة من الصور لإنتاج صورة واحدة مزيفة بجودة صورة حقيقية يصعب التحقق منها. لكن، هنالك جانب مشرق لهذا التطور التكنولوجي، فإمكاننا اليوم كصحافيين توظيف الأدوات ذاتها للتحقق من صحة البيانات والمعلومات والصور بوتيرة أسرع من قبل.
نحن في وكالة أسوشييتد برس نعمل حاليا على تطوير أداة تتحقق من المعلومات المنشورة على مواقع التواصل الاجتماعي. الطريقة اليدوية للتحقق اليوم من قبل الصحافي تتضمن بحثه عن مصدر المعلومات وتاريخ نشرها ومكان النشر أيضا، خصوصاً عند التأكد من صحة الصور. لكن، أصبح من الممكن اليوم من خلال التكنولوجيا المتوفرة بناء أداة تختصر العملية الشاقة على الصحافي وتنجز المهمة بوقت أقل.
> ظاهرة الأخبار الكاذبة أو المزيفة ليست وليدة هذا العصر. لكن التطور التكنولوجي أسهم بتفاقمها. هل تتفقين؟
- هذا بالفعل صحيح. السبب يعود إلى تضاعف سرعة نشر الأخبار الكاذبة عن طريق منابر التواصل الاجتماعي. كما أصبحت أدوات تسلح المهتمين بصناعة الأخبار الكاذبة متاحة اليوم بفضل التطور التكنولوجي. لكن، يجب ألا نهمل الحوار عن كيف بإمكان الأتمتة مساعدتنا بالتحقق من المعلومات المنشورة في القصص. أصبح من المقدور اليوم أن ينشر موقع إلكتروني خبرا ويتيح خاصية الضغط على المعلومات للقارئ للاطلاع على مصدرها ومصداقيتها. وينشط حوار مؤخرا حول المعايير التي تجعل من المنابر الإعلامية مصادرا موثوقة، والدور الإيجابي الذي قد يلعبه الذكاء الاصطناعي في مساعدة القراء والمستخدمين للتمييز بين المصادر والمنابر الموثوقة والكاذبة بسرعة أكبر.
> تقوم وكالتكم بتطوير أداة للتحقق من صحة البيانات «أ.ب فيريفاي» (AP Verify). ما هي أهداف المشروع؟ وهل اعتمدتم على شراكة مع «غوغل» لتطوير الأداة؟
- «أ.ب فيريفاي» أداة نقوم بتطويرها لمساعدتنا في التحقق من المواد المنشورة على مواقع التواصل الاجتماعي بشكل أسرع. المشروع ينفذ في مكاتبنا بلندن، وتمول شركة «غوغل» جزءا من تكاليفه تحت «مبادرة غوغل للأخبار» في أوروبا. نستعين بعملاقة التكنولوجيا (غوغل) لمساعدتنا في الاستثمار بتقنية ذات جودة عالية لتأكيد نجاح الأداة المطورة. القطاع الإعلامي لا يمتلك دوما الموارد الكافية للإبداع.
تمتلك الكثير من المنابر الإعلامية مختبرات بحث وتطوير، لكن ليس بمقدورها تحقيق رؤيتها. لذلك، نحن بحاجة إلى دعم من «غوغل» ومؤسسات وشركات أخرى في حربنا على الأخبار الكاذبة والمعلومات المزيفة. قد نعتبر تجهيز أنفسنا بالتكنولوجيا معركة تسليح بين قوى الخير الصحافية وطاقات الأخبار الكاذبة.
لطالما كانت التكنولوجيا متغيرة. فقبل قرن، تمثلت في مهنة الصحافة بتدوين الأنباء على ورقة ومن ثم الاستعانة بالهاتف للاتصال بالمكتب الرئيسي ونقل الخبر، ومن ثم تطورت الصناعة. تشهد كل حقبة إعلامية زمنية تغيرات تكنولوجية تربكها أو تعطلها، لكن المعايير التحريرية والمهنية يجب أن تظل ثابتة بغض النظر. يجب أن نبقى أوفياء لمعايير الصحافة بمصداقيتنا ومهنيتنا وموضوعيتنا. لذلك، يتوجب علينا أن نعمل معا لنحرص على تطوير طرق تبرز عملنا وتمنحنا القدرة على الكشف عن المعلومات المغلوطة بسرعة، وبإمكان تقنيات الذكاء الاصطناعي مساعدتنا على ذلك.
> ذكرت أن المشروع ممول جزئيا من قبل «غوغل». ماذا ستستفيد شركة عملاقة من هذا المشروع الصحافي؟
- قامت «غوغل» باتخاذ قرار بأنها ستقوم بدعم الصحافة ذات الجودة العالية. الشركة تريد مساندة الابتكار في مجال الإعلام. ولذلك، قامت بتخصيص صناديق للمساعدة في هذا النوع من المشاريع. أعتقد أن شركات مثل «غوغل» و«تويتر» و«فيسبوك» بدأت بملاحظة الدور التي تلعبه منابرها في مجال مشاركة وتبادل الأخبار، ذات الجودة العالية والمتدنية. كما تعي الشركات ذاتها أن المجال الإعلامي يعاني من الإرباك خصوصا في مجال التنمية المالية المستدامة. ولذلك، فهي تبحث عن طرق جديدة لدعم المؤسسات الإعلامية المرموقة ومساعدتها في زيادة الأرباح المالية من خلال منابرها الإلكترونية، وهذا التوجه أعظم من السابق.
> عندما تنتهون من تطوير أداة التحقق، هل تعتزمون مشاركتها مع المؤسسات الإعلامية الأخرى؟ أم أنكم ستكتفون بمشاركة الأخبار الصادقة التي ستتحقق منها «أ.ب فيريفاي»؟
- أعتقد أننا سنقوم بعمل الشيئين. لدينا حاليا الكثير من الصحافيين في الوكالة مسؤوليتهم التحقق من الأخبار والمعلومات المنشورة على وسائل التواصل الاجتماعي. يقومون بالتواصل مع شهود العيان في مقر الحدث وتأكيد المعلومات. هذه الأمور تصب في تحسين سرج الخبر وتعميمه. ونقوم بتوفير هذه الأخبار الموثوقة للمنابر الإعلامية ليستخدموها. مشروع تطوير الأداة هو مشروع وليد لعام 2018 الحالي، وما زلنا في المراحل الأولية. لذلك، ليس بإمكاننا تقييم فعالية الأداة بعد. وهناك كثير من التساؤلات التي لا نملك لها الإجابات إلى الآن. ولكن أعتقد أنه من أهم أهدافنا دعم ومساندة الإعلام ليتبنى الأدوات والخطوات اللازمة في ظل التقنيات المتاحة.
> هل ستكون أداة «أ.ب فيريفاي» متاحة للتحقق من المعلومات بلغات أخرى، كالعربية؟
- نقوم الآن بالتركيز على اللغة الإنجليزية في بناء الأداة، ولكن اعتقد انه سيكون بمقدورنا مواءمتها لقراءة لغات أخرى سرعان التأكد من فاعليتها. معلومات الصور الذاتية (مثل التاريخ والوقت مثلا) تسجل في الأجهزة الإلكترونية بالإنجليزية، ما سيسهل علينا الأمر، وما سيجعل الأداة مفيدة للخدمات غير الإنجليزية حتى لو لم نغير اللغة. اللغة العربية مهمة جدا لوكالة «اسوشييتد برس». لدينا اليوم قسمان لترجمة اللغات الأجنبية، وهما اللغة الإسبانية، واللغة العربية، لأهميتهما في عالم الأخبار.
> هنالك مخاوف يعبر عنها الصحافيون اليوم وهي أن الذكاء الاصطناعي سيقوم باستبدالهم، وجعلهم عاطلين عن العمل. هل تتفقين؟
- هذا السؤال عادة أول ما يطرح علي في المقابلات. نحن (في الوكالة) لم نقم بإلغاء أية وظيفة منذ أن بدأنا بتوظيف تقنيات الذكاء الاصطناعي. إذ نوظف هذه التكنولوجيا لمساعدة صحافيينا. نعفيهم من المهام الشاقة والرتيبة لزيادة إنتاجيتهم وجودة عملهم. نريد أن يركز صحافيونا المؤهلون الذين يتمتعون بقدرات عالية أن يركزوا على جوانب المهنة المهمة مثل سرد قصص هامة ومحورية للقراء، والتركيز على التحقيقات الاستقصائية، والمواد المبدعة. لا نريد أن يجلس صحافيونا خلف أجهزتهم ك«الروبوتات» ينتجون قصصا بسيطة عن الطقس أو نتائج المباريات الرياضية أو عن البيانات في قطاع المال. هذه القصص تخسر قيمتها بسرعة فائقة في عالم الإنترنت. نرى أن الصحافيين يجب أن تتوفر لديهم الفرصة والوقت للعمل على القصص التي لديها تأثير وصدى في العالم. قمنا بشرح رؤيتنا لكادرنا، وجميع الموظفين يتفقون معنا.
> ماذا عن أولئك الصحافيين الذين تعودوا على تغطية هذه الأنباء وإنتاج القصص البسيطة إذن؟
- الوظائف التي تعتمد على العمل الروتيني المذكور أعلاه من الأرجح أن تلغى. ومن ثم يترتب على الصحافيين الذين كانوا يشغلونها تلقي التدريب اللازم للقيام بمهمات أخرى. وأعيد الذكر أننا لم نقم بإلغاء أية وظائف في وكالتنا، بل قمنا بتوظيف وقت الفراغ الذي أصبح متاحا بفضل الذكاء الاصطناعي ليستثمره الصحافيون بمهام أكثر أهمية. كما نظرنا إلى توفير تدريب لكادرنا لتمكينهم بالمهارات لتواكب التطور التقني الطارئ.
وعندما حولنا تغطية القصص عن الإيرادات الآلية عن طريق التقنية الجديدة، تفرغ كادرنا لتغطية المزيد من الأخبار التقنية والاقتصادية، وركز صحافيونا على العمل الاستقصائي. وفي بعض الحالات، وفرت لنا تقنية الذكاء الاصطناعي إمكانية تغطية قصص لم نكن نغطيها من قبل لعدم توفر الكوادر الكافية. فأصبح بإمكاننا اليوم تغطية مباريات كرة القدم الجامعية في الولايات المتحدة على سبيل المثال. لم يكن لدينا كادر كاف من قبل بمقدوره تغطية المباريات التي تحدث في الوقت ذاته. ومن خلال التقنية أصبح ذلك متاحا، ولهذه الأخبار جمهور يقدرها.
> يوفر الذكاء الاصطناعي اليوم إمكانية جمع الأخبار من مختلف أنحاء العالم، هل سيهدد ذلك دور المراسل، وهل سيقوم بإلغاء عمله؟
- نعي كليا حاجتنا للصحافيين. خصوصاً الملمين بمناطقهم، ولغتهم، ولديهم تجربة واسعة في تغطية مجالات معينة من ساحات القتال إلى الصحة والعلوم. هذه الاختصاصات مهمة جدا على الأرض. فحتى لو استطعنا إرسال «روبوت» للتغطية ولالتقاط صور، في أماكن يصعب للمراسل الوصول لها، تحت الماء مثلا، إذ استعنا بالروبوتات في الأولمبياد وفي مباريات كأس العالم وغيرها. لكن، ما زلنا بحاجة إلى الصحافي الذي يشغل هذه التقنيات، وآخر لشرح الموقف. فحتى لو أرسلنا «روبوت» إلى مكان الحدث، وغاب المراسل، فلن يكون بمقدورنا الفهم والتأكد مما يحدث، وما دلالات الحدث. وأعتقد أننا سنواجه مثل هذا المواقف في المستقبل، ويجب علينا أن نكون مستعدين للتعامل معها وكيف سنقوم بنقل المعلومات التي تجمعها الروبوتات إلى المستخدمين. فقد تدخل سياستنا التحريرية فقرة جديدة على الخبر تشرح أننا حصلنا الصورة أو الأنباء عن طريق «روبوت» في مكان الحدث، ومن ثم على المستخدمين أخذ ذلك في عين الاعتبار عند تحليلهم للخبر.


مقالات ذات صلة

«طالبان» تحظر البث المباشر للبرامج الحوارية السياسية

آسيا صحافيون أفغان في لقاء بمكتب أخبار «تولو» في العاصمة كابل (إعلام أفغاني)

«طالبان» تحظر البث المباشر للبرامج الحوارية السياسية

فرضت حكومة «طالبان» في كابل، حظراً على البث المباشر للبرامج الحوارية السياسية بالقنوات الإخبارية الأفغانية، ما أثار موجة إدانات دولية من مختلف أنحاء العالم.

عمر فاروق (إسلام آباد)
المشرق العربي عربة عسكرية إسرائيلية خارج المبنى الذي يستضيف مكتب قناة الجزيرة في رام الله بالضفة الغربية المحتلة (رويترز)

«الجزيرة» تعدّ اقتحام القوات الإسرائيلية لمكتبها في رام الله «عملاً إجرامياً»

أعلن الجيش الإسرائيلي، الأحد، أنه أغلق مكتب قناة «الجزيرة» في رام الله بالضفة الغربية المحتلة، لأنه «يحرض على الإرهاب».

«الشرق الأوسط» (رام الله)
يوميات الشرق تقرير «ليونز العالمي» يُعدّ معياراً عالمياً موثوقاً في مجالات الإبداع والتسويق لدى الوكالات والعلامات التجارية (الشرق الأوسط)

«SRMG Labs» تحصد لقب أفضل شركة سعودية للخدمات الإبداعية والإعلانية

حلّت «SRMG Labs» شركة الخدمات الإبداعية والإعلانية في المراتب الأفضل بين الشركات المدرجة هذا العام في تقرير «ليونز العالمي للإبداع».

«الشرق الأوسط» (الرياض)
يوميات الشرق صدر كتاب السيرة الذاتية للإعلامي اللبناني كميل منسّى بعد أشهر على وفاته (الشرق الأوسط)

كميل منسّى يختم نشرته الأخيرة ويمضي

رحل كميل منسى، أحد مؤسسي الإعلام التلفزيوني اللبناني قبل أشهر، فلم يسعفه الوقت ليحقق أمنية توقيع سيرته الذاتية. تسلّم ابنه الأمانة وأشرف على إصدار الكتاب.

كريستين حبيب (بيروت)
العالم شعار مجموعة «ميتا» (رويترز)

«ميتا» تحظر وسائل الإعلام الحكومية الروسية على منصاتها

أعلنت مجموعة «ميتا»، المالكة لـ«فيسبوك» و«إنستغرام» و«واتساب»، فرض حظر على استخدام وسائل الإعلام الحكومية الروسية لمنصاتها، وذلك تجنّبا لأي «نشاط تدخلي أجنبي».

«الشرق الأوسط» (نيويورك)

اعتماد «ميتا» على منشورات المُستخدمين لتدريب الذكاء الاصطناعي... يجدد مخاوف «الخصوصية»

اعتماد «ميتا» على منشورات المُستخدمين لتدريب الذكاء الاصطناعي... يجدد مخاوف «الخصوصية»
TT

اعتماد «ميتا» على منشورات المُستخدمين لتدريب الذكاء الاصطناعي... يجدد مخاوف «الخصوصية»

اعتماد «ميتا» على منشورات المُستخدمين لتدريب الذكاء الاصطناعي... يجدد مخاوف «الخصوصية»

أعلنت شركة «ميتا» عزمها البدء في تدريب نماذج الذكاء الاصطناعي الخاصة بها، معتمدة على بيانات مصدرها المنشورات العامة للمستخدمين على «فيسبوك» و«إنستغرام»، الأمر الذي عدّه بعض الخبراء يجدد المخاوف بشأن «الخصوصية»، ولا سيما أن الشركة كانت قد واجهت اعتراضات سابقة في ما يخص مشروعها لتغذية نماذج الذكاء الاصطناعي، ما أدى إلى توقفه في يونيو (حزيران) الماضي.

«ميتا» كانت قد أصدرت إفادة في سبتمبر (أيلول) الحالي، لتوضيح آلية استخدام المنشورات العامة للمستخدمين على «فيسبوك» و«إنستغرام» اللتين تملكهما. وقالت إنها «تشمل الصور والمنشورات والتعليقات فقط، بهدف تغذية نماذج الذكاء الاصطناعي التوليدي». وشددت الشركة على أن المحتوى المستخدم لن يشمل الرسائل الخاصة أو أي بيانات صنّفها المستخدم تحت عبارة خاص أو محمي، كما لن تشارك أي معلومات من حسابات المستخدمين الذين تقل أعمارهم عن 18 سنة.

حاتم الشولي، المشرف على تحرير الإعلام الرقمي في قناة «الشرق للأخبار» قال لـ«الشرق الأوسط» إنه يرى أن الخطوة تأتي في إطار سعي «ميتا» لتطوير تقنيات الذكاء الاصطناعي الخاصة بها. وأوضح أنها «خطوة في الاتجاه الصحيح؛ لكنها تصب في مصلحة (ميتا)، التي تسعى للبقاء منافساً قوياً في سوق التكنولوجيا المتقدمة». وأضاف: «(ميتا) هي الشركة الأضخم من حيث الاستحواذ على بيانات المستخدمين، وكانت منذ نشأتها الأكثر مرونة في التعاطي مع المتغيرات». وعدّ الشولي أن دخول الشركة في سوق الذكاء الاصطناعي أمر حتمي، موضحاً أن «(ميتا) تحمي نفسها من الشيخوخة، ولا سيما أن منصاتها التقليدية مثل (فيسبوك) بدأت تشهد تراجعاً في شعبيتها».

وعن تهديد مشروع «ميتا» لمبدأ الخصوصية، علّق الشولي بالقول إن «مسألة حماية البيانات قضية جدلية منذ ظهور منصات التواصل الاجتماعي، ولتحليل ما إذا كان مشروع (ميتا) يهدد الخصوصية أم لا، علينا أولاً التفريق بين نوعين من البيانات: الأول هي البيانات المحمية من قبل المستخدم، والثاني يخص البيانات المسموح بمشاركتها وفقاً لرغبة المستخدم أيضاً... وفي مشروع (ميتا) الذي نحن بصدده، أقرّت الشركة بأنها تعتمد على البيانات المعلنة فقط التي يوافق المستخدمون على مشاركتها، مثل العمر، النوع، الموقع الجغرافي، الاهتمامات».

مع هذا، أثار الشولي الحديث عن «أخلاقيات الذكاء الاصطناعي»، أو النماذج التي تعتمد عليها شركات التكنولوجيا المهيمنة على السوق لتدريب الذكاء الاصطناعي، وقال: «تنظيم أخلاقيات الذكاء الاصطناعي بات أكثر إلحاحاً من أكثر وقت مضى، وبالفعل اتجهت بعض الدول مثل الصين والولايات المتحدة ودول أوروبا في تشريع قوانين لحماية خصوصية المستخدمين». وشدّد «على أهمية وضع معايير واضحة ومهنية تنظم آلية استخدام البيانات لتدريب نماذج الذكاء الاصطناعي، ووجوب الإشارة إلى أن المحتويات المصنوعة بالذكاء الاصطناعي اعتمدت على مصادر معينة، وذلك من شأنه تحقيق الشفافية، ما يُجنب وقوع أي عمليات تضليل».

للعلم، يأتي مشروع «ميتا» الجديد بعدما كانت قد أعلنت تأجيل إطلاق نماذج الذكاء الاصطناعي في أوروبا، منتصف يونيو (حزيران) الماضي، على خلفية بعض العقبات، من بينها طلب هيئة حماية الخصوصية الآيرلندية تأجيل خطة «ميتا» لاستخدام البيانات من منشورات وسائل التواصل الاجتماعي. ويومذاك أعلنت الشركة أن التوقف أيضاً سيسمح لها بتلبية طلبات «مكتب مفوضية المعلومات البريطاني» (ICO) في ما يخصّ التعليمات التنظيمية لاستخدام البيانات.

ثم إن «ميتا» واجهت في يونيو الماضي انتقادات عدة من قبل «المركز الأوروبي للحقوق الرقمية» (NOYB)، وهي منظمة غير ربحية، مقرّها في فيينا، دعت الهيئات الوطنية لحماية الخصوصية في جميع أنحاء أوروبا، وإلى وقف استخدام محتوى وسائل التواصل الاجتماعي لهذا الغرض. وبرّرت موقفها بالقول إن «الإشعارات التي تقدمها (ميتا) غير كافية لتلبية قواعد الاتحاد الأوروبي الصارمة المتعلقة بالخصوصية والشفافية»، وفقاً لما نقلته وكالة أنباء «رويترز».

من جهة ثانية، قال فادي رمزي، مستشار الإعلام الرقمي المصري والمحاضر في الجامعة الأميركية بالقاهرة، لـ«الشرق الأوسط»، إن تاريخ شركة «ميتا» المالكة لمنصتي «فيسبوك» و«إنستغرام» مليء بالثغرات في ما يخص حماية البيانات. وأضاف: «من قبل نماذج الذكاء الاصطناعي، وشركة ميتا تتعامل مع أي محتوى ينشره المستخدمون بشكل علني، باعتباره متاحاً للاستخدام بدليل البيانات التي تُوفَّر للمعلنين»، وتابع: «(ميتا) تقاعست عن تعزيز الشفافية على مدار السنوات الماضية، ما يعقد الوثوق فيها الآن... لقد واجهت (ميتا) مشاكل متكررة في التعامل مع بيانات المستخدمين، وسبق أن واجهت فضائح متعلقة بتسريب البيانات، مثل قضية كمبريدج أناليتيكا». وتعود قضية «كمبريدج أناليتيكا»، ومقرها لندن، إلى عام 2018 حين كُشف عن أن الشركة جمعت البيانات الشخصية لملايين الأشخاص مستخدمة حساباتهم على «فيسبوك»، وجرى استخدام هذه البيانات لأغراض الدعاية السياسية، ما اضطر «فيسبوك» لاحقاً لدفع 725 مليون دولار في إطار تسوية لدعوى قضائية جماعية تخص تلك القضية.

ووفق رمزي، فإن «حماية الخصوصية معضلة لن تحلها شركات التكنولوجيا، لا (ميتا) ولا غيرها... فحماية الخصوصية ميزة تتنافى مع مصالح شركات التكنولوجيا، ولا سيما ونحن أمام نماذج تتنافس في مجال الذكاء الاصطناعي التوليدي». وفي ما يخص مشروع «ميتا» الجديد، قال رمزي إن «النموذج الذي قدّمته الشركة لا يشير إلى أي إلزام بإبلاغ المستخدمين حول استخدام بياناتهم، وهو أمر يعود إلى غياب التشريعات في هذا الصدد». ورهن التزام الشركة بالمصداقية والأخلاقيات المهنية فيما يخص بيانات المستخدمين أو حقوق الناشرين، كذلك بالتشريعات الملزمة.