سنودن يطور هاتفًا آمنًا للصحافيين

مخصص للذين يخشون مراقبة الأجهزة الحكومية

إدوارد سنودن
إدوارد سنودن
TT

سنودن يطور هاتفًا آمنًا للصحافيين

إدوارد سنودن
إدوارد سنودن

صرح المتعاقد التقني والعميل السابق لدى وكالة الأمن القومي الأميركي، إدوارد سنودن، الخميس الماضي، بأنه يعتزم المساعدة في إنتاج نسخة مطورة من هاتف شركة آبل «آيفون» للصحافيين الذين يخشون مراقبة الأجهزة الحكومية.
جاء الإعلان خلال مؤتمر استمر يومًا واحدًا، تحت عنوان «البحث الممنوع»، عقد في معمل الإعلام بمعهد ماساتشوستس للتكنولوجيا. وقال سنودن، الذي يعيش في منفاه في روسيا، عبر «الفيديو كونفرنس»، إنه تعاون مع أندرو هونغ، قرصان كومبيوتر معروف باسم «بوني» الذي درس الهندسة الكهربائية بمعهد ماساتشوستس، للتأكد مما إذا كان من الممكن تعديل هاتف «سمارت فون» كي ينبه الصحافيين الذين يعملون في المناطق الخطرة، عند تعرض هواتفهم للمراقبة الإلكترونية.
وكان سنودن، وهو عضو بمجلس إدارة جمعية غير ربحية تحمل اسم «مؤسسة حرية الصحافة»، قد عبر عن قلقه من استخدام الهواتف الذكية والخلوية كأدوات مراقبة قادرة على إعداد ملفات بشكل تلقائي، تحوي بيانات تفصيلية عن موقع مستخدم الهاتف، وتقوم بنقلها إلى طرف، كالحكومات مثلاً.
وكمثال على خطورة تحديد بيانات الموقع، استشهد سنودن بحادثة مقتل الصحافية الأميركية ماري كوفلين، بقذيفة بمدفع هاون أطلقتها الحكومة السورية عند تغطيتها للحرب بمدينة حمص السورية لصالح صحيفة «صنداي تايمز» اللندنية عام 2012. «الترددات اللاسلكية التي استخدمتها الصحافية لإرسال تقاريرها الإخبارية، جرى اعتراضها من قبل الجيش السوري»، وفق سنودن.
وقال إنه من الصعب على المستخدمين الثقة في هواتفهم الذكية، فقد يحدث أن تعترض بعض البرامج الخبيثة هواتفهم وتتسبب في نقلها بيانات توضح موقعهم الجغرافي، حتى وإن اعتقد المستخدم أن جهازه جرى ضبطه على «وضعية الطيران» الآمن.
وأفاد سنودن بأن المشروع لا يزال في مراحله التجريبية، إلا أنه يأمل في أن يوفر المشروع الجديد هواتف معدلة للصحافيين، يحملها مستخدموها في حافظة خاصة تعطي إنذارا عندما يكون الهاتف في حالة نشاط ويرسل بيانات عن الموقع في أوقات غير مناسبة.
ركز المؤتمر على موضوعات متعلقة بقرصنة الكومبيوتر، وموضوعات البحث العلمي التي أثارت جدلاً في مجالات مثل الهندسة الوراثية وهندسة الأرض.
وخلال المؤتمر، أعلن ريد هوفمان، أحد مؤسسي موقع «لينكيد إن» الذي بيع مؤخرا لشركة «مايكروسوفت» مقابل 26 بليون دولار، أنه ينوي تقديم مبلغ 250 ألف دولار قيمة «جائزة التمرد» التي تهدف إلى إحداث تغيير اجتماعي إيجابي ومواجهة الظلم.
«ستقدم الجائزة لشخص أو مجموعة تعمل على ما نسميه التمرد الإيجابي لصالح المجتمع. التمرد الذي ندعو إليه هو ذلك النوع الذي يسعى إلى تغيير المجتمع بشكل إيجابي وبطريقة تتماشى مع عدد من المبادئ الأساسية»، وفق جويتشي إيتو، مدير معمل الإعلام بمعهد ماساتشوستس للتكنولوجيا، في صفحة مخصصة للجائزة، ولم يتم تحديد موعد الجائزة بعد.
وفي جلسات نقاش منفصلة، تحدث علماء الأحياء والمناخ عن مخاطر الأبحاث العلمية وكذلك عن الجوائز المقدمة لها، والتي قد تكون نتائجها غير متوقعة.
كان من ضمن من تحدثوا أثناء المؤتمر أيضًا عالم الأحياء كيفين إيسفيلت، مدير مجموعة عمل لتطوير فن النحت بمعمل الإعلام بمعهد ماساتشوستس، الذي سلط الضوء على تكنولوجيا هندسة وراثية جديدة وسهلة الاستخدام، يمكن استخدامها إما في حفظ الأنواع المعرضة للانقراض أو في التخلص من الأوبئة التي تهدد الجنس البشري عن طريق نشر الأمراض.
وتحدث إيسفيلت عن ورشة العمل التي نظمها عدد من العلماء، الأربعاء الماضي، مع سكان جزيرة مارثا فينيارد، عن استخدام هندسة وراثية متطورة لإنتاج نوع من الفئران المعدلة وراثيا بحيث لا تنقل مرض «ليم». تعتمد الفكرة على منع انتقال المرض إلى القوارض، وبالتالي إلى الإنسان.
وأفاد أيسفيلت بأنه تعمد أن يشرك سكان الجزيرة في نقاش عن المخاطر المحتملة للتجربة قبل الشروع في تنفيذها.
واعترف العلماء في كثير من المناسبات، بأنه كان من المستحيل التأكد من التأثيرات غير المتوقعة للأساليب التكنولوجية الجديدة.
* «نيويورك تايمز»
وبحسب جورج تشيرش، عالم الأحياء بجامعة «هارفارد» الذي يعمل في مجال الهندسة الوراثية لإعادة إحياء بعض الأنواع المنقرضة، فإن «ما يقلقنا هو أن ما نفعله قد يبدو جذابا جدا في الوقت الراهن، لكن نتائجه قد تكون خطيرة في المستقبل وعلى المدى البعيد».



تمديد «ميتا» لقيود الإعلانات... هل يحُدّ من «المعلومات المضلّلة»؟

تمديد «ميتا» لقيود الإعلانات... هل يحُدّ من «المعلومات المضلّلة»؟
TT

تمديد «ميتا» لقيود الإعلانات... هل يحُدّ من «المعلومات المضلّلة»؟

تمديد «ميتا» لقيود الإعلانات... هل يحُدّ من «المعلومات المضلّلة»؟

أثار إعلان شركة «ميتا» تمديد فترة تقييد الإعلانات المتعلقة بالقضايا الاجتماعية أو السياسية لما بعد انتخابات الرئاسة الأميركية، من دون أن تحدّد الشركة وقتاً لنهاية هذا التمديد، تساؤلات حول مدى فاعلية القرار في الحدّ من انتشار «المعلومات المضلّلة»، يأتي ذلك بالتزامن مع رصد تجاوزات مرّرَتها المنصة الأشهَر «فيسبوك» خلال الفترة السابقة برغم تقييد الإعلانات.

ما يُذكر أن «فيسبوك» أعانت بنهاية أكتوبر (تشرين الأول) الماضي «حظر أي إعلان يحمل رسائل توجيه سياسي أو اجتماعي من شأنه التأثير في سير الانتخابات الرئاسية الأميركية»، غير أن مراقبين قاموا برصد تجاوزات على المنصة وصفوها بـ«التضليل»، وقالوا إن «فلاتر» المحتوى على «ميتا» – التي تملك «فيسبوك» – «غير متمرّسة» بما يكفي لتمييز المحتوى الذي ينتهك إرشادات المصداقية، ما يثير شكوكاً بشأن جدوى قرار الشركة تقييد الإعلانات.

الدكتور حسن مصطفى، أستاذ التسويق الرقمي والذكاء الاصطناعي في عدد من الجامعات الإماراتية، عدّ قرار «ميتا» الأخير «محاولةً لتجاوز المخاوف المتزايدة حول استغلال الإعلانات في التأثير على الرأي العام»، وقال لـ«الشرق الأوسط» إن «ميتا تخشى اتهامها بنشر المعلومات غير الموثوقة بشكل واسع إبان الفترات الانتخابية وما بعدها، لا سيما وأنه سبق اتهام الشركة من قبل بوجود محتوى يؤثر على الرأي العام خلال فترات انتخابية سابقة».

وعن دور «ميتا» في الحدّ من «المعلومات المضللة»، أوضح مصطفى أنه «لا تزال المعلومات المضلّلة تحدياً قائماً برغم ما اتخذته (ميتا) من إجراءات لمكافحتها، والتقليل من انتشار الأخبار الكاذبة»، وقال عن دور الشركة في هذا الصدد: «لقد عزّزَت (ميتا) التعاون مع جهات خارجية للتحقّق من صحة الأخبار، فباتت تعتمد على منظمة (فاكت تشيك/ FactCheck)، وشبكات من المؤسسات المستقلة؛ للتحقّق من الأخبار المتداوَلة عبر المنصة».

واستشهد الدكتور مصطفى ببعض التقارير الصادرة عن منظمة «هيومن رايتس ووتش»، التي أظهرت إحراز «ميتا» تقدماً في مجال الحد من «خطاب الكراهية»؛ «إذ تمكّنت خوارزميات الشركة من التعرّف على بعض الأنماط المتكرّرة للمحتوى المسيء، وحذفه تلقائياً قبل أن ينتشر»، غير أنه مع ذلك عدّ إجراءات «ميتا» غير كافية، مشيراً إلى أن «خوارزميات الذكاء الاصطناعي ما زالت محدودة القدرة على معالجة المحتوى بلغات ولهجات متنوعة، أو فهم السياقات الثقافية المعقّدة، ما يجعل من الصعوبة بمكان وضع حدود واضحة أمام تحقيق نجاح كامل في تقليص خطاب الكراهية».

هذا، وكانت المنظمة الدولية «غلوبال ويتنس» قد أعدّت تقريراً حول ما إذا كانت منصات التواصل الاجتماعي قادرةً على اكتشاف وإزالة «المعلومات المضلّلة الضارّة»، لا سيما المتعلقة بانتخابات الرئاسة الأميركية، وأشارت في نتائجها عقب الانتخابات الأميركية إلى أن أداء «فيسبوك» كان أفضل مقارنةً بمنصة مثل «تيك توك»، لكن التقرير لم ينفِ التورّط في نشر «معلومات مضلّلة» برغم القيود، كذلك ذكر التقرير أن «فيسبوك» وافَق على واحد من بين 8 إعلانات اختبرت بها المنظمة قيود المنصة للحَدّ من «المعلومات المضلّلة»، ما رأته المنظمة «تحسّناً ملحوظاً مقارنةً بأداء المنصة السابق مع أنه لا يزال غير كافٍ».

من ناحية أخرى أشار تقرير صادر عن منظمات المجتمع المدني «إيكو» و«المراقبة المدنية الهندية الدولية»، إلى أن «ميتا» سمحت بظهور إعلانات تحتوي على عبارات تحريضية ضد الأقليات على منصّتها خلال فترة الانتخابات الأميركية، كما أشارت إلى رصد «محتوى زائف» مصنوع بأدوات الذكاء الاصطناعي.

وحول هذا الأمر، علّق خالد عبد الراضي، الخبير في إدارة وتحليل بيانات «السوشيال ميديا» بمصر والمملكة العربية السعودية، لـ«الشرق الأوسط»، على قرار «ميتا» بالقول إننا بصدد محاولات عدّها «غير جادة»، ودلّل على ذلك بأن «(ميتا) قيّدت الإعلانات قبل الانتخابات الأميركية بأسبوع واحد فقط، وهذه مدة غير كافية إذا كانت المنصة بالفعل جادّة في الحدّ من التضليل والتأثير على الرأي العام، مثلاً (إكس) كانت أكثر جدّية من خلال تقييد أي منشور موجّه قبل الانتخابات بشهر»، مشيراً إلى أنه «بالتبعية شاهدنا على منصة (فيسبوك) محتوى مضلّلاً وزائفاً طُوّر بالذكاء الاصطناعي».

وأوضح عبد الراضي أن «(ميتا) لم تفرض قيوداً على الإعلانات بشكل عام، بل على نوع واحد فقط هو الإعلانات السياسية المدفوعة، ومن ثم تركت المجال أمام التضليل والتأثير على الرأي العام»، ودلّل كذلك على قلة جدّية الشركة بقوله: «بعد الانتخابات الأميركية في 2020 واجهت (ميتا) عدة اتهامات بتوجيه الرأي العام، ما دفع الشركة لاتخاذ إجراءات جادّة، من بينها توظيف (فِرق سلامة) معنية بمراجعة النصوص؛ للتأكد من ملاءمتها مع معايير المنصة، غير أن عمل هذه الفِرق أُنهِي لاحقاً، ما يشير إلى أن ادّعاءات المنصة لم تكن جدّية».