علامات على منشورات الذكاء الاصطناعي وحظر فيديوهات التزييف العميق

حثّت مئات من مجموعات المجتمع المدني رؤساء شركات التكنولوجيا الكبرى، على تكثيف المعركة ضد الأكاذيب التي يغذّيها الذكاء الاصطناعي.

مكافحة المعلومات المضللة

دعا أكثر من 200 مجموعة مناصرة للحقوق المدنية شركات التكنولوجيا الكبرى إلى تعزيز معركتها ضد المعلومات المضللة التي يغذّيها الذكاء الاصطناعي مع توجه مليارات الناخبين إلى صناديق الاقتراع هذا العام في الانتخابات في جميع أنحاء العالم.

وكتب تحالف النشطاء إلى الرؤساء التنفيذيين لشركات «ميتا» و«رديت» و«غوغل» و«إكس» إضافةً إلى 8 مديرين تنفيذيين آخرين في مجال التكنولوجيا، يوم الثلاثاء، لحثهم على تبني سياسات مواجهة أقوى في وجه موجة الدعاية السياسية الخطيرة.

المطالبة بحظر التزييف العميق

وتعد هذه الخطوات الإضافية حاسمة في عام 2024 بالنظر إلى أن أكثر من 60 دولة ستُجري انتخابات وطنية، وفق الرسالة التي نشرتها محللة التكنولوجيا نعومي نيكس، في موقع The Technology 202.

علامات على منشورات الذكاء الاصطناعي

وقالت نورا بينافيديز، كبيرة المستشارين في مجموعة الحقوق الرقمية «فري برس Free Press»: «يُجرى كثير من الانتخابات حول العالم هذا العام، وتعد منصات التواصل الاجتماعي إحدى أهم الطرق التي يتواصل بها الناس عادةً مع المعلومات». لذا تحتاج الشركات إلى «زيادة إجراءات سلامة النظام الأساسي في هذه اللحظة».

كما طالبت المجموعات عمالقة التكنولوجيا بتعزيز سياساتها بشأن الإعلانات السياسية، بما في ذلك حظر التزييف العميق ووضع علامة على أي محتوى جرى إنشاؤه بواسطة الذكاء الاصطناعي فيها. ولعدة أشهر، ظل المدافعون عن الحقوق المدنية يُحذرون من أن ارتفاع عدد منشورات المقاطع الصوتية ومقاطع الفيديو التي ينتجها الذكاء الاصطناعي يؤدي بالفعل إلى إحداث الارتباك في الانتخابات في جميع أنحاء العالم.

ويقول الخبراء إن مخاطر الذكاء الاصطناعي يمكن أن تؤدي إلى ضرر حقيقي في الديمقراطيات المتقلبة سياسياً.

علامات مائية

إلا أن شركات التكنولوجيا مثل «ميتا» و«غوغل» و«ميدجورني» تصرّ على أنها تعمل على تطوير نظم لتحديد المحتوى الناتج عن الذكاء الاصطناعي باستخدام علامة مائية. وفي الأسبوع الماضي، قالت «ميتا» إنها ستوسع سياسة وضع العلامات الخاصة بالذكاء الاصطناعي لتطبَّق على نطاق أوسع من الفيديو والصوت والصور.

لكنّ الخبراء يقولون إنه من غير المرجح أن تكتشف شركات التكنولوجيا كل المحتوى المضلل الناتج عن الذكاء الاصطناعي والمنتشر على شبكاتها أو من إصلاح الخوارزميات الأساسية التي تُسهّل على بعض هذه المنشورات الانتشار على نطاق واسع في المقام الأول.

كما دعت المجموعات شركات التكنولوجيا إلى أن تكون أكثر شفافية بشأن البيانات التي تدعم نماذج الذكاء الاصطناعي الخاصة بها، وانتقدتها لإضعاف السياسات والنظم التي تهدف إلى مكافحة المعلومات السياسية المضللة على مدى العامين الماضيين.

دعايات ضارة

وقالت المجموعات إنه إذا لم تكثف شركات التكنولوجيا جهودها، فإن الدعاية الخطيرة على وسائل التواصل الاجتماعي يمكن أن تؤدي إلى التطرف أو العنف السياسي. وقالت فرنسيس هاوغين، التي سبق لها وأعلنت عن المخالفات التي رصدتها في «ميتا»، والتي وقّعت مجموعتها «بيوند ذا سكرين» على الرسالة: «إن الأمر ليس خارج نطاق الاستحالة لأننا سنرى المزيد من المعلومات الخاطئة المقنَّعة في شكل التزييف العميق». وأضافت أن البلدان ذات الديمقراطيات الأكثر هشاشة بكثير من الولايات المتحدة... معرَّضة بالمقدار نفسه لكل هذه التلاعبات».

دراسة: تقنية «التزييف العميق» قوضت الثقة في الصور والفيديوهات الخاصة بالحروب

قوَّضت تقنية «التزييف العميق deepfake» ثقة الأشخاص في مصداقية الصور والفيديوهات التي يتم التقاطها في مناطق الحروب، وفقاً لما أكدته دراسة جديدة هي الأولى من نوعها في هذا الشأن.

وتقنية «التزييف العميق» هي عبارة عن برنامج إلكتروني يتيح للنّاس تبديل الوجوه، والأصوات، وغيرها من السمات لابتكار محتوى رقمي مزوّر.

ووفقاً لصحيفة «إيفينينغ ستاندرد» البريطانية، فقد حللت الدراسة الجديدة، التي تحمل عنوان «نوع جديد من الأسلحة في الحرب الدعائية»، ما يقرب من 5 آلاف تغريدة على موقع «إكس» (تويتر سابقاً) في الأشهر السبعة الأولى من عام 2022 لاستكشاف كيفية تفاعل الأشخاص مع المحتوى المزور بواسطة تقنية «التزييف العميق» عبر الإنترنت، والمتعلق بحرب روسيا وأوكرانيا.

وسلط الباحثون، التابعون لكلية كورك الجامعية بآيرلندا، الضوء على بعض الأمثلة لمقاطع الفيديو المزيفة خلال هذه الحرب، بما في ذلك استخدام لقطات ألعاب فيديو على أنها لقطات خاصة بالصراع، ونشر فيديو مزيف للرئيس الروسي فلاديمير بوتين، يظهره وهو يعلن السلام مع أوكرانيا.

ووجدت الدراسة أن «التزييف العميق» قوض ثقة أغلب مستخدمي مواقع التواصل الاجتماعي في جميع اللقطات الخاصة بالحروب والصراعات.

ووفقاً للدراسة، فقد شمل ذلك الصور والفيديوهات الصادرة عن مؤسسات صحافية وإعلامية موثوق بها، حيث لم يعد الأشخاص يثقون بها كما كانوا من قبل.

وأظهرت الدراسة أيضاً أن الجهود المبذولة لرفع مستوى الوعي حول مقاطع الفيديو المزيفة ساهمت أيضاً في تقويض الثقة في مقاطع الفيديو الحقيقية، حيث شعر الأشخاص أنهم قد لا يتمكنون من تفريق اللقطات المزورة من الأصلية.

والعام الماضي، حذرت «وكالة الشرطة الأوروبية» (يوروبول)، من توسع استخدام تقنية «التزييف العميق».

وقالت «يوروبول» إن القدرة على جعل أشخاص يظهرون على شبكة الإنترنت، وهم يقولون أو يفعلون أشياء لم يسبق لهم أن قالوها أو فعلوها، أو حتى خلق شخصيات جديدة تماماً، يمكن أن يكون له تأثير مدمر، إذا حال وقعت هذه التقنية في الأيدي الخطأ.

وأضافت الوكالة التي تتخذ من لاهاي مقراً لها أن انتشار «التضليل الإعلامي والتزييف العميق سيكون له تأثير عميق على الطريقة التي ينظر فيها الناس إلى السلطة ووسائل الإعلام».

وأضافت أن «الخبراء يخشون من أن يؤدي هذا إلى وضع لا يملك فيه المواطنون حقيقة مشتركة، أو إلى خلق إرباك في المجتمع حول وسائل الإعلام التي يمكن الوثوق بها وهو وضع يسمى أحياناً (نهاية عالم المعلومات)، أو (اللامبالاة تجاه الحقيقة)».

وأشارت الوكالة إلى أنه يمكن للمجرمين أيضاً استخدام تقنية «التزييف العميق» لابتزاز أشخاص عبر الإنترنت، خصوصاً القُصَّر منهم واستغلالهم في أمور غير أخلاقية، أو إنتاج مواد إباحية مزيفة وتزوير أدلة إلكترونية متعلقة بتحقيقات قضائية والتلاعب بها.

وكالة «يوروبول» تحذر من تزايد استخدام تقنية «التزييف العميق» في عالم الجريمة

حذرت «وكالة الشرطة الأوروبية» (يوروبول)، اليوم (الخميس)، من توسع استخدام تقنية «التزييف العميق» (ديب فايك) في عالم الجريمة، مشيرة إلى خطورة هذا الأمر، وجَعْل مكافحته أولوية.
وقالت «يوروبول» إن القدرة على جعل أشخاص يظهرون على شبكة الإنترنت، وهم يقولون أو يفعلون أشياء لم يسبق لهم أن قالوها أو فعلوها، أو حتى خلق شخصيات جديدة تماماً، يمكن أن يكون له تأثير مدمر، في حال وقعت هذه التقنية في الأيدي الخطأ، بحسب ما نقلته «وكالة الصحافة الفرنسية».
وأضافت الوكالة التي تتخذ من لاهاي مقراً لها أن انتشار «التضليل الإعلامي والتزييف العميق سيكون له تأثير عميق على الطريقة التي ينظر فيها الناس إلى السلطة ووسائل الإعلام».
وأصدرت الوكالة الأوروبية تقريراً من 23 صفحة يبحث في كيفية استخدام الذكاء الاصطناعي وتقنية التزييف العميق في عالم الجريمة، بما في ذلك لتقويض ثقة الناس بالسلطة والحقائق الرسمية.
وذكر التقرير أن «الخبراء يخشون من أن يؤدي هذا إلى وضع لا يملك فيه المواطنون حقيقة مشتركة، أو إلى خلق إرباك في المجتمع حول وسائل الإعلام التي يمكن الوثوق بها (...) وهو وضع يسمى أحياناً (نهاية عالم المعلومات)، أو (اللامبالاة تجاه الحقيقة)».
ويمكن للمجرمين أيضاً استخدام تقنية «التزييف العميق» لابتزاز أشخاص عبر الإنترنت، خصوصاً القصر منهم واستغلالهم في أمور غير أخلاقية، أو إنتاج مواد إباحية مزيفة وتزوير أدلة إلكترونية متعلقة بتحقيقات قضائية والتلاعب بها. كما أن عالم الأعمال ليس بمنأى عن هذا الخطر.
وأعطت الوكالة مثالاً على ذلك استخدام مجرمين لتقنية «التزييف العميق» من أجل تقليد صوت رئيس تنفيذي لإحدى الشركات ليأمر موظفاً بتحويل مبلغ 35 مليون دولار.
وأكدت وكالة الشرطة الأوروبية: «هذا يجعل من الضروري أن نكون على علم بهذا النوع من التلاعب، والاستعداد لمواجهة هذه الظاهرة والتمييز بين الاستخدام الجيد والخبيث لهذه التقنية».
ورغم أنه لا يزال بإمكان البشر اكتشاف الصور المزيفة عن طريق الملاحظة في حالات كثيرة، فإن تقنيات التزييف تتطور، وأصبح الاكتشاف أكثر صعوبة.
وقامت شركات تكنولوجيا عدة بابتكار أنظمة لحظر «التزييف العميق»، بينها شركة «ميتا» التي تملك «فيسبوك» و«إنستغرام»، بالإضافة إلى «تيك توك» و«راديت» و«يوتيوب».
ولفتت «يوروبول» إلى أنه «يجب على صناع السياسات ووكالات إنفاذ القانون تقييم السياسات والممارسات الحالية، وتكييفها، كي نكون مستعدين لمواجهة الواقع الجديد للتزييف العميق».