دراسة: تقنية «التزييف العميق» قوضت الثقة في الصور والفيديوهات الخاصة بالحروب

«التزييف العميق» قوض ثقة مستخدمي مواقع التواصل الاجتماعي في اللقطات الخاصة بالحروب والصراعات (رويترز)
«التزييف العميق» قوض ثقة مستخدمي مواقع التواصل الاجتماعي في اللقطات الخاصة بالحروب والصراعات (رويترز)
TT

دراسة: تقنية «التزييف العميق» قوضت الثقة في الصور والفيديوهات الخاصة بالحروب

«التزييف العميق» قوض ثقة مستخدمي مواقع التواصل الاجتماعي في اللقطات الخاصة بالحروب والصراعات (رويترز)
«التزييف العميق» قوض ثقة مستخدمي مواقع التواصل الاجتماعي في اللقطات الخاصة بالحروب والصراعات (رويترز)

قوَّضت تقنية «التزييف العميق deepfake» ثقة الأشخاص في مصداقية الصور والفيديوهات التي يتم التقاطها في مناطق الحروب، وفقاً لما أكدته دراسة جديدة هي الأولى من نوعها في هذا الشأن.

وتقنية «التزييف العميق» هي عبارة عن برنامج إلكتروني يتيح للنّاس تبديل الوجوه، والأصوات، وغيرها من السمات لابتكار محتوى رقمي مزوّر.

ووفقاً لصحيفة «إيفينينغ ستاندرد» البريطانية، فقد حللت الدراسة الجديدة، التي تحمل عنوان «نوع جديد من الأسلحة في الحرب الدعائية»، ما يقرب من 5 آلاف تغريدة على موقع «إكس» (تويتر سابقاً) في الأشهر السبعة الأولى من عام 2022 لاستكشاف كيفية تفاعل الأشخاص مع المحتوى المزور بواسطة تقنية «التزييف العميق» عبر الإنترنت، والمتعلق بحرب روسيا وأوكرانيا.

وسلط الباحثون، التابعون لكلية كورك الجامعية بآيرلندا، الضوء على بعض الأمثلة لمقاطع الفيديو المزيفة خلال هذه الحرب، بما في ذلك استخدام لقطات ألعاب فيديو على أنها لقطات خاصة بالصراع، ونشر فيديو مزيف للرئيس الروسي فلاديمير بوتين، يظهره وهو يعلن السلام مع أوكرانيا.

ووجدت الدراسة أن «التزييف العميق» قوض ثقة أغلب مستخدمي مواقع التواصل الاجتماعي في جميع اللقطات الخاصة بالحروب والصراعات.

ووفقاً للدراسة، فقد شمل ذلك الصور والفيديوهات الصادرة عن مؤسسات صحافية وإعلامية موثوق بها، حيث لم يعد الأشخاص يثقون بها كما كانوا من قبل.

وأظهرت الدراسة أيضاً أن الجهود المبذولة لرفع مستوى الوعي حول مقاطع الفيديو المزيفة ساهمت أيضاً في تقويض الثقة في مقاطع الفيديو الحقيقية، حيث شعر الأشخاص أنهم قد لا يتمكنون من تفريق اللقطات المزورة من الأصلية.

والعام الماضي، حذرت «وكالة الشرطة الأوروبية» (يوروبول)، من توسع استخدام تقنية «التزييف العميق».

وقالت «يوروبول» إن القدرة على جعل أشخاص يظهرون على شبكة الإنترنت، وهم يقولون أو يفعلون أشياء لم يسبق لهم أن قالوها أو فعلوها، أو حتى خلق شخصيات جديدة تماماً، يمكن أن يكون له تأثير مدمر، إذا حال وقعت هذه التقنية في الأيدي الخطأ.

وأضافت الوكالة التي تتخذ من لاهاي مقراً لها أن انتشار «التضليل الإعلامي والتزييف العميق سيكون له تأثير عميق على الطريقة التي ينظر فيها الناس إلى السلطة ووسائل الإعلام».

وأضافت أن «الخبراء يخشون من أن يؤدي هذا إلى وضع لا يملك فيه المواطنون حقيقة مشتركة، أو إلى خلق إرباك في المجتمع حول وسائل الإعلام التي يمكن الوثوق بها وهو وضع يسمى أحياناً (نهاية عالم المعلومات)، أو (اللامبالاة تجاه الحقيقة)».

وأشارت الوكالة إلى أنه يمكن للمجرمين أيضاً استخدام تقنية «التزييف العميق» لابتزاز أشخاص عبر الإنترنت، خصوصاً القُصَّر منهم واستغلالهم في أمور غير أخلاقية، أو إنتاج مواد إباحية مزيفة وتزوير أدلة إلكترونية متعلقة بتحقيقات قضائية والتلاعب بها.


مقالات ذات صلة

الصين تُعلّق تراخيص المركبات ذاتية القيادة بعد عطل في خدمة «بايدو»

الاقتصاد سيارات معدة للتصدير في ميناء ليانيينغانغ شرق الصين (أ.ف.ب)

الصين تُعلّق تراخيص المركبات ذاتية القيادة بعد عطل في خدمة «بايدو»

علقت الصين إصدار تراخيص جديدة للمركبات ذاتية القيادة بعد توقف مفاجئ لسيارات الأجرة الآلية «أبولو جو» التابعة لشركة «بايدو» في ووهان الشهر الماضي.

«الشرق الأوسط» (بكين)
الاقتصاد شعار شركة «ديب سيك» على شاشة أحد الهواتف الذكية (رويترز)

شركات التكنولوجيا الصينية تتسابق للحصول على رقائق «هواوي»

ارتفع الطلب على رقائق «أسند 950» من شركة «هواوي» الصينية بشكل كبير، بعد إطلاق نموذج الذكاء الاصطناعي «في 4» من «ديب سيك».

«الشرق الأوسط» (بكين)
تكنولوجيا شعار شركة «ميتا» (رويترز)

«ميتا» تتجه إلى الفضاء لتوليد الطاقة الشمسية

تسعى شركة «ميتا» إلى استكشاف آفاق غير تقليدية لتأمين احتياجاتها المتزايدة من الطاقة، خصوصاً مع التوسع الكبير في تشغيل أنظمة الذكاء الاصطناعي.

«الشرق الأوسط» (كاليفورنيا (الولايات المتحدة))
الاقتصاد كلمة «الذكاء الاصطناعي» ولوحة مفاتيح ويدا روبوت في هذه الصورة التوضيحية (رويترز)

«سيتي غروب» ترفع توقعاتها لسوق الذكاء الاصطناعي إلى 4.2 تريليون دولار

تتوقع «سيتي غروب» أن يتجاوز حجم سوق الذكاء الاصطناعي العالمي 4.2 تريليون دولار بحلول عام 2030، منها نحو 1.9 تريليون دولار مرتبطة بالذكاء الاصطناعي للشركات.

«الشرق الأوسط» (نيويورك)
الاقتصاد المساعد الذكي «مانوس» على شاشة أحد الهواتف الذكية (أ.ف.ب)

الصين تمنع استحواذ «ميتا» على «مانوس» الناشئة للذكاء الاصطناعي

منعت هيئة التخطيط الحكومية الصينية، يوم الاثنين، استحواذ «ميتا» الأميركية على شركة «مانوس» الصينية الناشئة في مجال الذكاء الاصطناعي.

«الشرق الأوسط» (بكين)

خبراء يُحذرون: الذكاء الاصطناعي يكشف عن طرق خطيرة لتطوير أسلحة بيولوجية

مؤيدو الذكاء الاصطناعي يرون أنه يحمل إمكانات هائلة لإحداث ثورة في الطب (رويترز)
مؤيدو الذكاء الاصطناعي يرون أنه يحمل إمكانات هائلة لإحداث ثورة في الطب (رويترز)
TT

خبراء يُحذرون: الذكاء الاصطناعي يكشف عن طرق خطيرة لتطوير أسلحة بيولوجية

مؤيدو الذكاء الاصطناعي يرون أنه يحمل إمكانات هائلة لإحداث ثورة في الطب (رويترز)
مؤيدو الذكاء الاصطناعي يرون أنه يحمل إمكانات هائلة لإحداث ثورة في الطب (رويترز)

في وقت يتسارع فيه تطوّر تقنيات الذكاء الاصطناعي بوتيرة غير مسبوقة، تزيد المخاوف بشأن إساءة استخدام هذه الأدوات في مجالات حساسة وخطيرة. فبينما يُروَّج لهذه التقنيات بوصفها محركاً للابتكار العلمي والطبي، بدأت تظهر مؤشرات مقلقة إلى قدرتها على تقديم إرشادات قد تُستغل في تطوير أسلحة بيولوجية، ما يفتح الباب أمام تهديدات غير تقليدية يصعب احتواؤها.

تجربة صادمة لعالم في جامعة ستانفورد

في إحدى أمسيات الصيف الماضي، وجد الدكتور ديفيد ريلمان، عالم الأحياء الدقيقة وخبير الأمن البيولوجي في جامعة ستانفورد الأميركية، نفسه أمام موقف صادم أثناء اختباره أحد برامج الدردشة الآلية.

وكان ريلمان قد كُلّف من قبل شركة تعمل في مجال الذكاء الاصطناعي بتقييم منتجها قبل طرحه للجمهور. وخلال تلك التجربة، فوجئ بأن البرنامج لا يكتفي بالإجابة عن أسئلة عامة، بل قدّم شرحاً مفصلاً حول كيفية تعديل مسبب مرض خطير في المختبر ليصبح مقاوماً للعلاجات المعروفة، وفقاً لما نقلته صحيفة «نيويورك تايمز».

لم يتوقف الأمر عند هذا الحد، إذ عرض البرنامج أيضاً سيناريوهات دقيقة لكيفية نشر هذا المسبب المرضي، مشيراً إلى ثغرة أمنية في نظام نقل عام كبير. ووفقاً لريلمان، فقد تضمّن الشرح خطوات تهدف إلى زيادة عدد الضحايا إلى أقصى حد، مع تقليل فرص الكشف عن الجهة المنفذة.

وبسبب خطورة هذه المعلومات، طلب ريلمان عدم الكشف عن اسم المسبب المرضي أو تفاصيل إضافية، خشية أن تُستخدم في التحريض على هجمات حقيقية.

وقد أثارت هذه التجربة صدمة عميقة لديه، دفعته إلى مغادرة مكتبه لفترة قصيرة لاستعادة هدوئه. وقال: «لقد أجاب عن أسئلة لم تخطر ببالي، وبمستوى من الخبث والمكر أثار في نفسي شعوراً بالرعب».

ورغم أن الشركة المطوّرة أضافت بعض إجراءات السلامة بعد الاختبار، فإن ريلمان رأى أنها غير كافية للحد من هذه المخاطر.

خبراء يُحذّرون: النماذج الحالية تتجاوز مجرد المعلومات العامة

يُعدّ ريلمان واحداً من مجموعة محدودة من الخبراء الذين تستعين بهم شركات الذكاء الاصطناعي لتقييم المخاطر المحتملة لمنتجاتها. وفي الأشهر الأخيرة، شارك عدد منهم مع صحيفة «نيويورك تايمز» أكثر من 12 محادثة مع روبوتات دردشة.

وأظهرت هذه المحادثات أن النماذج المتاحة للجمهور قادرة على تقديم معلومات تتجاوز حدود المعرفة العامة، إذ شرحت بشكل مفصل كيفية شراء مواد وراثية خام، وتحويلها إلى أسلحة بيولوجية، بل حتى نشرها في أماكن عامة، مع اقتراح وسائل للتهرب من الكشف.

لطالما وضعت الحكومة الأميركية سيناريوهات لمواجهة تهديدات بيولوجية محتملة، تشمل استخدام بكتيريا أو فيروسات أو سموم فتاكة. ومنذ سبعينات القرن الماضي، شهد العالم عشرات الحوادث البيولوجية المحدودة، من أبرزها هجمات الرسائل الملوثة عام 2001، التي أودت بحياة 5 أميركيين.

ورغم أن الخبراء يرون أن احتمال وقوع كارثة بيولوجية كبرى لا يزال منخفضاً، فإن تداعياتها المحتملة قد تكون كارثية، إذ يمكن لسلاح بيولوجي فعّال أن يؤدي إلى وفاة ملايين الأشخاص.

الذكاء الاصطناعي يوسّع نطاق المخاطر

يشير عشرات الخبراء إلى أن الذكاء الاصطناعي يُعد من أبرز العوامل التي قد تزيد من هذه المخاطر، عبر توسيع دائرة الأفراد القادرين على الوصول إلى معلومات وأدوات كانت حكراً على المتخصصين.

فقد أصبحت بروتوكولات علمية متقدمة متاحة على الإنترنت، كما باتت الشركات تبيع مكونات جينية صناعية (DNA وRNA) مباشرة للمستهلكين. ويمكن للعلماء تقسيم أعمالهم الحساسة وإسنادها إلى مختبرات خاصة، في حين يمكن لروبوتات الدردشة المساعدة في إدارة هذه العمليات المعقدة.

وشارك كيفن إسفلت، مهندس الوراثة في معهد ماساتشوستس للتكنولوجيا، أمثلة لمحادثات مع برامج ذكاء اصطناعي. ففي إحدى الحالات، شرح أحد البرامج كيفية استخدام بالون طقس لنشر مواد بيولوجية فوق مدينة.

وفي مثال آخر، قام برنامج آخر بتصنيف مسببات الأمراض وفق قدرتها على الإضرار بقطاع الثروة الحيوانية. كما قدّم برنامج ثالث وصفة لسم جديد مستوحى من دواء للسرطان.

وأشار إسفلت إلى أن بعض هذه المعلومات كان بالغ الخطورة لدرجة لا يمكن نشرها علناً.

وفي تجربة أخرى، طلب عالم أميركي - فضّل عدم الكشف عن هويته - من أحد أنظمة الذكاء الاصطناعي تقديم «بروتوكول خطوة بخطوة» لإعادة تصنيع فيروس تسبب في جائحة سابقة.

وجاء الرد في شكل تعليمات مفصلة بلغ طولها نحو 8 آلاف كلمة، تتضمن كيفية الحصول على مكونات جينية وتجميعها. ورغم وجود بعض الأخطاء، فإن هذه المعلومات قد تكون مفيدة لشخص لديه نوايا ضارة.

تراجع الرقابة ومخاوف متزايدة

في سياق متصل، أُثيرت مخاوف بشأن تراجع الرقابة على هذه التقنيات، خصوصاً في ظل سياسات تهدف إلى تعزيز ريادة الولايات المتحدة في مجال الذكاء الاصطناعي. وقد شهدت المؤسسات المعنية بالأمن البيولوجي مغادرة عدد من كبار الخبراء دون تعويضهم، إلى جانب انخفاض ملحوظ في ميزانيات الدفاع البيولوجي.

في المقابل، يرى مؤيدو الذكاء الاصطناعي أنه يحمل إمكانات هائلة لإحداث ثورة في الطب، من خلال تسريع الأبحاث وتحليل البيانات الضخمة لاكتشاف علاجات جديدة.

كما يُشير بعض العلماء إلى أن المعلومات التي تقدمها هذه الأنظمة ليست جديدة بالكامل، وأن تطوير أسلحة بيولوجية فعّالة لا يزال يتطلب خبرة علمية عميقة وسنوات من العمل المختبري.

من جانبها، أكدت شركات التكنولوجيا الكبرى، مثل «أنثروبيك» و«أوبن إيه آي» و«غوغل»، أنها تعمل بشكل مستمر على تطوير أنظمتها وتحسين إجراءات الأمان، بهدف تحقيق توازن بين الفوائد المحتملة والمخاطر المصاحبة لهذه التقنيات.


«ميتا» توقع اتفاقية مع «أمازون ويب سيرفيسز» لتشغيل الذكاء الاصطناعي الوكيل عبر عشرات الملايين من المعالجات فائقة الأداء

معالج "غرافيتون5"
معالج "غرافيتون5"
TT

«ميتا» توقع اتفاقية مع «أمازون ويب سيرفيسز» لتشغيل الذكاء الاصطناعي الوكيل عبر عشرات الملايين من المعالجات فائقة الأداء

معالج "غرافيتون5"
معالج "غرافيتون5"

تعمل شركة «ميتا» على تطوير جيل جديد من تقنيات الذكاء الاصطناعي وتطوير تجارب غير مسبوقة للمستخدمين. ولتحقيق ذلك، تحتاج الشركة إلى جيل جديد من المعالجات، الأمر الذي توفره «أمازون ويب سيرفيسز (AWS)»، حيث تم توقيع اتفاقية بين الشركتين لاستخدام عشرات الملايين من معالجات «غرافيتون (AWS Graviton)»، ما يعكس تحولاً جوهرياً في كيفية بناء البنية التحتية للذكاء الاصطناعي.

معالج «غرافيتون 5»

وفي السابق، كانت «وحدات معالجة الرسومات (GPU)» أساسية لتدريب النماذج الضخمة، ولكن تطور «الذكاء الاصطناعي الوكيل (Agentic AI)» (وحدات برمجية مستقلة قادرة على التفكير والتخطيط وإنجاز المهام المعقدة وكأنها مستخدم يجلس أمام الكومبيوتر) يعني وجود حاجة متزايدة إلى طلب هائل على أحمال العمل التي تحتاج لموارد «معالجة مركزية (CPU)» مكثفة، مثل توليد النصوص البرمجية والبحث وتنسيق المهام متعددة الخطوات. وتم تصميم معالج «غرافيتون5» (Graviton5) خصيصاً لهذه المهام، ما يمنح «ميتا» قدرات الحوسبة اللازمة لتشغيلها بكفاءة وموثوقية.

معالجة أسرع للبيانات

ويتميز المعالج الجديد بتقديم 192 نواة وذاكرة تخزين مؤقتة أكبر بخمس مرات مقارنة بالجيل السابق، ما يخفض من زمن استجابة النوى بنسبة تصل إلى 33 في المائة، مما يعني معالجة أسرع للبيانات بنطاق ترددي أكبر، وهما شرطان أساسيان لنظم الذكاء الاصطناعي التي تتطلب تنفيذ مهام مستمرة ومتعددة الخطوات. وتم تصنيع المعالج بدقة 3 نانومتر للحصول على معالج بحجم أقل وكفاءة أعلى، ما ينجم عنه بنية تحتية بأداء أعلى بنسبة تصل إلى 25 في المائة مقارنة بالجيل السابق، مع الحفاظ على كفاءة فائقة باستهلاك الطاقة للحد من الأثر البيئي.

أعلى مستويات الأداء والأمان

كما صُممت المعالجات على نظام «إيه دبليو إس نايترو (AWS Nitro)» الذي يستخدم دارات إلكترونية وبرمجية مخصصة لتحقيق أعلى مستويات الأداء والتوافر والأمان. ويسمح هذا النظام بالوصول المباشر للعتاد الإلكتروني، مع توفير تقنيات متقدمة، مثل: «Elastic Network Adapter ENA» و«Amazon Elastic Block Store EBS»، لتشغيل البيئة الافتراضية الخاصة دون أي تأثير على الأداء.

كما يدعم المعالج تقنية «Elastic Fabric Adapter EFA» التي تتيح اتصالاً منخفض التأخير وعالي السعة بين البيئات الافتراضية المتعددة، وهو أمر بالغ الأهمية لتشغيل أعباء عمل الذكاء الاصطناعي الوكيل لدى «ميتا»، الذي يتطلب توزيع مهام واسعة النطاق على مجموعة متعددة من معالجات تعمل بتنسيق تام نحو تحقيق هدف واحد للمستخدم.


برنامج ذكاء اصطناعي... يتنبأ بترقيتك المقبلة

برنامج ذكاء اصطناعي... يتنبأ بترقيتك المقبلة
TT

برنامج ذكاء اصطناعي... يتنبأ بترقيتك المقبلة

برنامج ذكاء اصطناعي... يتنبأ بترقيتك المقبلة

ترقية الشخص غير المناسب مسألة مكلفة، كما أنها تحدث بشكل متكرر، إذ تتراوح نسبة فشل المديرين التنفيذيين المعينين بين 30 و50 في المائة خلال أول سنة ونصف من عملهم، كما كتبت سارة بريغل(*).

منصة ذكية لاختيار قادة المستقبل

وقد طورت شركة «وركهيومان» Workhuman، وهي منصة لإدارة الموظفين، أداة ذكاء اصطناعي جديدة باسم «فيوتشر ليدرز» Future Leaders (قادة المستقبل)، للمساعدة في تحسين قرارات الترقية.

رصد الإمكانات العالية للموظفين

تستطيع هذه الأداة التي أعلنت عنها الشركة يوم أمس الثلاثاء «تحديد الموظفين ذوي الإمكانات العالية الذين يُرجح أن يصبحوا قادة كباراً قبل الترقية بثلاث إلى خمس سنوات».

وقد تحدث الرئيس التنفيذي، إريك موسلي، أمام حشد من الحضور في المؤتمر السنوي للشركة في أورلاندو، فلوريدا، عن برنامج Future Leaders، قائلاً إن الشركة اختبرته من خلال بياناتها عام 2020، وقد تمكنت الأداة من التنبؤ بالترقيات بدقة تقارب 80 في المائة.

تحليل أسباب الثقة

ويقول إن نظام «فيوتشر ليدرز» قادر على تحليل أسباب حصول الموظفين على الترقيات. على سبيل المثال، عندما سُئل النظام عن سبب ترقية شخص ما إلى منصب نائب الرئيس، قدم شرحاً مفصلاً، مشيراً إلى أن المسؤوليات الموكلة إليه تدل على تقديره، وثقة النظام به بشكل كبير. وأوضح موسلي أن الذكاء الاصطناعي أطلق على هذا تعبير «الثقة الاستراتيجية». وأضاف أن هذا الأمر جعله يدرك أن الثقة الاستراتيجية «مؤشر رئيس على ترقية شخص ما في المستقبل».

استخلاص أنماط القادة

بما أن نظام «قادة المستقبل» مُدرب على مجموعة بيانات ضخمة من القادة، فإنه يستطيع استخلاص الأنماط التي تميز القادة الحقيقيين، وبالتالي إيجاد الموظفين الذين يتوافقون مع هذه الأنماط، والتوصية بهم. وأشار موسلي إلى أن هذه الأداة يمكن استخدامها لضمان عدم تفويت الشركات للموظفين الموهوبين الذين يستحقون الترقية.

توظيف الأدوات الذكية في التقييم

وقد بدأت العديد من الشركات بالفعل في تطبيق الذكاء الاصطناعي للمساعدة في الترقيات. ووفقاً لاستطلاع أجرته «Resume Builder» عام 2025، يستخدم 77 في المائة من المديرين الذكاء الاصطناعي للمساعدة في اتخاذ قرارات الترقية. وتتجاوز أدوات مثل «قادة المستقبل» ذلك، إذ تتيح للمديرين «استشراف» المستقبل.

التقدير البشري لا يزال مهماً

ومع ذلك، وحتى مع دقة تصل إلى 80 في المائة، قد يظل القرار النهائي بشأن من تتم ترقيته مرهوناً بعوامل لا يمكن لأي أداة ذكاء اصطناعي تحديدها. كما أشار موسلي إلى أنه لا يزال من المهم استخدام التقدير البشري، وفي نهاية المطاف، لا يكون الذكاء الاصطناعي فعالاً إلا بقدر فاعلية الإنسان الذي يوجهه.

* مجلة «فاست كومباني»