فيديوهات مزيفة أسهل صنعاً وأقلّ تكلفةً

توظف نظم ذكاء صناعي جديدة

فيديوهات مزيفة أسهل صنعاً وأقلّ تكلفةً
TT

فيديوهات مزيفة أسهل صنعاً وأقلّ تكلفةً

فيديوهات مزيفة أسهل صنعاً وأقلّ تكلفةً

قد لا يبدو غريباً على شخصية جو روغن، الكوميدي الذي تحوّل إلى مدوّن صوتي، الترويج لقهوة منشّطة للرغبة الجنسية لدى الرجال.
ولكن عندما انتشر مقطع فيديو على «تيك توك» أخيراً يظهر روغن وضيفه أندرو هوبرمان يشربان من هذه القهوة، دُهش بعض المشاهدين من أصحاب العينين الثاقبتين... ومنهم هوبرمان.
بعد مشاهدة الإعلان الذي ظهر فيه وهو يمدح القهوة المنشّطة للتستوستيرون مع أنّه لم يفعل ذلك، كتب هوبرمان على تويتر: «نعم، إنّه مزيّف».
فيديوهات مزيفة
كان هذا الإعلان واحداً من عددٍ كبير من الفيديوهات المزيّفة المنتشرة على التواصل الاجتماعي والمصنوعة بتقنية مدعومة بالذكاء الصناعي. يقول الخبراء إنّ صوت روغن بدا مفبركاً باستخدام أداة ذكاء صناعي مصممة لتقليد أصوات المشاهير، بينما تبيّن أنّ التعليقات التي صدرت عن هوبرمان كانت مسحوبة من مقابلة منفصلة.
تُعرف صناعة الفيديوهات المزيّفة ذات الطابع الواقعي غالباً باسم «ديب فيك deepfake» وكانت في الماضي القريب تتطلّب برنامجاً متطوّراً لوضع وجه أحدهم مكان وجه شخص آخر. أمّا اليوم، فتوجد أدوات كثيرة مشابهة لأغراض لاستهلاك اليومي، حتّى إنّها باتت متوفرة على شكل تطبيقات هاتفية مجّانية أو قليلة التكلفة.
تنتشر الفيديوهات المعدَّلة الجديدة – التي يصنعها غالباً معدّو النكات والمسوّقون التجاريون – على مواقع التواصل الاجتماعي كـ«تيك توك» و«تويتر». يطلق الباحثون على هذا النوع من المحتوى اسم «تشيب فيك» (المزيّف الرخيص) لأنّه يتألّف من أصوات المشاهير المستنسخة، وحركات الشفتين المعدّلة لتطابق الصوت، والحوار المكتوب بأسلوبٍ مقنع.
حثّت هذه الفيديوهات والتقنيات المنتشرة باحثي الذكاء الصناعي على التحذير من مخاطرها، وأثارت مخاوف حول جهوزية شركات التواصل الاجتماعي للتعامل مع التزييف الرقمي المتنامي.
بدورها، تحضّر الجهات الرقابية المختصة بالتضليل الإعلامي نفسها لموجة من المواد الرقمية المزيفة التي قد تخدع المشاهدين، أو تصعّب عليهم التمييز بين الحقيقي والمزيّف على شبكة الإنترنت.
وقد اعتبر بريت باريس، أستاذ مساعد في علوم المعلومات في جامعة روتجرز أسهم في ابتكار مصطلح «تشيب فيك»، أنّ «المختلف في الأمر اليوم أنّ الجميع بات قادراً على صناعتها. الأمر لم يعد محصوراً بالأشخاص الذين يملكون تقنيات ومهارات إلكترونية معقّدة. لقد باتت متوفرة في تطبيقات مجّانية».
تلاعب وتضليل
تنتشر كميات هائلة من المحتوى المتلاعب به منذ سنوات على منصات كـ«تيك توك»، صُنعت باستخدام حيلٍ بسيطة كالتوليف الدقيق أو استبدال مقاطع بأخرى. ففي أحد الفيديوهات على «تيك توك»، ظهرت نائبة الرئيس الأميركي كامالا هاريس وهي تقول إنّ جميع الأشخاص الذين أُدخلوا إلى المستشفى بعدوى «كوفيد-19» كانوا من متلقّي اللقاح، بينما الحقيقة هي أنّها قالت إنّهم لم يتلقّوا اللقاح.
رصدت شركة «غرافيكا» المتخصصة في دراسة المعلومات المضلّلة، مقاطع «ديب فيك» تظهر مذيعي أخبار وهميين وزّعتها حسابات موالية للحكومة الصينية تديرها روبوتات في أواخر العام الفائت، لتسجّل أوّل نموذج على استخدام التقنية في حملات مؤثرة داعمة للحكومات.
ولكنّ أدوات عدّة جديدة باتت توفّر تقنيات مشابهة لمستخدمي الإنترنت العاديين، وتمنح الكوميديين والمنتسبين الحزبيين فرصة صناعة مقاطعهم المزيفة المقنعة الخاصة.
انتشر الشهر الفائت مقطع فيديو يظهر الرئيس جو بايدن وهو يعلن مسودة قانون متعلّقة بالحرب بين روسيا وأوكرانيا. صمم هذا الفيديو الفريق المنتج لمدوّنة «هيومن إيفنتس ديلي» الصوتية التي يديرها جاك بوسوبييك، المؤثر اليميني المعروف بنشره لنظريات المؤامرة.
في مقطع مصوّر لشرح الفيديو، قال بوسوبييك إنّ فريقه صمم المحتوى باستخدام تقنية ذكاء صناعي. وكانت حساب «باتريوت أواسيس» المحافظ على «تويتر» قد أعاد نشر الفيديو المزيّف في تغريدة، مستخدماً عبارة «خبر عاجل» دون التنويه بأنّ المقطع مزيّف، وحصدت هذه التغريدة أكثر من 8 ملايين مشاهدة.
يستخدم كثير من هذه المقاطع المصوّرة التي تتضمّن أصواتاً مفبركة تقنية من تطوير شركة «إيلفن لابز» الأميركية الناشئة التي شارك في تأسيسها مهندسٌ سابق من «غوغل». وكانت الشركة قد أطلقت في نوفمبر (تشرين الثاني) أداة لاستنساخ الصوت يمكن تدريبها لتقليد الأصوات في غضون ثوانٍ.
جذبت «إيلفن لابز» الانتباه الشهر الفائت بعدما استخدم «فورتشان» (4chan) -موقع لنشر الرسائل والصور يشتهر بمحتواه العنصري والمؤامرتي- الأداة لمشاركة رسائل كراهية. فقد عمد أحد مستخدمي الموقع إلى ابتكار تسجيل صوتي لنصٍّ معادٍ للسامية استعمل فيه صوتاً آلياً يقلّد صوت الممثّلة إيما واتسون.
في هذا السياق، قالت الشركة على حسابها على «تويتر» إنّها تعتزم تقديم ضمانات جديدة، كحصر أداة استنساخ الصوت بالحسابات المدفوعة، بالإضافة إلى تأمين أداة رصد جديدة للذكاء الصناعي. ولكنّ مستخدمي «فورتشان» ادعوا أنّهم يستطيعون ابتكار أداتهم الخاصة للاستنساخ الصوتي باستخدام رمزٍ مفتوح المصدر، ونشر عروضٍ شبيهة بالمواد الصوتية التي تنتجها «إيلفن لابز».
استنساخ الأصوات
رجّح خبراء يدرسون تقنية «ديب فيك» أنّ الإعلان المزيّف الذي يظهر فيه روغن وهوبرمان صُنع باستخدام برنامج لاستنساخ الأصوات، ولكنّهم لم يتمكّنوا من تحديده. وتجدر الإشارة إلى أنّ التسجيل الصوتي العائد لروغن دُمج مع مقابلة حقيقية أجراها هوبرمان لمناقشة موضوع التستوستيرون.
ولكنّ النتائج في هذا المقطع لم تكن مثالية، حيث إن مقطع روغن كان مأخوذاً من مقابلة أجراها مع لاعب بلياردو محترف في ديسمبر (كانون الأول) ولا تمتّ إلى محتوى الفيديو المزيف بصلة. إضافة إلى ذلك، يُلحظ غياب التطابق بين حركات فم روغن والمقطع الصوتي، فضلاً عن أنّ الأصوات الصادرة عنه بدت غير طبيعية في بعض الأحيان. لم يتّضح ما إذا كان هذا الفيديو قد أقنع مستخدمي «تيك توك» أم لا، ولكنّه بالتأكيد جذب اهتماماً أكبر بكثير بعد وسمه بالتزييف.
تحظر سياسة منصّة «تيك توك» المواد الرقمية المزيفة التي «تضلّل المستخدمين بتشويه حقيقة الأحداث وتسبب ضرراً بارزاً لموضوع الفيديو، وأشخاص آخرين، والمجتمع». تخلّصت المنصّة من كثير من الفيديوهات التي بلّغت عنها صحيفة «نيويورك تايمز»، وعمد «تويتر» بدوره إلى إزالة بعض المقاطع.
في هذا السياق، تبدي الجهات الفيدرالية المشرفة على تنظيم القاعدة القانونية بطئاً في الاستجابة. فقد طلب قانونٌ فيدرالي واحدٌ في عام 2019 تقريراً عن استخدام تقنيات «ديب فيك» كأسلحة من قبل الأجانب، وطلب من الوكالات الحكومية إشعار الكونغرس إذا ما كانت هذه التقنيات قد استهدفت الانتخابات في الولايات المتحدة، وأطلق جائزة لتشجيع البحوث حول أدوات لرصد مواد «ديب فيك».
وقال رافيت دوتان، وهو باحث في مرحلة ما بعد الدكتوراه يدير مختبر «كولابوريتف آي.إي. ريسبونسبليتي لاب» في جامعة بيتسبرغ: «لا يمكننا انتظار سنتين لتمرير القوانين؛ لأنّ الضرر قد يصبح كبيراً جداً حتّى ذلك الوقت. لدينا انتخابات قادمة هنا في الولايات المتحدة، وهذا الأمر سيسبب مشكلة».
* خدمة «نيويورك تايمز»



«غوغل كلاود» لـ«الشرق الأوسط»: هدوء سيبراني «حذر» رغم التوترات الإقليمية

التوترات التي شهدها الشرق الأوسط خلال الشهرين الماضيين لم تؤدِّ إلى تصعيد سيبراني واسع وفوري بالقدر الذي كان متوقعاً (شاترستوك)
التوترات التي شهدها الشرق الأوسط خلال الشهرين الماضيين لم تؤدِّ إلى تصعيد سيبراني واسع وفوري بالقدر الذي كان متوقعاً (شاترستوك)
TT

«غوغل كلاود» لـ«الشرق الأوسط»: هدوء سيبراني «حذر» رغم التوترات الإقليمية

التوترات التي شهدها الشرق الأوسط خلال الشهرين الماضيين لم تؤدِّ إلى تصعيد سيبراني واسع وفوري بالقدر الذي كان متوقعاً (شاترستوك)
التوترات التي شهدها الشرق الأوسط خلال الشهرين الماضيين لم تؤدِّ إلى تصعيد سيبراني واسع وفوري بالقدر الذي كان متوقعاً (شاترستوك)

في «غوغل كلاود نكست 2026» في لاس فيغاس، لم يكن حديث ساندرا جويس، نائبة رئيس «غوغل ثريت إنتلجنس» (Google Threat Intelligence)، مجرد إضافة تقنية ضمن زخم الذكاء الاصطناعي الذي طغى على المؤتمر، بل قدّم قراءة أكثر هدوءاً وانضباطاً لمشهد التهديدات السيبرانية في لحظة إقليمية ودولية حساسة.

وخلال الجلسة، سألت «الشرق الأوسط» عمّا إذا كانت التوترات التي شهدها الشرق الأوسط خلال الشهرين الماضيين قد انعكست على نمط الهجمات السيبرانية، وما إذا كانت «غوغل كلاود» قد رصدت تحولاً موازياً في مستوى النشاط أو طبيعته. غير أن رد ساندرا جويس جاء على خلاف ما قد يتوقعه كثيرون قائلة إن فريقها «لم يرَ في الواقع ارتفاعاً كبيراً في النشاط السيبراني» خلال تلك الفترة، مضيفة أن ما جرى، باستثناء بعض الوقائع التي ظهرت علناً، لم يصل إلى مستوى تصعيد واسع، بل إنهم «شهدوا هدوءاً، ثم عادت المستويات تقريباً إلى ما كانت عليه سابقاً»، بخلاف ما حدث مع بداية التوترات بين روسيا وأوكرانيا.

وتكتسب هذه الملاحظة أهميتها من أنها تبتعد عن المبالغة، وتقدم صورة أكثر توازناً؛ فالتوترات الجيوسياسية لا تنعكس بالضرورة، وبصورة فورية، في موجة سيبرانية واسعة ومرئية. لكن ذلك، في حديث ساندرا جويس، لا يعني أن الخطر تراجع أو أن البيئة أصبحت أكثر أماناً.

ساندرا جويس نائبة رئيس «غوغل ثريت إنتلجنس» (Google Threat Intellegence) (غوغل)

استعداد قبل الانفجار

وعندما سُئلت عن تفسير هذا الهدوء النسبي، لم تربطه ساندرا جويس بضعف في قدرات الجهات المهاجمة أو بانحسار التهديد، بل أشارت إلى احتمالات أكثر تعقيداً؛ إذ ربما تكون هذه القدرات موزعة بشكل لامركزي، بحيث لا يؤدي استهداف موقع معين إلى تعطيلها، وربما لم يصدر القرار باستخدامها على نطاق أوسع، وربما كانت هناك اعتبارات ردع قائمة.

وفي المقابل، شرحت كيف تتعامل «غوغل كلاود» مع مثل هذه اللحظات عبر ما وصفته بآلية التعامل مع «الأحداث الكبرى»، حيث يجري العمل السريع بهدف التحرك قبل اتساع الأثر، من خلال توفير مؤشرات مبكرة عمّا قد يحدث، ثم التمييز بعد ذلك بين الضجيج والحقيقة، وبين التصورات والوقائع، حتى تتمكن المؤسسات من اتخاذ قرارات عملية تستند إلى سياق واضح. وبذلك، لا يعود دور استخبارات التهديدات مقتصراً على الإبلاغ عمّا حدث، بل يمتد إلى مساعدة المؤسسات على معرفة ما ينبغي فعله بعد ذلك.

«غوغل كلاود»: أول اختبار حقيقي لمرونة المؤسسات اليوم يبدأ من إدارة الثغرات والتحديثات الأمنية لا من الشعارات العامة حول الصمود (شاترستوك)

اختبار المرونة الحقيقي

وفي محور آخر، انتقل النقاش مع «الشرق الأوسط» إلى معنى «المرونة» أو «الصمود» داخل المؤسسات، ليس فقط من زاوية حماية المعلومات، بل أيضاً من زاوية الحفاظ على استمرارية الخدمات والعمليات والثقة العامة. وجاء جواب جويس مباشراً، مشيرة إلى أن أول ما تنظر إليه اليوم، بخلاف ما كانت قد تقوله قبل ثلاث سنوات، هو برامج إدارة الثغرات والتحديثات الأمنية؛ لأن أدوات الذكاء الاصطناعي باتت تمنح المهاجمين سرعة ونطاقاً وقدرة على إحداث أثر واسع «بشكل لم نره من قبل».

وتنقل هذه النقطة النقاش من المفهوم العام للمرونة إلى مستوى أكثر دقة وواقعية. فساندرا جويس لا تتحدث عن الصمود بوصفه مجرد خطة استجابة أو قدرة على استعادة الأنظمة بعد الهجوم، بل بوصفه قدرة استباقية على سد الثغرات قبل أن تتحول إلى منفذ لهجمات أسرع وأكثر تعقيداً. ووفق شرحها، فإن المؤسسات في 2026 تحتاج إلى التفكير في أدوات ذكاء اصطناعي تمتلك «السرعة والحجم والقدرة المتقدمة»، ويمكن أن تتجه إلى أي ثغرة في الشبكة، حتى تلك التي قد تكون المؤسسة قد صنّفتها سابقاً على أنها ثانوية أو منخفضة الأولوية. والأسوأ من ذلك، كما أوضحت، أن هذه الأدوات لا تكتفي باستغلال ثغرة واحدة، بل يمكن أن تربط بين نقاط ضعف مختلفة لتكوين مسار اختراق جديد وأكثر فاعلية.

«رذاذ قبل العاصفة»

وعندما سُئلت ساندرا جويس عمّا إذا كانت ترى بالفعل تصاعداً واسعاً في الهجمات التي تستخدم قدرات الذكاء الاصطناعي الجديدة، لم تقل إن هذه الموجة بلغت ذروتها، لكنها وصفت ما نراه اليوم بأنه أشبه «برذاذ يسبق العاصفة». وقالت بوضوح إن الاعتقاد بأن هذا الوضع سيبقى هادئاً سيكون افتراضاً خاطئاً، لأن المؤشرات تتزايد، والقدرات تتطور، ونقطة التحول تقترب.

وهنا تكمن المفارقة الأهم في حديثها؛ حيث إن العالم لم يدخل بعد مرحلة انفجار شامل في هذا النوع من الهجمات، لكنه يقترب منها بما يكفي لكي يصبح التأجيل خطأ مكلفاً. ومن هذا المنطلق، بدا حديثها أقرب إلى دعوة للاستعداد المبكر منه إلى تحذير من واقع وقع بالكامل.

المرونة السيبرانية في 2026 لم تعد تعني حماية البيانات فقط بل حماية استمرارية الخدمات والعمليات والثقة العامة أيضاً (شاترستوك)

من الرصد إلى الفعل

وفي جزء آخر من الجلسة، شرحت ساندرا جويس أن فريقها لا يقتصر دوره على مراقبة التهديدات وبناء صورة عامة عنها، بل يضم أيضاً، منذ العام الماضي، وحدة تعطيل تقود عمليات تستند إلى الاستخبارات. ووفق شرحها، تراوحت هذه العمليات بين إسقاط شبكات وكلاء سكنية بالتعاون مع الفريق القانوني، وتعطيل شبكات تجسس. والمعنى هنا أن قيمة استخبارات التهديدات لم تعد تقف عند حدود الفهم والتحليل، بل باتت تشمل استخدام هذه المعرفة نفسها لتقليص قدرة الخصوم على العمل قبل أن يتحول الخطر إلى حادث واسع.

وفي الوقت نفسه، حرصت جويس على عدم المبالغة في تصوير المشهد، مشيرة إلى أن كثيراً من الاختراقات التي لا تزال الفرق تتعامل معها اليوم تعتمد على أساليب تقليدية معروفة. لكنها حذرت من أن ذلك لا ينبغي أن يبعث على الاطمئنان، لأن ما تراه فرقها هو تسارع الابتكار لدى جهات التهديد، بما يعني أن نقطة التحول تقترب. ووصفت هذا الوضع بأنه «فرصة للتحرك الآن»، لا سبباً لتأجيل الاستعداد.

وهذه ملاحظة مهمة، لأنها تعني أن التهديد لا يكمن فقط في ظهور أدوات جديدة، بل في كيفية تطوير الأساليب القائمة ورفع كفاءتها وتوسيع أثرها. لذلك، فإن الاعتماد على أن المهاجمين سيظلون يستخدمون الأدوات والأساليب نفسها سيكون رهاناً خاطئاً.

تقول «غوغل كلاود» إن هذا الهدوء النسبي لا يعني تراجع الخطر لأن جهات التهديد قد تكون تعمل بقدرات موزعة أو تنتظر ظروفاً مختلفة للتصعيد (رويترز)

اتساع رقعة الاستهداف

كشفت الجلسة أيضاً عن أثر آخر للذكاء الاصطناعي في المشهد الأمني، وهو اتساع نطاق الاستهداف جغرافياً. فعندما سُئلت ساندرا جويس عمّا إذا كانت الحواجز اللغوية التي كانت تحدّ سابقاً من استهداف بعض الأسواق قد تراجعت، أجابت بأن ذلك يحدث بالفعل، مشيرة إلى زيادة واضحة في استهداف أسواق غير ناطقة بالإنجليزية، وذكرت على وجه الخصوص ألمانيا التي شهدت ارتفاعاً ملحوظاً في الأشهر الأخيرة، ليس فقط على مستوى الشركات الكبرى، بل أيضاً في قلب ما يشكل العمود الفقري للاقتصاد الألماني. وتحمل هذه الإشارة دلالة أوسع؛ الذكاء الاصطناعي لا يوسّع فقط قدرة المهاجمين على تطوير الأدوات، بل يوسّع أيضاً نطاق الأسواق والقطاعات التي يمكن استهدافها بكفاءة أكبر.

حاولت ساندرا جويس، خلال الجلسة، ترسيخ فكرة أن المرونة لم تعد كلمة مطمئنة في عروض الشركات، بل أصبحت اختباراً يومياً يبدأ من إدارة الثغرات والتحديثات، ويمر عبر فهم التهديدات قبل انفجارها، وينتهي بقدرة المؤسسة على التمييز بين الضجيج والحقيقة، والتصرف بسرعة وثقة. وربما كانت الرسالة الأهم التي خرجت من الجلسة هي أنه في 2026، لا يكفي أن تقول المؤسسة إنها «مرنة»؛ عليها أن تثبت أنها قادرة على إغلاق الفجوات قبل أن تتحول، بسرعة الذكاء الاصطناعي نفسه، إلى نقطة انهيار.


زوكربيرغ يُقلّص آلاف الوظائف لتمويل استثمارات الذكاء الاصطناعي

مارك زوكربيرغ مالك شركة «ميتا» (رويترز)
مارك زوكربيرغ مالك شركة «ميتا» (رويترز)
TT

زوكربيرغ يُقلّص آلاف الوظائف لتمويل استثمارات الذكاء الاصطناعي

مارك زوكربيرغ مالك شركة «ميتا» (رويترز)
مارك زوكربيرغ مالك شركة «ميتا» (رويترز)

تتصاعد وتيرة التحولات داخل كبرى شركات التكنولوجيا العالمية مع احتدام المنافسة في مجال الذكاء الاصطناعي، ما يدفع هذه الشركات إلى إعادة هيكلة مواردها البشرية والمالية بشكل جذري. وتبرز شركة «ميتا» في مقدمة هذا التوجه، إذ تسعى إلى موازنة استثماراتها الضخمة في التقنيات المستقبلية عبر إجراءات تقشفية تشمل تقليص عدد الموظفين.

وتعمل «ميتا»، المملوكة لمارك زوكربيرغ، على خفض آلاف الوظائف بهدف «تعويض» التكاليف الباهظة لاستثماراتها في مجال الذكاء الاصطناعي، التي بلغت مليارات الدولارات، حسب ما أوردته صحيفة «التليغراف».

وكانت الشركة، المالكة لمنصات «فيسبوك» و«واتساب» و«إنستغرام»، قد أعلنت يوم الخميس عن خطط لخفض نحو 10 في المائة من قوتها العاملة، في خطوة تهدف إلى تمويل توسعها الكبير في تقنيات الذكاء الاصطناعي.

ومن المتوقع أن تؤدي هذه الخطوة إلى تسريح نحو 8 آلاف موظف خلال الشهر المقبل، إضافة إلى إلغاء خطط سابقة لتوظيف ما يقارب 6 آلاف موظف جديد.

وفي مذكرة داخلية وُزّعت على موظفي الشركة واطلعت عليها وكالة «بلومبيرغ»، أوضح مسؤولون تنفيذيون أن هذه الإجراءات تأتي «في إطار الجهود المستمرة لإدارة الشركة بكفاءة أعلى، وتعويض تكاليف الاستثمارات الأخرى التي نقوم بها».

وفي الوقت ذاته، حذّرت «ميتا» مستثمريها من أن إنفاقها قد يصل إلى 169 مليار دولار (125 مليار جنيه استرليني) خلال العام الجاري، في إطار سعيها للحاق بمنافسيها، مثل «أوبن إيه آي» و«غوغل»، ضمن سباق محتدم في مجال الذكاء الاصطناعي داخل وادي السيليكون.

وتنفق الشركة مبالغ ضخمة على تطوير مراكز البيانات وتعزيز البنية التحتية اللازمة لتقنيات الذكاء الاصطناعي، كما عرض زوكربيرغ حوافز مالية كبيرة لاستقطاب الكفاءات، شملت مكافآت توقيع تصل إلى 100 مليون دولار، إلى جانب عقود متعددة السنوات قد تبلغ قيمتها نحو مليار دولار.

وتأتي هذه الخطط بعد سلسلة من عمليات التسريح الجزئية التي نفذتها «ميتا» خلال الأشهر الماضية، شملت قطاعات مختلفة، من بينها قسم مختبرات الواقع الافتراضي، حيث تم الاستغناء عن نحو 10 في المائة من الموظفين، أي ما يعادل نحو 700 عامل. ويُنظر إلى هذه الخطوات على أنها انعكاس لتراجع الرهان السابق لزوكربيرغ على «الميتافيرس» بوصفه مستقبل الشركة.

ويرى محللون أن موجة التسريحات قد لا تتوقف عند هذا الحد، إذ قد تلجأ «ميتا» إلى تقليص المزيد من الوظائف لاحقاً خلال العام، في ظل التوسع في استخدام أدوات الذكاء الاصطناعي لأتمتة العديد من المهام التي يؤديها الموظفون حالياً.


أميركا تتهم الصين بسرقة تكنولوجيا ذكاء اصطناعي

الرئيسان الأميركي دونالد ترمب والصيني شي جينبينغ (رويترز)
الرئيسان الأميركي دونالد ترمب والصيني شي جينبينغ (رويترز)
TT

أميركا تتهم الصين بسرقة تكنولوجيا ذكاء اصطناعي

الرئيسان الأميركي دونالد ترمب والصيني شي جينبينغ (رويترز)
الرئيسان الأميركي دونالد ترمب والصيني شي جينبينغ (رويترز)

اتهم البيت الأبيض الصين، اليوم الخميس، بالضلوع في سرقة الملكية الفكرية لمختبرات ذكاء اصطناعي أميركية على نطاق صناعي، وذلك في مذكرة تهدد بتوتر العلاقات قبل قمة مرتقبة بين الزعيمين الأميركي والصيني الشهر المقبل.

وكتب مايكل كراتسيوس، مدير مكتب سياسات العلوم والتكنولوجيا بالبيت الأبيض، في مذكرة جرى تداولها على وسائل التواصل الاجتماعي، وكان لصحيفة «فاينانشال تايمز» ‌السبق في ‌نشرها: «لدى الحكومة الأميركية معلومات تشير إلى ‌أن جهات أجنبية، تتمركز أساساً في الصين، منخرطة في حملات متعمدة وعلى نطاق صناعي لاستخلاص قدرات أنظمة الذكاء الاصطناعي الأميركية المتقدمة».

وأضاف: «من خلال الاستفادة من عشرات الآلاف من الحسابات الوكيلة لتفادي الرصد، واستخدام تقنيات كسر الحماية لكشف معلومات مملوكة، تقوم هذه الحملات المنسقة باستخراج القدرات بشكل منهجي من نماذج الذكاء الاصطناعي ‌الأميركية، مستغلة الخبرة ‌والابتكار الأميركيين».

وقالت السفارة الصينية في واشنطن، وفقاً لوكالة «رويترز»، إنها تعارض «الادعاءات ‌التي لا أساس لها»، مضيفة أن بكين «تولي أهمية ‌كبيرة لحماية حقوق الملكية الفكرية».

والمذكرة، التي صدرت قبل أسابيع فقط من الزيارة المرتقبة للرئيس الأميركي دونالد ترمب إلى الرئيس الصيني شي جينبينغ في بكين، تنذر ‌بزيادة التوتر في حرب تكنولوجية ممتدة بين القوتين العظميين المتنافستين، التي هدأت حدتها بفعل انفراجة تحققت أكتوبر (تشرين الأول) الماضي.

وتثير المذكرة تساؤلات أيضاً بشأن ما إذا كانت واشنطن ستسمح بشحن رقائق الذكاء الاصطناعي المتقدمة التابعة لشركة «إنفيديا» إلى الصين. وأعطت إدارة ترمب الضوء الأخضر لهذه المبيعات في يناير (كانون الثاني)، مع فرض شروط. لكن وزير التجارة الأميركي هوارد لوتنيك أشار، أمس الأربعاء، إلى أنه لم تجرِ أي شحنات حتى الآن.

وتقول المذكرة، الموجهة إلى الوكالات الحكومية، إن الإدارة «ستبحث مجموعة من الإجراءات لمساءلة الجهات الأجنبية» التي تقف وراء هذه الحملات.