تعرف على العلامات الخفية للفيديوهات المصنوعة بالذكاء الاصطناعي

تزايد خطر العروض المرئية الاصطناعية وتآكل الثقة الرقمية

وجه حقيقي إلى اليسار ومزيف إلى اليمين يشابه إيلون ماسك بعد التزييف
وجه حقيقي إلى اليسار ومزيف إلى اليمين يشابه إيلون ماسك بعد التزييف
TT

تعرف على العلامات الخفية للفيديوهات المصنوعة بالذكاء الاصطناعي

وجه حقيقي إلى اليسار ومزيف إلى اليمين يشابه إيلون ماسك بعد التزييف
وجه حقيقي إلى اليسار ومزيف إلى اليمين يشابه إيلون ماسك بعد التزييف

يشهد الفضاء الرقمي تحولاً جذرياً بفعل التقدم في نماذج الذكاء الاصطناعي التوليدي، لا سيما تقنية التزييف العميق «Deepfake»، وتُعد هذه التقنية التي تستخدم خوارزميات الذكاء الاصطناعي لتركيب الوجوه وتغيير التعبيرات والكلام والإيماءات في عروض الفيديو سلاحاً إلكترونياً متنامياً، مما يشكل تحدياً مباشراً لقدرة المستخدم على التمييز بين الواقع والمحتوى الاصطناعي.

ونذكر في هذا الموضوع نصائح وأدوات للمساعدة في التعرف على ما إذا كان فيديو ما مصنوعاً بتقنيات الذكاء الاصطناعي أم لا.

ويُنذر التطور السريع لتقنيات التزييف العميق وإمكانية الوصول إليها بمخاطر جسيمة، بما في ذلك الانتشار الواسع للمعلومات المضللة وسرقة الهوية والاستغلال. ولا يتضخم الخطر فقط بسبب الجودة المتزايدة للفيديو النهائي، ولكن بسبب سهولة استغلالها. وتستطيع أدوات اليوم توظيف أقل من 3 ثوانٍ من صوت شخص إلى إنشاء نسخة صوتية مزيفة تُستخدم في عمليات الاحتيال. وعليه، يجب أن يبدأ الكشف عنها بتدريب العين البشرية على اكتشاف صفات عروض الفيديو المولدة صناعياً قبل الاستعانة بالأدوات التقنية المتخصصة.

وجه حقيقي إلى اليسار ومزيف إلى اليمين يشابه الممثل توم كروز بعد التزييف

الكشف البشري عن التزييف العميق

أول خطوة في التعرف المباشر على الفيديوهات المزيفة هي معرفة أن عروض الفيديو المولدة بواسطة الذكاء الاصطناعي الحديث نادراً ما تبدو سيئة الصنع، بل غالباً ما تكون مثالية بشكل غير طبيعي.

• عدم التناسق. لذلك، لا يجب البحث عن الأخطاء الفادحة، بل عن التفاصيل الدقيقة والمستويات المتعارضة من التناسق التي يُخفق الذكاء الاصطناعي في دمجها بشكل متكامل. ويجب أن ينصب التركيز الأولي على منطقة العينين، حيث غالباً ما تظهر زجاجية أو آلية أو تشوبها ومضات غير طبيعية.

• عدم التزامن السمعي البصري. مع ذلك، تبقى العلامة الأكثر شيوعاً للكشف هي عدم التزامن السمعي البصري بين حركات الشفاه والصوت.

• ملامح بيولوجية. على الرغم من التقدم الكبير، لا تزال الخوارزميات تجد صعوبة في محاكاة التباين الطبيعي للملامح، وينبغي فحص جلد الشخص: هل يبدو ناعماً بشكل مفرط ويفتقر إلى الملمس المسامي الطبيعي؟ كما يُخفق الذكاء الاصطناعي غالباً في محاكاة التفاصيل الصغيرة والدائمة، مثل الشامات على الخد أو التجاعيد الدقيقة.

وهناك نقطة ضعف حيوية أخرى تكمن في غياب الوظائف البيولوجية المستمرة. يجب على المشاهد أن يلاحظ ما إذا كان هناك غياب واضح لحركة التنفس المنتظم في الصدر، مثلاً، أو رمش العينين بمعدل طبيعي.

• تحليل الحركة. تظل الأيدي والأصابع نقطة الفشل الكلاسيكية في الفيديوهات المصنوعة. ويجب فحص عدد الأصابع بدقة، فقد تظهر الأصابع مشوهة أو بأعداد غير صحيحة. بالإضافة إلى ذلك، يجب الانتباه إلى كيفية تحرك اليدين والمفاصل والأطراف: هل تبدو الحركة عائمة أو طافية أو مشوهة في شكلها؟ كما يجب تحليل الحركة العامة للشخص الذي يظهر في الفيديو. هل تظهر حركات الشخص موجية أو مهتزة وغير طبيعية أو هل يوجد تذبذب واهتزاز في الوجه أو تكتل وتشوه؟ بالإضافة إلى ذلك، يجب الأخذ بعين الاعتبار سلوك الشخص: هل يقوم بشيء غير معقول أو يتعارض مع سياق الموقف أو شخصيته المعروفة؟

• الصوت والإيقاع. عند تحليل المكون الصوتي يجب الانتباه إلى الإيقاع؛ هل يوجد نمط غير طبيعي في الكلام يفتقر إلى الترددات البشرية الطبيعية، مثل التوقفات العادية أو توقفات التنفس التي تميز الخطاب البشري؟ يجب التحقق مما إذا كان النطق مثالياً جداً لدرجة تفتقر إلى النبرة أو العمق العاطفي الطبيعي أو العمر المناسب للشخص الظاهر. كما يجب الانتباه لغياب ضوضاء البيئة في الخلفية التي ينبغي أن تكون موجودة بشكل طبيعي.

• الإضاءة والظلال. وغالباً ما يفشل الذكاء الاصطناعي في دمج العنصر المزيف مع الخلفية المحيطة، مما يخلق ما يُسمّى «التماس البصري». هل تبدو الأشياء في الخلفية ذائبة أو متكررة أو متشابهة بشكل غريب؟ الأهم من ذلك، يجب التحقق مما إذا كانت الإضاءة والظلال متطابقة مع مصدر الضوء المفترض في المشهد، فالتناقضات في الإضاءة والانعكاسات والظلال تُعدّ من الدلائل البصرية الأكثر إفشاء للتلاعب.

تساعد أدوات متخصصة في التعرف الفيديو المزيف

أدوات الذكاء الاصطناعي المضاد

وفي ظل التطور المتسارع لتقنيات التوليد، لم تعد الملاحظة البشرية كافية بمفردها لتوفير قرار قاطع، وأصبحت الحاجة ملحة إلى استخدام أدوات تقنية متقدمة تستخدم الذكاء الاصطناعي المضاد للكشف عن البصمة الخوارزمية المخفية التي لا يمكن للعين المجردة رؤيتها. وتُمثل هذه الأدوات الخطوة شبه الحاسمة، حيث تعمل بوصفها مستشعرات متخصصة قادرة على تحليل بيانات الصوت والصورة بسرعة فائقة لتقديم تقييم موضوعي للمصداقية.

جدير بالذكر أنه لا يمكن لأداة واحدة أن تكشف جميع أشكال التزييف بكفاءة عالية، مما يستدعي استخدام مجموعة من الأدوات المتخصصة. ويتمثل التحدي الأكبر في أن جميع طرق الكشف الآلي لديها معدلات فشل، وهذا يتطلب من المطورين والباحثين توقع طرق جديدة لإنشاء الوسائط الاصطناعية بشكل مستمر. ويجب إدراك أن سباق التسلح مستمر، وأن أدوات الكشف الحالية يجب التعامل مع نتائجها بحذر بصفتها مؤشرات وليست أحكاماً نهائية.

ونذكر فيما يلي أبرز الأدوات التقنية المتاحة، للمساعدة في كشف عروض الفيديو المصنوعة بتقنيات الذكاء الاصطناعي:

• كاشف التلاعب الصوتي: تُمثل أداة «ديب فيك ديتيكتر» McAfee Deepfake Detector من «مكافي» دفاعاً متخصصاً ضد الاحتيال الذي يعتمد على استنساخ الصوت عبر الذكاء الاصطناعي، فقد أصبح من السهل جداً على مجرمي الإنترنت استغلال الأصوات المقلدة. وتستخدم هذه الأداة نماذج الشبكات العصبية العميقة التي يتم تدريبها بخبرة للكشف عن الصوت الذي تم توليده أو التلاعب به بواسطة الذكاء الاصطناعي. ويمكن لهذه الأداة إرسال تنبيهات في غضون ثوانٍ مباشرة في متصفح المستخدم، مما يساعد على التمييز السريع بين الحقيقي والمزيف.

• تقنية كاشف البصمة البيولوجية: تُعد تقنية «فيك كاتشر» Intel FakeCatcher من «إنتل» الأولى عالمياً في توفير منصة كشف عن التزييف العميق في الوقت الفوري، وتتمتع بدقة عالية تصل إلى 96 في المائة. وتعتمد آلية عمل هذه الأداة على مبدأ مبتكر يُعرف باسم «البصمة البشرية». فبدلاً من البحث عن عيوب في الصورة المولّدة، تركز الأداة على تحليل وحدات الـ«بكسل» في الفيديو، للكشف عن علامات تدفق الدم الناتجة عن عمل القلب. وبما أن نماذج الذكاء الاصطناعي لا يمكنها محاكاة هذه الوظيفة الفسيولوجية الحية، فإن غياب تلك الإشارات البيولوجية يُعدّ دليلاً قاطعاً على التلاعب.

• الماسح العميق العام: توفر منصة «ديبووير سكانر» Deepware Scanner أداة مصممة لمسح واكتشاف عروض الفيديو والصوتيات المُتلاعب بها اصطناعياً. وتستخدم الأداة تقنية كشف عامة تستهدف التلاعب البصري والسمعي في الوسائط، وهي حل عملي لإجراء فحص سريع ومباشر عبر الإنترنت.

• منصة الأبحاث المفتوحة: تُمثل «ديب فيك أو ميتير» DeepFake o meter منصة تعمل على دمج أحدث طرق البحث مفتوحة المصدر للكشف عن الوسائط الاصطناعية، بما في ذلك الصور وعروض الفيديو والصوتيات. وتم تطوير هذه المنصة بدعم من جامعات ومؤسسات بحثية، وتهدف إلى توفير أداة مجانية للجمهور لتجربة وفهم التطورات الحديثة في اكتشاف الوسائط الاصطناعية. وتستخدم المنصة نماذج بحثية أولية، مثل LipFD لكشف التلاعب بحركة الشفاه في الفيديو، وRawNet2-Vocoder-v3 لكشف الصوت المزيف.


مقالات ذات صلة

«غوغل كلاود» لـ«الشرق الأوسط»: هدوء سيبراني «حذر» رغم التوترات الإقليمية

خاص التوترات التي شهدها الشرق الأوسط خلال الشهرين الماضيين لم تؤدِّ إلى تصعيد سيبراني واسع وفوري بالقدر الذي كان متوقعاً (شاترستوك)

«غوغل كلاود» لـ«الشرق الأوسط»: هدوء سيبراني «حذر» رغم التوترات الإقليمية

تقول «غوغل كلاود» إن هدوء الهجمات لا يلغي الخطر، وإن المرونة السيبرانية تبدأ من الثغرات والاستعداد المبكر قبل التصعيد.

نسيم رمضان (لاس فيغاس)
خاص تقدم «غوغل كلاود» الذكاء الاصطناعي بوصفه نموذجاً تشغيلياً متكاملاً للمؤسسات لا مجرد مجموعة أدوات منفصلة (غوغل)

خاص من لاس فيغاس... «غوغل كلاود نيكست 2026» يرسم المرحلة التالية للذكاء الاصطناعي المؤسسي

تقدم «غوغل كلاود» في «نيكست 2026» الذكاء الاصطناعي كاختبار لجاهزية المؤسسات في البنية والبيانات والحوكمة والأمن والتشغيل.

نسيم رمضان (لاس فيغاس)
الاقتصاد جانب من ملتقى «حكومة الرقمية 2025» (الهيئة)

الحكومة السعودية تواصل تقدمها في استخدام التقنيات الناشئة لتتجاوز 76 %

أعلنت هيئة الحكومة الرقمية السعودية تقرير «مؤشر جاهزية تبنّي التقنيات الناشئة»، الذي يؤكد التطور المتسارع في جاهزية الجهات الحكومية لتبنّي التقنيات الناشئة.

«الشرق الأوسط» (الرياض)
تكنولوجيا يرى معظم الطلاب أن التقنيات المتطورة والذكاء الاصطناعي يقدمان دعماً حقيقياً للإبداع وتدوين الملاحظات والتلخيص وتوليد الأفكار (شاترستوك)

دراسة من «لينوفو»: 98 % من طلاب الجيل زد يستخدمون الذكاء الاصطناعي مسانداً يومياً

دراسة «لينوفو» تكشف اعتماد طلاب الجيل زد على الأجهزة اللوحية، والذكاء الاصطناعي للدراسة، والإبداع، والتنظيم اليومي مع أولوية للأمان، والاستدامة.

نسيم رمضان (لاس فيغاس)
عالم الاعمال استطلاع لـ«كلاوديرا»: ثقة مرتفعة بالبيانات في السعودية رغم تحديات الحوكمة

استطلاع لـ«كلاوديرا»: ثقة مرتفعة بالبيانات في السعودية رغم تحديات الحوكمة

أظهر استطلاع حديث أجرته شركة «Cloudera» أن المؤسسات في السعودية تبدي مستويات مرتفعة من الثقة ببياناتها.

«الشرق الأوسط» (الرياض)

«غوغل كلاود» لـ«الشرق الأوسط»: هدوء سيبراني «حذر» رغم التوترات الإقليمية

التوترات التي شهدها الشرق الأوسط خلال الشهرين الماضيين لم تؤدِّ إلى تصعيد سيبراني واسع وفوري بالقدر الذي كان متوقعاً (شاترستوك)
التوترات التي شهدها الشرق الأوسط خلال الشهرين الماضيين لم تؤدِّ إلى تصعيد سيبراني واسع وفوري بالقدر الذي كان متوقعاً (شاترستوك)
TT

«غوغل كلاود» لـ«الشرق الأوسط»: هدوء سيبراني «حذر» رغم التوترات الإقليمية

التوترات التي شهدها الشرق الأوسط خلال الشهرين الماضيين لم تؤدِّ إلى تصعيد سيبراني واسع وفوري بالقدر الذي كان متوقعاً (شاترستوك)
التوترات التي شهدها الشرق الأوسط خلال الشهرين الماضيين لم تؤدِّ إلى تصعيد سيبراني واسع وفوري بالقدر الذي كان متوقعاً (شاترستوك)

في «غوغل كلاود نكست 2026» في لاس فيغاس، لم يكن حديث ساندرا جويس، نائبة رئيس «غوغل ثريت إنتلجنس» (Google Threat Intelligence)، مجرد إضافة تقنية ضمن زخم الذكاء الاصطناعي الذي طغى على المؤتمر، بل قدّم قراءة أكثر هدوءاً وانضباطاً لمشهد التهديدات السيبرانية في لحظة إقليمية ودولية حساسة.

وخلال الجلسة، سألت «الشرق الأوسط» عمّا إذا كانت التوترات التي شهدها الشرق الأوسط خلال الشهرين الماضيين قد انعكست على نمط الهجمات السيبرانية، وما إذا كانت «غوغل كلاود» قد رصدت تحولاً موازياً في مستوى النشاط أو طبيعته. غير أن رد ساندرا جويس جاء على خلاف ما قد يتوقعه كثيرون قائلة إن فريقها «لم يرَ في الواقع ارتفاعاً كبيراً في النشاط السيبراني» خلال تلك الفترة، مضيفة أن ما جرى، باستثناء بعض الوقائع التي ظهرت علناً، لم يصل إلى مستوى تصعيد واسع، بل إنهم «شهدوا هدوءاً، ثم عادت المستويات تقريباً إلى ما كانت عليه سابقاً»، بخلاف ما حدث مع بداية التوترات بين روسيا وأوكرانيا.

وتكتسب هذه الملاحظة أهميتها من أنها تبتعد عن المبالغة، وتقدم صورة أكثر توازناً؛ فالتوترات الجيوسياسية لا تنعكس بالضرورة، وبصورة فورية، في موجة سيبرانية واسعة ومرئية. لكن ذلك، في حديث ساندرا جويس، لا يعني أن الخطر تراجع أو أن البيئة أصبحت أكثر أماناً.

ساندرا جويس نائبة رئيس «غوغل ثريت إنتلجنس» (Google Threat Intellegence) (غوغل)

استعداد قبل الانفجار

وعندما سُئلت عن تفسير هذا الهدوء النسبي، لم تربطه ساندرا جويس بضعف في قدرات الجهات المهاجمة أو بانحسار التهديد، بل أشارت إلى احتمالات أكثر تعقيداً؛ إذ ربما تكون هذه القدرات موزعة بشكل لامركزي، بحيث لا يؤدي استهداف موقع معين إلى تعطيلها، وربما لم يصدر القرار باستخدامها على نطاق أوسع، وربما كانت هناك اعتبارات ردع قائمة.

وفي المقابل، شرحت كيف تتعامل «غوغل كلاود» مع مثل هذه اللحظات عبر ما وصفته بآلية التعامل مع «الأحداث الكبرى»، حيث يجري العمل السريع بهدف التحرك قبل اتساع الأثر، من خلال توفير مؤشرات مبكرة عمّا قد يحدث، ثم التمييز بعد ذلك بين الضجيج والحقيقة، وبين التصورات والوقائع، حتى تتمكن المؤسسات من اتخاذ قرارات عملية تستند إلى سياق واضح. وبذلك، لا يعود دور استخبارات التهديدات مقتصراً على الإبلاغ عمّا حدث، بل يمتد إلى مساعدة المؤسسات على معرفة ما ينبغي فعله بعد ذلك.

«غوغل كلاود»: أول اختبار حقيقي لمرونة المؤسسات اليوم يبدأ من إدارة الثغرات والتحديثات الأمنية لا من الشعارات العامة حول الصمود (شاترستوك)

اختبار المرونة الحقيقي

وفي محور آخر، انتقل النقاش مع «الشرق الأوسط» إلى معنى «المرونة» أو «الصمود» داخل المؤسسات، ليس فقط من زاوية حماية المعلومات، بل أيضاً من زاوية الحفاظ على استمرارية الخدمات والعمليات والثقة العامة. وجاء جواب جويس مباشراً، مشيرة إلى أن أول ما تنظر إليه اليوم، بخلاف ما كانت قد تقوله قبل ثلاث سنوات، هو برامج إدارة الثغرات والتحديثات الأمنية؛ لأن أدوات الذكاء الاصطناعي باتت تمنح المهاجمين سرعة ونطاقاً وقدرة على إحداث أثر واسع «بشكل لم نره من قبل».

وتنقل هذه النقطة النقاش من المفهوم العام للمرونة إلى مستوى أكثر دقة وواقعية. فساندرا جويس لا تتحدث عن الصمود بوصفه مجرد خطة استجابة أو قدرة على استعادة الأنظمة بعد الهجوم، بل بوصفه قدرة استباقية على سد الثغرات قبل أن تتحول إلى منفذ لهجمات أسرع وأكثر تعقيداً. ووفق شرحها، فإن المؤسسات في 2026 تحتاج إلى التفكير في أدوات ذكاء اصطناعي تمتلك «السرعة والحجم والقدرة المتقدمة»، ويمكن أن تتجه إلى أي ثغرة في الشبكة، حتى تلك التي قد تكون المؤسسة قد صنّفتها سابقاً على أنها ثانوية أو منخفضة الأولوية. والأسوأ من ذلك، كما أوضحت، أن هذه الأدوات لا تكتفي باستغلال ثغرة واحدة، بل يمكن أن تربط بين نقاط ضعف مختلفة لتكوين مسار اختراق جديد وأكثر فاعلية.

«رذاذ قبل العاصفة»

وعندما سُئلت ساندرا جويس عمّا إذا كانت ترى بالفعل تصاعداً واسعاً في الهجمات التي تستخدم قدرات الذكاء الاصطناعي الجديدة، لم تقل إن هذه الموجة بلغت ذروتها، لكنها وصفت ما نراه اليوم بأنه أشبه «برذاذ يسبق العاصفة». وقالت بوضوح إن الاعتقاد بأن هذا الوضع سيبقى هادئاً سيكون افتراضاً خاطئاً، لأن المؤشرات تتزايد، والقدرات تتطور، ونقطة التحول تقترب.

وهنا تكمن المفارقة الأهم في حديثها؛ حيث إن العالم لم يدخل بعد مرحلة انفجار شامل في هذا النوع من الهجمات، لكنه يقترب منها بما يكفي لكي يصبح التأجيل خطأ مكلفاً. ومن هذا المنطلق، بدا حديثها أقرب إلى دعوة للاستعداد المبكر منه إلى تحذير من واقع وقع بالكامل.

المرونة السيبرانية في 2026 لم تعد تعني حماية البيانات فقط بل حماية استمرارية الخدمات والعمليات والثقة العامة أيضاً (شاترستوك)

من الرصد إلى الفعل

وفي جزء آخر من الجلسة، شرحت ساندرا جويس أن فريقها لا يقتصر دوره على مراقبة التهديدات وبناء صورة عامة عنها، بل يضم أيضاً، منذ العام الماضي، وحدة تعطيل تقود عمليات تستند إلى الاستخبارات. ووفق شرحها، تراوحت هذه العمليات بين إسقاط شبكات وكلاء سكنية بالتعاون مع الفريق القانوني، وتعطيل شبكات تجسس. والمعنى هنا أن قيمة استخبارات التهديدات لم تعد تقف عند حدود الفهم والتحليل، بل باتت تشمل استخدام هذه المعرفة نفسها لتقليص قدرة الخصوم على العمل قبل أن يتحول الخطر إلى حادث واسع.

وفي الوقت نفسه، حرصت جويس على عدم المبالغة في تصوير المشهد، مشيرة إلى أن كثيراً من الاختراقات التي لا تزال الفرق تتعامل معها اليوم تعتمد على أساليب تقليدية معروفة. لكنها حذرت من أن ذلك لا ينبغي أن يبعث على الاطمئنان، لأن ما تراه فرقها هو تسارع الابتكار لدى جهات التهديد، بما يعني أن نقطة التحول تقترب. ووصفت هذا الوضع بأنه «فرصة للتحرك الآن»، لا سبباً لتأجيل الاستعداد.

وهذه ملاحظة مهمة، لأنها تعني أن التهديد لا يكمن فقط في ظهور أدوات جديدة، بل في كيفية تطوير الأساليب القائمة ورفع كفاءتها وتوسيع أثرها. لذلك، فإن الاعتماد على أن المهاجمين سيظلون يستخدمون الأدوات والأساليب نفسها سيكون رهاناً خاطئاً.

تقول «غوغل كلاود» إن هذا الهدوء النسبي لا يعني تراجع الخطر لأن جهات التهديد قد تكون تعمل بقدرات موزعة أو تنتظر ظروفاً مختلفة للتصعيد (رويترز)

اتساع رقعة الاستهداف

كشفت الجلسة أيضاً عن أثر آخر للذكاء الاصطناعي في المشهد الأمني، وهو اتساع نطاق الاستهداف جغرافياً. فعندما سُئلت ساندرا جويس عمّا إذا كانت الحواجز اللغوية التي كانت تحدّ سابقاً من استهداف بعض الأسواق قد تراجعت، أجابت بأن ذلك يحدث بالفعل، مشيرة إلى زيادة واضحة في استهداف أسواق غير ناطقة بالإنجليزية، وذكرت على وجه الخصوص ألمانيا التي شهدت ارتفاعاً ملحوظاً في الأشهر الأخيرة، ليس فقط على مستوى الشركات الكبرى، بل أيضاً في قلب ما يشكل العمود الفقري للاقتصاد الألماني. وتحمل هذه الإشارة دلالة أوسع؛ الذكاء الاصطناعي لا يوسّع فقط قدرة المهاجمين على تطوير الأدوات، بل يوسّع أيضاً نطاق الأسواق والقطاعات التي يمكن استهدافها بكفاءة أكبر.

حاولت ساندرا جويس، خلال الجلسة، ترسيخ فكرة أن المرونة لم تعد كلمة مطمئنة في عروض الشركات، بل أصبحت اختباراً يومياً يبدأ من إدارة الثغرات والتحديثات، ويمر عبر فهم التهديدات قبل انفجارها، وينتهي بقدرة المؤسسة على التمييز بين الضجيج والحقيقة، والتصرف بسرعة وثقة. وربما كانت الرسالة الأهم التي خرجت من الجلسة هي أنه في 2026، لا يكفي أن تقول المؤسسة إنها «مرنة»؛ عليها أن تثبت أنها قادرة على إغلاق الفجوات قبل أن تتحول، بسرعة الذكاء الاصطناعي نفسه، إلى نقطة انهيار.


زوكربيرغ يُقلّص آلاف الوظائف لتمويل استثمارات الذكاء الاصطناعي

مارك زوكربيرغ مالك شركة «ميتا» (رويترز)
مارك زوكربيرغ مالك شركة «ميتا» (رويترز)
TT

زوكربيرغ يُقلّص آلاف الوظائف لتمويل استثمارات الذكاء الاصطناعي

مارك زوكربيرغ مالك شركة «ميتا» (رويترز)
مارك زوكربيرغ مالك شركة «ميتا» (رويترز)

تتصاعد وتيرة التحولات داخل كبرى شركات التكنولوجيا العالمية مع احتدام المنافسة في مجال الذكاء الاصطناعي، ما يدفع هذه الشركات إلى إعادة هيكلة مواردها البشرية والمالية بشكل جذري. وتبرز شركة «ميتا» في مقدمة هذا التوجه، إذ تسعى إلى موازنة استثماراتها الضخمة في التقنيات المستقبلية عبر إجراءات تقشفية تشمل تقليص عدد الموظفين.

وتعمل «ميتا»، المملوكة لمارك زوكربيرغ، على خفض آلاف الوظائف بهدف «تعويض» التكاليف الباهظة لاستثماراتها في مجال الذكاء الاصطناعي، التي بلغت مليارات الدولارات، حسب ما أوردته صحيفة «التليغراف».

وكانت الشركة، المالكة لمنصات «فيسبوك» و«واتساب» و«إنستغرام»، قد أعلنت يوم الخميس عن خطط لخفض نحو 10 في المائة من قوتها العاملة، في خطوة تهدف إلى تمويل توسعها الكبير في تقنيات الذكاء الاصطناعي.

ومن المتوقع أن تؤدي هذه الخطوة إلى تسريح نحو 8 آلاف موظف خلال الشهر المقبل، إضافة إلى إلغاء خطط سابقة لتوظيف ما يقارب 6 آلاف موظف جديد.

وفي مذكرة داخلية وُزّعت على موظفي الشركة واطلعت عليها وكالة «بلومبيرغ»، أوضح مسؤولون تنفيذيون أن هذه الإجراءات تأتي «في إطار الجهود المستمرة لإدارة الشركة بكفاءة أعلى، وتعويض تكاليف الاستثمارات الأخرى التي نقوم بها».

وفي الوقت ذاته، حذّرت «ميتا» مستثمريها من أن إنفاقها قد يصل إلى 169 مليار دولار (125 مليار جنيه استرليني) خلال العام الجاري، في إطار سعيها للحاق بمنافسيها، مثل «أوبن إيه آي» و«غوغل»، ضمن سباق محتدم في مجال الذكاء الاصطناعي داخل وادي السيليكون.

وتنفق الشركة مبالغ ضخمة على تطوير مراكز البيانات وتعزيز البنية التحتية اللازمة لتقنيات الذكاء الاصطناعي، كما عرض زوكربيرغ حوافز مالية كبيرة لاستقطاب الكفاءات، شملت مكافآت توقيع تصل إلى 100 مليون دولار، إلى جانب عقود متعددة السنوات قد تبلغ قيمتها نحو مليار دولار.

وتأتي هذه الخطط بعد سلسلة من عمليات التسريح الجزئية التي نفذتها «ميتا» خلال الأشهر الماضية، شملت قطاعات مختلفة، من بينها قسم مختبرات الواقع الافتراضي، حيث تم الاستغناء عن نحو 10 في المائة من الموظفين، أي ما يعادل نحو 700 عامل. ويُنظر إلى هذه الخطوات على أنها انعكاس لتراجع الرهان السابق لزوكربيرغ على «الميتافيرس» بوصفه مستقبل الشركة.

ويرى محللون أن موجة التسريحات قد لا تتوقف عند هذا الحد، إذ قد تلجأ «ميتا» إلى تقليص المزيد من الوظائف لاحقاً خلال العام، في ظل التوسع في استخدام أدوات الذكاء الاصطناعي لأتمتة العديد من المهام التي يؤديها الموظفون حالياً.


أميركا تتهم الصين بسرقة تكنولوجيا ذكاء اصطناعي

الرئيسان الأميركي دونالد ترمب والصيني شي جينبينغ (رويترز)
الرئيسان الأميركي دونالد ترمب والصيني شي جينبينغ (رويترز)
TT

أميركا تتهم الصين بسرقة تكنولوجيا ذكاء اصطناعي

الرئيسان الأميركي دونالد ترمب والصيني شي جينبينغ (رويترز)
الرئيسان الأميركي دونالد ترمب والصيني شي جينبينغ (رويترز)

اتهم البيت الأبيض الصين، اليوم الخميس، بالضلوع في سرقة الملكية الفكرية لمختبرات ذكاء اصطناعي أميركية على نطاق صناعي، وذلك في مذكرة تهدد بتوتر العلاقات قبل قمة مرتقبة بين الزعيمين الأميركي والصيني الشهر المقبل.

وكتب مايكل كراتسيوس، مدير مكتب سياسات العلوم والتكنولوجيا بالبيت الأبيض، في مذكرة جرى تداولها على وسائل التواصل الاجتماعي، وكان لصحيفة «فاينانشال تايمز» ‌السبق في ‌نشرها: «لدى الحكومة الأميركية معلومات تشير إلى ‌أن جهات أجنبية، تتمركز أساساً في الصين، منخرطة في حملات متعمدة وعلى نطاق صناعي لاستخلاص قدرات أنظمة الذكاء الاصطناعي الأميركية المتقدمة».

وأضاف: «من خلال الاستفادة من عشرات الآلاف من الحسابات الوكيلة لتفادي الرصد، واستخدام تقنيات كسر الحماية لكشف معلومات مملوكة، تقوم هذه الحملات المنسقة باستخراج القدرات بشكل منهجي من نماذج الذكاء الاصطناعي ‌الأميركية، مستغلة الخبرة ‌والابتكار الأميركيين».

وقالت السفارة الصينية في واشنطن، وفقاً لوكالة «رويترز»، إنها تعارض «الادعاءات ‌التي لا أساس لها»، مضيفة أن بكين «تولي أهمية ‌كبيرة لحماية حقوق الملكية الفكرية».

والمذكرة، التي صدرت قبل أسابيع فقط من الزيارة المرتقبة للرئيس الأميركي دونالد ترمب إلى الرئيس الصيني شي جينبينغ في بكين، تنذر ‌بزيادة التوتر في حرب تكنولوجية ممتدة بين القوتين العظميين المتنافستين، التي هدأت حدتها بفعل انفراجة تحققت أكتوبر (تشرين الأول) الماضي.

وتثير المذكرة تساؤلات أيضاً بشأن ما إذا كانت واشنطن ستسمح بشحن رقائق الذكاء الاصطناعي المتقدمة التابعة لشركة «إنفيديا» إلى الصين. وأعطت إدارة ترمب الضوء الأخضر لهذه المبيعات في يناير (كانون الثاني)، مع فرض شروط. لكن وزير التجارة الأميركي هوارد لوتنيك أشار، أمس الأربعاء، إلى أنه لم تجرِ أي شحنات حتى الآن.

وتقول المذكرة، الموجهة إلى الوكالات الحكومية، إن الإدارة «ستبحث مجموعة من الإجراءات لمساءلة الجهات الأجنبية» التي تقف وراء هذه الحملات.