نظام ذكاء صناعي يبتكر صوراً رقمية عند الطلب

يعمل بأوامر مكتوبة... وخبراء يتخوفون من توظيفه لترويج قصص مزيفة

صورة لقطتين تلعبان الشطرنج صنعها نظام «دال - إي» عند الطلب
صورة لقطتين تلعبان الشطرنج صنعها نظام «دال - إي» عند الطلب
TT

نظام ذكاء صناعي يبتكر صوراً رقمية عند الطلب

صورة لقطتين تلعبان الشطرنج صنعها نظام «دال - إي» عند الطلب
صورة لقطتين تلعبان الشطرنج صنعها نظام «دال - إي» عند الطلب

يعمل الباحثون في «أوبن إيه آي»، أحد أكبر مختبرات الذكاء الصناعي في العالم، على تطوير تقنية تتيح للنّاس صناعة صور رقمية بخطوة بسيطة، وذلك بوصف ما يريدون مشاهدته.
أطلق الباحثون على التقنية اسم «دال - إي» DALL - E في إشارة منهم إلى فيلم للرسوم المتحرّكة «وال - إي» (2008) الذي يتحدّث عن روبوت، وعن الرسام السريالي سالفادور دالي.

صناعة صور رقمية
تلقّى مختبر «أوبن إيه آي» OpenAI تمويلاً بقيمة مليار دولار من شركة «مايكروسوفت»، ولكنه لم يتشارك بالتقنية مع أفراد الجمهور بعد. إلّا أنّ أليكس نيكول، أحد الباحثين المشاركين في تطويرها، قدّم أخيراً عرضاً لكيفية عملها.
عندما طلب نيكول من النظام تنفيذ شكل «إبريق شاي على شكل ثمرة أفوكادو» وطبع هذه الكلمات على شاشة كومبيوتر عملاقة، صنع له النظام عشر صور مختلفة لإبريق شاي على شكل أفوكادو باللون الأخضر القاتم.
عندها، قال نيكول «(دال – إي) بارع في ابتكار الأفوكادو».
وعندما طبع على الشاشة عبارة «قطط تلعب الشطرنج»، ابتكر النظام قططاً تجلس من جهتي لوحة الشطرنج مع 32 قطعة مرصوفة عليها. وعندما طلب عبارة «دبّ يعزف البوق تحت الماء»، ابتكر النظام صورة تُظهر فقاعات ترتفع من طرف بوق الدبّ باتجاه سطح الماء.
يعمل «دال - إي» على توليف الصور أيضاً، فعندما حذف نيكول البوق وطلب استبداله بغيتار، امتثل النظام وظهر الغيتار بين يدي الدب.
أمضى فريقٌ مؤلّف من سبعة باحثين سنتين في تطوير التقنية التي يخطّط «أوبن إيه آي». لتوفيرها كأداة لمن يحتاجون إليها كمصممي الغرافيك، لتزوّدهم باختصارات وأفكار جديدة يستخدمونها في ابتكارهم وتعديلهم للصور الرقمية. ويستخدم المبرمجون اليوم أداة «كوبايلوت» Copilot المستندة إلى تقنية مماثلة من تطوير «أوبن إيه آي». لصناعة الرموز البرمجية.

                                               صورة إبريق يشبه ثمرة الافاكادو يصنعها نظام «دال-إي» عند الطلب
تقنية مثيرة للقلق
ولكنّ الكثير من الخبراء يرون أنّ «دال - إي» مثيرٌ للقلق، ويتخوّفون من أنّ استمرار تطوّر هذا النوع من التقنية قد يؤدي إلى انتشار المعلومات المضلّلة عبر شبكة الإنترنت، وتغذية الحملات الإلكترونية المغرضة كتلك التي ساعدت في التلاعب بالانتخابات الرئاسية الأميركية عام 2016.
واعتبر سوباراو كامبهامباتي، أستاذ علوم الكومبيوتر في جامعة ولاية أريزونا، أنّ «هذه التقنية يمكن استخدامها في أمور جيّدة، ولكنّها قد تستخدم أيضاً في جميع أنواع التطبيقات المجنونة والمقلقة كصناعة مواد (ديب فيك) من الصور والفيديوهات المزيفة والمضللة».
قبل نحو خمس سنوات، طوّرت أبرز مختبرات الذكاء الصناعي في العالم أنظمة قادرة على تعريف الأشياء الظاهرة في الصور الرقمية، وحتّى فبركة صورٍ تظهر وروداً وكلاباً وسيارات ووجوهاً. وبعدها ببضع سنوات، طوّرت المختبرات أنظمة قادرة على القيام بالأشياء نفسها في الكتابات النصية، وتلخيص المقالات، والإجابة على الأسئلة، وابتكار التغريدات، وحتّى كتابة المدوّنات.
ويأخذ الباحثون اليوم بجمع وتوحيد هذه التقنيات لابتكار أشكال جديدة من الذكاء الصناعي، ويُعدّ «دال – إي» خطوة تقدّمية بارزة في هذا المجال لأنّه يعتمد على اللغة والصور، وفي بعض الحالات، على العلاقة بين الاثنين.
وفي هذا الصدد قال أورين إتزيوني، الرئيس التنفيذي لمعهد «آلان» للذكاء الصناعي في سياتل «يمكننا استخدام مصادر عدّة متقاطعة من المعلومات لابتكار تقنية أفضل».
ولكنّ التقنية الجديدة ليست مثالية. فعندما طلب نيكول من «دال - إي» «وضع برج إيفل على القمر»، لم يفهم النظام الفكرة ووضع القمر في سماء البرج. وعندما طلب منه «غرفة معيشة مليئة بالرمال»، عرض له مشهداً أقرب إلى موقع بناء منه إلى غرفة معيشة.
أمّا حين صعّب نيكول طلباته بعض الشيء، بإضافة أو حذف بعض الكلمات من هنا وهناك، نفّذ النظام طلبه. فعندما طلب منه ابتكار صورة تعرض «بيانو في غرفة معيشة مليئة بالرمال»، بدت الصورة أشبه بشاطئ في غرفة المعيشة.

شبكات عصبية
ينتمي «دال - إي» إلى ما يسمّيه باحثو الذكاء الصناعي شبكة عصبية، وهي عبارة عن نظام حسابي صُمم على شكل شبكة الأعصاب في الدماغ، وهي التقنية نفسها التي تتعرّف إلى الأوامر المحكية في الهواتف الذكية، وترصد وجود المشاة أثناء تجوّل السيارات الآلية في شوارع المدن.
تتعلّم الشبكة العصبية مهاراتها من خلال تحليل كميات كبيرة من البيانات. تستطيع الشبكة مثلاً تعلّم التعرّف إلى الأفوكادو من خلال رصد الأنماط في آلاف صور ثمار الأفوكادو. يبحث «دال - إي» عن الأنماط أثناء تحليله لملايين الصور الرقمية والنصوص المرفقة التي تصف محتوى الصور، ليتعلّم بهذه الطريقة رصد الرابط بين الصورة والكلمة.
عندما يصف أحدهم صورة لـ«دال - إي»، ينتج الأخير مجموعة من الملامح الرئيسية التي قد تتضمّنها هذه الصورة. قد تكون هذه الملامح على شكل الخطّ في طرف البوق، أو خط آخر منحنٍ من أذن الدبّ.
بعدها، تعمل شبكة عصبية أخرى اسمها نموذج الانتشار diffusion model على صناعة الصورة وفبركة البيكسلات المطلوبة لرسم هذه الملامح. تنتج النسخة الأخيرة من «دال - إي»، التي كُشف عنها النقاب أخيراً في ورقة بحثية تصف النظام، صوراً عالية الدقّة تبدو في أحيانٍ كثيرة كالصور الفوتوغرافية.
يستمرّ «أوبن إيه آي». في تحسين تقنية «دال - إي» رغم أنها تخفق غالباً في فهم ما يصفه المستخدم أو تفسد الصورة التي تصنعها، إذ ينجح الباحثون في معظم الأحيان في صقل مهارات الشبكة العصبية عبر تغذيتها بكميات أكبر من البيانات.
يستطيع الباحثون أيضاً تطوير أنظمة أكثر قوّة من خلال تطبيق الأفكار نفسها على أنواع جديدة من البيانات. وقد طوّر معهد آلان The Allen Institute أخيراً نظاماً يحلّل الصوت والصورة والنص. وبعد تحليل ملايين فيديوهات الـ«يوتيوب» التي تحتوي على مقاطع صوتية وملاحظات توضيحية، تعلّم النظام تحديد لحظات استثنائية كنباح الكلاب أو صوت إقفال الأبواب في البرامج التلفزيونية والأفلام.
يعتقد الخبراء، أنّ الباحثين سيستمرّون في بناء هذا النوع من الأنظمة لأنّها قد تصبح أخيراً قادرة على مساعدة الشركات في تحسين محرّكات البحث، وأجهزة المساعدة الرقمية، وغيرها من التقنيات الشائعة، بالإضافة إلى أتمتة وظائف جديدة لفناني الغرافيك والمبرمجين وغيرهم.
ولكنّ هذه القدرة تنطوي على بعض النواقص لأنّ أنظمة الذكاء الصناعي تظهر نوعاً من التمييز ضدّ المرأة وأصحاب البشرة الملوّنة كونها تكتسب مهاراتها من مجموعات كبيرة من النصوص الإلكترونية والصور والبيانات المنحازة، فضلاً عن إمكانية استخدامها لصناعة المحتوى الإباحي وخطابات الكراهية والمواد المسيئة. يعتقد الخبراء أنّ التقنية ستسهّل في نهاية المطاف صناعة المعلومات المضللة إلى درجة ستجعل الناس يشككون في كلّ شيء يرونه على الشبكة.
من جهته، اعتبر إتزيوني أنّه «يمكننا صناعة النصوص وقراءتها بصوت أحدهم. ويمكننا صناعة صور وفيديوهات. تحتوي شبكة الإنترنت اليوم على الكثير من المعلومات المضلّلة ولكنّ القلق هو من فكرة رفع مستوى التضليل».
يفرض مختبر «أوبن إيه آي». ضوابط شديدة على «دال - إي» كي يمنع الأطراف الخارجية من استخدامه كما يحلو لها، وعمد إلى وضع علامة عائدة له في زاوية كلّ صورة ينتجها. وأخيراً، افتتح المختبر تجربة للنظام للراغبين باختباره منتصف شهر أبريل (نيسان) الماضي ولكن لمجموعة صغيرة فقط.
* خدمة «نيويورك تايمز»



«غوغل كلاود» لـ«الشرق الأوسط»: هدوء سيبراني «حذر» رغم التوترات الإقليمية

التوترات التي شهدها الشرق الأوسط خلال الشهرين الماضيين لم تؤدِّ إلى تصعيد سيبراني واسع وفوري بالقدر الذي كان متوقعاً (شاترستوك)
التوترات التي شهدها الشرق الأوسط خلال الشهرين الماضيين لم تؤدِّ إلى تصعيد سيبراني واسع وفوري بالقدر الذي كان متوقعاً (شاترستوك)
TT

«غوغل كلاود» لـ«الشرق الأوسط»: هدوء سيبراني «حذر» رغم التوترات الإقليمية

التوترات التي شهدها الشرق الأوسط خلال الشهرين الماضيين لم تؤدِّ إلى تصعيد سيبراني واسع وفوري بالقدر الذي كان متوقعاً (شاترستوك)
التوترات التي شهدها الشرق الأوسط خلال الشهرين الماضيين لم تؤدِّ إلى تصعيد سيبراني واسع وفوري بالقدر الذي كان متوقعاً (شاترستوك)

في «غوغل كلاود نكست 2026» في لاس فيغاس، لم يكن حديث ساندرا جويس، نائبة رئيس «غوغل ثريت إنتلجنس» (Google Threat Intelligence)، مجرد إضافة تقنية ضمن زخم الذكاء الاصطناعي الذي طغى على المؤتمر، بل قدّم قراءة أكثر هدوءاً وانضباطاً لمشهد التهديدات السيبرانية في لحظة إقليمية ودولية حساسة.

وخلال الجلسة، سألت «الشرق الأوسط» عمّا إذا كانت التوترات التي شهدها الشرق الأوسط خلال الشهرين الماضيين قد انعكست على نمط الهجمات السيبرانية، وما إذا كانت «غوغل كلاود» قد رصدت تحولاً موازياً في مستوى النشاط أو طبيعته. غير أن رد ساندرا جويس جاء على خلاف ما قد يتوقعه كثيرون قائلة إن فريقها «لم يرَ في الواقع ارتفاعاً كبيراً في النشاط السيبراني» خلال تلك الفترة، مضيفة أن ما جرى، باستثناء بعض الوقائع التي ظهرت علناً، لم يصل إلى مستوى تصعيد واسع، بل إنهم «شهدوا هدوءاً، ثم عادت المستويات تقريباً إلى ما كانت عليه سابقاً»، بخلاف ما حدث مع بداية التوترات بين روسيا وأوكرانيا.

وتكتسب هذه الملاحظة أهميتها من أنها تبتعد عن المبالغة، وتقدم صورة أكثر توازناً؛ فالتوترات الجيوسياسية لا تنعكس بالضرورة، وبصورة فورية، في موجة سيبرانية واسعة ومرئية. لكن ذلك، في حديث ساندرا جويس، لا يعني أن الخطر تراجع أو أن البيئة أصبحت أكثر أماناً.

ساندرا جويس نائبة رئيس «غوغل ثريت إنتلجنس» (Google Threat Intellegence) (غوغل)

استعداد قبل الانفجار

وعندما سُئلت عن تفسير هذا الهدوء النسبي، لم تربطه ساندرا جويس بضعف في قدرات الجهات المهاجمة أو بانحسار التهديد، بل أشارت إلى احتمالات أكثر تعقيداً؛ إذ ربما تكون هذه القدرات موزعة بشكل لامركزي، بحيث لا يؤدي استهداف موقع معين إلى تعطيلها، وربما لم يصدر القرار باستخدامها على نطاق أوسع، وربما كانت هناك اعتبارات ردع قائمة.

وفي المقابل، شرحت كيف تتعامل «غوغل كلاود» مع مثل هذه اللحظات عبر ما وصفته بآلية التعامل مع «الأحداث الكبرى»، حيث يجري العمل السريع بهدف التحرك قبل اتساع الأثر، من خلال توفير مؤشرات مبكرة عمّا قد يحدث، ثم التمييز بعد ذلك بين الضجيج والحقيقة، وبين التصورات والوقائع، حتى تتمكن المؤسسات من اتخاذ قرارات عملية تستند إلى سياق واضح. وبذلك، لا يعود دور استخبارات التهديدات مقتصراً على الإبلاغ عمّا حدث، بل يمتد إلى مساعدة المؤسسات على معرفة ما ينبغي فعله بعد ذلك.

«غوغل كلاود»: أول اختبار حقيقي لمرونة المؤسسات اليوم يبدأ من إدارة الثغرات والتحديثات الأمنية لا من الشعارات العامة حول الصمود (شاترستوك)

اختبار المرونة الحقيقي

وفي محور آخر، انتقل النقاش مع «الشرق الأوسط» إلى معنى «المرونة» أو «الصمود» داخل المؤسسات، ليس فقط من زاوية حماية المعلومات، بل أيضاً من زاوية الحفاظ على استمرارية الخدمات والعمليات والثقة العامة. وجاء جواب جويس مباشراً، مشيرة إلى أن أول ما تنظر إليه اليوم، بخلاف ما كانت قد تقوله قبل ثلاث سنوات، هو برامج إدارة الثغرات والتحديثات الأمنية؛ لأن أدوات الذكاء الاصطناعي باتت تمنح المهاجمين سرعة ونطاقاً وقدرة على إحداث أثر واسع «بشكل لم نره من قبل».

وتنقل هذه النقطة النقاش من المفهوم العام للمرونة إلى مستوى أكثر دقة وواقعية. فساندرا جويس لا تتحدث عن الصمود بوصفه مجرد خطة استجابة أو قدرة على استعادة الأنظمة بعد الهجوم، بل بوصفه قدرة استباقية على سد الثغرات قبل أن تتحول إلى منفذ لهجمات أسرع وأكثر تعقيداً. ووفق شرحها، فإن المؤسسات في 2026 تحتاج إلى التفكير في أدوات ذكاء اصطناعي تمتلك «السرعة والحجم والقدرة المتقدمة»، ويمكن أن تتجه إلى أي ثغرة في الشبكة، حتى تلك التي قد تكون المؤسسة قد صنّفتها سابقاً على أنها ثانوية أو منخفضة الأولوية. والأسوأ من ذلك، كما أوضحت، أن هذه الأدوات لا تكتفي باستغلال ثغرة واحدة، بل يمكن أن تربط بين نقاط ضعف مختلفة لتكوين مسار اختراق جديد وأكثر فاعلية.

«رذاذ قبل العاصفة»

وعندما سُئلت ساندرا جويس عمّا إذا كانت ترى بالفعل تصاعداً واسعاً في الهجمات التي تستخدم قدرات الذكاء الاصطناعي الجديدة، لم تقل إن هذه الموجة بلغت ذروتها، لكنها وصفت ما نراه اليوم بأنه أشبه «برذاذ يسبق العاصفة». وقالت بوضوح إن الاعتقاد بأن هذا الوضع سيبقى هادئاً سيكون افتراضاً خاطئاً، لأن المؤشرات تتزايد، والقدرات تتطور، ونقطة التحول تقترب.

وهنا تكمن المفارقة الأهم في حديثها؛ حيث إن العالم لم يدخل بعد مرحلة انفجار شامل في هذا النوع من الهجمات، لكنه يقترب منها بما يكفي لكي يصبح التأجيل خطأ مكلفاً. ومن هذا المنطلق، بدا حديثها أقرب إلى دعوة للاستعداد المبكر منه إلى تحذير من واقع وقع بالكامل.

المرونة السيبرانية في 2026 لم تعد تعني حماية البيانات فقط بل حماية استمرارية الخدمات والعمليات والثقة العامة أيضاً (شاترستوك)

من الرصد إلى الفعل

وفي جزء آخر من الجلسة، شرحت ساندرا جويس أن فريقها لا يقتصر دوره على مراقبة التهديدات وبناء صورة عامة عنها، بل يضم أيضاً، منذ العام الماضي، وحدة تعطيل تقود عمليات تستند إلى الاستخبارات. ووفق شرحها، تراوحت هذه العمليات بين إسقاط شبكات وكلاء سكنية بالتعاون مع الفريق القانوني، وتعطيل شبكات تجسس. والمعنى هنا أن قيمة استخبارات التهديدات لم تعد تقف عند حدود الفهم والتحليل، بل باتت تشمل استخدام هذه المعرفة نفسها لتقليص قدرة الخصوم على العمل قبل أن يتحول الخطر إلى حادث واسع.

وفي الوقت نفسه، حرصت جويس على عدم المبالغة في تصوير المشهد، مشيرة إلى أن كثيراً من الاختراقات التي لا تزال الفرق تتعامل معها اليوم تعتمد على أساليب تقليدية معروفة. لكنها حذرت من أن ذلك لا ينبغي أن يبعث على الاطمئنان، لأن ما تراه فرقها هو تسارع الابتكار لدى جهات التهديد، بما يعني أن نقطة التحول تقترب. ووصفت هذا الوضع بأنه «فرصة للتحرك الآن»، لا سبباً لتأجيل الاستعداد.

وهذه ملاحظة مهمة، لأنها تعني أن التهديد لا يكمن فقط في ظهور أدوات جديدة، بل في كيفية تطوير الأساليب القائمة ورفع كفاءتها وتوسيع أثرها. لذلك، فإن الاعتماد على أن المهاجمين سيظلون يستخدمون الأدوات والأساليب نفسها سيكون رهاناً خاطئاً.

تقول «غوغل كلاود» إن هذا الهدوء النسبي لا يعني تراجع الخطر لأن جهات التهديد قد تكون تعمل بقدرات موزعة أو تنتظر ظروفاً مختلفة للتصعيد (رويترز)

اتساع رقعة الاستهداف

كشفت الجلسة أيضاً عن أثر آخر للذكاء الاصطناعي في المشهد الأمني، وهو اتساع نطاق الاستهداف جغرافياً. فعندما سُئلت ساندرا جويس عمّا إذا كانت الحواجز اللغوية التي كانت تحدّ سابقاً من استهداف بعض الأسواق قد تراجعت، أجابت بأن ذلك يحدث بالفعل، مشيرة إلى زيادة واضحة في استهداف أسواق غير ناطقة بالإنجليزية، وذكرت على وجه الخصوص ألمانيا التي شهدت ارتفاعاً ملحوظاً في الأشهر الأخيرة، ليس فقط على مستوى الشركات الكبرى، بل أيضاً في قلب ما يشكل العمود الفقري للاقتصاد الألماني. وتحمل هذه الإشارة دلالة أوسع؛ الذكاء الاصطناعي لا يوسّع فقط قدرة المهاجمين على تطوير الأدوات، بل يوسّع أيضاً نطاق الأسواق والقطاعات التي يمكن استهدافها بكفاءة أكبر.

حاولت ساندرا جويس، خلال الجلسة، ترسيخ فكرة أن المرونة لم تعد كلمة مطمئنة في عروض الشركات، بل أصبحت اختباراً يومياً يبدأ من إدارة الثغرات والتحديثات، ويمر عبر فهم التهديدات قبل انفجارها، وينتهي بقدرة المؤسسة على التمييز بين الضجيج والحقيقة، والتصرف بسرعة وثقة. وربما كانت الرسالة الأهم التي خرجت من الجلسة هي أنه في 2026، لا يكفي أن تقول المؤسسة إنها «مرنة»؛ عليها أن تثبت أنها قادرة على إغلاق الفجوات قبل أن تتحول، بسرعة الذكاء الاصطناعي نفسه، إلى نقطة انهيار.


زوكربيرغ يُقلّص آلاف الوظائف لتمويل استثمارات الذكاء الاصطناعي

مارك زوكربيرغ مالك شركة «ميتا» (رويترز)
مارك زوكربيرغ مالك شركة «ميتا» (رويترز)
TT

زوكربيرغ يُقلّص آلاف الوظائف لتمويل استثمارات الذكاء الاصطناعي

مارك زوكربيرغ مالك شركة «ميتا» (رويترز)
مارك زوكربيرغ مالك شركة «ميتا» (رويترز)

تتصاعد وتيرة التحولات داخل كبرى شركات التكنولوجيا العالمية مع احتدام المنافسة في مجال الذكاء الاصطناعي، ما يدفع هذه الشركات إلى إعادة هيكلة مواردها البشرية والمالية بشكل جذري. وتبرز شركة «ميتا» في مقدمة هذا التوجه، إذ تسعى إلى موازنة استثماراتها الضخمة في التقنيات المستقبلية عبر إجراءات تقشفية تشمل تقليص عدد الموظفين.

وتعمل «ميتا»، المملوكة لمارك زوكربيرغ، على خفض آلاف الوظائف بهدف «تعويض» التكاليف الباهظة لاستثماراتها في مجال الذكاء الاصطناعي، التي بلغت مليارات الدولارات، حسب ما أوردته صحيفة «التليغراف».

وكانت الشركة، المالكة لمنصات «فيسبوك» و«واتساب» و«إنستغرام»، قد أعلنت يوم الخميس عن خطط لخفض نحو 10 في المائة من قوتها العاملة، في خطوة تهدف إلى تمويل توسعها الكبير في تقنيات الذكاء الاصطناعي.

ومن المتوقع أن تؤدي هذه الخطوة إلى تسريح نحو 8 آلاف موظف خلال الشهر المقبل، إضافة إلى إلغاء خطط سابقة لتوظيف ما يقارب 6 آلاف موظف جديد.

وفي مذكرة داخلية وُزّعت على موظفي الشركة واطلعت عليها وكالة «بلومبيرغ»، أوضح مسؤولون تنفيذيون أن هذه الإجراءات تأتي «في إطار الجهود المستمرة لإدارة الشركة بكفاءة أعلى، وتعويض تكاليف الاستثمارات الأخرى التي نقوم بها».

وفي الوقت ذاته، حذّرت «ميتا» مستثمريها من أن إنفاقها قد يصل إلى 169 مليار دولار (125 مليار جنيه استرليني) خلال العام الجاري، في إطار سعيها للحاق بمنافسيها، مثل «أوبن إيه آي» و«غوغل»، ضمن سباق محتدم في مجال الذكاء الاصطناعي داخل وادي السيليكون.

وتنفق الشركة مبالغ ضخمة على تطوير مراكز البيانات وتعزيز البنية التحتية اللازمة لتقنيات الذكاء الاصطناعي، كما عرض زوكربيرغ حوافز مالية كبيرة لاستقطاب الكفاءات، شملت مكافآت توقيع تصل إلى 100 مليون دولار، إلى جانب عقود متعددة السنوات قد تبلغ قيمتها نحو مليار دولار.

وتأتي هذه الخطط بعد سلسلة من عمليات التسريح الجزئية التي نفذتها «ميتا» خلال الأشهر الماضية، شملت قطاعات مختلفة، من بينها قسم مختبرات الواقع الافتراضي، حيث تم الاستغناء عن نحو 10 في المائة من الموظفين، أي ما يعادل نحو 700 عامل. ويُنظر إلى هذه الخطوات على أنها انعكاس لتراجع الرهان السابق لزوكربيرغ على «الميتافيرس» بوصفه مستقبل الشركة.

ويرى محللون أن موجة التسريحات قد لا تتوقف عند هذا الحد، إذ قد تلجأ «ميتا» إلى تقليص المزيد من الوظائف لاحقاً خلال العام، في ظل التوسع في استخدام أدوات الذكاء الاصطناعي لأتمتة العديد من المهام التي يؤديها الموظفون حالياً.


أميركا تتهم الصين بسرقة تكنولوجيا ذكاء اصطناعي

الرئيسان الأميركي دونالد ترمب والصيني شي جينبينغ (رويترز)
الرئيسان الأميركي دونالد ترمب والصيني شي جينبينغ (رويترز)
TT

أميركا تتهم الصين بسرقة تكنولوجيا ذكاء اصطناعي

الرئيسان الأميركي دونالد ترمب والصيني شي جينبينغ (رويترز)
الرئيسان الأميركي دونالد ترمب والصيني شي جينبينغ (رويترز)

اتهم البيت الأبيض الصين، اليوم الخميس، بالضلوع في سرقة الملكية الفكرية لمختبرات ذكاء اصطناعي أميركية على نطاق صناعي، وذلك في مذكرة تهدد بتوتر العلاقات قبل قمة مرتقبة بين الزعيمين الأميركي والصيني الشهر المقبل.

وكتب مايكل كراتسيوس، مدير مكتب سياسات العلوم والتكنولوجيا بالبيت الأبيض، في مذكرة جرى تداولها على وسائل التواصل الاجتماعي، وكان لصحيفة «فاينانشال تايمز» ‌السبق في ‌نشرها: «لدى الحكومة الأميركية معلومات تشير إلى ‌أن جهات أجنبية، تتمركز أساساً في الصين، منخرطة في حملات متعمدة وعلى نطاق صناعي لاستخلاص قدرات أنظمة الذكاء الاصطناعي الأميركية المتقدمة».

وأضاف: «من خلال الاستفادة من عشرات الآلاف من الحسابات الوكيلة لتفادي الرصد، واستخدام تقنيات كسر الحماية لكشف معلومات مملوكة، تقوم هذه الحملات المنسقة باستخراج القدرات بشكل منهجي من نماذج الذكاء الاصطناعي ‌الأميركية، مستغلة الخبرة ‌والابتكار الأميركيين».

وقالت السفارة الصينية في واشنطن، وفقاً لوكالة «رويترز»، إنها تعارض «الادعاءات ‌التي لا أساس لها»، مضيفة أن بكين «تولي أهمية ‌كبيرة لحماية حقوق الملكية الفكرية».

والمذكرة، التي صدرت قبل أسابيع فقط من الزيارة المرتقبة للرئيس الأميركي دونالد ترمب إلى الرئيس الصيني شي جينبينغ في بكين، تنذر ‌بزيادة التوتر في حرب تكنولوجية ممتدة بين القوتين العظميين المتنافستين، التي هدأت حدتها بفعل انفراجة تحققت أكتوبر (تشرين الأول) الماضي.

وتثير المذكرة تساؤلات أيضاً بشأن ما إذا كانت واشنطن ستسمح بشحن رقائق الذكاء الاصطناعي المتقدمة التابعة لشركة «إنفيديا» إلى الصين. وأعطت إدارة ترمب الضوء الأخضر لهذه المبيعات في يناير (كانون الثاني)، مع فرض شروط. لكن وزير التجارة الأميركي هوارد لوتنيك أشار، أمس الأربعاء، إلى أنه لم تجرِ أي شحنات حتى الآن.

وتقول المذكرة، الموجهة إلى الوكالات الحكومية، إن الإدارة «ستبحث مجموعة من الإجراءات لمساءلة الجهات الأجنبية» التي تقف وراء هذه الحملات.