خبراء يحذرون: الذكاء الاصطناعي يهدد بانقراض البشرية خلال عام واحدhttps://aawsat.com/%D8%AA%D9%83%D9%86%D9%88%D9%84%D9%88%D8%AC%D9%8A%D8%A7/5170836-%D8%AE%D8%A8%D8%B1%D8%A7%D8%A1-%D9%8A%D8%AD%D8%B0%D8%B1%D9%88%D9%86-%D8%A7%D9%84%D8%B0%D9%83%D8%A7%D8%A1-%D8%A7%D9%84%D8%A7%D8%B5%D8%B7%D9%86%D8%A7%D8%B9%D9%8A-%D9%8A%D9%87%D8%AF%D8%AF-%D8%A8%D8%A7%D9%86%D9%82%D8%B1%D8%A7%D8%B6-%D8%A7%D9%84%D8%A8%D8%B4%D8%B1%D9%8A%D8%A9-%D8%AE%D9%84%D8%A7%D9%84-%D8%B9%D8%A7%D9%85-%D9%88%D8%A7%D8%AD%D8%AF
خبراء يحذرون: الذكاء الاصطناعي يهدد بانقراض البشرية خلال عام واحد
حذر رئيس الوزراء الصيني من أن الذكاء الاصطناعي قد يصبح «أداة حصرية» لعدد قليل من الدول والشركات (رويترز)
واشنطن:«الشرق الأوسط»
TT
واشنطن:«الشرق الأوسط»
TT
خبراء يحذرون: الذكاء الاصطناعي يهدد بانقراض البشرية خلال عام واحد
حذر رئيس الوزراء الصيني من أن الذكاء الاصطناعي قد يصبح «أداة حصرية» لعدد قليل من الدول والشركات (رويترز)
في ظل تزايد التطورات المتسارعة في مجال الذكاء الاصطناعي، حذر مجموعة من العلماء البارزين، من بينهم حائزون على جوائز نوبل، من أن الروبوتات فائقة الذكاء قد تؤدي إلى انقراض البشرية في غضون عام واحد فقط، إذا استمر المسار الحالي لتطوير هذه التكنولوجيا، وفقاً لصحيفة «التايمز».
وشهدت أواخر يوليو (تموز) الماضي، تجمعاً احتجاجياً أمام مقر شركة «OpenAI» في سان فرنسيسكو، حيث تجمع نحو 25 ناشطاً مرتدين قمصاناً حمراء كتب عليها «أوقفوا الذكاء الاصطناعي»، مطالبين بوقف التصاعد السريع لهذه التكنولوجيا التي يعتقدون أنها تحمل خطراً وجودياً على البشر.
وتقاسم هذا القلق عدد من أبرز خبراء الذكاء الاصطناعي، منهم جيفري هينتون، الحائز على جائزة نوبل في الفيزياء، ويوشوا بنجيو، الحاصل على جائزة تورينغ، بالإضافة إلى قادة شركات رائدة مثل «OpenAI» و«Anthropic» و«DeepMind» و«Google»، الذين وقعوا رسالة مفتوحة طالبوا فيها بوضع الحد من مخاطر الانقراض الناتجة عن الذكاء الاصطناعي على رأس أولويات العالم، إلى جانب المخاطر الكبرى مثل الأوبئة والحروب النووية.
ويطرح الخبراء سيناريوهات مخيفة، منها احتمال استخدام أنظمة الذكاء الاصطناعي لإطلاق أسلحة بيولوجية تنتشر بصمت في المدن الكبرى، وتتصاعد خطورتها عبر تفعيل كيميائي، ما قد يؤدي إلى إبادة واسعة للبشرية.
وأكد نيت سوريس، مهندس الذكاء الاصطناعي البارز والرئيس الحالي لمعهد أبحاث الذكاء الآلي، أن احتمال انقراض البشرية بسبب الذكاء الاصطناعي لا يقل عن 95 في المائة إذا استمرت الأمور على وتيرتها الحالية، مشبهاً الوضع بقيادة سيارة بسرعة 100 ميل في الساعة نحو منحدر حاد، قائلاً: «لا أقول إننا لا نستطيع التوقف، لكننا نتجه بسرعة جنونية نحو الهاوية».
ويشير الخبراء إلى أن الذكاء الاصطناعي ما زال في مراحله الأولى كـ«ذكاء ضيق» يقتصر على مهام محددة، لكن التوقعات تشير إلى وصوله قريباً إلى ما يُعرف بالذكاء الاصطناعي العام الذي سيضاهي الذكاء البشري، ثم يتطور إلى الذكاء الاصطناعي الفائق، القادر على تحقيق إنجازات تفوق الخيال، لكنه يشكل في الوقت نفسه تحدياً هائلاً في كيفية ضمان بقاء هذه الأنظمة تحت سيطرة الإنسان، وهي مشكلة تعرف بمحاذاة الذكاء، التي تبدو شبه مستحيلة.
وحذرت تقارير من أن هذه الأنظمة قد تكذب وتخدع، وحتى الآن تظهر أنظمة الذكاء الاصطناعي سلوكيات غريبة قد تشير إلى محاولات خداع أو تحريف الحقائق، مما يزيد المخاوف من فقدان السيطرة عليها.
وفي هذا السياق، ترى هولي إلمور، المديرة التنفيذية لمنظمة «PauseAI»، أن خطر الانقراض أقل بكثير، حيث تقدر الاحتمالات بين 15 و20 في المائة، لكنها تحذر من أن الذكاء الاصطناعي سيؤدي على الأقل إلى تفريط تدريجي في السلطة البشرية، ما يجعل البشر يعيشون في مكبات نفايات بلا سيطرة، أو فهم لما يجري حولهم.
وتدعو إلمور إلى وقف مؤقت لتطوير الذكاء الاصطناعي ووضع معاهدات دولية لتنظيمه، في مقابل تسارع سياسي وتجاري في تخفيف القيود على أبحاث الذكاء الاصطناعي، كما ظهر في خطة إدارة ترمب الأخيرة وتنافس شركات التكنولوجيا الكبرى لجذب أفضل المواهب في المجال.
وفي حين يرى البعض أن الذكاء الاصطناعي يمثل أمل الحياة الأبدية والخلود، يحذر كثير من الخبراء من أن الجحيم قد يكون السيناريو الأكثر احتمالاً، ويجعل من وقف هذه المسيرة الجنونية أمراً حتمياً قبل فوات الأوان.
تتصاعد وتيرة التحولات داخل كبرى شركات التكنولوجيا العالمية مع احتدام المنافسة في مجال الذكاء الاصطناعي، ما يدفع هذه الشركات إلى إعادة هيكلة مواردها البشرية.
«غوغل كلاود» لـ«الشرق الأوسط»: هدوء سيبراني «حذر» رغم التوترات الإقليمية
التوترات التي شهدها الشرق الأوسط خلال الشهرين الماضيين لم تؤدِّ إلى تصعيد سيبراني واسع وفوري بالقدر الذي كان متوقعاً (شاترستوك)
في «غوغل كلاود نكست 2026» في لاس فيغاس، لم يكن حديث ساندرا جويس، نائبة رئيس «غوغل ثريت إنتلجنس» (Google Threat Intelligence)، مجرد إضافة تقنية ضمن زخم الذكاء الاصطناعي الذي طغى على المؤتمر، بل قدّم قراءة أكثر هدوءاً وانضباطاً لمشهد التهديدات السيبرانية في لحظة إقليمية ودولية حساسة.
وخلال الجلسة، سألت «الشرق الأوسط» عمّا إذا كانت التوترات التي شهدها الشرق الأوسط خلال الشهرين الماضيين قد انعكست على نمط الهجمات السيبرانية، وما إذا كانت «غوغل كلاود» قد رصدت تحولاً موازياً في مستوى النشاط أو طبيعته. غير أن رد ساندرا جويس جاء على خلاف ما قد يتوقعه كثيرون قائلة إن فريقها «لم يرَ في الواقع ارتفاعاً كبيراً في النشاط السيبراني» خلال تلك الفترة، مضيفة أن ما جرى، باستثناء بعض الوقائع التي ظهرت علناً، لم يصل إلى مستوى تصعيد واسع، بل إنهم «شهدوا هدوءاً، ثم عادت المستويات تقريباً إلى ما كانت عليه سابقاً»، بخلاف ما حدث مع بداية التوترات بين روسيا وأوكرانيا.
وتكتسب هذه الملاحظة أهميتها من أنها تبتعد عن المبالغة، وتقدم صورة أكثر توازناً؛ فالتوترات الجيوسياسية لا تنعكس بالضرورة، وبصورة فورية، في موجة سيبرانية واسعة ومرئية. لكن ذلك، في حديث ساندرا جويس، لا يعني أن الخطر تراجع أو أن البيئة أصبحت أكثر أماناً.
وعندما سُئلت عن تفسير هذا الهدوء النسبي، لم تربطه ساندرا جويس بضعف في قدرات الجهات المهاجمة أو بانحسار التهديد، بل أشارت إلى احتمالات أكثر تعقيداً؛ إذ ربما تكون هذه القدرات موزعة بشكل لامركزي، بحيث لا يؤدي استهداف موقع معين إلى تعطيلها، وربما لم يصدر القرار باستخدامها على نطاق أوسع، وربما كانت هناك اعتبارات ردع قائمة.
وفي المقابل، شرحت كيف تتعامل «غوغل كلاود» مع مثل هذه اللحظات عبر ما وصفته بآلية التعامل مع «الأحداث الكبرى»، حيث يجري العمل السريع بهدف التحرك قبل اتساع الأثر، من خلال توفير مؤشرات مبكرة عمّا قد يحدث، ثم التمييز بعد ذلك بين الضجيج والحقيقة، وبين التصورات والوقائع، حتى تتمكن المؤسسات من اتخاذ قرارات عملية تستند إلى سياق واضح. وبذلك، لا يعود دور استخبارات التهديدات مقتصراً على الإبلاغ عمّا حدث، بل يمتد إلى مساعدة المؤسسات على معرفة ما ينبغي فعله بعد ذلك.
«غوغل كلاود»: أول اختبار حقيقي لمرونة المؤسسات اليوم يبدأ من إدارة الثغرات والتحديثات الأمنية لا من الشعارات العامة حول الصمود (شاترستوك)
اختبار المرونة الحقيقي
وفي محور آخر، انتقل النقاش مع «الشرق الأوسط» إلى معنى «المرونة» أو «الصمود» داخل المؤسسات، ليس فقط من زاوية حماية المعلومات، بل أيضاً من زاوية الحفاظ على استمرارية الخدمات والعمليات والثقة العامة. وجاء جواب جويس مباشراً، مشيرة إلى أن أول ما تنظر إليه اليوم، بخلاف ما كانت قد تقوله قبل ثلاث سنوات، هو برامج إدارة الثغرات والتحديثات الأمنية؛ لأن أدوات الذكاء الاصطناعي باتت تمنح المهاجمين سرعة ونطاقاً وقدرة على إحداث أثر واسع «بشكل لم نره من قبل».
وتنقل هذه النقطة النقاش من المفهوم العام للمرونة إلى مستوى أكثر دقة وواقعية. فساندرا جويس لا تتحدث عن الصمود بوصفه مجرد خطة استجابة أو قدرة على استعادة الأنظمة بعد الهجوم، بل بوصفه قدرة استباقية على سد الثغرات قبل أن تتحول إلى منفذ لهجمات أسرع وأكثر تعقيداً. ووفق شرحها، فإن المؤسسات في 2026 تحتاج إلى التفكير في أدوات ذكاء اصطناعي تمتلك «السرعة والحجم والقدرة المتقدمة»، ويمكن أن تتجه إلى أي ثغرة في الشبكة، حتى تلك التي قد تكون المؤسسة قد صنّفتها سابقاً على أنها ثانوية أو منخفضة الأولوية. والأسوأ من ذلك، كما أوضحت، أن هذه الأدوات لا تكتفي باستغلال ثغرة واحدة، بل يمكن أن تربط بين نقاط ضعف مختلفة لتكوين مسار اختراق جديد وأكثر فاعلية.
«رذاذ قبل العاصفة»
وعندما سُئلت ساندرا جويس عمّا إذا كانت ترى بالفعل تصاعداً واسعاً في الهجمات التي تستخدم قدرات الذكاء الاصطناعي الجديدة، لم تقل إن هذه الموجة بلغت ذروتها، لكنها وصفت ما نراه اليوم بأنه أشبه «برذاذ يسبق العاصفة». وقالت بوضوح إن الاعتقاد بأن هذا الوضع سيبقى هادئاً سيكون افتراضاً خاطئاً، لأن المؤشرات تتزايد، والقدرات تتطور، ونقطة التحول تقترب.
وهنا تكمن المفارقة الأهم في حديثها؛ حيث إن العالم لم يدخل بعد مرحلة انفجار شامل في هذا النوع من الهجمات، لكنه يقترب منها بما يكفي لكي يصبح التأجيل خطأ مكلفاً. ومن هذا المنطلق، بدا حديثها أقرب إلى دعوة للاستعداد المبكر منه إلى تحذير من واقع وقع بالكامل.
المرونة السيبرانية في 2026 لم تعد تعني حماية البيانات فقط بل حماية استمرارية الخدمات والعمليات والثقة العامة أيضاً (شاترستوك)
من الرصد إلى الفعل
وفي جزء آخر من الجلسة، شرحت ساندرا جويس أن فريقها لا يقتصر دوره على مراقبة التهديدات وبناء صورة عامة عنها، بل يضم أيضاً، منذ العام الماضي، وحدة تعطيل تقود عمليات تستند إلى الاستخبارات. ووفق شرحها، تراوحت هذه العمليات بين إسقاط شبكات وكلاء سكنية بالتعاون مع الفريق القانوني، وتعطيل شبكات تجسس. والمعنى هنا أن قيمة استخبارات التهديدات لم تعد تقف عند حدود الفهم والتحليل، بل باتت تشمل استخدام هذه المعرفة نفسها لتقليص قدرة الخصوم على العمل قبل أن يتحول الخطر إلى حادث واسع.
وفي الوقت نفسه، حرصت جويس على عدم المبالغة في تصوير المشهد، مشيرة إلى أن كثيراً من الاختراقات التي لا تزال الفرق تتعامل معها اليوم تعتمد على أساليب تقليدية معروفة. لكنها حذرت من أن ذلك لا ينبغي أن يبعث على الاطمئنان، لأن ما تراه فرقها هو تسارع الابتكار لدى جهات التهديد، بما يعني أن نقطة التحول تقترب. ووصفت هذا الوضع بأنه «فرصة للتحرك الآن»، لا سبباً لتأجيل الاستعداد.
وهذه ملاحظة مهمة، لأنها تعني أن التهديد لا يكمن فقط في ظهور أدوات جديدة، بل في كيفية تطوير الأساليب القائمة ورفع كفاءتها وتوسيع أثرها. لذلك، فإن الاعتماد على أن المهاجمين سيظلون يستخدمون الأدوات والأساليب نفسها سيكون رهاناً خاطئاً.
تقول «غوغل كلاود» إن هذا الهدوء النسبي لا يعني تراجع الخطر لأن جهات التهديد قد تكون تعمل بقدرات موزعة أو تنتظر ظروفاً مختلفة للتصعيد (رويترز)
اتساع رقعة الاستهداف
كشفت الجلسة أيضاً عن أثر آخر للذكاء الاصطناعي في المشهد الأمني، وهو اتساع نطاق الاستهداف جغرافياً. فعندما سُئلت ساندرا جويس عمّا إذا كانت الحواجز اللغوية التي كانت تحدّ سابقاً من استهداف بعض الأسواق قد تراجعت، أجابت بأن ذلك يحدث بالفعل، مشيرة إلى زيادة واضحة في استهداف أسواق غير ناطقة بالإنجليزية، وذكرت على وجه الخصوص ألمانيا التي شهدت ارتفاعاً ملحوظاً في الأشهر الأخيرة، ليس فقط على مستوى الشركات الكبرى، بل أيضاً في قلب ما يشكل العمود الفقري للاقتصاد الألماني. وتحمل هذه الإشارة دلالة أوسع؛ الذكاء الاصطناعي لا يوسّع فقط قدرة المهاجمين على تطوير الأدوات، بل يوسّع أيضاً نطاق الأسواق والقطاعات التي يمكن استهدافها بكفاءة أكبر.
حاولت ساندرا جويس، خلال الجلسة، ترسيخ فكرة أن المرونة لم تعد كلمة مطمئنة في عروض الشركات، بل أصبحت اختباراً يومياً يبدأ من إدارة الثغرات والتحديثات، ويمر عبر فهم التهديدات قبل انفجارها، وينتهي بقدرة المؤسسة على التمييز بين الضجيج والحقيقة، والتصرف بسرعة وثقة. وربما كانت الرسالة الأهم التي خرجت من الجلسة هي أنه في 2026، لا يكفي أن تقول المؤسسة إنها «مرنة»؛ عليها أن تثبت أنها قادرة على إغلاق الفجوات قبل أن تتحول، بسرعة الذكاء الاصطناعي نفسه، إلى نقطة انهيار.
زوكربيرغ يُقلّص آلاف الوظائف لتمويل استثمارات الذكاء الاصطناعي
مارك زوكربيرغ مالك شركة «ميتا» (رويترز)
تتصاعد وتيرة التحولات داخل كبرى شركات التكنولوجيا العالمية مع احتدام المنافسة في مجال الذكاء الاصطناعي، ما يدفع هذه الشركات إلى إعادة هيكلة مواردها البشرية والمالية بشكل جذري. وتبرز شركة «ميتا» في مقدمة هذا التوجه، إذ تسعى إلى موازنة استثماراتها الضخمة في التقنيات المستقبلية عبر إجراءات تقشفية تشمل تقليص عدد الموظفين.
وتعمل «ميتا»، المملوكة لمارك زوكربيرغ، على خفض آلاف الوظائف بهدف «تعويض» التكاليف الباهظة لاستثماراتها في مجال الذكاء الاصطناعي، التي بلغت مليارات الدولارات، حسب ما أوردته صحيفة «التليغراف».
وكانت الشركة، المالكة لمنصات «فيسبوك» و«واتساب» و«إنستغرام»، قد أعلنت يوم الخميس عن خطط لخفض نحو 10 في المائة من قوتها العاملة، في خطوة تهدف إلى تمويل توسعها الكبير في تقنيات الذكاء الاصطناعي.
ومن المتوقع أن تؤدي هذه الخطوة إلى تسريح نحو 8 آلاف موظف خلال الشهر المقبل، إضافة إلى إلغاء خطط سابقة لتوظيف ما يقارب 6 آلاف موظف جديد.
وفي مذكرة داخلية وُزّعت على موظفي الشركة واطلعت عليها وكالة «بلومبيرغ»، أوضح مسؤولون تنفيذيون أن هذه الإجراءات تأتي «في إطار الجهود المستمرة لإدارة الشركة بكفاءة أعلى، وتعويض تكاليف الاستثمارات الأخرى التي نقوم بها».
وفي الوقت ذاته، حذّرت «ميتا» مستثمريها من أن إنفاقها قد يصل إلى 169 مليار دولار (125 مليار جنيه استرليني) خلال العام الجاري، في إطار سعيها للحاق بمنافسيها، مثل «أوبن إيه آي» و«غوغل»، ضمن سباق محتدم في مجال الذكاء الاصطناعي داخل وادي السيليكون.
وتنفق الشركة مبالغ ضخمة على تطوير مراكز البيانات وتعزيز البنية التحتية اللازمة لتقنيات الذكاء الاصطناعي، كما عرض زوكربيرغ حوافز مالية كبيرة لاستقطاب الكفاءات، شملت مكافآت توقيع تصل إلى 100 مليون دولار، إلى جانب عقود متعددة السنوات قد تبلغ قيمتها نحو مليار دولار.
وتأتي هذه الخطط بعد سلسلة من عمليات التسريح الجزئية التي نفذتها «ميتا» خلال الأشهر الماضية، شملت قطاعات مختلفة، من بينها قسم مختبرات الواقع الافتراضي، حيث تم الاستغناء عن نحو 10 في المائة من الموظفين، أي ما يعادل نحو 700 عامل. ويُنظر إلى هذه الخطوات على أنها انعكاس لتراجع الرهان السابق لزوكربيرغ على «الميتافيرس» بوصفه مستقبل الشركة.
ويرى محللون أن موجة التسريحات قد لا تتوقف عند هذا الحد، إذ قد تلجأ «ميتا» إلى تقليص المزيد من الوظائف لاحقاً خلال العام، في ظل التوسع في استخدام أدوات الذكاء الاصطناعي لأتمتة العديد من المهام التي يؤديها الموظفون حالياً.
اتهم البيت الأبيض الصين، اليوم الخميس، بالضلوع في سرقة الملكية الفكرية لمختبرات ذكاء اصطناعي أميركية على نطاق صناعي، وذلك في مذكرة تهدد بتوتر العلاقات قبل قمة مرتقبة بين الزعيمين الأميركي والصيني الشهر المقبل.
وكتب مايكل كراتسيوس، مدير مكتب سياسات العلوم والتكنولوجيا بالبيت الأبيض، في مذكرة جرى تداولها على وسائل التواصل الاجتماعي، وكان لصحيفة «فاينانشال تايمز» السبق في نشرها: «لدى الحكومة الأميركية معلومات تشير إلى أن جهات أجنبية، تتمركز أساساً في الصين، منخرطة في حملات متعمدة وعلى نطاق صناعي لاستخلاص قدرات أنظمة الذكاء الاصطناعي الأميركية المتقدمة».
وأضاف: «من خلال الاستفادة من عشرات الآلاف من الحسابات الوكيلة لتفادي الرصد، واستخدام تقنيات كسر الحماية لكشف معلومات مملوكة، تقوم هذه الحملات المنسقة باستخراج القدرات بشكل منهجي من نماذج الذكاء الاصطناعي الأميركية، مستغلة الخبرة والابتكار الأميركيين».
وقالت السفارة الصينية في واشنطن، وفقاً لوكالة «رويترز»، إنها تعارض «الادعاءات التي لا أساس لها»، مضيفة أن بكين «تولي أهمية كبيرة لحماية حقوق الملكية الفكرية».
والمذكرة، التي صدرت قبل أسابيع فقط من الزيارة المرتقبة للرئيس الأميركي دونالد ترمب إلى الرئيس الصيني شي جينبينغ في بكين، تنذر بزيادة التوتر في حرب تكنولوجية ممتدة بين القوتين العظميين المتنافستين، التي هدأت حدتها بفعل انفراجة تحققت أكتوبر (تشرين الأول) الماضي.
وتثير المذكرة تساؤلات أيضاً بشأن ما إذا كانت واشنطن ستسمح بشحن رقائق الذكاء الاصطناعي المتقدمة التابعة لشركة «إنفيديا» إلى الصين. وأعطت إدارة ترمب الضوء الأخضر لهذه المبيعات في يناير (كانون الثاني)، مع فرض شروط. لكن وزير التجارة الأميركي هوارد لوتنيك أشار، أمس الأربعاء، إلى أنه لم تجرِ أي شحنات حتى الآن.
وتقول المذكرة، الموجهة إلى الوكالات الحكومية، إن الإدارة «ستبحث مجموعة من الإجراءات لمساءلة الجهات الأجنبية» التي تقف وراء هذه الحملات.