«مايكروسوفت» تتصدى لـ1.6 مليون محاولة اختراق أمني في الساعة

خوارزميات ذكية في المعركة ضد الاحتيال السيبراني

تُستخدم أدوات الذكاء الاصطناعي لإنشاء متاجر إلكترونية وهمية في دقائق ما يزيد صعوبة التمييز بينها وبين الحقيقية (شاترستوك)
تُستخدم أدوات الذكاء الاصطناعي لإنشاء متاجر إلكترونية وهمية في دقائق ما يزيد صعوبة التمييز بينها وبين الحقيقية (شاترستوك)
TT

«مايكروسوفت» تتصدى لـ1.6 مليون محاولة اختراق أمني في الساعة

تُستخدم أدوات الذكاء الاصطناعي لإنشاء متاجر إلكترونية وهمية في دقائق ما يزيد صعوبة التمييز بينها وبين الحقيقية (شاترستوك)
تُستخدم أدوات الذكاء الاصطناعي لإنشاء متاجر إلكترونية وهمية في دقائق ما يزيد صعوبة التمييز بينها وبين الحقيقية (شاترستوك)

أضحى الذكاء الاصطناعي أداةً يُحتفى بها بقدر ما يُساء استخدامها. وتسعى «مايكروسوفت» إلى تعزيز التزامها بحماية بيئتها الرقمية من خلال استراتيجية متعددة الأبعاد لمكافحة الاحتيال والانتهاكات السيبرانية. وفي تقريرها الأخير بعنوان «إشارات سيبرانية» (Cyber Signals)، كشفت الشركة عن حجم التهديدات التي واجهتها بين أبريل (نيسان) 2024 وأبريل 2025، وكذلك عن الدفاعات الواسعة التي نشرتها للتصدي لها.

خلال هذه الفترة، نجحت «مايكروسوفت» في إحباط محاولات احتيال بقيمة 4 مليارات دولار، ورفضت 49 ألف طلب شراكة احتيالي، وحجبت نحو 1.6 مليون محاولة تسجيل عبر الروبوتات في الساعة الواحدة. يركز تقرير هذا العام على كيفية تغيير الذكاء الاصطناعي طبيعة الاحتيال، ليس فقط من حيث التعقيد، بل من حيث سهولة الوصول إليه أيضاً. إذ يستخدم مجرمو الإنترنت أدوات الذكاء الاصطناعي لصناعة عمليات احتيال أكثر إقناعاً، بسرعة أكبر وبتكلفة أقل. ووفقاً لـ«مايكروسوفت»، فإن جزءاً كبيراً من هذا النشاط ينطلق من أسواق رقمية رئيسية مثل الصين وألمانيا؛ نظراً لحجم التجارة الإلكترونية فيهما.

تصاعد الاحتيال المدعوم بالذكاء الاصطناعي

أصبح الذكاء الاصطناعي يخفض الحواجز أمام الجرائم السيبرانية. فبفضل أدوات قادرة على تصفح الإنترنت لاستخلاص بيانات حساسة عن الشركات وموظفيها، يمكن للمهاجمين تصميم حملات هندسة اجتماعية معقدة. تشمل هذه الحملات مواقع تجارة إلكترونية وهمية، وشعارات مقلدة، وتقييمات مزيفة، وحتى روبوتات دعم عملاء تستند إلى الذكاء الاصطناعي قادرة على خداع المستخدمين.

كما يستغل المحتالون الذكاء الاصطناعي لإنتاج مقاطع فيديو مزيفة (Deepfakes)، واستنساخ الأصوات، وإرسال رسائل تصيُّد إلكتروني يصعب التفرقة بينها وبين الرسائل الحقيقية. تنتشر كذلك عروض وظائف مزيفة ومقابلات عمل وهمية باستخدام تقنيات توليد النصوص والصور، مستهدفة الباحثين عن العمل.

أطلقت «مايكروسوفت» سياسة جديدة تُلزم فرق التطوير بتضمين تقييمات لمخاطر الاحتيال ضمن مراحل تصميم المنتجات (شاترستوك)

الاحتيال في التجارة الإلكترونية

تشير «مايكروسوفت» إلى تصاعد إنشاء متاجر إلكترونية احتيالية في دقائق معدودة باستخدام أدوات الذكاء الاصطناعي مقارنةً بالأيام أو الأسابيع التي كانت تحتاج إليها سابقاً. تقوم هذه المتاجر بتقليد علامات تجارية معروفة، وإنتاج أوصاف وصور واقعية للمنتجات، وحتى استخدام روبوتات دردشة مدعومة بالذكاء الاصطناعي للتفاعل مع العملاء.

لمواجهة ذلك، عززت «مايكروسوفت» منتجاتها بإجراءات أمنية صارمة. على سبيل المثال، يتضمن «مايكروسوفت إيدج» (Microsoft Edge) الآن ميزة حماية من أخطاء الكتابة في عناوين المواقع، وحظر لانتحال النطاقات، بالإضافة إلى مانع صفحات التحذير الاحتيالية المبني على التعلم الآلي.

«الهندسة الاجتماعية» دون ذكاء اصطناعي

ليس كل أنواع الاحتيال تعتمد على الذكاء الاصطناعي. ففي أبريل 2024، رصدت فرق الأمان في «مايكروسوفت» نشاطاً متزايداً من مجموعة «Storm - 1811»، وهي مجموعة إجرامية مالية استغلت أداة «مايكروسوفت كويك أسست» (Windows Quick Assist). قامت المجموعة بانتحال صفة موظفي الدعم التقني واستخدمت تقنيات «التصيّد الصوتي» (vishing) لخداع الضحايا ومنحهم صلاحية الوصول عن بُعد.

أوضحت «مايكروسوفت» أن «Quick Assist» لم يتعرض للاختراق، وإنما تم استغلال وظيفته المشروعة. استجابت الشركة بإضافة رسائل تحذيرية ضمن الأداة، وتقوم الآن بحظر أكثر من 4400 محاولة اتصال مشبوهة يومياً، أي ما يعادل 5.46 في المائة من إجمالي الجلسات عالمياً.

ولتقليل المخاطر، توصي «مايكروسوفت» باستخدام أداة «ريموت هيلب» (Remote Help) للدعم التقني في المؤسسات، حيث تُستخدم داخلياً ضمن بيئة المؤسسة وتوفر مستوى أمان أعلى.

يُستخدم الذكاء الاصطناعي من قِبل المحتالين لإنشاء مواقع وهمية تقييمات مزيفة مقابلات عمل غير حقيقية ومقاطع فيديو مزيفة (شاترستوك)

تدابير على مستوى المؤسسات

تمتد بنية «مايكروسوفت» لمكافحة الاحتيال لتشمل أدوات متعددة، منها «مايكروسوفت ديفندر فور كلاود» (Microsoft Defender for Cloud) الذي يراقب موارد «أزور» (Azure) ويكشف عن الثغرات والتهديدات. كذلك «مايكروسوفت إيدج» (Microsoft Edge) الذي يحظر المواقع الاحتيالية ويكشف عن محاولات انتحال الهوية. أما البصمة الرقمية «ديجيتال فنغربرينتينغ» (Digital Fingerprinting)، فتستخدم الذكاء الاصطناعي والتعلم الآلي لرصد السلوك الاحتيالي في حين يحلل «مايكروسوفت ديفندر سمارت سكرين» (Microsoft Defender SmartScreen) سلوك المواقع وسمعتها لحظر الروابط الضارة.

من خلال تقنيات الكشف المدعومة بالذكاء الاصطناعي وإشارات الاحتيال اللحظية، تعمل «مايكروسوفت» على إيقاف البنية التحتية الخبيثة بسرعة. كما يتعاون فريق الجرائم الرقمية التابع لها مع سلطات إنفاذ القانون حول العالم لتفكيك الشبكات الإجرامية؛ ما أسفر عن مئات الاعتقالات والإجراءات القانونية.

الاحتيال في الوظائف والعروض المزيفة

يستغل المحتالون الذكاء الاصطناعي لتوليد إعلانات وظائف مزيفة وسير ذاتية ومقابلات عمل وهمية. لمكافحة ذلك؛ تنصح مايكروسوفت بتفعيل المصادقة متعددة العوامل لحسابات أصحاب العمل والتحقق من هوية أصحاب العمل عبر مواقعهم الرسمية. أيضاً توصي بالحذر من العروض التي تتطلب دفعاً أو التي تُرسل من عناوين بريدية غير موثوقة والانتباه لمؤشرات المقابلات المزيفة مثل عدم التزامن بين الصوت والصورة، أو الكلام المتقطع. وتدمج «مايكروسوفت» الوقاية من الاحتيال في عملية تطوير منتجاتها. وبدءاً من يناير (كانون الثاني) 2025، تُلزم مبادرة «Secure Future Initiative» جميع الفرق بتضمين تقييمات لمخاطر الاحتيال ضمن مراحل تصميم المنتجات.

نصائح لحماية المستهلكين

تنصح «مايكروسوفت» المستخدمين باتباع الخطوات التالية لحماية بياناتهم:

- الحذر من العروض العاجلة أو «لفترة محدودة»

- التحقق من عناوين المواقع قبل النقر على الروابط

- تجنب التحويلات البنكية المباشرة أو الدفع بالعملات الرقمية

- التأكد من مصداقية أصحاب العمل وعدم مشاركة معلومات شخصية أو مالية دون تحقق

تتطور مقاربة «مايكروسوفت» لمكافحة الاحتيال بتطور التهديدات. وفي وقت أصبح فيه الذكاء الاصطناعي سلاحاً بيد كل من المهاجمين والمدافعين، تتبنى الشركة موقفاً واضحاً، وهو تطوير منتجات مضادة للاحتيال بطبيعتها، وتزويد المستخدمين بالأدوات والمعرفة التي يحتاجون إليها للبقاء آمنين.


مقالات ذات صلة

بيل غيتس ينسحب من قمة للذكاء الاصطناعي بالهند وسط تدقيق في قضية إبستين

العالم الملياردير الأميركي بيل غيتس (رويترز)

بيل غيتس ينسحب من قمة للذكاء الاصطناعي بالهند وسط تدقيق في قضية إبستين

انسحب الملياردير الأميركي بيل غيتس من قمة «تأثير الذكاء الاصطناعي» في الهند، قبل ساعات من ​إلقاء كلمته بها، اليوم الخميس.

«الشرق الأوسط» (نيودلهي)
الاقتصاد عمال يجلسون أمام لافتة «قمة تأثير الذكاء الاصطناعي» في الهند في بهارات ماندابام في نيودلهي (رويترز)

بمشاركة عمالقة التكنولوجيا... الهند تستضيف قمة دولية للذكاء الاصطناعي

يشارك مسؤولون تنفيذيون من شركات ذكاء اصطناعي عالمية كبرى، وعدد من قادة العالم، في قمة مهمة عن الذكاء الاصطناعي تستضيفها نيودلهي.

«الشرق الأوسط» (نيودلهي )
الاقتصاد من حفل توقيع مذكرة التفاهم التي تهدف لتسريع تطوير المهارات الرقمية والتقنية في السعودية (أرامكو)

تفاهم بين «أرامكو» و«مايكروسوفت» لتطوير الذكاء الاصطناعي في القطاع الصناعي

وقّعت «أرامكو السعودية» مذكرة تفاهم غير ملزمة مع «مايكروسوفت»؛ لمساعدة الأولى على استكشاف مبادرات رقمية مصممة لتسريع تبنّي الذكاء الاصطناعي في القطاع الصناعي.

«الشرق الأوسط» (الظهران)
تكنولوجيا تشغيل منطقة «أزور» في السعودية اعتباراً من الربع الرابع 2026 يمثل انتقالاً من البناء إلى التنفيذ الفعلي (مايكروسوفت)

«مايكروسوفت» تؤكد تشغيل منطقة «أزور» السحابية في السعودية نهاية 2026

مايكروسوفت تؤكد تشغيل منطقة «أزور» بالسعودية نهاية 2026، ما يعزز السيادة الرقمية ويسرّع التحول والابتكار الاقتصادي.

نسيم رمضان (الرياض)
تكنولوجيا شعار «مايكروسوفت» (د.ب.أ)

«مايكروسوفت» تحذر من مخاطر «الذكاء الاصطناعي الخفي»

أصدرت شركة البرمجيات والتكنولوجيا الأميركية (مايكروسوفت) تحذيراً شديد اللهجة بشأن الاستخدام غير المنضبط للبرامج التي تعتمد على الذكاء الاصطناعي.

«الشرق الأوسط» (ميونخ)

لماذا أثار تطبيق صيني للذكاء الاصطناعي ذعراً في هوليوود؟

شعار شركة «بايت دانس» المالكة لتطبيق «تيك توك» وأعلام الصين والولايات المتحدة (رويترز)
شعار شركة «بايت دانس» المالكة لتطبيق «تيك توك» وأعلام الصين والولايات المتحدة (رويترز)
TT

لماذا أثار تطبيق صيني للذكاء الاصطناعي ذعراً في هوليوود؟

شعار شركة «بايت دانس» المالكة لتطبيق «تيك توك» وأعلام الصين والولايات المتحدة (رويترز)
شعار شركة «بايت دانس» المالكة لتطبيق «تيك توك» وأعلام الصين والولايات المتحدة (رويترز)

أحدث نموذج جديد للذكاء الاصطناعي، طوّرته «بايت دانس» الشركة الصينية المطورة لتطبيق «تيك توك»، ضجةً في هوليوود هذا الأسبوع، ليس فقط بسبب قدراته، بل لما قد يُحدثه من تغيير في الصناعات الإبداعية.

ووفقاً لهيئة الإذاعة البريطانية (بي بي سي)، يستطيع تطبيق «سيدانس» إنتاج فيديوهات بجودة سينمائية، مع مؤثرات صوتية وحوارات، بمجرد إدخال بعض النصوص.

وكانت انتشرت على نطاق واسع مقاطع فيديو يُزعم أنها صُنعت باستخدام «سيدانس»، وتضم شخصيات شهيرة مثل «سبايدرمان» و«ديبول».

وسارعت استوديوهات كبرى مثل «ديزني» و«باراماونت» إلى اتهام «بايت دانس» بانتهاك حقوق الملكية الفكرية، لكن المخاوف بشأن هذه التقنية تتجاوز المسائل القانونية.

شعار شركة «بايت دانس» الصينية للتكنولوجيا (رويترز)

ما هو «سيدانس»؟ ولماذا كل هذه الضجة؟

أُطلق «سيدانس» في يونيو (حزيران) 2025 دون ضجة كبيرة، لكن النسخة الثانية التي صدرت بعد ثمانية أشهر هي التي أثارت ضجة كبيرة.

يقول يان ويليم بلوم، من استوديو «فيديو ستيت» الإبداعي: ​​«للمرة الأولى، لا أظن أن هذا يبدو جيداً للذكاء الاصطناعي، بل أظن أنه من عملية إنتاج حقيقية».

ويضيف أن نماذج الفيديو الغربية التي تعتمد على الذكاء الاصطناعي قد أحرزت تقدماً في معالجة تعليمات المستخدم لإنتاج صور مذهلة، لكن يبدو أن «سيدانس» قد جمع كل شيء معاً.

ومثل أدوات الذكاء الاصطناعي الأخرى يستطيع «سيدانس» إنشاء مقاطع فيديو من نصوص قصيرة، وفي بعض الحالات يبدو أن مجرد إدخال نص واحد ينتج مقاطع فيديو عالية الجودة.

وتقول مارغريت ميتشل، الباحثة في أخلاقيات الذكاء الاصطناعي، إن الأمر مثير للإعجاب بشكل خاص؛ لأنه يجمع بين النص والصورة والصوت في نظام واحد.

ويُقاس تأثير «سيدانس» بمعيار غير متوقع: مدى جودة إنتاجه لمقطع فيديو لويل سميث وهو يأكل معكرونة، حيث لا يقتصر دور «سيدانس» على ابتكار نسخة واقعية بشكل مذهل للنجم وهو يتناول طبقاً من المعكرونة، بل أنتج أيضاً مقاطع فيديو انتشرت كالنار في الهشيم لسميث وهو يقاتل وحشاً من المعكرونة، ويبدو كل ذلك وكأنه فيلم ضخم الإنتاج.

ويعتقد العديد من خبراء الصناعة وصنّاع الأفلام أن «سيدانس» يمثل فصلاً جديداً في تطوير تقنية توليد الفيديو.

ويقول ديفيد كوك، مدير استوديو للرسوم المتحركة في سنغافورة، إن مشاهد الحركة المعقدة التي ينتجها تبدو أكثر واقعية من منافسيه، ويضيف: «يكاد المرء يشعر وكأنه يستعين بمدير تصوير أو مصور سينمائي متخصص في أفلام الحركة».

الوعد والتحدي

واجه «سيدانس» مشاكل تتعلق بحقوق النشر، وهو تحدٍّ متزايد في عصر الذكاء الاصطناعي، ويحذر الخبراء من أن شركات الذكاء الاصطناعي تُعطي الأولوية للتكنولوجيا على حساب البشر؛ إذ تُطوّر أدوات أكثر قوة وتستخدم البيانات دون مقابل.

واشتكت كبرى شركات هوليوود من استخدام شركة «سيدانس» شخصيات محمية بحقوق الطبع والنشر مثل «سبايدرمان» و«دارث فيدر».

وأصدرت «ديزني» و«باراماونت» خطابات إنذار تطالب «سيدانس» بالتوقف عن استخدام محتواهما، كما تُجري اليابان تحقيقاً مع «بايت دانس» بتهمة انتهاكات حقوق الطبع والنشر، بعد انتشار مقاطع فيديو بتقنية الذكاء الاصطناعي لشخصيات «أنمي» شهيرة.

وقالت «بايت دانس» إنها تتخذ خطوات لـ«تعزيز الضمانات الحالية».

ولفتت «بي بي سي» إلى أن هذا ليس حكراً على الشركة الصينية. ففي عام 2023، رفعت صحيفة «نيويورك تايمز» دعوى قضائية ضد شركتَي «أوبن إيه آي» و«مايكروسوفت»، مدعيةً أنهما استخدمتا مقالاتها دون إذن لتدريب نماذج الذكاء الاصطناعي الخاصة بهما. كما رفعت «ريديت» دعوى قضائية ضد شركة «بيربلكسيتي» العام الماضي، مدعيةً أن شركة الذكاء الاصطناعي قامت بجمع منشورات المستخدمين بشكل غير قانوني. وأثارت «ديزني» مخاوف مماثلة مع «غوغل».

وتقول ميتشل إنّ وضع علامات واضحة على المحتوى لمنع التضليل وبناء ثقة الجمهور في الذكاء الاصطناعي أهم بكثير من مقاطع الفيديو «الأكثر جاذبية».

وتضيف أنّه لهذا السبب يجب على المطورين بناء أنظمة لإدارة التراخيص والمدفوعات، وتوفير آليات واضحة للأفراد للاعتراض على إساءة الاستخدام. فعلى سبيل المثال، وقّعت «ديزني» صفقة بقيمة مليار دولار (730 مليون جنيه إسترليني) مع برنامج «سورا» من «أوبن إيه آي» ليتمكن من استخدام شخصيات من أفلامها.

ويقول شانان كوهني، الباحث في مجال الحوسبة بجامعة ملبورن، إنّ مطوري «سيدانس» كانوا على الأرجح على دراية بمشاكل حقوق النشر المحتملة المتعلقة باستخدام الملكية الفكرية الغربية، ومع ذلك خاطروا.

ويضيف: «هناك مجال واسع لتجاوز القواعد استراتيجياً، وتجاهلها لفترة من الوقت، واكتساب نفوذ تسويقي».

وفي الوقت نفسه، بالنسبة للشركات الصغيرة، يُعدّ «سيدانس» أداة بالغة الأهمية لا يمكن تجاهلها.

«بايت دانس»... الشركة الأم لـ«تيك توك» (أ.ف.ب)

ويقول كوك إن الذكاء الاصطناعي بهذه الجودة سيمكّن شركات مثل شركته من إنتاج أفلام كانت تكلفتها تفوق بكثير إمكاناتها الحالية.

وأعطى مثالاً بازدهار مقاطع الفيديو القصيرة والمسلسلات الدرامية القصيرة في آسيا، والتي تُنتج عادةً بميزانيات متواضعة - نحو 140 ألف دولار أميركي لما يصل إلى 80 حلقة، لا تتجاوز مدة كل منها دقيقتين.

وقد اقتصرت هذه الإنتاجات على الأعمال الرومانسية أو الدراما العائلية لخفض التكاليف؛ نظراً لقلة حاجتها إلى المؤثرات البصرية، لكن الذكاء الاصطناعي الآن قادر على «الارتقاء بالإنتاجات منخفضة الميزانية إلى أنواع أكثر طموحاً مثل الخيال العلمي، والدراما التاريخية، والآن الحركة».


البيت الأبيض: أميركا ترفض «بشكل قاطع» حوكمة الذكاء الاصطناعي

مدير مكتب سياسات العلوم والتكنولوجيا بالبيت الأبيض مايكل كراتسيوس يحضر جلسة خلال قمة «تأثير الذكاء الاصطناعي» في نيودلهي يوم 20 فبراير 2026 (إ.ب.أ)
مدير مكتب سياسات العلوم والتكنولوجيا بالبيت الأبيض مايكل كراتسيوس يحضر جلسة خلال قمة «تأثير الذكاء الاصطناعي» في نيودلهي يوم 20 فبراير 2026 (إ.ب.أ)
TT

البيت الأبيض: أميركا ترفض «بشكل قاطع» حوكمة الذكاء الاصطناعي

مدير مكتب سياسات العلوم والتكنولوجيا بالبيت الأبيض مايكل كراتسيوس يحضر جلسة خلال قمة «تأثير الذكاء الاصطناعي» في نيودلهي يوم 20 فبراير 2026 (إ.ب.أ)
مدير مكتب سياسات العلوم والتكنولوجيا بالبيت الأبيض مايكل كراتسيوس يحضر جلسة خلال قمة «تأثير الذكاء الاصطناعي» في نيودلهي يوم 20 فبراير 2026 (إ.ب.أ)

صرَّح مستشار البيت الأبيض لشؤون التكنولوجيا مايكل كراتسيوس، الجمعة، بأن الولايات المتحدة ترفض «رفضاً قاطعاً» الحوكمة العالمية للذكاء الاصطناعي.

وجاءت تصريحات كراتسيوس، رئيس وفد بلاده إلى «مؤتمر الذكاء الاصطناعي» في نيودلهي، قبل بيان مرتقب للقادة يحدِّد رؤيةً مشتركةً لكيفية التعامل مع هذه التقنية المثيرة للجدل.

وقال في القمة التي تختتم أعمالها الجمعة: «كما صرَّحت إدارة (الرئيس الأميركي دونالد) ترمب مراراً: نرفض رفضاً قاطعاً الحوكمة العالمية للذكاء الاصطناعي».

وأضاف: «لا يمكن لاعتماد الذكاء الاصطناعي أن يُفضي إلى مستقبل أفضل إذا كان خاضعاً للبيروقراطية والسيطرة المركزية»، وفق ما نقلته «وكالة الصحافة الفرنسية».

وكان الأمين العام للأمم المتحدة أنطونيو غوتيريش قد صرَّح، صباح الجمعة، بأن لجنة خبراء جديدة شكَّلتها المنظمة الدولية تسعى إلى «جعل التحكم البشري واقعاً تقنياً».

وأعلن غوتيريش تشكيل المجموعة الاستشارية في أغسطس (آب)، والتي تسعى إلى أن تكون على غرار الهيئة الحكومية الدولية المعنية بتغيّر المناخ في مجال الاحتباس الحراري، وقد تمّ تأكيد أعضائها الأربعين.

و«مؤتمر الذكاء الاصطناعي» رابع تجمع دولي سنوي يُركّز على المخاطر والفرص التي تُتيحها قوة الحوسبة المتقدمة.

سوندار بيتشاي الرئيس التنفيذي لشركة «غوغل» يتحدث خلال قمة «تأثير الذكاء الاصطناعي» في نيودلهي يوم 20 فبراير 2026 (أ.ب)

وفي النسخة التي عُقدت العام الماضي في باريس، حذَّر نائب الرئيس الأميركي، جي دي فانس، من «الإفراط في التنظيم» الذي «قد يقضي على قطاع قادر على إحداث تحوّل».

وفي نيودلهي، قال كراتسيوس: «إن النقاش الدولي حول الذكاء الاصطناعي قد تطوّر، كما تؤكده هذه القمة نفسها»، مُشيراً إلى تغيير اسم الاجتماع من «أمان الذكاء الاصطناعي» (AI Safety) إلى «تأثير الذكاء الاصطناعي» (AI Impact).

وأضاف: «هذا تطور إيجابي دون شك... لكن كثيراً من المنتديات الدولية، مثل الحوار العالمي للأمم المتحدة حول حوكمة الذكاء الاصطناعي، لا تزال تتسم بأجواء من الخوف».

وأضاف كراتسيوس: «علينا أن نستبدل الأمل بهذا الخوف»، مؤكداً أن الذكاء الاصطناعي قادر على «الارتقاء بمستوى معيشة البشرية وتحقيق ازدهار غير مسبوق».

ورأى أن «الهوس الآيديولوجي وتركيز الاهتمام على المخاطر، مثل قضايا المناخ أو العدالة، يتحوَّل إلى مُبرِّر للبيروقراطية وزيادة المركزية».

وتابع: «باسم الأمن، تزيد هذه الهواجس من خطر استخدام هذه الأدوات لأغراض استبدادية».

وقال كراتسيوس: «إن تركيز سياسة الذكاء الاصطناعي على الأمن والمخاطر التخمينية... يُعيق بيئة تنافسية، ويُرسخ هيمنة الشركات القائمة، ويعزل الدول النامية عن المشارَكة الكاملة في اقتصاد الذكاء الاصطناعي».


غوتيريش: لجنة أممية تسعى لضمان «تحكم بشري» في الذكاء الاصطناعي

الأمين العام للأمم المتحدة أنطونيو غوتيريش يلقي خطاباً خلال قمة تأثير الذكاء الاصطناعي في نيودلهي بالهند يوم 19 فبراير 2026 (أ.ف.ب)
الأمين العام للأمم المتحدة أنطونيو غوتيريش يلقي خطاباً خلال قمة تأثير الذكاء الاصطناعي في نيودلهي بالهند يوم 19 فبراير 2026 (أ.ف.ب)
TT

غوتيريش: لجنة أممية تسعى لضمان «تحكم بشري» في الذكاء الاصطناعي

الأمين العام للأمم المتحدة أنطونيو غوتيريش يلقي خطاباً خلال قمة تأثير الذكاء الاصطناعي في نيودلهي بالهند يوم 19 فبراير 2026 (أ.ف.ب)
الأمين العام للأمم المتحدة أنطونيو غوتيريش يلقي خطاباً خلال قمة تأثير الذكاء الاصطناعي في نيودلهي بالهند يوم 19 فبراير 2026 (أ.ف.ب)

دعا الأمين العام للأمم المتحدة أنطونيو غوتيريش، الجمعة، إلى «تقليل التهويل والخوف» بشأن الذكاء الاصطناعي، مشيراً إلى تشكيل لجنة خبراء دولية جديدة تسعى إلى «جعل التحكم البشري واقعاً تقنياً».

وأوضح غوتيريش أن الجمعية العامة للأمم المتحدة صادقت على تعيين 40 عضواً في هذه المجموعة، التي أُطلق عليها «الفريق العلمي الدولي المستقل المعني بالذكاء الاصطناعي».

وقال خلال القمة حول الذكاء الاصطناعي في نيودلهي إن «الحوكمة القائمة على العلم لا تُعوق التقدم»، بل يمكن أن تجعله «أكثر أماناً وعدلاً وانتشاراً».

وأضاف: «الرسالة واضحة: تقليل التهويل والخوف، وزيادة الحقائق والأدلة»، وفق ما نقلته «وكالة الصحافة الفرنسية».

أُنشئت هذه الهيئة الاستشارية في أغسطس (آب) الماضي، وهي تسعى لأن تكون مرجعاً في مجال الذكاء الاصطناعي، على غرار الهيئة الحكومية الدولية المعنية بتغير المناخ في مجال الاحتباس الحراري.

ومن المتوقع أن تنشر تقريرها الأول بالتزامن مع انعقاد الحوار العالمي للأمم المتحدة حول حوكمة الذكاء الاصطناعي في يوليو (تموز).

وتهدف الهيئة إلى مساعدة الحكومات في وضع قواعد للذكاء الاصطناعي، في ظل ما تُثيره هذه التقنية السريعة التطور من مخاوف عالمية بشأن فقدان وظائف والمعلومات المضللة والإساءة عبر الإنترنت، وغيرها من المشكلات.

وقال غوتيريش إن «ابتكارات الذكاء الاصطناعي تتطور بسرعة فائقة، تتجاوز قدرتنا الجماعية على فهمها بشكل كامل، فضلاً عن إدارتها». وأضاف: «إننا نندفع نحو المجهول». وتابع: «عندما نفهم ما تستطيع الأنظمة فعله وما لا تستطيع، سنتمكن من الانتقال من التدابير التقريبية إلى ضوابط أكثر ذكاءً قائمة على تقييم المخاطر».

وقدّم غوتيريش هذا الشهر قائمة بأسماء خبراء اقترحهم للانضمام إلى لجنة الأمم المتحدة المعنية بالذكاء الاصطناعي، ومن بينهم الصحافية الحائزة جائزة «نوبل للسلام» ماريا ريسا من الفلبين، والرائد في مجال الذكاء الاصطناعي الكندي يوشوا بنغيو.

وقال: «هدفنا جعل التحكم البشري حقيقة تقنية، لا مجرد شعار». وأكد أن ذلك «يتطلب مساءلة واضحة، بحيث لا يُعهد بالمسؤولية أبداً إلى خوارزمية».

ومن المتوقع أن يُصدر العشرات من قادة العالم والوزراء في وقت لاحق الجمعة بياناً يحدد ملامح التعامل العالمي مع الذكاء الاصطناعي، وذلك في ختام قمة استمرت خمسة أيام، وتركزت أعمالها على هذه التكنولوجيا.