مكالمات الاحتيال بالذكاء الاصطناعي… تزداد ذكاءً

شركات الاتصالات تطور الخطط للتصدي لها

مكالمات الاحتيال بالذكاء الاصطناعي… تزداد ذكاءً
TT

مكالمات الاحتيال بالذكاء الاصطناعي… تزداد ذكاءً

مكالمات الاحتيال بالذكاء الاصطناعي… تزداد ذكاءً

تُحدث مكالمات الاحتيال ضجةً عالمية. ويُقدّر التحالف العالمي لمكافحة الاحتيال The Global Anti - Scam Alliance أن المحتالين سرقوا مبلغاً هائلاً قدره 1.03 تريليون دولار أميركي عالمياً في عام 2023، بما في ذلك خسائر ناجمة عن الاحتيال عبر الإنترنت، ومكالمات الاحتيال، كما كتب كولاولي صموئيل أديبايو(*).

الذكاء الاصطناعي والاحتيال

لطالما كانت المكالمات الآلية، والاحتيال عبر الهاتف مشكلةً تثير إحباطاً -وغالباً ما تكون خطيرة– للمستخدمين. والآن، يُفاقم الذكاء الاصطناعي من هذا التهديد، ما يجعل عمليات الاحتيال أكثر خداعاً، وفعاليةً، وصعوبةً في الكشف.

إنتاج محتوى مزيّف ومتنوع

يعتقد إريك بريزكالنز، المحلل والمحرر في «كومسيرك»، أن تأثير الذكاء الاصطناعي على مكالمات الاحتيال مبالغ فيه حالياً، إلا أنه يُشير إلى أن استخدام المحتالين للذكاء الاصطناعي يُركز على إنتاج محتوى مُزيف يبدو حقيقياً، أو على تنويع محتوى الرسائل المُصممة لجذب الضحايا المُحتملين إلى محادثات خبيثة. ويُصرح لصحيفة «فاست كومباني»: «إن تنويع المحتوى يُصعّب تحديد عمليات الاحتيال، وحظرها، باستخدام أدوات مكافحة الاحتيال التقليدية».

أصوات أحبائكم مزيفة

من الأصوات المُزيفة المُولّدة بالذكاء الاصطناعي التي تُحاكي أصوات الأحباء، إلى عمليات الاحتيال واسعة النطاق التي تستخدم التعلم الآلي لتجنب الكشف، يستغل المُجرمون الذكاء الاصطناعي لزيادة فعالية مكالمات الاحتيال هذه. السؤال الأهم هو: كيف يُمكن لقطاع الاتصالات مُكافحة هذه المُشكلة مُباشرةً قبل أن يُسبب المحتالون المزيد من الفوضى؟

وحتى وقت قريب، اعتمدت عمليات الاحتيال الهاتفي في الغالب على المكالمات الآلية المُبسطة -وهي رسائل مُسجلة مُسبقاً تُحذر المُتسلمين من مُشكلة مالية مُلحة، أو مُشكلة مُفترضة في رقم الضمان الاجتماعي الخاص بهم. وهذه الأساليب، رغم استمرارها، يمكن التعرف غالباً بسهولة عليها. لكن عمليات الاحتيال المدعومة بالذكاء الاصطناعي اليوم أكثر إقناعاً بكثير.

احتيال مرعب بـ«استنساخ الصوت»

من أكثر التطورات إثارة للقلق استخدام الأصوات المُولّدة بالذكاء الاصطناعي، ما يجعل عمليات الاحتيال تبدو شخصية بشكل مُقلق. في حالة مُرعبة وقعت في أبريل (نيسان) 2023، تلقت أم في أريزونا مكالمة يائسة من شخص بدا تماماً مثل ابنتها، تبكي وتتوسل طلباً للمساعدة. وطالبها محتال، مُتظاهراً بأنه خاطف، بفدية. في الواقع، كانت الابنة في أمان -فقد استخدم المجرمون الذكاء الاصطناعي لاستنساخ صوتها من فيديو على وسائل التواصل الاجتماعي.

وازدادت عمليات الاحتيال هذه، المعروفة باسم «احتيال استنساخ الصوت»، في الأشهر الأخيرة. فببضع ثوانٍ فقط من الصوت، يُمكن لأدوات الذكاء الاصطناعي الآن إنشاء نسخة رقمية واقعية بشكل مُخيف من صوت الشخص، ما يُمكّن المحتالين من انتحال شخصيات الأصدقاء، أو أفراد العائلة، أو حتى المديرين التنفيذيين في عمليات احتيال الشركات.

صياغة مكالمات موجهة شخصياً

يستخدم المحتالون أيضاً الذكاء الاصطناعي لتحليل كميات هائلة من البيانات، وضبط مخططاتهم بدقة مُرعبة. تستطيع خوارزميات التعلم الآلي غربلة المعلومات العامة -مثل منشورات مواقع التواصل الاجتماعي، والمنتديات الإلكترونية، واختراقات البيانات- لصياغة مكالمات احتيالية مُخصصة للغاية. فبدلاً من خدعة عامة من مصلحة الضرائب، أو الدعم الفني، يمكن للمحتالين الآن استهداف الضحايا بتفاصيل محددة حول مشترياتهم، أو تاريخ سفرهم، أو حتى حالاتهم الطبية.

كما يُعزز الذكاء الاصطناعي عمليات انتحال هوية المتصل، ما يسمح للمحتالين بالتلاعب بأرقام الهواتف لتبدو كأنها صادرة من شركات محلية، أو وكالات حكومية، أو حتى جهات اتصال الضحية. وهذا يزيد من احتمالية رد الناس على المكالمات، ما يجعل تجاهل مكالمات الاحتيال أكثر صعوبة.

الهجوم المضاد لشركات الاتصالات

الذكاء الاصطناعي في مواجهة الذكاء الاصطناعي، هذه هي خلاصة عملية التصدي للاحتيال الإلكتروني. إذ مع صقل المحتالين لأدوات الذكاء الاصطناعي، تُكافح شركات الاتصالات والهيئات التنظيمية باستخدام الذكاء الاصطناعي الخاص بها -من خلال نشر أنظمة متطورة للكشف عن المكالمات الخبيثة، وتتبعها، وحظرها قبل وصولها إلى المستهلكين.

1.التعرف على صدقية المكالمات وكشف الاحتيال باستخدام الذكاء الاصطناعي. لمكافحة انتحال الهوية، تستفيد شركات الاتصالات من تقنيات تحليل الصوت، والمصادقة المدعومة بالذكاء الاصطناعي. وفي الولايات المتحدة، يستخدم إطار عمل STIR/SHAKEN التوقيعات المشفرة للتحقق من أن المكالمات صادرة من مصادر شرعية. ولكن مع تكيف المحتالين السريع، أصبح كشف الاحتيال المدعوم بالذكاء الاصطناعي ضرورياً.

يمكن لنماذج التعلم الآلي المُدربة على مليارات أنماط المكالمات تحليل البيانات الوصفية في الوقت الفعلي للكشف عن أي شذوذ -مثل الارتفاع المفاجئ في المكالمات من مناطق محددة، أو أرقام مرتبطة بعمليات احتيال معروفة. وتستطيع أنظمة الذكاء الاصطناعي هذه حتى اكتشاف العلامات الصوتية الدقيقة النموذجية للأصوات المُولّدة بتقنية التزييف العميق، ما يُساعد على إيقاف المكالمات الاحتيالية قبل اتصالها.

2.تصفية وترشيح وحظر المكالمات على مستوى شركة الاتصالات. يُدمج كبار مُزودي خدمات الاتصالات تصفية المكالمات المدعومة بالذكاء الاصطناعي مباشرةً في شبكاتهم. مثلاً تستخدم كلٌّ من خدمة Call Protect من شركة «أيه تي أند تي»، وخدمة Scam Shield من شركة «تي - موبايل»، وخدمة Call Filter من «فيريزون» الذكاء الاصطناعي لاكتشاف الأنماط المشبوهة، وحظر المكالمات عالية الخطورة قبل وصولها إلى المستخدمين. كما توفر مرشحات تابعة لشبكة GSMA حماية فورية للمكالمات من خلال التحقق من شرعيتها ومكافحة انتحال هوية خط الاتصال.

1000 خاصية صوتية فريدة للتحقق من الهوية

3. القياسات الحيوية الصوتية المدعومة بالذكاء الاصطناعي للتحقق من هوية المتصل. تُعدّ القياسات الحيوية (البيولوجية) الصوتية خط دفاع واعداً آخر ضد الاحتيال الناتج عن الذكاء الاصطناعي. وتنشر بعض المؤسسات المالية ومقدمو خدمات الاتصالات أنظمة مصادقة صوتية تُحلل أكثر من 1000 خاصية صوتية فريدة للتحقق من هوية المتصل.

وبخلاف تقنية التعرف على الصوت الأساسية، يمكن لهذه الأنظمة المتقدمة اكتشاف وقت استخدام صوت مُولّد بالذكاء الاصطناعي، مما يمنع المحتالين بفعالية من انتحال هوية العملاء الشرعيين.

حملة قانونية صارمة

تشن الهيئات التنظيمية حملة صارمة، ولكن هل هذا كافٍ؟ إن تشديد اللوائح، وتشديد العقوبات أمرٌ واحد، وهو أمرٌ تقوم به بالفعل العديد من الوكالات الحكومية حول العالم، لكن تطبيق هذه اللوائح بفعالية أمرٌ مختلفٌ تماماً. ففي الولايات المتحدة، على سبيل المثال، شددت لجنة الاتصالات الفيدرالية (FCC) العقوبات على المكالمات الآلية غير القانونية، وتحث شركات الاتصالات على اعتماد دفاعات أكثر صرامةً مدعومة بالذكاء الاصطناعي. يمنح قانون TRACED (قانون إنفاذ وردع إساءة استخدام المكالمات الآلية الهاتفية)، الذي تم توقيعه على أنه قانون في عام 2019، الجهات التنظيمية مزيداً من الصلاحيات لتغريم المحتالين، ويفرض تدابير أقوى لمكافحة الانتحال. وعلى الصعيد الدولي، تعمل الجهات التنظيمية في المملكة المتحدة وكندا وأستراليا على أطر عمل مماثلة تعتمد على الذكاء الاصطناعي لحماية المستهلكين من الاحتيال المتزايد. وقد أصدر الاتحاد الأوروبي قوانين أكثر صرامة بشأن خصوصية البيانات، ما يحد من كيفية استخدام الذكاء الاصطناعي لجمع البيانات الشخصية لعمليات الاحتيال.

ومع ذلك، فإن جهات إنفاذ القانون تكافح لمواكبة سرعة ابتكار الذكاء الاصطناعي. ويعمل المحتالون على مستوى العالم، وغالباً ما يكونون خارج نطاق اختصاص أي جهة تنظيمية واحدة. تتمركز العديد من شبكات الاحتيال في بلدان يصعب فيها اتخاذ إجراءات قانونية، إن لم يكن شبه مستحيل.

لنأخذ، على سبيل المثال، دولاً مثل ميانمار، وكمبوديا، ولاوس، حيث أنشأت جماعات الجريمة المنظمة مراكز احتيال إلكتروني تستخدم تقنيات التزييف العميق المدعومة بالذكاء الاصطناعي لخداع الضحايا حول العالم. وكثيراً ما ينقل مشغلو هذه المراكز مواقعهم، أو يغيرون أساليبهم للبقاء في صدارة جهات إنفاذ القانون. كما أنهم يعملون في مناطق تواجه تحديات قضائية معقدة، ما يزيد من تعقيد عملية إنفاذ القانون.

عوائق تنظيمية

يزدهر المحتالون في ظل التشتت، واستغلال نقاط الضعف، سواءً كان ذلك نقصاً في التنسيق بين القطاعات، أو اختلافاً في النهج التنظيمية عبر الحدود. تُبرز هذه العوائق التنظيمية ضرورة قيام مزودي خدمات الاتصالات بدور أكثر استباقية في مكافحة الاحتيال المدعوم بالذكاء الاصطناعي، بدلاً من الاعتماد فقط على الأطر التقليدية التي -رغم فائدتها- ليست دائماً فعالة. وهنا يأتي دور تقنية GSMA Call Check، التي طورتها شركة «أوكيلوس» Oculeus الألمانية لحلول الاتصالات، في تحقيق هدفها الحيوي. تُوفر خدمات التحقق من المكالمات من GSMA آلية بسيطة، وسريعة، ومنخفضة التكلفة لتبادل المعلومات حول مكالمات الهاتف الاحتيالية فور حدوثها. يقول بريزكالنز من «كوميرسك» إن «هذه التقنية مُتجذرة في السحابة، ما يجعلها مُستقبلية، وعالمية بطريقة لن تكون عليها أبداً الطرق الأخرى التي تُفكر فيها بعض الدول».

معركة طويلة

لا شك أن المعركة ضد عمليات الاحتيال المُدعمة بالذكاء الاصطناعي لم تنتهِ بعد. وكما أشارت جيسيكا روزينورسيل، رئيسة لجنة الاتصالات الفيدرالية (FCC) السابقة، العام الماضي: «نعلم أن تقنيات الذكاء الاصطناعي ستجعل من السهل والرخيص إغراق شبكاتنا بمقاطع فيديو مُزيفة تُستخدم للتضليل، وزعزعة الثقة».

الخبر السار هو أن قطاع الاتصالات لا يتراجع، فبينما يستخدم المحتالون الذكاء الاصطناعي لخداع الأفراد غير المُنتبهين، فإن القطاع يستفيد أيضاً من الذكاء الاصطناعي لحماية العملاء وبياناتهم الحساسة، من خلال فحص المكالمات الآلي، والكشف الفوري عن الاحتيال، وإجراءات المصادقة المُحسّنة.

أمر واحد مؤكد: المحتالون وعمليات الاحتيال لن تختفي في أي وقت قريب. وكما يشير بريزكالنز، سيستمر الناس في الوقوع ضحية عمليات الاحتيال حتى مع التدريب المكثف على التوعية العامة. ولكن مع استمرار تطور الذكاء الاصطناعي، يجب على قطاع الاتصالات أن يكون متقدماً بخطوة، لضمان أن يصبح قوة للحماية، لا للخداع.

* مجلة «فاست كومباني» خدمات «تريبيون ميديا»


مقالات ذات صلة

ألمانيا تدعو إلى حلول طويلة الأجل لمواجهة استهلاك الذكاء الاصطناعي للطاقة

الاقتصاد التوسع السريع في مراكز البيانات الكبيرة في إطار طفرة الذكاء الاصطناعي سيؤدي إلى زيادة كبيرة في الطلب على الكهرباء (إكس)

ألمانيا تدعو إلى حلول طويلة الأجل لمواجهة استهلاك الذكاء الاصطناعي للطاقة

أعرب وزير الرقمنة الألماني عن اعتقاده أن الطلب المتزايد على الكهرباء المدفوع بالذكاء الاصطناعي يمكن تلبيته في السنوات المقبلة عبر إمدادات الطاقة القائمة.

«الشرق الأوسط» (نيودلهي)
الاقتصاد خلال توقيع إعلان باكس سيليكا بين الولايات المتحدة والهند (إ.ب.أ)

نداء عالمي لذكاء اصطناعي «آمن وموثوق وقوي»

أسدل الستار على «قمة الهند لتأثير الذكاء الاصطناعي» بصدور وثيقة تاريخية حظيت بدعم 86 دولة ومنظمتين دوليتين.

«الشرق الأوسط» (نيودلهي)
الاقتصاد شعارا «ديب سيك» و«علي بابا» (رويترز)

واشنطن تستنهض إرث كينيدي لمحاصرة التمدد الرقمي الصيني

أعلنت إدارة الرئيس الأميركي دونالد ترمب إطلاق مبادرة «فيلق التكنولوجيا» (Tech Corps)، وهي نسخة مطورة من «فيلق السلام» التاريخي.

«الشرق الأوسط» (واشنطن)
تكنولوجيا شعار شركة «بايت دانس» المالكة لتطبيق «تيك توك» وأعلام الصين والولايات المتحدة (رويترز)

لماذا أثار تطبيق صيني للذكاء الاصطناعي ذعراً في هوليوود؟

أحدث نموذج جديد للذكاء الاصطناعي، طوّرته «بايت دانس» الشركة الصينية المطورة لتطبيق «تيك توك»، ضجةً في هوليوود هذا الأسبوع.

«الشرق الأوسط» (لندن)
الاقتصاد رئيس الوزراء الهندي ناريدرا مودي والرئيس البرازيلي لولا دا سيلفا يتوسطان رؤساء الحكومات والوزراء والمسؤولين في صورة على هامش «قمة نيودلهي» للذكاء الاصطناعي (د.ب.أ)

لجنة خبراء أممية لضمان تحكم البشر في الذكاء الاصطناعي

أعلن الأمين العام للأمم المتحدة، الجمعة، أن لجنة الخبراء التي تُشرف عليها الأمم المتحدة والمعنية بالذكاء الاصطناعي ستعمل على تحقيق «حوكمة قائمة على العلم».

«الشرق الأوسط» (نيودلهي)

لماذا أثار تطبيق صيني للذكاء الاصطناعي ذعراً في هوليوود؟

شعار شركة «بايت دانس» المالكة لتطبيق «تيك توك» وأعلام الصين والولايات المتحدة (رويترز)
شعار شركة «بايت دانس» المالكة لتطبيق «تيك توك» وأعلام الصين والولايات المتحدة (رويترز)
TT

لماذا أثار تطبيق صيني للذكاء الاصطناعي ذعراً في هوليوود؟

شعار شركة «بايت دانس» المالكة لتطبيق «تيك توك» وأعلام الصين والولايات المتحدة (رويترز)
شعار شركة «بايت دانس» المالكة لتطبيق «تيك توك» وأعلام الصين والولايات المتحدة (رويترز)

أحدث نموذج جديد للذكاء الاصطناعي، طوّرته «بايت دانس» الشركة الصينية المطورة لتطبيق «تيك توك»، ضجةً في هوليوود هذا الأسبوع، ليس فقط بسبب قدراته، بل لما قد يُحدثه من تغيير في الصناعات الإبداعية.

ووفقاً لهيئة الإذاعة البريطانية (بي بي سي)، يستطيع تطبيق «سيدانس» إنتاج فيديوهات بجودة سينمائية، مع مؤثرات صوتية وحوارات، بمجرد إدخال بعض النصوص.

وكانت انتشرت على نطاق واسع مقاطع فيديو يُزعم أنها صُنعت باستخدام «سيدانس»، وتضم شخصيات شهيرة مثل «سبايدرمان» و«ديبول».

وسارعت استوديوهات كبرى مثل «ديزني» و«باراماونت» إلى اتهام «بايت دانس» بانتهاك حقوق الملكية الفكرية، لكن المخاوف بشأن هذه التقنية تتجاوز المسائل القانونية.

شعار شركة «بايت دانس» الصينية للتكنولوجيا (رويترز)

ما هو «سيدانس»؟ ولماذا كل هذه الضجة؟

أُطلق «سيدانس» في يونيو (حزيران) 2025 دون ضجة كبيرة، لكن النسخة الثانية التي صدرت بعد ثمانية أشهر هي التي أثارت ضجة كبيرة.

يقول يان ويليم بلوم، من استوديو «فيديو ستيت» الإبداعي: ​​«للمرة الأولى، لا أظن أن هذا يبدو جيداً للذكاء الاصطناعي، بل أظن أنه من عملية إنتاج حقيقية».

ويضيف أن نماذج الفيديو الغربية التي تعتمد على الذكاء الاصطناعي قد أحرزت تقدماً في معالجة تعليمات المستخدم لإنتاج صور مذهلة، لكن يبدو أن «سيدانس» قد جمع كل شيء معاً.

ومثل أدوات الذكاء الاصطناعي الأخرى يستطيع «سيدانس» إنشاء مقاطع فيديو من نصوص قصيرة، وفي بعض الحالات يبدو أن مجرد إدخال نص واحد ينتج مقاطع فيديو عالية الجودة.

وتقول مارغريت ميتشل، الباحثة في أخلاقيات الذكاء الاصطناعي، إن الأمر مثير للإعجاب بشكل خاص؛ لأنه يجمع بين النص والصورة والصوت في نظام واحد.

ويُقاس تأثير «سيدانس» بمعيار غير متوقع: مدى جودة إنتاجه لمقطع فيديو لويل سميث وهو يأكل معكرونة، حيث لا يقتصر دور «سيدانس» على ابتكار نسخة واقعية بشكل مذهل للنجم وهو يتناول طبقاً من المعكرونة، بل أنتج أيضاً مقاطع فيديو انتشرت كالنار في الهشيم لسميث وهو يقاتل وحشاً من المعكرونة، ويبدو كل ذلك وكأنه فيلم ضخم الإنتاج.

ويعتقد العديد من خبراء الصناعة وصنّاع الأفلام أن «سيدانس» يمثل فصلاً جديداً في تطوير تقنية توليد الفيديو.

ويقول ديفيد كوك، مدير استوديو للرسوم المتحركة في سنغافورة، إن مشاهد الحركة المعقدة التي ينتجها تبدو أكثر واقعية من منافسيه، ويضيف: «يكاد المرء يشعر وكأنه يستعين بمدير تصوير أو مصور سينمائي متخصص في أفلام الحركة».

الوعد والتحدي

واجه «سيدانس» مشاكل تتعلق بحقوق النشر، وهو تحدٍّ متزايد في عصر الذكاء الاصطناعي، ويحذر الخبراء من أن شركات الذكاء الاصطناعي تُعطي الأولوية للتكنولوجيا على حساب البشر؛ إذ تُطوّر أدوات أكثر قوة وتستخدم البيانات دون مقابل.

واشتكت كبرى شركات هوليوود من استخدام شركة «سيدانس» شخصيات محمية بحقوق الطبع والنشر مثل «سبايدرمان» و«دارث فيدر».

وأصدرت «ديزني» و«باراماونت» خطابات إنذار تطالب «سيدانس» بالتوقف عن استخدام محتواهما، كما تُجري اليابان تحقيقاً مع «بايت دانس» بتهمة انتهاكات حقوق الطبع والنشر، بعد انتشار مقاطع فيديو بتقنية الذكاء الاصطناعي لشخصيات «أنمي» شهيرة.

وقالت «بايت دانس» إنها تتخذ خطوات لـ«تعزيز الضمانات الحالية».

ولفتت «بي بي سي» إلى أن هذا ليس حكراً على الشركة الصينية. ففي عام 2023، رفعت صحيفة «نيويورك تايمز» دعوى قضائية ضد شركتَي «أوبن إيه آي» و«مايكروسوفت»، مدعيةً أنهما استخدمتا مقالاتها دون إذن لتدريب نماذج الذكاء الاصطناعي الخاصة بهما. كما رفعت «ريديت» دعوى قضائية ضد شركة «بيربلكسيتي» العام الماضي، مدعيةً أن شركة الذكاء الاصطناعي قامت بجمع منشورات المستخدمين بشكل غير قانوني. وأثارت «ديزني» مخاوف مماثلة مع «غوغل».

وتقول ميتشل إنّ وضع علامات واضحة على المحتوى لمنع التضليل وبناء ثقة الجمهور في الذكاء الاصطناعي أهم بكثير من مقاطع الفيديو «الأكثر جاذبية».

وتضيف أنّه لهذا السبب يجب على المطورين بناء أنظمة لإدارة التراخيص والمدفوعات، وتوفير آليات واضحة للأفراد للاعتراض على إساءة الاستخدام. فعلى سبيل المثال، وقّعت «ديزني» صفقة بقيمة مليار دولار (730 مليون جنيه إسترليني) مع برنامج «سورا» من «أوبن إيه آي» ليتمكن من استخدام شخصيات من أفلامها.

ويقول شانان كوهني، الباحث في مجال الحوسبة بجامعة ملبورن، إنّ مطوري «سيدانس» كانوا على الأرجح على دراية بمشاكل حقوق النشر المحتملة المتعلقة باستخدام الملكية الفكرية الغربية، ومع ذلك خاطروا.

ويضيف: «هناك مجال واسع لتجاوز القواعد استراتيجياً، وتجاهلها لفترة من الوقت، واكتساب نفوذ تسويقي».

وفي الوقت نفسه، بالنسبة للشركات الصغيرة، يُعدّ «سيدانس» أداة بالغة الأهمية لا يمكن تجاهلها.

«بايت دانس»... الشركة الأم لـ«تيك توك» (أ.ف.ب)

ويقول كوك إن الذكاء الاصطناعي بهذه الجودة سيمكّن شركات مثل شركته من إنتاج أفلام كانت تكلفتها تفوق بكثير إمكاناتها الحالية.

وأعطى مثالاً بازدهار مقاطع الفيديو القصيرة والمسلسلات الدرامية القصيرة في آسيا، والتي تُنتج عادةً بميزانيات متواضعة - نحو 140 ألف دولار أميركي لما يصل إلى 80 حلقة، لا تتجاوز مدة كل منها دقيقتين.

وقد اقتصرت هذه الإنتاجات على الأعمال الرومانسية أو الدراما العائلية لخفض التكاليف؛ نظراً لقلة حاجتها إلى المؤثرات البصرية، لكن الذكاء الاصطناعي الآن قادر على «الارتقاء بالإنتاجات منخفضة الميزانية إلى أنواع أكثر طموحاً مثل الخيال العلمي، والدراما التاريخية، والآن الحركة».


البيت الأبيض: أميركا ترفض «بشكل قاطع» حوكمة الذكاء الاصطناعي

مدير مكتب سياسات العلوم والتكنولوجيا بالبيت الأبيض مايكل كراتسيوس يحضر جلسة خلال قمة «تأثير الذكاء الاصطناعي» في نيودلهي يوم 20 فبراير 2026 (إ.ب.أ)
مدير مكتب سياسات العلوم والتكنولوجيا بالبيت الأبيض مايكل كراتسيوس يحضر جلسة خلال قمة «تأثير الذكاء الاصطناعي» في نيودلهي يوم 20 فبراير 2026 (إ.ب.أ)
TT

البيت الأبيض: أميركا ترفض «بشكل قاطع» حوكمة الذكاء الاصطناعي

مدير مكتب سياسات العلوم والتكنولوجيا بالبيت الأبيض مايكل كراتسيوس يحضر جلسة خلال قمة «تأثير الذكاء الاصطناعي» في نيودلهي يوم 20 فبراير 2026 (إ.ب.أ)
مدير مكتب سياسات العلوم والتكنولوجيا بالبيت الأبيض مايكل كراتسيوس يحضر جلسة خلال قمة «تأثير الذكاء الاصطناعي» في نيودلهي يوم 20 فبراير 2026 (إ.ب.أ)

صرَّح مستشار البيت الأبيض لشؤون التكنولوجيا مايكل كراتسيوس، الجمعة، بأن الولايات المتحدة ترفض «رفضاً قاطعاً» الحوكمة العالمية للذكاء الاصطناعي.

وجاءت تصريحات كراتسيوس، رئيس وفد بلاده إلى «مؤتمر الذكاء الاصطناعي» في نيودلهي، قبل بيان مرتقب للقادة يحدِّد رؤيةً مشتركةً لكيفية التعامل مع هذه التقنية المثيرة للجدل.

وقال في القمة التي تختتم أعمالها الجمعة: «كما صرَّحت إدارة (الرئيس الأميركي دونالد) ترمب مراراً: نرفض رفضاً قاطعاً الحوكمة العالمية للذكاء الاصطناعي».

وأضاف: «لا يمكن لاعتماد الذكاء الاصطناعي أن يُفضي إلى مستقبل أفضل إذا كان خاضعاً للبيروقراطية والسيطرة المركزية»، وفق ما نقلته «وكالة الصحافة الفرنسية».

وكان الأمين العام للأمم المتحدة أنطونيو غوتيريش قد صرَّح، صباح الجمعة، بأن لجنة خبراء جديدة شكَّلتها المنظمة الدولية تسعى إلى «جعل التحكم البشري واقعاً تقنياً».

وأعلن غوتيريش تشكيل المجموعة الاستشارية في أغسطس (آب)، والتي تسعى إلى أن تكون على غرار الهيئة الحكومية الدولية المعنية بتغيّر المناخ في مجال الاحتباس الحراري، وقد تمّ تأكيد أعضائها الأربعين.

و«مؤتمر الذكاء الاصطناعي» رابع تجمع دولي سنوي يُركّز على المخاطر والفرص التي تُتيحها قوة الحوسبة المتقدمة.

سوندار بيتشاي الرئيس التنفيذي لشركة «غوغل» يتحدث خلال قمة «تأثير الذكاء الاصطناعي» في نيودلهي يوم 20 فبراير 2026 (أ.ب)

وفي النسخة التي عُقدت العام الماضي في باريس، حذَّر نائب الرئيس الأميركي، جي دي فانس، من «الإفراط في التنظيم» الذي «قد يقضي على قطاع قادر على إحداث تحوّل».

وفي نيودلهي، قال كراتسيوس: «إن النقاش الدولي حول الذكاء الاصطناعي قد تطوّر، كما تؤكده هذه القمة نفسها»، مُشيراً إلى تغيير اسم الاجتماع من «أمان الذكاء الاصطناعي» (AI Safety) إلى «تأثير الذكاء الاصطناعي» (AI Impact).

وأضاف: «هذا تطور إيجابي دون شك... لكن كثيراً من المنتديات الدولية، مثل الحوار العالمي للأمم المتحدة حول حوكمة الذكاء الاصطناعي، لا تزال تتسم بأجواء من الخوف».

وأضاف كراتسيوس: «علينا أن نستبدل الأمل بهذا الخوف»، مؤكداً أن الذكاء الاصطناعي قادر على «الارتقاء بمستوى معيشة البشرية وتحقيق ازدهار غير مسبوق».

ورأى أن «الهوس الآيديولوجي وتركيز الاهتمام على المخاطر، مثل قضايا المناخ أو العدالة، يتحوَّل إلى مُبرِّر للبيروقراطية وزيادة المركزية».

وتابع: «باسم الأمن، تزيد هذه الهواجس من خطر استخدام هذه الأدوات لأغراض استبدادية».

وقال كراتسيوس: «إن تركيز سياسة الذكاء الاصطناعي على الأمن والمخاطر التخمينية... يُعيق بيئة تنافسية، ويُرسخ هيمنة الشركات القائمة، ويعزل الدول النامية عن المشارَكة الكاملة في اقتصاد الذكاء الاصطناعي».


غوتيريش: لجنة أممية تسعى لضمان «تحكم بشري» في الذكاء الاصطناعي

الأمين العام للأمم المتحدة أنطونيو غوتيريش يلقي خطاباً خلال قمة تأثير الذكاء الاصطناعي في نيودلهي بالهند يوم 19 فبراير 2026 (أ.ف.ب)
الأمين العام للأمم المتحدة أنطونيو غوتيريش يلقي خطاباً خلال قمة تأثير الذكاء الاصطناعي في نيودلهي بالهند يوم 19 فبراير 2026 (أ.ف.ب)
TT

غوتيريش: لجنة أممية تسعى لضمان «تحكم بشري» في الذكاء الاصطناعي

الأمين العام للأمم المتحدة أنطونيو غوتيريش يلقي خطاباً خلال قمة تأثير الذكاء الاصطناعي في نيودلهي بالهند يوم 19 فبراير 2026 (أ.ف.ب)
الأمين العام للأمم المتحدة أنطونيو غوتيريش يلقي خطاباً خلال قمة تأثير الذكاء الاصطناعي في نيودلهي بالهند يوم 19 فبراير 2026 (أ.ف.ب)

دعا الأمين العام للأمم المتحدة أنطونيو غوتيريش، الجمعة، إلى «تقليل التهويل والخوف» بشأن الذكاء الاصطناعي، مشيراً إلى تشكيل لجنة خبراء دولية جديدة تسعى إلى «جعل التحكم البشري واقعاً تقنياً».

وأوضح غوتيريش أن الجمعية العامة للأمم المتحدة صادقت على تعيين 40 عضواً في هذه المجموعة، التي أُطلق عليها «الفريق العلمي الدولي المستقل المعني بالذكاء الاصطناعي».

وقال خلال القمة حول الذكاء الاصطناعي في نيودلهي إن «الحوكمة القائمة على العلم لا تُعوق التقدم»، بل يمكن أن تجعله «أكثر أماناً وعدلاً وانتشاراً».

وأضاف: «الرسالة واضحة: تقليل التهويل والخوف، وزيادة الحقائق والأدلة»، وفق ما نقلته «وكالة الصحافة الفرنسية».

أُنشئت هذه الهيئة الاستشارية في أغسطس (آب) الماضي، وهي تسعى لأن تكون مرجعاً في مجال الذكاء الاصطناعي، على غرار الهيئة الحكومية الدولية المعنية بتغير المناخ في مجال الاحتباس الحراري.

ومن المتوقع أن تنشر تقريرها الأول بالتزامن مع انعقاد الحوار العالمي للأمم المتحدة حول حوكمة الذكاء الاصطناعي في يوليو (تموز).

وتهدف الهيئة إلى مساعدة الحكومات في وضع قواعد للذكاء الاصطناعي، في ظل ما تُثيره هذه التقنية السريعة التطور من مخاوف عالمية بشأن فقدان وظائف والمعلومات المضللة والإساءة عبر الإنترنت، وغيرها من المشكلات.

وقال غوتيريش إن «ابتكارات الذكاء الاصطناعي تتطور بسرعة فائقة، تتجاوز قدرتنا الجماعية على فهمها بشكل كامل، فضلاً عن إدارتها». وأضاف: «إننا نندفع نحو المجهول». وتابع: «عندما نفهم ما تستطيع الأنظمة فعله وما لا تستطيع، سنتمكن من الانتقال من التدابير التقريبية إلى ضوابط أكثر ذكاءً قائمة على تقييم المخاطر».

وقدّم غوتيريش هذا الشهر قائمة بأسماء خبراء اقترحهم للانضمام إلى لجنة الأمم المتحدة المعنية بالذكاء الاصطناعي، ومن بينهم الصحافية الحائزة جائزة «نوبل للسلام» ماريا ريسا من الفلبين، والرائد في مجال الذكاء الاصطناعي الكندي يوشوا بنغيو.

وقال: «هدفنا جعل التحكم البشري حقيقة تقنية، لا مجرد شعار». وأكد أن ذلك «يتطلب مساءلة واضحة، بحيث لا يُعهد بالمسؤولية أبداً إلى خوارزمية».

ومن المتوقع أن يُصدر العشرات من قادة العالم والوزراء في وقت لاحق الجمعة بياناً يحدد ملامح التعامل العالمي مع الذكاء الاصطناعي، وذلك في ختام قمة استمرت خمسة أيام، وتركزت أعمالها على هذه التكنولوجيا.