مكالمات الاحتيال بالذكاء الاصطناعي… تزداد ذكاءً

شركات الاتصالات تطور الخطط للتصدي لها

مكالمات الاحتيال بالذكاء الاصطناعي… تزداد ذكاءً
TT

مكالمات الاحتيال بالذكاء الاصطناعي… تزداد ذكاءً

مكالمات الاحتيال بالذكاء الاصطناعي… تزداد ذكاءً

تُحدث مكالمات الاحتيال ضجةً عالمية. ويُقدّر التحالف العالمي لمكافحة الاحتيال The Global Anti - Scam Alliance أن المحتالين سرقوا مبلغاً هائلاً قدره 1.03 تريليون دولار أميركي عالمياً في عام 2023، بما في ذلك خسائر ناجمة عن الاحتيال عبر الإنترنت، ومكالمات الاحتيال، كما كتب كولاولي صموئيل أديبايو(*).

الذكاء الاصطناعي والاحتيال

لطالما كانت المكالمات الآلية، والاحتيال عبر الهاتف مشكلةً تثير إحباطاً -وغالباً ما تكون خطيرة– للمستخدمين. والآن، يُفاقم الذكاء الاصطناعي من هذا التهديد، ما يجعل عمليات الاحتيال أكثر خداعاً، وفعاليةً، وصعوبةً في الكشف.

إنتاج محتوى مزيّف ومتنوع

يعتقد إريك بريزكالنز، المحلل والمحرر في «كومسيرك»، أن تأثير الذكاء الاصطناعي على مكالمات الاحتيال مبالغ فيه حالياً، إلا أنه يُشير إلى أن استخدام المحتالين للذكاء الاصطناعي يُركز على إنتاج محتوى مُزيف يبدو حقيقياً، أو على تنويع محتوى الرسائل المُصممة لجذب الضحايا المُحتملين إلى محادثات خبيثة. ويُصرح لصحيفة «فاست كومباني»: «إن تنويع المحتوى يُصعّب تحديد عمليات الاحتيال، وحظرها، باستخدام أدوات مكافحة الاحتيال التقليدية».

أصوات أحبائكم مزيفة

من الأصوات المُزيفة المُولّدة بالذكاء الاصطناعي التي تُحاكي أصوات الأحباء، إلى عمليات الاحتيال واسعة النطاق التي تستخدم التعلم الآلي لتجنب الكشف، يستغل المُجرمون الذكاء الاصطناعي لزيادة فعالية مكالمات الاحتيال هذه. السؤال الأهم هو: كيف يُمكن لقطاع الاتصالات مُكافحة هذه المُشكلة مُباشرةً قبل أن يُسبب المحتالون المزيد من الفوضى؟

وحتى وقت قريب، اعتمدت عمليات الاحتيال الهاتفي في الغالب على المكالمات الآلية المُبسطة -وهي رسائل مُسجلة مُسبقاً تُحذر المُتسلمين من مُشكلة مالية مُلحة، أو مُشكلة مُفترضة في رقم الضمان الاجتماعي الخاص بهم. وهذه الأساليب، رغم استمرارها، يمكن التعرف غالباً بسهولة عليها. لكن عمليات الاحتيال المدعومة بالذكاء الاصطناعي اليوم أكثر إقناعاً بكثير.

احتيال مرعب بـ«استنساخ الصوت»

من أكثر التطورات إثارة للقلق استخدام الأصوات المُولّدة بالذكاء الاصطناعي، ما يجعل عمليات الاحتيال تبدو شخصية بشكل مُقلق. في حالة مُرعبة وقعت في أبريل (نيسان) 2023، تلقت أم في أريزونا مكالمة يائسة من شخص بدا تماماً مثل ابنتها، تبكي وتتوسل طلباً للمساعدة. وطالبها محتال، مُتظاهراً بأنه خاطف، بفدية. في الواقع، كانت الابنة في أمان -فقد استخدم المجرمون الذكاء الاصطناعي لاستنساخ صوتها من فيديو على وسائل التواصل الاجتماعي.

وازدادت عمليات الاحتيال هذه، المعروفة باسم «احتيال استنساخ الصوت»، في الأشهر الأخيرة. فببضع ثوانٍ فقط من الصوت، يُمكن لأدوات الذكاء الاصطناعي الآن إنشاء نسخة رقمية واقعية بشكل مُخيف من صوت الشخص، ما يُمكّن المحتالين من انتحال شخصيات الأصدقاء، أو أفراد العائلة، أو حتى المديرين التنفيذيين في عمليات احتيال الشركات.

صياغة مكالمات موجهة شخصياً

يستخدم المحتالون أيضاً الذكاء الاصطناعي لتحليل كميات هائلة من البيانات، وضبط مخططاتهم بدقة مُرعبة. تستطيع خوارزميات التعلم الآلي غربلة المعلومات العامة -مثل منشورات مواقع التواصل الاجتماعي، والمنتديات الإلكترونية، واختراقات البيانات- لصياغة مكالمات احتيالية مُخصصة للغاية. فبدلاً من خدعة عامة من مصلحة الضرائب، أو الدعم الفني، يمكن للمحتالين الآن استهداف الضحايا بتفاصيل محددة حول مشترياتهم، أو تاريخ سفرهم، أو حتى حالاتهم الطبية.

كما يُعزز الذكاء الاصطناعي عمليات انتحال هوية المتصل، ما يسمح للمحتالين بالتلاعب بأرقام الهواتف لتبدو كأنها صادرة من شركات محلية، أو وكالات حكومية، أو حتى جهات اتصال الضحية. وهذا يزيد من احتمالية رد الناس على المكالمات، ما يجعل تجاهل مكالمات الاحتيال أكثر صعوبة.

الهجوم المضاد لشركات الاتصالات

الذكاء الاصطناعي في مواجهة الذكاء الاصطناعي، هذه هي خلاصة عملية التصدي للاحتيال الإلكتروني. إذ مع صقل المحتالين لأدوات الذكاء الاصطناعي، تُكافح شركات الاتصالات والهيئات التنظيمية باستخدام الذكاء الاصطناعي الخاص بها -من خلال نشر أنظمة متطورة للكشف عن المكالمات الخبيثة، وتتبعها، وحظرها قبل وصولها إلى المستهلكين.

1.التعرف على صدقية المكالمات وكشف الاحتيال باستخدام الذكاء الاصطناعي. لمكافحة انتحال الهوية، تستفيد شركات الاتصالات من تقنيات تحليل الصوت، والمصادقة المدعومة بالذكاء الاصطناعي. وفي الولايات المتحدة، يستخدم إطار عمل STIR/SHAKEN التوقيعات المشفرة للتحقق من أن المكالمات صادرة من مصادر شرعية. ولكن مع تكيف المحتالين السريع، أصبح كشف الاحتيال المدعوم بالذكاء الاصطناعي ضرورياً.

يمكن لنماذج التعلم الآلي المُدربة على مليارات أنماط المكالمات تحليل البيانات الوصفية في الوقت الفعلي للكشف عن أي شذوذ -مثل الارتفاع المفاجئ في المكالمات من مناطق محددة، أو أرقام مرتبطة بعمليات احتيال معروفة. وتستطيع أنظمة الذكاء الاصطناعي هذه حتى اكتشاف العلامات الصوتية الدقيقة النموذجية للأصوات المُولّدة بتقنية التزييف العميق، ما يُساعد على إيقاف المكالمات الاحتيالية قبل اتصالها.

2.تصفية وترشيح وحظر المكالمات على مستوى شركة الاتصالات. يُدمج كبار مُزودي خدمات الاتصالات تصفية المكالمات المدعومة بالذكاء الاصطناعي مباشرةً في شبكاتهم. مثلاً تستخدم كلٌّ من خدمة Call Protect من شركة «أيه تي أند تي»، وخدمة Scam Shield من شركة «تي - موبايل»، وخدمة Call Filter من «فيريزون» الذكاء الاصطناعي لاكتشاف الأنماط المشبوهة، وحظر المكالمات عالية الخطورة قبل وصولها إلى المستخدمين. كما توفر مرشحات تابعة لشبكة GSMA حماية فورية للمكالمات من خلال التحقق من شرعيتها ومكافحة انتحال هوية خط الاتصال.

1000 خاصية صوتية فريدة للتحقق من الهوية

3. القياسات الحيوية الصوتية المدعومة بالذكاء الاصطناعي للتحقق من هوية المتصل. تُعدّ القياسات الحيوية (البيولوجية) الصوتية خط دفاع واعداً آخر ضد الاحتيال الناتج عن الذكاء الاصطناعي. وتنشر بعض المؤسسات المالية ومقدمو خدمات الاتصالات أنظمة مصادقة صوتية تُحلل أكثر من 1000 خاصية صوتية فريدة للتحقق من هوية المتصل.

وبخلاف تقنية التعرف على الصوت الأساسية، يمكن لهذه الأنظمة المتقدمة اكتشاف وقت استخدام صوت مُولّد بالذكاء الاصطناعي، مما يمنع المحتالين بفعالية من انتحال هوية العملاء الشرعيين.

حملة قانونية صارمة

تشن الهيئات التنظيمية حملة صارمة، ولكن هل هذا كافٍ؟ إن تشديد اللوائح، وتشديد العقوبات أمرٌ واحد، وهو أمرٌ تقوم به بالفعل العديد من الوكالات الحكومية حول العالم، لكن تطبيق هذه اللوائح بفعالية أمرٌ مختلفٌ تماماً. ففي الولايات المتحدة، على سبيل المثال، شددت لجنة الاتصالات الفيدرالية (FCC) العقوبات على المكالمات الآلية غير القانونية، وتحث شركات الاتصالات على اعتماد دفاعات أكثر صرامةً مدعومة بالذكاء الاصطناعي. يمنح قانون TRACED (قانون إنفاذ وردع إساءة استخدام المكالمات الآلية الهاتفية)، الذي تم توقيعه على أنه قانون في عام 2019، الجهات التنظيمية مزيداً من الصلاحيات لتغريم المحتالين، ويفرض تدابير أقوى لمكافحة الانتحال. وعلى الصعيد الدولي، تعمل الجهات التنظيمية في المملكة المتحدة وكندا وأستراليا على أطر عمل مماثلة تعتمد على الذكاء الاصطناعي لحماية المستهلكين من الاحتيال المتزايد. وقد أصدر الاتحاد الأوروبي قوانين أكثر صرامة بشأن خصوصية البيانات، ما يحد من كيفية استخدام الذكاء الاصطناعي لجمع البيانات الشخصية لعمليات الاحتيال.

ومع ذلك، فإن جهات إنفاذ القانون تكافح لمواكبة سرعة ابتكار الذكاء الاصطناعي. ويعمل المحتالون على مستوى العالم، وغالباً ما يكونون خارج نطاق اختصاص أي جهة تنظيمية واحدة. تتمركز العديد من شبكات الاحتيال في بلدان يصعب فيها اتخاذ إجراءات قانونية، إن لم يكن شبه مستحيل.

لنأخذ، على سبيل المثال، دولاً مثل ميانمار، وكمبوديا، ولاوس، حيث أنشأت جماعات الجريمة المنظمة مراكز احتيال إلكتروني تستخدم تقنيات التزييف العميق المدعومة بالذكاء الاصطناعي لخداع الضحايا حول العالم. وكثيراً ما ينقل مشغلو هذه المراكز مواقعهم، أو يغيرون أساليبهم للبقاء في صدارة جهات إنفاذ القانون. كما أنهم يعملون في مناطق تواجه تحديات قضائية معقدة، ما يزيد من تعقيد عملية إنفاذ القانون.

عوائق تنظيمية

يزدهر المحتالون في ظل التشتت، واستغلال نقاط الضعف، سواءً كان ذلك نقصاً في التنسيق بين القطاعات، أو اختلافاً في النهج التنظيمية عبر الحدود. تُبرز هذه العوائق التنظيمية ضرورة قيام مزودي خدمات الاتصالات بدور أكثر استباقية في مكافحة الاحتيال المدعوم بالذكاء الاصطناعي، بدلاً من الاعتماد فقط على الأطر التقليدية التي -رغم فائدتها- ليست دائماً فعالة. وهنا يأتي دور تقنية GSMA Call Check، التي طورتها شركة «أوكيلوس» Oculeus الألمانية لحلول الاتصالات، في تحقيق هدفها الحيوي. تُوفر خدمات التحقق من المكالمات من GSMA آلية بسيطة، وسريعة، ومنخفضة التكلفة لتبادل المعلومات حول مكالمات الهاتف الاحتيالية فور حدوثها. يقول بريزكالنز من «كوميرسك» إن «هذه التقنية مُتجذرة في السحابة، ما يجعلها مُستقبلية، وعالمية بطريقة لن تكون عليها أبداً الطرق الأخرى التي تُفكر فيها بعض الدول».

معركة طويلة

لا شك أن المعركة ضد عمليات الاحتيال المُدعمة بالذكاء الاصطناعي لم تنتهِ بعد. وكما أشارت جيسيكا روزينورسيل، رئيسة لجنة الاتصالات الفيدرالية (FCC) السابقة، العام الماضي: «نعلم أن تقنيات الذكاء الاصطناعي ستجعل من السهل والرخيص إغراق شبكاتنا بمقاطع فيديو مُزيفة تُستخدم للتضليل، وزعزعة الثقة».

الخبر السار هو أن قطاع الاتصالات لا يتراجع، فبينما يستخدم المحتالون الذكاء الاصطناعي لخداع الأفراد غير المُنتبهين، فإن القطاع يستفيد أيضاً من الذكاء الاصطناعي لحماية العملاء وبياناتهم الحساسة، من خلال فحص المكالمات الآلي، والكشف الفوري عن الاحتيال، وإجراءات المصادقة المُحسّنة.

أمر واحد مؤكد: المحتالون وعمليات الاحتيال لن تختفي في أي وقت قريب. وكما يشير بريزكالنز، سيستمر الناس في الوقوع ضحية عمليات الاحتيال حتى مع التدريب المكثف على التوعية العامة. ولكن مع استمرار تطور الذكاء الاصطناعي، يجب على قطاع الاتصالات أن يكون متقدماً بخطوة، لضمان أن يصبح قوة للحماية، لا للخداع.

* مجلة «فاست كومباني» خدمات «تريبيون ميديا»


مقالات ذات صلة

«تي إس إم سي» التايوانية تتجاوز التوقعات بأرباح قياسية نهاية 2025

الاقتصاد شعار شركة «تي إس إم سي» خلال معرض تايوان للابتكار التكنولوجي في مركز التجارة العالمي بتايبيه (أ.ب)

«تي إس إم سي» التايوانية تتجاوز التوقعات بأرباح قياسية نهاية 2025

أعلنت شركة تايوان لصناعة أشباه الموصلات المحدودة (تي إس إم سي)، الرائدة عالمياً في تصنيع رقائق الذكاء الاصطناعي والمورد الرئيسي لشركة «إنفيديا».

«الشرق الأوسط» (تايبيه )
العالم موقع الذكاء الاصطناعي «غروك» على هاتف محمول وحاسوب محمول (إ.ب.أ)

ماسك ينفي علمه بتوليد «غروك» صوراً إباحية لأطفال

قال إيلون ماسك، اليوم الأربعاء، إنه غير مطّلع على أي «صور عارية لقاصرين» تم توليدها بواسطة أداة الذكاء الاصطناعي «غروك» التابعة لشركة «إكس».

«الشرق الأوسط» (واشنطن)
تكنولوجيا يسهم في تسريع إنجاز المهام اليومية وتقليل الأعمال الروتينية وتعزيز كفاءة الإنتاجية داخل بيئات العمل «كلود»

«كلود كوورك»... أداة جديدة تعتمد الذكاء الاصطناعي لتنفيذ المهام المكتبية

تقوم الأداة بتحليل المحتوى والتخطيط للتنفيذ ثم إتمام المهمة ورفع المخرجات في نفس المكان دون الحاجة لسلسلة من التعليمات التفصيلية.

عبد العزيز الرشيد (الرياض)
تكنولوجيا يرى البعض أن الذكاء الاصطناعي يهدد ملايين الوظائف التقليدية (رويترز)

كيف يمكن أن يؤثر الذكاء الاصطناعي على البطالة والتوظيف في 2026؟

مع التسارع غير المسبوق في تطور تقنيات الذكاء الاصطناعي، تتزايد التساؤلات حول تأثير هذه الثورة التكنولوجية على سوق العمل العالمي.

«الشرق الأوسط» (لندن)
علوم حين يُصاغ القرار بين الإنسان والخوارزمية

حين يتعلّم الذكاء الاصطناعي توقّع مسار المرض قبل حدوثه

لا يكتفي التحليل بل يبني تمثيلاً داخلياً يحاكي السلوك البيولوجي للجسد

د. عميد خالد عبد الحميد (لندن)

«كلود كوورك»... أداة جديدة تعتمد الذكاء الاصطناعي لتنفيذ المهام المكتبية

يسهم في تسريع إنجاز المهام اليومية وتقليل الأعمال الروتينية وتعزيز كفاءة الإنتاجية داخل بيئات العمل «كلود»
يسهم في تسريع إنجاز المهام اليومية وتقليل الأعمال الروتينية وتعزيز كفاءة الإنتاجية داخل بيئات العمل «كلود»
TT

«كلود كوورك»... أداة جديدة تعتمد الذكاء الاصطناعي لتنفيذ المهام المكتبية

يسهم في تسريع إنجاز المهام اليومية وتقليل الأعمال الروتينية وتعزيز كفاءة الإنتاجية داخل بيئات العمل «كلود»
يسهم في تسريع إنجاز المهام اليومية وتقليل الأعمال الروتينية وتعزيز كفاءة الإنتاجية داخل بيئات العمل «كلود»

أطلقت شركة «أنثروبيك» الأميركية، المطوّرة لنظام الذكاء الاصطناعي «Claude» (كلود)، ميزة جديدة تحمل اسم «Claude Cowork» (كلود كُوورك: زميل العمل)، في خطوة تعزز من التحول نحو ذكاء اصطناعي قادر على أداء مهام مهنية متكاملة دون الحاجة لتدخل مستمر من المستخدم، وبما يتجاوز المفهوم التقليدي للدردشة النصية مع الأنظمة الذكية.

تأتي الميزة في صورة «AI Coworker» (زميل عمل بالذكاء الاصطناعي) يمكنه التعامل مع ملفات المستخدم وتنفيذ مهام إنتاجية كاملة، مثل كتابة الوثائق وإعداد الاستراتيجيات وصياغة رسائل البريد الإلكتروني وتنظيم الملفات وإتمام مشاريع مكتبية بأكملها، وهو ما يمثل تغييراً واضحاً في طريقة توظيف الذكاء الاصطناعي داخل بيئات العمل.

وبخلاف الأدوات التقليدية التي تعتمد على تفاعل (مستخدم – أمر – استجابة)، يعمل «كلود كُوورك» بشكل شبه مستقل، حيث يمكن للمستخدم منح النظام وصولاً إلى مجلدات محددة على جهازه، ثم إسناد مهمة أو مشروع كامل، ليقوم «Claude» بتحليل المحتوى والتخطيط للتنفيذ ثم إتمام المهمة ورفع المخرجات في نفس المكان دون الحاجة لسلسلة من التعليمات التفصيلية.

تصف «Anthropic» هذه الميزة بأنها «تجربة محادثة تنفيذية»، حيث لا يكتفي «كلود» بتوليد النصوص وتقديم الاستشارات، بل ينتقل إلى مرحلة التنفيذ العملي للمهام المرتبطة بالمحتوى، بدءاً من إعداد وثائق الاستراتيجيات التسويقية وصياغة المواد التعريفية للشركات، مروراً بتحرير نصوص المواقع الإلكترونية وتنظيم مراسلات البريد الإلكتروني، وصولاً إلى إعداد الأدلة وأطر العمل الداخلية وتحليل الملفات والمستندات الموجودة مسبقاً، وهو ما يجعل الذكاء الاصطناعي جزءاً مباشراً من دورة العمل المهنية وليس مجرد أداة للكتابة أو الاقتراح. وبالتالي، يصبح الذكاء الاصطناعي هنا جزءاً من دورة العمل وليس مجرد أداة للمساعدة اللغوية.

«معاينة بحثية»

تتوفر الميزة حالياً في مرحلة «معاينة بحثية» داخل «نظام الماك»، ومحصورة باشتراك «كلود ماكس – الباقة العليا»، وهو ما يعني أنها موجّهة في الوقت الحالي للمستخدمين المحترفين والمؤسسات التقنية ذات الاستخدام المتقدم، كما أن مشاركة الملفات تتم بشكل اختياري وتحت سيطرة المستخدم لمعالجة المخاوف المرتبطة بالخصوصية والأمان.

يمثل «كلود كُوورك» نموذجاً متطوراً لمنصات الذكاء الاصطناعي التي من المتوقع أن تعيد تشكيل طبيعة العمل الإداري والمكتبي خلال السنوات المقبلة، إذ تشير التجربة الأولية للميزة إلى أنها قد تختصر أسابيع من العمل إلى ساعات، وتسمح بإعادة توزيع الجهد نحو المهام الإبداعية والاستراتيجية بدلاً من الأعمال الروتينية المتكررة.


كيف يمكن أن يؤثر الذكاء الاصطناعي على البطالة والتوظيف في 2026؟

يرى البعض أن الذكاء الاصطناعي يهدد ملايين الوظائف التقليدية (رويترز)
يرى البعض أن الذكاء الاصطناعي يهدد ملايين الوظائف التقليدية (رويترز)
TT

كيف يمكن أن يؤثر الذكاء الاصطناعي على البطالة والتوظيف في 2026؟

يرى البعض أن الذكاء الاصطناعي يهدد ملايين الوظائف التقليدية (رويترز)
يرى البعض أن الذكاء الاصطناعي يهدد ملايين الوظائف التقليدية (رويترز)

مع التسارع غير المسبوق في تطور تقنيات الذكاء الاصطناعي، تتزايد التساؤلات حول تأثير هذه الثورة التكنولوجية على سوق العمل العالمي.

فبينما يرى البعض أن الذكاء الاصطناعي يهدد ملايين الوظائف التقليدية، يؤكد آخرون أنه سيفتح الباب أمام فرص عمل جديدة لم تكن موجودة من قبل.

ومع دخول عام 2026، يقف العالم أمام مرحلة حاسمة لإعادة تشكيل مفهوم التوظيف، حيث لم يعد السؤال يدور حول ما إذا كان الذكاء الاصطناعي سيؤثر على الوظائف، بل حول كيف وبأي حجم سيعيد رسم خريطة البطالة والعمل في السنوات القليلة المقبلة.

وفي هذا السياق، تحدثت ستيفاني روث، كبيرة الاقتصاديين في مؤسسة وولف للأبحاث، إلى شبكة «فوكس نيوز» الأميركية عن توقعاتها بشأن تأثير الذكاء الاصطناعي على البطالة والتوظيف في 2026.

وترى روث أن المخاوف من تسبب الذكاء الاصطناعي في موجة بطالة واسعة لا تزال مبالغاً فيها حتى الآن، مؤكدة أن هذه التقنيات تُستخدم حالياً لتعزيز الكفاءة والإنتاجية أكثر من كونها أداة لاستبدال العمالة البشرية بشكل واسع.

وأوضحت روث أن التأثير الفعلي لهذه التكنولوجيا على سوق العمل ما زال محدوداً، مشيرة إلى أن نصف التباطؤ في التوظيف يعود للذكاء الاصطناعي في حين يعود النصف الآخر لعوامل اقتصادية أوسع، مثل حالة عدم اليقين الاقتصادي حول العالم.

وتابعت قائلة: «ومع توقعنا لحدوث بعض الانتعاش في الاقتصاد هذا العام، فإن هذا يعني حدوث تحسن طفيف في التوظيف وانخفاض في معدلات البطالة».

وسبق أن ذكر تقرير وُضع بمساعدة «تشات جي بي تي»، ونُشر في أكتوبر (تشرين الأول) الماضي، بأن الذكاء الاصطناعي قد يقضي على ما يقرب من 100 مليون وظيفة خلال العقد المقبل.

ومن جهة أخرى، أعلنت شركة التأمين الألمانية العملاقة «آليانز»، في تقرير صدر اليوم، أن الذكاء الاصطناعي أصبح أكبر التهديدات التي تواجهها الشركات في العالم.

وحسب التقرير، فقد قفز الذكاء الاصطناعي من المركز العاشر إلى المركز الثاني بعد الجرائم الإلكترونية التي تسبب فيها خلال العام الحالي.


وسط الانتقادات بسبب الصور الجنسية... أميركا تعلن دمج «غروك» في شبكات البنتاغون

وزير الحرب الأميركي بيت هيغسيث (أ.ب)
وزير الحرب الأميركي بيت هيغسيث (أ.ب)
TT

وسط الانتقادات بسبب الصور الجنسية... أميركا تعلن دمج «غروك» في شبكات البنتاغون

وزير الحرب الأميركي بيت هيغسيث (أ.ب)
وزير الحرب الأميركي بيت هيغسيث (أ.ب)

أعلن وزير الحرب الأميركي بيت هيغسيث أن الجيش سيبدأ دمج أداة الذكاء الاصطناعي «غروك»، التابعة لإيلون ماسك، في شبكات البنتاغون، خلال وقت لاحق من هذا الشهر، في ظل تعرضها لانتقادات بسبب صور جنسية.

ووفقاً لصحيفة «غارديان» البريطانية، قال هيغسيث، خلال زيارة لمقر شركة «سبيس إكس» في تكساس، مساء الاثنين، إن دمج «غروك» في الأنظمة العسكرية سيبدأ العمل به في وقت لاحق من هذا الشهر. وأضاف: «قريباً جداً، سيكون لدينا نماذج الذكاء الاصطناعي الرائدة في العالم على جميع الشبكات في وزارتنا».

وكشف أيضاً عن «استراتيجية تسريع الذكاء الاصطناعي» جديدة في الوزارة، والتي قال إنها «ستُطلق العنان للتجارب، وتُزيل الحواجز البيروقراطية، وتركز على الاستثمارات، وتوضح نهج التنفيذ اللازم لضمان ريادتنا في مجال الذكاء الاصطناعي العسكري، وأن يصبح أكثر هيمنة في المستقبل».

أداة الذكاء الاصطناعي غروك (إ.ب.أ)

ولفتت «غارديان» إلى أن «البنتاغون» أعلنت، في ديسمبر (كانون الثاني) الماضي، اختيار «جيميناي» من «غوغل»، وهو نموذج آخر للذكاء الاصطناعي، لتشغيل منصة الذكاء الاصطناعي الداخلية الجديدة للجيش، والمعروفة باسم «GenAI.mil».

وكجزء من إعلان يوم الاثنين، قال هيغسيث أيضاً إنه بتوجيهاته، سيقوم مكتب كبير مسؤولي الشؤون الرقمية والذكاء الاصطناعي في الوزارة «بممارسة سلطته الكاملة لإتاحة جميع البيانات المناسبة عبر أنظمة تكنولوجيا المعلومات الموحدة لاستخدامها في تطبيقات الذكاء الاصطناعي».

وقال: «الذكاء الاصطناعي لا يكون جيداً إلا بقدر جودة البيانات التي يتلقاها، وسنتأكد من توفرها».

يأتي دمج الجيش «غروك» بعد إعلان، العام الماضي، منح الوزارة عقوداً تصل إلى 200 مليون دولار لشركات «غوغل» و«أوبن إيه آي» و«إكس إيه آي»، «لتطوير سير عمل الذكاء الاصطناعي عبر مجموعة متنوعة من مجالات المهام».

وتعرضت «غروك»، المُدمجة في منصة «إكس»، لانتقادات لاذعة، في الأسابيع الأخيرة، بسبب السماح للمستخدمين بإنشاء صور ذات محتوى جنسي وعنيف، وقام، منذ ذلك الحين، بتقييد بعض وظائف إنشاء الصور لتقتصر على المشتركين مدفوعي الأجر، لكن ردود الفعل السلبية لا تزال مستمرة، فقد حظرت إندونيسيا مؤقتاً الوصول إلى «غروك»، يوم السبت، وسرعان ما حَذَت ماليزيا حذوها.

وفي بريطانيا، فتحت هيئة تنظيم الإعلام «أوفكوم» تحقيقاً رسمياً بشأن استخدام «غروك» للتلاعب بصور النساء والأطفال.

ولا تُعدّ الصور الجنسية المنتشرة على نطاق واسع هي المشكلة الوحيدة التي تواجه «غروك». فقبل الإعلان عن عقد «البنتاغون»، البالغة قيمته 200 مليون دولار، وصفت الأداة نفسها بأنها «نازية متطرفة»، ونشرت منشورات مُعادية للسامية وعنصرية.