371 % نمواً في تبني أدوات الذكاء الاصطناعي إجرامياً

هجمات أسرع وأرخص وأذكى

الذكاء الاصطناعي أزال «عنق الزجاجة» البشري ما سمح بتوسّع الجريمة السيبرانية بسرعة ونطاق غير مسبوقين (رويترز)
الذكاء الاصطناعي أزال «عنق الزجاجة» البشري ما سمح بتوسّع الجريمة السيبرانية بسرعة ونطاق غير مسبوقين (رويترز)
TT

371 % نمواً في تبني أدوات الذكاء الاصطناعي إجرامياً

الذكاء الاصطناعي أزال «عنق الزجاجة» البشري ما سمح بتوسّع الجريمة السيبرانية بسرعة ونطاق غير مسبوقين (رويترز)
الذكاء الاصطناعي أزال «عنق الزجاجة» البشري ما سمح بتوسّع الجريمة السيبرانية بسرعة ونطاق غير مسبوقين (رويترز)

على مدى أكثر من ثلاثة عقود، تطورت الجريمة السيبرانية عبر موجات متتالية من مجتمعات الاختراق الأولى بدوافع الفضول، إلى شبكات إجرامية منظمة تستثمر في البرمجيات الخبيثة وبرامج الفدية والاحتيال. لكن حسب دميتري فولكوف، الرئيس التنفيذي لـ«غروب آي بي» (Group-IB) فإن الموجة الحالية تمثل تحولاً جذرياً مختلفاً عبر تصنيع الجريمة السيبرانية من خلال توظيف الذكاء الاصطناعي سلاحاً.

يقول فولكوف، في حديث خاص لـ«الشرق الأوسط»، إن «ما يبدو مختلفاً جذرياً هذه المرة هو أن الذكاء الاصطناعي أزال عنق الزجاجة البشري».

ويضيف: «في الماضي، كانت الجريمة السيبرانية تنمو بالسرعة التي يستطيع بها المجرمون كتابة الشيفرات أو التلاعب بالضحايا أو تنسيق الفرق. أما اليوم، فيتولى الذكاء الاصطناعي هذه المهام فوراً، وبشكل متكرر، وعلى نطاق واسع».

هذا التحول لا يعني فقط تسريع الهجمات، بل يمثل تغييراً هيكلياً في طريقة تصميم الجرائم الرقمية وتسويقها وتنفيذها ما يحوّلها من نشاط قائم على مهارات أفراد إلى صناعة قابلة للتوسع.

دميتري فولكوف الرئيس التنفيذي لـ«غروب آي بي» متحدثاً إلى «الشرق الأوسط» (الشركة)

من المهارة البشرية إلى التوسع الآلي

تقليدياً، اعتمدت الجريمة السيبرانية على خبرات بشرية متخصصة. وقد تطلب تطوير برمجيات خبيثة أو صياغة رسائل تصيد مقنعة أو تنفيذ هجمات هندسة اجتماعية وقتاً وخبرةً وتنسيقاً. هذا كان يحدّ من سرعة الانتشار وحجم العمليات. لكن فولوف يشرح كيف ألغى الذكاء الاصطناعي هذه القيود، موضحاً أن «حتى المجرمين الأقل خبرة باتوا قادرين على تنفيذ هجمات كانت تتطلب سابقاً مستوى عالياً من التخصص».

المهام التي كانت تُنجز يدوياً كالتقمص والإقناع والبرمجة والاستهداف، أصبحت اليوم مؤتمتة أو متاحة عبر أدوات مدعومة بالذكاء الاصطناعي تعمل بشكل مستمر. وتظهر هذه الطفرة بوضوح في منتديات الإنترنت المظلم، حيث رصدت شركة «Group-IB» ارتفاعاً كبيراً في النقاشات المرتبطة بالذكاء الاصطناعي داخل تلك البيئات.

ويشير فولكوف إلى أن أول المنشورات التي تتضمن كلمات مفتاحية مرتبطة بالذكاء الاصطناعي ارتفعت بنسبة 371 في المائة بين عامي 2019 و2025. وفي عام 2025 وحده، تم تسجيل 23 ألفاً و621 منشوراً أولياً ونحو 298 ألفاً و231 رداً. هذا يعني أن الذكاء الاصطناعي انتقل من مرحلة الفضول إلى كونه أداةً إجراميةً سائدةً. ويذكر فولكوف أن «المجرمين لا يجرّبون... بل يتبنون بسرعة كل ما ينجح».

الهجمات المدفوعة بالذكاء الاصطناعي تجمع بين الحجم الكبير والتعقيد العالي، وتترك آثاراً جنائية أقل (رويترز)

الذكاء الاصطناعي بنيةً تحتيةً إجراميةً

الخطورة لا تكمن فقط في الاستخدام، بل في تحول الذكاء الاصطناعي إلى بنية تحتية أساسية للجريمة. وألمح فولكوف «إلى وجود تبنّ غير متكافئ وفي مجالات مثل الاحتيال والهندسة الاجتماعية، أصبح الذكاء الاصطناعي بنيةً تحتيةً أساسيةً، ولم يعد خياراً بل هو أساس». ويؤكد فولكوف أن الذكاء الاصطناعي أضحى جزءاً محورياً في توليد المحتوى والاستهداف وانتحال الهوية والأتمتة، وأن الأدوات المعتمدة عليه تُباع عبر نماذج اشتراك منخفضة التكلفة. ويذكر أنه «عندما تصبح الأدوات المتقدمة متاحة بسعر يعادل اشتراكاً في منصة بث، تختفي حواجز المهارة والمال».

الجريمة خدمةً

تتشابه الأسواق الإجرامية اليوم مع شركات البرمجيات السحابية المشروعة. ويعد فولكوف أن «هؤلاء الفاعلين يفكرون في الاحتفاظ بالعملاء وسهولة الاستخدام وقابلية التوسع، تماماً مثل الشركات الناشئة».

وعندما تُعامل الجريمة بوصفها منتجاً، تصبح أكثر مرونة واستدامة وأصعب في التعطيل. كما أن الذكاء الاصطناعي خفّض عتبة المهارة المطلوبة لتنفيذ هجمات متقدمة. ويرى فولكوف أن «الذكاء الاصطناعي يحوّل مهارات بشرية مثل الإقناع والتقليد والبرمجة إلى خدمات متاحة عند الطلب». وعلى عكس الاعتقاد بأن الأتمتة تقلل الجودة، يرى فولكوف أن الذكاء الاصطناعي زاد من الحجم والتعقيد معاً مع ارتفاع في حجم الهجمات، وفي مستوى تعقيدها. ويقول إن الذكاء الاصطناعي لا يضاعف عدد المحاولات فحسب، بل يحسّن واقعية الانتحال ويزيد من التخصيص الثقافي واللغوي.

لا تزال الأطر التنظيمية متأخرة عن وتيرة التهديدات ما يتطلب دفاعات استخباراتية وتعاوناً دولياً أوسع (غيتي)

قابلية الهوية للبرمجة

يحذر فولكوف من أن أحد أخطر التحولات يتمثل في الهجمات القائمة على الهوية، حيث أصبحت «الهوية قابلة للبرمجة... فالصوت والوجه والوثائق، يمكن تصنيعها وبيعها».

عندما تصبح الهوية سلعة، يتحول الاحتيال من استغلال الأنظمة إلى استغلال الثقة. وبالنسبة للفاعلين ذوي الدوافع المالية، تمثل الهوية بوابةً إلى البنية المالية. ويلفت على سبيل المثال إلى تجاوز إجراءات «اعرف عميلك» الذي يسمح بفتح حسابات مصرفية والوصول إلى أنظمة الدفع وتحويل الأموال المسروقة.

وقد وثّقت «Group-IB» حالة ساعدت فيها مؤسسة مالية على رصد 8065 محاولة تجاوز لأنظمة «KYC» باستخدام تقنيات التزييف العميق خلال الفترة بين يناير (كانون الثاني) وأغسطس (آب) 2025، ما أدى إلى اكتشاف 5702 حساب احتيالي. وبعد تطبيق أدوات كشف قائمة على التحليل الاستخباراتي، انخفض النشاط الاحتيالي بشكل حاد واستقر عند مستويات منخفضة.

أزمة ثقة في آليات التحقق

يقول فولكوف إن «رؤية شخص أو سماعه لم تعد دليلاً على هويته»، وإن الكثير من أنظمة التحقق الحالية صُممت في عالم ما قبل التزييف العميق، وتعتمد على التحقق البصري أو الصوتي.

لكن الجمع بين تحليل السلوك وذكاء الأجهزة وتقييم المخاطر يوفر دفاعاً أكثر فاعلية، إذ يمكن كشف التناقضات التي لا يستطيع التزييف إخفاءها، وينوه بأن الهجمات المدعومة بالذكاء الاصطناعي تترك آثاراً جنائيةً أقل «ما يجعل التحقيق الرقمي والاستجابة للحوادث أكثر أهمية من أي وقت مضى».

أدوات الجريمة المدعومة بالذكاء الاصطناعي تُباع بنماذج اشتراك منخفضة التكلفة ما خفّض حواجز الدخول أمام مهاجمين جدد (شاترستوك)

فجوة تنظيمية

يلفت فولكوف إلى أن التشريعات لم تواكب بعد سرعة التحول، وأن «التنظيم يتحرك لكنه غير متسق، والمجرمون يستغلون الفجوات عبر الحدود».

في الشرق الأوسط، لا يوجد حتى الآن قانون موحد قائم على تقييم المخاطر مشابه لقانون الاتحاد الأوروبي للذكاء الاصطناعي، خصوصاً في ما يتعلق بالاستخدامات عالية المخاطر مثل انتحال الهوية والاحتيال.

ويختتم فولكوف حديثه لـ«الشرق الأوسط» بدعوة إلى «التوقف عن النظر إلى الجرائم المدفوعة بالذكاء الاصطناعي حوادث منفصلة، وإدراك أنها نظام مترابط»، وأن وضع الذكاء الاصطناعي في قلب استراتيجيات الأمن وتعزيز التعاون الدولي وتبني دفاعات قائمة على الاستخبارات بات ضرورة ملحّة.


مقالات ذات صلة

الذكاء الاصطناعي يشمّ المرض قبل أن يشعر به المريض

علوم عيادة المستقبل اختبار التنفس يكشف المرض

الذكاء الاصطناعي يشمّ المرض قبل أن يشعر به المريض

في مارس (آذار) عام 2026 نشر فريق بحثي دولي دراسة حديثة في مجلة «Drug Discovery Today» حول مجال علمي ناشئ يُعرف باسم «علم تحليل أنفاس الإنسان».

د. عميد خالد عبد الحميد (الرياض)
تكنولوجيا اجتاحت مقاطع الفيديو والصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي مواقع التواصل منذ اندلاع حرب إيران (رويترز)

«التزوير للجميع»... الذكاء الاصطناعي خدع الملايين منذ بدء حرب إيران

اجتاحت موجة من مقاطع الفيديو والصور المزيفة، التي تم إنشاؤها بواسطة الذكاء الاصطناعي، مواقع التواصل الاجتماعي خلال الأسابيع الأولى من الحرب في إيران.

«الشرق الأوسط» (طهران)
خاص تنتشر المعلومات المضللة بسرعة كبيرة على وسائل التواصل الاجتماعي خلال الأزمات والصراعات (شاترستوك)

خاص الصور والفيديوهات المفبركة في زمن الحروب… كيف نميّز الحقيقة من التزييف؟

تصاعد الأخبار الزائفة والتزييف العميق خلال الأزمات يتطلب وعياً رقمياً والتحقق من المصادر والصور والفيديوهات قبل مشاركة المعلومات.

نسيم رمضان (لندن)
تكنولوجيا شعار تطبيق «شات جي بي تي» يظهر على شاشة (أ.ف.ب)

دراسة صادمة: 8 من كل 10 روبوتات ذكاء اصطناعي قد تساعد بالتخطيط لهجمات عنيفة

حسب التقرير الصادر عن مركز مكافحة الكراهية الرقمية، فإن ثمانية من كل عشرة روبوتات دردشة تعمل بالذكاء الاصطناعي قد تساعد المستخدمين الشباب في التخطيط لهجمات.

«الشرق الأوسط» (واشنطن)
تكنولوجيا تعتمد الطريقة الجديدة على استخراج المفاهيم من داخل النموذج نفسه بدلاً من فرض مفاهيم محددة مسبقاً من قبل الخبراء (أدوبي)

أبحاث جديدة لفهم تفكير الذكاء الاصطناعي وفتح «صندوقه الأسود»

أبحاث جديدة في جامعة MIT تطور تقنيات تساعد نماذج الذكاء الاصطناعي على تفسير قراراتها لتعزيز الشفافية والثقة في الأنظمة المؤتمتة.

نسيم رمضان (لندن)

من زجاجة مهمَلة إلى علاج لباركنسون

الطريقة الجديدة قد تساعد في الوقاية من أمراض عصبية مثل مرض باركنسون أو ألزهايمر (أ.ف.ب)
الطريقة الجديدة قد تساعد في الوقاية من أمراض عصبية مثل مرض باركنسون أو ألزهايمر (أ.ف.ب)
TT

من زجاجة مهمَلة إلى علاج لباركنسون

الطريقة الجديدة قد تساعد في الوقاية من أمراض عصبية مثل مرض باركنسون أو ألزهايمر (أ.ف.ب)
الطريقة الجديدة قد تساعد في الوقاية من أمراض عصبية مثل مرض باركنسون أو ألزهايمر (أ.ف.ب)

نجح علماء في تحويل زجاجات البلاستيك المُعاد تدويرها إلى دواء يُستخدم في علاج مرض باركنسون، في خطوة علمية قد تفتح آفاقاً جديدة للتعامل مع النفايات البلاستيكية، وتحويلها من عبء بيئي إلى مورد يخدم صحة الإنسان، وفقاً لصحيفة «التايمز».

فقد تمكن فريق بحثي في جامعة إدنبرة من استخدام بكتيريا مُهندسة خصيصاً لتحويل نوع شائع من البلاستيك المستخدم في عبوات الطعام والمشروبات إلى مادة «L-DOPA»، وهي الدواء الأكثر فاعلية في تخفيف الأعراض الحركية لمرض باركنسون، مثل الرعشة وتيبّس العضلات وبطء الحركة.

وتُعد هذه المرة الأولى التي تُستخدم فيها عملية بيولوجية لتحويل النفايات البلاستيكية إلى دواء يعالج اضطراباً عصبياً. ويقول الباحثون إن هذا الابتكار يبرهن على أن البلاستيك الذي يُنظَر إليه عادة بوصفه مشكلة بيئية، قد يصبح أيضاً مصدراً قيِّماً للكربون، يمكن توظيفه في صناعات طبية متقدمة.

وتبدأ العملية باستخدام بلاستيك البولي إيثيلين تيرفثالات (PET)، وهو من أكثر أنواع البلاستيك انتشاراً في صناعة العبوات. ويتم أولاً تفكيك هذا البلاستيك إلى مكوناته الكيميائية الأساسية، ومن بينها حمض التيرفثاليك. بعد ذلك تُستخدم بكتيريا الإشريكية القولونية (E.coli) المُهندَسة وراثياً لتحويل هذه الجزيئات عبر سلسلة من التفاعلات الحيوية إلى مركب «L-DOPA».

ويحدث مرض باركنسون نتيجة فقدان خلايا عصبية في منطقة من الدماغ مسؤولة عن إنتاج الدوبامين، وهو ناقل كيميائي أساسي للتحكم بالحركة. ويعمل دواء «L-DOPA» بعد دخوله الجسم على التحول إلى دوبامين داخل الدماغ، مما يساعد على تعويض النقص الناتج عن المرض.

وبعد أكثر من 50 عاماً على اكتشافه، لا يزال هذا الدواء العلاج الأكثر فاعلية للسيطرة على الأعراض الحركية للمرض.

ويعاني نحو 166 ألف شخص في المملكة المتحدة من باركنسون، ومن المتوقع أن يرتفع العدد مع تقدّم السكان في العمر.

ويرى العلماء أن هذه التقنية قد تمهد لتطوير مجال صناعي جديد يُعرف باسم إعادة التدوير الحيوي المتقدم، والذي يمكن أن يحول النفايات البلاستيكية إلى منتجات عالية القيمة، مثل الأدوية والمواد الكيميائية الصناعية.

وقد نُشرت نتائج هذا البحث في مجلة «Nature Sustainability» العلمية، في إشارة إلى إمكان الجمع بين حماية البيئة وتطوير علاجات طبية تخدم الإنسان.


«التزوير للجميع»... الذكاء الاصطناعي خدع الملايين منذ بدء حرب إيران

اجتاحت مقاطع الفيديو والصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي مواقع التواصل منذ اندلاع حرب إيران (رويترز)
اجتاحت مقاطع الفيديو والصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي مواقع التواصل منذ اندلاع حرب إيران (رويترز)
TT

«التزوير للجميع»... الذكاء الاصطناعي خدع الملايين منذ بدء حرب إيران

اجتاحت مقاطع الفيديو والصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي مواقع التواصل منذ اندلاع حرب إيران (رويترز)
اجتاحت مقاطع الفيديو والصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي مواقع التواصل منذ اندلاع حرب إيران (رويترز)

اجتاحت موجة من مقاطع الفيديو والصور المزيفة، التي تم إنشاؤها بواسطة الذكاء الاصطناعي، مواقع التواصل الاجتماعي خلال الأسابيع الأولى من الحرب في إيران.

وأضافت هذه المقاطع، التي تُظهر انفجارات ضخمة لم تحدث قط، وشوارع مدن مدمرة لم تتعرض للهجوم، وجنوداً مزيفين يحتجون على الحرب، بُعداً فوضوياً ومُربكاً للصراع على الإنترنت.

وبحسب صحيفة «نيويورك تايمز» الأميركية، فقد جرى رصد أكثر من 110 صور ومقاطع فيديو مزيفة خلال أسبوعين فقط.

وشوهدت هذه المنشورات ملايين المرات على الإنترنت عبر منصات مثل «إكس» و«تيك توك» و«فيسبوك»، ومرات لا تُحصى في تطبيقات المراسلة الخاصة الشائعة في المنطقة وحول العالم.

وقد حددت صحيفة «نيويورك تايمز» محتوى الذكاء الاصطناعي من خلال البحث عن علامات واضحة - مثل صور لمبانٍ غير موجودة، ونصوص مشوشة، وسلوكيات أو حركات غير متوقعة - بالإضافة إلى علامات مائية غير مرئية مُضمنة في الملفات. كما تم فحص المنشورات باستخدام أدوات متعددة لكشف الذكاء الاصطناعي ومقارنتها بتقارير من وكالات أنباء.

ويرى خبراء أن التطور السريع لأدوات الذكاء الاصطناعي جعل إنتاج مقاطع حرب واقعية المظهر أمراً سهلاً ورخيصاً، ما سمح لأي شخص تقريباً بصناعة محتوى قد يخدع المشاهدين.

وقال مارك أوين جونز، الأستاذ المشارك في تحليل الإعلام بجامعة نورثويسترن في قطر: «حتى مقارنة ببداية الحرب في أوكرانيا، فإن الأمور الآن مختلفة جداً... ربما نشهد الآن محتوى مرتبطاً بالذكاء الاصطناعي أكثر من أي وقت مضى».

ووفق تحليل لشركة «سيابرا»، المتخصصة في تحليل وسائل التواصل الاجتماعي، فإن غالبية مقاطع الفيديو المتداولة حملت روايات مؤيدة لإيران، غالباً بهدف إظهار تفوقها العسكري أو تضخيم حجم الدمار في المنطقة.

وأشار جونز إلى أن استخدام صور الذكاء الاصطناعي لمواقع في الخليج وهي تحترق أو تتعرَّض لأضرار يخدم رواية دعائية معينة، لأنه يمنح انطباعاً بأنَّ الحرب أكثر تدميراً وربما أكثر تكلفة للولايات المتحدة مما هي عليه في الواقع.

ومن بين أكثر المقاطع انتشاراً فيديو يُظهر هجوماً صاروخياً كثيفاً على تل أبيب، شاهده ملايين المستخدمين، قبل أن يؤكد الخبراء أنه مُولَّد بالذكاء الاصطناعي.

وفي المقابل، تبدو المقاطع الحقيقية للحرب أقل درامية بكثير، إذ تُظهر عادة صواريخ بعيدة في السماء أو أعمدة دخان بعد الانفجارات، ما يجعل المحتوى المزيف - الذي يشبه أفلام هوليوود - أكثر جذباً للمشاهدين على وسائل التواصل.

وفي إحدى الحالات، لعبت مقاطع مزيفة دوراً كبيراً في الجدل حول مصير حاملة الطائرات الأميركية «يو إس إس أبراهام لينكولن» بعد ادعاءات إيرانية بتعرضها لهجوم. وانتشرت صور ومقاطع مولّدة بالذكاء الاصطناعي تُظهر السفينة وهي تحترق، قبل أن تؤكد الولايات المتحدة لاحقاً أن الهجوم فشل وأن السفينة لم تتضرَّر.

بالإضافة إلى ذلك، قدَّمت مجموعة من مقاطع الفيديو المزيفة مشهداً للمدرسة الابتدائية للبنات في مدينة ميناب في جنوب إيران، التي دمرتها الولايات المتحدة على ما يبدو أثناء شن ضربات على قاعدة إيرانية مجاورة في 28 فبراير (شباط)، وفقاً لتحقيق أولي.

وتُظهر مقاطع الفيديو التي تم إنشاؤها بواسطة الذكاء الاصطناعي فتيات المدرسة يلعبن في الخارج قبل أن تُطلق طائرة مقاتلة أميركية صواريخ.

ويرى خبراء أن هذه الظاهرة تمثل تطوراً جديداً في الحروب الحديثة، حيث تتحول أدوات الذكاء الاصطناعي إلى سلاح إعلامي.

وقالت فاليري ويرتشافتر، الباحثة في السياسات الخارجية والذكاء الاصطناعي: «إنها جبهة طبيعية تحاول إيران استغلالها، ويبدو أن هذا أحد أسباب هذا الكم الهائل من المحتوى... إنه في الواقع أداة من أدوات الحرب».

ويقول الخبراء إن شركات التواصل الاجتماعي لا تبذل جهوداً تُذكر لمكافحة آفة مقاطع الفيديو التي يتم إنشاؤها بواسطة الذكاء الاصطناعي والتي تجتاح منصاتها.

ورغم إعلان منصة «إكس»، الأسبوع الماضي، أنها ستعلق حسابات المستخدمين لمدة 90 يوماً من تلقي أي عائدات من المنصة إذا نشرت محتوى مُنتجاً بواسطة الذكاء الاصطناعي حول «النزاعات المسلحة» دون تصنيفه على هذا النحو، في محاولة لمنع المستخدمين من التربح من هذه الأكاذيب، فإن كثيراً من الحسابات المرتبطة بإيران والتي رصدتها شركة «سيابرا»، بدت أكثر تركيزاً على نشر رسائلها من جني المال.


«إكس» تتقدم بمقترح قبل ساعات من استحقاق غرامة أوروبية كبيرة على المنصة

حساب إيلون ماسك على منصة «إكس» (رويترز)
حساب إيلون ماسك على منصة «إكس» (رويترز)
TT

«إكس» تتقدم بمقترح قبل ساعات من استحقاق غرامة أوروبية كبيرة على المنصة

حساب إيلون ماسك على منصة «إكس» (رويترز)
حساب إيلون ماسك على منصة «إكس» (رويترز)

بعد ساعات من انتهاء المهلة المحددة لسداد غرامة بالملايين فرضها الاتحاد الأوروبي، قدّمت منصة «إكس»، المملوكة للملياردير إيلون ماسك، إلى المفوضية الأوروبية تصوراً لتعديلات جوهرية على المنصة.

وأكد مسؤول إعلامي باسم الهيئة المنظمة، ومقرها بروكسل، الجمعة، أن المقترحات المقدمة من المنصة تركز بالأساس على تطوير آليات توثيق الحسابات عبر علامات التحقق (الشارات الزرقاء)، بهدف تعزيز الشفافية ومكافحة التضليل.

ولم يكشف المسؤول عن أي تفاصيل، لكنه أشار إلى أنها خطوة في الاتجاه الصحيح، وفق ما ذكرته «وكالة الأنباء الألمانية».

وقال المتحدث باسم الاتحاد الأوروبي: «لا يسعنا إلا أن نثمن أنه بعد حوار بناء مع الشركة، أخذت التزاماتها القانونية على محمل الجد وقدمت لنا مقترحات عملية».

يذكر أن المفوضية الأوروبية كانت قد فرضت على المنصة في ديسمبر (كانون الأول) الماضي، غرامة قدرها 120 مليون يورو (137.7 مليون دولار) استناداً إلى قانون الخدمات الرقمية، وذلك على خلفية ما وصفته بـ«الافتقار إلى الشفافية» في طريقة توثيق الحسابات باستخدام علامة بيضاء على خلفية زرقاء، والتي عدّتها مضللة.

وجاء إجراء الاتحاد الأوروبي ضد «إكس» عقب تحقيق استمر نحو عامين بموجب قانون الخدمات الرقمية للاتحاد الأوروبي، الذي يُلزم المنصات الإلكترونية ببذل مزيد من الجهود لمكافحة المحتوى غير القانوني والضار.

وفي يوليو (تموز) 2024، اتهمت المفوضية الأوروبية «إكس» بتضليل المستخدمين، مشيرة إلى أن علامة التوثيق الزرقاء لا تتوافق مع الممارسات المتبعة في هذا المجال، وأن أي شخص يستطيع الدفع للحصول على حالة «موثق».