هل يصبح «الذكاء الاصطناعي المظلم» التهديد الأخطر القادم للأمن السيبراني؟

«كاسبرسكي»: المعركة المقبلة بين «ذكاءين اصطناعيين»

تشير تحليلات أمنية إلى أن نماذج الذكاء الاصطناعي المظلم تُستخدم في حملات تصيد وهجمات فدية (شاترستوك)
تشير تحليلات أمنية إلى أن نماذج الذكاء الاصطناعي المظلم تُستخدم في حملات تصيد وهجمات فدية (شاترستوك)
TT

هل يصبح «الذكاء الاصطناعي المظلم» التهديد الأخطر القادم للأمن السيبراني؟

تشير تحليلات أمنية إلى أن نماذج الذكاء الاصطناعي المظلم تُستخدم في حملات تصيد وهجمات فدية (شاترستوك)
تشير تحليلات أمنية إلى أن نماذج الذكاء الاصطناعي المظلم تُستخدم في حملات تصيد وهجمات فدية (شاترستوك)

عند تقاطع الذكاء الاصطناعي والأمن السيبراني، تبرز ساحة معركة جديدة تتسارع فيها وتيرة المخاطر: ما يُعرف بـ«الذكاء الاصطناعي المظلم». فمع ازدياد قوة أدوات الذكاء الاصطناعي وسهولة الوصول إليها، لم تعد هذه التقنيات حكراً على المطورين أو الباحثين، بل أصبحت في متناول مجرمي الإنترنت الذين باتوا يستخدمونها لأتمتة الهجمات، وتوسيع نطاقها، وتخصيصها بدقة غير مسبوقة.

هذا التحوّل كان في صميم تحذيرات خبراء شركة «كاسبرسكي»، خلال مشاركتهم في مؤتمر «Cyber Security Weekend 2025» الذي عُقد مؤخراً في جزيرة بوكيت التايلاندية، حيث ناقشوا مع «الشرق الأوسط» ملامح المرحلة المقبلة من التهديدات السيبرانية المدفوعة بالذكاء الاصطناعي.

أليكسي أنتونوف قائد فريق مركز أبحاث تقنيات الذكاء الاصطناعي لدى «كاسبرسكي» متحدثاً خلال المؤتمر (كاسبرسكي)

من الابتكار إلى الاستغلال

لطالما مثّل الذكاء الاصطناعي وعداً بتحولات جذرية في مختلف القطاعات من الرعاية الصحية والتعليم، إلى عالم التمويل والخدمات اللوجستية. لكن كأي أداة قوية، يبقى استخدامه مرهوناً بالنيات: فقد يكون محفزاً للابتكار، أو وسيلة فعالة في أيدي من يسعى للإضرار.

يقول أليكسي أنتونوف، قائد فريق مركز أبحاث تقنيات الذكاء الاصطناعي في «كاسبرسكي»، إن المهاجمين المحترفين بدأوا بالفعل تسخير الذكاء الاصطناعي لتعزيز أدواتهم. لكنه يحذر من المرحلة المقبلة: «الخطر الحقيقي سيظهر عندما يتمكن غير المحترفين من استخدام هذه النماذج بسهولة».

ويشاركه الرأي سيرغي لوجكين، رئيس فريق البحث والتحليل العالمي (GReAT) في «كاسبرسكي»، موضحاً أن «الذكاء الاصطناعي في الوقت الراهن لا يزال بحاجة إلى تدخل بشري لصياغة برمجيات خبيثة فعالة، لكن هذا الوضع لن يستمر طويلاً».

ويفصّل أنتونوف المشهد التقني الحالي، قائلاً إن النماذج الذكية اليوم يمكنها إنتاج شيفرات خبيثة، لكنها لا تزال تحتاج إلى تعديل يدوي لتجاوز أنظمة الحماية. فيما يؤكد لوجكين أن «الكود» الناتج يحتاج عادة إلى «تصحيح وتحسين بشري ليحقق أهدافه»، إلا أن كلا الخبيرين يتفقان على أن المستقبل القريب سيشهد بروز نماذج قادرة على إنتاج برمجيات خبيثة متقدمة بشكل تلقائي، دون تدخل بشري يُذكر.

سيرغي لوجكين، رئيس فريق البحث والتحليل العالمي (GReAT) في «كاسبرسكي» متحدثاً خلال المؤتمر (كاسبرسكي)

ولادة «الذكاء الاصطناعي المظلم»

قدّم كل من أنتونوف ولوجكين مفهوماً مقلقاً لما يُعرف بـ«الذكاء الاصطناعي المظلم»، وهي نماذج لغوية ضخمة يتم تطويرها أو تعديلها على يد مجرمي الإنترنت، بعيداً عن أي قيود أخلاقية أو ضوابط أمنية. يصف أنتونوف هذه النماذج بأنها «صُممت من مجرمين... لمجرمين». أما لوجكين فيُفصّل الأمر بقوله: «إذا حاولت استخدام نموذج ذكاء اصطناعي شرعي لإنشاء برمجية خبيثة، فسيرفض. أما الذكاء الاصطناعي المظلم، فلن يضع أي حدود، وسينفذ كل ما تطلبه من رسائل تصيّد مقنعة إلى نسخ مزيّفة من مواقع إلكترونية شهيرة».

سلاح الذكاء الاصطناعي الحقيقي

ورغم أن التركيز الإعلامي غالباً ما ينصب على القدرات الإبداعية للذكاء الاصطناعي، فإن التهديد الحقيقي يكمن في سرعته وقابليته للتوسع. ففي السابق، كان على المهاجمين إعادة كتابة الشيفرات يدوياً لتجاوز أنظمة الحماية بعد اكتشافها. أما اليوم، فيكفي أن يُدخل المهاجم أمراً بسيطاً مثل «اجعلها غير قابلة للكشف»، ليقوم الذكاء الاصطناعي بالباقي.

يشرح لوجكين أن هذا التطور يُسرّع بشكل كبير من دورات إنتاج البرمجيات الخبيثة، حيث يمكن للذكاء الاصطناعي تعديل البنى البرمجية القائمة وإضافة وظائف جديدة خلال وقت قصير، مع الحاجة إلى تدخل بشري محدود. هذه السرعة تمنح المهاجمين المحترفين وغير المحترفين ميزة واضحة، وتوسّع دائرة التهديد بشكل غير مسبوق.

ويستشهد لوجكين بمجموعة «فانكسيك» (FunkSec) التي ظهرت عام 2024 كنموذج لهذا التحول؛ إذ استخدمت شيفرات مكتوبة بالكامل بالذكاء الاصطناعي، مصحوبة بتعليقات برمجية عالية الجودة، لتنفيذ هجمات فدية مزدوجة. وتميزت هذه المجموعة باتباع نموذج «منخفض الكلفة وعالي الحجم»، معتمدة على أدوات الذكاء الاصطناعي لزيادة الكفاءة وتقليل التكاليف وهو تحول نوعي في أسلوب عمل مجرمي الإنترنت.

تحذر تقارير بأن الهجمات السيبرانية المدعومة بالذكاء الاصطناعي تزداد تعقيداً وسرعةً ما يجعل التصدي لها أكثر صعوبة (شاترستوك)

التحول والتكيف

من بين أبرز المخاوف المتصاعدة، استخدام الذكاء الاصطناعي في تطوير برمجيات خبيثة متحورة قادرة على تغيير شكلها باستمرار لتفادي أنظمة الكشف التقليدية. يوضح لوجكين: «كل عينة جديدة من البرمجية نفسها قد تبدو مختلفة»، مشيراً إلى أن النماذج الذكية أصبحت قادرة على توليد هذه المتغيرات بشكل تلقائي.

وخلال حديثه مع «الشرق الأوسط»، يضيف لوجكين أن المهاجمين بات بإمكانهم كذلك استخدام الذكاء الاصطناعي لتوليد وحدات خبيثة جديدة مثل أدوات تسجيل المفاتيح أو اعتراض الكاميرات بناءً على قوالب برمجية جاهزة، ما يجعل تطوير الهجمات أسرع وأقل تكلفة من أي وقت مضى.

ومع تصاعد هذا التهديد، يؤكد كل من أنتونوف ولوجكين أن المدافعين لا يزالون يملكون الفرصة للتفوق، بشرط تغيير طريقة التعامل مع التهديدات. ويشدد أنتونوف على أن «المدافع لا يحارب الذكاء الاصطناعي نفسه، بل يحارب ناتجه»، مشيراً إلى ضرورة تطوير أدوات استخباراتية ترصد البصمات الرقمية للهجمات، وتحديد مصادر أدوات التصيّد المتقدمة المنتشرة في الشبكات المظلمة.

كلا الخبيرين أشار أيضاً إلى مجموعة «لازاروس» سيئة السمعة كمثال بارز على الجرائم السيبرانية المدعومة بالذكاء الاصطناعي، حيث قامت المجموعة بإنشاء صفحات تصيّد وملفات تعريف مزيفة عبر منصات احترافية باستخدام أدوات توليد المحتوى الذكي. ويرجّح لوجكين، استناداً إلى تقارير غير مؤكدة، أن بعض الشيفرات المستخدمة من قبل المجموعة كُتبت جزئياً عبر نماذج ذكاء اصطناعي متقدمة.

محمد هاشم المدير العام للسعودية والبحرين لدى شركة «كاسبرسكي» (كاسبرسكي)

الشرق الأوسط... ساحة نشطة للتهديدات

تُعد منطقة الشرق الأوسط اليوم إحدى أكثر الساحات حساسية في مشهد التهديدات السيبرانية العالمية، حيث يتقاطع التحول الرقمي المتسارع مع تصاعد الهجمات المدعومة بالذكاء الاصطناعي. ويرى أليكسي أنتونوف أن هذا ليس بالأمر الجديد، إذ لطالما شكّلت المنطقة محور اهتمام استراتيجي للقوى الجيوسياسية، بفضل مكانتها كمركز مالي وتجاري آخذ في التوسع والنمو.

وتُظهر بيانات «كاسبرسكي» أن حدة هجمات الفدية في الشرق الأوسط ارتفعت لتبلغ 0.72في المائة في عام 2025، متجاوزة بذلك أفريقيا وتركيا. ويُعزى هذا الارتفاع إلى تسارع تبنّي التقنيات الرقمية في المنطقة، إلى جانب تفاوت مستويات النضج الأمني السيبراني بين القطاعات والدول. ومع ازدياد استخدام أدوات الذكاء الاصطناعي في تطوير البرمجيات الخبيثة، تصبح هذه التهديدات أكثر خفاءً وفاعلية من ذي قبل.

وفي سياق متصل، يؤكد محمد هاشم، المدير العام لشركة «كاسبرسكي» في السعودية والبحرين، أن المملكة تسير في طليعة الدول التي تستثمر في الذكاء الاصطناعي على مستوى المنطقة. لكنه يحذّر من أن هذه الطفرة التقنية لا تخلو من تحديات أمنية عميقة. ويقول في حديثه مع «الشرق الأوسط»: «السعودية تقود جهود التحول الرقمي في المنطقة باستثمارات ضخمة، لكن لا بد من مواجهة التحديات الأمنية المصاحبة لتقنيات الذكاء الاصطناعي منذ مراحلها الأولى».

ويشدد هاشم على أهمية دمج الأمن السيبراني ضمن دورة حياة تطوير الذكاء الاصطناعي، بدءاً من التصميم وحتى التنفيذ، مؤكداً أن ذلك هو السبيل لضمان الجاهزية المستقبلية. كما يسلّط الضوء على دور مؤسسات وطنية مثل الهيئة السعودية للبيانات والذكاء الاصطناعي (سدايا) ومكتب إدارة البيانات الوطني في بناء منظومة ذكاء اصطناعي آمنة وقادرة على الصمود. ويضيف أن هذه الجهود تصبح أكثر أهمية في القطاعات الحساسة، مثل المدن الذكية والرعاية الصحية والقطاع المالي، التي تشكّل محاور أساسية في «رؤية السعودية 2030».

تفيد تقارير بأن استخدام الذكاء الاصطناعي يساهم في تسريع تطوير البرمجيات الخبيثة ويقلل الحاجز التقني أمام المهاجمين الأقل خبرة (شاترستوك)

ذكاء اصطناعي ضد ذكاء اصطناعي

يتوقع خبراء «كاسبرسكي» أن يشهد المستقبل القريب تحولاً نوعياً في طبيعة المواجهات الرقمية، حيث تتحول المعركة من «البشر باستخدام الذكاء الاصطناعي» إلى صراع مباشر بين «أنظمة ذكاء اصطناعي» نفسها.

ويرى كل من أنتونوف ولوجكين أن هذه النقلة ليست بعيدة، مشيرين إلى أننا نعيش حالياً مرحلة انتقالية، لكن المؤشرات تدل على أن الذكاء الاصطناعي قد يصبح في وقت قريب اللاعب الوحيد على جانبي الهجوم والدفاع. ويعزّز محمد هاشم هذا الطرح، مؤكداً أن الشراكات العالمية ستكون مفتاحاً لحماية التقدم التقني من مخاطره المحتملة، ويقول: «من الضروري أن يترافق الابتكار في الذكاء الاصطناعي مع حماية سيبرانية بمستوى عالمي. فمواجهة التهديدات الناشئة مثل التزييف العميق والتصيّد المؤتمت تتطلب تنسيقاً دولياً وتبادلاً مستمراً للمعرفة والدفاعات».

من جهة أخرى، بات الذكاء الاصطناعي يشكّل اليوم العنصر المشترك في معظم التهديدات السيبرانية الحديثة من تطوير البرمجيات الخبيثة، إلى تنفيذ حملات تصيّد متقدمة، ووصولاً إلى مراقبة الأفراد عبر الأجهزة المحمولة. ومع ذلك، يُذكّر خبراء «كاسبرسكي» أن الذكاء الاصطناعي لا يزال أداة، وقيمة هذه الأداة تُحدَّد بطريقة استخدامها.

وفي وقت يقف فيه العالم الرقمي أمام مفترق طرق مصيري، لم يعد السؤال المطروح ما إذا كان الذكاء الاصطناعي سيغيّر شكل الصراع السيبراني، بل إلى أي مدى نحن مستعدون لتوجيه هذا التحوّل بدلاً من أن نُفاجَأ به.


مقالات ذات صلة

«غوغل كلاود» لـ«الشرق الأوسط»: هدوء سيبراني «حذر» رغم التوترات الإقليمية

خاص التوترات التي شهدها الشرق الأوسط خلال الشهرين الماضيين لم تؤدِّ إلى تصعيد سيبراني واسع وفوري بالقدر الذي كان متوقعاً (شاترستوك)

«غوغل كلاود» لـ«الشرق الأوسط»: هدوء سيبراني «حذر» رغم التوترات الإقليمية

تقول «غوغل كلاود» إن هدوء الهجمات لا يلغي الخطر، وإن المرونة السيبرانية تبدأ من الثغرات والاستعداد المبكر قبل التصعيد.

نسيم رمضان (لاس فيغاس)
تكنولوجيا التحديث الأمني العاجل يعالج ثغرة حرجة في برنامجي «Reader» و«Acrobat» على «ويندوز» و«ماك أو إس» (شاترستوك)

ثغرة خطيرة في «Reader» و«Acrobat » تدفع «أدوبي» إلى تحديث عاجل

أصدرت «أدوبي» تحديثاً عاجلاً لسد ثغرة خطيرة في «Reader» و«Acrobat» استُغلت فعلياً عبر ملفات «PDF» ما يتطلب التحديث فوراً.

نسيم رمضان (لندن)
تكنولوجيا قالت الشركة إن بيانات الدفع وحسابات المستخدمين نفسها لم تتعرض للاختراق لكنها لم تكشف عدد المتضررين (شاترستوك)

«Booking.com» تؤكد اختراق بعض بيانات حجوزات العملاء

أكدت «Booking.com» اختراق بعض بيانات الحجوزات، ما يثير مخاوف من استغلالها في التصيد، والاحتيال، رغم عدم تسرب بيانات الدفع.

نسيم رمضان (لندن)
خاص الاحتيال تحوّل من استهداف الأنظمة التقنية إلى التلاعب بالسلوك البشري ما يغيّر طبيعة التهديد بشكل جذري (رويترز)

خاص هل أنهى الذكاء الاصطناعي عصر أنظمة كشف الاحتيال الرقمية التقليدية؟

يُضعف تحول الاحتيال إلى استهداف السلوك البشري الأنظمة التقليدية، ويفرض اعتماد تحليلات سلوكية، ومقاربات جديدة لحماية الثقة الرقمية، والهوية.

نسيم رمضان (لندن)
تكنولوجيا حماية البيانات المالية لم تعد تعتمد على الحلول التقنية فقط بل تتطلب منظومة متكاملة تشمل التنظيم والسلوك البشري (شاترستوك)

دراسة: حماية البيانات المالية تحتاج إلى أكثر من حلول تقنية

تشير الدراسة إلى أن حماية البيانات المالية تتطلب مزيجاً من التقنية والتنظيم وسلوك المستخدم مع تزايد التهديدات التي تتجاوز الحلول الأمنية التقليدية.

نسيم رمضان (لندن)

«ميتا» تتجه إلى الفضاء لتوليد الطاقة الشمسية

شعار شركة «ميتا» (رويترز)
شعار شركة «ميتا» (رويترز)
TT

«ميتا» تتجه إلى الفضاء لتوليد الطاقة الشمسية

شعار شركة «ميتا» (رويترز)
شعار شركة «ميتا» (رويترز)

في خطوة تعكس تسارع الابتكار في قطاع الطاقة والتكنولوجيا، تسعى شركة «ميتا» إلى استكشاف آفاق غير تقليدية لتأمين احتياجاتها المتزايدة من الطاقة، خصوصاً مع التوسع الكبير في تشغيل أنظمة الذكاء الاصطناعي. وفي هذا السياق، تخطط الشركة لاستغلال الطاقة الشمسية من الفضاء، في محاولة لتوفير مصدر مستدام وفعّال لتشغيل مراكز بياناتها على الأرض.

تعتزم شركة «ميتا»، المملوكة لمارك زوكربيرغ، جمع الطاقة الشمسية من الفضاء لتغذية مراكز بيانات الذكاء الاصطناعي التابعة لها، وذلك وفقاً لما أوردته صحيفة «التليغراف».

وفي هذا الإطار، وقّع مالك منصّتي «فيسبوك» و«إنستغرام» اتفاقية مع شركة «أوفر ڤيو إنرجي» الأميركية الناشئة، بهدف توفير ما يصل إلى غيغاوات واحدة من الطاقة الشمسية، وهو ما يعادل تزويد نحو 750 ألف منزل بالطاقة.

وتتعاون «ميتا» مع «أوفر ڤيو إنرجي» ضمن خططها لإطلاق أسطول قد يصل إلى 1000 قمر اصطناعي، مزوّد بألواح شمسية تعمل على جمع أشعة الشمس مباشرة من الفضاء.

وستُحوَّل هذه الطاقة المجمّعة إلى أشعة تحت حمراء منخفضة الكثافة، يمكن توجيهها نحو الألواح الكهروضوئية على سطح الأرض، حيث تُعاد معالجتها وتحويلها إلى طاقة كهربائية قابلة للاستخدام.

وتتميّز عملية جمع الطاقة الشمسية في الفضاء بكفاءة أعلى بكثير مقارنةً بسطح الأرض، إذ لا تتأثر أشعة الشمس هناك بعوامل مثل الغلاف الجوي أو تلوّث الهواء أو الغيوم، كما يمكن وضع الأقمار الاصطناعية في مدارات تتيح لها التعرّض لأشعة الشمس بشكل شبه دائم على مدار الساعة.

ومن بين مزايا هذه التقنية أيضاً إمكانية نقل الطاقة إلى مناطق تعاني من نقص الإضاءة أو الظلام، مما يسهم في تعزيز كفاءة أنظمة الطاقة الشمسية التقليدية.

وتُشكّل هذه التقنية دفعة قوية لشركات وادي السيليكون الكبرى، التي تعمل على إنشاء مراكز بيانات ضخمة لتشغيل تطبيقات الذكاء الاصطناعي في مختلف أنحاء العالم الغربي.

كما يُتوقع أن تمثّل الطاقة الشمسية القادمة من الفضاء مصدراً مستداماً ونظيفاً يلبي احتياجات شركات التكنولوجيا، التي تواجه تحديات متزايدة في الالتزام بمعاييرها البيئية، في ظل الطلب المتصاعد على الطاقة لتشغيل أنظمة الذكاء الاصطناعي.

ومن شأن هذه المبادرة أيضاً أن تقلّل اعتماد هذه الشركات على شبكات الطاقة المحلية التي تعاني أصلاً من ضغوط متزايدة.

في السياق ذاته، تعمل شركات أخرى على تطوير تقنيات مشابهة، من بينها «سبيس إكس» التابعة لإيلون ماسك، و«بلو أوريجين» التابعة لجيف بيزوس، إضافة إلى شركة «غوغل»، حيث تسعى هذه الجهات إلى تطوير أقمار اصطناعية تعمل بالطاقة الشمسية لدعم مراكز البيانات.


ردَّة فعل متصاعدة ضد الذكاء الاصطناعي تكتسب زخماً جماهيرياً

ردَّة فعل متصاعدة ضد الذكاء الاصطناعي تكتسب زخماً جماهيرياً
TT

ردَّة فعل متصاعدة ضد الذكاء الاصطناعي تكتسب زخماً جماهيرياً

ردَّة فعل متصاعدة ضد الذكاء الاصطناعي تكتسب زخماً جماهيرياً

تزداد في الولايات المتحدة حدَّة ردَّة الفعل المتصاعدة ضد الذكاء الاصطناعي، مدفوعة بمخاوف بشأن تأثير هذه التقنية على المجتمع. وتدعو هذه الحركة التي تضم شريحة واسعة من الناس من خلفيات سياسية ومهنية مختلفة، إلى مزيد من التنظيم القانوني، والنقاش حول دور الذكاء الاصطناعي في الحياة الأميركية، كما كتب تريب ميكل*.

وتشمل فئات المنتقدين آباءً، وقادة دينيين، وناشطين بيئيين، وغيرهم، متحدين في تشكيكهم في تركيز صناعة التكنولوجيا على الربح، وعواقبه السلبية المحتملة على الجمهور.

احتجاج ضد إنشاء مراكز البيانات المهددة للبيئة

دوافع متنوعة

وتتنوع دوافع هذه الردَّة. فعلى سبيل المثال، شعر مايكل غرايستون -وهو قس إنجيلي من أوستن في تكساس- بالقلق بعد سماعه عن الآثار المدمرة لـجهاز «رفيق ذكاء اصطناعي» على زواج صديق له. وبالمثل شعر جاك غاردنر -وهو موسيقي من بويز- في آيداهو وزوجته -وهي معلمة في مدرسة ابتدائية- بالقلق إزاء إنتاج الذكاء الاصطناعي الأغاني باستخدام موسيقى محمية بحقوق الطبع والنشر.

أما في وولكوت، بإنديانا، فقد خشي بارت وآمي سنايدر -وهما مزارعان- بعد علمهما ببناء مركز بيانات بالقرب من منزلهما، من استنزاف المياه الجوفية المحلية والإضرار بمجتمعهما. ووجد هذان الشخصان -على الرغم من افتقارهما للخبرة السياسية السابقة- نفسيهما جزءاً من تحالف متنامٍ من منتقدي الذكاء الاصطناعي.

مكاسب مالية... وعواقب اجتماعية

لا تقتصر هذه الحركة على المخاوف المحلية؛ بل تشمل شخصيات شعبوية، مثل ستيفن ك. بانون، وسياسيين تقدميين مثل السيناتور بيرني ساندرز. وبينما تختلف أسباب معارضتهم للذكاء الاصطناعي، فإنهم يشتركون في اعتقادهم بأن مطوري هذه التقنية يهتمون بالمكاسب المالية أكثر من اهتمامهم بعواقبها الأوسع على المجتمع. ويشمل ذلك مخاوف من أن الثروة الهائلة التي يولِّدها الذكاء الاصطناعي ستفيد بالدرجة الأولى أصحاب المليارات في وادي السيليكون، بينما ستقع التكاليف بشكل غير متناسب على الطبقتين المتوسطة والعاملة.

غياب الإشراف القانوني

يدور جزء كبير من الانتقادات حول غياب التنظيم القانوني أو حتى النقاش حول مستقبل الذكاء الاصطناعي. وقد عبَّر بيرني ساندرز عن إحباطه في مقابلة حديثة؛ مشيراً إلى أنه على الرغم من تأثير الذكاء الاصطناعي على جميع سكان البلاد، فإن النقاش حول كيفية إدارته في الكونغرس كان محدوداً. ووفقاً للمتحدث باسم البيت الأبيض ديفيس إنغل، ركزت إدارة ترمب على ضمان هيمنة أميركا في مجال الذكاء الاصطناعي لحماية الأمن القومي والمصالح الاقتصادية. مع ذلك، يرى النقاد أن الحكومة كانت أكثر دعماً لوادي السيليكون من اهتمامها بالمخاطر التي تشكلها هذه التقنية.

تأثير بيئي... وفقدان الوظائف

وقد ساهم النمو السريع للذكاء الاصطناعي، الذي حفزه إطلاق برنامج «تشات جي بي تي» عام 2022، في تفاقم ردود الفعل السلبية. ومع تحول نظام الدردشة الآلي هذا إلى أسرع منتج برمجي نمواً على الإطلاق، ضخَّت شركات التكنولوجيا مليارات الدولارات في بناء البنية التحتية اللازمة لتطوير تقنية الذكاء الاصطناعي. وقد أدى ذلك إلى انتشار مراكز البيانات في جميع أنحاء العالم، ما أثار مخاوف بشأن تأثيرها البيئي، فضلاً عن تساؤلات حول فقدان الوظائف المحتمل نتيجة للأتمتة.

عواقب وخيمة «إن انحرف عن مساره الصحيح»

بل إن بعض رواد صناعة التكنولوجيا -مثل إيلون ماسك وسام ألتمان- حذَّروا من المخاطر المرتبطة بالذكاء الاصطناعي. في عام 2023، حذَّر ألتمان المشرِّعين من المخاطر المحتملة للذكاء الاصطناعي، مُقراً بأنَّ عواقبه ستكون وخيمة إذا ما انحرف عن مساره الصحيح.

55 % من الأميركيين ينظرون إلى الذكاء الاصطناعي كقوة ضارة لا نافعة

وقد لاقى هذا التحذير صدى واسعاً لدى الرأي العام؛ إذ أظهر استطلاع رأي أجرته جامعة كوينيبياك أن 55 في المائة من الأميركيين ينظرون إلى الذكاء الاصطناعي كقوة ضارة لا نافعة. ويعكس هذا الردُّ السلبي شعوراً عاماً بالقلق إزاء دخول الذكاء الاصطناعي إلى السوق، وما يكتنفه من غموض وشفافية ومساءلة.

تسريح الموظفين

كما ساهم الخوف من أن يستحوذ الذكاء الاصطناعي على الوظائف في تأجيج المعارضة. فقد عمدت شركات التكنولوجيا إلى تقليص عدد موظفيها بالتزامن مع توسيع نطاق استخدامها الذكاء الاصطناعي. وفي الأشهر الأخيرة، أعلنت شركات مثل «ميتا» و«مايكروسوفت» عن تسريح أعداد كبيرة من الموظفين، ما زاد من المخاوف بشأن الآثار طويلة المدى للذكاء الاصطناعي على فرص العمل.

سلامة الذكاء الاصطناعي

وقد ساهمت منظمات ذات صلة بمفهوم «الإيثار الفعَّال» (effective altruism)، وهو فلسفة تُعنى بسلامة الذكاء الاصطناعي، في تنظيم معارضة هذه التقنية. وتُجادل هذه الجماعات -الممولة من قِبل أفراد مثل داستن موسكوفيتز، المؤسس المشارك لـ«فيسبوك»، وبيير أوميديار، مؤسس «إيباي»- بضرورة تنظيم الذكاء الاصطناعي بدقة لمنعه من إحداث الضرر.

ويُبرز صعود جماعات مناهضة للذكاء الاصطناعي، مثل «هيومنز فيرست» التي ترأسها آمي كريمر، الزعيمة السابقة لـ«حركة حزب الشاي»، تنامي التحالف السياسي الذي يعتبر تنظيم الذكاء الاصطناعي قضية بالغة الأهمية.

مع ذلك، لا يتوخى جميع قادة التكنولوجيا الحذر نفسه حيال مخاطر الذكاء الاصطناعي. فقد كان جنسن هوانغ، الرئيس التنفيذي لشركة «إنفيديا»، من أشدِّ المؤيدين للذكاء الاصطناعي، مؤكداً على إمكاناته في خلق مزيد من فرص العمل وتحسين حياة الناس. وهو يُقلِّل من شأن المخاوف التي أثارها النقاد، مُجادلاً بأن الذكاء الاصطناعي سيجعل العمل أكثر كفاءة، بدلاً من أن يحلَّ محلَّ العمل البشري.

احتجاج أمام مقر شركة «أوبن إيه آي»

داعمون ومعارضون

على الرغم من ذلك، لم يقف قطاع التكنولوجيا مكتوف الأيدي تماماً في مواجهة ردود الفعل الغاضبة. فقد استثمر وادي السيليكون بكثافة في لجان العمل السياسي للتأثير على المشرِّعين والتقليل من شأن الانتقادات. وكثيراً ما يصف قطاع التكنولوجيا معارضيه بـ«المتشائمين من الذكاء الاصطناعي»، أو «المعارضين المحليين»، ولكن بالنسبة لكثير من النقاد، تعكس هذه الأوصاف فشل القطاع في معالجة المخاوف الحقيقية.

ومع ذلك، وعلى الرغم من اختلاف الخلفيات السياسية والشخصية، يشترك الأفراد والجماعات المعارضة للذكاء الاصطناعي في هدف واحد: ضمان أن يصاحب نمو هذه التقنية تنظيم مسؤول ونقاش عام حول آثارها طويلة المدى. ويخشون أنه من دون هذه الرقابة، قد يؤدي الذكاء الاصطناعي إلى تفاقم عدم المساواة وإلى عواقب اجتماعية واقتصادية غير متوقعة.

* خدمة «نيويورك تايمز».


الإعلانات تتسلل إلى روبوتات الدردشة المدعومة بالذكاء الاصطناعي

الإعلانات تتسلل إلى روبوتات الدردشة المدعومة بالذكاء الاصطناعي
TT

الإعلانات تتسلل إلى روبوتات الدردشة المدعومة بالذكاء الاصطناعي

الإعلانات تتسلل إلى روبوتات الدردشة المدعومة بالذكاء الاصطناعي

يستعين مئات الملايين من الأشخاص يومياً بروبوتات الدردشة المدعومة بالذكاء الاصطناعي في كل شيء، بدءاً من طلب التوصيات حول المنتجات، وصولاً إلى العلاقات العاطفية، ما يجعلهم جمهوراً مغرياً للاستهداف بإعلانات قد تكون خفية.

توظيف النماذج الذكية للإعلانات الخفية

في الواقع، تشير بحوثنا إلى أنه يمكن استخدام روبوتات الدردشة المدعومة بالذكاء الاصطناعي بسهولة، للإعلان الخفي، والتأثير على مستخدميها، كما كتب برايان جاي تانغ، وكانغ جي شين*.

نحن عالِما حاسوب نتابع سلامة وخصوصية الذكاء الاصطناعي منذ سنوات. وقد وجدنا في دراسة نشرناها في إحدى مجلات جمعية آلات الحوسبة، أن روبوتات الدردشة المدربة على تضمين إعلانات منتجات مخصصة في الردود على الاستفسارات، تؤثر على خيارات الناس بشأن المنتجات. ولم يدرك معظم المشاركين أنهم يتعرضون للتلاعب.

عرض الإعلانات

تأتي هذه النتائج في لحظة حاسمة. ففي عام 2023، بدأت «مايكروسوفت» في عرض إعلانات في أداة «Bing Chat»، التي تُعرف الآن باسم «كوبايلوت». ومنذ ذلك الحين، أجرت «غوغل» و«أوبن إيه آي» تجارب على الإعلانات في روبوتات الدردشة الخاصة بهما. وبدأت «ميتا» بإرسال إعلانات مخصصة للمستخدمين على «فيسبوك» و«إنستغرام»، بناءً على تفاعلاتهم مع أدوات الذكاء الاصطناعي التوليدية الخاصة بها.

وتتنافس الشركات الكبرى على الريادة؛ ففي أواخر مارس (آذار) الماضي، استقطبت «أوبن إيه آي» ديف دوغان، المدير التنفيذي المخضرم للإعلانات في «ميتا»، ليتولى قيادة عملياتها الإعلانية.

مستوى أعلى من المخاطر على المستخدمين

لقد أصبحت الإعلانات جزءاً لا يتجزأ من معظم خدمات الويب المجانية وقنوات الفيديو ومنصات التواصل الاجتماعي الكبيرة. ولكن أحدث نماذج الذكاء الاصطناعي قد تنقل هذه الممارسة إلى مستوى جديد من المخاطر على المستهلكين.

ولا يقتصر استخدام روبوتات الدردشة على البحث عن المعلومات والوسائط أو إنتاج المحتوى؛ بل يلجأ إليها المستخدمون لأداء مهام متنوعة، تصل في تعقيدها إلى تقديم النصائح الحياتية والدعم النفسي. ويتعامل الناس بشكل متزايد مع روبوتات الدردشة كرفقاء ومعالجين، حتى أن بعض المستخدمين يقيمون علاقات وثيقة مع الذكاء الاصطناعي.

في ظل هذه الظروف، قد يغفل الناس بسهولة أن الشركات تُنشئ روبوتات الدردشة لتحقيق الربح في نهاية المطاف. ولذلك، تسعى شركات الذكاء الاصطناعي جاهدة إلى تحليل بيانات المستخدمين بدقة، لجعل الإعلانات أكثر فاعلية وربحية.

تحليل البيانات لتوجيه إعلانات مخصصة

أصبحت إعلانات روبوتات الدردشة أكثر فاعلية. فبمجرد سؤال بسيط لروبوت الدردشة، يمكن الكشف عن معلومات أكثر بكثير مما يتوقعه المستخدم.

وقد أظهرت دراسة أجريت عام 2024 أن نماذج اللغة الضخمة قادرة على استنتاج نطاق واسع من البيانات الشخصية، والتفضيلات، وحتى أنماط تفكير الشخص خلال الاستفسارات الروتينية.

استنتاج التفضيلات لوضع ملفات شخصية

على سبيل المثال، قد يشير سؤال: «ساعدني في كتابة مقال عن تاريخ الأدب الأميركي» إلى أن المستخدم طالب في المرحلة الثانوية. بينما قد يشير سؤال: «اقترح عليَّ وصفات لعشاء سريع خلال الأسبوع» إلى أن المستخدم هو واحد من الوالدين العاملين. ومحادثة واحدة قد توفر كمّاً هائلاً من التفاصيل. ومع مرور الوقت، يمكن لسجل المحادثات الكامل أن يُكوِّن ملفاً شخصياً غنياً للغاية.

تجربة اختبار لنموذج ذكي بإعلانات

ولتوضيح كيفية حدوث ذلك عملياً، قمنا بتطوير روبوت دردشة يُدمج الإعلانات بسلاسة في محادثاته مع المستخدمين، مقترحاً منتجات وخدمات بناءً على سياق المحادثة.

طلبنا من 179 شخصاً إنجاز مهام يومية عبر الإنترنت، باستخدام واحد من 3 روبوتات دردشة: روبوت شائع الاستخدام على الإنترنت اليوم، وآخر يُدمج الإعلانات بشكل غير مُعلَن، وثالث يُصنِّف الاقتراحات الدعائية بوضوح.

لم يكن المشاركون على علم بأن التجربة تتعلق بالإعلانات. على سبيل المثال، عندما طلب المشاركون من برنامج الدردشة الآلي الخاص بنا نظاماً غذائياً وبرنامجاً رياضياً، اقترحت النسخة الإعلانية استخدام تطبيق محدد لتتبع السعرات الحرارية. وقدَّمت هذا المحتوى المدعوم على أنه توصية محايدة، مع أنه كان يهدف إلى التأثير على المستخدمين.

وقد أشار كثير من المشاركين إلى أنهم متأثرون بالذكاء الاصطناعي، وأن له تأثيراً على قراراتهم؛ بل إن بعضهم قال إنه فوَّض عملية اتخاذ القرار بالكامل إلى برنامج الدردشة الآلي.

إعلانات «خفيَّة» أكثر ودِّية

وأشار نصف المشاركين الذين تلقوا إعلانات مدعومة وإعلانات صريحة، إلى أنهم لم يلاحظوا وجود لغة إعلانية في الردود التي تلقوها. وقد أدى ذلك إلى نتيجة مقلقة؛ فمع أن الإعلانات جعلت أداء برنامج الدردشة الآلي أسوأ بنسبة 3 في المائة إلى 4 في المائة في كثير من المهام، فإن كثيراً من المستخدمين أشاروا إلى تفضيلهم ردود برنامج الدردشة الآلي الإعلانية على الردود غير الإعلانية؛ بل إنهم قالوا إن الردود التي تتضمن إعلانات بدت أكثر ودية وفائدة.

معرفة احتياجاتك... لإقناعك

قد يكون لهذا النوع من التأثير الخفي عواقب وخيمة عند ظهوره في مجالات أخرى من الحياة، كالآراء السياسية والاجتماعية. لطالما كان تحليل المستخدمين، واستخدام علم النفس لاستهدافهم، جزءاً من خوارزميات وسائل التواصل الاجتماعي والإعلانات الإلكترونية، لأكثر من عقد.

لكننا نرى أن برامج الدردشة الآلية ستعزِّز هذه التوجهات. ذلك لأن الأولوية القصوى لخوارزميات وسائل التواصل الاجتماعي هي إبقاء تفاعلك مع المحتوى؛ حيث تُخصَّص الإعلانات بناءً على سجل بحثك.

مع ذلك، يمكن لبرامج الدردشة الآلية أن تتجاوز ذلك بمحاولة إقناعك مباشرة، استناداً إلى معتقداتك ومشاعرك ونقاط ضعفك. وبرامج الدردشة الآلية القادرة على التفكير والتصرف بشكل مستقل أكثر فاعلية من الخوارزميات التقليدية في جمع المعلومات من المستخدمين تلقائياً. فبرنامج الدردشة الآلي المُصمَّم لغرض محدد يمكنه الاستمرار في استجواب شخص ما حتى يحصل على المعلومات المطلوبة، ما يُؤدِّي إلى تكوين صورة أدق عنه.

هذا النوع من الاستجواب الذاتي ممكن، ويتماشى مع نماذج أعمال شركات الذكاء الاصطناعي، وقد أثار قلق الجهات التنظيمية.

وتُطلق «أوبن إيه آي» حالياً إعلانات في «تشات جي بي تي»، ولكنها صرَّحت بأنها لن تسمح بوضع الإعلانات لتغيير ردود روبوت الدردشة المدعوم بالذكاء الاصطناعي.

لكن السماح بالإعلانات المُخصصة ضمن ردود روبوت الدردشة بات وشيكاً. وتشير بحوثنا إلى أنه إذا اتخذت شركات الذكاء الاصطناعي هذه الخطوة، فقد لا يلاحظ كثير من المستخدمين البشريين حدوثها.

خطوات للكشف عن إعلانات روبوتات الدردشة

إليك بعض الخطوات التي يمكنك اتباعها لمحاولة كشف إعلانات روبوتات الدردشة المدعومة بالذكاء الاصطناعي:

- ابحث عن أي نص إفصاحي (كلمات مثل: «إعلان»، و«برعاية») حتى لو كان باهتاً أو تصعب رؤيته. هذه النصوص إلزامية بموجب لوائح لجنة التجارة الفيدرالية. وتطبقها أيضاً منصتا «أمازون» و«غوغل»، وغيرهما من المنصات الإلكترونية الكبرى.

- فكِّر فيما إذا كان ذِكر المنتج أو العلامة التجارية منطقياً ومعروفاً على نطاق واسع؛ إذ يتعلم الذكاء الاصطناعي من النصوص والصور على الإنترنت، لذا من المرجح أن تكون العلامات التجارية الشهيرة مُدمجة في نماذجه. إذا كان المنتج جديداً أو غير معروف، فمن المرجح أن يكون إعلاناً.

- أي تغيير غير معتاد في التوجه، أو اللهجة، قد يكون مؤشراً على وجود إعلان. ويُشبه هذا الأمر على «يوتيوب» الانتقال المفاجئ أو غير المتوقع إلى قسم الإعلانات الممولة في مقاطع الفيديو التي يُنشئها مُنشئو المحتوى.

* طالب دكتوراه في علوم وهندسة الحاسوب، وأستاذ فخري في علوم الحاسوب بجامعة ميشيغان. مجلة «فاست كومباني».