هل أنهى الذكاء الاصطناعي عصر أنظمة كشف الاحتيال الرقمية التقليدية؟

الهويات المصطنعة... التهديد الذي ينمو بصمت

الاحتيال تحوّل من استهداف الأنظمة التقنية إلى التلاعب بالسلوك البشري ما يغيّر طبيعة التهديد بشكل جذري (رويترز)
الاحتيال تحوّل من استهداف الأنظمة التقنية إلى التلاعب بالسلوك البشري ما يغيّر طبيعة التهديد بشكل جذري (رويترز)
TT

هل أنهى الذكاء الاصطناعي عصر أنظمة كشف الاحتيال الرقمية التقليدية؟

الاحتيال تحوّل من استهداف الأنظمة التقنية إلى التلاعب بالسلوك البشري ما يغيّر طبيعة التهديد بشكل جذري (رويترز)
الاحتيال تحوّل من استهداف الأنظمة التقنية إلى التلاعب بالسلوك البشري ما يغيّر طبيعة التهديد بشكل جذري (رويترز)

لم يعد الاحتيال الرقمي يستهدف الأنظمة التقنية بقدر ما يستهدف الإنسان نفسه. هذا التحول لا يقتصر على تطور في الأساليب، بل يعكس تغييراً أعمق في طبيعة الهجوم، حيث أصبحت الثقة البشرية هي نقطة الاختراق الأساسية. وفي ظل تسارع استخدام الذكاء الاصطناعي، يطرح هذا الواقع أسئلة جديدة حول قدرة المؤسسات على مواكبة التهديدات، وحول ما إذا كانت أدوات الحماية الحالية لا تزال صالحة.

يوضح عبد حمَندي كبير مديري قسم الاستشارات لمكافحة الاحتيال والاستخبارات الأمنية في شركة «ساس» (SAS) أن ما نشهده اليوم «ليس تغييراً دورياً، بل هو تغيير هيكلي، لأن وحدة الهجوم قد تغيرت». ويشير حمندي خلال لقاء خاص مع «الشرق الأوسط» إلى أن المحتالين لم يعودوا يركزون على استغلال الثغرات التقنية، بل على «التلاعب بالسلوك البشري»، حيث يصبح العميل نفسه جزءاً من تنفيذ عملية الاحتيال.

عبد حمَندي كبير مديري قسم الاستشارات لمكافحة الاحتيال والاستخبارات الأمنية في شركة «ساس» (ساس)

نهاية كفاية الأنظمة التقليدية

على مدى سنوات، استثمرت المؤسسات المالية بشكل كبير في أنظمة مراقبة المعاملات التي تعتمد على اكتشاف الأنماط غير الطبيعية. لكن هذه المقاربة، رغم أهميتها، لم تعد كافية بمفردها. فعمليات الاحتيال الحديثة باتت تُصمَّم لتبدو طبيعية تماماً، من حيث الجهاز المستخدم، وسلوك العميل، وبياناته.

ويشرح حمندي أن هذه الأنظمة «لا تزال لها قيمة، لكنها لا ترى إلا ما ينحرف عن المسار المعتاد»، في حين أن الاحتيال المعاصر يتعمّد الاندماج داخل هذا المسار. وهذا يعني أن المؤسسات قد تبدو كأنها تحسّن أدواتها باستمرار، لكنها في الواقع «تدافع عن جزء محدود من نطاق المعركة»، بينما يتحرك التهديد الحقيقي في مساحة أخرى أكثر تعقيداً تتعلق بالسلوك والنية.

هذا التحول يفرض إعادة تعريف جوهرية لمفهوم الاحتيال نفسه. فبدلاً من التركيز على ما إذا كانت المعاملة صحيحة تقنياً، يصبح السؤال: هل تم اتخاذ القرار بحرية ووعي؟

في كثير من الحالات الحديثة، يصرّح الضحايا بأنهم نفذوا العمليات بأنفسهم، لكن تحت ضغط، أو تضليل. هنا، يشير حمندي إلى ضرورة الانتقال من اعتبار التفويض دليلاً على النية، إلى اعتباره «موافقة مشروطة بالسياق»، حيث قد تكون الموافقة شكلية، لكنها لا تعكس إرادة حقيقية. هذا التغيير لا يتعلق فقط بالتقنية، بل يفتح الباب أمام إعادة النظر في حدود المسؤولية بين المؤسسات والعملاء، ويعزز الحاجة إلى آليات تدخل استباقية بدلاً من الاكتفاء بالتعويض بعد وقوع الضرر.

أساليب كشف الاحتيال التقليدية لم تعد كافية لأن العمليات الحديثة تُصمَّم لتبدو طبيعية تماماً (رويترز)

الهويات المصطنعة المتطورة

من أبرز التحديات التي تعكس هذا التحول، انتشار ما يُعرف بـ«الهويات المصطنعة»، وهي هويات تُبنى تدريجياً لتبدو حقيقية تماماً قبل أن تُستخدم في الاحتيال. في هذا السياق، لم يعد التحقق من الهوية (KYC) عملية تُجرى مرة واحدة عند فتح الحساب، بل يجب أن يتحول إلى عملية مستمرة. ويؤكد حمندي أن الهدف لم يعد التحقق من صحة المستندات فقط، بل تقييم ما إذا كانت الهوية «تُظهر نمطاً سلوكياً يتطور بمرور الوقت كما يفعل شخص حقيقي».

المفارقة هنا أن السلوك «المثالي» قد يكون في حد ذاته مؤشراً على الاحتيال، إذ إن البشر بطبيعتهم غير متسقين تماماً، بينما تميل الأنظمة المصطنعة إلى تقديم صورة أكثر انتظاماً.

ورغم التطور التقني، لا تكمن المشكلة فقط في الأدوات أو البيانات، بل في غياب التنسيق بين الجهات المختلفة. فالمؤسسات غالباً ما ترى جزءاً محدوداً من سلوك المستخدم، وهو ما تستغله الهويات المصطنعة.

ويشير حمندي إلى أن التحدي الأكبر يكمن في «تنسيق النظام البيئي»، حيث تحتاج المؤسسات إلى تبادل البيانات بشكل آمن، وتطوير أطر مشتركة للاستخبارات، إضافة إلى وضوح تنظيمي يسمح بتكوين صورة شاملة.

سباق غير متكافئ

مع دخول الذكاء الاصطناعي بقوة في هذا المجال، يبدو أن المحتالين في كثير من الأحيان يتحركون بسرعة أكبر من المؤسسات. ويرجع ذلك إلى أنهم يعملون خارج القيود التنظيمية، ومن دون إرث تقني معقد، ما يمنحهم مرونة أكبر في التجريب. ومع ذلك، لا يرى حمندي أن المؤسسات في موقع ضعف مطلق، بل يشير إلى أنها تمتلك مزايا مهمة، مثل الثقة، وحجم البيانات، لكن المشكلة تكمن في «بطء التبني، وصعوبة دمج الأنظمة»، وليس في نقص القدرات.

وفي ظل تقنيات مثل استنساخ الصوت، والتزييف العميق، أصبحت وسائل المصادقة التقليدية أكثر عرضة للاختراق. وفي بعض الحالات، يشير حمندي إلى أن هذه التقنيات «قد سبق أن تجاوزت بالفعل» هذه الأساليب.

البديل الذي يبرز هنا هو مفهوم «المصادقة المستمرة»، حيث لا يتم التحقق من هوية المستخدم في نقطة واحدة فقط، بل يتم تقييم مستوى الثقة بشكل ديناميكي بناءً على السلوك والسياق. غير أن تطبيق هذا النموذج يتطلب توازناً دقيقاً بين الحماية وتجربة المستخدم.

التحقق من الهوية لم يعد إجراءً لمرة واحدة بل عملية مستمرة تعتمد على تحليل السلوك مع مرور الوقت (شاترستوك)

بين الحماية والمراقبة

الاعتماد على السلوك كمؤشر رئيس يطرح بدوره تساؤلات أخلاقية، خصوصاً فيما يتعلق بالخصوصية. لكن حمندي يوضح أن المسألة لا تتعلق بالمراقبة، بل بـ«الملاءمة»، حيث يركز التحليل السلوكي على مؤشرات مرتبطة بالمخاطر، مثل التغيرات المفاجئة، أو التردد، وليس على المعتقدات الشخصية. الحد الفاصل هنا، بحسب رأيه، يكمن في النية والمساءلة. فالحماية تكون مشروعة عندما تكون قابلة للتفسير، ومتناسبة مع الهدف، بينما يتحول الأمر إلى تنميط غير أخلاقي إذا أصبح غامضاً، أو تمييزياً.

ورغم إدراك الجهات التنظيمية لطبيعة التهديدات الجديدة، لا تزال بعض الأطر التنظيمية تعكس تصوراً قديماً للاحتيال باعتباره مشكلة تقنية، وليس سلوكاً ديناميكياً. ومع ذلك، هناك مؤشرات على تحول تدريجي نحو نماذج أكثر مرونة تعتمد على الحوار، والتجريب، لكن التحدي يبقى في تسريع التنسيق بين الابتكار والسياسات.

مخاطر تتجاوز المال

إذا لم تتمكن المؤسسات من تحديث أنظمتها، فإن المخاطر لن تقتصر على الخسائر المالية. يحذر حمندي من احتمال «تآكل الثقة في الخدمات المصرفية الرقمية، وأنظمة المدفوعات، بل وحتى في مفهوم الهوية الرقمية ذاته». كما أن الفئات الأكثر ضعفاً ستكون الأكثر تضرراً، ما يضيف بُعداً اجتماعياً للأزمة، ويجعل من مكافحة الاحتيال مسؤولية تتجاوز الجانب التقني لتصبح قضية تتعلق بالثقة، والاستقرار.

يعكس هذا التحول مساراً أوسع في عالم التكنولوجيا، حيث لم يعد التحدي فيما يمكن للأنظمة أن تفعله، بل في كيفية استخدامها، ولصالح من.

ومع انتقال الاحتيال من استهداف الأنظمة إلى استهداف الإنسان، تصبح الحاجة إلى إعادة التفكير في أدوات الحماية أكثر إلحاحاً من أي وقت مضى. فالرهان اليوم لم يعد على اكتشاف الهجمات بعد وقوعها، بل على فهم السلوك البشري قبل أن يتحول إلى نقطة ضعف.


مقالات ذات صلة

هاتف «أونر 600»: تكامل الذكاء الاصطناعي التوليدي مع الأداء المتقدم

تكنولوجيا تصميم أنيق بأداء متقدم وبطارية لا تنتهي

هاتف «أونر 600»: تكامل الذكاء الاصطناعي التوليدي مع الأداء المتقدم

يحول الصور إلى أفلام سينمائية بسهولة بالغة وعروض فيديو إبداعية عبر أوامر نصية بسيطة.

خلدون غسان سعيد (جدة)
خاص توماس كوريان الرئيس التنفيذي لـ«غوغل كلاود» متحدثاً لـ«الشرق الأوسط» (الشرق الأوسط)

خاص الرئيس التنفيذي لـ«غوغل كلاود»: مراكز بياناتنا «مقاوِمَة للأزمات» ولا ترتبط بحدود

بينما تفرض التوترات الإقليمية تحديات على البنية التحتية، تعيد «غوغل» صياغة مفهوم استمرارية الأعمال عبر دمج الحصانة الرقمية بالذكاء الاصطناعي المؤسسي.

نسيم رمضان (لاس فيغاس)
الاقتصاد «رؤية 2030»: حكاية التحول من الإدارة التقليدية إلى الريادة الرقمية العالمية

«رؤية 2030»: حكاية التحول من الإدارة التقليدية إلى الريادة الرقمية العالمية

انطلقت السعودية في مسار التحوُّل الرقمي والاقتصاد المعرفي، مستندةً إلى بنية تحتية رقمية مُتقدِّمة وبناء معرفي تراكم عبر سنوات طويلة، ما عزز قدرتها على المنافسة.

عبير حمدي (الرياض)
الاقتصاد زوار في جناح «هواوي» خلال مؤتمر التكنولوجيا بالصين - 26 يوليو 2025 (رويترز)

أميركا لتوسيع الحرب التكنولوجية على الصين

أمرت وزارة الخارجية الأميركية بحملة عالمية لتسليط الضوء على محاولات لشركات صينية؛ مثل «ديب سيك» للذكاء الاصطناعي، لسرقة حقوق الملكية الفكرية الأميركية.

«الشرق الأوسط» (واشنطن)
خاص التوترات التي شهدها الشرق الأوسط خلال الشهرين الماضيين لم تؤدِّ إلى تصعيد سيبراني واسع وفوري بالقدر الذي كان متوقعاً (شاترستوك)

خاص «غوغل كلاود» لـ«الشرق الأوسط»: هدوء سيبراني «حذر» رغم التوترات الإقليمية

تقول «غوغل كلاود» إن هدوء الهجمات لا يلغي الخطر، وإن المرونة السيبرانية تبدأ من الثغرات والاستعداد المبكر قبل التصعيد.

نسيم رمضان (لاس فيغاس)

«ميتا» تتجه إلى الفضاء لتوليد الطاقة الشمسية

شعار شركة «ميتا» (رويترز)
شعار شركة «ميتا» (رويترز)
TT

«ميتا» تتجه إلى الفضاء لتوليد الطاقة الشمسية

شعار شركة «ميتا» (رويترز)
شعار شركة «ميتا» (رويترز)

في خطوة تعكس تسارع الابتكار في قطاع الطاقة والتكنولوجيا، تسعى شركة «ميتا» إلى استكشاف آفاق غير تقليدية لتأمين احتياجاتها المتزايدة من الطاقة، خصوصاً مع التوسع الكبير في تشغيل أنظمة الذكاء الاصطناعي. وفي هذا السياق، تخطط الشركة لاستغلال الطاقة الشمسية من الفضاء، في محاولة لتوفير مصدر مستدام وفعّال لتشغيل مراكز بياناتها على الأرض.

تعتزم شركة «ميتا»، المملوكة لمارك زوكربيرغ، جمع الطاقة الشمسية من الفضاء لتغذية مراكز بيانات الذكاء الاصطناعي التابعة لها، وذلك وفقاً لما أوردته صحيفة «التليغراف».

وفي هذا الإطار، وقّع مالك منصّتي «فيسبوك» و«إنستغرام» اتفاقية مع شركة «أوفر ڤيو إنرجي» الأميركية الناشئة، بهدف توفير ما يصل إلى غيغاوات واحدة من الطاقة الشمسية، وهو ما يعادل تزويد نحو 750 ألف منزل بالطاقة.

وتتعاون «ميتا» مع «أوفر ڤيو إنرجي» ضمن خططها لإطلاق أسطول قد يصل إلى 1000 قمر اصطناعي، مزوّد بألواح شمسية تعمل على جمع أشعة الشمس مباشرة من الفضاء.

وستُحوَّل هذه الطاقة المجمّعة إلى أشعة تحت حمراء منخفضة الكثافة، يمكن توجيهها نحو الألواح الكهروضوئية على سطح الأرض، حيث تُعاد معالجتها وتحويلها إلى طاقة كهربائية قابلة للاستخدام.

وتتميّز عملية جمع الطاقة الشمسية في الفضاء بكفاءة أعلى بكثير مقارنةً بسطح الأرض، إذ لا تتأثر أشعة الشمس هناك بعوامل مثل الغلاف الجوي أو تلوّث الهواء أو الغيوم، كما يمكن وضع الأقمار الاصطناعية في مدارات تتيح لها التعرّض لأشعة الشمس بشكل شبه دائم على مدار الساعة.

ومن بين مزايا هذه التقنية أيضاً إمكانية نقل الطاقة إلى مناطق تعاني من نقص الإضاءة أو الظلام، مما يسهم في تعزيز كفاءة أنظمة الطاقة الشمسية التقليدية.

وتُشكّل هذه التقنية دفعة قوية لشركات وادي السيليكون الكبرى، التي تعمل على إنشاء مراكز بيانات ضخمة لتشغيل تطبيقات الذكاء الاصطناعي في مختلف أنحاء العالم الغربي.

كما يُتوقع أن تمثّل الطاقة الشمسية القادمة من الفضاء مصدراً مستداماً ونظيفاً يلبي احتياجات شركات التكنولوجيا، التي تواجه تحديات متزايدة في الالتزام بمعاييرها البيئية، في ظل الطلب المتصاعد على الطاقة لتشغيل أنظمة الذكاء الاصطناعي.

ومن شأن هذه المبادرة أيضاً أن تقلّل اعتماد هذه الشركات على شبكات الطاقة المحلية التي تعاني أصلاً من ضغوط متزايدة.

في السياق ذاته، تعمل شركات أخرى على تطوير تقنيات مشابهة، من بينها «سبيس إكس» التابعة لإيلون ماسك، و«بلو أوريجين» التابعة لجيف بيزوس، إضافة إلى شركة «غوغل»، حيث تسعى هذه الجهات إلى تطوير أقمار اصطناعية تعمل بالطاقة الشمسية لدعم مراكز البيانات.


ردَّة فعل متصاعدة ضد الذكاء الاصطناعي تكتسب زخماً جماهيرياً

ردَّة فعل متصاعدة ضد الذكاء الاصطناعي تكتسب زخماً جماهيرياً
TT

ردَّة فعل متصاعدة ضد الذكاء الاصطناعي تكتسب زخماً جماهيرياً

ردَّة فعل متصاعدة ضد الذكاء الاصطناعي تكتسب زخماً جماهيرياً

تزداد في الولايات المتحدة حدَّة ردَّة الفعل المتصاعدة ضد الذكاء الاصطناعي، مدفوعة بمخاوف بشأن تأثير هذه التقنية على المجتمع. وتدعو هذه الحركة التي تضم شريحة واسعة من الناس من خلفيات سياسية ومهنية مختلفة، إلى مزيد من التنظيم القانوني، والنقاش حول دور الذكاء الاصطناعي في الحياة الأميركية، كما كتب تريب ميكل*.

وتشمل فئات المنتقدين آباءً، وقادة دينيين، وناشطين بيئيين، وغيرهم، متحدين في تشكيكهم في تركيز صناعة التكنولوجيا على الربح، وعواقبه السلبية المحتملة على الجمهور.

احتجاج ضد إنشاء مراكز البيانات المهددة للبيئة

دوافع متنوعة

وتتنوع دوافع هذه الردَّة. فعلى سبيل المثال، شعر مايكل غرايستون -وهو قس إنجيلي من أوستن في تكساس- بالقلق بعد سماعه عن الآثار المدمرة لـجهاز «رفيق ذكاء اصطناعي» على زواج صديق له. وبالمثل شعر جاك غاردنر -وهو موسيقي من بويز- في آيداهو وزوجته -وهي معلمة في مدرسة ابتدائية- بالقلق إزاء إنتاج الذكاء الاصطناعي الأغاني باستخدام موسيقى محمية بحقوق الطبع والنشر.

أما في وولكوت، بإنديانا، فقد خشي بارت وآمي سنايدر -وهما مزارعان- بعد علمهما ببناء مركز بيانات بالقرب من منزلهما، من استنزاف المياه الجوفية المحلية والإضرار بمجتمعهما. ووجد هذان الشخصان -على الرغم من افتقارهما للخبرة السياسية السابقة- نفسيهما جزءاً من تحالف متنامٍ من منتقدي الذكاء الاصطناعي.

مكاسب مالية... وعواقب اجتماعية

لا تقتصر هذه الحركة على المخاوف المحلية؛ بل تشمل شخصيات شعبوية، مثل ستيفن ك. بانون، وسياسيين تقدميين مثل السيناتور بيرني ساندرز. وبينما تختلف أسباب معارضتهم للذكاء الاصطناعي، فإنهم يشتركون في اعتقادهم بأن مطوري هذه التقنية يهتمون بالمكاسب المالية أكثر من اهتمامهم بعواقبها الأوسع على المجتمع. ويشمل ذلك مخاوف من أن الثروة الهائلة التي يولِّدها الذكاء الاصطناعي ستفيد بالدرجة الأولى أصحاب المليارات في وادي السيليكون، بينما ستقع التكاليف بشكل غير متناسب على الطبقتين المتوسطة والعاملة.

غياب الإشراف القانوني

يدور جزء كبير من الانتقادات حول غياب التنظيم القانوني أو حتى النقاش حول مستقبل الذكاء الاصطناعي. وقد عبَّر بيرني ساندرز عن إحباطه في مقابلة حديثة؛ مشيراً إلى أنه على الرغم من تأثير الذكاء الاصطناعي على جميع سكان البلاد، فإن النقاش حول كيفية إدارته في الكونغرس كان محدوداً. ووفقاً للمتحدث باسم البيت الأبيض ديفيس إنغل، ركزت إدارة ترمب على ضمان هيمنة أميركا في مجال الذكاء الاصطناعي لحماية الأمن القومي والمصالح الاقتصادية. مع ذلك، يرى النقاد أن الحكومة كانت أكثر دعماً لوادي السيليكون من اهتمامها بالمخاطر التي تشكلها هذه التقنية.

تأثير بيئي... وفقدان الوظائف

وقد ساهم النمو السريع للذكاء الاصطناعي، الذي حفزه إطلاق برنامج «تشات جي بي تي» عام 2022، في تفاقم ردود الفعل السلبية. ومع تحول نظام الدردشة الآلي هذا إلى أسرع منتج برمجي نمواً على الإطلاق، ضخَّت شركات التكنولوجيا مليارات الدولارات في بناء البنية التحتية اللازمة لتطوير تقنية الذكاء الاصطناعي. وقد أدى ذلك إلى انتشار مراكز البيانات في جميع أنحاء العالم، ما أثار مخاوف بشأن تأثيرها البيئي، فضلاً عن تساؤلات حول فقدان الوظائف المحتمل نتيجة للأتمتة.

عواقب وخيمة «إن انحرف عن مساره الصحيح»

بل إن بعض رواد صناعة التكنولوجيا -مثل إيلون ماسك وسام ألتمان- حذَّروا من المخاطر المرتبطة بالذكاء الاصطناعي. في عام 2023، حذَّر ألتمان المشرِّعين من المخاطر المحتملة للذكاء الاصطناعي، مُقراً بأنَّ عواقبه ستكون وخيمة إذا ما انحرف عن مساره الصحيح.

55 % من الأميركيين ينظرون إلى الذكاء الاصطناعي كقوة ضارة لا نافعة

وقد لاقى هذا التحذير صدى واسعاً لدى الرأي العام؛ إذ أظهر استطلاع رأي أجرته جامعة كوينيبياك أن 55 في المائة من الأميركيين ينظرون إلى الذكاء الاصطناعي كقوة ضارة لا نافعة. ويعكس هذا الردُّ السلبي شعوراً عاماً بالقلق إزاء دخول الذكاء الاصطناعي إلى السوق، وما يكتنفه من غموض وشفافية ومساءلة.

تسريح الموظفين

كما ساهم الخوف من أن يستحوذ الذكاء الاصطناعي على الوظائف في تأجيج المعارضة. فقد عمدت شركات التكنولوجيا إلى تقليص عدد موظفيها بالتزامن مع توسيع نطاق استخدامها الذكاء الاصطناعي. وفي الأشهر الأخيرة، أعلنت شركات مثل «ميتا» و«مايكروسوفت» عن تسريح أعداد كبيرة من الموظفين، ما زاد من المخاوف بشأن الآثار طويلة المدى للذكاء الاصطناعي على فرص العمل.

سلامة الذكاء الاصطناعي

وقد ساهمت منظمات ذات صلة بمفهوم «الإيثار الفعَّال» (effective altruism)، وهو فلسفة تُعنى بسلامة الذكاء الاصطناعي، في تنظيم معارضة هذه التقنية. وتُجادل هذه الجماعات -الممولة من قِبل أفراد مثل داستن موسكوفيتز، المؤسس المشارك لـ«فيسبوك»، وبيير أوميديار، مؤسس «إيباي»- بضرورة تنظيم الذكاء الاصطناعي بدقة لمنعه من إحداث الضرر.

ويُبرز صعود جماعات مناهضة للذكاء الاصطناعي، مثل «هيومنز فيرست» التي ترأسها آمي كريمر، الزعيمة السابقة لـ«حركة حزب الشاي»، تنامي التحالف السياسي الذي يعتبر تنظيم الذكاء الاصطناعي قضية بالغة الأهمية.

مع ذلك، لا يتوخى جميع قادة التكنولوجيا الحذر نفسه حيال مخاطر الذكاء الاصطناعي. فقد كان جنسن هوانغ، الرئيس التنفيذي لشركة «إنفيديا»، من أشدِّ المؤيدين للذكاء الاصطناعي، مؤكداً على إمكاناته في خلق مزيد من فرص العمل وتحسين حياة الناس. وهو يُقلِّل من شأن المخاوف التي أثارها النقاد، مُجادلاً بأن الذكاء الاصطناعي سيجعل العمل أكثر كفاءة، بدلاً من أن يحلَّ محلَّ العمل البشري.

احتجاج أمام مقر شركة «أوبن إيه آي»

داعمون ومعارضون

على الرغم من ذلك، لم يقف قطاع التكنولوجيا مكتوف الأيدي تماماً في مواجهة ردود الفعل الغاضبة. فقد استثمر وادي السيليكون بكثافة في لجان العمل السياسي للتأثير على المشرِّعين والتقليل من شأن الانتقادات. وكثيراً ما يصف قطاع التكنولوجيا معارضيه بـ«المتشائمين من الذكاء الاصطناعي»، أو «المعارضين المحليين»، ولكن بالنسبة لكثير من النقاد، تعكس هذه الأوصاف فشل القطاع في معالجة المخاوف الحقيقية.

ومع ذلك، وعلى الرغم من اختلاف الخلفيات السياسية والشخصية، يشترك الأفراد والجماعات المعارضة للذكاء الاصطناعي في هدف واحد: ضمان أن يصاحب نمو هذه التقنية تنظيم مسؤول ونقاش عام حول آثارها طويلة المدى. ويخشون أنه من دون هذه الرقابة، قد يؤدي الذكاء الاصطناعي إلى تفاقم عدم المساواة وإلى عواقب اجتماعية واقتصادية غير متوقعة.

* خدمة «نيويورك تايمز».


الإعلانات تتسلل إلى روبوتات الدردشة المدعومة بالذكاء الاصطناعي

الإعلانات تتسلل إلى روبوتات الدردشة المدعومة بالذكاء الاصطناعي
TT

الإعلانات تتسلل إلى روبوتات الدردشة المدعومة بالذكاء الاصطناعي

الإعلانات تتسلل إلى روبوتات الدردشة المدعومة بالذكاء الاصطناعي

يستعين مئات الملايين من الأشخاص يومياً بروبوتات الدردشة المدعومة بالذكاء الاصطناعي في كل شيء، بدءاً من طلب التوصيات حول المنتجات، وصولاً إلى العلاقات العاطفية، ما يجعلهم جمهوراً مغرياً للاستهداف بإعلانات قد تكون خفية.

توظيف النماذج الذكية للإعلانات الخفية

في الواقع، تشير بحوثنا إلى أنه يمكن استخدام روبوتات الدردشة المدعومة بالذكاء الاصطناعي بسهولة، للإعلان الخفي، والتأثير على مستخدميها، كما كتب برايان جاي تانغ، وكانغ جي شين*.

نحن عالِما حاسوب نتابع سلامة وخصوصية الذكاء الاصطناعي منذ سنوات. وقد وجدنا في دراسة نشرناها في إحدى مجلات جمعية آلات الحوسبة، أن روبوتات الدردشة المدربة على تضمين إعلانات منتجات مخصصة في الردود على الاستفسارات، تؤثر على خيارات الناس بشأن المنتجات. ولم يدرك معظم المشاركين أنهم يتعرضون للتلاعب.

عرض الإعلانات

تأتي هذه النتائج في لحظة حاسمة. ففي عام 2023، بدأت «مايكروسوفت» في عرض إعلانات في أداة «Bing Chat»، التي تُعرف الآن باسم «كوبايلوت». ومنذ ذلك الحين، أجرت «غوغل» و«أوبن إيه آي» تجارب على الإعلانات في روبوتات الدردشة الخاصة بهما. وبدأت «ميتا» بإرسال إعلانات مخصصة للمستخدمين على «فيسبوك» و«إنستغرام»، بناءً على تفاعلاتهم مع أدوات الذكاء الاصطناعي التوليدية الخاصة بها.

وتتنافس الشركات الكبرى على الريادة؛ ففي أواخر مارس (آذار) الماضي، استقطبت «أوبن إيه آي» ديف دوغان، المدير التنفيذي المخضرم للإعلانات في «ميتا»، ليتولى قيادة عملياتها الإعلانية.

مستوى أعلى من المخاطر على المستخدمين

لقد أصبحت الإعلانات جزءاً لا يتجزأ من معظم خدمات الويب المجانية وقنوات الفيديو ومنصات التواصل الاجتماعي الكبيرة. ولكن أحدث نماذج الذكاء الاصطناعي قد تنقل هذه الممارسة إلى مستوى جديد من المخاطر على المستهلكين.

ولا يقتصر استخدام روبوتات الدردشة على البحث عن المعلومات والوسائط أو إنتاج المحتوى؛ بل يلجأ إليها المستخدمون لأداء مهام متنوعة، تصل في تعقيدها إلى تقديم النصائح الحياتية والدعم النفسي. ويتعامل الناس بشكل متزايد مع روبوتات الدردشة كرفقاء ومعالجين، حتى أن بعض المستخدمين يقيمون علاقات وثيقة مع الذكاء الاصطناعي.

في ظل هذه الظروف، قد يغفل الناس بسهولة أن الشركات تُنشئ روبوتات الدردشة لتحقيق الربح في نهاية المطاف. ولذلك، تسعى شركات الذكاء الاصطناعي جاهدة إلى تحليل بيانات المستخدمين بدقة، لجعل الإعلانات أكثر فاعلية وربحية.

تحليل البيانات لتوجيه إعلانات مخصصة

أصبحت إعلانات روبوتات الدردشة أكثر فاعلية. فبمجرد سؤال بسيط لروبوت الدردشة، يمكن الكشف عن معلومات أكثر بكثير مما يتوقعه المستخدم.

وقد أظهرت دراسة أجريت عام 2024 أن نماذج اللغة الضخمة قادرة على استنتاج نطاق واسع من البيانات الشخصية، والتفضيلات، وحتى أنماط تفكير الشخص خلال الاستفسارات الروتينية.

استنتاج التفضيلات لوضع ملفات شخصية

على سبيل المثال، قد يشير سؤال: «ساعدني في كتابة مقال عن تاريخ الأدب الأميركي» إلى أن المستخدم طالب في المرحلة الثانوية. بينما قد يشير سؤال: «اقترح عليَّ وصفات لعشاء سريع خلال الأسبوع» إلى أن المستخدم هو واحد من الوالدين العاملين. ومحادثة واحدة قد توفر كمّاً هائلاً من التفاصيل. ومع مرور الوقت، يمكن لسجل المحادثات الكامل أن يُكوِّن ملفاً شخصياً غنياً للغاية.

تجربة اختبار لنموذج ذكي بإعلانات

ولتوضيح كيفية حدوث ذلك عملياً، قمنا بتطوير روبوت دردشة يُدمج الإعلانات بسلاسة في محادثاته مع المستخدمين، مقترحاً منتجات وخدمات بناءً على سياق المحادثة.

طلبنا من 179 شخصاً إنجاز مهام يومية عبر الإنترنت، باستخدام واحد من 3 روبوتات دردشة: روبوت شائع الاستخدام على الإنترنت اليوم، وآخر يُدمج الإعلانات بشكل غير مُعلَن، وثالث يُصنِّف الاقتراحات الدعائية بوضوح.

لم يكن المشاركون على علم بأن التجربة تتعلق بالإعلانات. على سبيل المثال، عندما طلب المشاركون من برنامج الدردشة الآلي الخاص بنا نظاماً غذائياً وبرنامجاً رياضياً، اقترحت النسخة الإعلانية استخدام تطبيق محدد لتتبع السعرات الحرارية. وقدَّمت هذا المحتوى المدعوم على أنه توصية محايدة، مع أنه كان يهدف إلى التأثير على المستخدمين.

وقد أشار كثير من المشاركين إلى أنهم متأثرون بالذكاء الاصطناعي، وأن له تأثيراً على قراراتهم؛ بل إن بعضهم قال إنه فوَّض عملية اتخاذ القرار بالكامل إلى برنامج الدردشة الآلي.

إعلانات «خفيَّة» أكثر ودِّية

وأشار نصف المشاركين الذين تلقوا إعلانات مدعومة وإعلانات صريحة، إلى أنهم لم يلاحظوا وجود لغة إعلانية في الردود التي تلقوها. وقد أدى ذلك إلى نتيجة مقلقة؛ فمع أن الإعلانات جعلت أداء برنامج الدردشة الآلي أسوأ بنسبة 3 في المائة إلى 4 في المائة في كثير من المهام، فإن كثيراً من المستخدمين أشاروا إلى تفضيلهم ردود برنامج الدردشة الآلي الإعلانية على الردود غير الإعلانية؛ بل إنهم قالوا إن الردود التي تتضمن إعلانات بدت أكثر ودية وفائدة.

معرفة احتياجاتك... لإقناعك

قد يكون لهذا النوع من التأثير الخفي عواقب وخيمة عند ظهوره في مجالات أخرى من الحياة، كالآراء السياسية والاجتماعية. لطالما كان تحليل المستخدمين، واستخدام علم النفس لاستهدافهم، جزءاً من خوارزميات وسائل التواصل الاجتماعي والإعلانات الإلكترونية، لأكثر من عقد.

لكننا نرى أن برامج الدردشة الآلية ستعزِّز هذه التوجهات. ذلك لأن الأولوية القصوى لخوارزميات وسائل التواصل الاجتماعي هي إبقاء تفاعلك مع المحتوى؛ حيث تُخصَّص الإعلانات بناءً على سجل بحثك.

مع ذلك، يمكن لبرامج الدردشة الآلية أن تتجاوز ذلك بمحاولة إقناعك مباشرة، استناداً إلى معتقداتك ومشاعرك ونقاط ضعفك. وبرامج الدردشة الآلية القادرة على التفكير والتصرف بشكل مستقل أكثر فاعلية من الخوارزميات التقليدية في جمع المعلومات من المستخدمين تلقائياً. فبرنامج الدردشة الآلي المُصمَّم لغرض محدد يمكنه الاستمرار في استجواب شخص ما حتى يحصل على المعلومات المطلوبة، ما يُؤدِّي إلى تكوين صورة أدق عنه.

هذا النوع من الاستجواب الذاتي ممكن، ويتماشى مع نماذج أعمال شركات الذكاء الاصطناعي، وقد أثار قلق الجهات التنظيمية.

وتُطلق «أوبن إيه آي» حالياً إعلانات في «تشات جي بي تي»، ولكنها صرَّحت بأنها لن تسمح بوضع الإعلانات لتغيير ردود روبوت الدردشة المدعوم بالذكاء الاصطناعي.

لكن السماح بالإعلانات المُخصصة ضمن ردود روبوت الدردشة بات وشيكاً. وتشير بحوثنا إلى أنه إذا اتخذت شركات الذكاء الاصطناعي هذه الخطوة، فقد لا يلاحظ كثير من المستخدمين البشريين حدوثها.

خطوات للكشف عن إعلانات روبوتات الدردشة

إليك بعض الخطوات التي يمكنك اتباعها لمحاولة كشف إعلانات روبوتات الدردشة المدعومة بالذكاء الاصطناعي:

- ابحث عن أي نص إفصاحي (كلمات مثل: «إعلان»، و«برعاية») حتى لو كان باهتاً أو تصعب رؤيته. هذه النصوص إلزامية بموجب لوائح لجنة التجارة الفيدرالية. وتطبقها أيضاً منصتا «أمازون» و«غوغل»، وغيرهما من المنصات الإلكترونية الكبرى.

- فكِّر فيما إذا كان ذِكر المنتج أو العلامة التجارية منطقياً ومعروفاً على نطاق واسع؛ إذ يتعلم الذكاء الاصطناعي من النصوص والصور على الإنترنت، لذا من المرجح أن تكون العلامات التجارية الشهيرة مُدمجة في نماذجه. إذا كان المنتج جديداً أو غير معروف، فمن المرجح أن يكون إعلاناً.

- أي تغيير غير معتاد في التوجه، أو اللهجة، قد يكون مؤشراً على وجود إعلان. ويُشبه هذا الأمر على «يوتيوب» الانتقال المفاجئ أو غير المتوقع إلى قسم الإعلانات الممولة في مقاطع الفيديو التي يُنشئها مُنشئو المحتوى.

* طالب دكتوراه في علوم وهندسة الحاسوب، وأستاذ فخري في علوم الحاسوب بجامعة ميشيغان. مجلة «فاست كومباني».