مكالمات الاحتيال بالذكاء الاصطناعي… تزداد ذكاءً

شركات الاتصالات تطور الخطط للتصدي لها

مكالمات الاحتيال بالذكاء الاصطناعي… تزداد ذكاءً
TT

مكالمات الاحتيال بالذكاء الاصطناعي… تزداد ذكاءً

مكالمات الاحتيال بالذكاء الاصطناعي… تزداد ذكاءً

تُحدث مكالمات الاحتيال ضجةً عالمية. ويُقدّر التحالف العالمي لمكافحة الاحتيال The Global Anti - Scam Alliance أن المحتالين سرقوا مبلغاً هائلاً قدره 1.03 تريليون دولار أميركي عالمياً في عام 2023، بما في ذلك خسائر ناجمة عن الاحتيال عبر الإنترنت، ومكالمات الاحتيال، كما كتب كولاولي صموئيل أديبايو(*).

الذكاء الاصطناعي والاحتيال

لطالما كانت المكالمات الآلية، والاحتيال عبر الهاتف مشكلةً تثير إحباطاً -وغالباً ما تكون خطيرة– للمستخدمين. والآن، يُفاقم الذكاء الاصطناعي من هذا التهديد، ما يجعل عمليات الاحتيال أكثر خداعاً، وفعاليةً، وصعوبةً في الكشف.

إنتاج محتوى مزيّف ومتنوع

يعتقد إريك بريزكالنز، المحلل والمحرر في «كومسيرك»، أن تأثير الذكاء الاصطناعي على مكالمات الاحتيال مبالغ فيه حالياً، إلا أنه يُشير إلى أن استخدام المحتالين للذكاء الاصطناعي يُركز على إنتاج محتوى مُزيف يبدو حقيقياً، أو على تنويع محتوى الرسائل المُصممة لجذب الضحايا المُحتملين إلى محادثات خبيثة. ويُصرح لصحيفة «فاست كومباني»: «إن تنويع المحتوى يُصعّب تحديد عمليات الاحتيال، وحظرها، باستخدام أدوات مكافحة الاحتيال التقليدية».

أصوات أحبائكم مزيفة

من الأصوات المُزيفة المُولّدة بالذكاء الاصطناعي التي تُحاكي أصوات الأحباء، إلى عمليات الاحتيال واسعة النطاق التي تستخدم التعلم الآلي لتجنب الكشف، يستغل المُجرمون الذكاء الاصطناعي لزيادة فعالية مكالمات الاحتيال هذه. السؤال الأهم هو: كيف يُمكن لقطاع الاتصالات مُكافحة هذه المُشكلة مُباشرةً قبل أن يُسبب المحتالون المزيد من الفوضى؟

وحتى وقت قريب، اعتمدت عمليات الاحتيال الهاتفي في الغالب على المكالمات الآلية المُبسطة -وهي رسائل مُسجلة مُسبقاً تُحذر المُتسلمين من مُشكلة مالية مُلحة، أو مُشكلة مُفترضة في رقم الضمان الاجتماعي الخاص بهم. وهذه الأساليب، رغم استمرارها، يمكن التعرف غالباً بسهولة عليها. لكن عمليات الاحتيال المدعومة بالذكاء الاصطناعي اليوم أكثر إقناعاً بكثير.

احتيال مرعب بـ«استنساخ الصوت»

من أكثر التطورات إثارة للقلق استخدام الأصوات المُولّدة بالذكاء الاصطناعي، ما يجعل عمليات الاحتيال تبدو شخصية بشكل مُقلق. في حالة مُرعبة وقعت في أبريل (نيسان) 2023، تلقت أم في أريزونا مكالمة يائسة من شخص بدا تماماً مثل ابنتها، تبكي وتتوسل طلباً للمساعدة. وطالبها محتال، مُتظاهراً بأنه خاطف، بفدية. في الواقع، كانت الابنة في أمان -فقد استخدم المجرمون الذكاء الاصطناعي لاستنساخ صوتها من فيديو على وسائل التواصل الاجتماعي.

وازدادت عمليات الاحتيال هذه، المعروفة باسم «احتيال استنساخ الصوت»، في الأشهر الأخيرة. فببضع ثوانٍ فقط من الصوت، يُمكن لأدوات الذكاء الاصطناعي الآن إنشاء نسخة رقمية واقعية بشكل مُخيف من صوت الشخص، ما يُمكّن المحتالين من انتحال شخصيات الأصدقاء، أو أفراد العائلة، أو حتى المديرين التنفيذيين في عمليات احتيال الشركات.

صياغة مكالمات موجهة شخصياً

يستخدم المحتالون أيضاً الذكاء الاصطناعي لتحليل كميات هائلة من البيانات، وضبط مخططاتهم بدقة مُرعبة. تستطيع خوارزميات التعلم الآلي غربلة المعلومات العامة -مثل منشورات مواقع التواصل الاجتماعي، والمنتديات الإلكترونية، واختراقات البيانات- لصياغة مكالمات احتيالية مُخصصة للغاية. فبدلاً من خدعة عامة من مصلحة الضرائب، أو الدعم الفني، يمكن للمحتالين الآن استهداف الضحايا بتفاصيل محددة حول مشترياتهم، أو تاريخ سفرهم، أو حتى حالاتهم الطبية.

كما يُعزز الذكاء الاصطناعي عمليات انتحال هوية المتصل، ما يسمح للمحتالين بالتلاعب بأرقام الهواتف لتبدو كأنها صادرة من شركات محلية، أو وكالات حكومية، أو حتى جهات اتصال الضحية. وهذا يزيد من احتمالية رد الناس على المكالمات، ما يجعل تجاهل مكالمات الاحتيال أكثر صعوبة.

الهجوم المضاد لشركات الاتصالات

الذكاء الاصطناعي في مواجهة الذكاء الاصطناعي، هذه هي خلاصة عملية التصدي للاحتيال الإلكتروني. إذ مع صقل المحتالين لأدوات الذكاء الاصطناعي، تُكافح شركات الاتصالات والهيئات التنظيمية باستخدام الذكاء الاصطناعي الخاص بها -من خلال نشر أنظمة متطورة للكشف عن المكالمات الخبيثة، وتتبعها، وحظرها قبل وصولها إلى المستهلكين.

1.التعرف على صدقية المكالمات وكشف الاحتيال باستخدام الذكاء الاصطناعي. لمكافحة انتحال الهوية، تستفيد شركات الاتصالات من تقنيات تحليل الصوت، والمصادقة المدعومة بالذكاء الاصطناعي. وفي الولايات المتحدة، يستخدم إطار عمل STIR/SHAKEN التوقيعات المشفرة للتحقق من أن المكالمات صادرة من مصادر شرعية. ولكن مع تكيف المحتالين السريع، أصبح كشف الاحتيال المدعوم بالذكاء الاصطناعي ضرورياً.

يمكن لنماذج التعلم الآلي المُدربة على مليارات أنماط المكالمات تحليل البيانات الوصفية في الوقت الفعلي للكشف عن أي شذوذ -مثل الارتفاع المفاجئ في المكالمات من مناطق محددة، أو أرقام مرتبطة بعمليات احتيال معروفة. وتستطيع أنظمة الذكاء الاصطناعي هذه حتى اكتشاف العلامات الصوتية الدقيقة النموذجية للأصوات المُولّدة بتقنية التزييف العميق، ما يُساعد على إيقاف المكالمات الاحتيالية قبل اتصالها.

2.تصفية وترشيح وحظر المكالمات على مستوى شركة الاتصالات. يُدمج كبار مُزودي خدمات الاتصالات تصفية المكالمات المدعومة بالذكاء الاصطناعي مباشرةً في شبكاتهم. مثلاً تستخدم كلٌّ من خدمة Call Protect من شركة «أيه تي أند تي»، وخدمة Scam Shield من شركة «تي - موبايل»، وخدمة Call Filter من «فيريزون» الذكاء الاصطناعي لاكتشاف الأنماط المشبوهة، وحظر المكالمات عالية الخطورة قبل وصولها إلى المستخدمين. كما توفر مرشحات تابعة لشبكة GSMA حماية فورية للمكالمات من خلال التحقق من شرعيتها ومكافحة انتحال هوية خط الاتصال.

1000 خاصية صوتية فريدة للتحقق من الهوية

3. القياسات الحيوية الصوتية المدعومة بالذكاء الاصطناعي للتحقق من هوية المتصل. تُعدّ القياسات الحيوية (البيولوجية) الصوتية خط دفاع واعداً آخر ضد الاحتيال الناتج عن الذكاء الاصطناعي. وتنشر بعض المؤسسات المالية ومقدمو خدمات الاتصالات أنظمة مصادقة صوتية تُحلل أكثر من 1000 خاصية صوتية فريدة للتحقق من هوية المتصل.

وبخلاف تقنية التعرف على الصوت الأساسية، يمكن لهذه الأنظمة المتقدمة اكتشاف وقت استخدام صوت مُولّد بالذكاء الاصطناعي، مما يمنع المحتالين بفعالية من انتحال هوية العملاء الشرعيين.

حملة قانونية صارمة

تشن الهيئات التنظيمية حملة صارمة، ولكن هل هذا كافٍ؟ إن تشديد اللوائح، وتشديد العقوبات أمرٌ واحد، وهو أمرٌ تقوم به بالفعل العديد من الوكالات الحكومية حول العالم، لكن تطبيق هذه اللوائح بفعالية أمرٌ مختلفٌ تماماً. ففي الولايات المتحدة، على سبيل المثال، شددت لجنة الاتصالات الفيدرالية (FCC) العقوبات على المكالمات الآلية غير القانونية، وتحث شركات الاتصالات على اعتماد دفاعات أكثر صرامةً مدعومة بالذكاء الاصطناعي. يمنح قانون TRACED (قانون إنفاذ وردع إساءة استخدام المكالمات الآلية الهاتفية)، الذي تم توقيعه على أنه قانون في عام 2019، الجهات التنظيمية مزيداً من الصلاحيات لتغريم المحتالين، ويفرض تدابير أقوى لمكافحة الانتحال. وعلى الصعيد الدولي، تعمل الجهات التنظيمية في المملكة المتحدة وكندا وأستراليا على أطر عمل مماثلة تعتمد على الذكاء الاصطناعي لحماية المستهلكين من الاحتيال المتزايد. وقد أصدر الاتحاد الأوروبي قوانين أكثر صرامة بشأن خصوصية البيانات، ما يحد من كيفية استخدام الذكاء الاصطناعي لجمع البيانات الشخصية لعمليات الاحتيال.

ومع ذلك، فإن جهات إنفاذ القانون تكافح لمواكبة سرعة ابتكار الذكاء الاصطناعي. ويعمل المحتالون على مستوى العالم، وغالباً ما يكونون خارج نطاق اختصاص أي جهة تنظيمية واحدة. تتمركز العديد من شبكات الاحتيال في بلدان يصعب فيها اتخاذ إجراءات قانونية، إن لم يكن شبه مستحيل.

لنأخذ، على سبيل المثال، دولاً مثل ميانمار، وكمبوديا، ولاوس، حيث أنشأت جماعات الجريمة المنظمة مراكز احتيال إلكتروني تستخدم تقنيات التزييف العميق المدعومة بالذكاء الاصطناعي لخداع الضحايا حول العالم. وكثيراً ما ينقل مشغلو هذه المراكز مواقعهم، أو يغيرون أساليبهم للبقاء في صدارة جهات إنفاذ القانون. كما أنهم يعملون في مناطق تواجه تحديات قضائية معقدة، ما يزيد من تعقيد عملية إنفاذ القانون.

عوائق تنظيمية

يزدهر المحتالون في ظل التشتت، واستغلال نقاط الضعف، سواءً كان ذلك نقصاً في التنسيق بين القطاعات، أو اختلافاً في النهج التنظيمية عبر الحدود. تُبرز هذه العوائق التنظيمية ضرورة قيام مزودي خدمات الاتصالات بدور أكثر استباقية في مكافحة الاحتيال المدعوم بالذكاء الاصطناعي، بدلاً من الاعتماد فقط على الأطر التقليدية التي -رغم فائدتها- ليست دائماً فعالة. وهنا يأتي دور تقنية GSMA Call Check، التي طورتها شركة «أوكيلوس» Oculeus الألمانية لحلول الاتصالات، في تحقيق هدفها الحيوي. تُوفر خدمات التحقق من المكالمات من GSMA آلية بسيطة، وسريعة، ومنخفضة التكلفة لتبادل المعلومات حول مكالمات الهاتف الاحتيالية فور حدوثها. يقول بريزكالنز من «كوميرسك» إن «هذه التقنية مُتجذرة في السحابة، ما يجعلها مُستقبلية، وعالمية بطريقة لن تكون عليها أبداً الطرق الأخرى التي تُفكر فيها بعض الدول».

معركة طويلة

لا شك أن المعركة ضد عمليات الاحتيال المُدعمة بالذكاء الاصطناعي لم تنتهِ بعد. وكما أشارت جيسيكا روزينورسيل، رئيسة لجنة الاتصالات الفيدرالية (FCC) السابقة، العام الماضي: «نعلم أن تقنيات الذكاء الاصطناعي ستجعل من السهل والرخيص إغراق شبكاتنا بمقاطع فيديو مُزيفة تُستخدم للتضليل، وزعزعة الثقة».

الخبر السار هو أن قطاع الاتصالات لا يتراجع، فبينما يستخدم المحتالون الذكاء الاصطناعي لخداع الأفراد غير المُنتبهين، فإن القطاع يستفيد أيضاً من الذكاء الاصطناعي لحماية العملاء وبياناتهم الحساسة، من خلال فحص المكالمات الآلي، والكشف الفوري عن الاحتيال، وإجراءات المصادقة المُحسّنة.

أمر واحد مؤكد: المحتالون وعمليات الاحتيال لن تختفي في أي وقت قريب. وكما يشير بريزكالنز، سيستمر الناس في الوقوع ضحية عمليات الاحتيال حتى مع التدريب المكثف على التوعية العامة. ولكن مع استمرار تطور الذكاء الاصطناعي، يجب على قطاع الاتصالات أن يكون متقدماً بخطوة، لضمان أن يصبح قوة للحماية، لا للخداع.

* مجلة «فاست كومباني» خدمات «تريبيون ميديا»


مقالات ذات صلة

كيف يعيد الذكاء الاصطناعي تشكيل قدرات الإنسان الذهنية؟

خاص مع وفرة الذكاء والتحليل عبر الآلة تنتقل القيمة من المعرفة إلى إنتاج المعنى والعمق الإنساني

كيف يعيد الذكاء الاصطناعي تشكيل قدرات الإنسان الذهنية؟

يعيد الذكاء الاصطناعي تعريف الذكاء وينقل القيمة للمعنى مهدداً الهوية والتفكير النقدي فارضاً إعادة تصور التعليم والاقتصاد ودور الإنسان مستقبلاً

نسيم رمضان (لندن)
تكنولوجيا منصة ذكاء اصطناعي تقدم حلول تسويق مؤتمتة متعددة الوكلاء (أوكارا)

مدير تسويق متعدد الوكلاء يعمل بالذكاء الاصطناعي بشكل كامل

يحاول الابتكار إعادة تشكيل مفهوم التسويق الرقمي وإدارة النمو للشركات الناشئة، والمؤسسات التقنية.

عبد العزيز الرشيد (الرياض)
تكنولوجيا الذكاء الاصطناعي يُعقّد مخاطر الخصوصية

الذكاء الاصطناعي يُعقّد مخاطر الخصوصية

تحذيرات من أخطار المحادثات الحميمة

براين إكس تشن (نيويورك)
صحتك أدوات الذكاء الاصطناعي تسعى للحصول على سجلاتك الصحية

أدوات الذكاء الاصطناعي تسعى للحصول على سجلاتك الصحية

ضرورة توخِّي الحذر عند استخدامها

براين إكس تشن (سان فرانسيسكو (الولايات المتحدة))
الاقتصاد جون يونغ هيون يتحدث خلال اجتماع عام للمساهمين في سوون (د.ب.أ)

«سامسونغ» تتبنى «عقوداً طويلة الأمد» لمواجهة جنون الطلب على رقائق الذكاء الاصطناعي

قال الرئيس التنفيذي المشارك لشركة «سامسونغ إلكترونيكس» إن الشركة تعمل مع كبار العملاء على التحول إلى عقود متعددة السنوات تتراوح بين ثلاث وخمس سنوات.

«الشرق الأوسط» (سوون )

كيف يعيد الذكاء الاصطناعي تشكيل قدرات الإنسان الذهنية؟

مع وفرة الذكاء والتحليل عبر الآلة تنتقل القيمة من المعرفة إلى إنتاج المعنى والعمق الإنساني
مع وفرة الذكاء والتحليل عبر الآلة تنتقل القيمة من المعرفة إلى إنتاج المعنى والعمق الإنساني
TT

كيف يعيد الذكاء الاصطناعي تشكيل قدرات الإنسان الذهنية؟

مع وفرة الذكاء والتحليل عبر الآلة تنتقل القيمة من المعرفة إلى إنتاج المعنى والعمق الإنساني
مع وفرة الذكاء والتحليل عبر الآلة تنتقل القيمة من المعرفة إلى إنتاج المعنى والعمق الإنساني

مع تسارع أنظمة الذكاء الاصطناعي في أتمتة مهام كانت تُعدّ في صميم القدرات البشرية؛ من الكتابة والتحليل إلى دعم اتخاذ القرار، تركّزت معظم النقاشات على الإنتاجية والكفاءة، وفقدان الوظائف. لكن خلف هذه التحولات الظاهرة، يبرز تغيّر أعمق بكثير، يطال ليس فقط طريقة عملنا، بل تعريفنا للذكاء والقيمة، وحتى معنى أن نكون بشراً.

بالنسبة للمؤلف العالمي في تطوير الذات، ديريك ريدال، لا يمثل هذا التحول مجرد نقلة تقنية، بل لحظة فلسفية واجتماعية مفصلية، حيث تتعرض مفاهيم راسخة حول الذكاء لإعادة نظر جذرية.

يقول ريدال خلال مقابلة خاصة مع «الشرق الأوسط» إن «السؤال الأعمق ليس ما إذا كان الذكاء الاصطناعي يعيد تعريف الذكاء، بل ما إذا كنا قد عرّفناه بشكل صحيح منذ البداية».

لعقود طويلة، ارتبط مفهوم الذكاء بالقدرة على معالجة المعلومات، والتعرُّف إلى الأنماط، وحل المشكلات. وقد شكّلت هذه القدرات أساس أنظمة التعليم وسوق العمل والهياكل الاقتصادية. لكن مع تفوق الذكاء الاصطناعي في هذه المهام بسرعة وتكلفة أقل، يفقد هذا التعريف تفرده.

ديريك ريدال - مؤلف عالمي في تطوير الذات

من الذكاء إلى المعنى

مع تحوُّل الذكاء إلى مورد وفير، تبدأ قيمته الاقتصادية بالتراجع. ويختصر ريدال هذه الفكرة بقاعدة بسيطة، وهي أن «القيمة تتجه نحو ما هو نادر».

في هذا السياق، قد يصبح الذكاء بمعناه التقليدي مشابهاً للأكسجين، أي متاحاً للجميع، لكنه لم يعد عاملاً مميزاً. وعندما تصبح المعرفة والتحليل متاحين على نطاق واسع، تنتقل القيمة إلى بُعد آخر أقل قابلية للقياس، لكنه أكثر إنسانية. ويضيف ريدال أن «هناك المادة... وهناك ما له معنى».

فاللحظات التي تدفع البشر إلى الفعل، كالحب والإبداع والرسالة، نادراً ما تكون نتاج حسابات منطقية. إنها تنبع من إدراك أعمق يتجاوز البيانات، وهو ما يجعل القدرة على إنتاج المعنى محوراً جديداً للقيمة.

خطر انهيار الهوية

ورغم أن فقدان الوظائف يشغل حيزاً كبيراً من النقاش، يرى ريدال أن الخطر الأعمق يكمن في الهوية نفسها؛ فقد بنى الناس عبر أجيال تعريفهم لذواتهم على ما يفعلونه. لم تكن الوظيفة مجرد مصدر دخل، بل إطار للمعنى والانتماء. لكن مع قدرة الذكاء الاصطناعي على أداء هذه الأدوار، ينهار هذا الإطار. ويردف: «لن يفقد الناس وظائفهم فقط، بل سيفقدون الإجابة عن سؤال: من أنا؟».

وقد بدأت ملامح هذه الأزمة تظهر بالفعل في ازدياد الشعور بالعزلة وفقدان المعنى. ومع غياب الغاية، تتجاوز التأثيرات الجانب الاقتصادي لتطال الاستقرار النفسي والاجتماعي.

لا يعيد الذكاء الاصطناعي فقط تشكيل العمل، بل يفرض إعادة تعريف جوهر الذكاء الإنساني نفسه (شاترستوك)

وهم الاستعانة بالآلة في التفكير

في موازاة ذلك، يبرز خطر آخر أقل وضوحاً كتفويض التفكير للآلة. يحذر ريدال قائلاً: «عندما تفوّض تفكيرك النقدي، لا تحصل فقط على إجابة أسرع، بل تفقد تدريجياً القدرة على معرفة ما إذا كانت الإجابة صحيحة».

وهذا ما يسميه «التراجع الإنساني»، أي تآكلاً بطيئاً للقدرات الذهنية والقدرة على الحكم المستقل. والخطر هنا ليس فورياً، بل يتخفى خلف الراحة والكفاءة، بينما تتراجع القدرات الأساسية، دون أن نلاحظ.

تعزيز أم اعتماد؟

هذا يقود إلى سؤال محوري: هل يعزز الذكاء الاصطناعي قدرات الإنسان أم يستبدلها؟ يجيب ريدال: «السؤال الحقيقي هو ما إذا كان الإنسان خلف الأداة ينمو أم يتضاءل بهدوء».

عندما يُستخدم الذكاء الاصطناعي كأداة، يمكنه تطوير التفكير والإبداع. لكن عندما يحل محل الجهد الذهني، فإنه يضعف هذه القدرات. والاختبار هنا بسيط: إذا ابتعدت عن الأداة، هل تبقى لديك القدرة؟

أما على مستوى المؤسسات، فإن الاعتماد المفرط على الذكاء الاصطناعي قد يؤدي إلى كفاءة ظاهرية، لكنه يخلق ثقافات عمل «فارغة». في المقابل، المؤسسات التي تستخدمه لتعزيز التفكير البشري تبني ميزة تنافسية مستدامة. ويصف ريدال هذه الميزة بـ«الإنسانية المصنوعة يدوياً» أي العمق والأصالة اللذين لا يمكن تحويلهما إلى سلعة.

يرى الكاتب أن الخطر الأكبر لا يكمن في فقدان الوظائف بل في اهتزاز هوية الإنسان المرتبطة بما يفعله

إعادة التفكير في التعليم

تكشف هذه التحولات أيضاً حدود أنظمة التعليم الحالية، التي صُممت لنقل المعرفة، وهي مهمة يتفوق فيها الذكاء الاصطناعي، اليوم. ويرى ريدال أن التعليم يجب أن يُعاد بناؤه حول الإبداع والحكمة والشخصية. الإبداع يعني القدرة على إنتاج أفكار جديدة. والحكمة تنبع من التجربة والتأمل، لا من المعلومات فقط. أما الشخصية، فتشمل القيم والقدرة على بناء علاقات إنسانية حقيقية. وفي مناطق، مثل الشرق الأوسط، حيث لا تزال تقاليد التعلم المجتمعي، ونقل الحكمة حاضرة، قد تمثل هذه المقومات ميزة استراتيجية في عصر الذكاء الاصطناعي.

ما بعد الاقتصاد التقليدي

يذهب ريدال أبعد من ذلك، مشيراً إلى أن الذكاء الاصطناعي قد يعيد تشكيل الاقتصاد نفسه؛ ففي عالم قد لا يعتمد على العمل البشري بالشكل التقليدي، تصبح مفاهيم، مثل الإنتاجية والناتج المحلي، بحاجة إلى إعادة تعريف. وقد تنتقل القيمة إلى معايير تتعلق بجودة الحياة والمعنى والعلاقات الإنسانية. لكن هل يمكن للآلة أن تحل محل الحدس؟

يرد ريدال، عادّاً أن جزءاً من الحدس يمكن تفسيره كتعرُّف سريع على الأنماط، لكن هناك بُعداً أعمق يسميه «المعرفة التلقائية»، وهو إدراك لا يعتمد على التحليل، بل على الحضور الذهني العميق؛

فكثير من الاكتشافات الكبرى لم تأتِ من التفكير المكثف، بل من لحظات صفاء. وما إذا كان هذا النوع من الإدراك يمكن للآلة الوصول إليه، يبقى سؤالاً مفتوحاً.

تحدّ تنظيمي يتجاوز الاقتصاد

مع توسع الذكاء الاصطناعي، تتجاوز آثاره الجانب الاقتصادي لتشمل الإدراك والصحة النفسية. ويؤكد ريدال ضرورة أن تأخذ السياسات العامة هذه الجوانب بعين الاعتبار، محذراً من «أن عدم القيام بذلك يمثل فشلاً تنظيمياً لا عذر لنا فيه». في النهاية، لا يتمثل التحدي في تطور الذكاء الاصطناعي، بل في قدرة الإنسان على الحفاظ على استقلاله. ويؤكد ريدال أن الحل يبدأ بالوعي الذاتي حيث إن «تنمية الوعي ليست رفاهية... بل شرط أساسي للبقاء إنساناً كاملاً».


مدير تسويق متعدد الوكلاء يعمل بالذكاء الاصطناعي بشكل كامل

منصة ذكاء اصطناعي تقدم حلول تسويق مؤتمتة متعددة الوكلاء (أوكارا)
منصة ذكاء اصطناعي تقدم حلول تسويق مؤتمتة متعددة الوكلاء (أوكارا)
TT

مدير تسويق متعدد الوكلاء يعمل بالذكاء الاصطناعي بشكل كامل

منصة ذكاء اصطناعي تقدم حلول تسويق مؤتمتة متعددة الوكلاء (أوكارا)
منصة ذكاء اصطناعي تقدم حلول تسويق مؤتمتة متعددة الوكلاء (أوكارا)

في تطور لافت ضمن سباق تقنيات الذكاء الاصطناعي، أعلنت شركة «أوكارا للذكاء الاصطناعي» (Okara AI) عن إطلاق خدمة جديدة توصف بأنها الأولى من نوعها، تتمثل في «رئيس تسويق تنفيذي» (CMO) يعمل بالكامل عبر الذكاء الاصطناعي، في محاولة لإعادة تشكيل مفهوم التسويق الرقمي وإدارة النمو للشركات الناشئة، والمؤسسات التقنية.

وتقوم الفكرة على تقديم نظام متكامل من «وكلاء الذكاء الاصطناعي» يعملون بتناغم ضمن بيئة واحدة، بهدف إدارة مختلف قنوات التسويق الرقمي دون تدخل بشري مباشر، بدءاً من تحسين محركات البحث، ووصولاً إلى إدارة الحضور على المنصات الاجتماعية، والمجتمعات التقنية.

تحول في مفهوم التسويق الرقمي

يأتي هذا الإعلان في وقت تشهد فيه أدوات تطوير البرمجيات المدعومة بالذكاء الاصطناعي، مثل منصات كتابة الأكواد وبناء التطبيقات، تسارعاً غير مسبوق، حيث بات بالإمكان تحويل الأفكار إلى منتجات رقمية خلال فترة زمنية قصيرة. إلا أن التحدي الأكبر ظل يتمثل في «التوزيع»، أو الوصول إلى المستخدمين، وهي الفجوة التي تسعى «Okara AI» إلى معالجتها.

وبحسب الشركة، فإن «مدير التسويق الذكي» الجديد يتولى تشغيل مجموعة من الوكلاء المتخصصين يومياً، من بينهم كاتب محتوى آلي، ووكيل تحسين محركات البحث (SEO). أيضاً من مهام «مدير التسويق الذكي» تحسين الظهور في محركات الذكاء الاصطناعي (GEO) وإدارة الظهور على منصات مثل «Reddit» و«X» و«Hacker News».

تهدف هذه المنظومة إلى تنفيذ استراتيجية تسويقية متكاملة تشمل إنتاج المحتوى، وتوزيعه، وتحسين ظهوره عبر محركات البحث التقليدية، والجيل الجديد من محركات البحث المعتمدة على الذكاء الاصطناعي.

نظام قابل للتكامل مع القنوات الرقمية لإدارة التسويق عبر منصة موحدة (أوكارا)

خفض التكاليف وتعزيز الكفاءة

تطرح شركة «أوكارا للذكاء الاصطناعي» (Okara AI) خدمتها الجديدة بوصفها بديلاً منخفض التكلفة مقارنة بالنموذج التقليدي لإدارة التسويق، الذي يتطلب فريقاً متكاملاً يضم مدير تسويق، وخبراء تحسين محركات البحث، وكتاب محتوى، ومديري مجتمعات رقمية.

وتشير تقديرات السوق إلى أن تكلفة هذا الفريق قد تتراوح بين 60 ألفاً و160 ألف دولار سنوياً، في حين توفر الخدمة الجديدة بديلاً رقمياً مقابل اشتراك شهري يبدأ من نحو 99 دولاراً، ما يعكس توجهاً متزايداً نحو أتمتة الوظائف المعرفية، وتقليل الاعتماد على الموارد البشرية.

يعالج انخفاض الزيارات عبر تحسين ترتيب صفحات الموقع (أوكارا)

ظهور مفهوم «تحسين محركات الذكاء الاصطناعي»

من أبرز ما يميز الخدمة الجديدة اعتمادها على مفهوم حديث نسبياً يعرف بـ«تحسين محركات التوليد» (Generative Engine Optimization-GEO)، والذي يركز على تحسين ظهور المحتوى داخل منصات الذكاء الاصطناعي، مثل محركات البحث التوليدية، بدلاً من الاقتصار على محركات البحث التقليدية.

ويعكس هذا التوجه تحولات أعمق في سلوك المستخدمين الذين باتوا يعتمدون بشكل متزايد على أدوات الذكاء الاصطناعي للحصول على المعلومات، ما يفرض على الشركات إعادة صياغة استراتيجياتها التسويقية لتواكب هذا التحول.

نحو مستقبل تسويقي مؤتمت

يمثل إطلاق «مدير التسويق الذكي» من «Okara AI» خطوة إضافية في مسار أتمتة العمليات الرقمية، ويعكس اتجاهاً متنامياً نحو الاعتماد على الذكاء الاصطناعي في إدارة النمو والتسويق.

وفي حين لا يبدو أن هذه الأنظمة ستلغي دور البشر بشكل كامل في المدى القريب، إلا أنها تؤسس لنموذج هجين يجمع بين قدرات الذكاء الاصطناعي وسرعته، وبين الرؤية الاستراتيجية والإبداع البشري، وهو ما قد يعيد رسم ملامح قطاع التسويق الرقمي خلال السنوات المقبلة.


الذكاء الاصطناعي يُعقّد مخاطر الخصوصية

الذكاء الاصطناعي يُعقّد مخاطر الخصوصية
TT

الذكاء الاصطناعي يُعقّد مخاطر الخصوصية

الذكاء الاصطناعي يُعقّد مخاطر الخصوصية

قضى قاضٍ فيدرالي هذا الشهر، بأن محادثات أي شخص مع برنامج الدردشة الآلي «كلود»، التابع لشركة «أنثروبيك»، لا تتمتع بحماية الحفاظ على السرية، التي تحظى بها محادثات المحامي وموكله، حتى وإن كان استخدام البرنامج بهدف للتحضير لمقابلة محامين.

خروق «ذكية»

وقبل أسابيع، أثارت شركة «رينغ»، المملوكة لشركة «أمازون»، والمتخصصة في صناعة كاميرات أجراس الأبواب، غضباً واسع النطاق عندما نشرت إعلاناً خلال مباراة «سوبر بول»، يُظهر كيف يمكن استخدام الذكاء الاصطناعي للعثور على الكلاب الضائعة. وسرعان ما أشار النقاد إلى إمكانية استخدامه كذلك لمراقبة حيّ بأكمله. ومنذ ذلك الحين، أعلنت الشركة اعتذارها مرات عدة.

وأظهر إعلان شركة «رينغ»، صاحب كلب مفقود يستخدم ميزة «البحث الجماعي»، التي تستخدم الذكاء الاصطناعي، وصوراً من شبكة كاميرات مراقبة منزلية للعثور على الكلب المفقود. وأوضحت الشركة أن مالكي كاميرات «رينغ» مُلزمون بالموافقة على مشاركة المعلومات من خلال طلب «البحث الجماعي».

امرأة قاتلة تحادثت مع «جي بي تي»

وخلال الأسبوع الماضي، ظهرت أنباء تفيد بأن شركة «أوبن إيه آي»، المطورة لبرنامج «تشات جي بي تي»، كانت على علم بتفاعلات امرأة من مقاطعة كولومبيا البريطانية مع برنامج الدردشة الآلي، وأن الشركة فكرت في إبلاغ السلطات عنها قبل أشهر من ارتكابها جريمة إطلاق نار جماعي.

وفي الوقت الذي تواجه «أوبن إيه آي» تساؤلات حول ما إذا كان ينبغي عليها أن تكون أكثر استباقية في الإبلاغ عما كتبته هذه السيدة، تسلط هذه الحادثة الضوء على احتمال تعرض شركات الذكاء الاصطناعي لمزيد من الضغوط لمشاركة سجلات المحادثات الخاصة مع السلطات.

في قلب هذه العناوين، احتل الذكاء الاصطناعي التوليدي موقع الصدارة - التكنولوجيا التي شاع استخدامها بفضل برامج الدردشة الآلية، والتي بدأت تتغلغل في الأدوات اليومية، التي يستخدمها الناس للبحث عبر الإنترنت وكتابة المقالات والبرمجة. ويثير التواتر المستمر للتقارير الإخبارية المتعلقة بخصوصية المستهلك، تساؤلات حول ما إذا كان الذكاء الاصطناعي قد كشف معلومات شخصية للأفراد، أكثر مما كان عليه في السابق.

في هذا الصدد، عبَّر خبراء معنيون بالخصوصية عن اعتقادهم بأنه على أرض الواقع، فإن المخاطر المرتبطة بمشاركة البيانات مع شركات التكنولوجيا لا تزال كما هي تقريباً دونما تغيير؛ فأي بيانات تُرسل إلى خوادم الشركة قد تكون متاحة أمام الموظفين أو الجهات الحكومية أو المحامين أو حتى المجرمين، الذين استولوا على البيانات من خلال ثغرات أمنية.

مخاطر المحادثات الحميمة مع الأدوات الذكية

بيد أن الطبيعة الحميمة للمحادثات مع برامج الدردشة الآلية تضيف بعداً جديداً لمشكلة قديمة؛ فالناس اليوم يشاركون معلومات أكثر بكثير مما كانوا يفعلون في السابق. وعلى عكس أدوات البحث التقليدية على الإنترنت، تدعو برامج الدردشة الآلية المستخدمين إلى كتابة أفكارهم كاملةً وطرح مزيد من الأسئلة؛ ما يكشف عن نواياهم بشكل أوضح.

في هذا السياق، شرح كريس جيليارد، الباحث المستقل بمجال الخصوصية في ديترويت، أنه: «في كثير من الحالات، تتشابه المشكلات، لكننا نعاين اليوم طريقة جديدة للتفاعل مع التكنولوجيا لم تكن مألوفة من قبل. وعندما يحدث ذلك، يحتاج الناس إلى إعادة صياغة رؤيتهم للمخاطر والأضرار».

الحقيقة أن هذا درسٌ اضطر مستخدمو الإنترنت إلى تعلمه مرة بعد أخرى. فقبل نحو ثماني سنوات، تعرضت شركة «ميتا»، المعروفة سابقاً باسم «فيسبوك»، لانتقادات حادة عندما انتشر خبر جمع شركة «كمبردج أناليتيكا»، المعنية بالاستشارات السياسية، بيانات 87 مليون مستخدم لـ«فيسبوك» بطريقة غير مشروعة.

عدم تسجيل المحادثات المؤقتة

كانت تلك لحظة فارقة دفعت الناس إلى إعادة النظر في مشاركة بياناتهم الشخصية عبر الإنترنت. ومع ذلك، يبدو أن هذا الدرس قد طواه النسيان في عصر روبوتات الدردشة، التي يلجأ إليها الناس طلباً للمساعدة في العمل، والعلاج النفسي، وحتى الرفقة الحقيقية.

من جهتها، أعلنت «أوبن إيه آي» أنها منحت المستخدمين تحكماً كاملاً في كيفية استخدام بياناتهم، بما في ذلك خيار استخدام محادثات مؤقتة لا تُسجل في سجل «تشات جي بي تي». كما أكدت «أنثروبيك» التزامها بالقوانين المعمول بها، وأنها قد تُطالب بمشاركة المعلومات عند تقديم طلبات قانونية مشروعة.

وفي حادثة المرأة مطلِقة النار جيسي فان روتسيلار أكدت شركة «أوبن إيه آي» في بيان لها أن: «حماية الخصوصية والأمان في (تشات جي بي تي) أمر بالغ الأهمية، ونحن نولي الأولوية للأمان عندما يكون هناك تخطيط موثوق ووشيك لإحداث ضرر حقيقي في العالم الواقعي. وتتولى أنظمتنا الآلية تصعيد الحالات الحرجة، مثل تشكيل تهديد للحياة أو التهديد بإلحاق الأذى الجسيم بالآخرين، لإخضاعها مراجعة بشرية محدودة لاتخاذ الإجراءات اللازمة».

مناقشات قانونية

وفي حين أنه ليس من المستغرب أن يكون لدى «أوبن إيه آي»، كغيرها من الشركات، نظام لمراقبة إساءة استخدام خدماتها، فإن الحادثة سالفة الذكر من المحتمل أن تثير نقاشاً في أوساط الخبراء القانونيين، حول ما إذا كان ينبغي تحميل شركات الذكاء الاصطناعي المسؤولية عن المحادثات، التي يجريها المستخدمون مع روبوتات الدردشة، ومتى يصبح من الضروري مشاركة البيانات مع جهات إنفاذ القانون، حسب ما ذكرته جينيفر غرانيك، المحامية المتخصصة في شؤون المراقبة والأمن السيبراني، لدى «الاتحاد الأميركي للحريات المدنية».

وأضافت أن المادة 230 من قانون آداب الاتصالات تضفي حماية عامة على شركات الإنترنت من المسؤولية عن المحتوى، الذي ينشره المستخدمون عبر مواقع مثل «فيسبوك»، لكن من غير الواضح ما إذا كان ينبغي تطبيق هذه السياسات بالمثل على روبوتات الدردشة، بالنظر إلى اختلاف طبيعة المحادثات عن المنشورات عبر المنصات. وقالت: «سنبدأ الفترة المقبلة في معاينة المزيد من الدعاوى القضائية لتوضيح طبيعة مسؤولية الإبلاغ لجهات إنفاذ القانون».

قاضٍ يبتّ بقضية احتيال

وتُبيّن قصة برنامج الدردشة الآلي «كلود»، التابع لشركة «أنثروبيك»، كيف يمكن أن تحدث حالة من الارتباك، عندما يتعامل الناس مع برامج الدردشة الآلية التجارية كأداة لتدوين الملاحظات والبحث. وقد قرر قاضٍ فيدرالي السماح للمدعين العامين بالاطلاع على نصوص محادثات رجل متهم بالاحتيال الإلكتروني، كان قد تواصل مع «كلود» في خضم استعداده للحديث مع المحامين. وكان مبرر القاضي أن «كلود» ليس محامياً، وبالتالي لا يتمتع بحماية الحفاظ على سرية تفاعلات المحامي مع موكله. وقد أثار قرار القاضي جدلاً واسعاً بين المحامين في جميع أنحاء البلاد؛ لأنه سلّط الضوء على المخاطر المحتملة لاستخدام الذكاء الاصطناعي مقارنةً بالأدوات التقليدية.

في المقابل، إذا دوّن المتهم ملاحظات وشاركها مع محاميه فقط، فقد تكون محمية بموجب سرية العلاقة بين المحامي وموكله، كما أوضحت لورا ريبوسو فاندروف، الشريكة في مكتب كيلي دراي للمحاماة، والمعنية بشؤون خصوصية المستهلك وأمن البيانات. ونظراً لأن المحادثات مع روبوت الدردشة يجري تخرينها على خوادم الشركة، فقد لا تكون محمية قانونياً.

من جهتها، أوضحت شركة «أنثروبيك» أن المتهم الذي حاول حماية نصوص محادثاته مع «كلود»، بموجب سرية العلاقة بين المحامي وموكله، قدّم النصوص مباشرةً إلى المحكمة عندما صادرت السلطات الفيدرالية أجهزته، ما يعني أن «أنثروبيك» لم تشارك البيانات.

* خدمة «نيويورك تايمز»