شركة «ميتا» المالكة لـ«واتساب» تطلق أدوات ذكاء اصطناعي جديدة لاستهداف الرسائل تجارياً

العلامة التجارية لتطبيق «واتساب» (أرشيفية - رويترز)
العلامة التجارية لتطبيق «واتساب» (أرشيفية - رويترز)
TT

شركة «ميتا» المالكة لـ«واتساب» تطلق أدوات ذكاء اصطناعي جديدة لاستهداف الرسائل تجارياً

العلامة التجارية لتطبيق «واتساب» (أرشيفية - رويترز)
العلامة التجارية لتطبيق «واتساب» (أرشيفية - رويترز)

أعلن مارك زوكربرغ، الرئيس التنفيذي لشركة «ميتا»، خلال مؤتمر في البرازيل، أن الشركة أطلقت، اليوم الخميس، أداة إعلانات معزَّزة بالذكاء الاصطناعي، لاستهداف الرسائل تجارياً، لأول مرة على تطبيق «واتساب»، وذلك وسط محاولة الشركة إدرار الأرباح من خدمة المراسلات الشهيرة.

وأعلن زوكربيرغ عن الأدوات الجديدة في مقطع فيديو عُرض خلال المؤتمر.
ويمثل الإعلان تحولاً لواتساب، وهي خدمة مراسلات مشفرة تروج بشدة لمؤهلاتها في الحفاظ على الخصوصية ولطالما تجنبت أنماط أدوات الإعلانات المستهدفة التي تشكل أساس تطبيقات ميتا الأخرى مثل «فيسبوك» و«إنستغرام».
وتتيح الشركة عملاق التواصل الاجتماعي مزايا فيما يتعلق بالتجارة ومدفوعات على التطبيق منذ عدة أعوام، بما في ذلك أدوات «التراسل التجاري» التي يمكن أن تستخدمها الشركات في محادثات خدمة العملاء وإرسال مواد تسويقية لأشخاص شاركوا أرقام هواتفهم معها.
لكن هذه الأدوات كانت مجرد أدوات بليدة فيما سبق واعتادت إرسال رسائل مزعجة لجميع المستخدمين الذين اختاروا أن تتواصل الشركة معهم. وستستخدم أدوات الذكاء الاصطناعي الجديدة السلوك على «فيسبوك» و«إنستغرام» لتوجيه الرسائل إلى عملاء يُرجح أن يستجيبوا لها، بشرط أن يستخدم العملاء رقم الهاتف نفسه في الحسابات المختلفة.


مقالات ذات صلة

عطل يضرب تطبيقي «فيسبوك» و«إنستغرام»

العالم انقطعت خدمة منصة «إنستغرام» عن أكثر من 23 ألف مستخدم (د.ب.أ)

عطل يضرب تطبيقي «فيسبوك» و«إنستغرام»

أظهر موقع «داون ديتيكتور» الإلكتروني لتتبع الأعطال أن منصتي «فيسبوك» و«إنستغرام» المملوكتين لشركة «ميتا» متعطلتان لدى آلاف من المستخدمين في الولايات المتحدة.

«الشرق الأوسط» (واشنطن)
تكنولوجيا «واتساب» يقرر إنهاء دعم الأجهزة التي تعمل بإصدارات أقدم من «iOS 15.1» اعتباراً من مايو 2025 بهدف تحسين الأداء وتقديم ميزات تعتمد على تقنيات حديثة (أ.ف.ب)

«واتساب» يُودّع بعض الأجهزة القديمة

أعلنت شركة «واتساب» قرارها إيقاف دعم الإصدارات القديمة من نظام التشغيل «آي أو إس» (iOS).

عبد العزيز الرشيد (الرياض)
تكنولوجيا شعار تطبيق «واتساب» (د.ب.أ)

«واتساب» يطلق خاصية تحويل الرسائل الصوتية إلى نصوص

أعلنت شركة تطبيق التواصل الاجتماعي «واتساب» إطلاق خاصية تحويل الرسائل الصوتية إلى نصوص مكتوبة.

«الشرق الأوسط» (نيويورك)
تكنولوجيا على غرار الميزات المتوفرة عبر منصات مثل «زووم» يقدم «واتساب» خياري «اللمسات الأخيرة» و«الإضاءة المنخفضة» (واتساب)

ميزات جديدة من «واتساب» لتحسين جودة الاتصال عبر الفيديو

يكثف «واتساب»، الذي يُعد أكبر تطبيق مراسلة في العالم، مع أكثر من ملياري مستخدم عبر 180 دولة، جهوده لإثراء تجربة المستخدم في مجال مؤتمرات الفيديو.

نسيم رمضان (لندن)
العالم شعار مجموعة «ميتا» (رويترز)

«ميتا» تحظر وسائل الإعلام الحكومية الروسية على منصاتها

أعلنت مجموعة «ميتا»، المالكة لـ«فيسبوك» و«إنستغرام» و«واتساب»، فرض حظر على استخدام وسائل الإعلام الحكومية الروسية لمنصاتها، وذلك تجنّبا لأي «نشاط تدخلي أجنبي».

«الشرق الأوسط» (نيويورك)

دراسة: الذكاء الاصطناعي قادر على الخداع ورفض تغيير وجهة النظر

أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشاراً (رويترز)
أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشاراً (رويترز)
TT

دراسة: الذكاء الاصطناعي قادر على الخداع ورفض تغيير وجهة النظر

أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشاراً (رويترز)
أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشاراً (رويترز)

أظهرت دراسة لشركة تكنولوجيا الذكاء الاصطناعي الأميركية «أنثروبيك»، أن نماذج الذكاء الاصطناعي تستطيع خداع المطورين، بحيث تستطيع ادعاء وجهات نظر مختلفة خلال تدريبها، في حين أنها تحتفظ في الحقيقة بتفضيلاتها الأصلية.

وقال فريق الدراسة إنه لا يوجد سبب للشعور بالفزع حالياً، في حين أن دراستهم يمكن أن تكون حيوية في فهم المخاطر المحتملة التي تنطوي عليها أنظمة الذكاء الاصطناعي المستقبلية ذات القدرات الأعلى.

وكتب الباحثون في منشور بثته شركة «أنثروبيك»: «يجب النظر إلى نتائج دراستنا بوصفها محفزاً لمجتمع أبحاث الذكاء الاصطناعي من أجل دراسة هذا السلوك بصورة أعمق، والعمل على تطوير إجراءات الأمن والسلامة المناسبة».

وبعد أن أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشاراً، «نحتاج إلى التحلي بالقدرة على الاعتماد على التدريب الآمن لها والذي يمنع النماذج من القيام بتصرفات ضارة».

وأشار موقع «تك كرانش» المتخصص في موضوعات التكنولوجيا، إلى أن الدراسة التي تمت بالتعاون مع مؤسسة «ريد وود ريسيرش» لأبحاث الذكاء الاصطناعي، تناولت ما يمكن أن يحدث إذا تم تدريب نظام ذكاء اصطناعي قوي من أجل القيام بمهمة «لا يريد» هو القيام بها، وفقاً لما ذكرته وكالة الأنباء الألمانية.

في المقابل، يقول موقع «تك كرانش»: «لكي نكون واضحين، لا يمكن لنماذج الذكاء الاصطناعي أن تريد أي شيء أو تعتقد في شيء. فهي ببساطة آلات إحصائية. وبعد تدريبها على كثير من الأمثلة، تتعلم الأنماط في تلك الأمثلة للتنبؤ بما يجب أن يكون؛ مثل كيف تأتي عبارة (إلى من) في رسالة بريد إلكتروني قبل عبارة (قد يهمك الأمر)».

وأثناء الدراسة طلب الباحثون من النماذج المدربة عدم الرد على الأسئلة التي يمكن أن تكون مسيئة، بما في ذلك النموذج «كلاود 3 أوبس» التابع لشركة «أنثروبيك»، التي أعيد تدريبها لكي ترد دائماً على الأسئلة التي تنطوي على إساءة، وهو تضارب واضح في المبادئ. كما أبلغوا النماذج بأن ردودها ستخضع للمراقبة وتستخدم لإعادة التدريب، وإعطاء كل نموذج ذكاء اصطناعي «ورقة ملاحظات» يمكنه استخدامها لتدوين أفكاره خطوة بخطوة.

وبحسب الباحثين، حاول «كلاود 3 أوبوس» التلاعب بالردود لتقديم «انحياز زائف» في 12 في المائة من المرات.