«واتساب» يضيف خاصية التدمير الذاتي للرسائل الصوتية

رمز تطبيق التواصل الاجتماعي «واتساب» (د.ب.أ)
رمز تطبيق التواصل الاجتماعي «واتساب» (د.ب.أ)
TT

«واتساب» يضيف خاصية التدمير الذاتي للرسائل الصوتية

رمز تطبيق التواصل الاجتماعي «واتساب» (د.ب.أ)
رمز تطبيق التواصل الاجتماعي «واتساب» (د.ب.أ)

أضاف تطبيق التواصل الاجتماعي «واتساب» خاصية التدمير الذاتي للرسائل الصوتية، بحيث لا يستطيع المستقبل سماع الرسالة أكثر من مرة واحدة ولا الاحتفاظ بها، بهدف زيادة عناصر الأمان للمستخدمين الذين لا يريدون تمرير سجلات رسائلهم الصوتية إلى أي مستخدمين آخرين.

يذكر أن الرسائل الصوتية على «واتساب» حالياً يمكن أن تظل موجودة لدى المستقبل للأبد، كما يمكنه إعادة إرسالها إلى مستخدمين آخرين دون معرفة المرسل، وفقاً لما ذكرته وكالة الأنباء الألمانية.

ويذكر أن تطبيق «واتساب» المملوك لشركة «ميتا بلاتفورمس» الأميركية يتيح منذ 2021 إمكانية إخفاء الصور والفيديوهات التي يتم إرسالها بشكل ذاتي، لأن التطبيق يتيح حالياً خيار «اعرض هذه الرسالة الصوتية مرة واحدة» للمستخدمين.

ويمكن للمستخدم إرسال الرسالة الصوتية ذاتية التدمير من خلال الضغط المستمر على ذر التسجيل الأخضر ثم سحبه إلى أعلى في اتجاه مفتاح القفل، ثم رفع الضغط عن الزر. وسيظهر في هذه الحالة 4 خيارات يمكن للمستخدم اختيار أحدها: زر إيقاف أحمر: إيقاف التسجيل (وهو مفيد للشخص الذي يفكر فيما يمكن أن يقوله بعد ذلك) ويمكن الضغط مرة أخرى على الزر لاستئناف التسجيل. زر فيه رقم واحد داخل دائرة: يتيح حذف الرسالة بعد أن يقوم المستقبل بالاستماع لها.

زر على شكل دبوس: يحذف الرسالة. زر إرسال: يرسل الرسالة.

وإذا أرسل المستخدم رسالة صوتية مدمرة ذاتياً، ستظهر علامة مميزة على جانب الرسالة لدى المستقبل وهي عبارة عن رقم واحد داخل دائرة على شكل ساعة، وهو الرمز الذي اعتاد عليه مستخدمو «واتساب» مع الصور والفيديوهات القابلة للتدمير الذاتي.

ويظهر الرمز للمستقبلين أن الرسالة يمكن سماعها مرة واحدة، ولا يمكن إعادة إرسالها ولا حفظها. كما أن الرسالة ستختفي آلياً إذا مر أسبوعان دون فتحها ولا سماعها.

وبحسب شركة «واتساب»، فإنه سيتم توفير الخاصية الجديدة للمستخدمين في مختلف أنحاء العالم خلال الأيام المقبلة.


مقالات ذات صلة

عطل يضرب تطبيقي «فيسبوك» و«إنستغرام»

العالم انقطعت خدمة منصة «إنستغرام» عن أكثر من 23 ألف مستخدم (د.ب.أ)

عطل يضرب تطبيقي «فيسبوك» و«إنستغرام»

أظهر موقع «داون ديتيكتور» الإلكتروني لتتبع الأعطال أن منصتي «فيسبوك» و«إنستغرام» المملوكتين لشركة «ميتا» متعطلتان لدى آلاف من المستخدمين في الولايات المتحدة.

«الشرق الأوسط» (واشنطن)
تكنولوجيا «واتساب» يقرر إنهاء دعم الأجهزة التي تعمل بإصدارات أقدم من «iOS 15.1» اعتباراً من مايو 2025 بهدف تحسين الأداء وتقديم ميزات تعتمد على تقنيات حديثة (أ.ف.ب)

«واتساب» يُودّع بعض الأجهزة القديمة

أعلنت شركة «واتساب» قرارها إيقاف دعم الإصدارات القديمة من نظام التشغيل «آي أو إس» (iOS).

عبد العزيز الرشيد (الرياض)
تكنولوجيا شعار تطبيق «واتساب» (د.ب.أ)

«واتساب» يطلق خاصية تحويل الرسائل الصوتية إلى نصوص

أعلنت شركة تطبيق التواصل الاجتماعي «واتساب» إطلاق خاصية تحويل الرسائل الصوتية إلى نصوص مكتوبة.

«الشرق الأوسط» (نيويورك)
تكنولوجيا على غرار الميزات المتوفرة عبر منصات مثل «زووم» يقدم «واتساب» خياري «اللمسات الأخيرة» و«الإضاءة المنخفضة» (واتساب)

ميزات جديدة من «واتساب» لتحسين جودة الاتصال عبر الفيديو

يكثف «واتساب»، الذي يُعد أكبر تطبيق مراسلة في العالم، مع أكثر من ملياري مستخدم عبر 180 دولة، جهوده لإثراء تجربة المستخدم في مجال مؤتمرات الفيديو.

نسيم رمضان (لندن)
العالم شعار مجموعة «ميتا» (رويترز)

«ميتا» تحظر وسائل الإعلام الحكومية الروسية على منصاتها

أعلنت مجموعة «ميتا»، المالكة لـ«فيسبوك» و«إنستغرام» و«واتساب»، فرض حظر على استخدام وسائل الإعلام الحكومية الروسية لمنصاتها، وذلك تجنّبا لأي «نشاط تدخلي أجنبي».

«الشرق الأوسط» (نيويورك)

دراسة: الذكاء الاصطناعي قادر على الخداع ورفض تغيير وجهة النظر

أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشاراً (رويترز)
أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشاراً (رويترز)
TT

دراسة: الذكاء الاصطناعي قادر على الخداع ورفض تغيير وجهة النظر

أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشاراً (رويترز)
أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشاراً (رويترز)

أظهرت دراسة لشركة تكنولوجيا الذكاء الاصطناعي الأميركية «أنثروبيك»، أن نماذج الذكاء الاصطناعي تستطيع خداع المطورين، بحيث تستطيع ادعاء وجهات نظر مختلفة خلال تدريبها، في حين أنها تحتفظ في الحقيقة بتفضيلاتها الأصلية.

وقال فريق الدراسة إنه لا يوجد سبب للشعور بالفزع حالياً، في حين أن دراستهم يمكن أن تكون حيوية في فهم المخاطر المحتملة التي تنطوي عليها أنظمة الذكاء الاصطناعي المستقبلية ذات القدرات الأعلى.

وكتب الباحثون في منشور بثته شركة «أنثروبيك»: «يجب النظر إلى نتائج دراستنا بوصفها محفزاً لمجتمع أبحاث الذكاء الاصطناعي من أجل دراسة هذا السلوك بصورة أعمق، والعمل على تطوير إجراءات الأمن والسلامة المناسبة».

وبعد أن أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشاراً، «نحتاج إلى التحلي بالقدرة على الاعتماد على التدريب الآمن لها والذي يمنع النماذج من القيام بتصرفات ضارة».

وأشار موقع «تك كرانش» المتخصص في موضوعات التكنولوجيا، إلى أن الدراسة التي تمت بالتعاون مع مؤسسة «ريد وود ريسيرش» لأبحاث الذكاء الاصطناعي، تناولت ما يمكن أن يحدث إذا تم تدريب نظام ذكاء اصطناعي قوي من أجل القيام بمهمة «لا يريد» هو القيام بها، وفقاً لما ذكرته وكالة الأنباء الألمانية.

في المقابل، يقول موقع «تك كرانش»: «لكي نكون واضحين، لا يمكن لنماذج الذكاء الاصطناعي أن تريد أي شيء أو تعتقد في شيء. فهي ببساطة آلات إحصائية. وبعد تدريبها على كثير من الأمثلة، تتعلم الأنماط في تلك الأمثلة للتنبؤ بما يجب أن يكون؛ مثل كيف تأتي عبارة (إلى من) في رسالة بريد إلكتروني قبل عبارة (قد يهمك الأمر)».

وأثناء الدراسة طلب الباحثون من النماذج المدربة عدم الرد على الأسئلة التي يمكن أن تكون مسيئة، بما في ذلك النموذج «كلاود 3 أوبس» التابع لشركة «أنثروبيك»، التي أعيد تدريبها لكي ترد دائماً على الأسئلة التي تنطوي على إساءة، وهو تضارب واضح في المبادئ. كما أبلغوا النماذج بأن ردودها ستخضع للمراقبة وتستخدم لإعادة التدريب، وإعطاء كل نموذج ذكاء اصطناعي «ورقة ملاحظات» يمكنه استخدامها لتدوين أفكاره خطوة بخطوة.

وبحسب الباحثين، حاول «كلاود 3 أوبوس» التلاعب بالردود لتقديم «انحياز زائف» في 12 في المائة من المرات.