حذّر بنك بريطاني من إمكانية استهداف ملايين الأشخاص بعمليات احتيال متطورة تعتمد على استنساخ الصوت باستخدام «الذكاء الاصطناعي». وفقاً لشبكة «سي إن إن».
وذكر بنك «ستارلينغ»، الذي يعمل عبر الإنترنت، أن المحتالين قادرون على استنساخ أصوات الضحايا من خلال تسجيلات صوتية لا تتعدى ثلاث ثوانٍ متاحة على الإنترنت، مثل الفيديوهات المنشورة على وسائل التواصل الاجتماعي. بعد ذلك، يستخدم هؤلاء المحتالون الأصوات المستنسخة لخداع أصدقاء وعائلات الضحايا عبر مكالمات هاتفية وهمية تطلب منهم إرسال أموال.
وأكد البنك في بيان صحافي، صدر الأربعاء، أن هذه العمليات الاحتيالية قد تتسبب في الإيقاع بملايين الأشخاص.
وحسب الشبكة، المشكلة قد بدأت بالفعل؛ إذ كشف مسح حديث، شمل أكثر من 3 آلاف شخص بالغ وأجراه بنك «ستارلينغ» بالتعاون مع «Mortar Research»، عن أن ربع المشاركين تقريباً استُهدفوا بعمليات احتيال باستخدام استنساخ الصوت خلال العام الماضي.
المسح أظهر أيضاً أن 46 في المائة من المستجيبين لم يكونوا على علم بهذه التقنية، بينما قال 8 في المائة إنهم ربما يرسلون المال إذا تلقوا مكالمة صوتية من شخص يدعي أنه صديق أو فرد من العائلة، حتى لو بدت المكالمة غريبة.
أكدت ليزا غراهام، رئيسة قسم أمن المعلومات في البنك، أن الأشخاص ينشرون بشكل منتظم تسجيلات صوتية على الإنترنت دون إدراك أن ذلك قد يجعلهم عرضة للاحتيال. وأوصت البنك باتخاذ خطوات وقائية، مثل الاتفاق على (عبارة أمان) للتحقق من الهوية عبر الهاتف.
وأشار البنك إلى أهمية تجنب مشاركة عبارة الأمان عبر الرسائل النصية، وحذف الرسالة فور تسلمها لتجنب وصول المحتالين إليها.
ومع تزايد تطور تقنيات «الذكاء الاصطناعي»، ازدادت المخاوف من إمكانية استخدام هذه التكنولوجيا لأغراض ضارة، مثل الوصول إلى الحسابات البنكية أو نشر معلومات مضللة.
الجدير بالذكر أن شركة «OpenAI» المطورة لـ«ChatGPT» كشفت في وقت سابق عن أداة جديدة لاستنساخ الأصوات، لكنها لم تطرحها للجمهور بعد بسبب المخاوف من إساءة استخدامها.