وسائل جديدة للكشف عن التسجيلات الصوتية المزيفة بإتقان

عالما كومبيوتر يرصدان أنماط إنتاجها صناعياً أو بشرياً

وسائل جديدة للكشف عن التسجيلات الصوتية المزيفة بإتقان
TT

وسائل جديدة للكشف عن التسجيلات الصوتية المزيفة بإتقان

وسائل جديدة للكشف عن التسجيلات الصوتية المزيفة بإتقان

تخيّلوا السيناريو التالي: يرنّ الهاتف، فيجيب الموظف ويسمع صوت مديرته في العمل وهي تبلغه بقلقٍ شديد بأنّها نسيت أن تحوّل المال للمتعاقد الجديد قبل مغادرتها، وتريده أن يقوم بالتحويل، فتزوّده بالمعلومات اللازمة... لتبدأ الأزمة الحقيقية بعد إتمام العملية.
بعدها، يجلس الموظف في كرسيّه ويأخذ نفساً عميقاً ثمّ يرى مديرته تدخل من الباب لأنّ الصوت الذي سمعه على الهاتف لم يكن صوتها، حتّى أنّه لم يكن بشرياً، بل إنه تسجيل صوتي مزيّف باحترافية شديدة بواسطة تقنية «ديب فيك»، وهو عبارة عن نموذج صوتي صممته آلات ليبدو تماماً كصوت المديرة.

تزييف متقن
هذه ليست المرّة الأولى التي تحصل فيها اعتداءات باستخدام تسجيلات صوتية، حتّى أنّ المحادثات الصوتية المصنوعة بتقنية «ديب فيك» deepfake قد لا تكون بعيدة جداً عنّا.
وُلدت مواد «ديب فيك»، سواء التسجيلات الصوتية أو الفيديوهات، بفضل تطوّر تقنيات التعلّم الآلي المعقّدة، ولكنّها ولّدت معها مستوى جديداً من الشكّ بالوسائط الرقمية. ولرصد التزييف الاحترافي أو الـ«ديب فيك»، لجأ الباحثون إلى تحليل الآثار البصرية – كالأخطاء الدقيقة والتناقضات – الموجودة في الفيديوهات المصنوعة بتقنية التزييف».
أما التسجيلات الصوتية المزيّفة باحترافية (مقاطع «ديب فيك» الصوتية) فتشكل تهديداً أكبر لأنّ النّاس غالباً يتواصلون شفهياً دون تصوير – مثلاً، عبر الاتصالات الهاتفية والراديو والتسجيلات الصوتية. وهكذا، توسّع وسائل التواصل المحصورة بالصوت احتمالات استخدام المعتدين لمواد «ديب فيك».
ولرصد هذه المواد، عمدنا مع زملائنا الباحثين في جامعة فلوريدا، إلى تطوير تقنية تقيس الاختلافات الصوتية وسيلان الموائع بين نماذج صوتية عضوية لمتحدّثين بشر وأخرى صناعية فبركتها أجهزة كومبيوتر.

صوت طبيعي وصناعي
ينطق البشر من خلال دفع الهواء فوق مختلف تشكيلات المسالك الصوتية التي تضمّ الأحبال الصوتية واللسان والشفتين. وبتعديل ترتيب هذه التشكيلات، يغيّر الإنسان الخصائص الصوتية للمسالك الصوتية ما يتيح له ابتكار 200 صوت مختلف أو ما يُعرف بالصوت اللغوي. ولكنّ التركيب البنيوي البشري يحدّد السلوك الصوتي لهذه الأصوات اللغوية المختلفة؛ ما ينتج مجموعة صغيرة نسبياً من الأصوات الصحيحة لكلّ واحدٍ منها.
في المقابل، تُصمم المواد الصوتية المزيّفة باحترافية من خلال السماح للكومبيوتر بالاستماع إلى تسجيلات صوتية للمتكلّم الضحية. قد يحتاج الكومبيوتر إلى الاستماع لعشر أو عشرين ثانية من المقطع بحسب التقنية المستخدمة، ويُستخدم المقطع الصوتي لاستخراج معلومات أساسية عن الأنماط الفريدة في صوت الضحية.
يختار المعتدي جملة لتقنية «ديب فيك» ومن ثمّ يستخدم خوارزمية تحوّل النص إلى كلام لإنتاج نموذج صوتي يشبه صوت الضحية وهو يقول الجملة المختارة. تتمّ عملية صناعة نموذج التسجيل الصوتي المزيّف بهذه التقنية في ثوانٍ؛ ما يمنح المتعقّب المرونة الكافية لاستخدام صوت مزيّف في أي محادثة.

كشف التسجيلات المزيفة
إنّ الخطوة الأولى للتمييز بين كلام البشر والكلام المفبرك بتقنية «ديب فيك» هو فهم كيفية صناعة نموذج للمسالك الصوتية لدى الإنسان. لحسن الحظ، يملك العلماء تقنيات لتقدير ما قد يبدو عليه صوت أحدهم – أو أي مخلوق حي من ماضٍ ساحق، كالديناصور مثلاً – بناءً على قياسات تشريحية للمجرى الصوتي.
ولكننا قمنا بالعكس، فقد عمدنا إلى عكس الكثير من هذه التقنيات وتمكّنا من استخراج تقدير تقريبي للمسالك الصوتية للمتحدّث خلال مقطع كلامي له. ويتيح لنا هذا الأمر التدقيق بفاعلية بالتركيب البنيوي للمتحدّث الذي صنع النموذج الصوتي. ومن هنا، افترضنا أنّ النماذج الصوتية المزيفة باحترافية ستفشل أمام قيود الضوابط البنيوية التي يملكها البشر. بمعنى آخر، ساهم تحليل النماذج الصوتية المزيفة في محاكاة أشكال المسالك الصوتية غير الموجودة لدى الأشخاص الحقيقيين.
وجاءت نتائج اختبارنا ليس لتؤكّد نظريتنا فحسب، بل لتكشف أيضاً أمراً مثيراً للاهتمام. إذ وعند استخراج تقديرات المسالك الصوتية من التسجيلات الصوتية المزيفة، وجدنا أنّها كانت غالباً غير صحيحة. على سبيل المثال، وجدنا أنّ التسجيلات الصوتية المزيفة أنتجتها مسالك صوتية بنفس قطر وتركيبة انبوبة شفط المشروبات، في حين أنّ المسالك الصوتية البشرية تتميّز بالاتساع والمزيد من التنوّع في الشكل.
تثبت هذه الحقيقة أنّ التسجيلات المزيفة باحترافية، حتّى عندما تقنع المستمعين البشر، لا تتمتع بأي مصداقية؛ لأنها تظل متميزة عن الكلام البشري. ويمكننا، من خلال تقدير التركيب البنيوي المسؤول عن ابتكار أي حديث، أن نحدّد ما إذا كان التسجيل الصوتي بشرياً أو من صنع الكومبيوتر.

*باحثان في علوم الكومبيوتر بجامعة فلوريدا «فاست كومباني»
- خدمات «تريبيون ميديا»


مقالات ذات صلة

المدير التنفيذي لـ«سيسكو» السعودية: استثماراتنا بالمملكة مستمرة لدعم جهودها في التحول الرقمي

الاقتصاد المدير التنفيذي لشركة «سيسكو السعودية» سلمان فقيه (تصوير: تركي العقيلي) play-circle 01:37

المدير التنفيذي لـ«سيسكو» السعودية: استثماراتنا بالمملكة مستمرة لدعم جهودها في التحول الرقمي

في ظل ما يشهده قطاع التقنية السعودي من تطور، حقَّقت «سيسكو» أداءً قوياً ومتسقاً مع الفرص المتاحة وقرَّرت مواصلة استثماراتها لدعم جهود السعودية في التحول الرقمي.

زينب علي (الرياض)
عالم الاعمال «بلاك هات» تعود إلى الرياض بنسختها الثالثة

«بلاك هات» تعود إلى الرياض بنسختها الثالثة

تعود فعالية الأمن السيبراني الأبرز عالمياً «بلاك هات» في نسختها الثالثة إلى «مركز الرياض للمعارض والمؤتمرات» ببلدة ملهم شمال العاصمة السعودية الرياض.

تكنولوجيا «غوغل» تطلق النسخة الأولية من آندرويد 16 للمطورين مع ميزات جديدة لتعزيز الخصوصية ومشاركة البيانات الصحية (غوغل)

«غوغل» تطلق النسخة الأولية من آندرويد 16 للمطورين مع ميزات جديدة

أطلقت «غوغل» النسخة التجريبية الأولية من آندرويد 16 للمطورين، وهي خطوة تمهد الطريق للتحديثات الكبيرة المقبلة في هذا النظام.

عبد العزيز الرشيد (الرياض)
تكنولوجيا «أبل» تؤكد مشكلة اختفاء الملاحظات بسبب خلل بمزامنة (iCloud) وتوضح خطوات استعادتها مع توقع تحديث (iOS) قريب (أبل)

اختفاء الملاحظات في أجهزة آيفون... المشكلة والحلول

وفقاً لتقرير رسمي من «أبل»، فإن المشكلة تتعلق بإعدادات مزامنة الآيكلاود (iCloud).

عبد العزيز الرشيد (الرياض)
تكنولوجيا تمكنك «دورا» من تصميم مواقع ثلاثية الأبعاد مذهلة بسهولة تامة باستخدام الذكاء الاصطناعي دون الحاجة لأي معرفة برمجية (دورا)

صمم موقعك ثلاثي الأبعاد بخطوات بسيطة ودون «كود»

تتيح «دورا» للمستخدمين إنشاء مواقع مخصصة باستخدام الذكاء الاصطناعي عبر إدخال وصف نصي بسيط.

عبد العزيز الرشيد (الرياض)

شركات الذكاء الاصطناعي التوليدي تلجأ إلى الكتب لتطوّر برامجها

شركات الذكاء الاصطناعي تتفق مع دور النشر بما يتيح لهذه الشركات استخدام الأعمال المنشورة لتدريب نماذجها القائمة على الذكاء الاصطناعي التوليدي (رويترز)
شركات الذكاء الاصطناعي تتفق مع دور النشر بما يتيح لهذه الشركات استخدام الأعمال المنشورة لتدريب نماذجها القائمة على الذكاء الاصطناعي التوليدي (رويترز)
TT

شركات الذكاء الاصطناعي التوليدي تلجأ إلى الكتب لتطوّر برامجها

شركات الذكاء الاصطناعي تتفق مع دور النشر بما يتيح لهذه الشركات استخدام الأعمال المنشورة لتدريب نماذجها القائمة على الذكاء الاصطناعي التوليدي (رويترز)
شركات الذكاء الاصطناعي تتفق مع دور النشر بما يتيح لهذه الشركات استخدام الأعمال المنشورة لتدريب نماذجها القائمة على الذكاء الاصطناعي التوليدي (رويترز)

مع ازدياد احتياجات الذكاء الاصطناعي التوليدي، بدأت أوساط قطاع النشر هي الأخرى في التفاوض مع المنصات التي توفر هذه التقنية سعياً إلى حماية حقوق المؤلفين، وإبرام عقود مع الجهات المعنية بتوفير هذه الخدمات لتحقيق المداخيل من محتواها.

واقترحت دار النشر «هاربر كولينز» الأميركية الكبرى أخيراً على بعض مؤلفيها، عقداً مع إحدى شركات الذكاء الاصطناعي تبقى هويتها طي الكتمان، يتيح لهذه الشركة استخدام أعمالهم المنشورة لتدريب نماذجها القائمة على الذكاء الاصطناعي التوليدي.

وفي رسالة اطلعت عليها «وكالة الصحافة الفرنسية»، عرضت شركة الذكاء الاصطناعي 2500 دولار لكل كتاب تختاره لتدريب نموذجها اللغوي «إل إل إم» لمدة 3 سنوات.

آراء متفاوتة

ولكي تكون برامج الذكاء الاصطناعي قادرة على إنتاج مختلف أنواع المحتوى بناء على طلب بسيط بلغة يومية، تنبغي تغذيتها بكمية مزدادة من البيانات.

وبعد التواصل مع دار النشر أكدت الأخيرة الموافقة على العملية. وأشارت إلى أنّ «(هاربر كولينز) أبرمت عقداً مع إحدى شركات التكنولوجيا المتخصصة بالذكاء الاصطناعي للسماح بالاستخدام المحدود لكتب معينة (...) بهدف تدريب نماذج الذكاء الاصطناعي وتحسين أدائها».

وتوضّح دار النشر أيضاً أنّ العقد «ينظّم بشكل واضح ما تنتجه النماذج مع احترامها حقوق النشر».

ولاقى هذا العرض آراء متفاوتة في قطاع النشر، إذ رفضه كتّاب مثل الأميركي دانييل كيبلسميث الذي قال في منشور عبر منصة «بلوسكاي» للتواصل الاجتماعي: «من المحتمل أن أقبل بذلك مقابل مليار دولار، مبلغ يتيح لي التوقف عن العمل، لأن هذا هو الهدف النهائي من هذه التكنولوجيا».

هامش تفاوض محدود

ومع أنّ «هاربر كولينز» هي إحدى كبرى دور النشر التي أبرمت عقوداً من هذا النوع، فإنّها ليست الأولى. فدار «ويلي» الأميركية الناشرة للكتب العلمية أتاحت لشركة تكنولوجية كبيرة «محتوى كتب أكاديمية ومهنية منشورة لاستخدام محدد في نماذج التدريب، مقابل 23 مليون دولار»، كما قالت في مارس (آذار) عند عرض نتائجها المالية.

ويسلط هذا النوع من الاتفاقيات الضوء على المشاكل المرتبطة بتطوير الذكاء الاصطناعي التوليدي، الذي يتم تدريبه على كميات هائلة من البيانات تُجمع من الإنترنت، وهو ما قد يؤدي إلى انتهاكات لحقوق الطبع والنشر.

وترى جادا بيستيلي، رئيسة قسم الأخلاقيات لدى «هاغينغ فايس»، وهي منصة فرنسية - أميركية متخصصة بالذكاء الاصطناعي، أنّ هذا الإعلان يشكل خطوة إلى الأمام، لأنّ محتوى الكتب يدرّ أموالاً. لكنها تأسف لأنّ هامش التفاوض محدود للمؤلفين.

وتقول: «ما سنراه هو آلية لاتفاقيات ثنائية بين شركات التكنولوجيا ودور النشر أو أصحاب حقوق الطبع والنشر، في حين ينبغي أن تكون المفاوضات أوسع لتشمل أصحاب العلاقة».

ويقول المدير القانوني لاتحاد النشر الفرنسي (SNE) جوليان شوراكي: «نبدأ من مكان بعيد جداً»، مضيفاً: «إنّه تقدم، فبمجرّد وجود اتفاق يعني أن حواراً ما انعقد وثمة رغبة في تحقيق توازن فيما يخص استخدام البيانات مصدراً، التي تخضع للحقوق والتي ستولد مبالغ».

مواد جديدة

وفي ظل هذه المسائل، بدأ الناشرون الصحافيون أيضاً في تنظيم هذا الموضوع. ففي نهاية 2023، أطلقت صحيفة «نيويورك تايمز» الأميركية اليومية ملاحقات ضد شركة «أوبن إيه آي» مبتكرة برنامج «تشات جي بي تي» وضد «مايكروسوفت» المستثمر الرئيسي فيها، بتهمة انتهاك حقوق النشر. وقد أبرمت وسائل إعلام أخرى اتفاقيات مع «أوبن إيه آي».

وربما لم يعد أمام شركات التكنولوجيا أي خيار لتحسين منتجاتها سوى باعتماد خيارات تُلزمها بدفع أموال، خصوصاً مع بدء نفاد المواد الجديدة لتشغيل النماذج.

وأشارت الصحافة الأميركية أخيراً إلى أنّ النماذج الجديدة قيد التطوير تبدو كأنها وصلت إلى حدودها القصوى، لا سيما برامج «غوغل» و«أنثروبيك» و«أوبن إيه آي».

ويقول جوليان شوراكي: «يمكن على شبكة الإنترنت، جمع المحتوى القانوني وغير القانوني، وكميات كبيرة من المحتوى المقرصن، مما يشكل مشكلة قانونية. هذا من دون أن ننسى مسألة نوعية البيانات».