بـ15 ثانية فقط... أداة جديدة لتوليد الصوت عبر الذكاء الاصطناعي

«فويس إنجين» قادرة على إعادة إنتاج صوت شخص من خلال عينة صوتية قصيرة

شعار برنامج المحادثة الشهير «شات جي بي تي» (أرشيفية - رويترز)
شعار برنامج المحادثة الشهير «شات جي بي تي» (أرشيفية - رويترز)
TT

بـ15 ثانية فقط... أداة جديدة لتوليد الصوت عبر الذكاء الاصطناعي

شعار برنامج المحادثة الشهير «شات جي بي تي» (أرشيفية - رويترز)
شعار برنامج المحادثة الشهير «شات جي بي تي» (أرشيفية - رويترز)

عرضت شركة «أوبن إيه آي»، مبتكرة برنامج المحادثة الشهير «تشات جي بي تي» القائم على الذكاء الاصطناعي التوليدي، أداة لاستنساخ الصوت سيكون استخدامها محدوداً لتفادي تسجيل حوادث احتيال أو جرائم.

والأداة التي سُمّيت «فويس إنجين» قادرة على إعادة إنتاج صوت شخص من خلال عينة صوتية مدتها 15 ثانية، على ما ذكر بيان لـ«أوبن إيه آي» تطرّق إلى نتائج اختبار أجري على نطاق صغير.

وأضاف البيان: «ندرك أن القدرة على توليد أصوات تشبه أصوات البشر خطوة تنطوي على مخاطر كبيرة، خصوصاً في عام الانتخابات هذا».

وتابع: «نعمل مع شركاء أميركيين ودوليين من حكومات ووسائل إعلام ومجالات الترفيه والتعليم والمجتمع المدني وقطاعات أخرى، ونأخذ ملاحظاتهم في الاعتبار خلال عملية ابتكار الأداة».

وفي هذا العام الذي يُرتقب أن يشهد انتخابات في دول كثيرة، يخشى الباحثون في مجال التضليل الإعلامي من إساءة استخدام تطبيقات الذكاء الاصطناعي التوليدية، وخصوصاً أدوات استنساخ الصوت التي تُعدّ رخيصة وسهلة الاستخدام ويصعب تتبعها.

وأكدت «أوبن ايه آي» أنها اعتمدت «نهجاً حذراً» قبل نشر الأداة الجديدة على نطاق أوسع «بسبب احتمال إساءة استخدام الأصوات الاصطناعية».

ويأتي عرض الأداة بعدما قام مستشار يعمل في الحملة الرئاسية لمنافس ديمقراطي لجو بايدن، بابتكار برنامج آلي انتحل شخصية الرئيس الأميركي المرشح لولاية جديدة.

ودعا الصوت المشابه لصوت جو بايدن الناخبين إلى الامتناع عن التصويت في الانتخابات التمهيدية في نيو هامبشر.

وحظرت الولايات المتحدة مذّاك الدعوات التي تستخدم فيها الأصوات المستنسخة المولّدة بواسطة الذكاء الاصطناعي، من أجل مكافحة عمليات الاحتيال السياسية أو التجارية.

وأوضحت «أوبن إيه آي» أنّ الشركاء الذين يختبرون «فويس إنجين» وافقوا على قواعد تفرض مثلاً موافقة صريحة من أي شخص قبل استخدام صوته، وضرورة الإشارة بوضوح إلى المستمعين أن الأصوات ابتُكرت بواسطة الذكاء الاصطناعي.

وتابعت الشركة: «اعتمدنا مجموعة من الإجراءات الأمنية، بينها العلامة المائية حتى نتمكن من تتبع أصل كل صوت تبتكره الأداة الجديدة، بالإضافة إلى مراقبة استباقية لاستخدامها».

 

 


مقالات ذات صلة

يوميات الشرق ظهور أدوات الذكاء الاصطناعي التوليدية سمح بإنتاج تقييمات مزيفة للمنتجات والصفحات الموجودة على الإنترنت (رويترز)

كيف تكتشف التقييمات المزيفة للمنتجات على الإنترنت؟

تقول جماعات مراقبة وباحثون إن ظهور أدوات الذكاء الاصطناعي التوليدية سمح بإنتاج تقييمات مزيفة للمنتجات والصفحات الموجودة على الإنترنت ومنصات التواصل.

«الشرق الأوسط» (لندن)
علوم تصميمات لأشكال انتشار البروتين المولدة بالذكاء الاصطناعي

كيف يساعد الذكاء الاصطناعي المهلوس على تحقيق اختراقات علمية كبيرة؟

الانفجارات الإبداعية متجذرة في الحقائق الصارمة للطبيعة والعلم وليس في ضبابية الإنترنت المعروفة بتحيزاتها وأكاذيبها.

ويليام جيه برود (نيويورك)
تكنولوجيا بدائل متنوعة لـ«تشات جي بي تي»

بدائل متنوعة لـ«تشات جي بي تي»

روبوتات دردشة أخرى لها مواطن قوة ونقاط ضعف قد تلبي احتياجاتك بشكل أفضل.

«الشرق الأوسط» (لندن)
يوميات الشرق أداة «ميتا» هي برنامج للدردشة الآلية يعمل بتقنية الذكاء الاصطناعي (رويترز)

«الذكاء الاصطناعي» في مرمى انتقادات بعد «أخطاء دينية»

ارتكبت أداة الذكاء الاصطناعي «ميتا آي» (Meta AI) خطأً فادحاً بعد اختبارات في نصوص دينية.

محمد السيد علي (القاهرة)

دراسة: الذكاء الاصطناعي قادر على الخداع ورفض تغيير وجهة النظر

أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشاراً (رويترز)
أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشاراً (رويترز)
TT

دراسة: الذكاء الاصطناعي قادر على الخداع ورفض تغيير وجهة النظر

أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشاراً (رويترز)
أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشاراً (رويترز)

أظهرت دراسة لشركة تكنولوجيا الذكاء الاصطناعي الأميركية «أنثروبيك»، أن نماذج الذكاء الاصطناعي تستطيع خداع المطورين، بحيث تستطيع ادعاء وجهات نظر مختلفة خلال تدريبها، في حين أنها تحتفظ في الحقيقة بتفضيلاتها الأصلية.

وقال فريق الدراسة إنه لا يوجد سبب للشعور بالفزع حالياً، في حين أن دراستهم يمكن أن تكون حيوية في فهم المخاطر المحتملة التي تنطوي عليها أنظمة الذكاء الاصطناعي المستقبلية ذات القدرات الأعلى.

وكتب الباحثون في منشور بثته شركة «أنثروبيك»: «يجب النظر إلى نتائج دراستنا بوصفها محفزاً لمجتمع أبحاث الذكاء الاصطناعي من أجل دراسة هذا السلوك بصورة أعمق، والعمل على تطوير إجراءات الأمن والسلامة المناسبة».

وبعد أن أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشاراً، «نحتاج إلى التحلي بالقدرة على الاعتماد على التدريب الآمن لها والذي يمنع النماذج من القيام بتصرفات ضارة».

وأشار موقع «تك كرانش» المتخصص في موضوعات التكنولوجيا، إلى أن الدراسة التي تمت بالتعاون مع مؤسسة «ريد وود ريسيرش» لأبحاث الذكاء الاصطناعي، تناولت ما يمكن أن يحدث إذا تم تدريب نظام ذكاء اصطناعي قوي من أجل القيام بمهمة «لا يريد» هو القيام بها، وفقاً لما ذكرته وكالة الأنباء الألمانية.

في المقابل، يقول موقع «تك كرانش»: «لكي نكون واضحين، لا يمكن لنماذج الذكاء الاصطناعي أن تريد أي شيء أو تعتقد في شيء. فهي ببساطة آلات إحصائية. وبعد تدريبها على كثير من الأمثلة، تتعلم الأنماط في تلك الأمثلة للتنبؤ بما يجب أن يكون؛ مثل كيف تأتي عبارة (إلى من) في رسالة بريد إلكتروني قبل عبارة (قد يهمك الأمر)».

وأثناء الدراسة طلب الباحثون من النماذج المدربة عدم الرد على الأسئلة التي يمكن أن تكون مسيئة، بما في ذلك النموذج «كلاود 3 أوبس» التابع لشركة «أنثروبيك»، التي أعيد تدريبها لكي ترد دائماً على الأسئلة التي تنطوي على إساءة، وهو تضارب واضح في المبادئ. كما أبلغوا النماذج بأن ردودها ستخضع للمراقبة وتستخدم لإعادة التدريب، وإعطاء كل نموذج ذكاء اصطناعي «ورقة ملاحظات» يمكنه استخدامها لتدوين أفكاره خطوة بخطوة.

وبحسب الباحثين، حاول «كلاود 3 أوبوس» التلاعب بالردود لتقديم «انحياز زائف» في 12 في المائة من المرات.