بيانات الصوت البيومترية... هل تهدد الخصوصية في زمن الخوارزميات؟

بيانات تكشف الصحة والحالة النفسية والخلفية الثقافية

تقنيات الذكاء الاصطناعي أصبحت قادرة على استخراج معلومات حساسة من الصوت دون علم المتحدث (أدوبي)
تقنيات الذكاء الاصطناعي أصبحت قادرة على استخراج معلومات حساسة من الصوت دون علم المتحدث (أدوبي)
TT

بيانات الصوت البيومترية... هل تهدد الخصوصية في زمن الخوارزميات؟

تقنيات الذكاء الاصطناعي أصبحت قادرة على استخراج معلومات حساسة من الصوت دون علم المتحدث (أدوبي)
تقنيات الذكاء الاصطناعي أصبحت قادرة على استخراج معلومات حساسة من الصوت دون علم المتحدث (أدوبي)

نحن نتحدث يومياً دون أن نفكر كثيراً في مقدار ما تكشفه أصواتنا عنّا. فإلى جانب الكلمات التي نختارها، يحمل الصوت إشارات دقيقة عن هويتنا قد تكشف معلومات صحية وخلفيات ثقافية وحالات عاطفية، ومستوى التعليم وربما حتى ميولاً فكرية. وحتى وقت قريب، كان هذا الإدراك يقتصر على الحدس البشري؛ إذ يمكننا غالباً أن نميّز تعب صديق أو سعادته أو توتره من نبرة صوته فقط. لكن اليوم، باتت الأنظمة الحاسوبية قادرة على فعل ذلك وأكثر بدقة متزايدة.

ويحذّر باحثون في تقنيات الكلام واللغة من أن هذه القدرات تمثل تحدياً حقيقياً للخصوصية. فالصوت لم يعد مجرد وسيلة لإعطاء الأوامر للمساعدات الرقمية أو أداة للحوار، بل أصبح وعاءً غنياً بالمعلومات الشخصية التي تستطيع الخوارزميات الحديثة استخراجها، غالباً دون علم المتحدث أو موافقته.

لماذا يُعد الصوت بيانات شخصية؟

عندما نتحدث، لا تنتقل الرسالة اللغوية وحدها. فإيقاع الكلام ودرجة الصوت والتوقفات بين الكلمات وأنماط التنفس والخصائص الصوتية الأخرى، جميعها تحمل طبقات متعددة من المعلومات الشخصية. ويشير خبراء تقنيات الكلام إلى أن هذه المعلومات مدمجة مباشرة في الإشارة الصوتية نفسها، أي أنها تُفصح تلقائياً عن صاحبها بمجرد التحدث، دون أي نية واعية للكشف عنها.

وتستطيع هذه الخصائص الصوتية أن تعكس مؤشرات تتعلق بالصحة الجسدية أو النفسية، مثل الإرهاق أو مشكلات في الجهاز التنفسي. كما يمكن أن تشير إلى خلفية المتحدث الثقافية أو الجغرافية من خلال اللهجة ونمط النطق. إضافة إلى ذلك، تحمل الأصوات دلائل عاطفية تُمكّن الأنظمة المتقدمة من استنتاج ما إذا كان الشخص متوتراً أو هادئاً أو متحمساً أو مضطرباً. ولهذا، يُصنَّف الصوت ضمن فئة البيانات البيومترية أي البيانات الشخصية العميقة، الفريدة غالباً، والتي يصعب تغييرها أو استبدالها.

وبسبب هذه الحساسية، تُعامل البيانات الصوتية في العديد من التشريعات الحديثة باعتبارها بيانات محمية. ففي الاتحاد الأوروبي، على سبيل المثال، يمكن أن يندرج الصوت ضمن البيانات البيومترية الخاضعة لقواعد صارمة بموجب اللائحة العامة لحماية البيانات (GDPR)، ما يستلزم توفير ضمانات إضافية والحصول على موافقة صريحة في كثير من الحالات.

تحليل الصوت يطرح مخاطر تتعلق بالخصوصية قد تمتد إلى التوظيف والتأمين والتسويق والمراقبة (شاترستوك)

مخاطر الإفراط في كشف المعلومات

تثير القدرة على استخراج سمات شخصية من الصوت مخاوف تتجاوز مسألة الراحة أو التخصيص. فمع تطور تقنيات تحليل الصوت وانتشارها، قد تمتد آثارها إلى مجالات حساسة في حياة الأفراد. فقد تُستخدم الاستنتاجات المستخلصة من أنماط الكلام يوماً ما للتأثير في قرارات التوظيف أو تقييمات التأمين إذا أسيء استخدامها. كما يمكن للمعلنين استغلال الإشارات العاطفية أو السلوكية المستخلصة من الصوت لتقديم رسائل تسويقية شديدة الاستهداف، وربما ذات طابع تلاعبي.

وتتفاقم المخاطر مع احتمالات سوء الاستخدام، مثل المراقبة غير المشروعة أو التحرش أو تتبع الأفراد دون علمهم. ورغم أن هذه السيناريوهات ليست شائعة على نطاق واسع بعد، يؤكد الباحثون أن سرعة تطور التكنولوجيا تستدعي دق ناقوس الخطر مبكراً، قبل أن تصبح هذه الممارسات أمراً واقعاً يصعب احتواؤه.

قياس ما يكشفه صوتك

أحد التحديات الأساسية في حماية خصوصية الصوت هو فهم مقدار المعلومات التي يحتويها تسجيل صوتي واحد. ولهذا يعمل الباحثون على تطوير أدوات وأساليب لقياس مدى قابلية ربط عيّنة صوتية بسمات تعريفية محددة. وتهدف هذه المقاييس إلى تحديد مدى سهولة نسب الصوت إلى شخص بعينه أو إلى فئة ضيقة من الأشخاص، اعتماداً فقط على الخصائص الصوتية.

وتُعد هذه الأدوات ضرورية لتصميم أنظمة تراعي الخصوصية منذ البداية. فإذا تمكن المطورون من تقدير مستوى المخاطر المرتبطة بتسجيل صوتي معين، يصبح بإمكانهم اتخاذ قرارات مدروسة بشأن كيفية تخزينه أو معالجته أو مشاركته. ويدعم هذا التوجه مفهوم «الخصوصية بحكم التصميم»؛ حيث تُؤخذ المخاطر المحتملة في الحسبان قبل طرح التكنولوجيا للاستخدام الواسع.

الصوت ليس وسيلة تواصل فقط بل يحمل أيضاً بيانات شخصية عميقة تكشف الصحة والحالة النفسية والخلفية الثقافية (شاترستوك)

كيف يمكن حماية خصوصية الصوت؟

لا يدعو الخبراء إلى التخلي عن تقنيات الصوت، بل إلى تقليل التعرض غير الضروري للمعلومات الشخصية. ومن بين أكثر الاستراتيجيات فعالية تقليص كمية البيانات الصوتية الخام التي يتم مشاركتها. فبدلاً من إرسال تسجيلات كاملة، يمكن للأنظمة استخراج الحد الأدنى من المعلومات اللازمة لأداء مهمة محددة كتحويل الكلام إلى نص، ثم التخلص من بقية البيانات.

كما تُعد المعالجة المحلية للصوت خطوة مهمة في هذا السياق. فعندما يُحلل الصوت مباشرة على الجهاز، بدلاً من إرساله إلى خوادم سحابية بعيدة، تقل فرص إساءة الاستخدام أو الاعتراض أو الاستغلال الثانوي للبيانات. ويمنح هذا النهج المستخدمين قدراً أكبر من التحكم فيما يغادر أجهزتهم ومتى.

وتلعب الضوابط الفيزيائية والبيئية دوراً مكملاً. فالتقنيات التي تُظهر بوضوح متى يكون التسجيل نشطاً، أو التي تحصر التقاط الصوت في نطاقات محددة، أو تتطلب تفعيلاً مقصوداً من المستخدم، تساعد في منع التسجيل العرضي أو الخفي. ومجتمعةً، تسهم هذه الإجراءات في جعل التفاعل الصوتي مقصوداً لا متطفلاً.

الثقة والشفافية وتجربة المستخدم

الخصوصية ليست مسألة تقنية فحسب، بل هي قضية نفسية أيضاً. فمجرد الشعور بالمراقبة قد يؤثر في سلوك الأفراد وطريقة تعبيرهم عن أنفسهم. ويحذّر الباحثون من أن الإحساس الدائم بالرصد سواء أكان حقيقياً أم متوهماً، يمكن أن يقوّض الشعور بالكرامة والاستقلالية.

ومن هنا تبرز أهمية الشفافية؛ إذ ينبغي إبلاغ المستخدمين بوضوح متى يتم تسجيل أصواتهم، وما نوع المعلومات التي قد تُستخلص، وكيف ستُستخدم هذه البيانات. فالأنظمة التي تقدم إشارات واضحة وتحكماً مفهوماً في إعدادات الخصوصية تكون أقدر على كسب ثقة المستخدمين من تلك التي تعمل بصمت في الخلفية.

مستقبل مسؤول لتقنيات الصوت

توفر التقنيات المعتمدة على الصوت فوائد لا يمكن إنكارها، بدءاً من أدوات الوصول لذوي الإعاقة، مروراً بالحوسبة دون استخدام اليدين، ووصولاً إلى تفاعل أكثر طبيعية بين الإنسان والآلة. غير أن تعاظم حضور هذه التقنيات في الحياة اليومية يفرض مسؤولية متزايدة لحماية البيانات الصوتية.

ويواصل الباحثون تطوير أساليب لقياس المعلومات الشخصية الكامنة في الصوت وتقليلها والتحكم بها. وفي الوقت ذاته، يتعين على المطورين وصنّاع السياسات والمصممين العمل معاً لضمان تطور أطر الخصوصية بالتوازي مع الابتكار. فالتحدي ليس في إسكات التكنولوجيا، بل في ضمان أن تكون أصواتنا حين نتحدث مصدر تمكين لنا، لا بوابة لانتهاك خصوصيتنا.


مقالات ذات صلة

البرلمان الأوروبي يحظر أدوات ذكاء اصطناعي «تعرّي» أشخاصاً

تكنولوجيا شعار روبوت الدردشة «غروك» يظهر على شاشتين (أ.ف.ب)

البرلمان الأوروبي يحظر أدوات ذكاء اصطناعي «تعرّي» أشخاصاً

أقرّ البرلمان الأوروبي، الخميس، قانوناً يحظّر استخدام الذكاء الاصطناعي لـ«تعرية» الأشخاص من دون موافقتهم.

«الشرق الأوسط» (بروكسل)
تكنولوجيا تجمع الشراكة بين البنية التحتية والنماذج لدى «هيوماين» وخبرة «Turing» في تطوير وتقييم أنظمة الذكاء الاصطناعي (هيوماين)

«هيوماين» و«Turing» تطلقان سوقاً عالمية لوكلاء الذكاء الاصطناعي للمؤسسات

«هيوماين» و«Turing» تطلقان سوقاً لوكلاء الذكاء الاصطناعي لتمكين المؤسسات من تشغيل مهامها عبر وكلاء أذكياء بدل البرمجيات التقليدية.

نسيم رمضان (لندن)
علوم صورة من موقع شركة «آيبر» يظهر فيها عمل النظام الروبوتي المزدوج لتنظيف المسبح من السطح إلى الجدران إلى القاع

نظام روبوتي ذكي مزدوج لتنظيف المسابح

يعمل بشكل ذاتي من السطح إلى القاع بتغطية شاملة

غريغ إيلمان (واشنطن)
تكنولوجيا تلعب طريقة عرض المعلومات وسردها دوراً أساسياً في تشكيل الفهم وليس فقط مضمونها (شاترستوك)

دراسة تبحث: هل يغيّر الذكاء الاصطناعي طريقة تفكيرنا رغم صحة المعلومات؟

دراسة تظهر أن الذكاء الاصطناعي يؤثر في الآراء عبر طريقة عرض المعلومات حتى عندما تكون الحقائق صحيحة وغير مضللة.

نسيم رمضان (لندن)
تكنولوجيا رئيس شركة «أبل» تيم كوك خلال أحد المؤتمرات السنوية للشركة (إ.ب.أ)

«أبل» في عامها الخمسين… قصة شركة أعادت تشكيل التكنولوجيا العالمية

مسيرة «أبل» خلال 50 عاماً تعكس قدرة استثنائية على الابتكار وإعادة الابتكار، من مرآب صغير إلى شركة أعادت تشكيل التكنولوجيا العالمية.

نسيم رمضان (لندن)

«أبل» تعتزم فتح «سيري» أمام خدمات الذكاء الاصطناعي المنافِسة

يظهر شعار شركة «أبل» على مبنى في حي مانهاتن بمدينة نيويورك الأميركية (د.ب.أ)
يظهر شعار شركة «أبل» على مبنى في حي مانهاتن بمدينة نيويورك الأميركية (د.ب.أ)
TT

«أبل» تعتزم فتح «سيري» أمام خدمات الذكاء الاصطناعي المنافِسة

يظهر شعار شركة «أبل» على مبنى في حي مانهاتن بمدينة نيويورك الأميركية (د.ب.أ)
يظهر شعار شركة «أبل» على مبنى في حي مانهاتن بمدينة نيويورك الأميركية (د.ب.أ)

ذكرت «بلومبيرغ نيوز»، اليوم الخميس، أن «أبل» تخطط لفتح مساعدها الصوتي «سيري» أمام خدمات ​الذكاء الاصطناعي المنافِسة، بما يتجاوز شراكتها الحالية مع «تشات جي بي تي».

وقالت الوكالة، في تقريرها الذي نقلته عن مصادر مطّلعة، إن هذه الخطوة، المتوقعة ضِمن تحديث نظام التشغيل «آي أو إس 27» من «أبل»، ستسمح لتطبيقات الذكاء الاصطناعي التابعة لجهات خارجية بالاندماج مباشرة مع «سيري»، مما يمكّن المستخدمين من توجيه الاستفسارات إلى خدمات مثل «جيميناي» التابعة لشركة «ألفابت»، أو «كلود» التابعة لشركة «أنثروبيك» من داخل المساعد.

وهذا التغيير تحول مهم في استراتيجية «أبل» للذكاء الاصطناعي، إذ تسعى الشركة إلى اللحاق بركب نظيراتها في وادي السيليكون، ووضع «آيفون» كمنصة أوسع للذكاء الاصطناعي.

و«سيري»، الذي أُطلق لأول مرة منذ أكثر من عقد، عنصر أساسي في هذا المسعى. وأفادت «بلومبيرغ نيوز» بأن «أبل» تُطور أدوات تسمح لتطبيقات روبوتات الدردشة المثبتة عبر متجر التطبيقات الخاص بها بالعمل مع «سيري» وميزات أخرى ضِمن منصة «أبل إنتليجنس». وسيتمكن المستخدمون من اختيار خدمة الذكاء الاصطناعي التي تتولى معالجة كل طلب.

وذكر التقرير أن هذا التحديث قد يساعد «أبل» أيضاً على تحقيق مزيد من الإيرادات من خلال الحصول على حصة من الاشتراكات المبيعة عبر خدمات الذكاء الاصطناعي التابعة لجهات خارجية.

ومن المتوقع أن تستعرض «أبل» ميزات البرنامج الجديدة في مؤتمر المطورين العالمي الذي تعقده في يونيو (حزيران) المقبل، غير أن الخطط قد تتغير.


البرلمان الأوروبي يحظر أدوات ذكاء اصطناعي «تعرّي» أشخاصاً

شعار روبوت الدردشة «غروك» يظهر على شاشتين (أ.ف.ب)
شعار روبوت الدردشة «غروك» يظهر على شاشتين (أ.ف.ب)
TT

البرلمان الأوروبي يحظر أدوات ذكاء اصطناعي «تعرّي» أشخاصاً

شعار روبوت الدردشة «غروك» يظهر على شاشتين (أ.ف.ب)
شعار روبوت الدردشة «غروك» يظهر على شاشتين (أ.ف.ب)

أقرّ البرلمان الأوروبي، الخميس، قانوناً يحظّر استخدام الذكاء الاصطناعي لـ«تعرية» الأشخاص من دون موافقتهم.

وتمّ تبني القرار في نصّ أُقرّ بأغلبية ساحقة (569 صوتاً مقابل 45 صوتاً معارضاً) خلال جلسة عامة للبرلمان في بروكسل، وفقاً لـ«وكالة الصحافة الفرنسية».

وأوضح بيان صادر عن البرلمان أن الأمر يتعلّق بحظر برامج «التعرية» التي «تستخدم الذكاء الاصطناعي لإنشاء أو التلاعب بصور ذات إيحاءات جنسية واضحة، أو صور في وضع حميم تشبه شخصاً حقيقياً يمكن التعرّف عليه، من دون موافقة هذا الشخص».

ولا يطبّق النص على أنظمة الذكاء الاصطناعي المزوّدة «بتدابير أمنية فعّالة» تحول دون هذه الممارسات.

وكانت دول الاتحاد الأوروبي أقرّت هذا الشهر إجراء مشابهاً. وسيتعيّن عليها الآن التفاوض مع البرلمان للتوصل إلى صياغة متقاربة، قبل أن يصبح من الممكن تطبيق الإجراء.

وتأتي هذه المبادرات خصوصاً بعد إدخال خاصية قبل بضعة أشهر في تطبيق «غروك» للذكاء الاصطناعي تتيح للمستخدمين أن يطلبوا منه تركيب صور مزيفة قريبة جداً من الواقعية (ديب فيك) لنساء وأطفال عراة، انطلاقاً من صور حقيقية.

وأثارت هذه القضية موجة استنكار في العديد من الدول ودفعت الاتحاد الأوروبي إلى فتح تحقيق.

كما وافق البرلمان في النص ذاته، على إرجاء دخول قوانين أوروبية جديدة حيّز التنفيذ بشأن أنظمة الذكاء الاصطناعي ذات المخاطر العالية، أي تلك العاملة في مجالات حساسة كالأمن أو الصحة أو الحقوق الأساسية.

وكان من المفترض أن تدخل هذه القواعد حيّز التنفيذ في أغسطس (آب) 2026. وعلى غرار الدول الأعضاء، اقترح النواب الأوروبيون تاريخين محدّدين لهذا التأجيل، في حين كانت المفوضية الأوروبية تريد منح الشركات جدولاً زمنياً أكثر مرونة.

والتاريخان هما: الثاني من ديسمبر (كانون الأول) 2027 للأنظمة المستقلة ذات المخاطر العالية، والثاني من أغسطس (آب) 2028 للأنظمة المدمجة في برامج أو منتجات أخرى.


«هيوماين» و«Turing» تطلقان سوقاً عالمية لوكلاء الذكاء الاصطناعي للمؤسسات

تجمع الشراكة بين البنية التحتية والنماذج لدى «هيوماين» وخبرة «Turing» في تطوير وتقييم أنظمة الذكاء الاصطناعي (هيوماين)
تجمع الشراكة بين البنية التحتية والنماذج لدى «هيوماين» وخبرة «Turing» في تطوير وتقييم أنظمة الذكاء الاصطناعي (هيوماين)
TT

«هيوماين» و«Turing» تطلقان سوقاً عالمية لوكلاء الذكاء الاصطناعي للمؤسسات

تجمع الشراكة بين البنية التحتية والنماذج لدى «هيوماين» وخبرة «Turing» في تطوير وتقييم أنظمة الذكاء الاصطناعي (هيوماين)
تجمع الشراكة بين البنية التحتية والنماذج لدى «هيوماين» وخبرة «Turing» في تطوير وتقييم أنظمة الذكاء الاصطناعي (هيوماين)

في خطوة تعكس تسارع الاهتمام بتطبيقات الذكاء الاصطناعي داخل المؤسسات، أعلنت «هيوماين»، التابعة لصندوق الاستثمارات العامة، عن شراكة مع شركة «Turing» المتخصصة في تطوير أنظمة الذكاء الاصطناعي، بهدف إنشاء سوق عالمية لوكلاء الذكاء الاصطناعي ضمن منصة «HUMAIN ONE».

وتتمحور الفكرة حول توفير بيئة تمكّن الشركات من اكتشاف هذه الوكلاء وتطبيقها وتوسيع استخدامها عبر وظائف مختلفة، مثل الموارد البشرية والمالية والعمليات، في محاولة لتسريع الانتقال من استخدام أدوات رقمية تقليدية إلى نماذج تشغيل أكثر اعتماداً على الأتمتة الذكية.

يفتح المشروع المجال أمام المطورين لنشر حلولهم وبناء منظومة أوسع لما يُعرف بـ«اقتصاد الوكلاء» (شاترستوك)

منصات التشغيل الذكي

الشراكة تجمع بين ما تطوره «هيوماين» من بنية تحتية ونماذج ذكاء اصطناعي، وبين خبرة «Turing» في تقييم النماذج وضبطها وتطبيقها في بيئات العمل. الهدف المعلن هو الوصول إلى وكلاء ذكاء اصطناعي يمكن استخدامها على نطاق واسع داخل المؤسسات، وليس فقط في التجارب أو النماذج الأولية.

ويُتوقع أن يشكّل هذا السوق طبقة جديدة ضمن ما يُعرف بنماذج التشغيل القائمة على الوكلاء، حيث لا تقتصر البرمجيات على دعم سير العمل، بل تبدأ في تنفيذه بشكل مباشر. وفي هذا السياق، يمكن للمؤسسات الوصول إلى وكلاء متخصصين حسب الوظيفة أو القطاع، ضمن بيئة مصممة لتكون قابلة للتوسع ومراعية لمتطلبات الأمان.

كما يفتح هذا التوجه المجال أمام المطورين وشركات التقنية لنشر حلولهم عبر المنصة، ما قد يساهم في بناء منظومة أوسع لوكلاء الذكاء الاصطناعي، تتجاوز حدود المؤسسات الفردية إلى سوق أكثر تكاملاً.

وتشير «هيوماين» إلى أن هذه الخطوة تأتي ضمن رؤية أوسع لإعادة تعريف كيفية بناء البرمجيات واستخدامها داخل المؤسسات، عبر الانتقال من نموذج «البرمجيات كخدمة» إلى بيئات تعتمد على وكلاء قادرين على تنفيذ المهام والتعلم والتفاعل بشكل مستمر.

يعكس هذا التوجه تحولاً نحو نماذج تشغيل جديدة تعتمد على وكلاء أذكياء بدلاً من البرمجيات التقليدية داخل المؤسسات

اقتصاد الوكلاء الناشئ

من جانبه، يرى طارق أمين، الرئيس التنفيذي لـ«هيوماين»، أن المرحلة المقبلة ستشهد تحولاً في طبيعة البرمجيات المستخدمة داخل المؤسسات، قائلاً إن «المؤسسات في المستقبل لن تُبنى حول تطبيقات منفصلة، بل حول وكلاء أذكياء يعملون إلى جانب الإنسان». ويضيف أن هذه الشراكة تسعى إلى تسريع بناء سوق يربط بين قدرات المطورين واحتياجات المؤسسات.

بدوره، أشار جوناثان سيدهارث، الرئيس التنفيذي والشريك المؤسس لـ«Turing»، إلى أن تحويل قدرات الذكاء الاصطناعي المتقدمة إلى تطبيقات عملية يمثل التحدي الأساسي حالياً، موضحاً أن بناء سوق قائم على الوكلاء قد يسهم في جعل هذه التقنيات أكثر ارتباطاً بالإنتاجية الفعلية داخل المؤسسات.

وتأتي هذه الشراكة أيضاً في سياق أوسع يعكس طموح السعودية لتكون لاعباً في تطوير تقنيات الذكاء الاصطناعي، ليس فقط من حيث الاستخدام، بل كمصدر للمنصات والحلول التقنية.

وبينما لا تزال فكرة «اقتصاد الوكلاء» في مراحل مبكرة، فإن الاتجاه نحو بناء منصات تجمع بين المطورين والمؤسسات يشير إلى تحول محتمل في طريقة تطوير البرمجيات وتبنيها. فبدلاً من شراء أدوات جاهزة، قد تتجه المؤسسات مستقبلاً إلى تشغيل منظومات من الوكلاء القادرين على تنفيذ مهام متكاملة عبر مختلف أقسام العمل.

في هذا الإطار، تبدو «HUMAIN ONE» محاولة لبناء هذه الطبقة التشغيلية الجديدة، حيث لا تقتصر القيمة على التكنولوجيا نفسها، بل على كيفية تنظيمها وتكاملها داخل بيئات العمل.