دمج الذكاء الاصطناعي في تطبيقات المواعدة

مبادئ توجيهية لتعزيز وتأمين البيانات الشخصية للمستخدمين

دمج الذكاء الاصطناعي في تطبيقات المواعدة
TT

دمج الذكاء الاصطناعي في تطبيقات المواعدة

دمج الذكاء الاصطناعي في تطبيقات المواعدة

في الوقت الذي تعمل فيه مختلف الشركات العالمية على تكييف التكنولوجيا الجديدة لنظم الذكاء الاصطناعي بوتيرة سريعة، سوية مع تحري وتدقيق المخاوف المتعلقة بالخصوصية الشخصية، أصدرت مجموعة «ماتش غروب Match Group» للمواعدة، مبادئها التوجيهية حول قواعد استخدام الذكاء الاصطناعي، يوم أمس الثلاثاء.

تطبيقات المواعدة

وقامت الشركة، التي تمتلك عدداً من التطبيقات، بما في ذلك «هنج Hinge»، و«تندرTinder»، و«أوكي كيوبيد OkCupid»، بعرض المبادئ السبعة، على موقعها الإلكتروني الخاص بالشركة. وهي تشمل: الأصالة، والإنصاف، والقدرة على التوضيح، والمساءلة، والسلامة، والخصوصية، والنزاهة. وقالت الشركة: «بينما نحن متحمسون لهذه التكنولوجيا، فإننا ملتزمون أيضاً باتباع نهج مدروس لكيفية استخدام الذكاء الاصطناعي عبر منصاتنا، ونحافظ على إيمان عميق بالابتكار الأخلاقي والمسؤول».

تجدر الإشارة إلى أن نظم الذكاء الاصطناعي ليست جديدة تماماً على عالم المواعدة؛ إذ استخدمت الشركات هذه التقنية، منذ فترة طويلة، للمساعدة في التنبؤ ببعض التطابقات (بين المستخدمين من الجنسين)، وتنفيذ ميزات السلامة. ولكن الأمل هو أن هذه التقنية يمكن أن تجعل تجربة المواعدة أكثر سلاسة للأفراد، والقيام بأشياء مثل مساعدة المستخدمين على اختيار أفضل صور الملفات الشخصية، ومطابقة الأشخاص بشكل أفضل، والمساعدة في بدء المحادثات.

مبادئ توجيهية

فيما يلي مبادئ الذكاء الاصطناعي التوجيهية الخاصة بالشركة

* الأصالة Authenticity: تطوير الميزات التي تعزز التعبير الفردي وأصالة الروابط الإنسانية. يتجذر عمل الشركة بمجال الذكاء الاصطناعي في مساعدة المستخدمين على عرض جوانب شخصياتهم بشكل أفضل، وتقديم أفضل ما لديهم في تقديم أنفسهم للتوصل إلى المطابقات المحتملة. نريد زيادة ثقة المستخدم في الاتصالات التي يُجرونها عبر الإنترنت، ومساعدتهم على الالتقاء في الحياة الواقعية.

* الإنصاف والعدالة Equity: ينبغي لتقنيات الذكاء الاصطناعي التوليدية ألا تؤدي إلى إدامة التحيّزات الضارة أو الممارسات غير العادلة. بينما تُواصل الشركة التعمق في الذكاء الاصطناعي التوليدي، فإنها تفكر في كيفية وضع طبقات من الحماية طوال دورات حياة تطوير التطبيقات، مثل عمليات التدقيق المنتظمة، والتعديلات الخوارزمية.

* القدرة على التوضيح Explainability. من السهل فهم النوايا والنتائج. والمواعدة مبنية على الثقة. بينما تقدم الشركة تكنولوجيا جديدة إلى تجربة المواعدة، ستسعى إلى تثقيف أعضائها حول تطبيقاتها، وإلقاء الضوء على الميزات التي تستخدم هذه التقنيات.

* المساءلة Accountability: الهدف التحسين المستمر بناءً على التعليقات وتقييم التأثيرات. الالتزام بإجراء الاختبارات، والاستكشاف، والتطوير، جنباً إلى جنب مع شركاء الصناعة، وخبراء الجهات الخارجية، ومجتمعاتنا.

* السلامة Safety: الاتصالات الأكثر أماناً تعني اتصالات أفضل. وجنباً إلى جنب مع دمج تقنية الذكاء الاصطناعي التوليدية في الملفات الشخصية والاكتشاف وتجارب ما بعد المطابقة، الالتزام بالاستفادة من أحدث التطورات في أدوات وميزات السلامة لدينا، مع تطوير السياسات والاستثمار في التطوير الذي سيساعد في حماية المستخدمين من الذكاء الاصطناعي.

* الخصوصية Privacy: حماية الخصوصية والأمن والبيانات الشخصية للمستخدمين. تُستخدم البيانات التي تجمعها الشركة - بما في ذلك من تقنيات الذكاء الاصطناعي - فقط لتقديم أفضل الخدمات الممكنة للمستخدمين والمجتمع. عدم بيع البيانات لطرف ثالث، والالتزام بالشفافية بشأن كيفية استخدام البيانات.

* النزاهة Integrity: الدعوة إلى تجارب ونتائج أفضل، إذ إن تعزيز الاتصالات الرقمية والعالمية الهادفة والجذابة هو أساس عمل الشركة.

مجلة «فاست كومباني»، خدمات «تريبيون ميديا».


مقالات ذات صلة

روسيا تواصل استهداف وسائل التواصل الاجتماعي وتحظر «فايبر»

أوروبا شعار تطبيق «فايبر» (رويترز)

روسيا تواصل استهداف وسائل التواصل الاجتماعي وتحظر «فايبر»

أعلنت الدائرة الاتحادية لرقابة الاتصالات وتقنية المعلومات والإعلام في روسيا، الجمعة، حجب تطبيق «فايبر» للتراسل، وذلك في أحدث حظر يطول خدمات التواصل الاجتماعي.

«الشرق الأوسط» (موسكو)
تكنولوجيا كيف تستخدم صور الهاتف للبحث على الإنترنت؟

كيف تستخدم صور الهاتف للبحث على الإنترنت؟

الصورة تساوي ألف كلمة، لكنك لا تحتاج إلى كتابة أي منها من أجل البحث على الإنترنت هذه الأيام، إذ تستطيع البرامج الموجودة على هاتفك، بمساعدة الذكاء الاصطناعي....

جيه دي بيرسدورفر (نيويورك)
تكنولوجيا تتيح منصة «Bolt.new» تطوير وتشغيل التطبيقات مباشرة عبر المتصفح معتمدةً على الذكاء الاصطناعي وتقنية الحاويات الويب دون الحاجة لإعدادات محلية (bolt.new)

تعرف على خدمة تطوير التطبيقات من المتصفح مباشرة مع «Bolt.new»

حققت خدمة «Bolt.new» نقلة نوعية في مجال تطوير التطبيقات؛ إذ تتيح للمطورين كتابة وتشغيل وتحرير التطبيقات مباشرة عبر المتصفح.

عبد العزيز الرشيد (الرياض)
يوميات الشرق تحوّلت الهواتف الذكية بما فيها من تطبيقات إلى إدمان العصر (رويترز)

كيف تقطع يدك الافتراضية... 7 خطوات للحدّ من الإدمان على الهاتف

باتت الهواتف الذكية امتداداً لليَد البشريّة، وكأنها يدٌ جديدة التصقت بها. العيون لا تفارقها ليل نهار، فهل من سبيل للتخفيف من هذا الإدمان المستجدّ؟

كريستين حبيب (بيروت)
أوروبا شعار تطبيق «تلغرام» (رويترز)

وفق تعديلات جديدة... «تلغرام» قد يرسل معلومات تخص بعض مستخدميه للسلطات القضائية

عدّل تطبيق «تلغرام» قواعد الإشراف الخاصة به من أجل التعاون بشكل أكبر مع السلطات القضائية، وفق ما قال، الاثنين، مؤسس المنصة ورئيسها بافل دوروف.

«الشرق الأوسط» (باريس)

دراسة: الذكاء الاصطناعي قادر على الخداع ورفض تغيير وجهة النظر

أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشاراً (رويترز)
أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشاراً (رويترز)
TT

دراسة: الذكاء الاصطناعي قادر على الخداع ورفض تغيير وجهة النظر

أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشاراً (رويترز)
أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشاراً (رويترز)

أظهرت دراسة لشركة تكنولوجيا الذكاء الاصطناعي الأميركية «أنثروبيك»، أن نماذج الذكاء الاصطناعي تستطيع خداع المطورين، بحيث تستطيع ادعاء وجهات نظر مختلفة خلال تدريبها، في حين أنها تحتفظ في الحقيقة بتفضيلاتها الأصلية.

وقال فريق الدراسة إنه لا يوجد سبب للشعور بالفزع حالياً، في حين أن دراستهم يمكن أن تكون حيوية في فهم المخاطر المحتملة التي تنطوي عليها أنظمة الذكاء الاصطناعي المستقبلية ذات القدرات الأعلى.

وكتب الباحثون في منشور بثته شركة «أنثروبيك»: «يجب النظر إلى نتائج دراستنا بوصفها محفزاً لمجتمع أبحاث الذكاء الاصطناعي من أجل دراسة هذا السلوك بصورة أعمق، والعمل على تطوير إجراءات الأمن والسلامة المناسبة».

وبعد أن أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشاراً، «نحتاج إلى التحلي بالقدرة على الاعتماد على التدريب الآمن لها والذي يمنع النماذج من القيام بتصرفات ضارة».

وأشار موقع «تك كرانش» المتخصص في موضوعات التكنولوجيا، إلى أن الدراسة التي تمت بالتعاون مع مؤسسة «ريد وود ريسيرش» لأبحاث الذكاء الاصطناعي، تناولت ما يمكن أن يحدث إذا تم تدريب نظام ذكاء اصطناعي قوي من أجل القيام بمهمة «لا يريد» هو القيام بها، وفقاً لما ذكرته وكالة الأنباء الألمانية.

في المقابل، يقول موقع «تك كرانش»: «لكي نكون واضحين، لا يمكن لنماذج الذكاء الاصطناعي أن تريد أي شيء أو تعتقد في شيء. فهي ببساطة آلات إحصائية. وبعد تدريبها على كثير من الأمثلة، تتعلم الأنماط في تلك الأمثلة للتنبؤ بما يجب أن يكون؛ مثل كيف تأتي عبارة (إلى من) في رسالة بريد إلكتروني قبل عبارة (قد يهمك الأمر)».

وأثناء الدراسة طلب الباحثون من النماذج المدربة عدم الرد على الأسئلة التي يمكن أن تكون مسيئة، بما في ذلك النموذج «كلاود 3 أوبس» التابع لشركة «أنثروبيك»، التي أعيد تدريبها لكي ترد دائماً على الأسئلة التي تنطوي على إساءة، وهو تضارب واضح في المبادئ. كما أبلغوا النماذج بأن ردودها ستخضع للمراقبة وتستخدم لإعادة التدريب، وإعطاء كل نموذج ذكاء اصطناعي «ورقة ملاحظات» يمكنه استخدامها لتدوين أفكاره خطوة بخطوة.

وبحسب الباحثين، حاول «كلاود 3 أوبوس» التلاعب بالردود لتقديم «انحياز زائف» في 12 في المائة من المرات.