«فيسبوك» يعتذر عن عثرة بخاصية «التحقق من السلامة»

طالت مستخدمين حول العالم بعد تفجير لاهور

خطأ موقع التواصل الاجتماعي الذي شمل مستخدمين ليسوا بموقع الانفجار
خطأ موقع التواصل الاجتماعي الذي شمل مستخدمين ليسوا بموقع الانفجار
TT

«فيسبوك» يعتذر عن عثرة بخاصية «التحقق من السلامة»

خطأ موقع التواصل الاجتماعي الذي شمل مستخدمين ليسوا بموقع الانفجار
خطأ موقع التواصل الاجتماعي الذي شمل مستخدمين ليسوا بموقع الانفجار

سارع موقع التواصل الاجتماعي «فيسبوك» بتقديم اعتذار قبل أمس عن عطل طرأ على تطبيق «التحقق من السلامة» الذي يستخدم في حالة الكوارث، بعدما أرسل إخطارا إلى المستخدمين في جميع أنحاء العالم إثر الهجوم الدامي في لاهور بباكستان.
ومن بلجيكا إلى هاواي مرورا بمصر وهونغ كونغ، تلقى مستخدمو «فيسبوك» إخطارا من هذا التطبيق الذي يتيح لهم تأكيد سلامتهم لأصدقائهم بعد حدوث كارثة طبيعية أو اعتداء إرهابي في مكان قريب.
وقال الموقع في بيان: «قمنا بتفعيل (التحقق من السلامة) اليوم في لاهور في باكستان، بعد هجوم بالقنبلة وقع هناك. ولسوء الحظ، تلقى كثير من الأشخاص الذين لم يتأثروا بهذا الحدث إخطارا يسألهم عما إذا كانوا بخير».
وأضاف الموقع على الصفحة المخصصة لهذا التطبيق أن «هذا النوع من الأخطاء يتعارض مع هدفنا. لقد اتخذنا خطوات سريعة لحل هذه المشكلة، ونعتذر لجميع الذين تلقوا هذا الإشعار من طريق الخطأ».
من جانبهم، سارع مستخدمو «فيسبوك» الذين شملهم الخطأ بالتساؤل والتعجب عن أسباب تفعيل الإخطار. وتمثل الإخطارات الخاطئة أحدث عثرة في نظام «فحص السلامة» الذي فعله الموقع لمساعدة المستخدمين على طمأنة أصدقائهم فورا على أنهم بخير عندما يكونون قرب مأساة.
يذكر أنه بعد ساعات من تفجيرات نيجيريا في نوفمبر (تشرين الثاني) قام «فيسبوك» بتشغيل نظام فحص السلامة عقب انتقادات بأنه انتقائي. وكان الموقع قام بتشغيل النظام إثر هجمات باريس، لكنه لم يفعل ذلك عقب التفجيرات الانتحارية في بيروت.
وسبق لـ«فيسبوك» أن فعل هذه الخدمة خلال اعتداءات بروكسل الأسبوع الماضي، وباريس في نوفمبر، وأنقرة في منتصف مارس (آذار).



الذكاء الصناعي قيد التحقيق والضحية المستهلك

مراجعة لسوق الذكاء الصناعي للتأكد من حماية المستهلكين (غيتي)
مراجعة لسوق الذكاء الصناعي للتأكد من حماية المستهلكين (غيتي)
TT

الذكاء الصناعي قيد التحقيق والضحية المستهلك

مراجعة لسوق الذكاء الصناعي للتأكد من حماية المستهلكين (غيتي)
مراجعة لسوق الذكاء الصناعي للتأكد من حماية المستهلكين (غيتي)

تطلق هيئة مراقبة المنافسة في المملكة المتحدة مراجعة لسوق الذكاء الصناعي للتأكد من حماية المستهلكين، حسب (بي بي سي). وسوف ينظر التحقيق في البرنامج الكامن خلف روبوتات الدردشة مثل «شات جي بي تي».
وتواجه صناعة الذكاء الصناعي التدقيق في الوتيرة التي تعمل بها على تطوير التكنولوجيا لمحاكاة السلوك البشري.
وسوف تستكشف هيئة المنافسة والأسواق ما إذا كان الذكاء الصناعي يقدم ميزة غير منصفة للشركات القادرة على تحمل تكاليف هذه التكنولوجيا.
وقالت سارة كارديل، الرئيسة التنفيذية لهيئة المنافسة والأسواق، إن ما يسمى بنماذج التأسيس مثل برنامج «شات جي بي تي» تملك القدرة على «تحويل الطريقة التي تتنافس بها الشركات فضلا عن دفع النمو الاقتصادي الكبير».
إلا أنها قالت إنه من المهم للغاية أن تكون الفوائد المحتملة «متاحة بسهولة للشركات والمستهلكين البريطانيين بينما يظل الناس محميين من قضايا مثل المعلومات الكاذبة أو المضللة». ويأتي ذلك في أعقاب المخاوف بشأن تطوير الذكاء الصناعي التوليدي للتكنولوجيا القادرة على إنتاج الصور أو النصوص التي تكاد لا يمكن تمييزها عن أعمال البشر.
وقد حذر البعض من أن أدوات مثل «شات جي بي تي» -عبارة عن روبوت للدردشة قادر على كتابة المقالات، وترميز البرمجة الحاسوبية، بل وحتى إجراء محادثات بطريقة أشبه بما يمارسه البشر- قد تؤدي في نهاية المطاف إلى إلغاء مئات الملايين من فرص العمل.
في وقت سابق من هذا الأسبوع، حذر جيفري هينتون، الذي ينظر إليه بنطاق واسع باعتباره الأب الروحي للذكاء الصناعي، من المخاطر المتزايدة الناجمة عن التطورات في هذا المجال عندما ترك منصبه في غوغل.
وقال السيد هينتون لهيئة الإذاعة البريطانية إن بعض المخاطر الناجمة عن برامج الدردشة بالذكاء الصناعي كانت «مخيفة للغاية»، وإنها قريبا سوف تتجاوز مستوى المعلومات الموجود في دماغ الإنسان.
«في الوقت الحالي، هم ليسوا أكثر ذكاء منا، على حد علمي. ولكنني أعتقد أنهم قد يبلغون ذلك المستوى قريبا». ودعت شخصيات بارزة في مجال الذكاء الصناعي، في مارس (آذار) الماضي، إلى وقف عمل أنظمة الذكاء الصناعي القوية لمدة 6 أشهر على الأقل، وسط مخاوف من التهديدات التي تشكلها.
وكان رئيس تويتر إيلون ماسك وستيف وزنياك مؤسس شركة آبل من بين الموقعين على الرسالة المفتوحة التي تحذر من تلك المخاطر، وتقول إن السباق لتطوير أنظمة الذكاء الصناعي بات خارجا عن السيطرة.