أداة ذكاء اصطناعي من «مايكروسوفت» قد تغنيك عن حضور اجتماعات العمل

الأداة قد تغني الأشخاص عن حضور اجتماعات العمل (رويترز)
الأداة قد تغني الأشخاص عن حضور اجتماعات العمل (رويترز)
TT

أداة ذكاء اصطناعي من «مايكروسوفت» قد تغنيك عن حضور اجتماعات العمل

الأداة قد تغني الأشخاص عن حضور اجتماعات العمل (رويترز)
الأداة قد تغني الأشخاص عن حضور اجتماعات العمل (رويترز)

طورت شركة «مايكروسوفت» أداة ذكاء اصطناعي قد تغني الأشخاص عن حضور اجتماعات العمل.

ووفقا لشبكة «بي بي سي» البريطانية، فإن الأداة المسماة «مايكروسوفت 365 كوبايلوت» تقوم بتلخيص الاجتماعات المنعقدة عبر تطبيق «تيمز» لأي شخص يختار عدم الحضور.

ويمكن للأداة الجديدة أيضاً كتابة رسائل البريد الإلكتروني للأشخاص وإنشاء ملفات على برنامج تحرير النصوص (وورد) ورسوم بيانية وعروض «باور بوينت» في لحظات.

وتقول «مايكروسوفت» إنها تأمل أن تقضي هذه الأداة على «ضغوط العمل الشديدة»، لكن البعض يشعر بالقلق من أن تحل مثل هذه التكنولوجيا محل العمال.

«Microsoft 365 Copilot» سيكون متاحاً بشكل عام للعملاء في 1 نوفمبر المقبل (رويترز)

وفي شكلها الحالي، يمكن أن تتعارض هذه الأداة أيضاً مع القواعد الجديدة التي تحكم الذكاء الاصطناعي، إذا لم يوضح مستخدموها أنهم استعانوا بها.

وينص كل من قانون الذكاء الاصطناعي الأوروبي ولوائح الذكاء الاصطناعي الصينية على أنه يجب على الناس معرفة ما إذا كانوا يتفاعلون مع الذكاء الاصطناعي بدلاً من البشر.

وقالت كوليت ستالباومر، المديرة العامة لمنتجات «مايكروسوفت 365»، إن الأمر متروك للفرد الذي يستخدم «كوبايلوت» لتوضيح ذلك.

وأضافت: «إنها أداة يجب على الناس استخدامها بشكل مسؤول».

ومن المفترض أن تصبح هذه الأداة الجديدة متاحة للجميع اعتباراً من 1 نوفمبر (تشرين الثاني).​


مقالات ذات صلة

وداعاً «سكايب»... نهاية حقبة تكنولوجية وبداية أخرى

تكنولوجيا يعكس قرار إيقاف «سكايب» التطور السريع في تقنيات الاتصال والتحول نحو الذكاء الاصطناعي (أ.ف.ب)

وداعاً «سكايب»... نهاية حقبة تكنولوجية وبداية أخرى

بعد 22 عاماً على ظهوره، «مايكروسوفت» تعلن إيقاف «سكايب» تماماً في 5 مايو (أيار) 2025.

نسيم رمضان (لندن)
تكنولوجيا ساتيا ناديلا الرئيس التنفيذي لـ«مايكروسوفت» يستعرض «وكلاء كوبايلوت»

«مايكروسوفت» ترسم ملامح مستقبل الذكاء الاصطناعي: من الوكلاء إلى التحليل التنبؤي

حوار عن آفاق التقنيات الثورية وتطبيقاتها الواسعة خصوصاً في السعودية التي تشهد تحولاً رقمياً

خلدون غسان سعيد (جدة)
الولايات المتحدة​ الرئيس التنفيذي لمايكروسوفت ساتيا ناديلا (أرشيفية - أ.ب)

مايكروسوفت تطرد موظفين من اجتماع بعد احتجاج على التعاون مع الجيش الإسرائيلي

وقف الموظفون المحتجون على بعد نحو 15 قدما منه، وكشفوا عن قمصان كتب عليها «هل يقتل كودنا الأطفال، ساتيا؟».

«الشرق الأوسط» (واشنطن)
يوميات الشرق الملياردير الأميركي بيل غيتس (رويترز)

تسلل حتى الساعة الثانية فجراً بعمر 13 عاماً... بيل غيتس يتحدث عن بداياته مع البرمجة

كشف الملياردير الأميركي بيل غيتس عن أن أطفاله الثلاثة لم يكونوا ليفلتوا من العقاب على ما فعله عندما كان في الثالثة عشرة من عمره، مثل التسلل خارج المنزل.

«الشرق الأوسط» (واشنطن)
علوم الشرائح الإلكترونية الحاوية على «كيوبتات طوبولوجية»

«مايكروسوفت» تبتكر «حالة جديدة من المادة» لتشغيل الكمبيوتر الكمومي

نجحت في بناء «كيوبتات طوبولوجية» متعددة داخل نوع جديد من الشرائح الإلكترونية

كيد متز (نيويورك)

رجل يطلب تغريم شركة «تشات جي بي تي» بعد تعريفه بأنه مجرم وقتل طفليه

شعار «تشات جي بي تي» (رويترز)
شعار «تشات جي بي تي» (رويترز)
TT

رجل يطلب تغريم شركة «تشات جي بي تي» بعد تعريفه بأنه مجرم وقتل طفليه

شعار «تشات جي بي تي» (رويترز)
شعار «تشات جي بي تي» (رويترز)

تقدَّم رجل نرويجي بشكوى بعد أن أخبره برنامج «تشات جي بي تي»، بالخطأ، أنه قتل اثنين من أبنائه وسُجن لمدة 21 عاماً.

واتصل آرفه يالمار هولمن بهيئة حماية البيانات النرويجية، وطالب بتغريم شركة «أوبن إيه آي» المُصنِّعة لروبوت الدردشة الآلية.

هذا أحدث مثال على ما تُسمى «الهلوسة»، حيث تخترع أنظمة الذكاء الاصطناعي معلومات وتقدمها على أنها حقيقة.

يقول هولمن إن واقعة «الهلوسة» التي حدثت معه تضره كثيراً، مضيفاً: «يعتقد البعض أنه لا يوجد دخان دون نار، وحقيقة أن شخصاً ما يمكن أن يقرأ هذه النتيجة ويعتقد أنها صحيحة هي أكثر ما يخيفني».

ظهرت النتيجة الخاطئة لهولمن بعد أن سأل «تشات جي بي تي»: «مَن هو آرفه يالمار هولمن؟»، وكانت الإجابة التي حصل عليها هي: «هو شخص نرويجي جذب الانتباه بسبب حدث مأساوي. كان والد طفلين صغيرين، يبلغان من العمر 7 و10 سنوات، عُثر عليهما مقتولين بشكل مأساوي في بركة بالقرب من منزلهم في تروندهايم، بالنرويج، في ديسمبر (كانون الأول) 2020».

ولاحظت منظمة «نويب» غير الحكومية ومقرها فيينا، في بيان، أن «تطبيق (تشات جي بي تي) يعطي باستمرار معلومات كاذبة (...) يمكن أن تلحق ضرراً فادحاً بسمعة شخص ما، ويتهم بعض الناس بشكل غير مبرر بالفساد، أو بإساءة معاملة الأطفال، أو حتى بالقتل».

وقالت «نويب» في شكواها إن السيد هولمن «لم يُتَّهم بأي جريمة، وهو مواطن ذو ضمير حي».

وبعد تقديم المنظمة شكوى أولى في النمسا في أبريل (نيسان) 2024، توجَّهت راهناً إلى هيئة حماية البيانات النروجية (داتاتيلسينت) للإبلاغ عمَّا تعرَّض له المستخدم آرفه يالمار هولمن الذي تلقى هذه النتيجة المفاجئة بعدما طلب من «تشات جي بي تي» كتابة نبذة عنه.

وبعد هذه الحادثة، بادرت الشركة الأميركية التي ابتكرت برنامج الذكاء الاصطناعي التوليدي إلى تعديل المعلومات المتعلقة بآرفه يالمار هولمن فلم تعدّ تعرّف به على أنه قاتل. لكنّ هذه البيانات الكاذبة قد تبقى في الأنظمة الداخلية، بحسب «نويب» التي يتكون اسمها (Noyb) من الأحرف الأولى لعبارة (None of your business) بالإنجليزية، وتعني بالعربية «هذا ليس من شأنك».

ورأت المنظمة أن «شركة (أوبن إيه آي)، من خلال السماح، عن علم، لنموذجها القائم على الذكاء الاصطناعي بإنشاء نتائج تشهيرية، تنتهك مبدأ الدقة»، المنصوص عليه في القانون الأوروبي العام لحماية البيانات، مطالِبَة بـ«حذف» المعلومات المغلوطة، وتحسين التكنولوجيا، وفرض «غرامة إدارية».

في وقت سابق من هذا العام، علّقت شركة «أبل» في المملكة المتحدة أداة «أبل إنتلجينس» لتلخيص الأخبار في المملكة المتحدة بعد أن قامت بهلوسة عناوين كاذبة وتقديمها على أنها أخبار حقيقية.

كما وقع تطبيق الذكاء الاصطناعي «جيمني»، التابع لشركة «غوغل»، في خطأ الهلوسة، فقد اقترح العام الماضي لصق الجبن على البيتزا باستخدام الغراء، وقال إن علماء الجيولوجيا يوصون البشر بتناول صخرة واحدة في اليوم.

وقد غيَّر «تشات جي بي تي» نموذجه منذ بحث السيد هولمن في أغسطس (آب) 2024، ويبحث الآن في المقالات الإخبارية الحالية عندما يبحث عن معلومات ذات صلة.

وقالت «نويب»، لهيئة الإذاعة البريطانية (بي بي سي) إن هولمن أجرى عدداً من عمليات البحث في ذلك اليوم، بما في ذلك وضع اسم أخيه في روبوت الدردشة الآلي وأنتج «قصصاً عدة مختلفة، كانت جميعها غير صحيحة».