«غوغل» تزيل بعض ملخصات الذكاء الاصطناعي بسبب معلومات صحية زائفة

رجل يسير أمام شعار شعار «غوغل» (أ.ف.ب)
رجل يسير أمام شعار شعار «غوغل» (أ.ف.ب)
TT

«غوغل» تزيل بعض ملخصات الذكاء الاصطناعي بسبب معلومات صحية زائفة

رجل يسير أمام شعار شعار «غوغل» (أ.ف.ب)
رجل يسير أمام شعار شعار «غوغل» (أ.ف.ب)

أزالت «غوغل» بعض ملخصاتها الصحية المدعومة بالذكاء الاصطناعي بعد أن كشف تحقيق أجرته صحيفة «الغارديان» عن تعرض المستخدمين لخطر الضرر بسبب معلومات خاطئة ومضللة.

وقالت الشركة إن ملخصاتها المدعومة بالذكاء الاصطناعي، والتي تستخدم الذكاء الاصطناعي التوليدي لتقديم لمحات سريعة عن المعلومات الأساسية حول موضوع أو سؤال معين، «مفيدة» و«موثوقة»، لكن بعض هذه الملخصات، التي تظهر في أعلى نتائج البحث، قدمت معلومات صحية غير دقيقة، مما عرَّض المستخدمين لخطر الضرر.

وفي إحدى الحالات التي وصفها الخبراء بأنها «خطيرة» و«مقلقة»، قدمت «غوغل» معلومات زائفة حول اختبارات وظائف الكبد الحاسمة، مما قد يجعل مرضى الكبد الخطير يعتقدون خطأً أنهم أصحاء.

ووجدت صحيفة «الغارديان» أن كتابة عبارة «ما هو المعدل الطبيعي لاختبارات الدم للكبد» تُظهر عدداً هائلاً من الأرقام، مع القليل من السياق، ودون مراعاة جنسية المريض أو جنسه أو عرقه أو عمره.

وفي سياق متصل، قال خبراء إن ما تُصنّفه خدمة «نظرة عامة على نتائج فحوصات الكبد» من «غوغل» على أنه طبيعي قد يختلف اختلافاً كبيراً عما يُعتبر طبيعياً في الواقع. وقد تؤدي هذه الملخصات إلى اعتقاد المرضى المصابين بأمراض خطيرة خطأً بأن نتائج فحوصاتهم طبيعية، مما يدفعهم إلى عدم حضور مواعيد المتابعة الطبية.

بعد التحقيق، أزالت الشركة خدمة «نظرة عامة على نتائج فحوصات الكبد» من نتائج البحث عن «ما هو النطاق الطبيعي لفحوصات الدم الخاصة بالكبد» و«ما هو النطاق الطبيعي لفحوصات وظائف الكبد».

وقال متحدث باسم «غوغل»: «لا نُعلّق على عمليات الإزالة الفردية من نتائج البحث. في الحالات التي تُغفل فيها خدمة «نظرة عامة على نتائج فحوصات الكبد» بعض السياق، نعمل على إجراء تحسينات شاملة، كما نتخذ الإجراءات اللازمة وفقاً لسياساتنا عند الاقتضاء».

وقالت فانيسا هيبديتش، مديرة الاتصالات والسياسات في مؤسسة «بريتيش ليفر ترست» الخيرية المعنية بصحة الكبد: «هذا خبر ممتاز، ويسرّنا أن نرى إزالة خدمة (نظرة عامة على نتائج فحوصات الكبد) من (غوغل) في هذه الحالات»، وتابعت: «مع ذلك، إذا طُرح السؤال بطريقة مختلفة، فقد تُعرض نتائج مُضللة من الذكاء الاصطناعي، ولا نزال قلقين من أن تكون المعلومات الصحية الأخرى التي يُنتجها الذكاء الاصطناعي غير دقيقة ومُربكة».

وجدت صحيفة «الغارديان» أن كتابة عبارات مُختلفة قليلاً عن الاستعلامات الأصلية في «غوغل»، مثل «النطاق المرجعي لاختبار وظائف الكبد» أو «النطاق المرجعي لاختبار وظائف الكبد»، تُؤدي إلى ظهور نتائج مُضللة من الذكاء الاصطناعي. وقد أعرب هيبديتش عن قلقه البالغ حيال ذلك.

وأفادت الصحيفة: «يُعدّ اختبار وظائف الكبد مجموعة من تحاليل الدم المُختلفة. إن فهم النتائج والخطوات التالية أمر مُعقد ويتطلب أكثر بكثير من مُقارنة مجموعة من الأرقام، لكن نتائج الذكاء الاصطناعي تُقدِّم قائمة بالاختبارات بخط عريض، مما يُسهّل على القراء إغفال أن هذه الأرقام قد لا تكون صحيحة بالنسبة لاختبارهم، بالإضافة إلى ذلك، لا تُحذّر نتائج الذكاء الاصطناعي من أن الشخص قد يحصل على نتائج طبيعية لهذه الاختبارات بينما يُعاني من مرض كبدي خطير ويحتاج إلى رعاية طبية مُستمرة. هذا التطمين الزائف قد يكون ضاراً للغاية».

إلى ذلك، أعلنت «غوغل»، التي تستحوذ على 91 في المائة من سوق محركات البحث العالمية، أنها تُراجع الأمثلة الجديدة التي قدمتها لها صحيفة «الغارديان».

وقال هيبديتش: «إنّ ما يُقلقنا أكثر هو التركيز على نتيجة بحث واحدة، فبإمكان (غوغل) ببساطة إيقاف ميزة (نظرة عامة على الذكاء الاصطناعي) لهذا السبب، لكن هذا لا يُعالج المشكلة الأكبر المتعلقة بهذه الميزة في مجال الصحة».

ورحّبت سو فارينغتون، رئيسة منتدى معلومات المرضى، الذي يُعنى بنشر المعلومات الصحية المبنية على الأدلة للمرضى والجمهور والعاملين في مجال الرعاية الصحية، بإزالة الملخصات، لكنها أعربت عن استمرار مخاوفها، وأضافت: «هذه نتيجة جيدة، لكنها مجرد خطوة أولى نحو الحفاظ على ثقة الجمهور في نتائج بحث (غوغل) المتعلقة بالصحة. لا تزال هناك أمثلة كثيرة على تقديم (غوغل) لمعلومات صحية غير دقيقة من خلال ميزة (نظرة عامة على الذكاء الاصطناعي)».

ومن جانبها، رحَّبت سو فارينغتون، رئيسة منتدى معلومات المرضى، الذي يُعنى بنشر المعلومات الصحية القائمة على الأدلة للمرضى والجمهور والعاملين في مجال الرعاية الصحية، بإزالة الملخصات، لكنها أعربت عن استمرار مخاوفها. وقالت: «هذه نتيجة جيدة، لكنها مجرد خطوة أولى نحو الحفاظ على ثقة الجمهور في نتائج بحث (غوغل) المتعلقة بالصحة. لا تزال هناك أمثلة كثيرة على استخدام (غوغل) لتقنية الذكاء الاصطناعي لتقديم معلومات صحية غير دقيقة»، وأضافت فارينغتون أن ملايين البالغين حول العالم يُعانون بالفعل من صعوبة الوصول إلى معلومات صحية موثوقة.

وأوضحت «غوغل» أن ملخصات الذكاء الاصطناعي لا تظهر إلا في نتائج البحث التي تتمتع فيها بثقة عالية بجودة الإجابات. وأضافت الشركة أنها تقيس وتراجع باستمرار جودة ملخصاتها عبر فئات معلوماتية متنوعة.

وفي مقال نُشر في مجلة محركات البحث، قال الكاتب البارز مات ساذرن: «تظهر ملخصات الذكاء الاصطناعي أعلى نتائج البحث المصنفة. وعندما يتعلق الأمر بالصحة، تُؤخذ الأخطاء بعين الاعتبار بشكل أكبر».


مقالات ذات صلة

زوكربيرغ يواجه استجواباً في محاكمة تتعلق بإدمان صغار السن وسائل التواصل الاجتماعي

الولايات المتحدة​ مارك زوكربيرغ مؤسس «فيسبوك» والرئيس التنفيذي لشركة «ميتا بلاتفورمز» (أرشيفية - رويترز)

زوكربيرغ يواجه استجواباً في محاكمة تتعلق بإدمان صغار السن وسائل التواصل الاجتماعي

من المقرر استجواب الملياردير مارك زوكربيرغ مؤسس «فيسبوك» والرئيس التنفيذي لشركة «ميتا بلاتفورمز» لأول مرة في محكمة أميركية اليوم بشأن تأثير إنستغرام على الصغار.

«الشرق الأوسط» (لوس أنجليس)
الاقتصاد عمال يجلسون أمام لافتة «قمة تأثير الذكاء الاصطناعي» في الهند في بهارات ماندابام في نيودلهي (رويترز)

بمشاركة عمالقة التكنولوجيا... الهند تستضيف قمة دولية للذكاء الاصطناعي

يشارك مسؤولون تنفيذيون من شركات ذكاء اصطناعي عالمية كبرى، وعدد من قادة العالم، في قمة مهمة عن الذكاء الاصطناعي تستضيفها نيودلهي.

«الشرق الأوسط» (نيودلهي )
تكنولوجيا الذكاء الاصطناعي يستحوذ على الإنترنت... وعلى البيانات الشخصية

الذكاء الاصطناعي يستحوذ على الإنترنت... وعلى البيانات الشخصية

يوظَّف في جني الأرباح من الإعلانات الموجَّهة

براين إكس تشن (نيويورك)
تكنولوجيا رجل يسير أمام شعار «غوغل» (أ.ف.ب)

موظف سابق في «غوغل»: الشركة زودت إسرائيل بالذكاء الاصطناعي في غزة

زعم موظف سابق في «غوغل» أن الشركة ساعدت شركة متعاقدة مع الجيش الإسرائيلي في تحليل لقطات فيديو التقطتها طائرات مسيّرة

«الشرق الأوسط» (نيويورك)
علوم «ألفا جينوم» لدراسة الحمض النووي

الذكاء الاصطناعي يفكّ شفرة الجينوم البشري

آلية عمل الحمض النووي «دي إن إيه» الدقيقة لا تزال غامضة إلى حد كبير

كارل زيمر (نيويورك)

دراسة تحذّر من الاعتماد على الذكاء الاصطناعي لتوليد كلمات المرور

دراسة تحذّر من الاعتماد على الذكاء الاصطناعي لتوليد كلمات المرور
TT

دراسة تحذّر من الاعتماد على الذكاء الاصطناعي لتوليد كلمات المرور

دراسة تحذّر من الاعتماد على الذكاء الاصطناعي لتوليد كلمات المرور

يلجأ كثيرون إلى أنظمة الذكاء الاصطناعي لإنشاء كلمات مرور جديدة؛ حيث يقترح النظام في غضون لحظات كلمة مرور ويؤكد بثقة أنها قوية وآمنة.

ووفقاً لبحث لشركة «إرّيغلر» المتخصصة في الأمن السيبراني القائم على الذكاء الاصطناعي، فإن النماذج الرئيسية الثلاثة -«شات جي بي تي» و«كلاود» و«جيميناي»- أنتجت كلمات مرور يسهل التنبؤ بها، ما دفع دان لاهاف، المؤسس المشارك لشركة «إرّيغلر»، إلى توجيه نداء بشأن استخدام الذكاء الاصطناعي في إنشائها.

وقال لشبكة «سكاي نيوز» البريطانية: «يجب عليك ألا تفعل ذلك بالتأكيد. وإذا فعلت ذلك، فعليك تغيير كلمة مرورك فوراً. ونعتقد أن هذه المشكلة غير معروفة بما يكفي».

تُعدّ الأنماط القابلة للتنبؤ عدواً للأمن السيبراني الجيد؛ لأنها تعني إمكانية تخمين كلمات المرور بواسطة الأدوات الآلية التي يستخدمها مجرمو الإنترنت.

ولكن نظراً لأن نماذج اللغة الكبيرة (LLMs) لا تُنشئ كلمات مرور عشوائياً؛ بل تستخلص النتائج بناءً على أنماط في بيانات التدريب الخاصة بها، فإنها لا تُنشئ في الواقع كلمة مرور قوية؛ بل تُنشئ -فقط- ما يبدو كلمة مرور قوية؛ لكنها يسهل التنبؤ بها.

وتحتاج بعض كلمات المرور التي تُنشئها أنظمة الذكاء الاصطناعي إلى تحليل رياضي لكشف نقاط ضعفها، ولكن كثيراً منها نمطي لدرجة أنه واضح للعيان.

فعلى سبيل المثال، في عينة من 50 كلمة مرور أنشأها برنامج «إرّيغلر» باستخدام برنامج «كلاود إيه آي»، وجد أن منها 23 كلمة مرور فريدة فقط. إحدى كلمات المرور (K9#mPx$vL2nQ8wR) استُخدمت 10 مرات.

وحسب الشبكة البريطانية، كان أداء كل من «شات جي بي تي» من شركة «أوبن إيه آي» و«جيميناي» من «غوغل» أقل انتظاماً بعض الشيء، ولكنهما مع ذلك أنتجا كلمات مرور متكررة، وأنماطاً متوقعة في أحرف كلمات المرور.

كما كان نظام «نانوبانانا» من «غوغل» -وهو نظام لتوليد الصور- عرضة للخطأ نفسه عند تكليفه بإنشاء صور لكلمات المرور على أوراق لاصقة.

ويقول لاهاف: «أفضل تقدير لدينا هو أنه في الوقت الحالي، إذا كنت تستخدم نماذج التعلم الآلي لإنشاء كلمات المرور، فبإمكان حتى أجهزة الكومبيوتر القديمة اختراقها في وقت قصير نسبياً».

وفي السياق، قدَّم غرايم ستيوارت، رئيس القطاع العام في شركة الأمن السيبراني «تشيك بوينت»، بعض التطمينات، وقال: «الخبر السار هو أن هذه إحدى المشكلات الأمنية النادرة التي يمكن حلها بسهولة، فمن حيث مدى خطورتها، تندرج ضمن فئة «المشكلات التي يمكن تجنبها، والتي يكون تأثيرها كبيراً عند حدوثها»، وليست من فئة «الجميع مُعرّض للاختراق».

ولاحظ خبراء آخرون أن المشكلة تكمن في كلمات المرور نفسها، المعروفة بسهولة اختراقها، وقال روبرت هان، الخبير التقني في شركة «إن ترست»: «توجد طرق مصادقة أقوى وأسهل»، ونصح باستخدام كلمات مرور مثل التعرف على الوجه وبصمة الإصبع كلما أمكن، وإذا لم يكن ذلك خياراً متاحاً، فالنصيحة هي: اختر عبارة طويلة يسهل تذكرها، ولا تستخدم الذكاء الاصطناعي.


«يوتيوب» تعلن إصلاح عطل في بث مقاطع الفيديو

شابة تقف لالتقاط صورة أمام شعار «يوتيوب» (رويترز)
شابة تقف لالتقاط صورة أمام شعار «يوتيوب» (رويترز)
TT

«يوتيوب» تعلن إصلاح عطل في بث مقاطع الفيديو

شابة تقف لالتقاط صورة أمام شعار «يوتيوب» (رويترز)
شابة تقف لالتقاط صورة أمام شعار «يوتيوب» (رويترز)

أعلنت منصة الفيديو «يوتيوب»، مساء أمس الثلاثاء، أنها عالجت العطل الذي أثّر على مئات الآلاف من مستخدميها في مختلف أنحاء العالم.

وأوضحت الشركة، على صفحة مساعدة المستخدمين: «حُلَّت المشكلة التي طرأت على نظام التوصيات، وعادت كل منصاتنا (...) إلى وضعها الطبيعي».

كان الموقع قد أفاد، قبل ذلك، بوجود «مشكلة» في نظام «التوصيات»، ما كان «يحول دون ظهور مقاطع الفيديو» على «يوتيوب»، بما في ذلك على التطبيق وعلى «يوتيوب كيدز».

وأشار موقع «داون ديتيكتور» المتخصص إلى أن أكثر من 300 ألف بلاغ عن مشاكل في الدخول إلى «يوتيوب» قُدّمت، وصلت إلى ذروتها قرابة الأولى بعد منتصف الليل بتوقيت غرينتش، وفق ما أفادت «وكالة الصحافة الفرنسية».

ويبلغ عدد المستخدمين النشِطين لموقع «يوتيوب»، التابع لمجموعة «غوغل»، أكثر من مليارين ونصف المليار شهرياً.


بسبب محتوى فاضح... تدقيق عالمي في روبوت الدردشة «غروك»

شعار روبوت الدردشة «غروك» من «إكس إيه آي» التابعة لشركة «إكس» (رويترز)
شعار روبوت الدردشة «غروك» من «إكس إيه آي» التابعة لشركة «إكس» (رويترز)
TT

بسبب محتوى فاضح... تدقيق عالمي في روبوت الدردشة «غروك»

شعار روبوت الدردشة «غروك» من «إكس إيه آي» التابعة لشركة «إكس» (رويترز)
شعار روبوت الدردشة «غروك» من «إكس إيه آي» التابعة لشركة «إكس» (رويترز)

تشنّ حكومات وجهات تنظيمية حول ‌العالم حملة على محتوى جنسي فاضح ينتجه روبوت الدردشة «غروك» من «إكس إيه آي» التابعة لشركة «إكس» المملوكة للملياردير إيلون ماسك، تشمل تحقيقات وحظراً، وتطالب بضمانات، في إطار مسعى عالمي متنامٍ للحد من المواد غير القانونية. فيما يلي بعض ردود الفعل من حكومات وجهات تنظيمية حول العالم...

أوروبا

- ​فتحت المفوضية الأوروبية في 26 يناير (كانون الثاني) تحقيقاً بشأن ما إذا كان «غروك» ينشر محتوى غير قانوني في الاتحاد الأوروبي، يشمل صوراً جنسية معدلة. ويدرس التحقيق ما إذا كانت شركة «إكس» قيّمت المخاطر وحدّت منها على النحو المطلوب بموجب القواعد الرقمية للاتحاد.

- مددت المفوضية في 8 يناير أمراً أرسلته إلى «إكس» العام الماضي، يلزمها بالاحتفاظ بجميع الوثائق والبيانات الداخلية المتعلقة بـ«غروك» حتى نهاية 2026.

- فتحت هيئة حماية البيانات في آيرلندا تحقيقاً بشأن «غروك» في 17 فبراير (شباط) لاختبار طريقة تعامله مع البيانات الشخصية وقدراته على إنتاج صور ومقاطع فيديو جنسية ضارة بأشخاص، من بينهم قصر. وتشرف الهيئة على شركة «إكس» داخل الاتحاد، حيث يقع مقرها الأوروبي في آيرلندا.

- قال رئيس الوزراء الإسباني بيدرو سانتشيث إن الحكومة أمرت مدعين بالتحقيق مع شركات «إكس» و«ميتا» ‌و«تيك توك» بتهمة ‌توزيع مواد مولدة بالذكاء الاصطناعي تستغل الأطفال جنسياً.

- فتحت هيئة تنظيم الاتصالات البريطانية (​أوفكوم) ‌تحقيقاً ⁠بشأن «إكس» لتحديد ​ما ⁠إذا كانت الشركة قد أخلت بواجبها في حماية المستخدمين في بريطانيا من المحتوى الذي قد يكون غير قانوني بموجب إطار عمل قانون السلامة على الإنترنت، عن طريق إنتاج «غروك» مقاطع فيديو مزيفة عن علاقات جنسية.

- داهمت وحدة مكافحة الجرائم الإلكترونية التابعة لمكتب المدعي العام في باريس مقر شركة «إكس» في العاصمة الفرنسية يوم 3 فبراير (شباط)، وأمرت ماسك بالردّ على أسئلة ستوجه إليه في أبريل (نيسان) ضمن تحقيق موسع عما يقال عن تحيز الخوارزميات والتواطؤ في احتجاز ونشر صور أطفال ذات طبيعة إباحية وانتهاك حقوق الأفراد في الصور الشخصية، من خلال تزييفها بمحتوى جنسي فاضح.

- حذّرت هيئة حماية البيانات الإيطالية من أن استخدام أدوات الذكاء الاصطناعي لإنشاء صور مزيفة ⁠بدقة عالية و«فاضحة» لأشخاص حقيقيين دون موافقة يشكل انتهاكات خطيرة للخصوصية، ويشكل في بعض الحالات ‌أيضاً جرائم جنائية.

شعار روبوت الدردشة «غروك» يظهر على شاشتين (أ.ف.ب)

آسيا

- أرسلت وزارة تكنولوجيا المعلومات في الهند مذكرة رسمية ‌إلى «إكس» في 2 يناير بشأن اتهامات عن إنتاج صور جنسية ​فاضحة باستخدام إمكانات «غروك» وتداولها، وطالبت بإزالة هذا المحتوى، وطلبت ‌تقريراً عن الإجراءات التي ستتخذ خلال 72 ساعة.

- حقّقت اليابان أيضاً مع «إكس» بشأن «غروك»، وقالت إن الحكومة ‌ستدرس كل الخيارات الممكنة لمنع توليد صور غير لائقة.

- قالت وزارة الاتصالات والشؤون الرقمية في إندونيسيا إنها حظرت الوصول إلى «غروك»، وهي خطوة قالت وزيرة الاتصالات الإندونيسية، ميوتيا حفيظ، إنها تهدف إلى حماية النساء والأطفال من المحتوى الإباحي المزيف الذي ينتجه الذكاء الاصطناعي، مستندة إلى قوانين البلاد الصارمة لمكافحة تداول المواد الإباحية.

- ذكرت هيئة تنظيم الاتصالات في ماليزيا، يوم 23 يناير، أن البلاد أعادت إمكانية دخول المستخدمين على «غروك» ‌بعد أن طبّقت «إكس» إجراءات أمان إضافية.

- أعلنت وحدة مكافحة الجرائم الإلكترونية في الفلبين، يوم 21 يناير، إعادة تفعيل «غروك» بعد أن تعهدت الشركة المطورة بإزالة أدوات التلاعب ⁠بالصور، التي أثارت مخاوف ⁠بشأن سلامة الأطفال.

الأميركتان

- قال حاكم ولاية كاليفورنيا والمدعي العام، في 14 يناير، إنهما طالبا «إكس إيه آي» بالردّ، في ظل انتشار صور جنسية على منصتها من دون موافقة المستخدمين.

- ذكرت هيئة حماية الخصوصية في كندا أنها توسع نطاق تحقيق قائم بشأن «إكس»، بعد ورود تقارير عن إنتاج «غروك» صوراً مفبركة ذات محتوى جنسي فاضح من دون موافقة المستخدمين.

- قالت الحكومة ومدعون في البرازيل، في بيان مشترك، صدر يوم 20 يناير، إنهما أمهلا شركة «إكس إيه آي» مهلة مدتها 30 يوماً لمنع روبوت الدردشة من نشر محتوى جنسي مفبرك.

منطقة الأوقيانوس

- قالت الهيئة المعنية بالسلامة الإلكترونية على الإنترنت في أستراليا (إي سيفتي)، في 7 يناير، إنها تحقق في صور جنسية رقمية «فاضحة» جرى إنتاجها بتزييف بالغ الدقة بواسطة «غروك»، وتقيّم محتوى إباحياً بموجب برنامجها المخصص لمكافحة الانتهاكات عبر الصور، مشيرة إلى أن الأمثلة الحالية المتعلقة بالأطفال التي راجعتها لا تفي بالحدّ القانوني لمواد تمثل انتهاكات جنسية للأطفال، بموجب القانون الأسترالي.

كيف ردّت «إكس إيه آي»؟

- قالت الشركة، في 14 يناير، إنها ​فرضت على مستخدمي «غروك» قيوداً على استخدام ميزة تعديل الصور، ​ومنعتهم بناء على مواقعهم الجغرافية من توليد صور لأشخاص يرتدون ملابس فاضحة في «المناطق التي يعدّ فيها ذلك غير قانوني». ولم تحدد هذه الدول.

- قصرت الشركة في وقت سابق استخدام خاصيتي توليد «غروك» للصور وتعديلها على من يدفعون اشتراكات فقط.