«أخطاء غوغل» تثير تساؤلات بشأن تحكم الذكاء الاصطناعي في المعلومات

شعار شركة «غوغل» (رويترز)
شعار شركة «غوغل» (رويترز)
TT

«أخطاء غوغل» تثير تساؤلات بشأن تحكم الذكاء الاصطناعي في المعلومات

شعار شركة «غوغل» (رويترز)
شعار شركة «غوغل» (رويترز)

أثارت أخطاء وقع فيه نموذج الذكاء الاصطناعي «جيميناي» التابع لشركة «غوغل»، أخيراً، تساؤلات بشأن مستقبل المعلومات والصور، ومدى تحكم تلك التطبيقات في «الذاكرة الجمعية» المستقبلية للبشر. وبينما أشاد بعض الخبراء بإقدام «غوغل» على الاعتراف بالخطأ، وإعلان عزمه العمل على تصحيحه. شدد الخبراء على «ضرورة التنبه لخطورة الذكاء الاصطناعي وتأثيره على تشكيل صورة لتاريخ البشر».

وكان الرئيس التنفيذي لشركة «غوغل»، سوندر بيتشاي، قد تحدث أخيراً، عن أخطاء وصفها بأنها «غير مقبولة على الإطلاق»، وقع فيها تطبيق «جيميناي» للذكاء الاصطناعي، حيث «ولد صوراً لقوات نازية متنوعة عرقياً، كما ولد صوراً غير دقيقة تاريخياً تظهر امرأة أميركية سوداء تُنتخب عضواً في مجلس الشيوخ في القرن التاسع عشر، في حين لم يحصل ذلك على أرض الواقع قبل عام 1992»؛ ما أثار جدلاً وانتقادات على مواقع التواصل الاجتماعي، وسط مخاوف من تأثير شركات التكنولوجيا الكبرى على مستقبل المعلومات.

واعترف المؤسس المشارك في «غوغل»، سيرغي برين بـ«حدوث أخطاء في عملية توليد الصور»، وقال في «هاكاثون» للذكاء الاصطناعي أقيم أخيراً، «كان ينبغي على الشركة اختبار برنامج (جيميناي) بشكل أكثر شمولاً»، بحسب ما نقلته وكالة الصحافة الفرنسية.

وبينما تشيد الباحثة الإعلامية اللبنانية في شؤون الإعلام المعاصر والذكاء الاصطناعي وأستاذة الإعلام والتواصل، سالي حمود، بـ«اعتراف تطبيقات الذكاء الاصطناعي بالخطأ ومحاولتها تصويبه»، حذّرت من «خطورة هيمنة شركات التكنولوجيا الكبرى على والبيانات».

وقالت حمود لـ«الشرق الأوسط» إن «الحديث عن مخاطر الذكاء الاصطناعي وتأثيرها على البيانات والذاكرة الجمعية ليس جديداً؛ لكنه تصاعد أخيراً مع إتاحة خدمات تطبيقات الذكاء الاصطناعي للأفراد، وبروزها على السطح بشكل كبير». وأضافت أن «البيانات الموجودة على الإنترنت، هي التي تكوّن الذاكرة الجمعية للأفراد، وتتحول مع الوقت معلومات يراها البعض حقائق حتى وإن لم تكن كذلك».

وتشير إلى «خطورة البيانات المتداولة على الإنترنت، لا سيما وأنها تشكل الخوارزميات التي تعطي في النهاية النتيجة التي يخرج بها تطبيق الذكاء الاصطناعي أياً كان»، لافتة إلى أن «صحة المعلومات مسؤولية البشر الذين يتولون برمجة الخوارزميات المختلفة، وتغذية الإنترنت بالبيانات».

حمود أوضحت أن «البشر لديهم انحيازاتهم وقيمهم ومعتقداتهم التي تؤثر بالتبعية على ما ينتجونه ويروّجونه من معلومات»، ضاربة المثل بأن «تطبيقات الذكاء الاصطناعي بناءً على تلك الانحيازات البشرية تبدو أكثر تفضيلاً للرجل الأبيض على سبيل المثال». ودعت إلى «الاهتمام بنشر المعلومات الصحيحة على الإنترنت، لا سيما ما يتعلق بالثقافة والهوية العربية، لمواجهة الهيمنة المعلوماتية والتكنولوجية للشركات الغربية».

وبحسب مراقبين، فإن تطبيقات الذكاء الاصطناعي يتم تدريبها باستخدام كميات هائلة من البيانات، بهدف استخدامها في مهام عدة، مثل إنشاء صور أو صوت أو حتى نص، كما يتم استخدامها في التشخيص الطبي أحياناً.

كما يلفت المراقبون إلى أن «البيانات والصور التي يولدها الذكاء الاصطناعي تعتمد على إنترنت مليء بالتحيزات والمعلومات (الزائفة والمضللة)؛ ما يعني إمكانية تكرار هذه البيانات غير الدقيقة في توليد صور وبيانات تتحكم في تاريخ ومستقبل البشرية».

ووفق المسؤولين في «غوغل»، فإنه «كانت هناك مساعٍ لإعادة التوازن لخوارزميات (جيميناي)، لتقديم نتائج تعكس التنوع البشري، لكنها جاءت بنتائج عكسية»، فنتيجة الحرص على التنوع «ولد التطبيق صوراً لقوات نازية متنوعة ومتعددة الأعراق بالمخالفة للوقائع التاريخية».

ورأى الصحافي المصري المتخصص في شؤون الإعلام الرقمي، محمد الصاوي، أن «تأثير الذكاء الاصطناعي على مستقبل المعلومات يعتمد على قدرة الشركات الكبرى مثل (غوغل) على التحكم في تقنيات الذكاء الاصطناعي واستخدامها لتوليد وتوجيه المعلومات»، موضحاً أنه «عندما تقوم هذه الشركات بتطبيقات تعتمد بشكل كبير على الذكاء الاصطناعي، فإنها تتحكم بشكل كبير في كيفية توجيه المعلومات وكيفية فهم المستخدمين للواقع». وأضاف لـ«الشرق الأوسط» أن «واقعة (غوغل) تعكس كيف يمكن لهذه التقنيات أن تخطئ وتؤثر على المعرفة وعلى فهم الناس للتاريخ والحقائق»، مشيراً إلى أن «الصور الخاطئة والمعلومات غير الدقيقة يمكن أن تنتشر بسرعة وتؤثر على الثقة في المعلومات التي يستند إليها الناس في اتخاذ القرارات».

ويقترح الصحافي المصري المتخصص في شؤون الإعلام الرقمي لمواجهة هذا التحدي، أن تعمل الحكومات والجهات الرقابية على بناء إطار قانوني يحدد المعايير والمسؤوليات لشركات التكنولوجيا فيما يتعلق بتوليد ونشر المعلومات، مع وضع متطلبات صارمة للشفافية والمراجعة المستقلة لخوارزميات الذكاء الاصطناعي المستخدمة، بالإضافة إلى تشجيع الابتكار في تطوير تقنيات تصحيح الأخطاء وتحسين دقة البيانات والمعلومات التي تعتمد عليها هذه الخوارزميات».

ومنذ طرح شركة «أوبن إي آي» روبوت المحادثة «تشات جي بي تي» للاستخدام في نوفمبر (تشرين الثاني) 2022، أثير جدل بشأن استخدام تقنيات الذكاء الاصطناعي، وتأثيراتها على مختلف المجالات وبينها الصحافة، لا سيما مع إشارة أبحاث عدة إلى مخاطرها؛ ما دفع حكومات دول عدة إلى محاولة وضع قواعد لكبح جماح التقنية.

وفي مارس (آذار) 2023، طالب أكثر من ألف عالم متخصص في التكنولوجيا بـ«هدنة صيفية لمدة 6 أشهر، تستهدف الاتفاق على قواعد حوكمة الرقمية». إثر ذلك بدأ عدد من المشرّعين الأوروبيين العمل على تشريعات جديدة في هذا الصدد. أيضاً، بين الحين والآخر تفرض دولة ما حظراً على تطبيق من تطبيقات الذكاء الاصطناعي بداعي «حماية البيانات»، كما فعلت إيطاليا في أبريل (نيسان) 2023.

وتثير تكنولوجيا الذكاء الاصطناعي مخاوف عدة بشأن انتشار «المعلومات المضللة»، و«انتهاك الخصوصية»؛ لذلك تتجه دول عدة لحوكمته ووضع ضوابط لاستخدامه. ولتجاوز الانحيازات البشرية والمعلومات «الزائفة» يدعو خبراء ومراقبون إلى «زيادة التنوع في الفِرق المشرفة على إنشاء وتغذية تطبيقات الذكاء الاصطناعي»؛ تزامناً مع «زيادة الشفافية عن كيفية عمل خوارزمياتها، بهدف تحسين البيانات التي تولدها تلك التطبيقات».

أخيراً، يتجه العالم إلى حوكمة الذكاء الاصطناعي، وفي نهاية العام الماضي اتفق الاتحاد الأوروبي، على ما عُدّ «أول تشريع شامل لحوكمة الذكاء الاصطناعي». بهدف «ضمان أمن السوق الأوروبية»، جنباً إلى جنب مع «تحفيز الاستثمار والابتكار في تطوير وتسهيل أدوات التعامل مع الذكاء الاصطناعي». ومن المقرر أن تدخل الاتفاقية حيز التنفيذ عام 2025.


مقالات ذات صلة

ميركل تعرب عن حزنها لعودة ترمب إلى الرئاسة الأميركية

العالم الرئيس الأميركي دونالد ترمب يتحدث خلال اجتماع ثنائي مع المستشارة الألمانية آنذاك أنجيلا ميركل على هامش قمة حلف شمال الأطلسي في واتفورد ببريطانيا... 4 ديسمبر 2019 (رويترز)

ميركل تعرب عن حزنها لعودة ترمب إلى الرئاسة الأميركية

أعربت المستشارة الألمانية السابقة أنجيلا ميركل عن «حزنها» لعودة دونالد ترمب إلى السلطة وتذكرت أن كل اجتماع معه كان بمثابة «منافسة: أنت أو أنا».

«الشرق الأوسط» (برلين)
الولايات المتحدة​ حاكم ولاية تكساس غريغ أبوت يتحدث خلال فعالية (رويترز-أرشيفية)

حاكم تكساس الأميركية يأمر أجهزة الولاية بوقف الاستثمار في الصين

أمر حاكم ولاية تكساس الأميركية الذي ينتمي إلى الحزب الجمهوري غريغ أبوت، الأجهزة المعنية بوقف استثمار أموال الولاية في الصين، وبيع هذه الاستثمارات في أقرب فرصة.

«الشرق الأوسط» (أوستن (تكساس))
الولايات المتحدة​ الرئيس الأميركي آنذاك جون كينيدي يلوح بيده من سيارته في موكب سيارات قبل دقيقة واحدة تقريباً من إطلاق النار عليه، في 22 نوفمبر 1963 في دالاس، الولايات المتحدة (أ.ب)

ترمب يتعهد مجدداً برفع السرية عن وثائق اغتيال جون كينيدي

ينصح أولئك الذين فحصوا سجلات ملف اغتيال كينيدي التي تم الكشف عنها حتى الآن، بعدم توقع أي كشف صادم، حتى لو تم رفع السرية عن الملفات المتبقية.

«الشرق الأوسط» (واشنطن)
الولايات المتحدة​ الرئيس الأميركي جو بايدن (أ.ب)

بايدن: أوامر اعتقال الجنائية الدولية ضد زعماء إسرائيل «أمر شائن»

ندد الرئيس الأميركي جو بايدن بإصدار الجنائية الدولية أوامر لاعتقال نتنياهو وغالانت، وقال في بيان: «سنقف دوماً إلى جانب إسرائيل ضد التهديدات التي تواجه أمنها».

«الشرق الأوسط» (واشنطن)
الولايات المتحدة​ السيناتور الجمهوري لينزي غراهام (أ.ف.ب)

سيناتور جمهوري: أي دولة تدعم قرارات الجنائية الدولية ستواجه موقفاً أميركياً صارماً

عبّر السيناتور الجمهوري الأميركي البارز لينزي غراهام عن رفضه الشديد لقرار المحكمة الجنائية الدولية بحق رئيس الوزراء الإسرائيلي ووزير دفاعه السابق.

«الشرق الأوسط» (واشنطن)

تمديد «ميتا» لقيود الإعلانات... هل يحُدّ من «المعلومات المضلّلة»؟

تمديد «ميتا» لقيود الإعلانات... هل يحُدّ من «المعلومات المضلّلة»؟
TT

تمديد «ميتا» لقيود الإعلانات... هل يحُدّ من «المعلومات المضلّلة»؟

تمديد «ميتا» لقيود الإعلانات... هل يحُدّ من «المعلومات المضلّلة»؟

أثار إعلان شركة «ميتا» تمديد فترة تقييد الإعلانات المتعلقة بالقضايا الاجتماعية أو السياسية لما بعد انتخابات الرئاسة الأميركية، من دون أن تحدّد الشركة وقتاً لنهاية هذا التمديد، تساؤلات حول مدى فاعلية القرار في الحدّ من انتشار «المعلومات المضلّلة»، يأتي ذلك بالتزامن مع رصد تجاوزات مرّرَتها المنصة الأشهَر «فيسبوك» خلال الفترة السابقة برغم تقييد الإعلانات.

ما يُذكر أن «فيسبوك» أعانت بنهاية أكتوبر (تشرين الأول) الماضي «حظر أي إعلان يحمل رسائل توجيه سياسي أو اجتماعي من شأنه التأثير في سير الانتخابات الرئاسية الأميركية»، غير أن مراقبين قاموا برصد تجاوزات على المنصة وصفوها بـ«التضليل»، وقالوا إن «فلاتر» المحتوى على «ميتا» – التي تملك «فيسبوك» – «غير متمرّسة» بما يكفي لتمييز المحتوى الذي ينتهك إرشادات المصداقية، ما يثير شكوكاً بشأن جدوى قرار الشركة تقييد الإعلانات.

الدكتور حسن مصطفى، أستاذ التسويق الرقمي والذكاء الاصطناعي في عدد من الجامعات الإماراتية، عدّ قرار «ميتا» الأخير «محاولةً لتجاوز المخاوف المتزايدة حول استغلال الإعلانات في التأثير على الرأي العام»، وقال لـ«الشرق الأوسط» إن «ميتا تخشى اتهامها بنشر المعلومات غير الموثوقة بشكل واسع إبان الفترات الانتخابية وما بعدها، لا سيما وأنه سبق اتهام الشركة من قبل بوجود محتوى يؤثر على الرأي العام خلال فترات انتخابية سابقة».

وعن دور «ميتا» في الحدّ من «المعلومات المضللة»، أوضح مصطفى أنه «لا تزال المعلومات المضلّلة تحدياً قائماً برغم ما اتخذته (ميتا) من إجراءات لمكافحتها، والتقليل من انتشار الأخبار الكاذبة»، وقال عن دور الشركة في هذا الصدد: «لقد عزّزَت (ميتا) التعاون مع جهات خارجية للتحقّق من صحة الأخبار، فباتت تعتمد على منظمة (فاكت تشيك/ FactCheck)، وشبكات من المؤسسات المستقلة؛ للتحقّق من الأخبار المتداوَلة عبر المنصة».

واستشهد الدكتور مصطفى ببعض التقارير الصادرة عن منظمة «هيومن رايتس ووتش»، التي أظهرت إحراز «ميتا» تقدماً في مجال الحد من «خطاب الكراهية»؛ «إذ تمكّنت خوارزميات الشركة من التعرّف على بعض الأنماط المتكرّرة للمحتوى المسيء، وحذفه تلقائياً قبل أن ينتشر»، غير أنه مع ذلك عدّ إجراءات «ميتا» غير كافية، مشيراً إلى أن «خوارزميات الذكاء الاصطناعي ما زالت محدودة القدرة على معالجة المحتوى بلغات ولهجات متنوعة، أو فهم السياقات الثقافية المعقّدة، ما يجعل من الصعوبة بمكان وضع حدود واضحة أمام تحقيق نجاح كامل في تقليص خطاب الكراهية».

هذا، وكانت المنظمة الدولية «غلوبال ويتنس» قد أعدّت تقريراً حول ما إذا كانت منصات التواصل الاجتماعي قادرةً على اكتشاف وإزالة «المعلومات المضلّلة الضارّة»، لا سيما المتعلقة بانتخابات الرئاسة الأميركية، وأشارت في نتائجها عقب الانتخابات الأميركية إلى أن أداء «فيسبوك» كان أفضل مقارنةً بمنصة مثل «تيك توك»، لكن التقرير لم ينفِ التورّط في نشر «معلومات مضلّلة» برغم القيود، كذلك ذكر التقرير أن «فيسبوك» وافَق على واحد من بين 8 إعلانات اختبرت بها المنظمة قيود المنصة للحَدّ من «المعلومات المضلّلة»، ما رأته المنظمة «تحسّناً ملحوظاً مقارنةً بأداء المنصة السابق مع أنه لا يزال غير كافٍ».

من ناحية أخرى أشار تقرير صادر عن منظمات المجتمع المدني «إيكو» و«المراقبة المدنية الهندية الدولية»، إلى أن «ميتا» سمحت بظهور إعلانات تحتوي على عبارات تحريضية ضد الأقليات على منصّتها خلال فترة الانتخابات الأميركية، كما أشارت إلى رصد «محتوى زائف» مصنوع بأدوات الذكاء الاصطناعي.

وحول هذا الأمر، علّق خالد عبد الراضي، الخبير في إدارة وتحليل بيانات «السوشيال ميديا» بمصر والمملكة العربية السعودية، لـ«الشرق الأوسط»، على قرار «ميتا» بالقول إننا بصدد محاولات عدّها «غير جادة»، ودلّل على ذلك بأن «(ميتا) قيّدت الإعلانات قبل الانتخابات الأميركية بأسبوع واحد فقط، وهذه مدة غير كافية إذا كانت المنصة بالفعل جادّة في الحدّ من التضليل والتأثير على الرأي العام، مثلاً (إكس) كانت أكثر جدّية من خلال تقييد أي منشور موجّه قبل الانتخابات بشهر»، مشيراً إلى أنه «بالتبعية شاهدنا على منصة (فيسبوك) محتوى مضلّلاً وزائفاً طُوّر بالذكاء الاصطناعي».

وأوضح عبد الراضي أن «(ميتا) لم تفرض قيوداً على الإعلانات بشكل عام، بل على نوع واحد فقط هو الإعلانات السياسية المدفوعة، ومن ثم تركت المجال أمام التضليل والتأثير على الرأي العام»، ودلّل كذلك على قلة جدّية الشركة بقوله: «بعد الانتخابات الأميركية في 2020 واجهت (ميتا) عدة اتهامات بتوجيه الرأي العام، ما دفع الشركة لاتخاذ إجراءات جادّة، من بينها توظيف (فِرق سلامة) معنية بمراجعة النصوص؛ للتأكد من ملاءمتها مع معايير المنصة، غير أن عمل هذه الفِرق أُنهِي لاحقاً، ما يشير إلى أن ادّعاءات المنصة لم تكن جدّية».