«أخطاء غوغل» تثير تساؤلات بشأن تحكم الذكاء الاصطناعي في المعلومات

ترند

شعار شركة «غوغل» (رويترز)
شعار شركة «غوغل» (رويترز)
TT

«أخطاء غوغل» تثير تساؤلات بشأن تحكم الذكاء الاصطناعي في المعلومات

شعار شركة «غوغل» (رويترز)
شعار شركة «غوغل» (رويترز)

أثارت أخطاء وقع فيه نموذج الذكاء الاصطناعي «جيميناي» التابع لشركة «غوغل»، أخيراً، تساؤلات بشأن مستقبل المعلومات والصور، ومدى تحكم تلك التطبيقات في «الذاكرة الجمعية» المستقبلية للبشر. وبينما أشاد بعض الخبراء بإقدام «غوغل» على الاعتراف بالخطأ، وإعلان عزمه العمل على تصحيحه. شدد الخبراء على «ضرورة التنبه لخطورة الذكاء الاصطناعي وتأثيره على تشكيل صورة لتاريخ البشر».

وكان الرئيس التنفيذي لشركة «غوغل»، سوندر بيتشاي، قد تحدث أخيراً، عن أخطاء وصفها بأنها «غير مقبولة على الإطلاق»، وقع فيها تطبيق «جيميناي» للذكاء الاصطناعي، حيث «ولّد صوراً لقوات نازية متنوعة عرقياً، كما ولّد صوراً غير دقيقة تاريخياً تظهر امرأة أميركية سوداء تُنتخب عضواً في مجلس الشيوخ في القرن التاسع عشر، بينما لم يحصل ذلك على أرض الواقع قبل عام 1992»، ما أثار جدلاً وانتقادات على مواقع التواصل الاجتماعي، وسط مخاوف من تأثير شركات التكنولوجيا الكبرى على مستقبل المعلومات. واعترف المؤسس المشارك في «غوغل»، سيرغي برين، بـ«حدوث أخطاء في عملية توليد الصور»، وقال في «هاكاثون» للذكاء الاصطناعي أقيم أخيراً: «كان ينبغي للشركة اختبار برنامج (جيميناي) بشكل أكثر شمولاً»، بحسب ما نقلته «وكالة الصحافة الفرنسية».

وبينما تشيد الباحثة الإعلامية اللبنانية في شؤون الإعلام المعاصر والذكاء الاصطناعي وأستاذة الإعلام والتواصل، سالي حمود، بـ«اعتراف تطبيقات الذكاء الاصطناعي بالخطأ ومحاولتها تصويبه»، حذرت من «خطورة هيمنة شركات التكنولوجيا الكبرى على والبيانات». وقالت حمود لـ«الشرق الأوسط» إن «الحديث عن مخاطر الذكاء الاصطناعي وتأثيرها على البيانات والذاكرة الجمعية ليس جديداً؛ لكنه تصاعد أخيراً مع إتاحة خدمات تطبيقات الذكاء الاصطناعي للأفراد، وبروزها على السطح بشكل كبير». وأضافت أن «البيانات الموجودة على الإنترنت، هي التي تكون الذاكرة الجمعية للأفراد، وتتحول مع الوقت إلى معلومات يراها البعض حقائق حتى وإن لم تكن كذلك». وتشير إلى «خطورة البيانات المتداولة على الإنترنت، لا سيما أنها تشكل الخوارزميات التي تعطي في النهاية النتيجة التي يخرج بها تطبيق الذكاء الاصطناعي أياً كان»، لافتة إلى أن «صحة المعلومات مسؤولية البشر الذين يتولون برمجة الخوارزميات المختلفة، وتغذية الإنترنت بالبيانات».

حمود أوضحت أن «البشر لديهم انحيازاتهم وقيمهم ومعتقداتهم التي تؤثر بالتبعية على ما ينتجونه ويروجونه من معلومات»، ضاربة المثل بأن «تطبيقات الذكاء الاصطناعي بناء على تلك الانحيازات البشرية تبدو أكثر تفضيلاً للرجل الأبيض على سبيل المثال». ودعت إلى «الاهتمام بنشر المعلومات الصحيحة على الإنترنت، لا سيما ما يتعلق بالثقافة والهوية العربية، لمواجهة الهيمنة المعلوماتية والتكنولوجية للشركات الغربية».

وبحسب مراقبين، فإن تطبيقات الذكاء الاصطناعي يتم تدريبها باستخدام كميات هائلة من البيانات، بهدف استخدامها في مهام عدة، مثل إنشاء صور أو صوت أو حتى نص، كما يتم استخدامها في التشخيص الطبي أحياناً. كما يلفت المراقبون إلى أن «البيانات والصور التي يولدها الذكاء الاصطناعي تعتمد على إنترنت مليء بالتحيزات والمعلومات (الزائفة والمضللة)، ما يعني إمكانية تكرار هذه البيانات غير الدقيقة في توليد صور وبيانات تتحكم في تاريخ ومستقبل البشرية». ووفق المسؤولين في «غوغل»، فإنه «كانت هناك مساعٍ لإعادة التوازن لخوارزميات (جيميناي)، لتقديم نتائج تعكس التنوع البشري، لكنها جاءت بنتائج عكسية»، فنتيجة الحرص على التنوع «ولّد التطبيق صوراً لقوات نازية متنوعة ومتعددة الأعراق بالمخالفة للوقائع التاريخية».

محمد الصاوي، الصحافي المصري المتخصص في شؤون الإعلام الرقمي، رأى أن «تأثير الذكاء الاصطناعي على مستقبل المعلومات يعتمد على قدرة الشركات الكبرى مثل (غوغل) على التحكم في تقنيات الذكاء الاصطناعي واستخدامها لتوليد وتوجيه المعلومات»، موضحاً أنه «عندما تقوم هذه الشركات بتطبيقات تعتمد بشكل كبير على الذكاء الاصطناعي، فإنها تتحكم بشكل كبير في كيفية توجيه المعلومات وكيفية فهم المستخدمين للواقع». وأضاف لـ«الشرق الأوسط» أن «واقعة (غوغل) تعكس كيف يمكن لهذه التقنيات أن تخطئ وتؤثر على المعرفة وعلى فهم الناس للتاريخ والحقائق»، مشيراً إلى أن «الصور الخاطئة والمعلومات غير الدقيقة يمكن أن تنتشر بسرعة وتؤثر على الثقة بالمعلومات التي يستند إليها الناس في اتخاذ القرارات».

ويقترح الصاوي لمواجهة هذا التحدي، أن تعمل الحكومات والجهات الرقابية على بناء إطار قانوني يحدد المعايير والمسؤوليات لشركات التكنولوجيا فيما يتعلق بتوليد ونشر المعلومات، مع وضع متطلبات صارمة للشفافية والمراجعة المستقلة لخوارزميات الذكاء الاصطناعي المستخدمة، بالإضافة إلى تشجيع الابتكار في تطوير تقنيات تصحيح الأخطاء وتحسين دقة البيانات والمعلومات التي تعتمد عليها هذه الخوارزميات».

ومنذ طرح شركة «أوبن إي آي» روبوت المحادثة «تشات جي بي تي» للاستخدام في نوفمبر (تشرين الثاني) 2022 أثير جدل بشأن استخدام تقنيات الذكاء الاصطناعي، وتأثيراتها على مختلف المجالات وبينها الصحافة، لا سيما مع إشارة أبحاث عدة إلى مخاطرها؛ ما دفع حكومات دول عدة لمحاولة وضع قواعد لكبح جماح التقنية.

وفي مارس (آذار) 2023، طالب أكثر من ألف عالم متخصص في التكنولوجيا بـ«هدنة صيفية لمدة 6 أشهر، تستهدف الاتفاق على قواعد الحوكمة الرقمية». إثر ذلك بدأ عدد من المشرعين الأوروبيين العمل على تشريعات جديدة في هذا الصدد. أيضاً بين الحين والآخر تفرض دولة ما حظراً على تطبيق من تطبيقات الذكاء الاصطناعي بداعي «حماية البيانات»، كما فعلت إيطاليا في أبريل (نيسان) 2023. وتثير تكنولوجيا الذكاء الاصطناعي مخاوف عدة بشأن انتشار «المعلومات المضللة»، و«انتهاك الخصوصية»، لذلك تتجه دول عدة لحوكمته ووضع ضوابط لاستخدامه. ولتجاوز الانحيازات البشرية والمعلومات «الزائفة» يدعو خبراء ومراقبون إلى «زيادة التنوع في الفرق المشرفة على إنشاء وتغذية تطبيقات الذكاء الاصطناعي»، تزامناً مع «زيادة الشفافية عن كيفية عمل خوارزمياتها، بهدف تحسين البيانات التي تولدها تلك التطبيقات».

أخيراً، يتجه العالم إلى حوكمة الذكاء الاصطناعي، وفي نهاية العام الماضي، اتفق الاتحاد الأوروبي على ما اعتبر «أول تشريع شامل لحوكمة الذكاء الاصطناعي»، بهدف «ضمان أمن السوق الأوروبية»، جنباً إلى جنب مع «تحفيز الاستثمار والابتكار في تطوير وتسهيل أدوات التعامل مع الذكاء الاصطناعي». ومن المقرر أن تدخل الاتفاقية حيز التنفيذ عام 2025.


مقالات ذات صلة

تكنولوجيا الوظيفة الأساسية لـ«دوِّن الملاحظات لي» هي تقديم ملخّص موجَز للنقاط الرئيسية في الاجتماع بدلاً من النسخ الحرفي (شاترستوك)

تفعيل ميزة تدوين الملاحظات عبر الذكاء الاصطناعي في «اجتماعات غوغل»

يمكن الوصول إليها من خلال أيقونة «Gemini AI» التي يمثّلها قلم رصاص لامع.

نسيم رمضان (لندن)
تكنولوجيا بحد أدنى 12 كلمة يمكن لـ«جيمناي» تحويل ملاحظات المستخدمين إلى بريد إلكتروني مصقول وجاهز للإرسال (شاترستوك)

إذا كنت تعاني من كتابة بريد إلكتروني... «غوغل» تقدم لك الحل

«ساعدني في الكتابة» و«صقل مسودتي» لمساعدة المستخدمين في صقل رسائلهم دون عناء.

نسيم رمضان (لندن)
تكنولوجيا برنامج مكافآت الثغرات الأمنية لمتجر «غوغل بلاي» كان يهدف إلى مكافأة الباحثين عن اكتشاف الثغرات في تطبيقات «أندرويد» (غوغل)

«غوغل» تعلن إيقاف برنامج مكافآت الثغرات الأمنية لمتجرها

البرنامج سيتوقف اعتباراً من 31 أغسطس (آب) 2024 بعد استمراره لمدة 7 سنوات!

عبد العزيز الرشيد (الرياض)
الاقتصاد نائبة الرئيس كامالا هاريس على اليسار والمرشح الرئاسي الجمهوري الرئيس السابق دونالد ترمب (أ.ب)

شركات أميركية معرضة لخسائر جمة مع قرب الانتخابات الرئاسية

بينما بات المناخ السياسي أكثر استقطابا من أي وقت مضى في أميركا، تجد الشركات الكبرى نفسها في مرمى نيران الانتقادات والاتهامات بدعم مرشح ما في الانتخابات الرئاسية

«الشرق الأوسط» (واشنطن)

إغلاق «كراود تانغل» يُجدد مخاوف انتشار «الأخبار الزائفة»

نك كليغ (ميتا)
نك كليغ (ميتا)
TT

إغلاق «كراود تانغل» يُجدد مخاوف انتشار «الأخبار الزائفة»

نك كليغ (ميتا)
نك كليغ (ميتا)

أثار قرار شركة «ميتا» إغلاق أداة تعقّب المعلومات المضلّلة «كراود تانغل» مخاوف الباحثين والصحافيين بشأن انتشار المحتوى المضرّ والمضلل، لا سيما مع اقتراب موعد الانتخابات الأميركية.

ويرى خبراء التقتهم «الشرق الأوسط» أن الخطوة تُهدد شفافية الشركة الأبرز في سوق التواصل الاجتماعي. وعدّوا القرار عائقاً أمام الوصول إلى المعلومات والمعطيات الدقيقة، ما يزيد من انتشار الأخبار الزائفة على منصات التواصل.

يذكر أن «ميتا» أعلنت أنها لن تتيح استخدام أداة تتبّع اتجاهات المحتوى على الإنترنت «كراود تانغل» اعتباراً من منتصف أغسطس (آب) الحالي، وهي التي كانت قد استحوذت عليها منذ 2016. وأفادت الشركة العملاقة عبر مدوّنتها بأنها استعاضت عن أداة «كراود تانغل» بمكتبة محتوى تضم بيانات (معطيات) «عالية الجودة» للباحثين، وفق إفادة رسمية أصدرتها الشركة.

وتابعت الشركة أنه «جرى تصميم مكتبة محتوى (ميتا) على نحو يتيح التشارك في البيانات وتحقيق الشفافية، مع تلبية معايير الخصوصية والأمان الصارمة»، غير أن خبراء شككوا في «شفافية» هذه المكتبة.

أكثر من هذا، إعلان «ميتا» في وقت سابق من هذا العام نيّتها إغلاق أداة «كراود تانغل»، قوبل باحتجاج من قِبَل الباحثين والمنظمات غير الربحية، حتى إنه في مايو (أيار) السابق، أرسلت كيانات معنية تضم كلاً من «مركز الديمقراطية والتكنولوجيا الأميركي»، و«مختبر أبحاث الطب الشرعي الرقمي» في «المجلس الأطلسي»، ومنظمة «هيومن رايتس ووتش»، و«مركز وسائل التواصل الاجتماعي والسياسة» التابع لجامعة نيويورك، خطاباً إلى «ميتا»، طالبوا بضرورة «التراجع عن القرار، والإبقاء على أداة تتبّع المعلومات المضللة على الأقل حتى مطلع العام المقبل، أي بعد إجراء الانتخابات الرئاسية الأميركية، المقرر تنظيمها في نوفمبر (تشرين الثاني) المقبل، لكن الشركة لم ترضخ لطلبه»، وفق ما نشرته وكالة «أسوشييتد برس» للأنباء قبل أيام.

أحمد سعيد العلوي، رئيس تحرير «سي إن إن – اقتصادية»، ربط قرار التخلي عن أداة تتبّع المعلومات المضللة الآن بالانتخابات الرئاسية الأميركية. وأشار لـ«الشرق الأوسط» إلى تصريحات نك كليغ، رئيس الشؤون العالمية في «ميتا» -ونائب رئيس وزراء بريطانيا السابق- التي زعم فيها «عجز (كراود تانغل) عن قياس مدى الانتشار الحقيقي للمحتوى، ما يحول دون قدرتها عن عرض ما هو مضلل حقاً على المنصات».

وأضاف: «إضافة إلى ذلك، تسعى (ميتا) إلى تلبية متطلبات الوصول إلى البيانات التي يفرضها قانون الخدمات الرقمية (DSA) للاتحاد الأوروبي، وتعتقد أن الأداة الجديدة مكتبة محتوى (ميتا) (MCL) ستكون أكثر توافقاً مع هذه المتطلبات»، وهذا مع اعتباره «مثيراً للمخاوف».

العلوي تابع: «ثمة مخاوف تتصاعد بشأن شفافية البيانات وإمكانية الوصول إليها، خصوصاً أن مكتبة محتوى (ميتا) تعد أقل شفافية، وقد تتسم بصعوبة في الوصول... وهذه التبعات تعني أن الباحثين والصحافيين سيفقدون أدوات حيوية كانت تتيح لهم تتبّع المعلومات وانتشارها على وسائل التواصل الاجتماعي، ما سيؤثر على قدرتهم على رصد الأخبار الزائفة، خصوصاً في فترات الانتخابات».

ولفت العلوي إلى تأثير إغلاق «كراود تانغل» على الصحافيين بشكل خاص، بقوله: «هذه الأداة كانت متاحة وسهلة الاستخدام، ما أتاح للصحافيين على مدار السنوات السابقة مراقبة اتجاهات المعلومات على نطاق واسع، لكن بعد إغلاقها والاستعاضة عنها بأداة أقل شفافية، سيتعين على الصحافيين الاعتماد على مصادر بيانات أقل موثوقية أو تواجه صعوبة في الوصول إليها».

ومن ثم، يرى العلوي «أن القرار جزء من توجه (ميتا) للابتعاد عن دورها التقليدي في دعم الصحافة والمحتوى الإخباري، خصوصاً في ظل التغييرات الأخيرة التي قامت بها الشركة تجاه الأخبار».

والجدير بالإشارة أن المفوضية الأوروبية طلبت منتصف أغسطس الحالي من «ميتا» تقديم مزيد من التفاصيل بشأن إيقاف «كراود تانغل»، والتدابير التي اتخذتها الشركة لمواصلة الامتثال للالتزامات بموجب قانون الخدمات الرقمية (DSA)، فيما يخص السماح للباحثين بالوصول إلى البيانات.

من جهة ثانية، أفاد محمود تعلب، المتخصص في وسائل التواصل الاجتماعي بدولة الإمارات العربية المتحدة، بأن قرار «ميتا» يعد «خطوة إلى الوراء، لا سيما فيما يخص الصحافيين... إذ قلّص أمام الصحافيين موارد التنقل في مشهد معلوماتي معقد بشكل زائد، ومن شأن هذا إثارة تساؤلات حول مدى التزام «ميتا» بالشفافية، خصوصاً في أيام غدت الحاجة إلى الوصول المفتوح إلى بيانات وسائل التواصل الاجتماعي أكثر أهمية من أي وقت مضى».

تعلب عزا توقيت قرار «ميتا» إلى رغبتها في «تجنّب أي مزاعم محتملة بالتحيّز أو التدخل في العملية الانتخابية الأميركية»، وهذا مع أن غياب «كراود تانغل» ربما يجعل من «الصعب مراقبة ومعالجة حملات المعلومات المضللة التي ربما تستهدف الانتخابات». ومن ثم، قال عن تبعات القرار «قد يواجه الصحافيون تحديات أكبر في تغطية الأخبار العاجلة وفهم الخطاب العام، والتحقيق في انتشار المعلومات المضللة، ولذا يمكن اعتبار هذا القرار جزءاً من تحول أوسع نطاقاً لشركة (ميتا) بعيداً عن المحتوى الإخباري».

واختتم تعلب بالتطرق إلى دور المؤسسات الدولية في المرحلة المقبلة فيما يخص درء تبعات إغلاق أداة «الشفافية»، قائلاً: «إن المعلومات المضللة لا تزال تُشكل تحدياً عالمياً كبيراً. وربما تدفع المؤسسات نحو وضع لوائح أو اتفاقيات جديدة لضمان اتخاذ منصات التواصل الاجتماعي تدابير أكثر استباقية لمكافحة انتشار المعلومات الكاذبة»، مرجحاً «أن تخضع تصرفات (ميتا) للتدقيق عن كثب في هذا السياق، وأيضاً رؤية تعاون متزايد بين المنصات المستقلة المتخصصة في التحقق من الأخبار».