«أخطاء غوغل» تثير تساؤلات بشأن تحكم الذكاء الاصطناعي في المعلومات

شعار شركة «غوغل» (رويترز)
شعار شركة «غوغل» (رويترز)
TT

«أخطاء غوغل» تثير تساؤلات بشأن تحكم الذكاء الاصطناعي في المعلومات

شعار شركة «غوغل» (رويترز)
شعار شركة «غوغل» (رويترز)

أثارت أخطاء وقع فيه نموذج الذكاء الاصطناعي «جيميناي» التابع لشركة «غوغل»، أخيراً، تساؤلات بشأن مستقبل المعلومات والصور، ومدى تحكم تلك التطبيقات في «الذاكرة الجمعية» المستقبلية للبشر. وبينما أشاد بعض الخبراء بإقدام «غوغل» على الاعتراف بالخطأ، وإعلان عزمه العمل على تصحيحه. شدد الخبراء على «ضرورة التنبه لخطورة الذكاء الاصطناعي وتأثيره على تشكيل صورة لتاريخ البشر».

وكان الرئيس التنفيذي لشركة «غوغل»، سوندر بيتشاي، قد تحدث أخيراً، عن أخطاء وصفها بأنها «غير مقبولة على الإطلاق»، وقع فيها تطبيق «جيميناي» للذكاء الاصطناعي، حيث «ولد صوراً لقوات نازية متنوعة عرقياً، كما ولد صوراً غير دقيقة تاريخياً تظهر امرأة أميركية سوداء تُنتخب عضواً في مجلس الشيوخ في القرن التاسع عشر، في حين لم يحصل ذلك على أرض الواقع قبل عام 1992»؛ ما أثار جدلاً وانتقادات على مواقع التواصل الاجتماعي، وسط مخاوف من تأثير شركات التكنولوجيا الكبرى على مستقبل المعلومات.

واعترف المؤسس المشارك في «غوغل»، سيرغي برين بـ«حدوث أخطاء في عملية توليد الصور»، وقال في «هاكاثون» للذكاء الاصطناعي أقيم أخيراً، «كان ينبغي على الشركة اختبار برنامج (جيميناي) بشكل أكثر شمولاً»، بحسب ما نقلته وكالة الصحافة الفرنسية.

وبينما تشيد الباحثة الإعلامية اللبنانية في شؤون الإعلام المعاصر والذكاء الاصطناعي وأستاذة الإعلام والتواصل، سالي حمود، بـ«اعتراف تطبيقات الذكاء الاصطناعي بالخطأ ومحاولتها تصويبه»، حذّرت من «خطورة هيمنة شركات التكنولوجيا الكبرى على والبيانات».

وقالت حمود لـ«الشرق الأوسط» إن «الحديث عن مخاطر الذكاء الاصطناعي وتأثيرها على البيانات والذاكرة الجمعية ليس جديداً؛ لكنه تصاعد أخيراً مع إتاحة خدمات تطبيقات الذكاء الاصطناعي للأفراد، وبروزها على السطح بشكل كبير». وأضافت أن «البيانات الموجودة على الإنترنت، هي التي تكوّن الذاكرة الجمعية للأفراد، وتتحول مع الوقت معلومات يراها البعض حقائق حتى وإن لم تكن كذلك».

وتشير إلى «خطورة البيانات المتداولة على الإنترنت، لا سيما وأنها تشكل الخوارزميات التي تعطي في النهاية النتيجة التي يخرج بها تطبيق الذكاء الاصطناعي أياً كان»، لافتة إلى أن «صحة المعلومات مسؤولية البشر الذين يتولون برمجة الخوارزميات المختلفة، وتغذية الإنترنت بالبيانات».

حمود أوضحت أن «البشر لديهم انحيازاتهم وقيمهم ومعتقداتهم التي تؤثر بالتبعية على ما ينتجونه ويروّجونه من معلومات»، ضاربة المثل بأن «تطبيقات الذكاء الاصطناعي بناءً على تلك الانحيازات البشرية تبدو أكثر تفضيلاً للرجل الأبيض على سبيل المثال». ودعت إلى «الاهتمام بنشر المعلومات الصحيحة على الإنترنت، لا سيما ما يتعلق بالثقافة والهوية العربية، لمواجهة الهيمنة المعلوماتية والتكنولوجية للشركات الغربية».

وبحسب مراقبين، فإن تطبيقات الذكاء الاصطناعي يتم تدريبها باستخدام كميات هائلة من البيانات، بهدف استخدامها في مهام عدة، مثل إنشاء صور أو صوت أو حتى نص، كما يتم استخدامها في التشخيص الطبي أحياناً.

كما يلفت المراقبون إلى أن «البيانات والصور التي يولدها الذكاء الاصطناعي تعتمد على إنترنت مليء بالتحيزات والمعلومات (الزائفة والمضللة)؛ ما يعني إمكانية تكرار هذه البيانات غير الدقيقة في توليد صور وبيانات تتحكم في تاريخ ومستقبل البشرية».

ووفق المسؤولين في «غوغل»، فإنه «كانت هناك مساعٍ لإعادة التوازن لخوارزميات (جيميناي)، لتقديم نتائج تعكس التنوع البشري، لكنها جاءت بنتائج عكسية»، فنتيجة الحرص على التنوع «ولد التطبيق صوراً لقوات نازية متنوعة ومتعددة الأعراق بالمخالفة للوقائع التاريخية».

ورأى الصحافي المصري المتخصص في شؤون الإعلام الرقمي، محمد الصاوي، أن «تأثير الذكاء الاصطناعي على مستقبل المعلومات يعتمد على قدرة الشركات الكبرى مثل (غوغل) على التحكم في تقنيات الذكاء الاصطناعي واستخدامها لتوليد وتوجيه المعلومات»، موضحاً أنه «عندما تقوم هذه الشركات بتطبيقات تعتمد بشكل كبير على الذكاء الاصطناعي، فإنها تتحكم بشكل كبير في كيفية توجيه المعلومات وكيفية فهم المستخدمين للواقع». وأضاف لـ«الشرق الأوسط» أن «واقعة (غوغل) تعكس كيف يمكن لهذه التقنيات أن تخطئ وتؤثر على المعرفة وعلى فهم الناس للتاريخ والحقائق»، مشيراً إلى أن «الصور الخاطئة والمعلومات غير الدقيقة يمكن أن تنتشر بسرعة وتؤثر على الثقة في المعلومات التي يستند إليها الناس في اتخاذ القرارات».

ويقترح الصحافي المصري المتخصص في شؤون الإعلام الرقمي لمواجهة هذا التحدي، أن تعمل الحكومات والجهات الرقابية على بناء إطار قانوني يحدد المعايير والمسؤوليات لشركات التكنولوجيا فيما يتعلق بتوليد ونشر المعلومات، مع وضع متطلبات صارمة للشفافية والمراجعة المستقلة لخوارزميات الذكاء الاصطناعي المستخدمة، بالإضافة إلى تشجيع الابتكار في تطوير تقنيات تصحيح الأخطاء وتحسين دقة البيانات والمعلومات التي تعتمد عليها هذه الخوارزميات».

ومنذ طرح شركة «أوبن إي آي» روبوت المحادثة «تشات جي بي تي» للاستخدام في نوفمبر (تشرين الثاني) 2022، أثير جدل بشأن استخدام تقنيات الذكاء الاصطناعي، وتأثيراتها على مختلف المجالات وبينها الصحافة، لا سيما مع إشارة أبحاث عدة إلى مخاطرها؛ ما دفع حكومات دول عدة إلى محاولة وضع قواعد لكبح جماح التقنية.

وفي مارس (آذار) 2023، طالب أكثر من ألف عالم متخصص في التكنولوجيا بـ«هدنة صيفية لمدة 6 أشهر، تستهدف الاتفاق على قواعد حوكمة الرقمية». إثر ذلك بدأ عدد من المشرّعين الأوروبيين العمل على تشريعات جديدة في هذا الصدد. أيضاً، بين الحين والآخر تفرض دولة ما حظراً على تطبيق من تطبيقات الذكاء الاصطناعي بداعي «حماية البيانات»، كما فعلت إيطاليا في أبريل (نيسان) 2023.

وتثير تكنولوجيا الذكاء الاصطناعي مخاوف عدة بشأن انتشار «المعلومات المضللة»، و«انتهاك الخصوصية»؛ لذلك تتجه دول عدة لحوكمته ووضع ضوابط لاستخدامه. ولتجاوز الانحيازات البشرية والمعلومات «الزائفة» يدعو خبراء ومراقبون إلى «زيادة التنوع في الفِرق المشرفة على إنشاء وتغذية تطبيقات الذكاء الاصطناعي»؛ تزامناً مع «زيادة الشفافية عن كيفية عمل خوارزمياتها، بهدف تحسين البيانات التي تولدها تلك التطبيقات».

أخيراً، يتجه العالم إلى حوكمة الذكاء الاصطناعي، وفي نهاية العام الماضي اتفق الاتحاد الأوروبي، على ما عُدّ «أول تشريع شامل لحوكمة الذكاء الاصطناعي». بهدف «ضمان أمن السوق الأوروبية»، جنباً إلى جنب مع «تحفيز الاستثمار والابتكار في تطوير وتسهيل أدوات التعامل مع الذكاء الاصطناعي». ومن المقرر أن تدخل الاتفاقية حيز التنفيذ عام 2025.


مقالات ذات صلة

جمهوريون يتساءلون عمّا إذا كان اختيار ترمب لفانس ملائماً

الولايات المتحدة​ جيمس دي فانس نائب المرشح الرئاسي الجمهوري دونالد ترمب في تجمع انتخابي بجامعة رادفورد في فرجينيا (أرشيفية - أ.ف.ب)

جمهوريون يتساءلون عمّا إذا كان اختيار ترمب لفانس ملائماً

لم تمض سوى أيام على اختيار جيمس دي فانس، نائباً للمرشح الجمهوري، الرئيس السابق دونالد ترمب، حتى بدأت الاعتراضات تتصاعد عن احتمال أن يكون هذا الاختيار خاطئاً.

إيلي يوسف (واشنطن)
الولايات المتحدة​ نائبة الرئيس الأميركي جو بايدن كامالا هاريس تتحدث للصحافة بعد اجتماعها مع رئيس الوزراء الإسرائيلي بنيامين نتنياهو (أ.ف.ب)

3 طرق أمام ترمب لإنهاء «شهر عسل» هاريس

تعيش كامالا هاريس «شهر عسل» بشكل ملحوظ، وقد لا يدوم طويلاً، فماذا سيفعل ترمب وحملته؟

«الشرق الأوسط» (واشنطن)
المشرق العربي الناطق الرسمي باسم الرئاسة الفلسطينية نبيل أبو ردينة (وكالة الأنباء الفلسطينية- وفا)

الرئاسة الفلسطينية: الإدارة الأميركية تتحمل مسؤولية المجازر اليومية بحق شعبنا

أعلن الناطق الرسمي باسم الرئاسة الفلسطينية، نبيل أبو ردينة، إن «الضوء الأخضر الذي حصل عليه بنيامين نتنياهو من الإدارة الأميركية جعله يستمر في عدوانه».

«الشرق الأوسط» (الضفة الغربية)
العالم وزير الخارجية الأميركي أنتوني بلينكن إلى جانب لنظيره الصيني وانغ يي في لاوس (أ.ب)

إشادة أميركية بمحادثات «صريحة وبناءة» مع الصين

أشادت الولايات المتحدة بالمحادثات «الصريحة والمثمرة» بين وزير خارجيتها أنتوني بلينكن ونظيره الصيني وانغ يي في لاوس اليوم (السبت).

«الشرق الأوسط» (واشنطن)
الولايات المتحدة​ رجل في وسط حرائق الغابات في ولاية كاليفورنيا الأميركية (أ.ف.ب)

حريق غابات ضخم يضرب كاليفورنيا (صور)

اضطر نحو 4 آلاف شخص إلى مغادرة منازلهم في كاليفورنيا بسبب حريق ضخم وعنيف.

«الشرق الأوسط» (كاليفورنيا)

استخدام الذكاء الاصطناعي في إنتاج المحتوى الإعلامي يُثير جدلاً مهنياً

روبوت يعمل بتقنية الذكاء الاصطناعي (آ. ف. ب.)
روبوت يعمل بتقنية الذكاء الاصطناعي (آ. ف. ب.)
TT

استخدام الذكاء الاصطناعي في إنتاج المحتوى الإعلامي يُثير جدلاً مهنياً

روبوت يعمل بتقنية الذكاء الاصطناعي (آ. ف. ب.)
روبوت يعمل بتقنية الذكاء الاصطناعي (آ. ف. ب.)

أثار استخدام الذكاء الاصطناعي في إنتاج محتوى إعلامي بالولايات المتحدة، جدلاً مهنياً بشأن تبِعات ذلك المستقبليةِ، ولا سيما بعد «الاستيلاء» على هويات كُتاب حقيقيين ونشر محتوى بأسمائهم. وعدَّ خبراء، تحدثت إليهم «الشرق الأوسط»، ما حدث اعتداء على حقوق الملكية الفكرية، وأشاروا إلى ضرورة سن تشريعات ووضع قواعد لحوكمة الذكاء الاصطناعي.

الجدل بدأ عقب الكشف عن إعادة نشر مقالات على مدوّنة قديمة متخصصة في التكنولوجيا، تابعة لشركة «أبل»، تحمل اسم «تواو (TUAW)»، مع أنها مغلقة منذ عام 2011، وفق ما نشره موقع «ذي فيرج» الأميركي. وأضاف الموقع أن «المقالات الجديدة المنشورة على المدوّنة أُنتجت بواسطة الذكاء الاصطناعي، ونُشرت بأسماء كُتاب وصحافيي المدوّنة السابقين، وذلك بعد استيلاء مالك جديد على المدوّنة المغلقة. ثم إن الصحافية الأميركية كريستينا وارين نشرت، عبر حسابها على (ثريدز)، صوراً من صفحتها على المدوّنة، تتضمن مقالات جديدة تحمل اسمها، نُشرت في يوليو (تموز) الحالي، على الرغم من أنها تركت المدوّنة عام 2009، كما أنها لم تعد تكتب في الصحافة التكنولوجية منذ انضمامها إلى (مايكروسوفت)».

وقد أعربت وارين عن «صدمتها»، قائلة: «كنت أعتقد أن أسوأ ما يمكن أن يحدث للصحافي هو فقدان أرشيفه؛ لكن اتضح أن هناك ما هو أسوأ؛ وهو ظهور هذه النسخة المشوّهة التي تبدو حقيقية لكنها ليست كذلك». من جهته، أفاد موقع «ذي فيرج» بأن «وارين ليست الصحافية الوحيدة التي انتُحلت شخصيتها على المدوّنة، بل كان هناك صحافيون آخرون نُسبت إليهم كتابة تقارير مولَّدة بالذكاء الاصطناعي».

الدكتورة مي عبد الغني، أستاذ الإعلام في جامعة بنغازي بليبيا، والباحثة المتخصصة في الإعلام الرقمي، عدَّت هذه الواقعة «دليلاً على زيادة وتيرة السرقات الأدبية، والاعتداء على حقوق الملكية الفكرية بواسطة الذكاء الاصطناعي، وهي شملت أيضاً شركات صناعية وتجارية وبنوكاً كبرى، إضافة إلى انتحال بعض الأصوات في الاستعمال السيئ لهذه التقنية». وأردفت عبد الغني، في حوار مع «الشرق الأوسط»، أن «التقنيات المتطورة لن تكون بديلاً، بأي حال من الأحوال، عن استخدام العقل البشري في الإبداع والابتكار؛ لأن قدراتها في هذا الاعتماد عليها بشكل كامل يوقِع المستخدم تحت طائلة القانون؛ لأنه قد يتضمن سرقة لمجهود الآخرين. ووضعت بضعة مقترحات للحد من مخاطر التقنية؛ أولها الاستثمار في تطبيقات وأدوات كشف أصالة المحتوى، وتحديد المحتوى المولَّد بتقنيات الذكاء الاصطناعي، لافتة إلى وجود عدد من هذه الأدوات والبرامج بالفعل.

أما الاقتراح الثاني، وفقاً لعبد الغني، «فيتمثل في سَن تشريعات وقوانين لمواجهة السرقات الأدبية، ومتابعة الجرائم الإلكترونية». وهنا نوّهت بتجربة الولايات المتحدة في هذا المجال، إذ «أسّست عام 2019 مختبراً كجزء من وحدة العلوم وتقييم التكنولوجيا يُصار فيه إلى إجراء تجارب علمية متطورة مدعومة بأدوات الذكاء الاصطناعي لكشف الانتحال والسرقات الإلكترونية وتتبُّع مرتكبيها».

كذلك، شدّدت الدكتورة عبد الغني على «أهمية تعزيز وتشجيع الابتكار وتنمية المهارات البشرية، ودعمها بالأدوات والتطبيقات التقنية بشكل مقنن، بما يكفل تحقيق الاستفادة المثلى منها من التكنولوجيا». ومع الإشارة إلى استخدام تكنولوجيا الذكاء الاصطناعي باتت هناك مخاوف عدة بشأن انتشار «المعلومات المضللة»، و«انتهاك الخصوصية»، لذا تتجه دول عدة إلى حوكمته، ووضع ضوابط لاستخدامه. وفي ديسمبر (كانون الأول) الماضي، توصّل الاتحاد الأوروبي إلى اتفاق بشأن تنظيم التكنولوجيا وُصف بأنه «خطوة غير مسبوقة».

من جهة أخرى، قالت سالي حمود، الباحثة الإعلامية اللبنانية في شؤون الإعلام المعاصر والذكاء الاصطناعي، وأستاذ الإعلام والتواصل، في لقاء مع «الشرق الأوسط»، إن «الذكاء الاصطناعي أثار جدلاً كبيراً فيما يتعلق بحقوق الملكية الفكرية... الأمر الذي ينطوي على خطورة نظراً لصعوبة ضبط أطر إنتاج المحتوى المنتَج بالتقنية».

وضربت حمود مثلاً على ذلك بمحاولات وسائل إعلام عدة وضْع أوصاف تشير إلى محتوى أو صورة ما «جرى توليدها بالذكاء الاصطناعي»، وذكرت أن «مواجهة التقنية لن تتحقق إلا بتقنية مثلها، ومن هنا تظهر بين الحين والآخر برامج وتطبيقات لكشف السرقات والانتحال». وفي حين لفتت الباحثة اللبنانية إلى «خطورة واقعة انتحال أسماء صحافيين مثل وارين»، فإنها عدَّت المسألة قابلة للاحتواء. أما التحدي الأكبر فيكمن في وضع قواعد وأطر لحوكمة الذكاء الاصطناعي، والعمل على التثقيف الإعلامي عبر التعاون بين الحكومات والقطاع الخاص معاً.

وهنا نشير إلى أن الصحافية كريستينا وارين سعت بالفعل إلى منع انتحال اسمها، وأرسلت رسالة، عبر البريد الإلكتروني، إلى المدوّنة الجديدة، «مهدِّدة باتخاذ الإجراءات القانونية ضدها»، لكن المدوّنة اكتفت بحذف اسمها من المنشورات ووضعت اسماً آخر، وقد تكرّر الأمر نفسه مع صحافيين آخرين، وفق «ذي فيرج».