أثارت أخطاء وقع فيه نموذج الذكاء الاصطناعي «جيميناي» التابع لشركة «غوغل»، أخيراً، تساؤلات بشأن مستقبل المعلومات والصور، ومدى تحكم تلك التطبيقات في «الذاكرة الجمعية» المستقبلية للبشر. وبينما أشاد بعض الخبراء بإقدام «غوغل» على الاعتراف بالخطأ، وإعلان عزمه العمل على تصحيحه. شدد الخبراء على «ضرورة التنبه لخطورة الذكاء الاصطناعي وتأثيره على تشكيل صورة لتاريخ البشر».
وكان الرئيس التنفيذي لشركة «غوغل»، سوندر بيتشاي، قد تحدث أخيراً، عن أخطاء وصفها بأنها «غير مقبولة على الإطلاق»، وقع فيها تطبيق «جيميناي» للذكاء الاصطناعي، حيث «ولد صوراً لقوات نازية متنوعة عرقياً، كما ولد صوراً غير دقيقة تاريخياً تظهر امرأة أميركية سوداء تُنتخب عضواً في مجلس الشيوخ في القرن التاسع عشر، في حين لم يحصل ذلك على أرض الواقع قبل عام 1992»؛ ما أثار جدلاً وانتقادات على مواقع التواصل الاجتماعي، وسط مخاوف من تأثير شركات التكنولوجيا الكبرى على مستقبل المعلومات.
واعترف المؤسس المشارك في «غوغل»، سيرغي برين بـ«حدوث أخطاء في عملية توليد الصور»، وقال في «هاكاثون» للذكاء الاصطناعي أقيم أخيراً، «كان ينبغي على الشركة اختبار برنامج (جيميناي) بشكل أكثر شمولاً»، بحسب ما نقلته وكالة الصحافة الفرنسية.
وبينما تشيد الباحثة الإعلامية اللبنانية في شؤون الإعلام المعاصر والذكاء الاصطناعي وأستاذة الإعلام والتواصل، سالي حمود، بـ«اعتراف تطبيقات الذكاء الاصطناعي بالخطأ ومحاولتها تصويبه»، حذّرت من «خطورة هيمنة شركات التكنولوجيا الكبرى على والبيانات».
وقالت حمود لـ«الشرق الأوسط» إن «الحديث عن مخاطر الذكاء الاصطناعي وتأثيرها على البيانات والذاكرة الجمعية ليس جديداً؛ لكنه تصاعد أخيراً مع إتاحة خدمات تطبيقات الذكاء الاصطناعي للأفراد، وبروزها على السطح بشكل كبير». وأضافت أن «البيانات الموجودة على الإنترنت، هي التي تكوّن الذاكرة الجمعية للأفراد، وتتحول مع الوقت معلومات يراها البعض حقائق حتى وإن لم تكن كذلك».
وتشير إلى «خطورة البيانات المتداولة على الإنترنت، لا سيما وأنها تشكل الخوارزميات التي تعطي في النهاية النتيجة التي يخرج بها تطبيق الذكاء الاصطناعي أياً كان»، لافتة إلى أن «صحة المعلومات مسؤولية البشر الذين يتولون برمجة الخوارزميات المختلفة، وتغذية الإنترنت بالبيانات».
حمود أوضحت أن «البشر لديهم انحيازاتهم وقيمهم ومعتقداتهم التي تؤثر بالتبعية على ما ينتجونه ويروّجونه من معلومات»، ضاربة المثل بأن «تطبيقات الذكاء الاصطناعي بناءً على تلك الانحيازات البشرية تبدو أكثر تفضيلاً للرجل الأبيض على سبيل المثال». ودعت إلى «الاهتمام بنشر المعلومات الصحيحة على الإنترنت، لا سيما ما يتعلق بالثقافة والهوية العربية، لمواجهة الهيمنة المعلوماتية والتكنولوجية للشركات الغربية».
وبحسب مراقبين، فإن تطبيقات الذكاء الاصطناعي يتم تدريبها باستخدام كميات هائلة من البيانات، بهدف استخدامها في مهام عدة، مثل إنشاء صور أو صوت أو حتى نص، كما يتم استخدامها في التشخيص الطبي أحياناً.
كما يلفت المراقبون إلى أن «البيانات والصور التي يولدها الذكاء الاصطناعي تعتمد على إنترنت مليء بالتحيزات والمعلومات (الزائفة والمضللة)؛ ما يعني إمكانية تكرار هذه البيانات غير الدقيقة في توليد صور وبيانات تتحكم في تاريخ ومستقبل البشرية».
ووفق المسؤولين في «غوغل»، فإنه «كانت هناك مساعٍ لإعادة التوازن لخوارزميات (جيميناي)، لتقديم نتائج تعكس التنوع البشري، لكنها جاءت بنتائج عكسية»، فنتيجة الحرص على التنوع «ولد التطبيق صوراً لقوات نازية متنوعة ومتعددة الأعراق بالمخالفة للوقائع التاريخية».
ورأى الصحافي المصري المتخصص في شؤون الإعلام الرقمي، محمد الصاوي، أن «تأثير الذكاء الاصطناعي على مستقبل المعلومات يعتمد على قدرة الشركات الكبرى مثل (غوغل) على التحكم في تقنيات الذكاء الاصطناعي واستخدامها لتوليد وتوجيه المعلومات»، موضحاً أنه «عندما تقوم هذه الشركات بتطبيقات تعتمد بشكل كبير على الذكاء الاصطناعي، فإنها تتحكم بشكل كبير في كيفية توجيه المعلومات وكيفية فهم المستخدمين للواقع». وأضاف لـ«الشرق الأوسط» أن «واقعة (غوغل) تعكس كيف يمكن لهذه التقنيات أن تخطئ وتؤثر على المعرفة وعلى فهم الناس للتاريخ والحقائق»، مشيراً إلى أن «الصور الخاطئة والمعلومات غير الدقيقة يمكن أن تنتشر بسرعة وتؤثر على الثقة في المعلومات التي يستند إليها الناس في اتخاذ القرارات».
ويقترح الصحافي المصري المتخصص في شؤون الإعلام الرقمي لمواجهة هذا التحدي، أن تعمل الحكومات والجهات الرقابية على بناء إطار قانوني يحدد المعايير والمسؤوليات لشركات التكنولوجيا فيما يتعلق بتوليد ونشر المعلومات، مع وضع متطلبات صارمة للشفافية والمراجعة المستقلة لخوارزميات الذكاء الاصطناعي المستخدمة، بالإضافة إلى تشجيع الابتكار في تطوير تقنيات تصحيح الأخطاء وتحسين دقة البيانات والمعلومات التي تعتمد عليها هذه الخوارزميات».
ومنذ طرح شركة «أوبن إي آي» روبوت المحادثة «تشات جي بي تي» للاستخدام في نوفمبر (تشرين الثاني) 2022، أثير جدل بشأن استخدام تقنيات الذكاء الاصطناعي، وتأثيراتها على مختلف المجالات وبينها الصحافة، لا سيما مع إشارة أبحاث عدة إلى مخاطرها؛ ما دفع حكومات دول عدة إلى محاولة وضع قواعد لكبح جماح التقنية.
وفي مارس (آذار) 2023، طالب أكثر من ألف عالم متخصص في التكنولوجيا بـ«هدنة صيفية لمدة 6 أشهر، تستهدف الاتفاق على قواعد حوكمة الرقمية». إثر ذلك بدأ عدد من المشرّعين الأوروبيين العمل على تشريعات جديدة في هذا الصدد. أيضاً، بين الحين والآخر تفرض دولة ما حظراً على تطبيق من تطبيقات الذكاء الاصطناعي بداعي «حماية البيانات»، كما فعلت إيطاليا في أبريل (نيسان) 2023.
وتثير تكنولوجيا الذكاء الاصطناعي مخاوف عدة بشأن انتشار «المعلومات المضللة»، و«انتهاك الخصوصية»؛ لذلك تتجه دول عدة لحوكمته ووضع ضوابط لاستخدامه. ولتجاوز الانحيازات البشرية والمعلومات «الزائفة» يدعو خبراء ومراقبون إلى «زيادة التنوع في الفِرق المشرفة على إنشاء وتغذية تطبيقات الذكاء الاصطناعي»؛ تزامناً مع «زيادة الشفافية عن كيفية عمل خوارزمياتها، بهدف تحسين البيانات التي تولدها تلك التطبيقات».
أخيراً، يتجه العالم إلى حوكمة الذكاء الاصطناعي، وفي نهاية العام الماضي اتفق الاتحاد الأوروبي، على ما عُدّ «أول تشريع شامل لحوكمة الذكاء الاصطناعي». بهدف «ضمان أمن السوق الأوروبية»، جنباً إلى جنب مع «تحفيز الاستثمار والابتكار في تطوير وتسهيل أدوات التعامل مع الذكاء الاصطناعي». ومن المقرر أن تدخل الاتفاقية حيز التنفيذ عام 2025.