لماذا تدعم شركات الذكاء الاصطناعي الإعلام؟

عقب إعلان شراكة بين «أوبن إيه آي» ومؤسسات إخبارية في أميركا

لماذا تدعم شركات الذكاء الاصطناعي الإعلام؟
TT

لماذا تدعم شركات الذكاء الاصطناعي الإعلام؟

لماذا تدعم شركات الذكاء الاصطناعي الإعلام؟

مع ازدياد الحديث عن تكنولوجيا الذكاء الاصطناعي، وتأثيرها على كل مناحي الحياة، جاء إعلان شركة «أوبن إيه آي» عن شراكة لدعم صناعة الأخبار بقيمة 5 ملايين دولار، ليجدّد التساؤلات حول تأثير هذه التقنية على صناعة الإعلام، وهل ستكون داعمة لها... أم أنها تشكل تهديداً للصناعة والعاملين بها؟

وفي حين عدّ خبراء الشراكة الأخيرة بمثابة «خطوة ذكية» من جانب الشركة المنتجة لروبوت الذكاء الاصطناعي «تشات جي بي تي»، فإنهم أكدوا «ضرورة استنساخ مثل هذه الشراكة في الدول النامية، للمساهمة في التعريف بقدرات تكنولوجيا الذكاء الاصطناعي».

شركة «أوبن إيه آي» كانت قد أعلنت في يوليو (تموز) الماضي عن شراكة مع «مشروع الصحافة الأميركي» (إيه جي بي)، تلتزم من خلالها بتقديم دعم مالي بقيمة 5 ملايين دولار أميركي لتعزيز استخدام وسائل الإعلام المحلية لتكنولوجيا الذكاء الاصطناعي.

وبموجب هذه الشراكة ستتيح شركة «أوبن إيه آي» لوسائل الإعلام المحلية الاستفادة مجاناً من خدمات روبوت الدردشة «تشات جي بي تي» المدفوعة، بما يوازي قيمة الدعم المالي المقدم ضمن اتفاق الشراكة. وتُعد هذه الخطوة -وفق خبراء- جزءاً من خطوات أوسع تنتهجها «أوبن إيه آي» لتعزيز شراكتها مع المؤسسات الإعلامية المختلفة، إذ إنه سبق لها أن أعلنت عن اتفاق مع وكالة «أسوشييتد برس» الأميركية لاستكشاف استخدام تقنيات الذكاء الاصطناعي في غرف الأخبار. وسيسهم اتفاق الشراكة الأخير في تمويل «استوديو الذكاء الاصطناعي» الذي يتيح لوسائل الإعلام المحلية الأميركية تجربة التكنولوجيا التي أنتجتها شركة «أوبن إيه آي».

وكالة «رويترز» للأنباء نقلت عن سارا بيث بيرمان، المديرة التنفيذية لـ«مشروع الصحافة الأميركية» قولها إنه «من خلال هذه الشراكة نسعى للترويج لطرق استخدام الذكاء الاصطناعي في دعم الصحافة بدلاً من تهديدها». وتجدر الإشارة هنا إلى أن «مشروع الصحافة الأميركي» مشروع يهدف إلى تقديم منح لوسائل الإعلام المحلية غير الهادفة للربح، من أجل تعزيز غرف الأخبار. وحتى الآن استطاع جمع 139 مليون دولار لهذا الغرض.

إضفاء الطابع الإنساني

إيزابيلا بيدويا، الخبيرة الأميركية المتخصصة في بناء قواعد بيانات الذكاء الاصطناعي في الأماكن العامة، قالت في تعليق لها إن «الذكاء الاصطناعي التوليدي يحدث ثورة في كل صناعة». وأبلغت «الشرق الأوسط» أن «غاية الشراكة بين (أوبن إيه آي) و(مشروع الصحافة الأميركي) تعزيز الدور الإيجابي للذكاء الاصطناعي في الصحافة، عن طريق تمويل يسمح باستخدام أدوات مثل (تشات جي بي تي) في العمل الإعلامي. وهو ما من شأنه أن يساعد (مشروع الصحافة الأميركي) على توسيع عمله من خلال تعزيز الأخبار المحلية، والاستفادة من إمكانات الذكاء الاصطناعي لتعزيز مستقبل الصحافة».

تعتقد بيدويا أن «هذا التعاون سيكون مهماً بالنسبة للجيل المستقبلي من الصحافيين؛ لأنه يساعد المؤسسات الإخبارية المحلية المتعثّرة عبر دعم مالي يضمن بقاءها، كما يوفر لموظفيها فرصة للاستفادة من الذكاء الاصطناعي لتحسين عملهم وكفاءتهم. ويضاف إلى كل ذلك تعزيز التكامل المسؤول للذكاء الاصطناعي». وتستطرد: «هذه الشراكة تمهد الطريق لصحافة أكثر كفاءة، ما يعزّز مرونة الصناعة وأهميتها في العصر الرقمي... مع التأكيد على ضرورة إضفاء الطابع الإنساني على المحتوى الذي أنشأه الذكاء الاصطناعي، لتجنب أن يبدو عاماً أو متحيزاً».

غير أن الخبيرة الأميركية ترى أن «مثل هذه الخطوات لا يجوز أن تعيق إجراءات حوكمة الذكاء الاصطناعي التي تعتبرها ضرورية جداً، في ظل الأبحاث التي تشير إلى قدرة هذه التقنية على ارتكاب جرائم». وللعلم، منذ طرح شركة «أوبن إيه آي»، في نوفمبر (تشرين الثاني) الماضي، روبوت المحادثة «تشات جي بي تي» للاستخدام، أثير جدلٌ بشأن استخدام تقنيات الذكاء الاصطناعي، وتأثيراتها على مختلف المجالات، وبينها الصحافة، لا سيما مع إشارة أبحاث عدة إلى مخاطرها؛ الأمر الذي دفع حكومات دول عدة لمحاولة وضع قواعد لكبح جماح التقنية.

خطوة مهمة جداً

الدكتور حسن عبد الله، نائب رئيس جامعة شرق لندن بالعاصمة البريطانية، وصف هذه الخطوة بأنها «غاية في الأهمية». وقال لـ«الشرق الأوسط» موضحاً، إن «(أوبن إيه آي) تسعى منذ فترة إلى إثبات فوائد الذكاء الاصطناعي للمجتمع، مع توضيح كيفية الاستفادة من تطبيقاته في مجالات عدة بشكل إيجابي، والحد من التخوف الهائل بشأن سلبيات التقنية الجديدة، لا سيما في ظل التوقعات باستخدام تكنولوجيا الذكاء الاصطناعي في تطبيقات خطيرة تهدد البشرية». وأردف عبد الله بأن «(أوبن إيه آي) لجأت إلى دعم قطاع الصحافة والإعلام مادياً وتكنولوجياً، كي يكون حليفاً قوياً لها، فيسهم في إبراز الجوانب الإيجابية في تطبيقات الذكاء الاصطناعي، وتسليط الضوء عليها». ومن ثم، عدَّ هذه الخطوة «قمة في الذكاء» من جانب «أوبن إيه آي»، تهدف إلى «التعاون البناء مع قطاع الإعلام والصحافة الذي سيكون فاعلاً في نشر تكنولوجيا الذكاء الاصطناعي، وإيصالها للمجتمع».

في المقابل، اعتبر عبد الله أنه «سيكون لهذه الخطوة -طبعاً- تأثير على صناعة الإعلام بشكل عام... إذ إنها ستزيد التنافس بين المؤسّسات الإعلامية في مجال عرض الأخبار وتغطيتها باستخدام تكنولوجيا الذكاء الاصطناعي، وهو ما يتطلب بالتبعية زيادة تدريب الإعلاميين على استخدامها بحكمة، والتأكد من دقة المعلومات المولدة عبر الذكاء الاصطناعي».

«المعلومات المضلّلة»

في الحقيقة، ليست تكنولوجيا الذكاء الاصطناعي وليدة اللحظة، إذ إن الأبحاث في مجالها تجري منذ سنوات عدة، بيد أنها تسارعت في الآونة الأخيرة، حتى أن أكثر من ألف عالم متخصص في التكنولوجيا، طالبوا في مارس (آذار) الماضي، بـ«هدنة صيفية لمدة 6 أشهر، كي يتسنى الاتفاق على قواعد للحوكمة الرقمية». وخلال أبريل (نيسان) الماضي، أعلن جمع من المشرّعين الأوروبيين اعتزامهم إضافة تشريعات قانونية جديدة للتحكم في التطور التكنولوجي. وأيضاً اتخذت هيئة تنظيم الخصوصية الإيطالية، خلال الشهر نفسه، قراراً بحظر «تشات جي بي تي» بحجة «جمعه بيانات المستخدمين بشكل غير قانوني». وفي الولايات المتحدة، عقدت نائبة الرئيس الأميركي كامالا هاريس في مايو (أيار) الماضي، لقاءً مع الرؤساء التنفيذيين لأربع شركات كبرى تعمل على تطوير الذكاء الاصطناعي. في الوقت ذاته تقريباً، بدأت السلطات البريطانية دراسة تأثير «تشات جي بي تي» على الاقتصاد، والمستهلكين.

سالي حمود، الباحثة اللبنانية في شؤون الإعلام المعاصر والذكاء الاصطناعي، وأستاذة الإعلام والتواصل، أوضحت لـ«الشرق الأوسط» أن «الشراكة المعلن عنها أخيراً أمر متوقع؛ لأن شركة (أوبن إيه آي) تهدف إلى تحسين برنامجها عبر المعلومات والبيانات الموجودة على الإنترنت. وأكثر مجال تتوفر فيه هذه البيانات هو مجال الصحافة والإعلام، وهي الأكثر قدرة على تغيير الخطاب العام بالعالم». وتابعت بأن «(أوبن إيه آي) ترمي من هذه الشراكة إلى تعزيز استخدام الذكاء الاصطناعي في الصحافة، وتحسين دخولها إلى الأسواق»، قبل أن تستدرك فتقول: «ولكن في الوقت عينه هناك انتقادات لتكنولوجيا الذكاء الاصطناعي، لحصولها على بيانات الأفراد من دون موافقة أصحابها».

وحسب سالي حمود: «مثل هذه الشراكة ستغير حتماً آلية العمل في المؤسسات الإعلامية، وربما تتأثر الوظائف الصحافية»، إلا أنها تؤكد في المقابل أن «الذكاء الاصطناعي لن يتغلب أبداً على الذكاء الإنساني وقدرة البشر على تحليل المعلومات»، وتشدد على أهمية تدريب الصحافيين على أدوات الإعلام الجديد.

التنظيم والقوننة والحوكمة

في هذه الأثناء، يثير استخدام تكنولوجيا الذكاء الاصطناعي مخاوف من انتشار «المعلومات المضللة» و«انتهاك حقوق النشر وحقوق الملكية الفكرية». ولذا ظهرت أخيراً دعوات إلى قوننة تقنيات الذكاء الاصطناعي وحوكمته، من أجل الحد من آثارها السلبية؛ إذ أصدرت جامعة جورجتاون في العاصمة الأميركية واشنطن، ومرصد ستانفورد للإنترنت، في يناير (كانون الثاني) الماضي، تقريراً ورد فيه أن «(تشات جي بي تي) سيسهل عملية نشر المعلومات الزائفة على الإنترنت».

ومن جانبه، وصف أحمد عصمت، الخبير في الإعلام الرقمي والمحاضر في الجامعة الأميركية بالقاهرة، خطوة «أوبن إيه آي» بأنها خطوة «جيدة ومستحسنة»؛ لكنه قال إنه يفضل لو «تتجه (أوبن إيه آي) لدعم الإعلام في الدول النامية». وأضاف: «بموجب الشراكة المعلن عنها، فإن (أوبن إيه آي) لن تدفع أموالاً بشكل مباشر إلى المؤسسات الإعلامية؛ لكنها ستعطيهم إمكانية استخدام التقنية مجاناً». وبشأن تأثير ذلك على صناعة الإعلام بشكل عام، قال عصمت لـ«الشرق الأوسط»، إن «المؤسسات بدأت تستخدم الذكاء الاصطناعي، بالتزامن مع تيار متنامٍ يستهدف تنظيم استخدامه وقوننته وحوكمته... ثم إن (أوبن إيه آي) تعلمت الدرس سريعاً من مؤسسات وشركات تقنية واجهت مشكلات تصعيد ضدها من قبل بعض المؤسسات والحكومات، فبدأت تأخذ خطوات استباقية». وتابع: «في النهاية، هذه صناعة وتجارة لها أدوات مختلفة لتحقيق أهدافها». وفي الإطار ذاته، توقع عصمت أن «هذه الشراكة ستدفع نحو زيادة استخدام تكنولوجيا الذكاء الاصطناعي في صناعة الإعلام، كما أنها ستسهم في تعريف الناس بشكل أكبر بقدراتها الحقيقية». وفعلاً، أشارت وسائل إعلام أميركية إلى مخاوف من استغلال الذكاء الاصطناعي وأدوات مثل «تشات جي بي تي» في استخدام البيانات الشخصية. ولقد فتحت لجنة التجارة الفيدرالية الأميركية تحقيقاً في التكنولوجيا التي أنتجتها شركة «أوبن إيه آي» في محاولة لفهم كيفية عملها، وما تتبعه في تدريب أدوات الذكاء الاصطناعي وتطويرها.



اعتماد «ميتا» على منشورات المُستخدمين لتدريب الذكاء الاصطناعي... يجدد مخاوف «الخصوصية»

اعتماد «ميتا» على منشورات المُستخدمين لتدريب الذكاء الاصطناعي... يجدد مخاوف «الخصوصية»
TT

اعتماد «ميتا» على منشورات المُستخدمين لتدريب الذكاء الاصطناعي... يجدد مخاوف «الخصوصية»

اعتماد «ميتا» على منشورات المُستخدمين لتدريب الذكاء الاصطناعي... يجدد مخاوف «الخصوصية»

أعلنت شركة «ميتا» عزمها البدء في تدريب نماذج الذكاء الاصطناعي الخاصة بها، معتمدة على بيانات مصدرها المنشورات العامة للمستخدمين على «فيسبوك» و«إنستغرام»، الأمر الذي عدّه بعض الخبراء يجدد المخاوف بشأن «الخصوصية»، ولا سيما أن الشركة كانت قد واجهت اعتراضات سابقة في ما يخص مشروعها لتغذية نماذج الذكاء الاصطناعي، ما أدى إلى توقفه في يونيو (حزيران) الماضي.

«ميتا» كانت قد أصدرت إفادة في سبتمبر (أيلول) الحالي، لتوضيح آلية استخدام المنشورات العامة للمستخدمين على «فيسبوك» و«إنستغرام» اللتين تملكهما. وقالت إنها «تشمل الصور والمنشورات والتعليقات فقط، بهدف تغذية نماذج الذكاء الاصطناعي التوليدي». وشددت الشركة على أن المحتوى المستخدم لن يشمل الرسائل الخاصة أو أي بيانات صنّفها المستخدم تحت عبارة خاص أو محمي، كما لن تشارك أي معلومات من حسابات المستخدمين الذين تقل أعمارهم عن 18 سنة.

حاتم الشولي، المشرف على تحرير الإعلام الرقمي في قناة «الشرق للأخبار» قال لـ«الشرق الأوسط» إنه يرى أن الخطوة تأتي في إطار سعي «ميتا» لتطوير تقنيات الذكاء الاصطناعي الخاصة بها. وأوضح أنها «خطوة في الاتجاه الصحيح؛ لكنها تصب في مصلحة (ميتا)، التي تسعى للبقاء منافساً قوياً في سوق التكنولوجيا المتقدمة». وأضاف: «(ميتا) هي الشركة الأضخم من حيث الاستحواذ على بيانات المستخدمين، وكانت منذ نشأتها الأكثر مرونة في التعاطي مع المتغيرات». وعدّ الشولي أن دخول الشركة في سوق الذكاء الاصطناعي أمر حتمي، موضحاً أن «(ميتا) تحمي نفسها من الشيخوخة، ولا سيما أن منصاتها التقليدية مثل (فيسبوك) بدأت تشهد تراجعاً في شعبيتها».

وعن تهديد مشروع «ميتا» لمبدأ الخصوصية، علّق الشولي بالقول إن «مسألة حماية البيانات قضية جدلية منذ ظهور منصات التواصل الاجتماعي، ولتحليل ما إذا كان مشروع (ميتا) يهدد الخصوصية أم لا، علينا أولاً التفريق بين نوعين من البيانات: الأول هي البيانات المحمية من قبل المستخدم، والثاني يخص البيانات المسموح بمشاركتها وفقاً لرغبة المستخدم أيضاً... وفي مشروع (ميتا) الذي نحن بصدده، أقرّت الشركة بأنها تعتمد على البيانات المعلنة فقط التي يوافق المستخدمون على مشاركتها، مثل العمر، النوع، الموقع الجغرافي، الاهتمامات».

مع هذا، أثار الشولي الحديث عن «أخلاقيات الذكاء الاصطناعي»، أو النماذج التي تعتمد عليها شركات التكنولوجيا المهيمنة على السوق لتدريب الذكاء الاصطناعي، وقال: «تنظيم أخلاقيات الذكاء الاصطناعي بات أكثر إلحاحاً من أكثر وقت مضى، وبالفعل اتجهت بعض الدول مثل الصين والولايات المتحدة ودول أوروبا في تشريع قوانين لحماية خصوصية المستخدمين». وشدّد «على أهمية وضع معايير واضحة ومهنية تنظم آلية استخدام البيانات لتدريب نماذج الذكاء الاصطناعي، ووجوب الإشارة إلى أن المحتويات المصنوعة بالذكاء الاصطناعي اعتمدت على مصادر معينة، وذلك من شأنه تحقيق الشفافية، ما يُجنب وقوع أي عمليات تضليل».

للعلم، يأتي مشروع «ميتا» الجديد بعدما كانت قد أعلنت تأجيل إطلاق نماذج الذكاء الاصطناعي في أوروبا، منتصف يونيو (حزيران) الماضي، على خلفية بعض العقبات، من بينها طلب هيئة حماية الخصوصية الآيرلندية تأجيل خطة «ميتا» لاستخدام البيانات من منشورات وسائل التواصل الاجتماعي. ويومذاك أعلنت الشركة أن التوقف أيضاً سيسمح لها بتلبية طلبات «مكتب مفوضية المعلومات البريطاني» (ICO) في ما يخصّ التعليمات التنظيمية لاستخدام البيانات.

ثم إن «ميتا» واجهت في يونيو الماضي انتقادات عدة من قبل «المركز الأوروبي للحقوق الرقمية» (NOYB)، وهي منظمة غير ربحية، مقرّها في فيينا، دعت الهيئات الوطنية لحماية الخصوصية في جميع أنحاء أوروبا، وإلى وقف استخدام محتوى وسائل التواصل الاجتماعي لهذا الغرض. وبرّرت موقفها بالقول إن «الإشعارات التي تقدمها (ميتا) غير كافية لتلبية قواعد الاتحاد الأوروبي الصارمة المتعلقة بالخصوصية والشفافية»، وفقاً لما نقلته وكالة أنباء «رويترز».

من جهة ثانية، قال فادي رمزي، مستشار الإعلام الرقمي المصري والمحاضر في الجامعة الأميركية بالقاهرة، لـ«الشرق الأوسط»، إن تاريخ شركة «ميتا» المالكة لمنصتي «فيسبوك» و«إنستغرام» مليء بالثغرات في ما يخص حماية البيانات. وأضاف: «من قبل نماذج الذكاء الاصطناعي، وشركة ميتا تتعامل مع أي محتوى ينشره المستخدمون بشكل علني، باعتباره متاحاً للاستخدام بدليل البيانات التي تُوفَّر للمعلنين»، وتابع: «(ميتا) تقاعست عن تعزيز الشفافية على مدار السنوات الماضية، ما يعقد الوثوق فيها الآن... لقد واجهت (ميتا) مشاكل متكررة في التعامل مع بيانات المستخدمين، وسبق أن واجهت فضائح متعلقة بتسريب البيانات، مثل قضية كمبريدج أناليتيكا». وتعود قضية «كمبريدج أناليتيكا»، ومقرها لندن، إلى عام 2018 حين كُشف عن أن الشركة جمعت البيانات الشخصية لملايين الأشخاص مستخدمة حساباتهم على «فيسبوك»، وجرى استخدام هذه البيانات لأغراض الدعاية السياسية، ما اضطر «فيسبوك» لاحقاً لدفع 725 مليون دولار في إطار تسوية لدعوى قضائية جماعية تخص تلك القضية.

ووفق رمزي، فإن «حماية الخصوصية معضلة لن تحلها شركات التكنولوجيا، لا (ميتا) ولا غيرها... فحماية الخصوصية ميزة تتنافى مع مصالح شركات التكنولوجيا، ولا سيما ونحن أمام نماذج تتنافس في مجال الذكاء الاصطناعي التوليدي». وفي ما يخص مشروع «ميتا» الجديد، قال رمزي إن «النموذج الذي قدّمته الشركة لا يشير إلى أي إلزام بإبلاغ المستخدمين حول استخدام بياناتهم، وهو أمر يعود إلى غياب التشريعات في هذا الصدد». ورهن التزام الشركة بالمصداقية والأخلاقيات المهنية فيما يخص بيانات المستخدمين أو حقوق الناشرين، كذلك بالتشريعات الملزمة.