الصحافة الأجنبية تختبر «جنسيس»... أداة ذكاء اصطناعي جديدة تنتج قصصاً إخبارية

هل تنجح في عالم الأخبار عالي المخاطر؟

هل ينجح الذكاء الاصطناعي في عالم الأخبار عالي المخاطر؟ (رويترز)
هل ينجح الذكاء الاصطناعي في عالم الأخبار عالي المخاطر؟ (رويترز)
TT

الصحافة الأجنبية تختبر «جنسيس»... أداة ذكاء اصطناعي جديدة تنتج قصصاً إخبارية

هل ينجح الذكاء الاصطناعي في عالم الأخبار عالي المخاطر؟ (رويترز)
هل ينجح الذكاء الاصطناعي في عالم الأخبار عالي المخاطر؟ (رويترز)

يختبر «غوغل» أداة جديدة تستخدم الذكاء الاصطناعي لإنتاج قصص إخبارية، وقامت بعرضها على وسائل إعلام أميركية، بما في ذلك صحف «وول ستريت جورنال» و«نيويورك تايمز» و«واشنطن بوست»، حسبما أفادت صحيفة «نيويورك تايمز» الأميركية.

ويمكن للأداة المعروفة باسم «جنسيس» (Genesis)، أن تأخذ المعلومات أو تفاصيل الأحداث الجارية وتنتج محتوى إخبارياً، وفقاً لما قال أشخاص مطلعون للصحيفة بشرط عدم الكشف عن هويتهم.

وقال أحد الأشخاص الثلاثة المطلعين على المنتج إن «غوغل» تعتقد أن الأداة يمكن أن تكون بمثابة مساعد شخصي للصحافيين وأن تقوم ببعض المهام وتساعد على صناعة النشر لتوفير الوقت على الصحافيين، بعيداً عن الذكاء الاصطناعي التوليدي.

في هذا الصدد، وصف بعض المديرين التنفيذيين الذين اطلعوا على عرض «غوغل» بـ«المقلق»، فيما قال شخصان إن الجهد المبذول في إنتاج قصص إخبارية دقيقة ومبدعة يبدو أمراً مفروغاً منه.

وفي حين رفضت صحيفتا «التايمز» و«البوست» التعليق على هذه الأداة بحسب «نيويورك تايمز»، قال جيف غارفيس أستاذ الصحافة والمعلق الإعلامي إن أداة «غوغل» الجديدة، كما هو موصوف، لها جوانب إيجابية وسلبية محتملة.

وأشار غارفيس، وهو مدير مركز «تو نايت» لصحافة ريادة الأعمال في كلية كريغ نيومارك للدراسات العليا للصحافة بجامعة مدينة نيويورك: «إذا كانت هذه التكنولوجيا قادرة على تقديم معلومات واقعية بشكل موثوق، فيجب على الصحافيين استخدامها».

وأضاف: «من جهة أخرى، إذا أساء الصحافيون والمؤسسات الإخبارية استخدامها في مواضيع تتطلب فارقاً بسيطاً وفهماً ثقافياً، فقد يؤدي ذلك ليس فقط إلى الإضرار بمصداقية الأداة ولكن أيضاً بمصداقية المؤسسات الإخبارية التي تستخدمها».

وتأتي هذه الأداة الجديدة في وقت تتصارع فيه المؤسسات الإخبارية في جميع أنحاء العالم لمعرفة ما إذا كانت ستستخدم أدوات الذكاء الاصطناعي داخل غرف الأخبار الخاصة بها أم لا.

وأخطرت العديد من المؤسسات الإخبارية، من بينها «التايمز» و«إنسايدر»، موظفيها بأنها تعتزم استكشاف الاستخدامات المحتملة للذكاء الاصطناعي في صناعة الأخبار لاكتشاف كيف يمكن تطبيقه بشكل مسؤول على عالم الأخبار عالي المخاطر، حيث يعد عدد الثواني والدقة أمراً بالغ الأهمية.


مقالات ذات صلة

بسبب الاحتيال... إيطاليا تغرّم «تشات جي بي تي» 15 مليون يورو

تكنولوجيا لوغو تطبيق «شات جي بي تي» (رويترز)

بسبب الاحتيال... إيطاليا تغرّم «تشات جي بي تي» 15 مليون يورو

أعلنت هيئة حماية البيانات الإيطالية أنها فرضت غرامة قدرها 15 مليون يورو على شركة «أوبن إيه آي» الأميركية بسبب الاحتيال.

«الشرق الأوسط» (روما)
خاص تتضمن الاتجاهات الرئيسة لعام 2025 الاستعداد الكمومي وممارسات الأمن السيبراني الخضراء والامتثال (شاترستوك)

خاص كيف يعيد الذكاء الاصطناعي والحوسبة الكمومية تشكيل الأمن السيبراني في 2025؟

«بالو ألتو نتوركس» تشرح لـ«الشرق الأوسط» تأثير المنصات الموحدة والذكاء الاصطناعي والحوسبة الكمومية على مستقبل الأمن السيبراني.

نسيم رمضان (لندن)
تكنولوجيا كيف أصبح «كلود» روبوت الدردشة المفضل لدى خبراء التكنولوجيا؟

كيف أصبح «كلود» روبوت الدردشة المفضل لدى خبراء التكنولوجيا؟

يقدم الاستجابات مثل إنسان ذكي ومنتبه

كيفن رُوز (سان فرانسيسكو)
علوم نهاية الإنترنت... كما نعرفها

نهاية الإنترنت... كما نعرفها

يبدو أن الإنترنت ينهار... ولكن ليس حرفياً، أي من الناحية البنيوية؛ لأنها لا تزال شبكة سليمة؛ إذ إن هناك الكثير من كابلات الألياف الضوئية التي تبطن قاع المحيط،…

«الشرق الأوسط» (واشنطن)

دراسة: الذكاء الاصطناعي قادر على الخداع ورفض تغيير وجهة النظر

أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشاراً (رويترز)
أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشاراً (رويترز)
TT

دراسة: الذكاء الاصطناعي قادر على الخداع ورفض تغيير وجهة النظر

أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشاراً (رويترز)
أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشاراً (رويترز)

أظهرت دراسة لشركة تكنولوجيا الذكاء الاصطناعي الأميركية «أنثروبيك»، أن نماذج الذكاء الاصطناعي تستطيع خداع المطورين، بحيث تستطيع ادعاء وجهات نظر مختلفة خلال تدريبها، في حين أنها تحتفظ في الحقيقة بتفضيلاتها الأصلية.

وقال فريق الدراسة إنه لا يوجد سبب للشعور بالفزع حالياً، في حين أن دراستهم يمكن أن تكون حيوية في فهم المخاطر المحتملة التي تنطوي عليها أنظمة الذكاء الاصطناعي المستقبلية ذات القدرات الأعلى.

وكتب الباحثون في منشور بثته شركة «أنثروبيك»: «يجب النظر إلى نتائج دراستنا بوصفها محفزاً لمجتمع أبحاث الذكاء الاصطناعي من أجل دراسة هذا السلوك بصورة أعمق، والعمل على تطوير إجراءات الأمن والسلامة المناسبة».

وبعد أن أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشاراً، «نحتاج إلى التحلي بالقدرة على الاعتماد على التدريب الآمن لها والذي يمنع النماذج من القيام بتصرفات ضارة».

وأشار موقع «تك كرانش» المتخصص في موضوعات التكنولوجيا، إلى أن الدراسة التي تمت بالتعاون مع مؤسسة «ريد وود ريسيرش» لأبحاث الذكاء الاصطناعي، تناولت ما يمكن أن يحدث إذا تم تدريب نظام ذكاء اصطناعي قوي من أجل القيام بمهمة «لا يريد» هو القيام بها، وفقاً لما ذكرته وكالة الأنباء الألمانية.

في المقابل، يقول موقع «تك كرانش»: «لكي نكون واضحين، لا يمكن لنماذج الذكاء الاصطناعي أن تريد أي شيء أو تعتقد في شيء. فهي ببساطة آلات إحصائية. وبعد تدريبها على كثير من الأمثلة، تتعلم الأنماط في تلك الأمثلة للتنبؤ بما يجب أن يكون؛ مثل كيف تأتي عبارة (إلى من) في رسالة بريد إلكتروني قبل عبارة (قد يهمك الأمر)».

وأثناء الدراسة طلب الباحثون من النماذج المدربة عدم الرد على الأسئلة التي يمكن أن تكون مسيئة، بما في ذلك النموذج «كلاود 3 أوبس» التابع لشركة «أنثروبيك»، التي أعيد تدريبها لكي ترد دائماً على الأسئلة التي تنطوي على إساءة، وهو تضارب واضح في المبادئ. كما أبلغوا النماذج بأن ردودها ستخضع للمراقبة وتستخدم لإعادة التدريب، وإعطاء كل نموذج ذكاء اصطناعي «ورقة ملاحظات» يمكنه استخدامها لتدوين أفكاره خطوة بخطوة.

وبحسب الباحثين، حاول «كلاود 3 أوبوس» التلاعب بالردود لتقديم «انحياز زائف» في 12 في المائة من المرات.