في شهر أبريل (نيسان) من العام الماضي، كانت الأنباء تتوالى عن التقدّم المُذهل في آليات «الذكاء الاصطناعي»، وقدراتها المتصاعدة على أداء مهمة الصحافي والمذيع المُحترفين، وبالتالي تهديد فرص كل منهما في العمل.
وتجاوباً مع ذلك، حاولت معرفة مدى جدّيّة هذه التوقعات، عبر اختبار قدرة «تشات جي بي تي» على إنتاج نصوص صحافية صالحة للنشر وفق المعايير التي أعلمها عن قواعد العمل الصحافي ومبادئه التحريرية، وعندما فعلت ذلك توصلت إلى نتيجة محددة مفادها أنه بوسع «الذكاء الاصطناعي» أن يساعد الصحافيين ومؤسسات صناعة المحتوى في عملها بشكل يمكن أن يغيّر أساليب عمل الصناعة، ضمن مساهمة محفوفة بمثالب كثيرة، ستظل تسمح للصحافيين البشريين بالبقاء الفاعل في سوق العمل.
إلا أن استطلاعات رأي عديدة أظهرت لاحقاً توافقاً بين كثير من الخبراء على أن تلك الآليات الجديدة ستغيّر طبيعة المحتوى المنشور تغيّراً حاداً، بل إن بعضهم رأى أنه بحلول عام 2026، سيكون نحو 90 في المائة من المحتوى المنشور على شبكة «الإنترنت» مُنتجاً بطريقة آلية.
وبعد مرور 13 شهراً من محاولتي الأولى، أعدت المحاولة مرة ثانية، ووجدت أن نسبة التحسّن في أداء ذلك المساعد (تشات جي بي تي) ازدادت بوضوح، وأن كثيراً من الخلل الذي ظهرت آثاره في التجربة الأولى أخذ طريقه نحو معالجة لم تقضِ عليه تماماً، لكنها قللت منه بدرجة كبيرة.
وفي الأسبوع الماضي، شاهدت أكثر من محاولة مشابهة على أقنية تلفزيونية، أو عبر منصات «التواصل الاجتماعي» الرائجة، تُظهر درجة كبيرة من التطوّر والجاهزية والاحتراف في أداء أدوات «الذكاء الاصطناعي»، التي يُطلب إليها تسخير طاقتها لصناعة أنماط من المحتوى الإعلامي.
وفي بعض تلك المحاولات كان «الذكاء الاصطناعي» أسرع بعشرات المرات في الاستجابة مقارنة بالبشر، وأكثر تنوّعاً في المقاربة، وأكثر دقة في الوصول إلى نقاط البيانات، وتصفيتها، واستخلاص المفيد منها، وأخيراً، أكثر جاذبية في الأداء الصوتي أو الصياغة، وبعدد قليل جداً من الأخطاء.
ومع التحسّن المُطّرد في الخوارزميات التي تعمل بها تقنيات «الذكاء الاصطناعي»، وعلى رأسها تقنية «تشات جي بي تي»، عبر عمليات التدريب المُعقدة والمُكثفة، سيمكن توقع مزيد من هذا التحسن، وصولاً إلى درجة قياسية من الجاهزية والدقة والجودة.
ولأن تلك التقنيات تعتمد في عملها على البحث في المحتوى المنشور أصلاً، وتفرز المصادر، ولأنها تنتهج نهجاً واضحاً في عدم التورط بالنقاط الخلافية، وعدم تبني منظور في المعالجات الشائكة، فإن قدرتها على تفادي الأخطاء تزداد. وربما كان هذا أحد الأسباب التي قادت مئات من الخبراء المتخصصين، ومن بينهم إيلون ماسك، إلى توقيع بيان في العام الماضي طالبوا فيه بإيقاف تدريب «الذكاء الاصطناعي» والأنظمة المتطورة من «تشات جي بي تي»، لمدة ستة أشهر على الأقل، بداعي ما قد تحدثه تلك الأنظمة من مخاطر، ولإعطاء فرصة مناسبة للخبراء والمستخدمين وأفراد الجمهور، لاختبار تلك التقنيات، وتقصّي مدى ملاءمتها وقدرتها على تقديم فائدة ملموسة من دون التورّط في أخطاء كبيرة، وهو مقترح حيوي وصائب، لكن لا يبدو أن أحداً انتبه إلى ضرورة تفعيله بالقدر الكافي. وعلى الرغم من ظهور استجابات مُهمة من قبل بعض الحكومات والمنظمات الدولية والمشرعين في اتجاه ترشيد هذا التطور المُذهل، ومنح الفرصة المناسبة لتقنينه وبلوغ درجة من المواءمة مع مستجداته المتسارعة، فإن تلك الاستجابات لم تكن كافية لتوفير تلك الفرصة.
واليوم، لم تعد الخطورة قاصرة على إمكانية سلب «الذكاء الاصطناعي» وظائف الصحافيين والمذيعين في المؤسسات الإعلامية، لكنها تتسع باطراد لتستهدف المؤسسة الإعلامية ذاتها.
ففي الأسبوع الماضي، تواترت الأنباء عن إعلان عدد من شركات الإنتاج التلفزيوني العالمية استخدامها تقنيات «الذكاء الاصطناعي» في ابتكار برامج جديدة.
ويبدو أن الجاهزية القياسية لتلك الأدوات، واستجاباتها اللامحدودة، شجعت بعض المؤسسات الإعلامية على أن تعهد إليها بمهمة ابتكار أفكار البرامج، خصوصاً أنها تمتلك القدرة السريعة على النفاذ إلى مليارات نقاط البيانات، واستعراض ملايين العروض الناجحة، قبل أن تخلص إلى مجموعة من الأفكار المشوقة والقابلة للتنفيذ.
ولأن تلك الأدوات قادرة أيضاً على المزج بين الأفكار الإبداعية وإمكانات رواجها، عبر نفاذها إلى بيانات التلقي ونتائج بحوث المشاهدة، فإن أفكارها عادة ما تكون فعالة وقابلة للنجاح. وعندما سنمد هذا الخط على استقامته، سنصل إلى النقطة التي سيعهد فيها أحدهم إلى أدوات «الذكاء الاصطناعي» ببناء مؤسسة إعلامية كاملة، ومخاطبة الجمهور مباشرة... وهنا سنكون مع خطر جديد ورعب جديد.