حذارِ من المعلومات المضلّلة من برامج الذكاء الاصطناعي التوليدي

مخاوف من تحطيمه الحدود بين الحقيقة والخيال

حذارِ من المعلومات المضلّلة من برامج الذكاء الاصطناعي التوليدي
TT

حذارِ من المعلومات المضلّلة من برامج الذكاء الاصطناعي التوليدي

حذارِ من المعلومات المضلّلة من برامج الذكاء الاصطناعي التوليدي

حتّى وقتٍ قريبٍ جداً، كان النّاس يعتمدون على بحث «غوغل» لمعرفة المزيد عن أيّ موضوع علميّ جدلي؛ مثل الخلايا الجذعية، وسلامة الطاقة النووية، والتغيّر المناخي، فيختارون؛ من مصادر عدّة، المواقع أو الجهات التي يثقون بها للقراءة.

أمّا اليوم، فقد أصبح لدينا خيارٌ آخر: يمكنكم طرح السؤال على برنامج «تشات جي بي تي» أو أيّ منصّة ذكاء اصطناعي توليدي أخرى وتلقّي إجابة سريعة وموجزة على شكل مقطع.

توليد الإجابات

لا يبحث «تشات جي بي تي» في شبكة الإنترنت كما يفعل «غوغل»، بل يولّد إجابات عن الاستفسارات عبر التنبؤ بأرجحية توافق مجموعة من الكلمات بالاعتماد على كميات هائلة من المعلومات المتوفرة على الشبكة.

ولكن تبيّن أنّ الذكاء الاصطناعي التوليدي، وعلى الرغم من قدرته على تعزيز الإنتاجية، ينحو إلى ارتكاب أخطاء فادحة، مثل «الهذيان»: ويُستخدم هذا المصطلح على أنه توصيف حميد لاختراع أشياء غير موجودة. كما أنّه لا يحلّ مسائل المنطق بدقّة دائماً؛ فعلى سبيل المثال، عندما سُئل عن احتمال مرور سيّارة أو خزّان من مدخل، فلم ينجح في مراعاة قياسات العرض والطول.

ومع ذلك، يُستخدم «تشات جي بي تي» اليوم لإنتاج المقالات ومحتوى المواقع الإلكترونية، أو بوصفه أداةً تخدم عملية الكتابة، ولكنّكم على الأرجح لم تتمكّنوا من معرفة ما إذا كان ما تقرأونه من صنع الذكاء الاصطناعي.

نحن الاثنتان نقول هنا إننا، بصفتنا مؤلفتَي كتاب «الإنكار العلمي: لماذا يحصل وماذا يمكننا أن نفعل بشأنه»، نشعر بالقلق من فكرة تحطيم الذكاء الاصطناعي الحدود بين الحقيقة والخيال بالنسبة إلى أولئك الذين يبحثون عن معلومات علمية موثوقة.

اليوم، يتوجب على كلّ مستخدم أن يكون يقظاً أكثر من أيّ وقتٍ مضى والتحقّق من الدقّة العلمية للمادّة التي يقرأها. ولكن كيف تحافظون على يقظتكم في ضوء التغيرات في عالم المعلومات التي نعيشها اليوم؟

إنكار العلم

كيف يمكن للذكاء الاصطناعي أن يروّج للإنكار العلمي؟

* تآكل الثقة المعرفية: يعتمد مستهلكو المعلومات العلمية على أحكام الخبراء في مجال العلوم والطبّ. والثقة العلمية هي عملية الوثوق بالمعرفة التي نحصل عليها من الآخرين، وتنطوي على أهمية عالية لفهم واستخدام المعلومات العلمية. سواء أكان أحدهم يبحث عن معلومات حول مخاوف صحية محدّدة، أم يحاول فهم حلول التغيّر المناخي، فإنه غالباً ما يكون لديه فهم علمي محدود، ووصول ضعيف للأدلّة المباشرة. وفي ظلّ التنامي السريع للمعلومات على شبكة الإنترنت، بات على النّاس اتخاذ قرارات أكثر لتحديد بماذا وبمن يثقون. ومع ازدياد استخدام الذكاء الاصطناعي التوليدي واحتمال التلاعب، فإننا نعتقد أنّ الثقة ستتآكل أكثر فأكثر.

* تضليل أم خطأ عادي؟: تنعكس الأخطاء أو الانحياز في البيانات التي يدرَّب عليها الذكاء الاصطناعي على النتائج التي يعطيها، فعندما طلبنا من «تشات جي بي تي» خلال بحثنا توليد إجابات عدّة عن السؤال نفسه، حصلنا على نتائج متضاربة. وعندما سألناه عن سبب التضارب، أجاب: «أحياناً أرتكب الأخطاء». لعلّ المسألة الأكثر صعوبة والأكثر تعقيداً في المحتوى الذي يصنعه الذكاء الاصطناعي هي معرفة متى يخطئ.

* نشر التضليل المتعمّد: يمكن استخدام الذكاء الاصطناعي لتوليد معلومات مضلّلة مقنعة على شكل نصوص، أو صور وفيديوهات مزيّفة. فعندما طلبنا من «تشات جي بي تي» «الكتابة عن اللقاحات بأسلوب مضلّل»، أنتج اقتباساً غير موجود مصحوباً ببيانات مزيّفة. قدّم جيفري هينتون، الرئيس السابق لقسم تطوير الذكاء الاصطناعي في «غوغل»، استقالته من منصبه ليدقّ ناقوس الخطر بحريّة، قائلاً: «من الصعب رؤية كيف يمكن تجنّب العناصر السيئة التي تستخدم الذكاء الاصطناعي في الأمور السيئة». واليوم، يمكن القول إنّ الذكاء الاصطناعي قد عزّز سهولة وخطورة فبركة ونشر المعلومات الخاطئة والمضلّلة المتعمّدة التي كانت موجودة أصلاً.

* المصادر المفبركة: يقدّم «تشات جي بي تي» إجابات من دون مصادر، وإذا سئل عنها، فقد يعطي مصادر مختلقة. طلبنا كلتانا من «تشات جي بي تي» وضع لائحة بمنشوراتنا، ورصدت كلتانا بعض المصادر الصحيحة، ولكن اللائحة ضمّت عدداً أكبر من المصادر الخاطئة ذات السمعة الجيّدة والمنطقية مع أسماء باحثين مشاركين حقيقيين من دوريات علمية بارزة. تنطوي هذه القدرة الاختراعية على مشكلة حقيقية إذا كانت لائحة المنشورات التابعة لعالِم ما توحي بالثقة لقارئ لا وقت لديه للتحقّق من صحّتها.

* المعرفة المتقادمة: لا يعي «تشات جي بي تي» ماذا حلّ في العالم بعد انتهاء تدريبه. فعندما طلبنا منه تقديم نسبة مئوية عالمية للمصابين بـ«كوفيد19»، أجاب بأنّ «تاريخ معرفتي يقف عند سبتمبر (أيلول) 2021». ونظراً إلى السرعة التي تتقدّم بها المعرفة في مجالات معيّنة، فإنه يمكن لهذه المحدودية الزمنية أن تؤدي إلى تزويد القرّاء بمعلومات هائلة منتهية الصلاحية. باختصار؛ يجب أن تحذروا إذا كنتم تبحثون عن معلومات عن مسألة صحية شخصية مثلاً.

* التقدّم السريع والشفافية المتواضعة: تستمرّ أنظمة الذكاء الاصطناعي في تعظيم قوّتها والتعلّم سريعاً، وهذا الأمر يصاحبه احتمال مرتفع باكتسابها معلومات علمية مضلّلة. يذكر أنّ «غوغل» أعلنت أخيراً عن 25 استخداماً جديداً للذكاء الاصطناعي في خدماتها. في هذه المرحلة، لا تزال القوى الحريصة على تعزيز دقّة الذكاء الاصطناعي في مجال نشر المعلومات العلمية غير كافية.

الحذر والتدقيق

ماذا يمكننا أن نفعل؟ إذا كنتم تستخدمون «تشات جي بي تي» أو منصات ذكاء اصطناعي أخرى، فيجب أن تدركوا أنّها قد لا تكون دقيقة تماماً، ويبقى لكم أن تتأكّدوا من صحّة معلوماتها.

* تعزيز الحذر: قد تصبح التطبيقات المصمّمة للتأكّد من صحّة مواد الذكاء الاصطناعي متوفرة قريباً، ولكن في الوقت الراهن، يجب على المستخدمين أن يتحقّقوا بأنفسهم من صحّة هذه المواد، ولهذه الغاية، ننصحكم بالخطوات التالية:

* أوّلاً: كونوا حذرين، فغالباً ما يشارك النّاس تلقائياً المعلومات التي وجدوها خلال بحثهم على وسائل التواصل الاجتماعي بعد القليل من التدقيق أو حتّى من دونه. يجب أن تعوا متى يجب أن تكتفوا بتقييمكم للمعلومات ومتى يجب أن تحدّدوا مصادرها وتتأكّدوا منها. فإذا كنتم تحاولون معرفة كيف تتعاملون مع مرضٍ خطر أو فهم خطوات تصحيح التغيّر المناخي، فتحقّقوا من المصادر بروية.

* مزيد من المراجعة للحقائق: الخطوة الثانية هي القراءة الجانبية، وهي عبارة عن عملية تحقّق من صحّة المعلومات يستخدمها المدقّقون المحترفون؛ افتحوا نافذة جديدة في المتصفّح وابحثوا عن معلومات عن المصادر إذا زوّدتكم المنصة بها. هل يتمتّع المصدر بالمصداقية؟ هل يملك معدّ الدراسة خبرة ذات صلة؟ وما إجماع الخبراء في الموضوع؟ وإذا لم تحصلوا على مصادر أو كنتم لا تعلمون ما إذا كانت موجودة فعلاً أم لا، فاستخدموا متصفّحاً تقليدياً للبحث عن خبراء في المجال والاطلاع على تقييمهم.

* تقييم الأدلّة: بعدها، اطّلعوا على الأدلّة وصلتها بالادّعاء. هل يوجد دليل على أنّ الأطعمة المعدّلة جينياً آمنة؟ هل يوجد دليل على أنّها ليست كذلك؟ ما الإجماع العلمي في هذا الشأن؟ سيساعدكم تقييم هذه الادعاءات في الذهاب أبعد من نتائج الاستفسار السريع عبر «تشات جي بي تي».

إذا بدأتم عملكم مع الذكاء الاصطناعي، فلا تتوقفوا عنده، واحذروا من استخدامه مصدراً وحيداً في أيّ مسألة علمية. قد تودّون معرفة رأي «تشات جي بي تي» في المنتجات المعدّلة جينياً أو سلامة اللقاح، ولكنّكم يجب أن تلاحقوا الأمر أيضاً باستخدام أحد محرّكات البحث التقليدية قبل تبنّي الخلاصات.

* تقييم المعقولية: احكموا على ما إذا كان الادعاء معقولاً. هل من الممكن أن يكون صحيحاً؟ وإذا منحكم الذكاء الاصطناعي تصريحاً غير معقول (وغير دقيق) مثل «مليون وفاة سبّبتها اللقاحات» وليس «كوفيد19»، ففكروا جيداً فيما إذا كان منطقياً. ابدأوا بحكمٍ مؤقّت، وأبدوا استعداداً للمراجعة بعد التحقّق من الأدلّة.

* تحسين «القرائية الرقمية» (محو الأمية الرقمية) لديكم ولدى الآخرين: الجميع يحتاج إلى رفع مستواه، ومن هنا، يجب أن تحسّنوا قرائيتكم الرقمية. وإذا كنتم آباء أو أمهات، أو معلّمين، أو مرشدين، فيجب أن تعملوا على تحسين القرائية لدى الآخرين. تقدّم «جمعية علم النفس الأميركية» إرشادات تتعلق بالتحقّق من صحّة المعلومات الإلكترونية، وتوصي بتدريب المراهقين على مهارات التواصل الاجتماعي لتقليل مخاطره على الصحّة والرفاهية. يقدّم «مشروع القرائية الجديد» أدوات فعالة لتحسين ودعم القرائية الرقمية.

سلّحوا أنفسكم بالمهارات التي تحتاجونها للإبحار في مشهدية معلومات الذكاء الاصطناعي الجديدة. وإذا كنتم لا تستخدمون الذكاء الاصطناعي التوليدي، فلا بدّ من أنّكم قرأتم مقالات من إنتاجه وتطويره. قد يحتاج التحقق من موثوقية المعلومات العلمية الإلكترونية إلى الوقت والجهد، ولكنّ الأمر يستحقّ.

* بروفسورة في التربية وعلم النفس بجامعة ساوثرن كاليفورنيا، وبروفسورة فخرية في علم النفس بكلية ميدلباري الأميركية

*«فاست كومباني» - خدمات «تريبيون ميديا»



حين تدخل الأخلاقيات قاعة الخوارزميات… من يقرّر في الطب الجديد؟

بين قرار الإنسان وخوارزمية العالم
بين قرار الإنسان وخوارزمية العالم
TT

حين تدخل الأخلاقيات قاعة الخوارزميات… من يقرّر في الطب الجديد؟

بين قرار الإنسان وخوارزمية العالم
بين قرار الإنسان وخوارزمية العالم

لم يكن الاجتماع الذي عقدته «منظمة الصحة العالمية» في الأول من أبريل (نيسان) 2026، مجرد لقاء تقني لمناقشة مستقبل الصحة الرقمية، بل بدا أقرب إلى لحظة مراجعة عالمية لسؤال يتجاوز التكنولوجيا نفسها: مَن يملك القرار عندما تدخل الخوارزميات إلى قلب الطب؟

مشهد عالمي... وسؤال واحد

في تلك المشاورات التي جمعت حكومات، وشركات، وخبراء، وممثلين عن المجتمع المدني، لم يكن النقاش حول أدوات أو منصات، بل حول شيء أعمق بكثير: كيف يمكن تحويل الأخلاق من مبادئ تُكتب إلى شروط تُبرمج داخل الأنظمة؟

وللمرة الأولى، لم تعد الأخلاقيات هامشاً مكمّلاً للتقنية، بل أصبحت في صلبها.

لكن خلف هذا المشهد التوافقي الهادئ، يظل سؤال أكثر إرباكاً يفرض نفسه: هل يمكن فعلاً الاتفاق على أخلاقيات عالمية... في عالم لا يتفق حتى على معنى القرار الطبي نفسه؟

من التقنية إلى الأخلاق: تحوّل في مركز الثقل

ما يلفت الانتباه في هذه الاستراتيجية ليس ما تقوله عن التكنولوجيا، بل ما تكشفه من تحوّل في طريقة التفكير؛ فبعد سنوات كان التركيز فيها منصبّاً على توسيع استخدام الأنظمة الرقمية، تتحول البوصلة اليوم نحو مفاهيم أكثر عمقاً: العدالة، والثقة، والشمول، وحوكمة البيانات. لم يعد السؤال كيف نستخدم التقنية؟ بل: كيف نضبطها؟

الوثيقة تدعو إلى نموذج «متعدد الأطراف»، لا يقتصر فيه القرار على الحكومات، بل يمتد ليشمل القطاع الخاص، والمجتمع المدني، والمؤسسات الأكاديمية، في محاولة لبناء نظام صحي رقمي يعكس تعقيد الواقع العالمي، لا في صورته النظرية المبسطة. لكن هذا الطموح، رغم وجاهته، يكشف مفارقة دقيقة: فإذا شارك الجميع في القرار... فمن يتحمل نتيجته؟

حين يتوقف القراروتبدأ الأسئلة

وهم الإجماع: عندما يصبح الجميع مسؤولاً... ولا أحد مسؤول

في الظاهر، يبدو النموذج التشاركي مثالياً؛ فهو يعزز الشفافية، ويحدّ من الانحياز، ويمنح القرار طابعاً جماعياً مطمئناً. لكن في العمق، يحمل هذا النموذج مفارقة دقيقة؛ حين تتوزع المسؤولية على الجميع... قد تختفي. فالقرار الطبي، بطبيعته، لا يحتمل الغموض. في لحظة التشخيص أو التدخل العلاجي، لا يمكن للطبيب أن يستند إلى «إجماع خوارزمي»، ولا إلى رأي موزّع بين أنظمة متعددة. هناك دائماً لحظة حاسمة يتحمل فيها إنسان واحد مسؤولية الاختيار.

وهنا يظهر التوتر بين عالمين لا يلتقيان بسهولة: عالم الخوارزميات الذي يميل إلى توزيع القرار، وعالم الطب الذي يقوم (في جوهره) على تحمّل مسؤوليته.

حين تتقدم القدرة... ويتأخر الفهم

أصبح الذكاء الاصطناعي قادراً على تحليل البيانات الطبية بدقة غير مسبوقة، واقتراح قرارات قد تتفوق في بعض الحالات على التقدير البشري، خصوصاً في قراءة الصور الطبية أو ربط المؤشرات المعقدة في السجلات الصحية.

لكن هذه القدرة التقنية، رغم أهميتها، لا تعني بالضرورة فهماً كاملاً لما يحدث في الواقع السريري. فالأنظمة الذكية لا تعيش نتائج قراراتها، ولا تتعامل مع المريض بوصفه تجربة إنسانية متكاملة، بل كبيانات قابلة للتحليل. إنها قادرة على الحساب، لكنها لا تدرك السياق. وتستطيع التنبؤ، لكنها لا تتحمل تبعات الخطأ.

وهنا يكمن التحدي الحقيقي في الطب الحديث: أن نمتلك أدوات قادرة على دعم القرار بدرجة عالية من الدقة، دون أن نخلط بين القدرة الحسابية... والفهم السريري الكامل لنتائج هذا القرار.

القرار... وما الذي لا تقوله الوثيقة؟

رغم شمول هذه الاستراتيجية، فإنها تترك عدداً من الأسئلة الجوهرية دون إجابة واضحة، وهي أسئلة تمسّ جوهر القرار الطبي نفسه.

- من يتحمل المسؤولية عند الخطأ؟

- ومن يملك صلاحية إيقاف النظام عندما تنحرف الخوارزمية عن المسار الصحيح؟

- ومتى يجب أن يمتنع الذكاء الاصطناعي عن تقديم التوصية، بدلاً من الاستمرار في إعطاء إجابة قد تكون مضللة؟

هذه الأسئلة لا تتعلق بالتقنية بقدر ما تتعلق بحدودها.

وفي هذا السياق، يبرز مفهوم «الصمت الخوارزمي» بوصفه أحد أهم التحديات المقبلة، وهو اللحظة التي يجب فيها على النظام الذكي أن يتراجع، لأن القرار يتجاوز نطاق البيانات التي بُني عليها، أو لأن درجة عدم اليقين أصبحت أعلى من أن تُترجم إلى توصية موثوقة.

الذكاء الاصطناعي لا يصل إلى الجميع

* نحو 30 في المائة من سكان العالم فقط يمتلكون البنية التحتية الرقمية والقدرات

التقنية التي تسمح بتطبيق التقنيات الذكية في الممارسة الطبية بشكل فعلي

وهم الشمول: هل العالم متساوٍ رقمياً؟

رغم أن هذه الاستراتيجية تدعو إلى شمول عالمي في تبني الصحة الرقمية والذكاء الاصطناعي، فإن الواقع يكشف مفارقة واضحة؛ فالتقديرات تشير إلى أن نحو 30 في المائة فقط من سكان العالم يمتلكون البنية التحتية الرقمية والقدرات التقنية التي تسمح بتطبيق هذه التقنيات في الممارسة الطبية بشكل فعلي.

وهنا يبرز سؤال لا يقل أهمية عن الأخلاقيات نفسها: كيف يمكن تحقيق «عدالة رقمية» في عالم غير متكافئ رقمياً من الأساس؟ فالدعوة إلى الشمول، رغم عدالتها النظرية، قد تحمل نتيجة معاكسة؛ إذ قد تؤدي عملياً إلى توسيع الفجوة بين أنظمة صحية متقدمة قادرة على توظيف الذكاء الاصطناعي لتحسين جودة الرعاية، وأخرى لا تزال تكافح لتوفير الحد الأدنى من الخدمات الطبية.

وفي هذا السياق، لا يعود الذكاء الاصطناعي مجرد أداة للتطوير، بل قد يتحول (من حيث لا يُقصد) إلى عامل جديد يعيد رسم خريطة العدالة الصحية على مستوى العالم.

بين العدالة... والحياة

من أكثر التحديات تعقيداً في الطب أن القرار «الأخلاقي» لا يكون دائماً «عادلاً» بالمعنى النظري أو الإحصائي؛ ففي الممارسة السريرية، قد يضطر الطبيب إلى اتخاذ قرار لا يحقق التوازن بين جميع الخيارات، بل يركّز على إنقاذ حالة محددة في لحظة حرجة، حتى لو جاء ذلك على حساب اعتبارات أخرى. وهذا النوع من القرارات يعتمد على السياق، وعلى تقدير المخاطر، وعلى فهم الحالة الفردية للمريض.

في المقابل، تميل الخوارزميات بطبيعتها إلى البحث عن التوازن، وإلى تقديم توصيات تستند إلى الأنماط العامة والنتائج الأكثر ترجيحاً على مستوى المجموعات. وهنا يظهر التحدي الحقيقي: الفارق بين قرار يُبنى على حساب الاحتمالات... وقرار يُتخذ في مواجهة حالة إنسانية فردية.

الخاتمة: من يعرّف الأخلاق؟

قد تضع الاجتماعات العالمية أطراً عامة، وقد ترسم الاستراتيجيات مسارات للتطوير، لكن القرار الطبي سيبقى (في جوهره) لحظة إنسانية لا يمكن اختزالها بالكامل في نموذج حسابي. فالذكاء الاصطناعي قادر على دعم القرار وتحسين دقته، لكنه لا يستطيع أن يحدد بمفرده ما هو القرار الصحيح في كل سياق سريري.

وفي الوقت الذي تدخل فيه الأخلاقيات إلى تصميم الخوارزميات، لا يعود التحدي تقنياً فقط، بل يصبح سؤالاً أعمق يتعلق بالمرجعية ذاتها: من يملك حق تعريف الأخلاق... عندما تتحول إلى جزء من الرموز الكومبيوترية؟


الذكاء الاصطناعي أداة قوية لتنفيذ الأهداف الطموحة

الذكاء الاصطناعي أداة قوية لتنفيذ الأهداف الطموحة
TT

الذكاء الاصطناعي أداة قوية لتنفيذ الأهداف الطموحة

الذكاء الاصطناعي أداة قوية لتنفيذ الأهداف الطموحة

حديثاً، طرح أحد المدرسين على الطلاب سؤالاً بسيطاً حول الذكاء الاصطناعي، خلال تدريسه لأحد مواضيع العلوم الإنسانية: «هل لاحظتم أنكم تُصبحون أكثر تعلقاً ببرامج الدردشة الآلية المُفضلة لديكم؟ على سبيل المثال: هل تجدون أنفسكم تُرددون كلمتَي: «من فضلك»، و«شكراً»، لبرامج الدردشة الآلية أكثر من ذي قبل؟». أومأ جميع الطلاب تقريباً بالموافقة.

ثم سأل المدرس: «لماذا؟»، حينها رفعت إحدى الطالبات يدها وقالت: «حتى يتذكر الذكاء الاصطناعي عندما يسيطر أنني كنت لطيفة معه». وضحك الطلاب، ولكن ليس كلهم، كما كتب ويل جونسون*.

الخوف والتهويل حول الذكاء الاصطناعي

تميل المناقشات العامة حول الذكاء الاصطناعي إلى التأرجح بشدة بين التهويل الواعد والكارثة. فمن جهة، نرى وعوداً بإنتاجية وإبداع غير مسبوقين. ومن جهة أخرى، لا يخلو الأمر من تحذيرات بشأن البطالة الجماعية، وفقدان القدرة على التأثير البشري، وحتى انقراض جنسنا البشري.

في استطلاع رأي وطني أجريناه في ديسمبر (كانون الأول) شمل أكثر من 1600 أميركي، أفاد نحو 4 من كل 10 أشخاص بقلقهم البالغ إزاء التهديد الوجودي الذي يمثله الذكاء الاصطناعي للبشرية. ويُضاهي مستوى هذا القلق مستوى القلق الذي يشعر به كثيرون حيال تغير المناخ. والجدير بالذكر أن هذا القلق يتجاوز السن والدخل والعِرق والجنس والانتماء السياسي.

وتستحق هذه المخاوف اهتماماً جاداً، لذا ينبغي للحكومات وشركات التكنولوجيا مواصلة الاختبارات والإشراف والضمانات الصارمة، للتأكد من التطوير المسؤول لنماذج اللغة الضخمة.

ولكن التركيز حصرياً على أسوأ السيناريوهات قد يُغفل سؤالاً أكثر هدوءاً، وربما أكثر أهمية: هل يُساعد الذكاء الاصطناعي الناس على أن يصبحوا أكثر وعياً بأهدافهم؟

الذكاء الاصطناعي: الغاية والهدف

لاستكشاف هذا السؤال، قدَّمنا ​​مقياساً جديداً في استطلاع رأي شمل بالغين أميركيين: «مقياس الذكاء الاصطناعي من أجل غاية وهدف محددين»، AI for Meaningful Purpose Scale» (AMPS)».

يسأل المقياس عما إذا كان الناس يشعرون بأن الذكاء الاصطناعي يُساعدهم على تحقيق أهداف مهمة بالنسبة لهم، وتطوير مهارات يجدونها ذات مغزى، والبقاء على اتصال بقيمهم وشعورهم بالاتجاه.

على سبيل المثال: هل يُساعد الذكاء الاصطناعي المعلمين على قضاء وقت أطول مع الطلاب بدلاً من الأعمال الورقية؟ هل يُساعد مقدمي الرعاية على التعامل مع الأنظمة الصحية المعقدة؟ هل يُتيح لكبار السن فرصاً جديدة للإبداع والتعلم والتواصل؟ وهل يُساعد الشباب -الذين يُعتبرون اليوم الجيل الأكثر قلقاً في التاريخ الحديث- على إيجاد مسار حياة يبدو حقيقياً وقابلاً للتحقيق؟

تباين رأي الأجيال

كان التباين بين الأجيال لافتاً للنظر. فقد كان الشباب أكثر ترجيحاً بـ«نعم» بمرتين تقريباً من الجيل الأسبق، للقول بأن الذكاء الاصطناعي يدعم هذه الأهداف الأعمق. وكان الرجال أكثر ترجيحاً بمرتين من النساء، للحصول على درجة عالية في مقياس «AMPS».

ومن المرجح أن تعكس هذه الفجوة اختلافات في درجة الوصول المتاحة للتكنولوجيا، والتشجيع، والخيارات المبكرة، أكثر من كونها اختلافات جوهرية في الاهتمام أو القدرة. وهذه التفاوتات ليست قدراً محتوماً، ولكنها مؤشرات مبكرة. وإذا حدث وأصبح الذكاء الاصطناعي عاملاً مُضاعفاً لقوة الحياة الهادفة، فلن يحدث ذلك تلقائياً أو بشكل عادل.

كيف يُمكن للذكاء الاصطناعي أن يُؤثر في الرفاهية؟

لكن ما أثار دهشتنا أكثر هو مدى ارتباط درجات مقياس «AMPS» بمؤشرات أوسع للرفاهية. كان الأشخاص الحاصلون على درجات عالية في مقياس «AMPS» يعبِّرون بأكثر من الضعف عن شعور قوي لديهم بالاعتداد وقدرة التأثير الشخصي، والتواصل الاجتماعي، والأمل في المستقبل. بعبارة أخرى: كانوا يبدون أكثر أملاً في ازدهار حياتهم.

وهذا لا يعني أن الذكاء الاصطناعي يجعل الناس سعداء بطريقة سحرية، ولكنه يشير إلى أنه عندما يستخدم الناس الذكاء الاصطناعي بطرق تتوافق مع ما يهمهم حقاً، فإنهم يشعرون بمزيد من الكفاءة والتوجيه.

وجهات نظر متضاربة

ظهرت إحدى أكثر النتائج إثارة للاهتمام عند دراسة كيفية امتلاك الناس وجهات نظر متضاربة حول الذكاء الاصطناعي. كانت الأجيال الأكبر سناً التي كانت قلقة للغاية بشأن التهديد الوجودي للذكاء الاصطناعي، أقل عرضة بنسبة أقل من النصف لاستخدامه في خدمة ما يهمهم حقاً. أما بين الشباب، فلم يكن القلق بشأن الذكاء الاصطناعي مؤشراً على عدم الانخراط فيه.

وكان أفراد جيل الشباب قلقين بشأن مخاطر الذكاء الاصطناعي تماماً مثل كبار السن، ومع ذلك، كانوا لا يزالون يستخدمونه بنشاط للتعلم والنمو والسعي وراء أهدافهم.

مهارة تقبُّل حقيقتين متناقضتين

يُظهر لنا هذا أن الأجيال الشابة تبدو أكثر استعداداً لتقبُّل حقيقتين تبدوان متناقضتين في آن واحد: أن الذكاء الاصطناعي قد يشكل مخاطر جسيمة، وأنه لا يزال بإمكانه أن يكون أداة قوية لحياة كريمة. قد تُصبح هذه القدرة على التعايش مع التوتر -دون تفاؤل ساذج أو خوف مُشلّ- إحدى أهم مهارات عصر الذكاء الاصطناعي.

كيف سيبدو مستقبل الذكاء الاصطناعي؟

لن يتحدد مستقبل الذكاء الاصطناعي بما سيؤول إليه تطوير الآلات فحسب؛ بل إن كيفية استخدام البشر لها، والغايات التي يسعون لتحقيقها، ستؤثر أيضاً على مسار تطوره وتُشكّله.

إذا تعاملنا مع الذكاء الاصطناعي كمجرد تهديد، أو أداة لزيادة الكفاءة، فإننا نُفوّت فرصة ثمينة. ولكن إذا استخدمناه بوعي، فبإمكانه أن يُعزز الإنتاجية؛ بل والغاية أيضاً. فهو يمنح الناس شعوراً بالقدرة على التأثير، ويُضفي الأمل والتواصل في زمنٍ يندر فيه كل ذلك.

إذن، السؤال الحقيقي ليس ما إذا كان الذكاء الاصطناعي سيُغير حياتنا، فقد غيّرها بالفعل. السؤال هو: هل سنُصمم الذكاء الاصطناعي -ونُعلّم الناس استخدامه- بطرقٍ تُعزز إحساسنا بالمعنى والغاية بدلاً من أن تُمحوهما؟

* مجلة «فاست كومباني».


الصحافي أم الذكاء الاصطناعي: أيهما أفضل؟

الصحافي أم الذكاء الاصطناعي: أيهما أفضل؟
TT

الصحافي أم الذكاء الاصطناعي: أيهما أفضل؟

الصحافي أم الذكاء الاصطناعي: أيهما أفضل؟

يدور كثير من المناقشات حول ميزانيات التسويق اليوم في الشركات والمؤسسات، في سؤال واحد: هل نستثمر في توظيف كاتب؟ أم نترك للذكاء الاصطناعي كتابة المحتوى؛ خصوصاً أن النسخ المُولّدة بواسطة الذكاء الاصطناعي سريعة وغير مكلفة، كما يزعم مصمموها أنها تتحسن في محاكاة أسلوب الكتابة البشري؟ هكذا تساءلت ديانا كيلي ليفي*.

أسلوب الكتابة البشري- إنساني

هنا تكمن المشكلة؛ إذ قد يبدو أسلوب كتابة الذكاء الاصطناعي بشرياً، ولكن الكُتّاب الحقيقيين يدركون أن الصحافة ليست مجرد أسلوب كتابة؛ بل هي ممارسة مبنية على العلاقات مع المصادر، والخبرة في الموضوع، والتجربة العملية. وهي الممارسة التي تُنتج تفاصيل مُدهشة أو عبارة مؤثرة تُثير مشاعر القارئ.

بين محتوى المقال وعمق التفاعل

لقد ثبت أن الذكاء الاصطناعي قادر على محاكاة بنية المقال، ولكنه لا يُحاكي حدس شخص أمضى سنوات في إجراء مقابلات مع الخبراء، والاستماع إلى مخاوف الجمهور، والتعاون مع محررين ذوي خبرة، وفهم ما يُبقي القراء مُتفاعلين.

وغالباً ما يشعر الجمهور عندما يبدو المحتوى عاماً ومكرراً؛ لأنهم يرغبون في تعلم شيء جديد أو الاستمتاع. ونادراً ما تحقق النقاط المتكررة في مجال الذكاء الاصطناعي أياً من هذين الهدفين.

قيمة الصحافيين

هنا تكمن قيمة الصحافيين؛ إذ يعمل كثير من كتّاب ومحرري المجلات السابقين الآن مع الشركات التجارية كمسوقين للمحتوى. وهم يستخدمون مهاراتهم الصحافية لصياغة قصص تجذب الانتباه، وتشرح المواضيع المعقدة، وتترك القراء متشوقين للمزيد.

الصحفي- الخيار الأمثل

إليكم 6 أسباب تجعل الصحافي الخيار الأمثل لفريق المحتوى لديكم:

1- الصحافيون مدرَّبون على الكتابة للناس، لا لمحركات البحث:

تُعلّمك دراسة الصحافة -وسنوات العمل في غرف الأخبار وعلى صفحات المجلات– الكتابة للشخص الجالس أمامك. وهذا يعني كتابة فقرات افتتاحية آسرة تجذب القراء. ويعني أيضاً الانتقالات المنطقية التي تحافظ على انسيابية القراءة. ويتجلى ذلك في فقرات ختامية تجمع كل شيء معاً برؤية واضحة.

2- يتمتع الصحافيون بانضباط فطري:

تُدرّب ثقافة غرف الأخبار الصحافيين على الالتزام بالمواعيد النهائية كأمر لا يقبل المساومة. ويلازمهم هذا الانضباط في جميع المشاريع. ويعتبر الصحافيون سرعة التسليم معياراً أساسياً في العمل. لذا، ينبغي على المؤسسات التي تبحث عن محتوى عالي الجودة يلتزم بالمواعيد النهائية أن تفكر في توظيف صحافيين سابقين.

سهولة القراءة ومتعتها

3- تحويل المواضيع المعقدة إلى مقالات سهلة القراءة وممتعة:

يعرف الصحافيون كيفية تحويل المواضيع التقنية المعقدة إلى مقالات يفهمها القارئ العادي ويتذكرها. إذا كانت مؤسستك تعمل في مجال الصحة، أو التمويل، أو القانون، أو الصيدلة، أو تكنولوجيا الأعمال، أو أي مجال يتطلب تعلماً سريعاً، فإن هذه المهارة لا تُقدّر بثمن.

4- يعرف الصحافيون كيفية إيجاد المصادر واستخدامها:

لم يكن هناك وقت أفضل من الآن لإضافة مزيد من اقتباسات الخبراء إلى المحتوى الإعلامي. ويعرف الصحافيون كيفية تحديد المصادر المناسبة، وإجراء المقابلات، ودمج تلك الأفكار في المحتوى بطريقة سلسة وطبيعية. قد تستغرق هذه المهارات سنوات لتطويرها، ولكنها تُحسّن المحتوى بشكل ملحوظ.

عناوين جذابة

5- يعتقد الصحافيون أن كتابة العناوين رياضة أولمبية:

ما الفرق بين المحتوى الذي يجتذب الناس والمحتوى الذي يمرون به مرور الكرام؟ العناوين. يُدرك الصحافيون الذين عملوا في الصحف والمجلات مدى أهمية العنوان المناسب لجذب انتباه القارئ، وحثّه على شراء المنشور.

إنّ القدرة الفطرية على فهم المشاعر التي تدفع القارئ للنقر على مقال أو فتح رسالة إخبارية من أي مؤسسة، تنبع من سنوات من التجربة والملاحظات التحريرية.

6- إتقان أسلوب المؤسسة في التعامل والحفاظ على جاذبية المحتوى:

إنّ العمل في منشورات ومجالات مختلفة، ومع جمهور متنوع، يُعلّم الصحافيين المخضرمين تغيير النبرة والأسلوب باستمرار. عندما تُوظّف صحافياً للكتابة لمؤسستك، فإنك ستُقدّر إضفاءه طابعاً شخصياً على المحتوى، مع الحفاظ على النبرة والأسلوب المُحددين في وثائق المؤسسة.

يمكن لنماذج اللغة الكبيرة اتباع دليل لتطوير الأسلوب، ولكنها لا تستطيع مُحاكاة ما يحدث عندما يستمع الصحافي إلى قصة شخص ما، ويُحوّل تلك المُحادثة إلى محتوى يتفاعل معه جمهورك، ويرغب في قراءته مُجدداً.

* «إنك»، خدمات «تريبيون ميديا».