حين تدخل الأخلاقيات قاعة الخوارزميات… من يقرّر في الطب الجديد؟

قراءة في «استراتيجية منظمة الصحة العالمية للصحة الرقمية 2028 - 2033»

بين قرار الإنسان وخوارزمية العالم
بين قرار الإنسان وخوارزمية العالم
TT

حين تدخل الأخلاقيات قاعة الخوارزميات… من يقرّر في الطب الجديد؟

بين قرار الإنسان وخوارزمية العالم
بين قرار الإنسان وخوارزمية العالم

لم يكن الاجتماع الذي عقدته «منظمة الصحة العالمية» في الأول من أبريل (نيسان) 2026، مجرد لقاء تقني لمناقشة مستقبل الصحة الرقمية، بل بدا أقرب إلى لحظة مراجعة عالمية لسؤال يتجاوز التكنولوجيا نفسها: مَن يملك القرار عندما تدخل الخوارزميات إلى قلب الطب؟

مشهد عالمي... وسؤال واحد

في تلك المشاورات التي جمعت حكومات، وشركات، وخبراء، وممثلين عن المجتمع المدني، لم يكن النقاش حول أدوات أو منصات، بل حول شيء أعمق بكثير: كيف يمكن تحويل الأخلاق من مبادئ تُكتب إلى شروط تُبرمج داخل الأنظمة؟

وللمرة الأولى، لم تعد الأخلاقيات هامشاً مكمّلاً للتقنية، بل أصبحت في صلبها.

لكن خلف هذا المشهد التوافقي الهادئ، يظل سؤال أكثر إرباكاً يفرض نفسه: هل يمكن فعلاً الاتفاق على أخلاقيات عالمية... في عالم لا يتفق حتى على معنى القرار الطبي نفسه؟

من التقنية إلى الأخلاق: تحوّل في مركز الثقل

ما يلفت الانتباه في هذه الاستراتيجية ليس ما تقوله عن التكنولوجيا، بل ما تكشفه من تحوّل في طريقة التفكير؛ فبعد سنوات كان التركيز فيها منصبّاً على توسيع استخدام الأنظمة الرقمية، تتحول البوصلة اليوم نحو مفاهيم أكثر عمقاً: العدالة، والثقة، والشمول، وحوكمة البيانات. لم يعد السؤال كيف نستخدم التقنية؟ بل: كيف نضبطها؟

الوثيقة تدعو إلى نموذج «متعدد الأطراف»، لا يقتصر فيه القرار على الحكومات، بل يمتد ليشمل القطاع الخاص، والمجتمع المدني، والمؤسسات الأكاديمية، في محاولة لبناء نظام صحي رقمي يعكس تعقيد الواقع العالمي، لا في صورته النظرية المبسطة. لكن هذا الطموح، رغم وجاهته، يكشف مفارقة دقيقة: فإذا شارك الجميع في القرار... فمن يتحمل نتيجته؟

حين يتوقف القراروتبدأ الأسئلة

وهم الإجماع: عندما يصبح الجميع مسؤولاً... ولا أحد مسؤول

في الظاهر، يبدو النموذج التشاركي مثالياً؛ فهو يعزز الشفافية، ويحدّ من الانحياز، ويمنح القرار طابعاً جماعياً مطمئناً. لكن في العمق، يحمل هذا النموذج مفارقة دقيقة؛ حين تتوزع المسؤولية على الجميع... قد تختفي. فالقرار الطبي، بطبيعته، لا يحتمل الغموض. في لحظة التشخيص أو التدخل العلاجي، لا يمكن للطبيب أن يستند إلى «إجماع خوارزمي»، ولا إلى رأي موزّع بين أنظمة متعددة. هناك دائماً لحظة حاسمة يتحمل فيها إنسان واحد مسؤولية الاختيار.

وهنا يظهر التوتر بين عالمين لا يلتقيان بسهولة: عالم الخوارزميات الذي يميل إلى توزيع القرار، وعالم الطب الذي يقوم (في جوهره) على تحمّل مسؤوليته.

حين تتقدم القدرة... ويتأخر الفهم

أصبح الذكاء الاصطناعي قادراً على تحليل البيانات الطبية بدقة غير مسبوقة، واقتراح قرارات قد تتفوق في بعض الحالات على التقدير البشري، خصوصاً في قراءة الصور الطبية أو ربط المؤشرات المعقدة في السجلات الصحية.

لكن هذه القدرة التقنية، رغم أهميتها، لا تعني بالضرورة فهماً كاملاً لما يحدث في الواقع السريري. فالأنظمة الذكية لا تعيش نتائج قراراتها، ولا تتعامل مع المريض بوصفه تجربة إنسانية متكاملة، بل كبيانات قابلة للتحليل. إنها قادرة على الحساب، لكنها لا تدرك السياق. وتستطيع التنبؤ، لكنها لا تتحمل تبعات الخطأ.

وهنا يكمن التحدي الحقيقي في الطب الحديث: أن نمتلك أدوات قادرة على دعم القرار بدرجة عالية من الدقة، دون أن نخلط بين القدرة الحسابية... والفهم السريري الكامل لنتائج هذا القرار.

القرار... وما الذي لا تقوله الوثيقة؟

رغم شمول هذه الاستراتيجية، فإنها تترك عدداً من الأسئلة الجوهرية دون إجابة واضحة، وهي أسئلة تمسّ جوهر القرار الطبي نفسه.

- من يتحمل المسؤولية عند الخطأ؟

- ومن يملك صلاحية إيقاف النظام عندما تنحرف الخوارزمية عن المسار الصحيح؟

- ومتى يجب أن يمتنع الذكاء الاصطناعي عن تقديم التوصية، بدلاً من الاستمرار في إعطاء إجابة قد تكون مضللة؟

هذه الأسئلة لا تتعلق بالتقنية بقدر ما تتعلق بحدودها.

وفي هذا السياق، يبرز مفهوم «الصمت الخوارزمي» بوصفه أحد أهم التحديات المقبلة، وهو اللحظة التي يجب فيها على النظام الذكي أن يتراجع، لأن القرار يتجاوز نطاق البيانات التي بُني عليها، أو لأن درجة عدم اليقين أصبحت أعلى من أن تُترجم إلى توصية موثوقة.

الذكاء الاصطناعي لا يصل إلى الجميع

* نحو 30 في المائة من سكان العالم فقط يمتلكون البنية التحتية الرقمية والقدرات

التقنية التي تسمح بتطبيق التقنيات الذكية في الممارسة الطبية بشكل فعلي

وهم الشمول: هل العالم متساوٍ رقمياً؟

رغم أن هذه الاستراتيجية تدعو إلى شمول عالمي في تبني الصحة الرقمية والذكاء الاصطناعي، فإن الواقع يكشف مفارقة واضحة؛ فالتقديرات تشير إلى أن نحو 30 في المائة فقط من سكان العالم يمتلكون البنية التحتية الرقمية والقدرات التقنية التي تسمح بتطبيق هذه التقنيات في الممارسة الطبية بشكل فعلي.

وهنا يبرز سؤال لا يقل أهمية عن الأخلاقيات نفسها: كيف يمكن تحقيق «عدالة رقمية» في عالم غير متكافئ رقمياً من الأساس؟ فالدعوة إلى الشمول، رغم عدالتها النظرية، قد تحمل نتيجة معاكسة؛ إذ قد تؤدي عملياً إلى توسيع الفجوة بين أنظمة صحية متقدمة قادرة على توظيف الذكاء الاصطناعي لتحسين جودة الرعاية، وأخرى لا تزال تكافح لتوفير الحد الأدنى من الخدمات الطبية.

وفي هذا السياق، لا يعود الذكاء الاصطناعي مجرد أداة للتطوير، بل قد يتحول (من حيث لا يُقصد) إلى عامل جديد يعيد رسم خريطة العدالة الصحية على مستوى العالم.

بين العدالة... والحياة

من أكثر التحديات تعقيداً في الطب أن القرار «الأخلاقي» لا يكون دائماً «عادلاً» بالمعنى النظري أو الإحصائي؛ ففي الممارسة السريرية، قد يضطر الطبيب إلى اتخاذ قرار لا يحقق التوازن بين جميع الخيارات، بل يركّز على إنقاذ حالة محددة في لحظة حرجة، حتى لو جاء ذلك على حساب اعتبارات أخرى. وهذا النوع من القرارات يعتمد على السياق، وعلى تقدير المخاطر، وعلى فهم الحالة الفردية للمريض.

في المقابل، تميل الخوارزميات بطبيعتها إلى البحث عن التوازن، وإلى تقديم توصيات تستند إلى الأنماط العامة والنتائج الأكثر ترجيحاً على مستوى المجموعات. وهنا يظهر التحدي الحقيقي: الفارق بين قرار يُبنى على حساب الاحتمالات... وقرار يُتخذ في مواجهة حالة إنسانية فردية.

الخاتمة: من يعرّف الأخلاق؟

قد تضع الاجتماعات العالمية أطراً عامة، وقد ترسم الاستراتيجيات مسارات للتطوير، لكن القرار الطبي سيبقى (في جوهره) لحظة إنسانية لا يمكن اختزالها بالكامل في نموذج حسابي. فالذكاء الاصطناعي قادر على دعم القرار وتحسين دقته، لكنه لا يستطيع أن يحدد بمفرده ما هو القرار الصحيح في كل سياق سريري.

وفي الوقت الذي تدخل فيه الأخلاقيات إلى تصميم الخوارزميات، لا يعود التحدي تقنياً فقط، بل يصبح سؤالاً أعمق يتعلق بالمرجعية ذاتها: من يملك حق تعريف الأخلاق... عندما تتحول إلى جزء من الرموز الكومبيوترية؟


مقالات ذات صلة

«أوبن إيه آي» تطلق نموذجها الجديد لتوليد الصور «Images 2.0»

تكنولوجيا إطلاق «إيمجز 2.0»: صور أدق ودعم أفضل للعربية (أ.ب)

«أوبن إيه آي» تطلق نموذجها الجديد لتوليد الصور «Images 2.0»

أعلنت شركة «أوبن إيه آي» (OpenAI) عن إطلاق نموذجها الجديد لتوليد الصور تحت اسم «Images 2.0».

عبد العزيز الرشيد (الرياض)
الولايات المتحدة​ شعار تطبيق «تشات جي بي تي» (رويترز)

فلوريدا تحقق في دور «تشات جي بي تي» في إطلاق نار جماعي في إحدى جامعاتها

أعلنت فلوريدا أنها فتحت تحقيقا جنائيا لمعرفة ما إذا كان الذكاء الاصطناعي أدى دورا في إطلاق نار جماعي في إحدى جامعات الولاية الأميركية.

«الشرق الأوسط» (ميامي)
علوم البحث المدعوم بالذكاء الاصطناعي يعاني … «مشكلة ثقة»

البحث المدعوم بالذكاء الاصطناعي يعاني … «مشكلة ثقة»

المنصات الفائزة ستكون تلك التي تربط المستخدمين بسلاسة بتجارب حقيقية من العالم الواقعي مستخدمةً الذكاء الاصطناعي جسراً إلى محتوى بشري موثوق

«الشرق الأوسط» (واشنطن)
الاقتصاد سفينة شحن في ميناء كيلونغ (رويترز)

طلبات التصدير التايوانية تقفز لأسرع وتيرة منذ 16 عاماً بدعم الذكاء الاصطناعي

سجلت طلبات التصدير التايوانية في مارس أسرع وتيرة نمو منذ أكثر من 16 عاماً، لتبلغ مستوى قياسياً جديداً.

«الشرق الأوسط» (تايبيه )
علوم ما السبب الحقيقي لفشل مبادرات الذكاء الاصطناعي في المؤسسات؟

ما السبب الحقيقي لفشل مبادرات الذكاء الاصطناعي في المؤسسات؟

الأدوات الذكية نجحت ببراعتها مع فرد ولم تثبت فاعليتها مع مجموعات العمل

إنريكي دانس

«ناسا» تكشف عن تلسكوب سيوفر «أطلساً جديداً للكون»

صحافي يلتقط صورة للتلسكوب الفضائي الجديد «رومان» (أ.ف.ب)
صحافي يلتقط صورة للتلسكوب الفضائي الجديد «رومان» (أ.ف.ب)
TT

«ناسا» تكشف عن تلسكوب سيوفر «أطلساً جديداً للكون»

صحافي يلتقط صورة للتلسكوب الفضائي الجديد «رومان» (أ.ف.ب)
صحافي يلتقط صورة للتلسكوب الفضائي الجديد «رومان» (أ.ف.ب)

كشفت وكالة الفضاء الأميركية (ناسا) عن تلسكوبها الفضائي الجديد «رومان» القادر على مسح أجزاء شاسعة من الكون بحثاً عن كواكب خارجية، وكذلك عن إجابات لأكبر الألغاز الفيزيائية المتمثلة في المادة والطاقة المظلمتين.

ونقلت «وكالة الصحافة الفرنسية» عن مدير «ناسا» جاريد آيزاكمان قوله أمس (الثلاثاء) من مركز غودارد التابع للوكالة في ولاية ماريلاند (شرق الولايات المتحدة)، إن هذا التلسكوب من الجيل الأحدث «سيوفِّر لكوكب الأرض أطلساً جديداً للكون».

وسيُنقل التلسكوب الذي يتجاوز طوله 12 متراً والمزوَّد ألواحاً شمسية ضخمة إلى فلوريدا، تمهيداً لإرساله إلى الفضاء في أقرب وقت مطلع سبتمبر (أيلول)، بواسطة صاروخ تابع لشركة «سبيس إكس».

وأُطلقت تسمية «رومان» على هذا التلسكوب الذي فاقت تكلفته 4 مليارات دولار، تيمناً بنانسي غريس رومان، إحدى أهم عالمات الفلك الأميركيات، والملقبة بـ«أم هابل»، نسبة إلى تلسكوب «هابل» الشهير التابع لـ«ناسا».

ومن نقطة مراقبة تبعد 1.5 مليون كيلومتر عن كوكب الأرض، سيمسح «رومان» مناطق شاسعة من السماء، بفضل مجال رؤيته الواسع الذي يفوق مجال رؤية «هابل» بأكثر من مائة مرة.

وقال مهندس الأنظمة في مهمة «رومان» مارك ميلتون، لـ«وكالة الصحافة الفرنسية»، إن التلسكوب الجديد سيُرسِل إلى الأرض «11 تيرابايت من البيانات يوميّاً، ما يعني أن كمَّ البيانات التي سيوفِّرها في السنة الأولى وحدها يفوق ما جمعه تلسكوب هابل طوال فترة عمله» منذ دخوله الخدمة قبل 35 عاماً.

وتوقَّعت المسؤولة عن الأنشطة العلمية في «ناسا» نيكي فوكس، أن يتيح «رومان» بفضل عدسته الواسعة الزاوية «اكتشاف عشرات الآلاف من الكواكب الجديدة»، فضلاً عن «آلاف المستعرات العظمى» أي النجوم الضخمة التي شارفت دورة حياتها نهايتها.

لكنَّ «رومان» يهدف أيضاً إلى دراسة ما هو غير مرئي، أي دراسة المادة والطاقة المظلمتين اللتين يُعتقد أنهما تمثِّلان 95 في المائة من الكون.

وبفضل الأشعة تحت الحمراء، سيتمكَّن «رومان» من رصد الضوء المنبعث من أجرام سماوية قبل مليارات السنين، والعودة بذلك إلى الماضي، لفهم هاتين الظاهرتين الغامضتين بصورة أفضل.


دراسة: دخان حرائق الغابات قد يرفع خطر الإصابة بأنواع من السرطان

جانب من حرائق غابات في إزمير (إكس)
جانب من حرائق غابات في إزمير (إكس)
TT

دراسة: دخان حرائق الغابات قد يرفع خطر الإصابة بأنواع من السرطان

جانب من حرائق غابات في إزمير (إكس)
جانب من حرائق غابات في إزمير (إكس)

خلصت دراسة قدمت في اجتماع الجمعية الأميركية لأبحاث السرطان في سان دييغو إلى أن التعرض للدخان الناتج عن حرائق الغابات يرتبط بارتفاع كبير في مخاطر الإصابة بعدة أنواع من السرطان.

وحلل الباحثون بيانات عن انتشار الإصابة بالسرطان من تجربة فحص سرطان البروستاتا والرئة والقولون والمستقيم والمبيض، والتي تتعقب حالات التشخيص الجديدة بالسرطان لدى بالغين في أنحاء الولايات المتحدة ليس لديهم تاريخ سابق من الإصابة بالأورام الخبيثة.

ولتحديد مقدار التعرض لدخان حرائق الغابات، أجرى الباحثون تقييما للجسيمات الدقيقة والكربون الأسود في الجو باستخدام بيانات تلوث الهواء على مستوى سطح الأرض من الأحياء التي يعيش فيها المشاركون، إلى جانب صور الأقمار الصناعية التي ساعدت في حساب عدد الأيام التي تعرضت فيها مناطق إقامتهم للدخان.

ومن بين 91460 مشاركا تم تسجيل بياناتهم بين عامي 2006 و2018، ارتبط التعرض لدخان حرائق الغابات بشكل كبير بزيادة خطر الإصابة بسرطان الرئة والقولون والمستقيم والثدي والمثانة والدم، ولكن ليس بسرطان المبيض أو الجلد.

ووجد الباحثون أيضا أن خطر الإصابة بهذه الأنواع من السرطان يزداد مع ارتفاع مستوى تلوث الهواء الناتج عن الحرائق.

وقال رئيس الدراسة تشي تشن وو من مركز السرطان الشامل بجامعة نيو مكسيكو في بيان «الرسالة الرئيسية هي أن دخان حرائق الغابات ليس مجرد مشكلة قصيرة الأمد تتعلق بالجهاز التنفسي أو القلب والأوعية الدموية. فقد ينطوي التعرض المزمن له أيضا على مخاطر الإصابة بالسرطان على المدى الطويل».

وأضاف «من الملحوظ أن زيادة خطر الإصابة بالسرطان قد تحدث حتى عند مستويات منخفضة نسبيا من دخان حرائق الغابات (الجسيمات الدقيقة) التي يتعرض لها السكان عادة».

وأشار وو أيضا إلى أن مصدر ومكونات دخان حرائق الغابات تختلف باختلاف المناطق الجغرافية، وقد تتأثر الصحة أيضا بالمركبات والتحولات الكيميائية التي تحدث للدخان أثناء انتشاره.


البحث المدعوم بالذكاء الاصطناعي يعاني … «مشكلة ثقة»

البحث المدعوم بالذكاء الاصطناعي يعاني … «مشكلة ثقة»
TT

البحث المدعوم بالذكاء الاصطناعي يعاني … «مشكلة ثقة»

البحث المدعوم بالذكاء الاصطناعي يعاني … «مشكلة ثقة»

استخدم ما يقرب من ثلثي البالغين الأميركيين أداة بحث مدعومة بالذكاء الاصطناعي خلال الأشهر الستة الماضية. ولكن الإحصائية المثيرة لمطوري هذه الأدوات: 15 في المائة فقط يقولون إنهم يثقون بالنتائج «ثقة تامة». وتُمثل هذه الفجوة بين الاستخدام والثقة التحدي الأكبر في المرحلة المقبلة من البحث المدعوم بالذكاء الاصطناعي. فالمستهلكون يُقبلون على هذه التقنية، لكنهم يُشككون في النتائج، كما كتب كريغ سالدانها (*).

وعلى مطوري هذه المنتجات، طرح سؤال مُحرج على أنفسهم: هل إنهم يصممون تجارب تكسب ثقة المستهلكين، وتستحقها؟

«حديقة مسوّرة»

تعاونت شركة Yelp مع Morning Consult لإجراء استطلاع رأي شمل أكثر من 2200 بالغ أميركي حول كيفية استخدامهم البحث المدعوم بالذكاء الاصطناعي ونظرتهم إليه. وتشير النتائج إلى مشكلة واحدة مُتكررة: يشعر المستهلكون بأنهم مُحاصرون.

أكثر من نصف المشاركين في الاستطلاع (51 في المائة) يقولون إن نتائج البحث المدعومة بالذكاء الاصطناعي تبدو وكأنها «حديقة مسوّرة» يصعب معها التحقق مما يقرأونه.

صعوبة التحقق من الإجابات

  • يقول 63 في المائة إنهم يتحققون من نتائج البحث المدعومة بالذكاء الاصطناعي بالرجوع إلى مصادر موثوقة أخرى، مثل مواقع الأخبار ومنصات التقييم.
  • ويشير 57 في المائة إلى أنهم أقل ميلاً لاستخدام البحث المدعوم بالذكاء الاصطناعي تحديداً لافتقاره إلى مصادر موثوقة.

في البدايات، أي في الأيام الأولى لعمليات البحث المدعوم بالذكاء الاصطناعي، اتسمت النتائج بالغموض، حيث كانت النماذج تُلفّق الإجابات بثقة. وتمكنت معظم المنصات الرائدة من حل هذه المشكلة التقنية إلى حد كبير. لكن ما زال هناك شك أعمق: ليس فقط «هل هذه الإجابة صحيحة؟»، بل «كيف لي أن أعرف؟»؛ إذ وعندما تُزيل المنصات المصادر والاقتباسات والروابط إلى المحتوى الواقعي الذي استندت إليه إجاباتها، فإنها تبني جدراناً لا جسوراً. يُعبّر المستهلكون بوضوح عن رغبتهم في الحصول على الروابط والمصادر والقدرة على التحقق بأنفسهم.

«فتح الأبواب» للبيانات الموثقة

يرسم الاستطلاع صورة متسقة بشكل ملحوظ لما يلزم، لسد فجوة الثقة.

يقول ما يقرب من ثلاثة أرباع المشاركين في الاستطلاع (72 في المائة) إن منصات الذكاء الاصطناعي يجب أن تُظهر دائماً مصدر معلوماتها.

  • يرغب ثلثا المشاركين (66 في المائة) في مزيد من الأدلة على المصادر الموثوقة، مثل روابط منصات التقييم ومواقع الأخبار، إلى جانب الإجابات التي يُقدمها الذكاء الاصطناعي.
  • بينما يقول أكثر من نصفهم (52 في المائة) إن الأدلة المرئية، مثل صور الطبق الغذائي، أو صور مصاحبة لطلباتهم، من شأنها أن تزيد من ثقتهم.

والمستهلكون ليسوا ضد الذكاء الاصطناعي، بل ضد الأنظمة المبهمة. إنهم يريدون أن يقوم الذكاء الاصطناعي بالعمل الشاق المتمثل في تحليل كميات هائلة من المعلومات ثم عرض النتائج.

لا يستخدم الشخص العادي الذكاء الاصطناعي لتحليل الشفرات أو غيرها من التطبيقات التقنية، بل يستخدمه في عمليات البحث المحلية اليومية.

استخدام محلّي يومي

  • يستخدم أكثر من نصف المشاركين في الاستطلاع (57 في المائة) أدوات الذكاء الاصطناعي للعثور على الشركات المحلية شهرياً على الأقل. إنهم يريدون نصائح حول مكان اصطحاب عائلاتهم لتناول عشاء عيد ميلاد أو اختيار من يسمحون له بدخول منزلهم لإصلاح أنبوب مياه متفجر؛ ولذا لن يكون ملخص الذكاء الاصطناعي المستقل دون دليل موثوق كافياً.

مصادر المعلومات

وعندما يلجأ المستهلكون إلى الذكاء الاصطناعي للمساعدة في اتخاذ هذه القرارات، تكون توقعاتهم واضحة لا لبس فيها:

  • 76 في المائة منهم يرون أن معرفة مصدر المعلومات أمرٌ بالغ الأهمية،
  • و73 في المائة يؤكدون على أهمية تقييمات وآراء الزبائن الحقيقيين

و76 في المائة يرون أهمية الاطلاع على مصادر موثوقة متعددة.

كما أن الشركات المحلية تتسم بطبيعتها بالديناميكية، حيث قد يرحل العاملون، وتتغير العروض (مثل انتقال الطهاة وتغيّر قوائم الطعام)، وتتغير ساعات العمل. لذا وبدون محتوى بشري أصيل ومُحدّث بانتظام من مصادر موثوقة، يُخاطر الذكاء الاصطناعي بتقديم معلومات قديمة أو غير موثوقة.

أجوبة جيل الإنترنت

وإذا كان أحدٌ يظن أن جيل الإنترنت، سيكون أكثر ثقة، فإن البيانات تُشير إلى عكس ذلك. يتمتع جيل الشباب بأعلى معدل استخدام:

  • استخدم 84 في المائة منهم منصة بحث تعتمد على الذكاء الاصطناعي خلال الأشهر الستة الماضية.
  • لكنهم أيضاً الأكثر تطلباً؛ إذ يقول 72 في المائة منهم إن منصات الذكاء الاصطناعي يجب أن تُقدّم المزيد من الأدلة على المصادر الموثوقة، مقارنةً بـ63 في المائة من جيل الألفية و59 في المائة من «جيل إكس» السابقين له.

إن هذا جيلٌ مُتشبّعٌ بمحتوى الذكاء الاصطناعي الرديء، وقد طوّر أفراده حساً أقوى في التمييز بين المعلومات الأصلية والمُصطنعة. لذا؛ تُخاطر المنصات التي تُبقي هذه الفئة من الجمهور داخل بيئة مغلقة، بفقدان الجيل الأكثر إلماماً بالذكاء الاصطناعي أولاً.

قصور الحُجّة المضادة

قد يجادل البعض بأن إضافة الاقتباسات والروابط ومؤشرات المصادر تخلق عوائق، وأن جوهر البحث المدعوم بالذكاء الاصطناعي يكمن في تقديم إجابة سلسة ومتكاملة. فلماذا إذن ندفع المستخدمين بعيداً عن منصتنا؟ لكن هذا الطرح يخلط بين القيود وقيمة ما يقدم.

لا يرفض المستهلكون الملخصات التي يُنشئها الذكاء الاصطناعي، بل يرفضون الإجابات التي لا يمكنهم التحقق منها.

  • غالبية المستهلكين (69 في المائة) يرغبون في خيار مغادرة منصات الذكاء الاصطناعي وزيارة مواقع موثوقة لإجراء بحوثهم الخاصة. وعندما اختبرنا ذلك عملياً، وعرضنا على المستهلكين نسختين من نتائج بحث الذكاء الاصطناعي، إحداهما بمصادر شفافة والأخرى من دونها، فضّل 80 في المائة النسخة التي تضمنت محتوى بشرياً أصيلاً ومصادر موثوقة وروابط قابلة للتنفيذ. إن إزالة القيود لا تُنفّر المستخدمين، بل تُعزز ثقتهم.

ربط الذكاء الاصطناعي بتجارب الواقع

يقف قطاع الذكاء الاصطناعي على مفترق طرق. ولن تكون المنصات الفائزة هي تلك التي تُنتج إجابات اصطناعية أكثر إقناعاً. بل ستكون هذه المنصات تلك التي تربط المستخدمين بسلاسة بتجارب حقيقية من العالم الواقعي، مستخدمةً الذكاء الاصطناعي جسراً إلى محتوى بشري موثوق.

مع نضوج منظومة الذكاء الاصطناعي، لن تقتصر المنصات التي تُحقق التوازن الأمثل بين الملخصات المُولّدة بالذكاء الاصطناعي والمحتوى البشري الشفاف والأصيل على سدّ فجوة الثقة فحسب، بل ستضع معياراً لما يتوقعه المستهلكون.

الشفافية تسهل اتخاذ القرارات

والخبر السار هو أن زيادة الروابط الشفافة والسخية تُعدّ مدًّا متصاعداً يُفيد الجميع: إذ يحصل المستهلكون على القدرة على إجراء أبحاثهم الخاصة واتخاذ قراراتهم بثقة، ويحصل مُنشئو المحتوى والناشرون على الزيارات التي تُحافظ على منظومة محتوى صحية، وتستفيد منصات الذكاء الاصطناعي نفسها من علاقات أقوى مع المصادر الموثوقة التي تجعل إجاباتها جديرة بالثقة في المقام الأول.

الشفافية ليست خياراً ثانوياً، بل هي أساس النجاح.

* مجلة «فاست كومباني»