10 اتجاهات للذكاء الاصطناعي الأكثر تأثيراً في عام 2024

انطلاقة كبرى في تشخيص الأمراض وإبداعات الفن الرقمي

نظم الذكاء الاصطناعي متعدد الوسائط تولِّد الأصوات والنصوص والصور والفيديو وتبدع الفنون الرقمية
نظم الذكاء الاصطناعي متعدد الوسائط تولِّد الأصوات والنصوص والصور والفيديو وتبدع الفنون الرقمية
TT

10 اتجاهات للذكاء الاصطناعي الأكثر تأثيراً في عام 2024

نظم الذكاء الاصطناعي متعدد الوسائط تولِّد الأصوات والنصوص والصور والفيديو وتبدع الفنون الرقمية
نظم الذكاء الاصطناعي متعدد الوسائط تولِّد الأصوات والنصوص والصور والفيديو وتبدع الفنون الرقمية

لا تزال اتجاهات الذكاء الاصطناعي تعيد تعريف المشهد التكنولوجي والعلمي؛ إذ إن الابتكارات التي تعزز بشكل كبير قدرات البرمجيات تؤثر بصورة كبيرة على الأنشطة البشرية في مختلف القطاعات.

مع مُضيِّنا قُدماً في عام 2024، فإن البقاء في صدارة الاتجاهات الرئيسية لتطوير هذه التكنولوجيا اليوم أمر ضروري لكل المهنيين والشركات التي تهدف إلى الاستفادة من أحدث التقنيات، لدفع عجلة النمو والابتكار.

اتجاهات الذكاء الاصطناعي

فيما يلي نظرة سريعة على أهم اتجاهات الذكاء الاصطناعي للعام الحالي، وآثارها المحتملة، وفقاً لتقرير عرضته مجلة «إي ويك» الإلكترونية:

1- حضور متزايد: يعزز الذكاء الاصطناعي التوليدي حضوره الذي يحظى بشعبية كبيرة بالفعل، فإنشاء المحتوى الأكثر الدقة والأتمتة والتنفيذ الأكثر كفاءة في قطاعات مثل المجال الطبي، يتطور بسرعة.

2- للمستخدمين وصنّاع القرار: يعمل الذكاء الاصطناعي متعدد الوسائط على زيادة ربط أنواع البيانات بتفاعلات أكثر ثراء؛ إذ إن تعزيز قدرة الذكاء الاصطناعي على فهم أشكال متعددة من البيانات والتفاعل معها واستخدامها، يعمل على تحسين تجارب المستخدمين وعمليات صنع القرار.

3- الأمن الرقمي: يعزز الأمن السيبراني الموجه بالذكاء الاصطناعي الأمن الرقمي؛ إذ يقدم الذكاء الاصطناعي مزيداً من الدقة في الكشف عن التهديدات، وحلولاً أكثر استقلالية للأمن السيبراني، للمساعدة في الاستجابة للتهديدات السيبرانية بشكل أكثر كفاءة.

4- توسيع نطاق الذكاء الاصطناعي المدمج، والذكاء الاصطناعي الذي يركز على تجارب المستخدم: إن الإدماج المباشر للذكاء الاصطناعي في واجهات المستخدم والعمليات التشغيلية، يعزز الكفاءة وتجربة المستخدم إلى حد بعيد.

المشاركة الجماعية والجوانب الأخلاقية

5- تطور عملية المشاركة الجماعية في مجال الذكاء الاصطناعي، وإمكانية الوصول إلى أدواته على نطاق واسع: إن زيادة إمكانية الوصول إلى أدوات الذكاء الاصطناعي القوية، بما يتجاوز شركات التكنولوجيا الكبرى، تعزز الابتكار عبر جميع أحجام الأعمال.

6- دمج الرؤية الحاسوبية والأتمتة الفائقة في التصنيع: يعمل الذكاء الاصطناعي على تحويل التصنيع التقليدي، عبر الأتمتة المتطورة والدقة المعززة.

7- خطورة ارتفاع الذكاء الاصطناعي في اقتصاد الظل: هناك حاجة إلى سياسات أكثر قوة للتصدي للتحديات التي يفرضها استخدام تكنولوجيات الذكاء الاصطناعي غير المصرح بها داخل المؤسسات.

8- النمو في الذكاء الاصطناعي مفتوح المصدر: يحدث قدر أكبر من الابتكار والتعاون، بسبب توفر مصادر وأدوات الذكاء الاصطناعي مفتوحة المصدر.

9- تعزيز الامتثال والتوقعات الأخلاقية: تعمل الشركات على تطوير أدوات ذكاء اصطناعي مسؤولة وأكثر أخلاقية، للتوافق مع المعايير واللوائح العالمية.

10- تقلص حجم نماذج اللغة: تكتسب نماذج الذكاء الاصطناعي وظائف أكبر، حتى مع تصاميمها الأصغر حجماً، مما يوفر أداء أعلى بموارد أقل.

شعبية الذكاء الاصطناعي

ويمكن الخوض بشكل أعمق في الاتجاهات الثلاثة الأولى.

أولاً– يعزز الذكاء الاصطناعي التوليدي حضوره الذي يحظى بشعبية كبيرة بالفعل. وقد أدى تطويره إلى إحداث تغيير كبير في مختلف قطاعات الصناعة، وخصوصاً قطاعات مثل الرعاية الصحية والصناعات الإبداعية.

> في مجال الرعاية الصحية: يساعد في تشخيص الأمراض، وتسريع اكتشاف الأدوية، من خلال محاكاة الأنظمة البيولوجية المعقدة، وبالتالي تحديد الحالات المرشحة المحتملة لتطوير الأدوية بصورة أسرع.

> في المجالات الإبداعية: يعزز إنشاء المحتوى عبر مختلف الوسائط، مثل الفن الرقمي والموسيقى وإنتاج الفيديو، مما يتيح التخصيص عالي المستوى، وتوليد المحتوى الذي يتوافق بشكل وثيق مع تفضيلات المستخدم أو المستهلك.

> مخاوف أخلاقية: يزداد اهتمام المستخدمين بمجال الذكاء الاصطناعي التوليدي، ويرجع ذلك في المقام الأول إلى قدرته على أتمتة وتعزيز العمليات الإبداعية، ما يعني توفيراً كبيراً للوقت والتكلفة وإمكانات جديدة للتخصيص.

ومع ذلك، فإن تبنِّي الذكاء الاصطناعي التوليدي على نطاق واسع يثير مخاوف أخلاقية؛ لا سيما فيما يتعلق بدقة إنتاجه وأصالته، واحتمال ضياع الوظائف في المجالات الإبداعية. كما تشكل هذه التكنولوجيا أيضاً مخاطر إساءة الاستخدام، مثل خلق المحتوى المزيف تزييفاً عميقاً، والذي يمكن أن تكون له آثار اجتماعية خطيرة.

> ثورة التصميم والتسويق: بالنسبة للشركات، يَعِد الذكاء الاصطناعي التوليدي بمواصلة إحداث ثورة في تصميم المنتجات، والتسويق، وإشراك العملاء من خلال تمكين خلق تجارب المستخدمين الأكثر تكيفاً وابتكاراً.

ومع ذلك، يجب على الشركات أن تكون حذرة في استخدام الذكاء الاصطناعي التوليدي. ويجب عليها التعامل مع الاعتبارات الأخلاقية وردود الفعل السلبية المحتملة من إساءة استخدام تكنولوجيات الذكاء الاصطناعي، وضمان استخدام الذكاء الاصطناعي التوليدي بطريقة تعزز سلامة العلامة التجارية وثقة العملاء.

تفاعلات أكثر ثراء

ثانياً- يعمل الذكاء الاصطناعي متعدد الوسائط على زيادة ربط أنواع البيانات بتفاعلات أكثر ثراء.

يعالج الذكاء الاصطناعي متعدد الوسائط أنواعاً متعددة من مدخلات البيانات، مثل النصوص والصور والصوتيات، ويدمجها.

> تفهُّم القدرات الحسية والمعرفية البشرية: وقد اكتسب ذلك الاتجاه من الذكاء الاصطناعي زخماً، مع إدراك الشركات قيمة إنشاء أنظمة ذكاء اصطناعي أكثر دقة ووعياً بالسياق، يمكنها أن تفهم وتتفاعل بطرق تعكس القدرات الحسية والمعرفية البشرية. يتيح دمج أنواع البيانات المختلفة فهماً واستجابة أكثر شمولاً من أنظمة الذكاء الاصطناعي. والفائدة هي تحسين تجارب المستخدمين ودعم اتخاذ القرار. ومع ذلك، فإن تعقيد تصميم هذه الأنظمة يقدم تحديات من حيث تكامل البيانات، وقوة المعالجة، والحفاظ على الخصوصية عبر تدفقات البيانات المختلفة.

> تفاعل مع البشر والمنتجات: مع نمو الذكاء الاصطناعي متعدد الوسائط، يمكننا أن نتوقع رؤية واجهات خدمة العملاء المعززة بشكل كبير وقدرات التفاعل مع المنتج.

الذكاء الاصطناعي متعدد الوسائط سيجعلها أكثر سهولة واستجابة؛ حيث يمكنه الاستفادة بشكل أفضل من الحواس البشرية المتعددة في وقت واحد. وبوسعنا أن نتوقع أيضاً أن نرى تقنيات مثل تطبيقات الإبداع وأدوات البحث تصبح أكثر سلاسة ودقة. إضافة إلى ذلك، يمكن أن يساعد الذكاء الاصطناعي المتعدد الوسائط الشركات على اتخاذ أوضاع أمان أكثر قوة؛ حيث إن الجمع بين أنواع البيانات يمكن أن يؤدي إلى اكتشاف أكثر شمولاً للتهديدات.

الأمن الرقمي

ثالثاً- يعزز الأمن السيبراني الموجه بالذكاء الاصطناعي الأمن الرقمي.

لقد تم دمج الذكاء الاصطناعي في بعض حلول الأمن السيبراني لبضع سنوات على الأقل الآن، ولكن أدوات الأمن السيبراني التي تعمل بالذكاء الاصطناعي أصبحت الآن أكثر شعبية بسرعة مع توسيع قدراتها.

> أمن رقمي بالذكاء الاصطناعي: من المتوقع أن ينمو سوق الأمن السيبراني الموجه بالذكاء الاصطناعي، من نحو 24 مليار دولار في عام 2023 إلى ما يقرب من 134 مليار دولار بحلول عام 2030. ويستخدم الأمن السيبراني الموجه بالذكاء الاصطناعي التعلم الآلي للتنبؤ بالتهديدات السيبرانية، واكتشافها، والاستجابة لها بسرعة وكفاءة أكبر من الطرق التقليدية. كما أن التهديدات السيبرانية لا تتباطأ؛ لا سيما مع تقاطع الذكاء الاصطناعي التوليدي والأمن السيبراني الذي يقدم مجموعة جديدة كاملة من التحديات القائمة على الذكاء الاصطناعي. وتصبح هذه التهديدات أكثر تعقيداً يوماً بعد يوم، وهو ما يتطلب تدابير أمنية أكثر ديناميكية وتكيفاً. ويعزز الذكاء الاصطناعي قدرات الكشف عن التهديدات، ويمكن أن يستجيب بشكل مستقل للتهديدات في الوقت الحقيقي. وهذا من شأنه أن يقلص إلى حد بعيد من فرصة المهاجمين لإلحاق الأذى.

> نقاط ضعف الذكاء الاصطناعي: في بعض الحالات، قد يشكل الاعتماد على الذكاء الاصطناعي للأمن مخاطر تتعلق بنقاط الضعف، والتحيزات المحتملة للذكاء الاصطناعي؛ حيث يمكن للمهاجمين استغلال هذه الثغرات في أنظمة الذكاء الاصطناعي، وتحويلها إلى تهديدات، واستخدام التحيزات لإحداث أقصى قدر من الضرر.

يمكن أن يساعد تطبيق حلول الأمن السيبراني الموجهة بالذكاء الاصطناعي الشركات على حماية البيانات والأنظمة المهمة بشكل أكثر فعالية، والحفاظ على الامتثال للمتطلبات التنظيمية المتطورة. ومع ذلك، تحتاج المؤسسات إلى تحديث ومراقبة أنظمة الذكاء الاصطناعي باستمرار، للحماية من التهديدات الناشئة، وضمان أن التدابير الأمنية لا ينتهي بها المطاف إلى الإخلال بخصوصية المستخدم أو سلامة النظام عن غير قصد.



حين تدخل الأخلاقيات قاعة الخوارزميات… من يقرّر في الطب الجديد؟

بين قرار الإنسان وخوارزمية العالم
بين قرار الإنسان وخوارزمية العالم
TT

حين تدخل الأخلاقيات قاعة الخوارزميات… من يقرّر في الطب الجديد؟

بين قرار الإنسان وخوارزمية العالم
بين قرار الإنسان وخوارزمية العالم

لم يكن الاجتماع الذي عقدته «منظمة الصحة العالمية» في الأول من أبريل (نيسان) 2026، مجرد لقاء تقني لمناقشة مستقبل الصحة الرقمية، بل بدا أقرب إلى لحظة مراجعة عالمية لسؤال يتجاوز التكنولوجيا نفسها: مَن يملك القرار عندما تدخل الخوارزميات إلى قلب الطب؟

مشهد عالمي... وسؤال واحد

في تلك المشاورات التي جمعت حكومات، وشركات، وخبراء، وممثلين عن المجتمع المدني، لم يكن النقاش حول أدوات أو منصات، بل حول شيء أعمق بكثير: كيف يمكن تحويل الأخلاق من مبادئ تُكتب إلى شروط تُبرمج داخل الأنظمة؟

وللمرة الأولى، لم تعد الأخلاقيات هامشاً مكمّلاً للتقنية، بل أصبحت في صلبها.

لكن خلف هذا المشهد التوافقي الهادئ، يظل سؤال أكثر إرباكاً يفرض نفسه: هل يمكن فعلاً الاتفاق على أخلاقيات عالمية... في عالم لا يتفق حتى على معنى القرار الطبي نفسه؟

من التقنية إلى الأخلاق: تحوّل في مركز الثقل

ما يلفت الانتباه في هذه الاستراتيجية ليس ما تقوله عن التكنولوجيا، بل ما تكشفه من تحوّل في طريقة التفكير؛ فبعد سنوات كان التركيز فيها منصبّاً على توسيع استخدام الأنظمة الرقمية، تتحول البوصلة اليوم نحو مفاهيم أكثر عمقاً: العدالة، والثقة، والشمول، وحوكمة البيانات. لم يعد السؤال كيف نستخدم التقنية؟ بل: كيف نضبطها؟

الوثيقة تدعو إلى نموذج «متعدد الأطراف»، لا يقتصر فيه القرار على الحكومات، بل يمتد ليشمل القطاع الخاص، والمجتمع المدني، والمؤسسات الأكاديمية، في محاولة لبناء نظام صحي رقمي يعكس تعقيد الواقع العالمي، لا في صورته النظرية المبسطة. لكن هذا الطموح، رغم وجاهته، يكشف مفارقة دقيقة: فإذا شارك الجميع في القرار... فمن يتحمل نتيجته؟

حين يتوقف القراروتبدأ الأسئلة

وهم الإجماع: عندما يصبح الجميع مسؤولاً... ولا أحد مسؤول

في الظاهر، يبدو النموذج التشاركي مثالياً؛ فهو يعزز الشفافية، ويحدّ من الانحياز، ويمنح القرار طابعاً جماعياً مطمئناً. لكن في العمق، يحمل هذا النموذج مفارقة دقيقة؛ حين تتوزع المسؤولية على الجميع... قد تختفي. فالقرار الطبي، بطبيعته، لا يحتمل الغموض. في لحظة التشخيص أو التدخل العلاجي، لا يمكن للطبيب أن يستند إلى «إجماع خوارزمي»، ولا إلى رأي موزّع بين أنظمة متعددة. هناك دائماً لحظة حاسمة يتحمل فيها إنسان واحد مسؤولية الاختيار.

وهنا يظهر التوتر بين عالمين لا يلتقيان بسهولة: عالم الخوارزميات الذي يميل إلى توزيع القرار، وعالم الطب الذي يقوم (في جوهره) على تحمّل مسؤوليته.

حين تتقدم القدرة... ويتأخر الفهم

أصبح الذكاء الاصطناعي قادراً على تحليل البيانات الطبية بدقة غير مسبوقة، واقتراح قرارات قد تتفوق في بعض الحالات على التقدير البشري، خصوصاً في قراءة الصور الطبية أو ربط المؤشرات المعقدة في السجلات الصحية.

لكن هذه القدرة التقنية، رغم أهميتها، لا تعني بالضرورة فهماً كاملاً لما يحدث في الواقع السريري. فالأنظمة الذكية لا تعيش نتائج قراراتها، ولا تتعامل مع المريض بوصفه تجربة إنسانية متكاملة، بل كبيانات قابلة للتحليل. إنها قادرة على الحساب، لكنها لا تدرك السياق. وتستطيع التنبؤ، لكنها لا تتحمل تبعات الخطأ.

وهنا يكمن التحدي الحقيقي في الطب الحديث: أن نمتلك أدوات قادرة على دعم القرار بدرجة عالية من الدقة، دون أن نخلط بين القدرة الحسابية... والفهم السريري الكامل لنتائج هذا القرار.

القرار... وما الذي لا تقوله الوثيقة؟

رغم شمول هذه الاستراتيجية، فإنها تترك عدداً من الأسئلة الجوهرية دون إجابة واضحة، وهي أسئلة تمسّ جوهر القرار الطبي نفسه.

- من يتحمل المسؤولية عند الخطأ؟

- ومن يملك صلاحية إيقاف النظام عندما تنحرف الخوارزمية عن المسار الصحيح؟

- ومتى يجب أن يمتنع الذكاء الاصطناعي عن تقديم التوصية، بدلاً من الاستمرار في إعطاء إجابة قد تكون مضللة؟

هذه الأسئلة لا تتعلق بالتقنية بقدر ما تتعلق بحدودها.

وفي هذا السياق، يبرز مفهوم «الصمت الخوارزمي» بوصفه أحد أهم التحديات المقبلة، وهو اللحظة التي يجب فيها على النظام الذكي أن يتراجع، لأن القرار يتجاوز نطاق البيانات التي بُني عليها، أو لأن درجة عدم اليقين أصبحت أعلى من أن تُترجم إلى توصية موثوقة.

الذكاء الاصطناعي لا يصل إلى الجميع

* نحو 30 في المائة من سكان العالم فقط يمتلكون البنية التحتية الرقمية والقدرات

التقنية التي تسمح بتطبيق التقنيات الذكية في الممارسة الطبية بشكل فعلي

وهم الشمول: هل العالم متساوٍ رقمياً؟

رغم أن هذه الاستراتيجية تدعو إلى شمول عالمي في تبني الصحة الرقمية والذكاء الاصطناعي، فإن الواقع يكشف مفارقة واضحة؛ فالتقديرات تشير إلى أن نحو 30 في المائة فقط من سكان العالم يمتلكون البنية التحتية الرقمية والقدرات التقنية التي تسمح بتطبيق هذه التقنيات في الممارسة الطبية بشكل فعلي.

وهنا يبرز سؤال لا يقل أهمية عن الأخلاقيات نفسها: كيف يمكن تحقيق «عدالة رقمية» في عالم غير متكافئ رقمياً من الأساس؟ فالدعوة إلى الشمول، رغم عدالتها النظرية، قد تحمل نتيجة معاكسة؛ إذ قد تؤدي عملياً إلى توسيع الفجوة بين أنظمة صحية متقدمة قادرة على توظيف الذكاء الاصطناعي لتحسين جودة الرعاية، وأخرى لا تزال تكافح لتوفير الحد الأدنى من الخدمات الطبية.

وفي هذا السياق، لا يعود الذكاء الاصطناعي مجرد أداة للتطوير، بل قد يتحول (من حيث لا يُقصد) إلى عامل جديد يعيد رسم خريطة العدالة الصحية على مستوى العالم.

بين العدالة... والحياة

من أكثر التحديات تعقيداً في الطب أن القرار «الأخلاقي» لا يكون دائماً «عادلاً» بالمعنى النظري أو الإحصائي؛ ففي الممارسة السريرية، قد يضطر الطبيب إلى اتخاذ قرار لا يحقق التوازن بين جميع الخيارات، بل يركّز على إنقاذ حالة محددة في لحظة حرجة، حتى لو جاء ذلك على حساب اعتبارات أخرى. وهذا النوع من القرارات يعتمد على السياق، وعلى تقدير المخاطر، وعلى فهم الحالة الفردية للمريض.

في المقابل، تميل الخوارزميات بطبيعتها إلى البحث عن التوازن، وإلى تقديم توصيات تستند إلى الأنماط العامة والنتائج الأكثر ترجيحاً على مستوى المجموعات. وهنا يظهر التحدي الحقيقي: الفارق بين قرار يُبنى على حساب الاحتمالات... وقرار يُتخذ في مواجهة حالة إنسانية فردية.

الخاتمة: من يعرّف الأخلاق؟

قد تضع الاجتماعات العالمية أطراً عامة، وقد ترسم الاستراتيجيات مسارات للتطوير، لكن القرار الطبي سيبقى (في جوهره) لحظة إنسانية لا يمكن اختزالها بالكامل في نموذج حسابي. فالذكاء الاصطناعي قادر على دعم القرار وتحسين دقته، لكنه لا يستطيع أن يحدد بمفرده ما هو القرار الصحيح في كل سياق سريري.

وفي الوقت الذي تدخل فيه الأخلاقيات إلى تصميم الخوارزميات، لا يعود التحدي تقنياً فقط، بل يصبح سؤالاً أعمق يتعلق بالمرجعية ذاتها: من يملك حق تعريف الأخلاق... عندما تتحول إلى جزء من الرموز الكومبيوترية؟


الذكاء الاصطناعي أداة قوية لتنفيذ الأهداف الطموحة

الذكاء الاصطناعي أداة قوية لتنفيذ الأهداف الطموحة
TT

الذكاء الاصطناعي أداة قوية لتنفيذ الأهداف الطموحة

الذكاء الاصطناعي أداة قوية لتنفيذ الأهداف الطموحة

حديثاً، طرح أحد المدرسين على الطلاب سؤالاً بسيطاً حول الذكاء الاصطناعي، خلال تدريسه لأحد مواضيع العلوم الإنسانية: «هل لاحظتم أنكم تُصبحون أكثر تعلقاً ببرامج الدردشة الآلية المُفضلة لديكم؟ على سبيل المثال: هل تجدون أنفسكم تُرددون كلمتَي: «من فضلك»، و«شكراً»، لبرامج الدردشة الآلية أكثر من ذي قبل؟». أومأ جميع الطلاب تقريباً بالموافقة.

ثم سأل المدرس: «لماذا؟»، حينها رفعت إحدى الطالبات يدها وقالت: «حتى يتذكر الذكاء الاصطناعي عندما يسيطر أنني كنت لطيفة معه». وضحك الطلاب، ولكن ليس كلهم، كما كتب ويل جونسون*.

الخوف والتهويل حول الذكاء الاصطناعي

تميل المناقشات العامة حول الذكاء الاصطناعي إلى التأرجح بشدة بين التهويل الواعد والكارثة. فمن جهة، نرى وعوداً بإنتاجية وإبداع غير مسبوقين. ومن جهة أخرى، لا يخلو الأمر من تحذيرات بشأن البطالة الجماعية، وفقدان القدرة على التأثير البشري، وحتى انقراض جنسنا البشري.

في استطلاع رأي وطني أجريناه في ديسمبر (كانون الأول) شمل أكثر من 1600 أميركي، أفاد نحو 4 من كل 10 أشخاص بقلقهم البالغ إزاء التهديد الوجودي الذي يمثله الذكاء الاصطناعي للبشرية. ويُضاهي مستوى هذا القلق مستوى القلق الذي يشعر به كثيرون حيال تغير المناخ. والجدير بالذكر أن هذا القلق يتجاوز السن والدخل والعِرق والجنس والانتماء السياسي.

وتستحق هذه المخاوف اهتماماً جاداً، لذا ينبغي للحكومات وشركات التكنولوجيا مواصلة الاختبارات والإشراف والضمانات الصارمة، للتأكد من التطوير المسؤول لنماذج اللغة الضخمة.

ولكن التركيز حصرياً على أسوأ السيناريوهات قد يُغفل سؤالاً أكثر هدوءاً، وربما أكثر أهمية: هل يُساعد الذكاء الاصطناعي الناس على أن يصبحوا أكثر وعياً بأهدافهم؟

الذكاء الاصطناعي: الغاية والهدف

لاستكشاف هذا السؤال، قدَّمنا ​​مقياساً جديداً في استطلاع رأي شمل بالغين أميركيين: «مقياس الذكاء الاصطناعي من أجل غاية وهدف محددين»، AI for Meaningful Purpose Scale» (AMPS)».

يسأل المقياس عما إذا كان الناس يشعرون بأن الذكاء الاصطناعي يُساعدهم على تحقيق أهداف مهمة بالنسبة لهم، وتطوير مهارات يجدونها ذات مغزى، والبقاء على اتصال بقيمهم وشعورهم بالاتجاه.

على سبيل المثال: هل يُساعد الذكاء الاصطناعي المعلمين على قضاء وقت أطول مع الطلاب بدلاً من الأعمال الورقية؟ هل يُساعد مقدمي الرعاية على التعامل مع الأنظمة الصحية المعقدة؟ هل يُتيح لكبار السن فرصاً جديدة للإبداع والتعلم والتواصل؟ وهل يُساعد الشباب -الذين يُعتبرون اليوم الجيل الأكثر قلقاً في التاريخ الحديث- على إيجاد مسار حياة يبدو حقيقياً وقابلاً للتحقيق؟

تباين رأي الأجيال

كان التباين بين الأجيال لافتاً للنظر. فقد كان الشباب أكثر ترجيحاً بـ«نعم» بمرتين تقريباً من الجيل الأسبق، للقول بأن الذكاء الاصطناعي يدعم هذه الأهداف الأعمق. وكان الرجال أكثر ترجيحاً بمرتين من النساء، للحصول على درجة عالية في مقياس «AMPS».

ومن المرجح أن تعكس هذه الفجوة اختلافات في درجة الوصول المتاحة للتكنولوجيا، والتشجيع، والخيارات المبكرة، أكثر من كونها اختلافات جوهرية في الاهتمام أو القدرة. وهذه التفاوتات ليست قدراً محتوماً، ولكنها مؤشرات مبكرة. وإذا حدث وأصبح الذكاء الاصطناعي عاملاً مُضاعفاً لقوة الحياة الهادفة، فلن يحدث ذلك تلقائياً أو بشكل عادل.

كيف يُمكن للذكاء الاصطناعي أن يُؤثر في الرفاهية؟

لكن ما أثار دهشتنا أكثر هو مدى ارتباط درجات مقياس «AMPS» بمؤشرات أوسع للرفاهية. كان الأشخاص الحاصلون على درجات عالية في مقياس «AMPS» يعبِّرون بأكثر من الضعف عن شعور قوي لديهم بالاعتداد وقدرة التأثير الشخصي، والتواصل الاجتماعي، والأمل في المستقبل. بعبارة أخرى: كانوا يبدون أكثر أملاً في ازدهار حياتهم.

وهذا لا يعني أن الذكاء الاصطناعي يجعل الناس سعداء بطريقة سحرية، ولكنه يشير إلى أنه عندما يستخدم الناس الذكاء الاصطناعي بطرق تتوافق مع ما يهمهم حقاً، فإنهم يشعرون بمزيد من الكفاءة والتوجيه.

وجهات نظر متضاربة

ظهرت إحدى أكثر النتائج إثارة للاهتمام عند دراسة كيفية امتلاك الناس وجهات نظر متضاربة حول الذكاء الاصطناعي. كانت الأجيال الأكبر سناً التي كانت قلقة للغاية بشأن التهديد الوجودي للذكاء الاصطناعي، أقل عرضة بنسبة أقل من النصف لاستخدامه في خدمة ما يهمهم حقاً. أما بين الشباب، فلم يكن القلق بشأن الذكاء الاصطناعي مؤشراً على عدم الانخراط فيه.

وكان أفراد جيل الشباب قلقين بشأن مخاطر الذكاء الاصطناعي تماماً مثل كبار السن، ومع ذلك، كانوا لا يزالون يستخدمونه بنشاط للتعلم والنمو والسعي وراء أهدافهم.

مهارة تقبُّل حقيقتين متناقضتين

يُظهر لنا هذا أن الأجيال الشابة تبدو أكثر استعداداً لتقبُّل حقيقتين تبدوان متناقضتين في آن واحد: أن الذكاء الاصطناعي قد يشكل مخاطر جسيمة، وأنه لا يزال بإمكانه أن يكون أداة قوية لحياة كريمة. قد تُصبح هذه القدرة على التعايش مع التوتر -دون تفاؤل ساذج أو خوف مُشلّ- إحدى أهم مهارات عصر الذكاء الاصطناعي.

كيف سيبدو مستقبل الذكاء الاصطناعي؟

لن يتحدد مستقبل الذكاء الاصطناعي بما سيؤول إليه تطوير الآلات فحسب؛ بل إن كيفية استخدام البشر لها، والغايات التي يسعون لتحقيقها، ستؤثر أيضاً على مسار تطوره وتُشكّله.

إذا تعاملنا مع الذكاء الاصطناعي كمجرد تهديد، أو أداة لزيادة الكفاءة، فإننا نُفوّت فرصة ثمينة. ولكن إذا استخدمناه بوعي، فبإمكانه أن يُعزز الإنتاجية؛ بل والغاية أيضاً. فهو يمنح الناس شعوراً بالقدرة على التأثير، ويُضفي الأمل والتواصل في زمنٍ يندر فيه كل ذلك.

إذن، السؤال الحقيقي ليس ما إذا كان الذكاء الاصطناعي سيُغير حياتنا، فقد غيّرها بالفعل. السؤال هو: هل سنُصمم الذكاء الاصطناعي -ونُعلّم الناس استخدامه- بطرقٍ تُعزز إحساسنا بالمعنى والغاية بدلاً من أن تُمحوهما؟

* مجلة «فاست كومباني».


الصحافي أم الذكاء الاصطناعي: أيهما أفضل؟

الصحافي أم الذكاء الاصطناعي: أيهما أفضل؟
TT

الصحافي أم الذكاء الاصطناعي: أيهما أفضل؟

الصحافي أم الذكاء الاصطناعي: أيهما أفضل؟

يدور كثير من المناقشات حول ميزانيات التسويق اليوم في الشركات والمؤسسات، في سؤال واحد: هل نستثمر في توظيف كاتب؟ أم نترك للذكاء الاصطناعي كتابة المحتوى؛ خصوصاً أن النسخ المُولّدة بواسطة الذكاء الاصطناعي سريعة وغير مكلفة، كما يزعم مصمموها أنها تتحسن في محاكاة أسلوب الكتابة البشري؟ هكذا تساءلت ديانا كيلي ليفي*.

أسلوب الكتابة البشري- إنساني

هنا تكمن المشكلة؛ إذ قد يبدو أسلوب كتابة الذكاء الاصطناعي بشرياً، ولكن الكُتّاب الحقيقيين يدركون أن الصحافة ليست مجرد أسلوب كتابة؛ بل هي ممارسة مبنية على العلاقات مع المصادر، والخبرة في الموضوع، والتجربة العملية. وهي الممارسة التي تُنتج تفاصيل مُدهشة أو عبارة مؤثرة تُثير مشاعر القارئ.

بين محتوى المقال وعمق التفاعل

لقد ثبت أن الذكاء الاصطناعي قادر على محاكاة بنية المقال، ولكنه لا يُحاكي حدس شخص أمضى سنوات في إجراء مقابلات مع الخبراء، والاستماع إلى مخاوف الجمهور، والتعاون مع محررين ذوي خبرة، وفهم ما يُبقي القراء مُتفاعلين.

وغالباً ما يشعر الجمهور عندما يبدو المحتوى عاماً ومكرراً؛ لأنهم يرغبون في تعلم شيء جديد أو الاستمتاع. ونادراً ما تحقق النقاط المتكررة في مجال الذكاء الاصطناعي أياً من هذين الهدفين.

قيمة الصحافيين

هنا تكمن قيمة الصحافيين؛ إذ يعمل كثير من كتّاب ومحرري المجلات السابقين الآن مع الشركات التجارية كمسوقين للمحتوى. وهم يستخدمون مهاراتهم الصحافية لصياغة قصص تجذب الانتباه، وتشرح المواضيع المعقدة، وتترك القراء متشوقين للمزيد.

الصحفي- الخيار الأمثل

إليكم 6 أسباب تجعل الصحافي الخيار الأمثل لفريق المحتوى لديكم:

1- الصحافيون مدرَّبون على الكتابة للناس، لا لمحركات البحث:

تُعلّمك دراسة الصحافة -وسنوات العمل في غرف الأخبار وعلى صفحات المجلات– الكتابة للشخص الجالس أمامك. وهذا يعني كتابة فقرات افتتاحية آسرة تجذب القراء. ويعني أيضاً الانتقالات المنطقية التي تحافظ على انسيابية القراءة. ويتجلى ذلك في فقرات ختامية تجمع كل شيء معاً برؤية واضحة.

2- يتمتع الصحافيون بانضباط فطري:

تُدرّب ثقافة غرف الأخبار الصحافيين على الالتزام بالمواعيد النهائية كأمر لا يقبل المساومة. ويلازمهم هذا الانضباط في جميع المشاريع. ويعتبر الصحافيون سرعة التسليم معياراً أساسياً في العمل. لذا، ينبغي على المؤسسات التي تبحث عن محتوى عالي الجودة يلتزم بالمواعيد النهائية أن تفكر في توظيف صحافيين سابقين.

سهولة القراءة ومتعتها

3- تحويل المواضيع المعقدة إلى مقالات سهلة القراءة وممتعة:

يعرف الصحافيون كيفية تحويل المواضيع التقنية المعقدة إلى مقالات يفهمها القارئ العادي ويتذكرها. إذا كانت مؤسستك تعمل في مجال الصحة، أو التمويل، أو القانون، أو الصيدلة، أو تكنولوجيا الأعمال، أو أي مجال يتطلب تعلماً سريعاً، فإن هذه المهارة لا تُقدّر بثمن.

4- يعرف الصحافيون كيفية إيجاد المصادر واستخدامها:

لم يكن هناك وقت أفضل من الآن لإضافة مزيد من اقتباسات الخبراء إلى المحتوى الإعلامي. ويعرف الصحافيون كيفية تحديد المصادر المناسبة، وإجراء المقابلات، ودمج تلك الأفكار في المحتوى بطريقة سلسة وطبيعية. قد تستغرق هذه المهارات سنوات لتطويرها، ولكنها تُحسّن المحتوى بشكل ملحوظ.

عناوين جذابة

5- يعتقد الصحافيون أن كتابة العناوين رياضة أولمبية:

ما الفرق بين المحتوى الذي يجتذب الناس والمحتوى الذي يمرون به مرور الكرام؟ العناوين. يُدرك الصحافيون الذين عملوا في الصحف والمجلات مدى أهمية العنوان المناسب لجذب انتباه القارئ، وحثّه على شراء المنشور.

إنّ القدرة الفطرية على فهم المشاعر التي تدفع القارئ للنقر على مقال أو فتح رسالة إخبارية من أي مؤسسة، تنبع من سنوات من التجربة والملاحظات التحريرية.

6- إتقان أسلوب المؤسسة في التعامل والحفاظ على جاذبية المحتوى:

إنّ العمل في منشورات ومجالات مختلفة، ومع جمهور متنوع، يُعلّم الصحافيين المخضرمين تغيير النبرة والأسلوب باستمرار. عندما تُوظّف صحافياً للكتابة لمؤسستك، فإنك ستُقدّر إضفاءه طابعاً شخصياً على المحتوى، مع الحفاظ على النبرة والأسلوب المُحددين في وثائق المؤسسة.

يمكن لنماذج اللغة الكبيرة اتباع دليل لتطوير الأسلوب، ولكنها لا تستطيع مُحاكاة ما يحدث عندما يستمع الصحافي إلى قصة شخص ما، ويُحوّل تلك المُحادثة إلى محتوى يتفاعل معه جمهورك، ويرغب في قراءته مُجدداً.

* «إنك»، خدمات «تريبيون ميديا».