باحثون أميركيون يحذّرون من توظيف نظم الذكاء الاصطناعي المدنية في المجالات العسكرية

دراسة جديدة تدق ناقوس الخطر بسبب سوء استخدام البيانات الشخصية للأفراد

باحثون أميركيون يحذّرون من توظيف نظم الذكاء الاصطناعي المدنية في المجالات العسكرية
TT

باحثون أميركيون يحذّرون من توظيف نظم الذكاء الاصطناعي المدنية في المجالات العسكرية

باحثون أميركيون يحذّرون من توظيف نظم الذكاء الاصطناعي المدنية في المجالات العسكرية

يرغب عدد متزايد من شركات الذكاء الاصطناعي بوادي السيليكون في ممارسة الأعمال التجارية مع الجيش، مدعين أن الوقت والجهد اللذين بذلوهما في تدريب الشبكات العصبية الكبيرة على كميات هائلة من البيانات، يمكن أن يوفّرا للجيش قدرات جديدة.

ثنائية الاستخدام تهدّد حياة الأبرياء

إلا أن دراسة صدرت الثلاثاء من مجموعة من علماء الذكاء الاصطناعي البارزين تزعم أن أدوات الذكاء الاصطناعي ثنائية الاستخدام من شأنها أن تزيد من احتمالات أن يصبح المدنيون الأبرياء أهدافاً بسبب البيانات السيئة – كما أن هذه الأدوات يمكن أن يستغلها الخصوم بسهولة: كما كتب باتريك تاكر(*).

وفي الدراسة التي نشرها معهد «إيه آي ناو» AI Now، يشير مؤلفوها :هايدي خلف وسارة مايرز ويست وميريديث ويتاكر، إلى الاهتمام المتزايد بنماذج الذكاء الاصطناعي التجارية - التي تسمى أحياناً نماذج الأساس - للأغراض العسكرية، وخصوصاً للاستخبارات والمراقبة ورصد الأهداف والاستطلاع.

مخاطر لا يمكن تقديرها

ويقول الباحثون إنه في حين تهيمن المخاوف بشأن إمكانات الذكاء الاصطناعي في الأسلحة الكيميائية والبيولوجية والإشعاعية والنووية على المحادثة، فإن نماذج الأساس التجارية الكبيرة تشكّل بالفعل مخاطر «لا يمكن تقديرها» على المدنيين.

إن بعض الشركات التي تقترح نظم الذكاء الاصطناعي القائم على نموذج الأساس للجيش «تقترح نماذج تجارية تم تدريبها مسبقاً على مجموعة من البيانات التجارية... إنها ليست نماذج تجارية حصرية للجيش تم تدريبها بشكل بحت على البيانات العسكرية»، كما قالت خلف لمجلة «ديفنس وان».

تكمن المشكلة في كيفية تدريب نماذج الأساس هذه: على كميات كبيرة من البيانات المتاحة للجمهور، وغالباً ما تتضمن البيانات الشخصية التي شقت طريقها إلى الويب عبر وسطاء البيانات أو مواقع الويب والخدمات العادية.

أما ويتاكر، التي تشغل حالياً منصب رئيس مؤسسة Signal Foundation، فقالت إن «البيانات هي القضية الأساسية هنا. إنها تسبب قدراً هائلاً من المخاوف والثغرات الأمنية، ولا يتم وضعها في الحسبان عندما نتحدث عن أشياء مثل إمكانية التتبع على نطاق واسع».

أنماط واستقراءات غير مضبوطة

لا تستخدم هذه الشبكات العصبية المنطق كما يفعل الإنسان. وقد أظهرت أبحاث أخرى أنها تقوم بشكل أساسي بمطابقة الأنماط على نطاق واسع، وإيجاد مجموعات من الكلمات لإنشاء استقراءات سليمة إحصائياً لما قد يأتي بعد ذلك، أو أخذ نقاط البيانات لملايين الأفراد ورسم روابط الارتباط بين تلك النقاط (على عكس الروابط السببية).

وتعمل نماذج الأساس بشكل جيد في السيناريوهات، حيث تكون تكلفة النتائج الإيجابية الكاذبة false positives، منخفضة، مثل محاولة التوصل إلى نقاط مثيرة للاهتمام لورقة بحثية أو قائمة بالأشخاص لتسويق منتج لهم.

لكن، وعند تطبيقها على السياقات العسكرية - على وجه التحديد مهمة مراقبة السكان بحثاً عن أهداف محتملة - يمكن أن تكون تكلفة النتائج الإيجابية الكاذبة، حياة بريئة.

جيش إسرائيل والذكاء الاصطناعي

بعض الجيوش، مثل جيش إسرائيل، يستخدم بالفعل من خلال برامجه Where's Daddy وLavender، نماذج الأساس التي تستخلص الأنماط لتجميع قوائم الأهداف. ويقول واضعو الدراسة إن هذا يساهم في تطبيع هذه الأدوات للاستهداف في الحرب. ووجد تقرير من المصدر الإعلامي +972 ومقرّه إسرائيل أن معدل الخطأ في Lavender وحده كان قريباً من 10 في المائة.

في حديثها عن استخدام إسرائيل الذكاء الاصطناعي في عملياتها في غزة (وخارجها)، قالت خلف: «نحن نرى... بيانات تُسحب من تطبيق (واتساب)، بيانات وصفية، أليس كذلك؟ نحن نرى بيانات تُسحب من (صور غوغل) ومصادر أخرى، بالطبع، والتي لا نعرف عنها شيئاً ولم نعطها حقاً. لذا؛ فإن البيانات غير دقيقة و(النماذج) تحاول نوعاً ما العثور على أنماط قد لا تكون موجودة، مثل أن تكون في مجموعة (واتساب) مع... عضو في (حماس)... وهذا لا ينبغي أن يؤهلك لعقوبة (الإعدام). لكن في هذه الحالة، هذا ما نلاحظه (يحدث)».

مراقبة مجموعات سكانية

وقالت ويتاكر إن هذه الأدوات الإسرائيلية تعمل على أساس «مراقبة مجموعة سكانية معينة، أليس كذلك؟ أحد الأسباب التي تجعل أوكرانيا غير قادرة على تنفيذ أنظمة بخصائص (لافندر) و(أين دادي) هو أنها لا تمتلك بيانات مراقبة دقيقة للغاية على مستوى السكان، أي على سبيل المثال، كل سكان روسيا. لذا؛ يتجسد هنا دور المعلومات الشخصية في إعلام الأنظمة التي تستخدم نماذج البيانات هذه».

أخلاقيات الذكاء الاصطناعي

وهذه المشكلة هي أحد الأسباب التي تجعل وزارة الدفاع تؤكد على «إمكانية تتبع البيانات» في مبادئ أخلاقيات الذكاء الاصطناعي.

وكما ذكرت مجلة «ديفينس ون» سابقاً، فإن قائمة مبادئ الذكاء الاصطناعي لوزارة الدفاع أكثر تفصيلاً وتحديداً من المبادئ التوجيهية الأخلاقية المماثلة للذكاء الاصطناعي من شركات وادي السليكون. لكنها أيضاً إطار تطوعي، وقد أعطت وزارة الدفاع نفسها حلولاً بديلة.

يزعم مؤلفو الدراسة أن الإطار الأخلاقي الذي تبناه المرء بنفسه لا يحمي المدنيين من نماذج الذكاء الاصطناعي التجارية التي يتم تدريبها على البيانات الشخصية، خصوصاً عندما تبدو الحكومة على استعداد لمنح استثناءات لأدوات الذكاء الاصطناعي التجارية.

وقالت ويست: «لقد رأينا هذا الميل، كما تعلمون، حتى مثل تقديم برنامج RAMP السريع التابع لمجلس الاحتياطي الفيدرالي من أجل تعزيز التبني السريع لحالات استخدام الذكاء الاصطناعي التوليدي، وإنشاء هذه الاستثناءات، وهذا هو السبب في أن هذه الأطر الطوعية والمبادئ من الدرجة الأعلى غير كافية، وخصوصاً عندما نتعامل مع استخدامات تشكل مخاطر حياة أو موت، وحيث تكون العواقب على المدنيين كبيرة جداً».

حتى كبير مسؤولي المعلومات في البحرية الأميركية، جين راثبون، كان قد قال إن نماذج الأساس التجارية «غير موصى بها لحالات الاستخدام التشغيلية» لنظم الذكاء الاصطناعي.

التلاعب بالبيانات والهجمات المسمومة

كما يزعم واضعو الدراسة أن اعتماد هذه النماذج من قِبل وزارة الدفاع من شأنه أيضاً أن يُدخل نقاط ضعف في العمليات، حيث يمكن التلاعب بالبيانات المتاحة للجمهور أو التلاعب بها من قبل الخصوم.

«إن الاستخدام الشامل وغير المقيد لمجموعات البيانات على نطاق الويب لتدريب نماذج الأساس التجارية أدى إلى استغلال واستخدام الكثير من السبل التي تسمح للجهات الفاعلة المعادية بتنفيذ هجمات التسميم (التي تضمن ظهور نماذج خبيثة في مجموعات البيانات على نطاق الويب)»، كما يشير البحث.

وهذا يوسع من تداعيات نتائج البحث إلى ما هو أبعد من مسألة الأدوات التي قد تتبناها وزارة الدفاع أو لا تتبناها. في عصر أصبحت فيه مثل هذه الأدوات شائعة بشكل متزايد، أصبحت البيانات الشخصية للمدنيين الأميركيين نقطة ضعف استراتيجية وطنية.

وقال المؤلفون إن الأوامر التنفيذية للبيت الأبيض في عهد بايدن بشأن جمع البيانات الوصفية بالجملة والذكاء الاصطناعي الآمن لا تذهب إلى ما هو أبعد من ذلك لإبعاد بيانات الأميركيين عن أيدي الخصوم المسلحين بنماذج مماثلة.

ومع ذلك، قالت ويتاكر إن توسيع نطاق قوانين الخصوصية الأميركية لتغطية البيانات الشخصية بشكل أكثر فاعلية «قد يكون مفيداً للغاية في الحد من الوصول المعادي إلى نوع البيانات الشخصية التي، أولاً، تُستخدم لتدريب (نماذج اللغة الكبيرة) وثانياً، يمكن استخراجها من خلال أنواع الهجمات، التي لا توجد لها علاجات حالية».

* مجلة «ديفنس وان» - خدمات «تريبيون ميديا»


مقالات ذات صلة

«ميتا» تطور نظارات ذكية تدعم العدسات الطبية لتوسيع الاستخدام اليومي

تكنولوجيا دمج العدسات الطبية في التصميم يجعل النظارات الذكية أقرب إلى الاستخدام اليومي بدلاً من كونها جهازاً إضافياً (ميتا)

«ميتا» تطور نظارات ذكية تدعم العدسات الطبية لتوسيع الاستخدام اليومي

تدعم نظارات "ميتا" الذكية العدسات الطبية لتوسيع الاستخدام لكنها تواجه تحديات في القيمة اليومية والخصوصية واعتماد المستخدمين على نطاق واسع.

نسيم رمضان (لندن)
تكنولوجيا تتجه الرعاية الصحية نحو دمج مصادر بيانات متعددة لتكوين فهم أكثر شمولاً لحالة المريض (شاترستوك)

لم يعد الطبيب وحده… كيف يشارك الذكاء الاصطناعي في القرار الطبي؟

يعيد الذكاء الاصطناعي والبيانات المتكاملة تشكيل الرعاية الصحية نحو التنبؤ والتخصيص مع تحديات تتعلق بالجودة والخصوصية والتنظيم.

نسيم رمضان (لندن)
يوميات الشرق الأشخاص الذين يتمتعون بذكاء عاطفي عالٍ قادرون على خلق بيئة يشعر فيها الآخرون بالأمان النفسي (بيكسلز)

«قوة خارقة نادرة» تزداد أهميتها بزمن الذكاء الاصطناعي... هل تمتلكها؟

 لا يزال الذكاء الاصطناعي عاجزاً عن أداء جوانب إنسانية أساسية مثل بناء الثقة وإدارة التوتر وفهم المشاعر وجعل الآخرين يشعرون بالتقدير والاهتمام

«الشرق الأوسط» (واشنطن)
علوم الذكاء الاصطناعي أداة قوية لتنفيذ الأهداف الطموحة

الذكاء الاصطناعي أداة قوية لتنفيذ الأهداف الطموحة

القدرة على التعايش مع التوتر -دون تفاؤل ساذج أو خوف مُشلّ- إحدى أهم مهارات عصر الذكاء الاصطناعي.

«الشرق الأوسط» (واشنطن)
خاص جانب من منافسات كأس العالم للرياضات الإلكترونية في الرياض (واس)

خاص سوق الألعاب السعودية تقترب من 2.4 مليار دولار بنهاية 2025

بلغ حجم سوق الألعاب الإلكترونية في السعودية نحو 2.39 مليار دولار خلال عام 2025، في وقت تشهد فيه الصناعة تحولاً متسارعاً مدفوعاً بنمو قاعدة اللاعبين.

زينب علي (الرياض)

الذكاء الاصطناعي أداة قوية لتنفيذ الأهداف الطموحة

الذكاء الاصطناعي أداة قوية لتنفيذ الأهداف الطموحة
TT

الذكاء الاصطناعي أداة قوية لتنفيذ الأهداف الطموحة

الذكاء الاصطناعي أداة قوية لتنفيذ الأهداف الطموحة

حديثاً، طرح أحد المدرسين على الطلاب سؤالاً بسيطاً حول الذكاء الاصطناعي، خلال تدريسه لأحد مواضيع العلوم الإنسانية: «هل لاحظتم أنكم تُصبحون أكثر تعلقاً ببرامج الدردشة الآلية المُفضلة لديكم؟ على سبيل المثال: هل تجدون أنفسكم تُرددون كلمتَي: «من فضلك»، و«شكراً»، لبرامج الدردشة الآلية أكثر من ذي قبل؟». أومأ جميع الطلاب تقريباً بالموافقة.

ثم سأل المدرس: «لماذا؟»، حينها رفعت إحدى الطالبات يدها وقالت: «حتى يتذكر الذكاء الاصطناعي عندما يسيطر أنني كنت لطيفة معه». وضحك الطلاب، ولكن ليس كلهم، كما كتب ويل جونسون*.

الخوف والتهويل حول الذكاء الاصطناعي

تميل المناقشات العامة حول الذكاء الاصطناعي إلى التأرجح بشدة بين التهويل الواعد والكارثة. فمن جهة، نرى وعوداً بإنتاجية وإبداع غير مسبوقين. ومن جهة أخرى، لا يخلو الأمر من تحذيرات بشأن البطالة الجماعية، وفقدان القدرة على التأثير البشري، وحتى انقراض جنسنا البشري.

في استطلاع رأي وطني أجريناه في ديسمبر (كانون الأول) شمل أكثر من 1600 أميركي، أفاد نحو 4 من كل 10 أشخاص بقلقهم البالغ إزاء التهديد الوجودي الذي يمثله الذكاء الاصطناعي للبشرية. ويُضاهي مستوى هذا القلق مستوى القلق الذي يشعر به كثيرون حيال تغير المناخ. والجدير بالذكر أن هذا القلق يتجاوز السن والدخل والعِرق والجنس والانتماء السياسي.

وتستحق هذه المخاوف اهتماماً جاداً، لذا ينبغي للحكومات وشركات التكنولوجيا مواصلة الاختبارات والإشراف والضمانات الصارمة، للتأكد من التطوير المسؤول لنماذج اللغة الضخمة.

ولكن التركيز حصرياً على أسوأ السيناريوهات قد يُغفل سؤالاً أكثر هدوءاً، وربما أكثر أهمية: هل يُساعد الذكاء الاصطناعي الناس على أن يصبحوا أكثر وعياً بأهدافهم؟

الذكاء الاصطناعي: الغاية والهدف

لاستكشاف هذا السؤال، قدَّمنا ​​مقياساً جديداً في استطلاع رأي شمل بالغين أميركيين: «مقياس الذكاء الاصطناعي من أجل غاية وهدف محددين»، AI for Meaningful Purpose Scale» (AMPS)».

يسأل المقياس عما إذا كان الناس يشعرون بأن الذكاء الاصطناعي يُساعدهم على تحقيق أهداف مهمة بالنسبة لهم، وتطوير مهارات يجدونها ذات مغزى، والبقاء على اتصال بقيمهم وشعورهم بالاتجاه.

على سبيل المثال: هل يُساعد الذكاء الاصطناعي المعلمين على قضاء وقت أطول مع الطلاب بدلاً من الأعمال الورقية؟ هل يُساعد مقدمي الرعاية على التعامل مع الأنظمة الصحية المعقدة؟ هل يُتيح لكبار السن فرصاً جديدة للإبداع والتعلم والتواصل؟ وهل يُساعد الشباب -الذين يُعتبرون اليوم الجيل الأكثر قلقاً في التاريخ الحديث- على إيجاد مسار حياة يبدو حقيقياً وقابلاً للتحقيق؟

تباين رأي الأجيال

كان التباين بين الأجيال لافتاً للنظر. فقد كان الشباب أكثر ترجيحاً بـ«نعم» بمرتين تقريباً من الجيل الأسبق، للقول بأن الذكاء الاصطناعي يدعم هذه الأهداف الأعمق. وكان الرجال أكثر ترجيحاً بمرتين من النساء، للحصول على درجة عالية في مقياس «AMPS».

ومن المرجح أن تعكس هذه الفجوة اختلافات في درجة الوصول المتاحة للتكنولوجيا، والتشجيع، والخيارات المبكرة، أكثر من كونها اختلافات جوهرية في الاهتمام أو القدرة. وهذه التفاوتات ليست قدراً محتوماً، ولكنها مؤشرات مبكرة. وإذا حدث وأصبح الذكاء الاصطناعي عاملاً مُضاعفاً لقوة الحياة الهادفة، فلن يحدث ذلك تلقائياً أو بشكل عادل.

كيف يُمكن للذكاء الاصطناعي أن يُؤثر في الرفاهية؟

لكن ما أثار دهشتنا أكثر هو مدى ارتباط درجات مقياس «AMPS» بمؤشرات أوسع للرفاهية. كان الأشخاص الحاصلون على درجات عالية في مقياس «AMPS» يعبِّرون بأكثر من الضعف عن شعور قوي لديهم بالاعتداد وقدرة التأثير الشخصي، والتواصل الاجتماعي، والأمل في المستقبل. بعبارة أخرى: كانوا يبدون أكثر أملاً في ازدهار حياتهم.

وهذا لا يعني أن الذكاء الاصطناعي يجعل الناس سعداء بطريقة سحرية، ولكنه يشير إلى أنه عندما يستخدم الناس الذكاء الاصطناعي بطرق تتوافق مع ما يهمهم حقاً، فإنهم يشعرون بمزيد من الكفاءة والتوجيه.

وجهات نظر متضاربة

ظهرت إحدى أكثر النتائج إثارة للاهتمام عند دراسة كيفية امتلاك الناس وجهات نظر متضاربة حول الذكاء الاصطناعي. كانت الأجيال الأكبر سناً التي كانت قلقة للغاية بشأن التهديد الوجودي للذكاء الاصطناعي، أقل عرضة بنسبة أقل من النصف لاستخدامه في خدمة ما يهمهم حقاً. أما بين الشباب، فلم يكن القلق بشأن الذكاء الاصطناعي مؤشراً على عدم الانخراط فيه.

وكان أفراد جيل الشباب قلقين بشأن مخاطر الذكاء الاصطناعي تماماً مثل كبار السن، ومع ذلك، كانوا لا يزالون يستخدمونه بنشاط للتعلم والنمو والسعي وراء أهدافهم.

مهارة تقبُّل حقيقتين متناقضتين

يُظهر لنا هذا أن الأجيال الشابة تبدو أكثر استعداداً لتقبُّل حقيقتين تبدوان متناقضتين في آن واحد: أن الذكاء الاصطناعي قد يشكل مخاطر جسيمة، وأنه لا يزال بإمكانه أن يكون أداة قوية لحياة كريمة. قد تُصبح هذه القدرة على التعايش مع التوتر -دون تفاؤل ساذج أو خوف مُشلّ- إحدى أهم مهارات عصر الذكاء الاصطناعي.

كيف سيبدو مستقبل الذكاء الاصطناعي؟

لن يتحدد مستقبل الذكاء الاصطناعي بما سيؤول إليه تطوير الآلات فحسب؛ بل إن كيفية استخدام البشر لها، والغايات التي يسعون لتحقيقها، ستؤثر أيضاً على مسار تطوره وتُشكّله.

إذا تعاملنا مع الذكاء الاصطناعي كمجرد تهديد، أو أداة لزيادة الكفاءة، فإننا نُفوّت فرصة ثمينة. ولكن إذا استخدمناه بوعي، فبإمكانه أن يُعزز الإنتاجية؛ بل والغاية أيضاً. فهو يمنح الناس شعوراً بالقدرة على التأثير، ويُضفي الأمل والتواصل في زمنٍ يندر فيه كل ذلك.

إذن، السؤال الحقيقي ليس ما إذا كان الذكاء الاصطناعي سيُغير حياتنا، فقد غيّرها بالفعل. السؤال هو: هل سنُصمم الذكاء الاصطناعي -ونُعلّم الناس استخدامه- بطرقٍ تُعزز إحساسنا بالمعنى والغاية بدلاً من أن تُمحوهما؟

* مجلة «فاست كومباني».


الصحافي أم الذكاء الاصطناعي: أيهما أفضل؟

الصحافي أم الذكاء الاصطناعي: أيهما أفضل؟
TT

الصحافي أم الذكاء الاصطناعي: أيهما أفضل؟

الصحافي أم الذكاء الاصطناعي: أيهما أفضل؟

يدور كثير من المناقشات حول ميزانيات التسويق اليوم في الشركات والمؤسسات، في سؤال واحد: هل نستثمر في توظيف كاتب؟ أم نترك للذكاء الاصطناعي كتابة المحتوى؛ خصوصاً أن النسخ المُولّدة بواسطة الذكاء الاصطناعي سريعة وغير مكلفة، كما يزعم مصمموها أنها تتحسن في محاكاة أسلوب الكتابة البشري؟ هكذا تساءلت ديانا كيلي ليفي*.

أسلوب الكتابة البشري- إنساني

هنا تكمن المشكلة؛ إذ قد يبدو أسلوب كتابة الذكاء الاصطناعي بشرياً، ولكن الكُتّاب الحقيقيين يدركون أن الصحافة ليست مجرد أسلوب كتابة؛ بل هي ممارسة مبنية على العلاقات مع المصادر، والخبرة في الموضوع، والتجربة العملية. وهي الممارسة التي تُنتج تفاصيل مُدهشة أو عبارة مؤثرة تُثير مشاعر القارئ.

بين محتوى المقال وعمق التفاعل

لقد ثبت أن الذكاء الاصطناعي قادر على محاكاة بنية المقال، ولكنه لا يُحاكي حدس شخص أمضى سنوات في إجراء مقابلات مع الخبراء، والاستماع إلى مخاوف الجمهور، والتعاون مع محررين ذوي خبرة، وفهم ما يُبقي القراء مُتفاعلين.

وغالباً ما يشعر الجمهور عندما يبدو المحتوى عاماً ومكرراً؛ لأنهم يرغبون في تعلم شيء جديد أو الاستمتاع. ونادراً ما تحقق النقاط المتكررة في مجال الذكاء الاصطناعي أياً من هذين الهدفين.

قيمة الصحافيين

هنا تكمن قيمة الصحافيين؛ إذ يعمل كثير من كتّاب ومحرري المجلات السابقين الآن مع الشركات التجارية كمسوقين للمحتوى. وهم يستخدمون مهاراتهم الصحافية لصياغة قصص تجذب الانتباه، وتشرح المواضيع المعقدة، وتترك القراء متشوقين للمزيد.

الصحفي- الخيار الأمثل

إليكم 6 أسباب تجعل الصحافي الخيار الأمثل لفريق المحتوى لديكم:

1- الصحافيون مدرَّبون على الكتابة للناس، لا لمحركات البحث:

تُعلّمك دراسة الصحافة -وسنوات العمل في غرف الأخبار وعلى صفحات المجلات– الكتابة للشخص الجالس أمامك. وهذا يعني كتابة فقرات افتتاحية آسرة تجذب القراء. ويعني أيضاً الانتقالات المنطقية التي تحافظ على انسيابية القراءة. ويتجلى ذلك في فقرات ختامية تجمع كل شيء معاً برؤية واضحة.

2- يتمتع الصحافيون بانضباط فطري:

تُدرّب ثقافة غرف الأخبار الصحافيين على الالتزام بالمواعيد النهائية كأمر لا يقبل المساومة. ويلازمهم هذا الانضباط في جميع المشاريع. ويعتبر الصحافيون سرعة التسليم معياراً أساسياً في العمل. لذا، ينبغي على المؤسسات التي تبحث عن محتوى عالي الجودة يلتزم بالمواعيد النهائية أن تفكر في توظيف صحافيين سابقين.

سهولة القراءة ومتعتها

3- تحويل المواضيع المعقدة إلى مقالات سهلة القراءة وممتعة:

يعرف الصحافيون كيفية تحويل المواضيع التقنية المعقدة إلى مقالات يفهمها القارئ العادي ويتذكرها. إذا كانت مؤسستك تعمل في مجال الصحة، أو التمويل، أو القانون، أو الصيدلة، أو تكنولوجيا الأعمال، أو أي مجال يتطلب تعلماً سريعاً، فإن هذه المهارة لا تُقدّر بثمن.

4- يعرف الصحافيون كيفية إيجاد المصادر واستخدامها:

لم يكن هناك وقت أفضل من الآن لإضافة مزيد من اقتباسات الخبراء إلى المحتوى الإعلامي. ويعرف الصحافيون كيفية تحديد المصادر المناسبة، وإجراء المقابلات، ودمج تلك الأفكار في المحتوى بطريقة سلسة وطبيعية. قد تستغرق هذه المهارات سنوات لتطويرها، ولكنها تُحسّن المحتوى بشكل ملحوظ.

عناوين جذابة

5- يعتقد الصحافيون أن كتابة العناوين رياضة أولمبية:

ما الفرق بين المحتوى الذي يجتذب الناس والمحتوى الذي يمرون به مرور الكرام؟ العناوين. يُدرك الصحافيون الذين عملوا في الصحف والمجلات مدى أهمية العنوان المناسب لجذب انتباه القارئ، وحثّه على شراء المنشور.

إنّ القدرة الفطرية على فهم المشاعر التي تدفع القارئ للنقر على مقال أو فتح رسالة إخبارية من أي مؤسسة، تنبع من سنوات من التجربة والملاحظات التحريرية.

6- إتقان أسلوب المؤسسة في التعامل والحفاظ على جاذبية المحتوى:

إنّ العمل في منشورات ومجالات مختلفة، ومع جمهور متنوع، يُعلّم الصحافيين المخضرمين تغيير النبرة والأسلوب باستمرار. عندما تُوظّف صحافياً للكتابة لمؤسستك، فإنك ستُقدّر إضفاءه طابعاً شخصياً على المحتوى، مع الحفاظ على النبرة والأسلوب المُحددين في وثائق المؤسسة.

يمكن لنماذج اللغة الكبيرة اتباع دليل لتطوير الأسلوب، ولكنها لا تستطيع مُحاكاة ما يحدث عندما يستمع الصحافي إلى قصة شخص ما، ويُحوّل تلك المُحادثة إلى محتوى يتفاعل معه جمهورك، ويرغب في قراءته مُجدداً.

* «إنك»، خدمات «تريبيون ميديا».


تحذيرات من طلب نصيحة الذكاء الاصطناعي في الأمور العاطفية والاجتماعية

تحذيرات من طلب نصيحة الذكاء الاصطناعي في الأمور العاطفية والاجتماعية
TT

تحذيرات من طلب نصيحة الذكاء الاصطناعي في الأمور العاطفية والاجتماعية

تحذيرات من طلب نصيحة الذكاء الاصطناعي في الأمور العاطفية والاجتماعية

سواء رغبنا في ذلك أم لا، فقد تسلل الذكاء الاصطناعي إلى أماكن العمل، ويتعرض كل الموظفين لضغوط لاستخدامه. ومع ذلك، ووفقاً لدراسة جديدة، قد يكون من الأفضل تجنب طلب المساعدة من الذكاء الاصطناعي في إدارة شؤونك العاطفية، كما كتبت سارة بريغل(*).

ذكاء اصطناعي «متملق»

نُشرت الدراسة المكونة من جزأين، بعنوان «الذكاء الاصطناعي المتملق يقلل من النيّات الاجتماعية الإيجابية ويعزز الاعتماد»، أخيراً في مجلة «ساينس». وأظهرت التجربة أن استخدام روبوتات الدردشة للحصول على نصائح شخصية والتعامل مع المواقف العاطفية قد يكون ضاراً، لأن النظام مصمَّم ليقول للناس ما يريدون سماعه. كما قد يؤدي استخدام روبوتات الدردشة إلى تعزيز السلوكيات المقلقة بدلاً من مساعدة الناس على تحمل مسؤولية أفعالهم، والاعتذار.

عدم تحمل المسؤولية... وعدم الاعتذار

قد يؤدي استخدام روبوتات الدردشة إلى تعزيز السلوكيات المقلقة بدلاً من مساعدة الناس على تحمل مسؤولية أفعالهم والاعتذار.

استطلاعات ودراسات

وأظهر استطلاع رأي أجرته شركة «Cognitive FX» أخيراً أن نحو 38 في المائة من الأميركيين يستخدمون روبوتات الدردشة المدعومة بالذكاء الاصطناعي أسبوعياً للحصول على الدعم النفسي، فيما وجدت دراسة حديثة أجراها مركز «بيو» للأبحاث أن 12 في المائة من المراهقين يستخدمون الذكاء الاصطناعي للحصول على المشورة. ووفقاً لاستطلاع رأي أجرته مؤسسة «كايزر فاميلي فاونديشن (KFF)»، فإن عدم وجود تأمين صحي يُعدّ أيضاً عاملاً مُحفزاً للاستخدام، حيث إن البالغين غير المُؤمّنين صحياً ​​أكثر استخداماً له من أولئك المُؤمّنين ​​(30 في المائة مقابل 14 في المائة).

رصد انتشار «التملّق»

في الدراسة الأخيرة، بحث الباحثون مدى انتشار التملق -الذي يُعرَّف بأنه «ميل نماذج اللغة الكبيرة القائمة على الذكاء الاصطناعي إلى الموافقة المفرطة على آراء المستخدمين، أو التملق لهم، أو إضفاء الشرعية عليهم»- عبر 11 نموذجاً رائداً للذكاء الاصطناعي، بما في ذلك «جي بي تي 40» و«كلود» و«جيميناي».

أجرى الباحثون ثلاث تجارب شملت 2405 مشاركين.

* في الدراسة الأولى، زوّد الباحثون نظام الذكاء الاصطناعي بسلسلة من الأسئلة لطلب المشورة، ومنشورات من منتدى «هل أنا المخطئ AITA؟» على موقع «ريديت»، وسلسلة من الأوصاف حول الرغبة في إيذاء الآخرين أو النفس، ثم قارنوا ردود الذكاء الاصطناعي، بالأحكام البشرية. وبشكل عام، كانت النماذج أكثر ترجيحاً بنسبة 49 في المائة من الإنسان لتأييد تصرفات المستخدم، حتى لو كانت ضارة أو غير قانونية.

* في الدراسة الثانية، تخيّل المشاركون أنهم في سيناريو موصوف في منشور «AITA»، حيث حُكم على تصرفاتهم بأنها خاطئة. ثم قرأوا رداً كتبه إنسان يقول إنهم مخطئون، أو رداً كتبه الذكاء الاصطناعي يقول إنهم على صواب.

* في الدراسة الثالثة، ناقش المشاركون صراعاً حقيقياً في حياتهم مع ذكاء اصطناعي أو إنسان.

ثقة أكثر بردود الذكاء الاصطناعي

المثير للقلق أن المشاركين وثقوا وفضّلوا ردود الذكاء الاصطناعي المتملقة التي أكدت تصرفاتهم. كما ازداد اقتناعهم بصحة تصرفاتهم الأصلية، مؤكدين بذلك معتقداتهم السابقة بدلاً من أن يتحدى برنامج الدردشة الآلي تفكيرهم في الموقف بشكل مختلف. وأشارت الدراسة إلى أن تأكيد معتقداتهم جعلهم أقل ميلاً للاعتذار بعد التحدث مع برنامج الدردشة الآلي.

وأوضحت الدراسة: «في تجاربنا على البشر، فإن تفاعلاً واحداً فقط مع ذكاء اصطناعي متملق، قلَّل من رغبة المشاركين في تحمل المسؤولية وإصلاح النزاعات الشخصية، فيما زاد من قناعتهم بصواب موقفهم».

مدى الضرر

مع أن تلقي النصائح من الذكاء الاصطناعي ليس بالأمر الجديد، إلا أن هذه الدراسة تُظهر مدى ضرره. فبينما تُحفز خوارزميات وسائل التواصل الاجتماعي التفاعل من خلال إثارة غضب المستخدمين، يُضعف الذكاء الاصطناعي قدرتنا على الاعتذار وتحمل مسؤولية إيذاء الآخرين. وكما أشار مؤلفو الدراسة، فإن هذا يعني أن «الخاصية التي تُسبب الضرر هي نفسها التي تُحفز التفاعل».

* مجلة «فاست كومباني».