الذكاء الاصطناعي سيُدمّر الخصوصية

أعمال ومشاعر وأقوال ورغبات الأفراد أكثر قيمةً وأكثر عُرضةً للخطر

الذكاء الاصطناعي سيُدمّر الخصوصية
TT

الذكاء الاصطناعي سيُدمّر الخصوصية

الذكاء الاصطناعي سيُدمّر الخصوصية

ما لم يُقيّد ويُعاد بناؤه على تصورات جديدة على وجه السرعة؛ فإن الذكاء الاصطناعي يهدد بتدمير الخصوصية بطرق أعمق من أي عصر تكنولوجي سابق، كما كتبت جين كالترايدر (*).

الخصوصية حق من حقوق الإنسان

إنني أعمل على حماية المعلومات الشخصية للأفراد، وأُؤكّد أن الخصوصية يجب أن تكون تلقائية، كحق أساسي من حقوق الإنسان. لكن المجتمع فشل في بناء حماية كافية، لا سيما مع صعود منصات التواصل الاجتماعي والإعلانات المُوجّهة.

وقد أقنعت الشركات المستخدمين بأن «البيانات هي ثمن» استخدام الخدمات الحديثة، مع أن البيانات الشخصية يجب أن تكون أداةً يتحكم بها الأفراد لتحسين حياتهم.

أعمال ومشاعر وأقوال ورغبات الأفراد في خطر

ومع الذكاء الاصطناعي، يتفاقم اختلال توازن القوى حول البيانات بشكلٍ كبير. إذ تعتمد أنظمة الذكاء الاصطناعي الآن بشكلٍ كبير على مجموعات بيانات شخصية ضخمة، ما يجعل المعلومات المتعلقة بالأفراد - ما يفعلونه، وما يشعرون به، وما يقولونه، وما يريدونه - أكثر قيمةً وأكثر عُرضةً للخطر من أي وقت مضى.

وتُوضّح الأمثلة هذا التهديد المُتزايد. يتخيل رواد التكنولوجيا مستقبلاً يُمكّن فيه الذكاء الاصطناعي من الوصول إلى كل محادثة أو كتاب أو بريد إلكتروني أو صورة صادفها أي شخص. وتتزايد الأجهزة القابلة للارتداء في جمع الحالات العاطفية آنياً. وتستطيع النظارات الذكية تسجيل كل ما نراه. وتتخذ روبوتات الدردشة الذكية شخصية المعالجين، مشجعةً المستخدمين على مشاركة مشاعرهم الحميمة، ما قد يؤدي إلى نتائج مأساوية في بعض الحالات.

تضارب الدوافع ونقاط الضعف الأخلاقية

لا تقتصر البيانات الشخصية في عصر الذكاء الاصطناعي على وصف الأشخاص فحسب، بل تُشكل هوياتهم وسلوكياتهم، لا سيما في بيئة من أصدقاء الذكاء الاصطناعي ورفاقه وعملائه. ويُعدّ ترك هذه البيانات في أيدي الشركات أو الحكومات أمراً محفوفاً بالمخاطر، لا سيما في ظل تضارب الدوافع، أو نقاط الضعف الأخلاقية، أو تغير الأجندات السياسية.

تاريخ مُبسط للخصوصية

لفهم المخاطر، إليكم تاريخاً مُبسطاً للخصوصية: في السياقات الدينية القديمة، كانت الخصوصية شبه معدومة؛ إذ كان يُفترض وجود مراقبة إلهية. وفي معظم أنحاء العالم في العصور الوسطى، كانت الخصوصية مستحيلة مادياً، حيث عاش الناس في مساحات ضيقة مشتركة. ومع ظهور المطبعة، بدأ الأفراد بالقراءة بمفردهم وبناء عوالم داخلية خاصة. ووسّع مفكرو عصر التنوير مفهوم الخصوصية الشخصية، ليشمل الأفكار والممتلكات والمراسلات.

وخلال العصر الصناعي، ظهرت الحماية القانونية ضد التفتيش والتشهير والتعدي على الممتلكات. وفي عام 1890، تمت صياغة «الحق في الخصوصية» رسمياً، للدفاع عن الحق في أن يُترك الناس وشأنهم، وتوسع نطاق الحماية ليشمل مشاعر الناس وحياتهم العقلية.

عصر التكنولوجيا زعزع الخصوصية

لكن عصر التكنولوجيا زعزع استقرار الخصوصية. فأتاحت الهواتف التنصت على المكالمات الهاتفية، وأتاحت الكاميرات المراقبة. وزادت الحروب العالمية والحرب الباردة من تطبيع التجسس الحكومي. وبحلول عصر الإنترنت، انهارت الخصوصية تماماً. فقد أدت وسائل التواصل الاجتماعي، وجمع البيانات الضخمة، وأدوات تتبع المواقع الشامل، والإعلانات الإلكترونية المتطورة، إلى تآكل السيطرة الشخصية.

اضطرار التشارك بالبيانات

وتحوّل علماء الخصوصية من تصور الخصوصية كعزلة تامة إلى «سلامة السياق»، أي توقع مشاركة البيانات الشخصية فقط مع متلقين مختارين، في ظروف محددة. لكن هذا النموذج فشل بسبب تسويق البيانات تجارياً. وأصبحت الموافقة مدفونة في سياسات خصوصية غير قابلة للقراءة ومُقنّعة خلف أزرار «موافق».

ومنحت بعض الحمايات القانونية الأميركية، مثل اللائحة العامة لحماية البيانات (GDPR) وقانون خصوصية المستهلك في كاليفورنيا (CCPA)، الأفراد الحق في معرفة البيانات التي جُمعت، أو حذفها، أو إلغاء بيعها. ومع ذلك، فلا يمكن حتى لهذه اللوائح مواكبة الأنظمة المتعطشة للبيانات والغامضة، التي تُشكل عصر وسائل التواصل الاجتماعي، ناهيك بعصر الذكاء الاصطناعي الأكثر تدخلاً الذي يبرز الآن.

متطلبات الذكاء الاصطناعي للبيانات غير مسبوقة

إن متطلبات الذكاء الاصطناعي للبيانات غير مسبوقة: كل شيء من التعبيرات والعادات إلى أنماط اللغة الشخصية العميقة. يشارك الأفراد أنفسهم في خلق هذه الثغرة، حيث يتخذون خيارات تستبدل بالخصوصية الراحة. يستخدم الناس أدوات التعرف على الوجه، ويمنحون وكلاء الذكاء الاصطناعي وصولاً واسعاً إلى البريد الإلكتروني والبيانات المالية، ويثقون برفاق الذكاء الاصطناعي لتخفيف الشعور بالوحدة. في عام 2025، سيكون الاستخدام الأكثر شيوعاً للذكاء الاصطناعي هو العلاج والرفقة، ما يوضح مدى شخصية هذه التفاعلات وهشاشتها.

قد يُدمر الذكاء الاصطناعي الخصوصية أو قد يُنقذها

تكمن المشكلة الأساسية في أنه لا يفهم أحد حقاً كيفية عمل هذه النماذج القوية أو ما يحدث بداخلها، ومع ذلك يُتوقع من المستخدمين التخلي عن كميات هائلة من البيانات الشخصية لتحسين وظائفها. وأنا أشبه هذه اللحظة بالعودة إلى العصور القديمة - عالم يُشرف عليه وجودٌ عليمٌ بكل شيء، يرى كل شيء. ولكن على عكس العالم الإلهي، فإن الذكاء الاصطناعي من صنع الإنسان، مبنيٌّ على خوارزميات ومجموعات بيانات ودوافع للشركات، بما في ذلك الربح والتأثير والسيطرة.

ضرورة إعادة صياغة حقوق البيانات

على الرغم من هذا المسار المُقلق، فإن الذكاء الاصطناعي قد يكون أيضاً مفتاحاً لإنقاذ الخصوصية، إذا اغتنم المجتمع الفرصة لإعادة صياغة حقوق البيانات. ولذا أدعو إلى معادل حديث للمطبعة: بنية تحتية تحويلية تُمكّن الأفراد من التحكم في بياناتهم الخاصة. تاريخياً، ساهمت المطبعة في دمقرطة المعرفة، مُمكّنةً تفتُّح الفكر الخاص، وممهدةً الطريق لثورات فكرية كبرى. وبالمثل، يحتاج مجتمع اليوم إلى تحول تكنولوجي يُلغي مركزية البيانات ويُعيد السيطرة للأفراد.

ملكية البيانات الفكرية ونقلها

هنا يصبح مفهوم قابلية نقل البيانات أمراً حيوياً. على الرغم من أنها تبدو عادية، لكن قابلية نقل البيانات تُحدث ثورة في هذا المجال. فهي تعني أن بإمكان الأفراد نقل بياناتهم بسهولة وأمان - عبر الخدمات والمنصات والأدوات - مع الحفاظ على الملكية والتحكم. اليوم، يصعب الوصول إلى قابلية نقل البيانات إلى حد كبير؛ فغالباً ما تُنتج الأدوات الحالية ملفات ضخمة وغير قابلة للقراءة لا يمكن للأفراد استخدامها بشكل مفيد. وهذا الغموض ليس مصادفة: فالشركات تستفيد من الاحتفاظ بسيطرة محكمة على بيانات المستخدم، ما يجعل مغادرته لها صعبة.

محفظة بيانات شخصية آمنة بدلاً من خوادم غامضة

ومع ذلك، إذا تم دمج قابلية نقل البيانات في نظام متماسك، فقد تُشكل العمود الفقري لبنية تحتية جديدة للخصوصية. وأنا أتخيل عالماً لا تُخزن فيه البيانات الشخصية في خوادم شركات غامضة، بل تُحفظ محلياً في محفظة بيانات شخصية آمنة أو «بود». يمكن بعد ذلك استخدام هذه البيانات بواسطة مساعد ذكاء اصطناعي شخصي يعيش مع المستخدم، ويعمل محلياً، ويتعلم فقط من معلوماته - بإذن صريح. يخدم هذا الذكاء الاصطناعي الفرد فقط، وليس نموذج أعمال الشركة.

ومن الأمثلة الواضحة على ذلك تطبيقات تتبع الدورة الشهرية. اليوم، يتشارك ملايين الأشخاص بيانات صحية بالغة الحساسية عبر تطبيقات مملوكة لشركات قد تبيع هذه المعلومات أو تُسلمها للسلطات، لا سيما في المناطق ذات قوانين الصحة الإنجابية المُقيّدة.

ولذا؛ أقترح مثلاً نظاماً ستُحفظ فيه هذه البيانات فقط في وحدة تخزين شخصية للمستخدم، لا يُمكن الوصول إليها إلا من خلال الذكاء الاصطناعي الخاص به، الذي يُمكنه بعد ذلك من المساعدة في تتبع الأنماط الصحية أو تقديم الدعم دون تعريضهم للمراقبة أو المخاطر القانونية.

يمكن أن يمتد هذا النموذج ليشمل العديد من المجالات الأخرى؛ الرعاية الصحية، والتكيف مع تغير المناخ، والاستقرار المالي، ودعم الوظائف، وغيرها. في كل حالة، يُمكن أن يُتيح الجمع بين الذكاء الاصطناعي الخاص والبيانات المحمولة التي يُتحكم بها شخصياً إمكانيات جديدة مع الحفاظ على الاستقلالية والسلامة.

بنية تحتية جديدة

لن يكون بناء هذه البنية التحتية أمراً سهلاً. فهو يتطلب تقنيات جديدة، ولوائح جديدة، وحوافز جديدة للصناعة؛ وهي أمور لا وجود لها حالياً. يعمل بعض المُبتكرين، بمن فيهم مُبتكر شبكة الإنترنت العالمية، على مكونات أولية. وكما هو الحال مع مطبعة جديدة، قد تُقاوم القوى المُتنفذة التغييرات التي تُهدد سيطرتها. مع ذلك، فإن الخيار واضح: فمن دون إجراءات حاسمة، سينجرف المجتمع نحو مستقبل بائس تنقرض فيه الخصوصية. ولكن إذا طوّرنا أدواتٍ تمنح الأفراد السيادة على بياناتهم، فقد يُصبح الذكاء الاصطناعي قوةً للتمكين بدلاً من المراقبة.

إن التحكم في بيانات المرء يُعادل التحكم في مصيره. لذا فإن استعادة الخصوصية في عصر الذكاء الاصطناعي هي التحدي القادم - وهو أمرٌ ممكن وملحّ.

*مديرة الأبحاث في «ديتا ترانسفير إنيشياتيف، مجلة «فاست كومباني»، خدمات «تريبيون ميديا».


مقالات ذات صلة

الذكاء الاصطناعي أداة قوية لتنفيذ الأهداف الطموحة

علوم الذكاء الاصطناعي أداة قوية لتنفيذ الأهداف الطموحة

الذكاء الاصطناعي أداة قوية لتنفيذ الأهداف الطموحة

القدرة على التعايش مع التوتر -دون تفاؤل ساذج أو خوف مُشلّ- إحدى أهم مهارات عصر الذكاء الاصطناعي.

«الشرق الأوسط» (واشنطن)
خاص جانب من منافسات كأس العالم للرياضات الإلكترونية في الرياض (واس)

خاص سوق الألعاب السعودية تقترب من 2.4 مليار دولار بنهاية 2025

بلغ حجم سوق الألعاب الإلكترونية في السعودية نحو 2.39 مليار دولار خلال عام 2025، في وقت تشهد فيه الصناعة تحولاً متسارعاً مدفوعاً بنمو قاعدة اللاعبين.

زينب علي (الرياض)
يوميات الشرق أنجيلا ليبس (قسم شرطة فارغو بولاية داكوتا الشمالية في أميركا)

سجن جدة بالخطأ لمدة 5 أشهر بعد اتهامها عبر الذكاء الاصطناعي

حُكم على جدة بالسجن خمسة أشهر بعد أن استخدمت الشرطة، عن طريق الخطأ، تقنية الذكاء الاصطناعي لربطها بعملية احتيال مصرفي في ولاية أميركية لم تزرها قط.

«الشرق الأوسط» (لندن)
علوم الصحافي أم الذكاء الاصطناعي: أيهما أفضل؟

الصحافي أم الذكاء الاصطناعي: أيهما أفضل؟

مواضيع تستحق القراءة تصمد أمام أدوات توليد الكلمات

«الشرق الأوسط» (واشنطن)
خاص النمو المتسارع للبيانات يفرض تحديات جديدة على البنية التحتية من حيث الكفاءة والاستدامة (غيتي)

خاص الذكاء الاصطناعي وواقع البيانات... هل تواكب البنية التحتية هذا التسارع؟

يفرض تسارع الذكاء الاصطناعي ضغطاً على البنية التحتية، حيث يصبح تخزين البيانات وكفاءته واستدامته عاملاً حاسماً في القدرة على التوسع.

نسيم رمضان (لندن)

الذكاء الاصطناعي أداة قوية لتنفيذ الأهداف الطموحة

الذكاء الاصطناعي أداة قوية لتنفيذ الأهداف الطموحة
TT

الذكاء الاصطناعي أداة قوية لتنفيذ الأهداف الطموحة

الذكاء الاصطناعي أداة قوية لتنفيذ الأهداف الطموحة

حديثاً، طرح أحد المدرسين على الطلاب سؤالاً بسيطاً حول الذكاء الاصطناعي، خلال تدريسه لأحد مواضيع العلوم الإنسانية: «هل لاحظتم أنكم تُصبحون أكثر تعلقاً ببرامج الدردشة الآلية المُفضلة لديكم؟ على سبيل المثال: هل تجدون أنفسكم تُرددون كلمتَي: «من فضلك»، و«شكراً»، لبرامج الدردشة الآلية أكثر من ذي قبل؟». أومأ جميع الطلاب تقريباً بالموافقة.

ثم سأل المدرس: «لماذا؟»، حينها رفعت إحدى الطالبات يدها وقالت: «حتى يتذكر الذكاء الاصطناعي عندما يسيطر أنني كنت لطيفة معه». وضحك الطلاب، ولكن ليس كلهم، كما كتب ويل جونسون*.

الخوف والتهويل حول الذكاء الاصطناعي

تميل المناقشات العامة حول الذكاء الاصطناعي إلى التأرجح بشدة بين التهويل الواعد والكارثة. فمن جهة، نرى وعوداً بإنتاجية وإبداع غير مسبوقين. ومن جهة أخرى، لا يخلو الأمر من تحذيرات بشأن البطالة الجماعية، وفقدان القدرة على التأثير البشري، وحتى انقراض جنسنا البشري.

في استطلاع رأي وطني أجريناه في ديسمبر (كانون الأول) شمل أكثر من 1600 أميركي، أفاد نحو 4 من كل 10 أشخاص بقلقهم البالغ إزاء التهديد الوجودي الذي يمثله الذكاء الاصطناعي للبشرية. ويُضاهي مستوى هذا القلق مستوى القلق الذي يشعر به كثيرون حيال تغير المناخ. والجدير بالذكر أن هذا القلق يتجاوز السن والدخل والعِرق والجنس والانتماء السياسي.

وتستحق هذه المخاوف اهتماماً جاداً، لذا ينبغي للحكومات وشركات التكنولوجيا مواصلة الاختبارات والإشراف والضمانات الصارمة، للتأكد من التطوير المسؤول لنماذج اللغة الضخمة.

ولكن التركيز حصرياً على أسوأ السيناريوهات قد يُغفل سؤالاً أكثر هدوءاً، وربما أكثر أهمية: هل يُساعد الذكاء الاصطناعي الناس على أن يصبحوا أكثر وعياً بأهدافهم؟

الذكاء الاصطناعي: الغاية والهدف

لاستكشاف هذا السؤال، قدَّمنا ​​مقياساً جديداً في استطلاع رأي شمل بالغين أميركيين: «مقياس الذكاء الاصطناعي من أجل غاية وهدف محددين»، AI for Meaningful Purpose Scale» (AMPS)».

يسأل المقياس عما إذا كان الناس يشعرون بأن الذكاء الاصطناعي يُساعدهم على تحقيق أهداف مهمة بالنسبة لهم، وتطوير مهارات يجدونها ذات مغزى، والبقاء على اتصال بقيمهم وشعورهم بالاتجاه.

على سبيل المثال: هل يُساعد الذكاء الاصطناعي المعلمين على قضاء وقت أطول مع الطلاب بدلاً من الأعمال الورقية؟ هل يُساعد مقدمي الرعاية على التعامل مع الأنظمة الصحية المعقدة؟ هل يُتيح لكبار السن فرصاً جديدة للإبداع والتعلم والتواصل؟ وهل يُساعد الشباب -الذين يُعتبرون اليوم الجيل الأكثر قلقاً في التاريخ الحديث- على إيجاد مسار حياة يبدو حقيقياً وقابلاً للتحقيق؟

تباين رأي الأجيال

كان التباين بين الأجيال لافتاً للنظر. فقد كان الشباب أكثر ترجيحاً بـ«نعم» بمرتين تقريباً من الجيل الأسبق، للقول بأن الذكاء الاصطناعي يدعم هذه الأهداف الأعمق. وكان الرجال أكثر ترجيحاً بمرتين من النساء، للحصول على درجة عالية في مقياس «AMPS».

ومن المرجح أن تعكس هذه الفجوة اختلافات في درجة الوصول المتاحة للتكنولوجيا، والتشجيع، والخيارات المبكرة، أكثر من كونها اختلافات جوهرية في الاهتمام أو القدرة. وهذه التفاوتات ليست قدراً محتوماً، ولكنها مؤشرات مبكرة. وإذا حدث وأصبح الذكاء الاصطناعي عاملاً مُضاعفاً لقوة الحياة الهادفة، فلن يحدث ذلك تلقائياً أو بشكل عادل.

كيف يُمكن للذكاء الاصطناعي أن يُؤثر في الرفاهية؟

لكن ما أثار دهشتنا أكثر هو مدى ارتباط درجات مقياس «AMPS» بمؤشرات أوسع للرفاهية. كان الأشخاص الحاصلون على درجات عالية في مقياس «AMPS» يعبِّرون بأكثر من الضعف عن شعور قوي لديهم بالاعتداد وقدرة التأثير الشخصي، والتواصل الاجتماعي، والأمل في المستقبل. بعبارة أخرى: كانوا يبدون أكثر أملاً في ازدهار حياتهم.

وهذا لا يعني أن الذكاء الاصطناعي يجعل الناس سعداء بطريقة سحرية، ولكنه يشير إلى أنه عندما يستخدم الناس الذكاء الاصطناعي بطرق تتوافق مع ما يهمهم حقاً، فإنهم يشعرون بمزيد من الكفاءة والتوجيه.

وجهات نظر متضاربة

ظهرت إحدى أكثر النتائج إثارة للاهتمام عند دراسة كيفية امتلاك الناس وجهات نظر متضاربة حول الذكاء الاصطناعي. كانت الأجيال الأكبر سناً التي كانت قلقة للغاية بشأن التهديد الوجودي للذكاء الاصطناعي، أقل عرضة بنسبة أقل من النصف لاستخدامه في خدمة ما يهمهم حقاً. أما بين الشباب، فلم يكن القلق بشأن الذكاء الاصطناعي مؤشراً على عدم الانخراط فيه.

وكان أفراد جيل الشباب قلقين بشأن مخاطر الذكاء الاصطناعي تماماً مثل كبار السن، ومع ذلك، كانوا لا يزالون يستخدمونه بنشاط للتعلم والنمو والسعي وراء أهدافهم.

مهارة تقبُّل حقيقتين متناقضتين

يُظهر لنا هذا أن الأجيال الشابة تبدو أكثر استعداداً لتقبُّل حقيقتين تبدوان متناقضتين في آن واحد: أن الذكاء الاصطناعي قد يشكل مخاطر جسيمة، وأنه لا يزال بإمكانه أن يكون أداة قوية لحياة كريمة. قد تُصبح هذه القدرة على التعايش مع التوتر -دون تفاؤل ساذج أو خوف مُشلّ- إحدى أهم مهارات عصر الذكاء الاصطناعي.

كيف سيبدو مستقبل الذكاء الاصطناعي؟

لن يتحدد مستقبل الذكاء الاصطناعي بما سيؤول إليه تطوير الآلات فحسب؛ بل إن كيفية استخدام البشر لها، والغايات التي يسعون لتحقيقها، ستؤثر أيضاً على مسار تطوره وتُشكّله.

إذا تعاملنا مع الذكاء الاصطناعي كمجرد تهديد، أو أداة لزيادة الكفاءة، فإننا نُفوّت فرصة ثمينة. ولكن إذا استخدمناه بوعي، فبإمكانه أن يُعزز الإنتاجية؛ بل والغاية أيضاً. فهو يمنح الناس شعوراً بالقدرة على التأثير، ويُضفي الأمل والتواصل في زمنٍ يندر فيه كل ذلك.

إذن، السؤال الحقيقي ليس ما إذا كان الذكاء الاصطناعي سيُغير حياتنا، فقد غيّرها بالفعل. السؤال هو: هل سنُصمم الذكاء الاصطناعي -ونُعلّم الناس استخدامه- بطرقٍ تُعزز إحساسنا بالمعنى والغاية بدلاً من أن تُمحوهما؟

* مجلة «فاست كومباني».


الصحافي أم الذكاء الاصطناعي: أيهما أفضل؟

الصحافي أم الذكاء الاصطناعي: أيهما أفضل؟
TT

الصحافي أم الذكاء الاصطناعي: أيهما أفضل؟

الصحافي أم الذكاء الاصطناعي: أيهما أفضل؟

يدور كثير من المناقشات حول ميزانيات التسويق اليوم في الشركات والمؤسسات، في سؤال واحد: هل نستثمر في توظيف كاتب؟ أم نترك للذكاء الاصطناعي كتابة المحتوى؛ خصوصاً أن النسخ المُولّدة بواسطة الذكاء الاصطناعي سريعة وغير مكلفة، كما يزعم مصمموها أنها تتحسن في محاكاة أسلوب الكتابة البشري؟ هكذا تساءلت ديانا كيلي ليفي*.

أسلوب الكتابة البشري- إنساني

هنا تكمن المشكلة؛ إذ قد يبدو أسلوب كتابة الذكاء الاصطناعي بشرياً، ولكن الكُتّاب الحقيقيين يدركون أن الصحافة ليست مجرد أسلوب كتابة؛ بل هي ممارسة مبنية على العلاقات مع المصادر، والخبرة في الموضوع، والتجربة العملية. وهي الممارسة التي تُنتج تفاصيل مُدهشة أو عبارة مؤثرة تُثير مشاعر القارئ.

بين محتوى المقال وعمق التفاعل

لقد ثبت أن الذكاء الاصطناعي قادر على محاكاة بنية المقال، ولكنه لا يُحاكي حدس شخص أمضى سنوات في إجراء مقابلات مع الخبراء، والاستماع إلى مخاوف الجمهور، والتعاون مع محررين ذوي خبرة، وفهم ما يُبقي القراء مُتفاعلين.

وغالباً ما يشعر الجمهور عندما يبدو المحتوى عاماً ومكرراً؛ لأنهم يرغبون في تعلم شيء جديد أو الاستمتاع. ونادراً ما تحقق النقاط المتكررة في مجال الذكاء الاصطناعي أياً من هذين الهدفين.

قيمة الصحافيين

هنا تكمن قيمة الصحافيين؛ إذ يعمل كثير من كتّاب ومحرري المجلات السابقين الآن مع الشركات التجارية كمسوقين للمحتوى. وهم يستخدمون مهاراتهم الصحافية لصياغة قصص تجذب الانتباه، وتشرح المواضيع المعقدة، وتترك القراء متشوقين للمزيد.

الصحفي- الخيار الأمثل

إليكم 6 أسباب تجعل الصحافي الخيار الأمثل لفريق المحتوى لديكم:

1- الصحافيون مدرَّبون على الكتابة للناس، لا لمحركات البحث:

تُعلّمك دراسة الصحافة -وسنوات العمل في غرف الأخبار وعلى صفحات المجلات– الكتابة للشخص الجالس أمامك. وهذا يعني كتابة فقرات افتتاحية آسرة تجذب القراء. ويعني أيضاً الانتقالات المنطقية التي تحافظ على انسيابية القراءة. ويتجلى ذلك في فقرات ختامية تجمع كل شيء معاً برؤية واضحة.

2- يتمتع الصحافيون بانضباط فطري:

تُدرّب ثقافة غرف الأخبار الصحافيين على الالتزام بالمواعيد النهائية كأمر لا يقبل المساومة. ويلازمهم هذا الانضباط في جميع المشاريع. ويعتبر الصحافيون سرعة التسليم معياراً أساسياً في العمل. لذا، ينبغي على المؤسسات التي تبحث عن محتوى عالي الجودة يلتزم بالمواعيد النهائية أن تفكر في توظيف صحافيين سابقين.

سهولة القراءة ومتعتها

3- تحويل المواضيع المعقدة إلى مقالات سهلة القراءة وممتعة:

يعرف الصحافيون كيفية تحويل المواضيع التقنية المعقدة إلى مقالات يفهمها القارئ العادي ويتذكرها. إذا كانت مؤسستك تعمل في مجال الصحة، أو التمويل، أو القانون، أو الصيدلة، أو تكنولوجيا الأعمال، أو أي مجال يتطلب تعلماً سريعاً، فإن هذه المهارة لا تُقدّر بثمن.

4- يعرف الصحافيون كيفية إيجاد المصادر واستخدامها:

لم يكن هناك وقت أفضل من الآن لإضافة مزيد من اقتباسات الخبراء إلى المحتوى الإعلامي. ويعرف الصحافيون كيفية تحديد المصادر المناسبة، وإجراء المقابلات، ودمج تلك الأفكار في المحتوى بطريقة سلسة وطبيعية. قد تستغرق هذه المهارات سنوات لتطويرها، ولكنها تُحسّن المحتوى بشكل ملحوظ.

عناوين جذابة

5- يعتقد الصحافيون أن كتابة العناوين رياضة أولمبية:

ما الفرق بين المحتوى الذي يجتذب الناس والمحتوى الذي يمرون به مرور الكرام؟ العناوين. يُدرك الصحافيون الذين عملوا في الصحف والمجلات مدى أهمية العنوان المناسب لجذب انتباه القارئ، وحثّه على شراء المنشور.

إنّ القدرة الفطرية على فهم المشاعر التي تدفع القارئ للنقر على مقال أو فتح رسالة إخبارية من أي مؤسسة، تنبع من سنوات من التجربة والملاحظات التحريرية.

6- إتقان أسلوب المؤسسة في التعامل والحفاظ على جاذبية المحتوى:

إنّ العمل في منشورات ومجالات مختلفة، ومع جمهور متنوع، يُعلّم الصحافيين المخضرمين تغيير النبرة والأسلوب باستمرار. عندما تُوظّف صحافياً للكتابة لمؤسستك، فإنك ستُقدّر إضفاءه طابعاً شخصياً على المحتوى، مع الحفاظ على النبرة والأسلوب المُحددين في وثائق المؤسسة.

يمكن لنماذج اللغة الكبيرة اتباع دليل لتطوير الأسلوب، ولكنها لا تستطيع مُحاكاة ما يحدث عندما يستمع الصحافي إلى قصة شخص ما، ويُحوّل تلك المُحادثة إلى محتوى يتفاعل معه جمهورك، ويرغب في قراءته مُجدداً.

* «إنك»، خدمات «تريبيون ميديا».


تحذيرات من طلب نصيحة الذكاء الاصطناعي في الأمور العاطفية والاجتماعية

تحذيرات من طلب نصيحة الذكاء الاصطناعي في الأمور العاطفية والاجتماعية
TT

تحذيرات من طلب نصيحة الذكاء الاصطناعي في الأمور العاطفية والاجتماعية

تحذيرات من طلب نصيحة الذكاء الاصطناعي في الأمور العاطفية والاجتماعية

سواء رغبنا في ذلك أم لا، فقد تسلل الذكاء الاصطناعي إلى أماكن العمل، ويتعرض كل الموظفين لضغوط لاستخدامه. ومع ذلك، ووفقاً لدراسة جديدة، قد يكون من الأفضل تجنب طلب المساعدة من الذكاء الاصطناعي في إدارة شؤونك العاطفية، كما كتبت سارة بريغل(*).

ذكاء اصطناعي «متملق»

نُشرت الدراسة المكونة من جزأين، بعنوان «الذكاء الاصطناعي المتملق يقلل من النيّات الاجتماعية الإيجابية ويعزز الاعتماد»، أخيراً في مجلة «ساينس». وأظهرت التجربة أن استخدام روبوتات الدردشة للحصول على نصائح شخصية والتعامل مع المواقف العاطفية قد يكون ضاراً، لأن النظام مصمَّم ليقول للناس ما يريدون سماعه. كما قد يؤدي استخدام روبوتات الدردشة إلى تعزيز السلوكيات المقلقة بدلاً من مساعدة الناس على تحمل مسؤولية أفعالهم، والاعتذار.

عدم تحمل المسؤولية... وعدم الاعتذار

قد يؤدي استخدام روبوتات الدردشة إلى تعزيز السلوكيات المقلقة بدلاً من مساعدة الناس على تحمل مسؤولية أفعالهم والاعتذار.

استطلاعات ودراسات

وأظهر استطلاع رأي أجرته شركة «Cognitive FX» أخيراً أن نحو 38 في المائة من الأميركيين يستخدمون روبوتات الدردشة المدعومة بالذكاء الاصطناعي أسبوعياً للحصول على الدعم النفسي، فيما وجدت دراسة حديثة أجراها مركز «بيو» للأبحاث أن 12 في المائة من المراهقين يستخدمون الذكاء الاصطناعي للحصول على المشورة. ووفقاً لاستطلاع رأي أجرته مؤسسة «كايزر فاميلي فاونديشن (KFF)»، فإن عدم وجود تأمين صحي يُعدّ أيضاً عاملاً مُحفزاً للاستخدام، حيث إن البالغين غير المُؤمّنين صحياً ​​أكثر استخداماً له من أولئك المُؤمّنين ​​(30 في المائة مقابل 14 في المائة).

رصد انتشار «التملّق»

في الدراسة الأخيرة، بحث الباحثون مدى انتشار التملق -الذي يُعرَّف بأنه «ميل نماذج اللغة الكبيرة القائمة على الذكاء الاصطناعي إلى الموافقة المفرطة على آراء المستخدمين، أو التملق لهم، أو إضفاء الشرعية عليهم»- عبر 11 نموذجاً رائداً للذكاء الاصطناعي، بما في ذلك «جي بي تي 40» و«كلود» و«جيميناي».

أجرى الباحثون ثلاث تجارب شملت 2405 مشاركين.

* في الدراسة الأولى، زوّد الباحثون نظام الذكاء الاصطناعي بسلسلة من الأسئلة لطلب المشورة، ومنشورات من منتدى «هل أنا المخطئ AITA؟» على موقع «ريديت»، وسلسلة من الأوصاف حول الرغبة في إيذاء الآخرين أو النفس، ثم قارنوا ردود الذكاء الاصطناعي، بالأحكام البشرية. وبشكل عام، كانت النماذج أكثر ترجيحاً بنسبة 49 في المائة من الإنسان لتأييد تصرفات المستخدم، حتى لو كانت ضارة أو غير قانونية.

* في الدراسة الثانية، تخيّل المشاركون أنهم في سيناريو موصوف في منشور «AITA»، حيث حُكم على تصرفاتهم بأنها خاطئة. ثم قرأوا رداً كتبه إنسان يقول إنهم مخطئون، أو رداً كتبه الذكاء الاصطناعي يقول إنهم على صواب.

* في الدراسة الثالثة، ناقش المشاركون صراعاً حقيقياً في حياتهم مع ذكاء اصطناعي أو إنسان.

ثقة أكثر بردود الذكاء الاصطناعي

المثير للقلق أن المشاركين وثقوا وفضّلوا ردود الذكاء الاصطناعي المتملقة التي أكدت تصرفاتهم. كما ازداد اقتناعهم بصحة تصرفاتهم الأصلية، مؤكدين بذلك معتقداتهم السابقة بدلاً من أن يتحدى برنامج الدردشة الآلي تفكيرهم في الموقف بشكل مختلف. وأشارت الدراسة إلى أن تأكيد معتقداتهم جعلهم أقل ميلاً للاعتذار بعد التحدث مع برنامج الدردشة الآلي.

وأوضحت الدراسة: «في تجاربنا على البشر، فإن تفاعلاً واحداً فقط مع ذكاء اصطناعي متملق، قلَّل من رغبة المشاركين في تحمل المسؤولية وإصلاح النزاعات الشخصية، فيما زاد من قناعتهم بصواب موقفهم».

مدى الضرر

مع أن تلقي النصائح من الذكاء الاصطناعي ليس بالأمر الجديد، إلا أن هذه الدراسة تُظهر مدى ضرره. فبينما تُحفز خوارزميات وسائل التواصل الاجتماعي التفاعل من خلال إثارة غضب المستخدمين، يُضعف الذكاء الاصطناعي قدرتنا على الاعتذار وتحمل مسؤولية إيذاء الآخرين. وكما أشار مؤلفو الدراسة، فإن هذا يعني أن «الخاصية التي تُسبب الضرر هي نفسها التي تُحفز التفاعل».

* مجلة «فاست كومباني».