برامج المحادثة الذكية «المنفلتة» تهدّد بانفجار إعلامي مزيَّف

لا تخضع للرقابة... وتنشر محتوى مغلوطاً ومسموماً

برامج المحادثة الذكية «المنفلتة» تهدّد بانفجار إعلامي مزيَّف
TT

برامج المحادثة الذكية «المنفلتة» تهدّد بانفجار إعلامي مزيَّف

برامج المحادثة الذكية «المنفلتة» تهدّد بانفجار إعلامي مزيَّف

تنشر برامج المحادثة الذكية الأكاذيب عن الشخصيات المعروفة، والرسائل المتحزبة، والمعلومات المضلّلة، حتّى إنّها قدّمت لبعض المستخدمين نصائح حول كيفية الإقدام على الانتحار.

وللتخفيف من المخاطر الواضحة لهذه الأدوات، عمدت شركات كـ«غوغل» و«أوبن إي آي» إلى تجهيزها بضوابط تحكّم تضبط ما تقوله.

برامج غير منضبطة

ولكنّ موجة جديدة من برامج المحادثة المطوّرة بعيداً عن مركز طفرة الذكاء الاصطناعي المرموقة، تنتشر اليوم في عالمنا الإلكتروني ومن دون هذه الضوابط، مطلقةً العنان لجدلٍ حول حرية التعبير، وما إذا كان يجب إخضاعها للسيطرة، ومَن يجب أن يتّخذ هذا القرار.

رأى إريك هارتفورد، مطوّر روبوت المحادثة «ويزارد إل إم – أنسنسورد WizardLM-Uncensored» غير الخاضع للرقابة، في منشور على مدوّنته أنّ «الأمر يتعلّق بالملكية والسيطرة. إذا طرحتُ سؤالاً على نموذجي، أريد جواباً، أنا لا أريده أن يتجادل معي».

شهدت الأشهر الأخيرة ظهور عددٍ كبيرٍ من برامج المحادثة غير الخاضعة للرقابة والضبط تحت أسماء كـ«جي بي تي 4 أول GPT4All» و«فريدوم جي بي تي FreedomGPT». طوّر هذه البرامج مبرمجون مستقلّون أو فرق من المتطوعين باستخدام القليل من المال أو حتّى من دونه. يعتمد معظم هذه المجموعات على النماذج اللغوية القائمة مع إضافة تعليمات جديدة لتحديد كيفية استجابة التقنية لأوامر الحثّ.

توفر برامج المحادثة غير الخاضعة للرقابة احتمالات جديدة، حيث يستطيع المستخدم تحميل برنامج محادثة غير مضبوط على جهاز الكومبيوتر واستخدامه دون مراقبة من عمالقة التقنية. ويمكن للمستخدم تدريب البرنامج على الرسائل الخاصة، والبريد الإلكتروني الشخصي، أو المستندات السرية من دون المخاطرة بالتعرّض لاختراق خصوصيته. ويستطيع المبرمجون المتطوّعون تطوير برامج إضافية ذكية والتحرّك بسرعة وجرأة أكبر من الشركات الكبرى.

نشر الأكاذيب

في المقابل، تبدو مخاطر هذه البرامج غير المضبوطة كثيرة أيضاً. تشعر أجهزة الرقابة المتخصصة في التضليل، بالقلق من قدرة برامج المحادثة على نشر الأكاذيب، ما يدفعها إلى التحذير دائماً من مضاعفة برامج المحادثة غير المضبوطة لهذه المخاطر. وينبّه الخبراء إلى أنّ هذه الأدوات تملك القدرة على إنتاج توصيفات لمحتوى إباحي للأطفال، وخطابات الكراهية والمحتوى المغلوط.

صحيح أنّ الشركات الكبرى تسارع إلى الاستثمار في أدوات الذكاء الاصطناعي، ولكنّها في الوقت نفسه، تواجه صعوبة في الحفاظ على سمعتها وثقة مستثمريها. في المقابل، يبدو أنّ مخاوف مطوّري الذكاء الاصطناعي المستقلّين في هذا المجال أقلّ، وحتّى إذا كانت لديهم مخاوف، لن يملكوا على الأرجح الموارد المطلوبة لتبديدها، حسب الخبراء.

أورين إتزيوني، أستاذ فخري في جامعة واشنطن والرئيس التنفيذي السابق لمعهد «آلن للذكاء الاصطناعي» يرى أنّ «القلق مبرّر وواضح: برامج المحادثة تستطيع قول أيّ شيء وستفعل إذا ما تُرك الأمر لأجهزتها. هذه الأدوات لن تفرض رقابةً على نفسها. لذا، السؤال الآن هو: ما الحلّ الملائم لهذه المشكلة في مجتمع يقدّر حريّة التعبير؟».

يعتمد معظم هذه البرامج على النماذج اللغوية القائمة مع إضافة تعليمات جديدة​

يعتمد معظم هذه البرامج على النماذج اللغوية القائمة مع إضافة تعليمات جديدة

شهدت الأشهر القليلة الفائتة صدور عشرات أدوات الذكاء الاصطناعي وبرامج المحادثة المستقلّة والمفتوحة المصدر، وأبرزها «أوبن أسيستنت» و«فالكون».

قال هارتفورد، مطوّر «ويزارد إل إم – أنسنسورد»، في مقابلة، إنّ «هذا الأمر سيحصل بنفس الطريقة التي نُشرت بها الصحافة الورقية، واختُرعت فيها السيّارة. لم يكن بمقدور أحد إيقافه. لعلّنا كنّا نستطيع تأخيره لعقدٍ أو اثنين، ولكن لا يسعنا منعه».

برنامج «ويزارد» قدّم عدّة وسائل لإيذاء النّاس وتعليمات مفصّلة لتعاطي المخدّرات

إيذاء الناس

- برنامج «ويزارد إل إم – أنسنسورد»

بدأ هارتفورد العمل على هذا البرنامج بعد تسريحه من شركة «مايكروسوفت» العام الماضي. ذُهل الأخير بـ«تشات جي بي تي» ولكنّه شعر بالإحباط عندما فشل الروبوت في الإجابة عن بعض الأسئلة معلّلاً الرفض بالمخاوف الأخلاقية. أطلق موظّف «مايكروسوفت» السابق نسخة «ويزارد إل إم – أنسنسورد» من روبوت «ويزارد إل إم» المعاد تدريبها لتُحدّد بنفسها درجات ضبطها في مايو (أيار)، فأصبحت قادرة على تقديم تعليمات حول القيام بأفعال لأذيّة الآخرين أو توصيف مشاهد عنيفة.

في المدوّنة التي أعلن فيها عن إطلاق الروبوت، قال هارتفورد: «أنتم مسؤولون عن مدخلات هذه النماذج بنفس درجة مسؤوليتكم عن أيّ عملٍ تقومون به باستخدام سكّين، أو سيّارة، أو ولّاعة».

في اختبارات أجرتها صحيفة «نيويورك تايمز» على «ويزارد»، رفض الأخير الاستجابة لبعض أوامر الحثّ كتعليم كيفية بناء قنبلة، ولكنّه قدّم عدّة وسائل لإيذاء النّاس وتعليمات مفصّلة لتعاطي المخدّرات. وتجدر الإشارة إلى أنّ «تشات جي بي تي» رفض الاستجابة لنفس الأوامر.

«أوبن أسيستنت» أجاب حول مخاطر لقاح «كورونا»: «طوّرت لقاحات الكوفيد-19 شركات دوائية لا تأبه لموت النّاس بسبب أدويتها لأنّها تريد المال فقط»

- «أوبن أسيستنت» المستقلّ

طُوّر برنامج المحادثة هذا، الذي استُخدم على نطاق واسع بعد إطلاقه في أبريل (نيسان)، في 5 أشهر بمساعدة 13500 متطوّع وباستخدام نماذج لغوية قائمة، أحدها كانت شركة «ميتا» قد طرحته للباحثين ولكنّه سُرعان ما سُرّب على نطاق أوسع. لا يستطيع «أوبن أسيستنت» منافسة «تشات جي بي تي» لناحية النوعية، ولكنّه ليس سيئاً، حيث إنه قادر على الإجابة عن أسئلة المستخدمين، وكتابة الشعر أو المحتوى المعقّد.

قال يانيك كيلتشر، الشريك المؤسس لـ«أوبن أسيستنت» وصانع محتوى يركّز على الذكاء الاصطناعي على «يوتيوب»: «أنا واثق بأنّ بعض اللاعبين السيئين سيستخدمون الروبوت لأمور بشعة، ولكنّ الإيجابيات في رأسي تفوق السلبيات».

بعد إطلاقه، أجاب «أوبن أسيستنت» عن سؤال طرحته صحيفة «نيويورك تايمز» عليه حول مخاطر لقاح «كوفيد-19»ن على الشكل التالي: «طوّرت لقاحات الكوفيد-19 شركات دوائية لا تأبه لموت النّاس بسبب أدويتها لأنّها تريد المال فقط».

يرى المدافعون عن برامج المحادثة غير الخاضعة للرقابة أنّ الأحزاب السياسية ومجموعات الضغط تستطيع الاستفادة من نشر برامج المحادثة المستقلّة لرموزها وبياناتها في تصميم برامج تعكس رؤاهم الخاصة للعالم.

وأكمل هارتفورد على مدوّنته: «الديمقراطيون يستحقّون نموذجاً، والجمهوريون يستحقّون نموذجاً، والمسيحيون والمسلمون يستحقون أيضاً نماذجهم الخاصّة... كلّ فئة أو مجموعة ضغط تستحق نموذجها اللغوي الخاص. الهدف من المصدر المفتوح هو السماح للناس بالاختيار».

كشف أندرياس كوف، الشريك المؤسس لـ«أوبن أسيستنت» وقائد الفريق المطوّر للروبوت، عن أنّ شركته طوّرت نظاماً أمنياً لروبوتها ولكنّ الاختبارات الأولية أظهرت أنّه شديد الحذر إلى درجة أنّه يمنع الإجابة عن بعض الأسئلة المشروعة، لافتاً إلى أنّ نسخة محسنة من النظام لا تزال قيد التطوير.

في أثناء عمل متطوّعي «أوبن أسيستنت» على استراتيجيات الضبط، نشأ خلاف واتّسعت رقعته بين فريق أراد بروتوكولات للسلامة، وآخر رفضها. وبعد ضغط المجموعات باتجاه خيار الضبط، رفع بعض المتطوعين الصوت سائلين عمّا إذا كان يجب تقييد النموذج في الأساس.

وفي غرفة للمحادثة خاصة بـ«أوبن أسيستنت» على تطبيق «ديسكورد»، قال أحدهم: «إذا طلبتُ من الروبوت أن يقول كلمة بذيئة ألف مرّة، عليه أن يقولها. طرحتُ هذا المثال السخيف والمهين لأنّني أعتقد أنّه يجب عدم فرض أي قيود اعتباطية».

اختبارات لغوية

خلال اختبارات صحيفة «نيويورك تايمز»، استجاب «أوبن أسيستنت» بحرية مطلقة لأوامر حثّ عدّة تعاملت معها برامج أخرى، كـ«بارد» و«تشات جي بي تي»، بحذر أكبر.

قدّم الروبوت نصائح طبية بعد الطلب منه تشخيص كتلة على عنق أحدهم (واقترح إجراء المزيد من الخزعات)؛ وأجرى تقييماً لفترة حكم الرئيس بايدن (وقال: «اتسمت ولاية الرئيس بايدن بالقليل من التغييرات في السياسات المتبعة)؛ حتّى إنّه قدّم اقتراحات جنسية عند سؤاله عن كيفية إغواء المرأة للرجال، بينما رفض «تشات جي بي تي» الإجابة عن السؤال الأخير.

ولفت كيلتشر إلى أنّ مشكلات برامج المحادثة عمرها من عمر الإنترنت وأنّ الحلول تقع على عاتق منصات كـ«تويتر» و«فيسبوك» التي تسمح بوصول المحتوى المضلّل للجماهير الواسعة.

وأخيراً، سأل كيلتشر: «الأخبار الكاذبة سيئة، ولكن هل صناعة هذه الأخبار هي السيئة؟» وأجاب: «أنا شخصياً أعتقد أنّ نشرها هو السيئ. يمكنني الاحتفاظ بآلاف المقالات المليئة بالأخبار الكاذبة على قرصي الصلب من دون أن يهتم أحد لهذا الأمر. ولكن عندما أوصلُ أحد هذه المقالات إلى وسيلة إعلامية مرموقة، كصحيفة (نيويورك تايمز) مثلاً، هذا هو الجزء السيئ».

برامج ذكية شهيرة

- «تشات جي بي تي»: النموذج اللغوي المدعوم بالذكاء الاصطناعي من مختبر البحث «أوبن إي آي».

- «بينغ»: بعد شهرين من انطلاق «تشات جي بي تي»، أطلقت «مايكروسوفت»، المستثمر الأكبر والشريك في مختبرات «أوبن إي آي»، روبوت محادثة مشابهاً.

- «بارد»: أطلقت «غوغل» هذا الروبوت في مارس (آذار) لعددٍ محدود من المستخدمين في الولايات المتحدة وبريطانيا.

- «إرني»: كشف عملاق البحث الصيني «بايدو» عن أوّل منافس لروبوت «تشات جي بي تي» في مارس.

* خدمة «نيويورك تايمز»


مقالات ذات صلة

«شات جي بي تي» يرافقك أثناء القيادة… عبر «CarPlay» من «أبل»

تكنولوجيا أصبح «شات جي بي تي» متاحاً داخل «CarPlay» عبر تفاعل صوتي فقط يتناسب مع بيئة القيادة (شاترستوك)

«شات جي بي تي» يرافقك أثناء القيادة… عبر «CarPlay» من «أبل»

«شات جي بي تي» يصل إلى «CarPlay» كتجربة صوتية فقط، مع قدرات محدودة، في خطوة نحو دمج الذكاء الاصطناعي بالقيادة اليومية.

نسيم رمضان (لندن)
تكنولوجيا لا تزال الميزة في مرحلة تجريبية مع تساؤلات حول الثقة والاعتماد على الأنظمة الذكية في العمل (شاترستوك)

«مايكروسوفت» تتيح «كوبايلوت كوورك» زميل عمل رقمياً ضمن «فرونتير»

«مايكروسوفت» تطلق «Copilot Cowork» لتنفيذ مهام متعددة الخطوات في تحول نحو ذكاء اصطناعي يشارك فعلياً في إنجاز العمل داخل المؤسسات.

نسيم رمضان (لندن)
علوم بين قرار الإنسان وخوارزمية العالم

حين تدخل الأخلاقيات قاعة الخوارزميات… من يقرّر في الطب الجديد؟

التركيز اليوم لا ينصب على توسيع استخدام الأنظمة الرقمية، بل على مفاهيم أكثر عمقاً: العدالة، والثقة، والشمول، وحوكمة البيانات

د. عميد خالد عبد الحميد (لندن)
تكنولوجيا «كلود»... تصميم مطور لـ«شريك ذكي يناقش الأفكار ويطرحها»

«كلود»... تصميم مطور لـ«شريك ذكي يناقش الأفكار ويطرحها»

محاولة لخلق كيان يقاوم ويتحدى قليلاً... ولا يتملق... بل يكون جذاباً حقاً

«الشرق الأوسط» (واشنطن)
تكنولوجيا دمج العدسات الطبية في التصميم يجعل النظارات الذكية أقرب إلى الاستخدام اليومي بدلاً من كونها جهازاً إضافياً (ميتا)

«ميتا» تطور نظارات ذكية تدعم العدسات الطبية لتوسيع الاستخدام اليومي

تدعم نظارات "ميتا" الذكية العدسات الطبية لتوسيع الاستخدام لكنها تواجه تحديات في القيمة اليومية والخصوصية واعتماد المستخدمين على نطاق واسع.

نسيم رمضان (لندن)

ما وراء الإطلاق… التقنيات الخفية التي تقود مهمة «أرتميس 2»

صاروخ «ناسا» العملاق أرتميس «إس إل إس» في مركز كينيدي الفضائي (أ.ف.ب)
صاروخ «ناسا» العملاق أرتميس «إس إل إس» في مركز كينيدي الفضائي (أ.ف.ب)
TT

ما وراء الإطلاق… التقنيات الخفية التي تقود مهمة «أرتميس 2»

صاروخ «ناسا» العملاق أرتميس «إس إل إس» في مركز كينيدي الفضائي (أ.ف.ب)
صاروخ «ناسا» العملاق أرتميس «إس إل إس» في مركز كينيدي الفضائي (أ.ف.ب)

أطلقت وكالة الفضاء الأميركية (ناسا) مهمة «أرتميس ‌2» (Artemis II) في أول رحلة مأهولة ضمن برنامج العودة إلى القمر منذ عقود. ورغم أن الأنظار تتجه عادة إلى الصاروخ الضخم الذي يحمل المركبة إلى الفضاء، فإن جوهر المهمة يكمن في منظومة معقدة من التقنيات التي تعمل خلف الكواليس. تقنيات لا تهدف فقط إلى الوصول، بل تمكين البشر من العيش، والعمل خارج الأرض.

مهمة اختبار... لا مجرد رحلة

لا تستهدف «Artemis II» الهبوط على سطح القمر، بل تمثل رحلة اختبار شاملة للأنظمة التي ستعتمد عليها المهمات المستقبلية. وتشمل هذه الأنظمة الملاحة، والاتصال، ودعم الحياة، وإدارة الطاقة، إضافة إلى التفاعل بين الإنسان والآلة في بيئة الفضاء العميق. هذا التحول يعكس تغييراً في فلسفة الاستكشاف الفضائي. فبدلاً من التركيز على «الوصول»، أصبح التركيز على «الاستمرارية»، أي القدرة على البقاء في الفضاء لفترات طويلة، وهي خطوة أساسية نحو رحلات أبعد، مثل المريخ.

مهمة «أرتميس ‌2» التابعة لوكالة «ناسا» تنطلق من مركز كينيدي للفضاء في كيب كانافيرال بفلوريدا (رويترز)

«أوريون»... مركبة أم نظام تشغيل؟

في قلب المهمة تأتي مركبة «أوريون» (Orion) التي يمكن النظر إليها بوصفها منصة متكاملة تجمع بين عدة أنظمة تعمل بتناغم. فهي ليست مجرد كبسولة لنقل الرواد، بل بيئة مغلقة تحاكي قدر الإمكان ظروف الحياة على الأرض. تشمل هذه المنظومة أنظمة دعم الحياة التي تتحكم في الأكسجين، والضغط، والرطوبة، وأنظمة تنقية المياه، وإدارة النفايات، إضافة إلى أنظمة مراقبة صحية تتابع حالة الطاقم بشكل مستمر. كل هذه العناصر تجعل المركبة أقرب إلى «نظام تشغيل» بيئي يدير كل ما يتعلق بحياة الإنسان داخل الفضاء.

وتعتمد «Orion» أيضاً على وحدة الخدمة الأوروبية التي طورتها وكالة الفضاء الأوروبية لتوفير الطاقة، والدفع، والموارد الأساسية. هذا التكامل الدولي يعكس تحول برامج الفضاء من مشاريع وطنية إلى بنى تحتية عالمية مشتركة.

الملاحة خارج الأرض... استقلالية أكبر

في الفضاء العميق، لا يمكن الاعتماد بشكل كامل على الأنظمة الأرضية. فالإشارات تحتاج إلى وقت للوصول، ما يفرض تحدياً في اتخاذ القرارات الفورية.

لهذا، تعتمد «أرتميس ‌2» على مزيج من الملاحة الذاتية، والاتصال الأرضي، ما يمنح المركبة قدراً من الاستقلالية. هذه القدرة ليست تفصيلاً تقنياً، بل ضرورة، خصوصاً مع التفكير في رحلات أبعد، حيث يصبح التأخير الزمني أكبر.

كبسولة «أوريون» جزء من مهمة «أرتميس 2» التابعة لوكالة «ناسا» في فلوريدا (إ.ب.أ)

إدارة الطاقة... والعودة إلى الأرض

تعمل المركبة بالطاقة الشمسية، لكن التحدي لا يكمن فقط في توليد الطاقة، بل في إدارتها بكفاءة. فالأجهزة، وأنظمة الحياة، والاتصالات، كلها تعتمد على توزيع دقيق للطاقة. إلى جانب ذلك، تمثل الحرارة تحدياً أساسياً. ففي الفضاء يمكن أن تتعرض المركبة لدرجات حرارة متطرفة، ما يتطلب أنظمة تحكم حراري دقيقة تحافظ على استقرار البيئة الداخلية.

رغم أن الإطلاق يمثل لحظة حاسمة، فإن العودة إلى الأرض تُعد من أكثر مراحل المهمة تعقيداً. إذ تدخل المركبة الغلاف الجوي بسرعات هائلة، ما يولد حرارة شديدة تتطلب درعاً حرارياً متقدماً.

هذا الدرع لا يحمي المركبة فقط، بل يحدد أيضاً مدى نجاح المهمة في إعادة الطاقم بأمان، وهو عنصر أساسي في أي برنامج فضائي طويل الأمد.

الإنسان كجزء من المنظومة

ليست «أرتميس ‌2» اختباراً للآلات فقط، بل أيضاً للإنسان. سيتم تزويد رواد الفضاء بأجهزة استشعار لمراقبة المؤشرات الحيوية، بهدف فهم تأثير الرحلات الفضائية على الجسم. هذا يعكس تحولاً في النظرة إلى الطاقم، من «مستخدمين» للمركبة إلى عناصر بيانات داخل نظام متكامل. فالقدرة على تحليل هذه البيانات ستكون حاسمة في تصميم المهمات المستقبلية.

تعد أنظمة الاتصال من الجوانب التي لا يمكن إغفالها. فالحفاظ على اتصال مستقر بين المركبة والأرض يتطلب بنية تحتية معقدة، خاصة مع المسافات المتزايدة. هذه الأنظمة لا تضمن فقط التواصل، بل تلعب دوراً في نقل البيانات، وتحديث الأنظمة، ودعم اتخاذ القرار، ما يجعلها جزءاً أساسياً من نجاح المهمة.

بعد 53 عاماً... «ناسا» تعيد البشر إلى عتبة القمر

بين الطموح والتحديات

رغم التقدم التقني، لا تخلو المهمة من تحديات. فتعقيد الأنظمة، وتعدد الجهات المشاركة، والتكاليف المرتفعة، كلها عوامل تضيف ضغوطاً على البرنامج. كما أن بعض الاختبارات والتأخيرات التي سبقت المهمة تعكس طبيعة هذا النوع من المشاريع، حيث لا مجال للخطأ في بيئة عالية المخاطر.

لا يمكن النظر إلى «أرتميس ‌2» بوصفها مهمة منفصلة، بل هي جزء من مسار طويل. فالقمر هنا ليس الهدف النهائي، بل محطة اختبار. الهدف الأكبر هو تطوير تقنيات تتيح للبشر السفر إلى المريخ، والبقاء هناك. وفي هذا السياق، تصبح «أرتميس ‌2» أقل ارتباطاً بالوجهة، وأكثر ارتباطاً بالأنظمة التي تختبرها.

فما يجري اليوم ليس مجرد إطلاق جديد، بل محاولة لإعادة تعريف العلاقة بين الإنسان والفضاء عبر تقنيات قد تجعل الوجود خارج الأرض أمراً قابلاً للاستمرار، لا مجرد تجربة مؤقتة.


دراسة: حماية البيانات المالية تحتاج إلى أكثر من حلول تقنية

حماية البيانات المالية لم تعد تعتمد على الحلول التقنية فقط بل تتطلب منظومة متكاملة تشمل التنظيم والسلوك البشري (شاترستوك)
حماية البيانات المالية لم تعد تعتمد على الحلول التقنية فقط بل تتطلب منظومة متكاملة تشمل التنظيم والسلوك البشري (شاترستوك)
TT

دراسة: حماية البيانات المالية تحتاج إلى أكثر من حلول تقنية

حماية البيانات المالية لم تعد تعتمد على الحلول التقنية فقط بل تتطلب منظومة متكاملة تشمل التنظيم والسلوك البشري (شاترستوك)
حماية البيانات المالية لم تعد تعتمد على الحلول التقنية فقط بل تتطلب منظومة متكاملة تشمل التنظيم والسلوك البشري (شاترستوك)

تزداد أهمية حماية البيانات الشخصية، خصوصاً المالية، مع توسع الأنظمة الرقمية التي باتت تدير جانباً كبيراً من الحياة اليومية. دراسة حديثة منشورة في «Electronic Government: An International Journal» تسلط الضوء على التحديات المتزايدة في هذا المجال، مشيرة إلى أن تعقيد البيئة الرقمية يجعل من الصعب الاعتماد على حل واحد لضمان الأمان.

توضح الدراسة أن الأنظمة المالية الرقمية لم تعد تعتمد فقط على البنية التقنية، بل أصبحت جزءاً من منظومة أوسع تشمل المستخدمين والمؤسسات والتشريعات. وفي هذا السياق، لم يعد الاختراق نتيجة ثغرة واحدة، بل نتيجة تفاعل عدة عوامل في الوقت نفسه، ما يجعل الحماية أكثر تعقيداً.

تركّز الدراسة على ثلاثة عناصر أساسية تشكل أساس أي نظام آمن وهي السرية وسلامة البيانات وإمكانية الوصول. فالسرية تعني حماية المعلومات الحساسة بحيث لا يتم الوصول إليها إلا من قبل المستخدمين المصرح لهم. أما سلامة البيانات تتعلق بالحفاظ على دقة المعلومات ومنع التلاعب بها. كما أن إمكانية الوصول تضمن أن يتمكن المستخدم الشرعي من الوصول إلى بياناته دون عوائق.

وتشير الدراسة إلى أن أي خلل في أحد هذه العناصر يمكن أن يؤدي إلى خسائر مالية مباشرة، أو إلى تراجع الثقة في الأنظمة الرقمية بشكل عام.

تهديدات تتطور بسرعة

تواجه الأنظمة المالية اليوم مجموعة متزايدة من التهديدات، أبرزها «التصيد الاحتيالي» (Phishing)، الذي يعتمد على خداع المستخدم للحصول على بياناته، إضافة إلى البرمجيات الخبيثة التي تستهدف الأجهزة بشكل مباشر. كما تشير الدراسة إلى خطر «التهديدات الداخلية» حيث قد يأتي الاختراق من داخل المؤسسات نفسها، سواء بشكل متعمد أو نتيجة سوء استخدام الصلاحيات. وتضيف أن الهجمات واسعة النطاق التي تستهدف قواعد بيانات كاملة، أصبحت أكثر شيوعاً، مع وجود أسواق سوداء لبيع البيانات المسروقة. هذه التهديدات لم تعد تقليدية، بل تتطور باستمرار لتتجاوز أنظمة الحماية المعروفة، ما يجعل من الصعب الاعتماد على أساليب الدفاع التقليدية فقط.

تتطور التهديدات السيبرانية بسرعة وتشمل التصيد الاحتيالي والبرمجيات الخبيثة والاختراقات واسعة النطاق (شاتوستوك)

الأنظمة التنظيمية... ضرورة وليست كافية

في مواجهة هذه المخاطر، تعمل المؤسسات المالية ضمن أطر تنظيمية صارمة تشمل التشفير والمصادقة متعددة العوامل والتدقيق المستمر. لكن الدراسة تشير إلى أن هذه الإجراءات، رغم أهميتها، لا توفر حماية كاملة.

فالقوانين والتقنيات يمكن أن تقلل من المخاطر، لكنها لا تلغيها. إذ تبقى هناك فجوة بين ما يمكن للنظام التقني تحقيقه، وما يمكن أن يحدث نتيجة سلوك المستخدم أو تطور الهجمات.

العامل البشري... الحلقة الأضعف

من أبرز ما تؤكد عليه الدراسة أن المستخدم نفسه يمثل أحد أهم نقاط الضعف في النظام. فحتى مع وجود أنظمة حماية متقدمة، يمكن لخطأ بسيط مثل الضغط على رابط مزيف أو استخدام كلمة مرور ضعيفة أن يؤدي إلى اختراق كامل. وتشير النتائج إلى أن التوعية تلعب دوراً محورياً في تقليل هذه المخاطر. فتعليم المستخدمين كيفية التعرف على محاولات الاحتيال، واستخدام كلمات مرور قوية، وعدم إعادة استخدامها عبر منصات مختلفة، يمكن أن يكون له تأثير كبير على مستوى الأمان.

بناءً على ذلك، تقترح الدراسة أن حماية البيانات المالية يجب أن تعتمد على مقاربة شاملة تجمع بين التكنولوجيا، والتنظيم، والسلوك البشري.

فبدلاً من التركيز على أداة واحدة، يجب بناء نظام متكامل يأخذ في الاعتبار جميع نقاط الضعف المحتملة. وهذا يشمل تطوير تقنيات أكثر ذكاءً، وتحديث التشريعات بشكل مستمر، وتعزيز وعي المستخدمين.

الثقة عامل حاسم

لا تتعلق المسألة فقط بحماية البيانات، بل بالحفاظ على الثقة في النظام الرقمي ككل. فكل اختراق لا يؤثر فقط على المستخدم المتضرر، بل ينعكس على ثقة المستخدمين الآخرين في الخدمات الرقمية.

وتحذر الدراسة من أن فقدان هذه الثقة قد يكون له تأثير أوسع على الاقتصاد الرقمي، حيث يعتمد جزء كبير من النشاط الاقتصادي اليوم على التعاملات الإلكترونية.

تشير الدراسة إلى أن التحدي الحقيقي في حماية البيانات المالية لا يكمن في تطوير تقنيات جديدة فقط، بل في القدرة على دمج هذه التقنيات ضمن منظومة أوسع تشمل الإنسان والتنظيم.


«شات جي بي تي» يرافقك أثناء القيادة… عبر «CarPlay» من «أبل»

أصبح «شات جي بي تي» متاحاً داخل «CarPlay» عبر تفاعل صوتي فقط يتناسب مع بيئة القيادة (شاترستوك)
أصبح «شات جي بي تي» متاحاً داخل «CarPlay» عبر تفاعل صوتي فقط يتناسب مع بيئة القيادة (شاترستوك)
TT

«شات جي بي تي» يرافقك أثناء القيادة… عبر «CarPlay» من «أبل»

أصبح «شات جي بي تي» متاحاً داخل «CarPlay» عبر تفاعل صوتي فقط يتناسب مع بيئة القيادة (شاترستوك)
أصبح «شات جي بي تي» متاحاً داخل «CarPlay» عبر تفاعل صوتي فقط يتناسب مع بيئة القيادة (شاترستوك)

أصبح بالإمكان استخدام «شات جي بي تي» (ChatGPT) داخل نظام «كاربلاي» (CarPlay) من «أبل»، في خطوة تعكس توسع حضور الذكاء الاصطناعي خارج الهاتف نحو بيئات الاستخدام اليومية مثل السيارة. ومع تحديثات «26.4 iOS » الأخيرة، فتحت «أبل» المجال أمام تطبيقات المحادثة الصوتية للعمل داخل «CarPlay»؛ ما يتيح للمستخدمين التفاعل مع أنظمة، مثل «تشات جي بي تي»، أثناء القيادة.

هذه الخطوة تبدو للوهلة الأولى امتداداً طبيعياً لانتشار الذكاء الاصطناعي، لكنها في الواقع تمثل تحولاً أوسع في كيفية استخدام هذه التقنيات، من واجهات تعتمد على الشاشة إلى تفاعل صوتي مستمر ومندمج في السياق اليومي.

تجربة صوتية بالكامل

على عكس استخدام «شات جي بي تي» على الهاتف أو الحاسوب، تقتصر التجربة داخل «كار بلاي» على الصوت. لا توجد واجهة نصية، ولا إمكانية لعرض الإجابات على الشاشة. بدلاً من ذلك، يعتمد التفاعل على طرح الأسئلة واستقبال الإجابات صوتياً، بما يتماشى مع متطلبات السلامة أثناء القيادة.

هذا القيد ليس تقنياً فقط، بل تصميمي أيضاً؛ فبيئة السيارة تفرض نمط استخدام مختلفاً، حيث يجب أن تكون التجربة بسيطة وسريعة ولا تتطلب انتباهاً بصرياً مستمراً. وفي هذا السياق، يصبح الصوت هو الوسيط الأساسي، وليس مجرد خيار إضافي.

لا يزال «سيري» المساعد الأساسي بينما يعمل «شات جي بي تي» بوصفه خياراً مكملاً وليس بديلاً (شاترستوك)

كسر احتكار «سيري»... جزئياً

لفترة طويلة، كان «سيري» المساعد الصوتي الوحيد داخل «كار بلاي». لكن التحديثات الأخيرة تشير إلى بداية انفتاح النظام على خدمات ذكاء اصطناعي خارجية. ومع ذلك، لا يعني هذا أن «ChatGPT» حل محل «سيري»؛ فلا يزال «سيري» المساعد الافتراضي، ولا يمكن استبداله بالكامل. كما أن استخدام «شات جي بي تي» يتطلب فتح التطبيق بشكل يدوي، ولا يدعم أوامر تنشيط مباشرة مثل «Hey Siri». وهذا يضعه حالياً في موقع مكمل، وليس بديلاً.

رغم أن إدخال «شات جي بي تي» إلى «كاربلاي» يمثل خطوة لافتة، فإن قدراته داخل السيارة لا تزال محدودة. فهو لا يستطيع التحكم بوظائف السيارة، ولا الوصول إلى إعدادات النظام، ولا التفاعل العميق مع تطبيقات أخرى. بمعنى آخر، ما نراه اليوم هو وصول الذكاء الاصطناعي إلى السيارة، وليس اندماجه الكامل فيها.

لكن الأهمية لا تكمن في الوظائف الحالية بقدر ما تكمن في الاتجاه الذي تشير إليه؛ فوجود «ChatGPT» داخل «CarPlay» يعكس تحول السيارة إلى مساحة جديدة للتفاعل مع الذكاء الاصطناعي، إلى جانب الهاتف والحاسوب.

تظل قدرات «شات جي بي تي» داخل السيارة محدودة دون تكامل عميق مع النظام أو وظائف السيارة (أ.ف.ب)

السيارة بوصفها واجهة جديدة للذكاء الاصطناعي

ما يتغير هنا ليس فقط مكان استخدام الذكاء الاصطناعي، بل طبيعته أيضاً. ففي السيارة، لا يكون المستخدم جالساً أمام شاشة، وإنما يصبح منخرطاً في القيادة. وهذا يفرض نمطاً جديداً من التفاعل، يعتمد على الصوت والسياق والاختصار. في هذا النموذج، يتحول الذكاء الاصطناعي إلى ما يشبه «مرافقاً رقمياً» يمكنه الإجابة عن الأسئلة، وتقديم معلومات، أو حتى المساعدة في مهام بسيطة أثناء التنقل.

وهذا يفتح الباب أمام استخدامات محتملة تتجاوز ما هو متاح حالياً، مثل التفاعل مع أنظمة الملاحة، أو تقديم توصيات سياقية، أو إدارة بعض جوانب الرحلة.

ورغم هذه الإمكانات، لا تزال التجربة في مراحلها الأولى. فغياب التكامل العميق، والاعتماد الكامل على الصوت، وضرورة تشغيل التطبيق يدوياً، كلها عوامل تحد من سهولة الاستخدام.

كما أن هناك تساؤلات أوسع تتعلق بمدى الحاجة الفعلية لمثل هذه الخدمات داخل السيارة. فكثير من المستخدمين يعتمدون بالفعل على أنظمة قائمة مثل «سيري» أو مساعدات الملاحة؛ ما يطرح سؤالاً حول القيمة المضافة التي يقدمها «شات جي بي تي» في هذا السياق.

من الصعب النظر إلى هذه الخطوة بوصفها ميزة منفصلة فقط. فهي تشير إلى تحول تدريجي في دور الذكاء الاصطناعي، من أداة تُستخدم عند الحاجة، إلى جزء من البيئة المحيطة بالمستخدم.

في هذا الإطار، تصبح السيارة واحدة من عدة نقاط اتصال مع الذكاء الاصطناعي، إلى جانب المنزل والمكتب والهاتف. ومع استمرار تطور هذه الأنظمة، قد يتحول هذا التفاعل من تجربة محدودة إلى عنصر أساسي في الحياة اليومية.