كيف نقول «لا» لأسياد الذكاء الاصطناعي

خطوات للحد من «التهام» الذكاء الاصطناعي للبيانات الشخصية

كيف نقول «لا» لأسياد الذكاء الاصطناعي
TT

كيف نقول «لا» لأسياد الذكاء الاصطناعي

كيف نقول «لا» لأسياد الذكاء الاصطناعي

أطلقت الشركات التكنولوجية الكبرى مثل «غوغل»، و«أبل»، و«مايكروسوفت»، و«ميتا» العنان للتكنولوجيا التي تصفها بـ«الذكاء الاصطناعي». وتقول إننا سنستخدم جميعاً، قريباً، الذكاء الاصطناعي لكتابة رسائل البريد الإلكتروني وإنشاء الصور وتلخيص المقالات.

تردّد الجمهور... واندفاعة الشركات

ولكن، مَن الذي طلب أياً من هذه الأمور في المقام الأول؟ استناداً إلى التعليقات التي أتلقاها من قراء هذا العمود، يظل كثير من الأشخاص، خارج صناعة التكنولوجيا، غير مهتمين بالذكاء الاصطناعي، ويشعرون بالإحباط بشكل متزايد إزاء مدى صعوبة تجاهله.

تعتمد الشركات على نشاط المستخدِم لتدريب وتحسين أنظمة الذكاء الاصطناعي الخاصة بها، لذلك فهي تختبر هذه التكنولوجيا داخل المنتجات التي نستخدمها كل يوم.

ستؤدي كتابة أي سؤال في «غوغل» إلى إنتاج ملخص - تم إنشاؤه بواسطة الذكاء الاصطناعي - للإجابة، أعلى نتائج البحث. وكلما استخدمت أداة البحث داخل «إنستغرام»، فقد تتفاعل الآن مع روبوت الدردشة «Meta AI». بالإضافة إلى ذلك، عندما تصل مجموعة أدوات الذكاء الاصطناعي من «Apple Intelligence»، إلى أجهزة «آيفون» ومنتجات «أبل» الأخرى من خلال تحديثات البرامج هذا الشهر، فستظهر التقنية داخل الأزرار التي نستخدمها لتحرير النصوص والصور.

التهام تفاصيل البيانات الشخصية

إن انتشار الذكاء الاصطناعي في تكنولوجيا المستهلك له آثار كبيرة على خصوصية بياناتنا؛ لأن الشركات مهتمة بربط وتحليل أنشطتنا الرقمية، بما في ذلك التفاصيل داخل صورنا ورسائلنا وعمليات البحث على الويب؛ لتحسين أنظمة الذكاء الاصطناعي. بالنسبة للمستخدمين، يمكن أن تكون الأدوات ببساطة مصدر إزعاج عندما لا تعمل بشكل جيد.

 

* تعتمد الشركات على نشاط المستخدم لتدريب وتحسين أنظمة الذكاء الاصطناعي لها*

 

ويعلق ثورين كلوسوفسكي، محلل الخصوصية والأمان في مؤسسة «Electronic Frontier Foundation»، وهي مؤسسة غير ربحية للحقوق الرقمية: «هناك عدم ثقة حقيقي في هذه الأدوات... إنها قبيحة وتعترض الطريق».

خطوات إيقاف الذكاء الاصطناعي

بعد أن اتصلت بشركات «غوغل»، و«أبل»، و«ميتا»، و«مايكروسوفت»، عرض مسؤولوها خطوات لإيقاف تشغيل أدوات الذكاء الاصطناعي أو جمع البيانات، حيثما أمكن ذلك. وسأشرح لكم تلك الخطوات.

غوغل

يقوم منتج الذكاء الاصطناعي الأكثر شهرة من «غوغل»، وهو «AI Overviews»، تلقائياً بإنشاء ملخص يحاول الإجابة عن الأسئلة التي تدخلها في بحث «غوغل». كانت هذه الميزة قد واجهت صعوبات في الظهور في شهر مايو (أيار)، عندما أخبر الذكاء الاصطناعي من «غوغل» المستخدمين، من بين أخطاء أخرى، أنه يمكنهم وضع الغراء على البيتزا، لكن الأداة تحسّنت منذ ذلك الحين.

مع ذلك، يمكن أن تكون ملخصات الذكاء الاصطناعي مُشتِّتة للانتباه، ولا توجد طريقة لإلغاء تنشيطها من التحميل، ولكن يمكنك النقر فوق زر لتصفيتها. بعد كتابة شيء مثل «وصفة بسكويت رقائق الشوكولاته» في شريط البحث، انقر فوق علامة التبويب (الويب)؛ لعرض قائمة بنتائج البحث البسيطة، تماماً كما كانت الحال في بحث «غوغل».

أما بالنسبة لبيانات البحث، فيمكن للمستخدمين منع «غوغل» من الاحتفاظ بسجل لعمليات البحث على الويب الخاصة بهم من خلال زيارة «myactivity.google.com»، وإيقاف تشغيل «نشاط الويب والتطبيق».

لدى «غوغل» أيضاً روبوت محادثة يعمل بالذكاء الاصطناعي «جيمناي (Gemini)»، ويمكن العثور على الإعداد لمنعه من تخزين البيانات على «myactivity.google.com/product/gemini».

ميتا

في أبريل (نيسان) بدأ ظهور «Meta AI»، وهو روبوت محادثة يمكنه البحث عن الرحلات الجوية وإنشاء الصور وإعداد الوصفات، في شريط البحث في تطبيقات «ميتا»، بما في ذلك «إنستغرام»، و«واتساب»، و«ماسنجر». وقالت «ميتا» إنه لا توجد طريقة للمستخدمين لإيقاف تشغيل «Meta AI».

فقط في المناطق التي لديها قوانين حماية بيانات أقوى، بما في ذلك الاتحاد الأوروبي وبريطانيا، يمكن للأشخاص منع «ميتا» من الوصول إلى معلوماتهم الشخصية لبناء وتدريب الذكاء الاصطناعي الخاص بالشركة.

على سبيل المثال، على «إنستغرام»، يمكن للأشخاص الذين يعيشون في تلك الأماكن النقر فوق «الإعدادات»، ثم «حول»، و«سياسة الخصوصية»؛ ما سيؤدي إلى تعليمات إلغاء الاشتراك. يمكن لأي شخص آخر، بمَن في ذلك المستخدمون في الولايات المتحدة، زيارة صفحة الدعم هذه لمطالبة «ميتا» فقط بحذف البيانات المُستخدَمة من قبل طرف ثالث لتطوير الذكاء الاصطناعي الخاص بها.

مايكروسوفت

يمكن تنشيط روبوت المحادثة «كوبايلوت (Copilot)» من «مايكروسوفت»

بالذكاء الاصطناعي بالنقر فوق زر قوس قزح مدمج في بعض المنتجات مثل متصفح «إيدج (Edge)»، وبحث «بنغ (Bing)».

وأبسط طريقة لتجنب روبوت المحادثة هي عدم النقر فوق هذا الزر. ولكن إذا كنت تريد إزالته من متصفح «إيدج»، فيمكنك إدخال «edge://settings» في شريط العناوين والنقر فوق «الشريط الجانبي»، ثم «إعدادات التطبيق والإشعارات»، وأخيراً، «Copilot»، حيث يجب إيقاف تشغيل إعداد «كوبايلوت».

إذا كنت تريد منع «كوبايلوت» من استخدام بياناتك لتدريب الذكاء الاصطناعي، فعليك زيارة «copilot.microsoft.com»، والانتقال إلى قائمة الخصوصية في إعدادات الحساب، حيث يمكنك إيقاف تشغيل خيار يُسمى «تدريب النموذج».

* نصيحة إضافية: لمستخدمي «لينكدإن (LinkedIn)»، شبكة التواصل الاجتماعي الخاصة بشركة «مايكروسوفت» للمحترفين: بدأ الموقع أخيراً في استخدام أي شيء منشور على موقعه لتدريب نظام الذكاء الاصطناعي الخاص به، الذي يمكن استخدامه في النهاية لمساعدة الأشخاص على العثور على وظائف جديدة.

لمنع «لينكدإن» من استخدام المحتوى الخاص بك، انتقل إلى علامة التبويب «الإعدادات والخصوصية» ضمن ملفك الشخصي، وانقر فوق علامة التبويب «خصوصية البيانات»، وانقر فوق «بيانات لتحسين GenAI». ثم قم بإيقاف تشغيل المفتاح.

أبل

سيتم إطلاق مجموعة خدمات الذكاء الاصطناعي «أبل أنتليجنس (Apple Intelligence)»، هذا الشهر في حالة غير مكتملة من خلال تحديثات البرامج على بعض أجهزة «آيفون»، و«آيباد»، و«ماك». لاستخدام هذه الأداة، سيتعين على المستخدمين الاشتراك من خلال قائمة تحمل اسم «Apple Intelligence & Siri».

وبمجرد التنشيط، ستظهر بعض الميزات داخل أدوات تحرير النصوص والصور. عند تحرير صورة، على سبيل المثال، يوجد زر «تنظيف» لإزالة الصور المزعجة تلقائياً.

إذا غيّرت رأيك ولم تعد ترغب في استخدام «أبل إنتليجنس»، فيمكنك الرجوع إلى الإعدادات وإيقاف تشغيل مفتاح «أبل إنتليجنس»، مما يجعل الأدوات تختفي. وتقول «أبل» إنها ابتكرت نظاماً يحمي خصوصية المستخدمين، حيث لا يمكن للشركة الوصول إلى البيانات التي يتم دفعها إلى خوادمها. وبدلاً من ذلك، تقول الشركة إنه يتم استخدامه حصرياً لمعالجة طلب المستخدم، مثل سؤال معقد موجه إلى «سيري (Siri)»، قبل إزالة المعلومات من خوادمها.

* خدمة «نيويورك تايمز».


مقالات ذات صلة

البرلمان الأوروبي يحظر أدوات ذكاء اصطناعي «تعرّي» أشخاصاً

تكنولوجيا شعار روبوت الدردشة «غروك» يظهر على شاشتين (أ.ف.ب)

البرلمان الأوروبي يحظر أدوات ذكاء اصطناعي «تعرّي» أشخاصاً

أقرّ البرلمان الأوروبي، الخميس، قانوناً يحظّر استخدام الذكاء الاصطناعي لـ«تعرية» الأشخاص من دون موافقتهم.

«الشرق الأوسط» (بروكسل)
الاقتصاد أشخاص يسيرون في شارع وول ستريت قرب بورصة نيويورك (رويترز)

رغم تقلبات الأسواق... مكافآت «وول ستريت» في 2025 تصل إلى مستويات قياسية

بلغت مكافآت «وول ستريت» لعام 2025 مستويات غير مسبوقة خلال عام شهد تقلبات حادة في الأسواق.

«الشرق الأوسط» (نيويورك)
الولايات المتحدة​ ميلانيا ترمب تصل برفقة الروبوت لحضور قمة «Fostering the Future Together» العالمية في البيت الأبيض بواشنطن اليوم (أ.ب) p-circle

ميلانيا ترمب تستقبل أول «روبوت» بشري في البيت الأبيض

خطفت السيدة الأولى الأميركية ميلانيا ترمب الأنظار مجدداً، بعدما رافقها «روبوت» بشري متطور خلال فعالية رسمية في البيت الأبيض.

«الشرق الأوسط» (واشنطن)
تكنولوجيا تلعب طريقة عرض المعلومات وسردها دوراً أساسياً في تشكيل الفهم وليس فقط مضمونها (شاترستوك)

دراسة تبحث: هل يغيّر الذكاء الاصطناعي طريقة تفكيرنا رغم صحة المعلومات؟

دراسة تظهر أن الذكاء الاصطناعي يؤثر في الآراء عبر طريقة عرض المعلومات حتى عندما تكون الحقائق صحيحة وغير مضللة.

نسيم رمضان (لندن)
علوم لماذا يفقد الجمهور ثقته في الذكاء الاصطناعي التوليدي؟

لماذا يفقد الجمهور ثقته في الذكاء الاصطناعي التوليدي؟

تراجع ثقة الأميركيين بعد انتشار القصص الوهمية في وسائل الاتصال الاجتماعي

«الشرق الأوسط» (واشنطن)

«أبل» تعتزم فتح «سيري» أمام خدمات الذكاء الاصطناعي المنافِسة

يظهر شعار شركة «أبل» على مبنى في حي مانهاتن بمدينة نيويورك الأميركية (د.ب.أ)
يظهر شعار شركة «أبل» على مبنى في حي مانهاتن بمدينة نيويورك الأميركية (د.ب.أ)
TT

«أبل» تعتزم فتح «سيري» أمام خدمات الذكاء الاصطناعي المنافِسة

يظهر شعار شركة «أبل» على مبنى في حي مانهاتن بمدينة نيويورك الأميركية (د.ب.أ)
يظهر شعار شركة «أبل» على مبنى في حي مانهاتن بمدينة نيويورك الأميركية (د.ب.أ)

ذكرت «بلومبيرغ نيوز»، اليوم الخميس، أن «أبل» تخطط لفتح مساعدها الصوتي «سيري» أمام خدمات ​الذكاء الاصطناعي المنافِسة، بما يتجاوز شراكتها الحالية مع «تشات جي بي تي».

وقالت الوكالة، في تقريرها الذي نقلته عن مصادر مطّلعة، إن هذه الخطوة، المتوقعة ضِمن تحديث نظام التشغيل «آي أو إس 27» من «أبل»، ستسمح لتطبيقات الذكاء الاصطناعي التابعة لجهات خارجية بالاندماج مباشرة مع «سيري»، مما يمكّن المستخدمين من توجيه الاستفسارات إلى خدمات مثل «جيميناي» التابعة لشركة «ألفابت»، أو «كلود» التابعة لشركة «أنثروبيك» من داخل المساعد.

وهذا التغيير تحول مهم في استراتيجية «أبل» للذكاء الاصطناعي، إذ تسعى الشركة إلى اللحاق بركب نظيراتها في وادي السيليكون، ووضع «آيفون» كمنصة أوسع للذكاء الاصطناعي.

و«سيري»، الذي أُطلق لأول مرة منذ أكثر من عقد، عنصر أساسي في هذا المسعى. وأفادت «بلومبيرغ نيوز» بأن «أبل» تُطور أدوات تسمح لتطبيقات روبوتات الدردشة المثبتة عبر متجر التطبيقات الخاص بها بالعمل مع «سيري» وميزات أخرى ضِمن منصة «أبل إنتليجنس». وسيتمكن المستخدمون من اختيار خدمة الذكاء الاصطناعي التي تتولى معالجة كل طلب.

وذكر التقرير أن هذا التحديث قد يساعد «أبل» أيضاً على تحقيق مزيد من الإيرادات من خلال الحصول على حصة من الاشتراكات المبيعة عبر خدمات الذكاء الاصطناعي التابعة لجهات خارجية.

ومن المتوقع أن تستعرض «أبل» ميزات البرنامج الجديدة في مؤتمر المطورين العالمي الذي تعقده في يونيو (حزيران) المقبل، غير أن الخطط قد تتغير.


البرلمان الأوروبي يحظر أدوات ذكاء اصطناعي «تعرّي» أشخاصاً

شعار روبوت الدردشة «غروك» يظهر على شاشتين (أ.ف.ب)
شعار روبوت الدردشة «غروك» يظهر على شاشتين (أ.ف.ب)
TT

البرلمان الأوروبي يحظر أدوات ذكاء اصطناعي «تعرّي» أشخاصاً

شعار روبوت الدردشة «غروك» يظهر على شاشتين (أ.ف.ب)
شعار روبوت الدردشة «غروك» يظهر على شاشتين (أ.ف.ب)

أقرّ البرلمان الأوروبي، الخميس، قانوناً يحظّر استخدام الذكاء الاصطناعي لـ«تعرية» الأشخاص من دون موافقتهم.

وتمّ تبني القرار في نصّ أُقرّ بأغلبية ساحقة (569 صوتاً مقابل 45 صوتاً معارضاً) خلال جلسة عامة للبرلمان في بروكسل، وفقاً لـ«وكالة الصحافة الفرنسية».

وأوضح بيان صادر عن البرلمان أن الأمر يتعلّق بحظر برامج «التعرية» التي «تستخدم الذكاء الاصطناعي لإنشاء أو التلاعب بصور ذات إيحاءات جنسية واضحة، أو صور في وضع حميم تشبه شخصاً حقيقياً يمكن التعرّف عليه، من دون موافقة هذا الشخص».

ولا يطبّق النص على أنظمة الذكاء الاصطناعي المزوّدة «بتدابير أمنية فعّالة» تحول دون هذه الممارسات.

وكانت دول الاتحاد الأوروبي أقرّت هذا الشهر إجراء مشابهاً. وسيتعيّن عليها الآن التفاوض مع البرلمان للتوصل إلى صياغة متقاربة، قبل أن يصبح من الممكن تطبيق الإجراء.

وتأتي هذه المبادرات خصوصاً بعد إدخال خاصية قبل بضعة أشهر في تطبيق «غروك» للذكاء الاصطناعي تتيح للمستخدمين أن يطلبوا منه تركيب صور مزيفة قريبة جداً من الواقعية (ديب فيك) لنساء وأطفال عراة، انطلاقاً من صور حقيقية.

وأثارت هذه القضية موجة استنكار في العديد من الدول ودفعت الاتحاد الأوروبي إلى فتح تحقيق.

كما وافق البرلمان في النص ذاته، على إرجاء دخول قوانين أوروبية جديدة حيّز التنفيذ بشأن أنظمة الذكاء الاصطناعي ذات المخاطر العالية، أي تلك العاملة في مجالات حساسة كالأمن أو الصحة أو الحقوق الأساسية.

وكان من المفترض أن تدخل هذه القواعد حيّز التنفيذ في أغسطس (آب) 2026. وعلى غرار الدول الأعضاء، اقترح النواب الأوروبيون تاريخين محدّدين لهذا التأجيل، في حين كانت المفوضية الأوروبية تريد منح الشركات جدولاً زمنياً أكثر مرونة.

والتاريخان هما: الثاني من ديسمبر (كانون الأول) 2027 للأنظمة المستقلة ذات المخاطر العالية، والثاني من أغسطس (آب) 2028 للأنظمة المدمجة في برامج أو منتجات أخرى.


«هيوماين» و«Turing» تطلقان سوقاً عالمية لوكلاء الذكاء الاصطناعي للمؤسسات

تجمع الشراكة بين البنية التحتية والنماذج لدى «هيوماين» وخبرة «Turing» في تطوير وتقييم أنظمة الذكاء الاصطناعي (هيوماين)
تجمع الشراكة بين البنية التحتية والنماذج لدى «هيوماين» وخبرة «Turing» في تطوير وتقييم أنظمة الذكاء الاصطناعي (هيوماين)
TT

«هيوماين» و«Turing» تطلقان سوقاً عالمية لوكلاء الذكاء الاصطناعي للمؤسسات

تجمع الشراكة بين البنية التحتية والنماذج لدى «هيوماين» وخبرة «Turing» في تطوير وتقييم أنظمة الذكاء الاصطناعي (هيوماين)
تجمع الشراكة بين البنية التحتية والنماذج لدى «هيوماين» وخبرة «Turing» في تطوير وتقييم أنظمة الذكاء الاصطناعي (هيوماين)

في خطوة تعكس تسارع الاهتمام بتطبيقات الذكاء الاصطناعي داخل المؤسسات، أعلنت «هيوماين»، التابعة لصندوق الاستثمارات العامة، عن شراكة مع شركة «Turing» المتخصصة في تطوير أنظمة الذكاء الاصطناعي، بهدف إنشاء سوق عالمية لوكلاء الذكاء الاصطناعي ضمن منصة «HUMAIN ONE».

وتتمحور الفكرة حول توفير بيئة تمكّن الشركات من اكتشاف هذه الوكلاء وتطبيقها وتوسيع استخدامها عبر وظائف مختلفة، مثل الموارد البشرية والمالية والعمليات، في محاولة لتسريع الانتقال من استخدام أدوات رقمية تقليدية إلى نماذج تشغيل أكثر اعتماداً على الأتمتة الذكية.

يفتح المشروع المجال أمام المطورين لنشر حلولهم وبناء منظومة أوسع لما يُعرف بـ«اقتصاد الوكلاء» (شاترستوك)

منصات التشغيل الذكي

الشراكة تجمع بين ما تطوره «هيوماين» من بنية تحتية ونماذج ذكاء اصطناعي، وبين خبرة «Turing» في تقييم النماذج وضبطها وتطبيقها في بيئات العمل. الهدف المعلن هو الوصول إلى وكلاء ذكاء اصطناعي يمكن استخدامها على نطاق واسع داخل المؤسسات، وليس فقط في التجارب أو النماذج الأولية.

ويُتوقع أن يشكّل هذا السوق طبقة جديدة ضمن ما يُعرف بنماذج التشغيل القائمة على الوكلاء، حيث لا تقتصر البرمجيات على دعم سير العمل، بل تبدأ في تنفيذه بشكل مباشر. وفي هذا السياق، يمكن للمؤسسات الوصول إلى وكلاء متخصصين حسب الوظيفة أو القطاع، ضمن بيئة مصممة لتكون قابلة للتوسع ومراعية لمتطلبات الأمان.

كما يفتح هذا التوجه المجال أمام المطورين وشركات التقنية لنشر حلولهم عبر المنصة، ما قد يساهم في بناء منظومة أوسع لوكلاء الذكاء الاصطناعي، تتجاوز حدود المؤسسات الفردية إلى سوق أكثر تكاملاً.

وتشير «هيوماين» إلى أن هذه الخطوة تأتي ضمن رؤية أوسع لإعادة تعريف كيفية بناء البرمجيات واستخدامها داخل المؤسسات، عبر الانتقال من نموذج «البرمجيات كخدمة» إلى بيئات تعتمد على وكلاء قادرين على تنفيذ المهام والتعلم والتفاعل بشكل مستمر.

يعكس هذا التوجه تحولاً نحو نماذج تشغيل جديدة تعتمد على وكلاء أذكياء بدلاً من البرمجيات التقليدية داخل المؤسسات

اقتصاد الوكلاء الناشئ

من جانبه، يرى طارق أمين، الرئيس التنفيذي لـ«هيوماين»، أن المرحلة المقبلة ستشهد تحولاً في طبيعة البرمجيات المستخدمة داخل المؤسسات، قائلاً إن «المؤسسات في المستقبل لن تُبنى حول تطبيقات منفصلة، بل حول وكلاء أذكياء يعملون إلى جانب الإنسان». ويضيف أن هذه الشراكة تسعى إلى تسريع بناء سوق يربط بين قدرات المطورين واحتياجات المؤسسات.

بدوره، أشار جوناثان سيدهارث، الرئيس التنفيذي والشريك المؤسس لـ«Turing»، إلى أن تحويل قدرات الذكاء الاصطناعي المتقدمة إلى تطبيقات عملية يمثل التحدي الأساسي حالياً، موضحاً أن بناء سوق قائم على الوكلاء قد يسهم في جعل هذه التقنيات أكثر ارتباطاً بالإنتاجية الفعلية داخل المؤسسات.

وتأتي هذه الشراكة أيضاً في سياق أوسع يعكس طموح السعودية لتكون لاعباً في تطوير تقنيات الذكاء الاصطناعي، ليس فقط من حيث الاستخدام، بل كمصدر للمنصات والحلول التقنية.

وبينما لا تزال فكرة «اقتصاد الوكلاء» في مراحل مبكرة، فإن الاتجاه نحو بناء منصات تجمع بين المطورين والمؤسسات يشير إلى تحول محتمل في طريقة تطوير البرمجيات وتبنيها. فبدلاً من شراء أدوات جاهزة، قد تتجه المؤسسات مستقبلاً إلى تشغيل منظومات من الوكلاء القادرين على تنفيذ مهام متكاملة عبر مختلف أقسام العمل.

في هذا الإطار، تبدو «HUMAIN ONE» محاولة لبناء هذه الطبقة التشغيلية الجديدة، حيث لا تقتصر القيمة على التكنولوجيا نفسها، بل على كيفية تنظيمها وتكاملها داخل بيئات العمل.