كيف نقول «لا» لأسياد الذكاء الاصطناعي

خطوات للحد من «التهام» الذكاء الاصطناعي للبيانات الشخصية

كيف نقول «لا» لأسياد الذكاء الاصطناعي
TT

كيف نقول «لا» لأسياد الذكاء الاصطناعي

كيف نقول «لا» لأسياد الذكاء الاصطناعي

أطلقت الشركات التكنولوجية الكبرى مثل «غوغل»، و«أبل»، و«مايكروسوفت»، و«ميتا» العنان للتكنولوجيا التي تصفها بـ«الذكاء الاصطناعي». وتقول إننا سنستخدم جميعاً، قريباً، الذكاء الاصطناعي لكتابة رسائل البريد الإلكتروني وإنشاء الصور وتلخيص المقالات.

تردّد الجمهور... واندفاعة الشركات

ولكن، مَن الذي طلب أياً من هذه الأمور في المقام الأول؟ استناداً إلى التعليقات التي أتلقاها من قراء هذا العمود، يظل كثير من الأشخاص، خارج صناعة التكنولوجيا، غير مهتمين بالذكاء الاصطناعي، ويشعرون بالإحباط بشكل متزايد إزاء مدى صعوبة تجاهله.

تعتمد الشركات على نشاط المستخدِم لتدريب وتحسين أنظمة الذكاء الاصطناعي الخاصة بها، لذلك فهي تختبر هذه التكنولوجيا داخل المنتجات التي نستخدمها كل يوم.

ستؤدي كتابة أي سؤال في «غوغل» إلى إنتاج ملخص - تم إنشاؤه بواسطة الذكاء الاصطناعي - للإجابة، أعلى نتائج البحث. وكلما استخدمت أداة البحث داخل «إنستغرام»، فقد تتفاعل الآن مع روبوت الدردشة «Meta AI». بالإضافة إلى ذلك، عندما تصل مجموعة أدوات الذكاء الاصطناعي من «Apple Intelligence»، إلى أجهزة «آيفون» ومنتجات «أبل» الأخرى من خلال تحديثات البرامج هذا الشهر، فستظهر التقنية داخل الأزرار التي نستخدمها لتحرير النصوص والصور.

التهام تفاصيل البيانات الشخصية

إن انتشار الذكاء الاصطناعي في تكنولوجيا المستهلك له آثار كبيرة على خصوصية بياناتنا؛ لأن الشركات مهتمة بربط وتحليل أنشطتنا الرقمية، بما في ذلك التفاصيل داخل صورنا ورسائلنا وعمليات البحث على الويب؛ لتحسين أنظمة الذكاء الاصطناعي. بالنسبة للمستخدمين، يمكن أن تكون الأدوات ببساطة مصدر إزعاج عندما لا تعمل بشكل جيد.

 

* تعتمد الشركات على نشاط المستخدم لتدريب وتحسين أنظمة الذكاء الاصطناعي لها*

 

ويعلق ثورين كلوسوفسكي، محلل الخصوصية والأمان في مؤسسة «Electronic Frontier Foundation»، وهي مؤسسة غير ربحية للحقوق الرقمية: «هناك عدم ثقة حقيقي في هذه الأدوات... إنها قبيحة وتعترض الطريق».

خطوات إيقاف الذكاء الاصطناعي

بعد أن اتصلت بشركات «غوغل»، و«أبل»، و«ميتا»، و«مايكروسوفت»، عرض مسؤولوها خطوات لإيقاف تشغيل أدوات الذكاء الاصطناعي أو جمع البيانات، حيثما أمكن ذلك. وسأشرح لكم تلك الخطوات.

غوغل

يقوم منتج الذكاء الاصطناعي الأكثر شهرة من «غوغل»، وهو «AI Overviews»، تلقائياً بإنشاء ملخص يحاول الإجابة عن الأسئلة التي تدخلها في بحث «غوغل». كانت هذه الميزة قد واجهت صعوبات في الظهور في شهر مايو (أيار)، عندما أخبر الذكاء الاصطناعي من «غوغل» المستخدمين، من بين أخطاء أخرى، أنه يمكنهم وضع الغراء على البيتزا، لكن الأداة تحسّنت منذ ذلك الحين.

مع ذلك، يمكن أن تكون ملخصات الذكاء الاصطناعي مُشتِّتة للانتباه، ولا توجد طريقة لإلغاء تنشيطها من التحميل، ولكن يمكنك النقر فوق زر لتصفيتها. بعد كتابة شيء مثل «وصفة بسكويت رقائق الشوكولاته» في شريط البحث، انقر فوق علامة التبويب (الويب)؛ لعرض قائمة بنتائج البحث البسيطة، تماماً كما كانت الحال في بحث «غوغل».

أما بالنسبة لبيانات البحث، فيمكن للمستخدمين منع «غوغل» من الاحتفاظ بسجل لعمليات البحث على الويب الخاصة بهم من خلال زيارة «myactivity.google.com»، وإيقاف تشغيل «نشاط الويب والتطبيق».

لدى «غوغل» أيضاً روبوت محادثة يعمل بالذكاء الاصطناعي «جيمناي (Gemini)»، ويمكن العثور على الإعداد لمنعه من تخزين البيانات على «myactivity.google.com/product/gemini».

ميتا

في أبريل (نيسان) بدأ ظهور «Meta AI»، وهو روبوت محادثة يمكنه البحث عن الرحلات الجوية وإنشاء الصور وإعداد الوصفات، في شريط البحث في تطبيقات «ميتا»، بما في ذلك «إنستغرام»، و«واتساب»، و«ماسنجر». وقالت «ميتا» إنه لا توجد طريقة للمستخدمين لإيقاف تشغيل «Meta AI».

فقط في المناطق التي لديها قوانين حماية بيانات أقوى، بما في ذلك الاتحاد الأوروبي وبريطانيا، يمكن للأشخاص منع «ميتا» من الوصول إلى معلوماتهم الشخصية لبناء وتدريب الذكاء الاصطناعي الخاص بالشركة.

على سبيل المثال، على «إنستغرام»، يمكن للأشخاص الذين يعيشون في تلك الأماكن النقر فوق «الإعدادات»، ثم «حول»، و«سياسة الخصوصية»؛ ما سيؤدي إلى تعليمات إلغاء الاشتراك. يمكن لأي شخص آخر، بمَن في ذلك المستخدمون في الولايات المتحدة، زيارة صفحة الدعم هذه لمطالبة «ميتا» فقط بحذف البيانات المُستخدَمة من قبل طرف ثالث لتطوير الذكاء الاصطناعي الخاص بها.

مايكروسوفت

يمكن تنشيط روبوت المحادثة «كوبايلوت (Copilot)» من «مايكروسوفت»

بالذكاء الاصطناعي بالنقر فوق زر قوس قزح مدمج في بعض المنتجات مثل متصفح «إيدج (Edge)»، وبحث «بنغ (Bing)».

وأبسط طريقة لتجنب روبوت المحادثة هي عدم النقر فوق هذا الزر. ولكن إذا كنت تريد إزالته من متصفح «إيدج»، فيمكنك إدخال «edge://settings» في شريط العناوين والنقر فوق «الشريط الجانبي»، ثم «إعدادات التطبيق والإشعارات»، وأخيراً، «Copilot»، حيث يجب إيقاف تشغيل إعداد «كوبايلوت».

إذا كنت تريد منع «كوبايلوت» من استخدام بياناتك لتدريب الذكاء الاصطناعي، فعليك زيارة «copilot.microsoft.com»، والانتقال إلى قائمة الخصوصية في إعدادات الحساب، حيث يمكنك إيقاف تشغيل خيار يُسمى «تدريب النموذج».

* نصيحة إضافية: لمستخدمي «لينكدإن (LinkedIn)»، شبكة التواصل الاجتماعي الخاصة بشركة «مايكروسوفت» للمحترفين: بدأ الموقع أخيراً في استخدام أي شيء منشور على موقعه لتدريب نظام الذكاء الاصطناعي الخاص به، الذي يمكن استخدامه في النهاية لمساعدة الأشخاص على العثور على وظائف جديدة.

لمنع «لينكدإن» من استخدام المحتوى الخاص بك، انتقل إلى علامة التبويب «الإعدادات والخصوصية» ضمن ملفك الشخصي، وانقر فوق علامة التبويب «خصوصية البيانات»، وانقر فوق «بيانات لتحسين GenAI». ثم قم بإيقاف تشغيل المفتاح.

أبل

سيتم إطلاق مجموعة خدمات الذكاء الاصطناعي «أبل أنتليجنس (Apple Intelligence)»، هذا الشهر في حالة غير مكتملة من خلال تحديثات البرامج على بعض أجهزة «آيفون»، و«آيباد»، و«ماك». لاستخدام هذه الأداة، سيتعين على المستخدمين الاشتراك من خلال قائمة تحمل اسم «Apple Intelligence & Siri».

وبمجرد التنشيط، ستظهر بعض الميزات داخل أدوات تحرير النصوص والصور. عند تحرير صورة، على سبيل المثال، يوجد زر «تنظيف» لإزالة الصور المزعجة تلقائياً.

إذا غيّرت رأيك ولم تعد ترغب في استخدام «أبل إنتليجنس»، فيمكنك الرجوع إلى الإعدادات وإيقاف تشغيل مفتاح «أبل إنتليجنس»، مما يجعل الأدوات تختفي. وتقول «أبل» إنها ابتكرت نظاماً يحمي خصوصية المستخدمين، حيث لا يمكن للشركة الوصول إلى البيانات التي يتم دفعها إلى خوادمها. وبدلاً من ذلك، تقول الشركة إنه يتم استخدامه حصرياً لمعالجة طلب المستخدم، مثل سؤال معقد موجه إلى «سيري (Siri)»، قبل إزالة المعلومات من خوادمها.

* خدمة «نيويورك تايمز».


مقالات ذات صلة

في القيادة الذاتية... من يتحمّل القرار الأخلاقي عند اللحظة الحاسمة؟

تكنولوجيا مع انتشار السيارات ذاتية القيادة تبرز الحاجة إلى أنظمة قادرة على اتخاذ قرارات أخلاقية في مواقف مصيرية على الطريق (غيتي)

في القيادة الذاتية... من يتحمّل القرار الأخلاقي عند اللحظة الحاسمة؟

مع اقتراب انتشار السيارات الذاتية القيادة، تبرز تساؤلات أخلاقية حول قدرتها على اتخاذ قرارات مصيرية، ومن يتحمّل المسؤولية عند وقوع الحوادث.

نسيم رمضان (لندن)
تكنولوجيا يتيح النظام للمستخدمين إنشاء مقاطع مدتها حتى 21 ثانية بخيارات حركة تلقائية أو مخصصة وبتكلفة منخفضة نسبياً (شاترستوك)

«ميدجورني» تدخل عالم الفيديو... صور متحركة يولّدها الذكاء الاصطناعي

أطلقت «ميدجورني» نموذجها الأول للفيديو «V1» الذي يتيح تحريك الصور باستخدام الذكاء الاصطناعي بسهولة وتكلفة منخفضة وسط إشادة المستخدمين ومخاوف قانونية.

نسيم رمضان (لندن)
تكنولوجيا «غارتنر»: نجاح تطبيق الذكاء الاصطناعي في اتخاذ القرار يعتمد على وجود حوكمة قوية وبُنية بيانات متماسكة (غيتي)

«غارتنر»: الذكاء الاصطناعي سيتخذ نصف قرارات الأعمال بحلول 2027

بحلول 2027، سيتولى الذكاء الاصطناعي نصف قرارات الأعمال، ما يعني أن نجاح المؤسسات سيتوقف على الحوكمة وجودة البيانات ووعي القادة بقدرات التقنية وحدودها.

نسيم رمضان (لندن)
الاقتصاد منظر عام لمحطة الحاويات والميناء في كييلونغ (رويترز)

طلبات التصدير التايوانية ترتفع في مايو مدعومة بالذكاء الاصطناعي

ارتفعت طلبات التصدير التايوانية في مايو بفضل الطلب القوي على منتجات الذكاء الاصطناعي، في ظل ترقب المخاطر الجيوسياسية المتصاعدة.

«الشرق الأوسط» (تايبيه)
تكنولوجيا ميزة «Search Live» تتيح للمستخدمين إجراء محادثات صوتية فورية مع محرك البحث... ما يقدّم تجربة بحث أكثر ذكاءً وتفاعلاً وواقعية (غوغل)

«غوغل» تطلق تجربة بحث صوتية مدعومة بالذكاء الاصطناعي

ميزة «Search Live» تتيح للمستخدمين إجراء محادثات صوتية فورية مع محرك البحث؛ ما يقدّم تجربة بحث أكثر ذكاءً وتفاعلاً وواقعية.

نسيم رمضان (لندن)

في القيادة الذاتية... من يتحمّل القرار الأخلاقي عند اللحظة الحاسمة؟

مع انتشار السيارات ذاتية القيادة تبرز الحاجة إلى أنظمة قادرة على اتخاذ قرارات أخلاقية في مواقف مصيرية على الطريق (غيتي)
مع انتشار السيارات ذاتية القيادة تبرز الحاجة إلى أنظمة قادرة على اتخاذ قرارات أخلاقية في مواقف مصيرية على الطريق (غيتي)
TT

في القيادة الذاتية... من يتحمّل القرار الأخلاقي عند اللحظة الحاسمة؟

مع انتشار السيارات ذاتية القيادة تبرز الحاجة إلى أنظمة قادرة على اتخاذ قرارات أخلاقية في مواقف مصيرية على الطريق (غيتي)
مع انتشار السيارات ذاتية القيادة تبرز الحاجة إلى أنظمة قادرة على اتخاذ قرارات أخلاقية في مواقف مصيرية على الطريق (غيتي)

مع اقتراب السيارات ذاتية القيادة من الاندماج في حياتنا اليومية، يبرز سؤال مصيري: ماذا يحدث عندما تضطر هذه المركبات لاتخاذ قرارات فورية قد تعني حياةً أو موتاً؟ ففي الوقت الذي يعمل فيه المهندسون على تحسين أجهزة الاستشعار وأنظمة الملاحة والنماذج الذكية، تظهر تحديات أعمق.

دراسة حديثة أجراها فريق من الباحثين قدّمت تجربة جديدة تماماً لاستكشاف هذا السؤال. ولكن هذه المرة، لم يُختبر فيها المهندسون أو عامة الناس، بل تم اختيار الفلاسفة كمشاركين أساسيين. الهدف هو الاستفادة من قرون من التفكير الأخلاقي لفهم كيف يمكن ترجمة القيم إلى خوارزميات قيادة.

تطوير لمعضلة «عربة الترام»

بُنيت الدراسة على معضلة «عربة الترام» الشهيرة، وهي تجربة فكرية أخلاقية تطرح أسئلة حول الاختيار بين نتيجتين ضارتين. لكن بدلاً من تقديم سيناريوهات نظرية، ركّز الباحثون على مواقف واقعية قد تواجهها سيارات ذاتية القيادة على الطرقات. في أحد السيناريوهات، قد تضطر السيارة للاختيار بين الانحراف ودهس أحد المشاة أو الاستمرار في المسار وتعريض الركاب للخطر. وفي آخر، يجب المفاضلة بين عدد من الأشخاص الذين يعبرون الشارع بشكل غير قانوني وطفل يعبر في ممر مشاة. هذه قرارات معقدة تتطلب أكثر من استجابة تقنية، بل إنها تستدعي حكماً أخلاقياً.

تواجه أخلاقيات الذكاء الاصطناعي تحديات كبيرة مثل اختلاف القيم بين الثقافات وصعوبة اتخاذ قرارات فورية في مواقف طارئة (غيتي)

لماذا الفلاسفة؟

اختيار الفلاسفة لم يكن صدفة؛ فهم المتخصصون في معالجة المناطق الرمادية من السلوك البشري. من خلال تحليل ردود فعلهم على هذه المواقف، يأمل الباحثون استخلاص أنماط يمكن تحويلها إلى منطق برمجي. فعلى عكس الدراسات التي تعتمد على الرأي العام، تضيف هذه المقاربة طبقة من العمق؛ فهي لا تسأل فقط عما يفعله الناس، بل ما يجب عليهم فعله. إنه فارق جوهري في بناء أنظمة ذكاء اصطناعي تتصرف بشكل أخلاقي، لا فقط شعبوي.

وتهدف الدراسة إلى المساهمة في بناء «الأطر الميتا-أخلاقية»، وهي أنظمة عليا توجه سلوك الخوارزميات في المواقف المعقّدة. هذه الأطر ليست أوامر جامدة، بل مناهج مرنة تسمح للذكاء الاصطناعي باتخاذ قرارات محسوبة بناءً على السياق. هذه المعرفة قد تؤثر مستقبلاً على مجالات مثل التنظيم القانوني والتأمين والمسؤولية، والأهم ثقة الجمهور؛ فكلما شعر الناس بأن السيارة الذكية تفكر أخلاقياً، زادت احتمالات قبولهم لها.

الوعي الاجتماعي على الطريق

تشير دراسات أخرى إلى أن إدماج «الوعي الاجتماعي» في أنظمة القيادة الذاتية، يمكن أن يقلّل من الحوادث بشكل ملحوظ. فعندما يتم تدريب الأنظمة على توقع تصرفات البشر، كأن يتوقع النظام عبور طفل مفاجئاً في منطقة مدارس، تقل فرص الاصطدام وتحسن النتائج للركاب والمشاة على حد سواء. وهذا يعزز فكرة أن الأخلاق في الذكاء الاصطناعي لا تعني فقط كيفية التصرف في أسوأ السيناريوهات، بل كيفية تجنبها من الأساس.

خبراء يقولون إن نجاح القيادة الذاتية في المستقبل لن يعتمد فقط على التقنية بل على دمج التفكير الأخلاقي والتعاون بين المجتمع والتقنيين والمشرّعين (شاترستوك)

التحديات المقبلة

لكن حتى أكثر النماذج الأخلاقية تقدماً ستواجه تحديات عملية. القرارات على الطرقات تُتخذ في أجزاء من الثانية، في حين تستغرق المعايير الفلسفية وقتاً لا يتناسب مع سرعة الحياة الواقعية. كما أن التحيز الثقافي وتحديد المسؤولية القانونية وإمكانية التوحيد بين الدول... كلها مسائل لم تُحل بعد؛ فقرار تعتبره ثقافة معينة أخلاقياً، قد ترفضه أخرى. وصول السيارات ذاتية القيادة يفتح الباب لثورة في عالم التنقل، لكنها لن تنجح بالاعتماد على الأجهزة فقط. تُظهر هذه الدراسة أن برمجة المنطق الأخلاقي باتت جزءاً لا يمكن تجاهله من تصميم الأنظمة.

التحدي لم يعد تقنياً فحسب، بل أخلاقياً أيضاً، ومعالجته تتطلب تعاوناً بين المهندسين والفلاسفة وصنّاع القرار، والمجتمع ككل. ففي مستقبل قد تتخذ فيه السيارة قرارات مصيرية نيابة عن السائق، لن يكون السؤال فقط: «هل تقود السيارة جيداً؟»، بل: «هل تقود بحكمة؟».