مع دخول شركة «أبل» سباق دمج الذكاء الاصطناعي في أجهزتها وخدماتها الاستهلاكية، تراهن شركة التكنولوجيا العملاقة على التركيز القوي على الخصوصية والأمان لتمييز عروضها في سوق شديدة التنافسية.
وبالفعل، كشفت «أبل» خلال مؤتمر المطورين العالمي الأخير بداية شهر يونيو (حزيران) الماضي، عن نظامها الطموح للذكاء الاصطناعي «Apple Intelligence» الذي يتضمن تقديم خدمة حوسبة سحابية خاصة وآمنة مصممة للتعامل مع مهام الذكاء الاصطناعي المعقدة.
نهج الأمن أولاً
تعدّ خدمة الحوسبة السحابية الخاصة الجديدة من «أبل» حجر الزاوية في استراتيجية الذكاء الاصطناعي للشركة، مع التشديد على أهمية الخصوصية والأمان في تطبيقات الذكاء الاصطناعي. تعمل هذه الخدمة على تعزيز إجراءات الأمان المستندة إلى الأجهزة مثل «سيكيور بووت» (Secure Boot) و«سيكيور إنكلايف بروسيسور» (Secure Enclave Processor ) لإنشاء بيئة آمنة لحسابات الذكاء الاصطناعي.
ماذا يعني كل منهما؟
تُعد «سيكيور بووت» ميزة في البرامج الثابتة على أجهزة «أبل» المزودة بشريحة «T2» أو أحدث، تعمل كحارس بوابة يتأكد من أن البرامج المصرّح بها فقط تبدأ تشغيل الجهاز. تتحقق من شرعية نظام التشغيل قبل السماح بتحميله؛ مما يمنع البرامج غير المصرح بها من السيطرة. هذا يحمي الأجهزة من البرمجيات الخبيثة والهجمات الضارة.
أما معالج «سيكيور إنكلايف بروسيسور» (Secure Enclave Processor ) الموجود في أجهزة «أبل» المزودة بشريحة «A11» أو أحدث، هو شريحة مخصصة للتعامل مع معلومات المستخدم الحساسة مثل كلمات المرور، وبصمات الأصابع، ومفاتيح التشفير. يعمل بشكل مستقل عن المعالج الرئيسي؛ مما يوفر طبقة إضافية من الحماية ضد الثغرات البرمجية المحتملة.
يشرح ماركو مسعد، الباحث في مركز الشرق الأوسط للسياسات بواشنطن والخبير في الأمن السيبراني والذكاء الاصطناعي، في حديث خاص لـ«الشرق الأوسط» من الولايات المتحدة بأن ذلك يوفر لـ«أبل» إمكانية الحفاظ على الخصوصية؛ لأنها تعالج بيانات عملائها بنفسها وليس عن طريق طرف ثالث.
وأشار مسعد إلى أن وجود تقنية السحابة الجديدة مع تقنيات الحماية الموجودة بالفعل ستعزز قدرة «أبل» على حماية الفضاء السحابي. ويعتبر أن ذلك يجعل خطر الهجمات محدود النطاق بسبب القدرة على عزل التطبيقات، حيث يكون لكل تطبيق القدرة للوصول إلى أقل حجم من البيانات ليضمن تشغيله فقط.
الأمان والخصوصية
تم إطلاق الحوسبة السحابية الخاصة بـ«أبل» (Private Cloud Compute /PCC) في يونيو (حزيران) 2024 جنباً إلى جنب مع نظام الذكاء الاصطناعي «Apple Intelligence»، وهو نظام قائم على السحابة مصمم خصيصاً لمعالجة بيانات المستخدم مع الاهتمام البالغ بالخصوصية.
وفي حين يعتمد «Apple Intelligence» على المعالجة على الجهاز للعديد من المهام، تتولى «الحوسبة السحابية الخاصة» الميزات المعقدة للذكاء الاصطناعي التي تتطلب المزيد من القدرة على المعالجة. الفرق الرئيسي هو أن «PCC» يضمن أن بيانات المستخدم لا تترك الجهاز في شكل يمكن استخدامه.
وتؤكد «أبل» أن البيانات التي يتم إرسالها إلى «PCC» مشفرة وتُستخدم فقط لتلبية طلب المستخدم. بمجرد اكتمال المهمة، يقوم «PCC» بحذفها بالكامل. كما تم تصميم «PCC» مع وضع الشفافية في الحسبان، فالنظام مبني للسماح للباحثين الأمنيين المستقلين بالتحقق من ممارسات معالجة البيانات الخاصة به. هذا يعزز الثقة في تدابير الخصوصية للنظام.
الشراكة مع «OpenAI» والتكامل مع «سيري»
أحد الجوانب الرئيسية لاستراتيجية الذكاء الاصطناعي لشركة «أبل» هو شراكتها مع «أوبن آي» (OpenAI) لدمج برنامج الدردشة «شات جي بي تي» (ChatGPT) في مساعدها الرقمي «سيري». وقد أثار هذا التعاون بعض المخاوف وطرح العديد من الاستفسارات بشأن الآثار الأمنية لأداة الذكاء الاصطناعي المستخدمة على نطاق واسع. كما يحذر خبراء التقنية من أن أقل المهاجمين السيبرانيين خبرة لديهم القدرة الآن على استخدام «OpenAI» لتقليد اللغة البشرية، وإنشاء رسائل بريد إلكتروني تصيدية أكثر تقدماً، وإنشاء مواقع مزيفة، وتنظيم حملات تضليل.
سيتطلب دمج «ChatGPT» في «سيري» أن يقرر المستخدمون ما إذا كانوا موافقين على إرسال طلبات معقدة إلى أداة الذكاء الاصطناعي. وينوه ماركو مسعد في حديثه لـ«الشرق الأوسط» إلى تأكيد «أبل» وجود إجراءات حماية الخصوصية، مثل إخفاء عناوين بروتوكول الإنترنت (IP) والتأكد من أن «OpenAI» لن يخزّن الطلبات. وأضاف مسعد أنه إذا ربط المستخدمون حساب «شات جي بي تي»، فسيتم تطبيق سياسات استخدام البيانات الخاصة بـ«OpenAI» والتي تتضمن استخدام بيانات المستخدم للتدريب على نماذج الذكاء الاصطناعي بشكل افتراضي. وحذر ماركو مسعد من أنه «مع افتقار وجود سياسة واضحة ورادعة للذكاء الاصطناعي باستثناء الاتحاد الأوروبي، تظل الخصوصية أمراً مشكوكاً فيه؛ لأنه ببساطة لدى شركات التكنولوجيا إمكانيات أكبر من الحكومات وهي التي تحتفظ بتك الأسرار»، على حد تعبيره.
التدابير الأمنية ومراقبة المستخدم
وللتخفيف من المخاطر الأمنية التي تشكلها أدوات الذكاء الاصطناعي مثل «شات جي بي تي»، يُعد التدريب القوي على الأمن السيبراني للموظفين والتدابير الاستباقية من قِبل أقسام تكنولوجيا المعلومات أمراً ضرورياً. كما تسمح «أبل» للمستخدمين بتعطيل تدريب نموذج الذكاء الاصطناعي في تطبيق «ChatGPT iOS» وعلى الويب. يمكن الوصول إلى هذه الميزة من خلال إعدادات التطبيق ضمن «عناصر التحكم في البيانات»، حيث يمكن للمستخدمين تبديل خيار «تحسين النموذج للجميع»؛ مما يضمن عدم استخدام المحادثات الجديدة لنماذج التدريب.
وضع معيار جديد
يرى الخبراء أنه يمكن لنهج «أبل» في دمج الذكاء الاصطناعي مع التركيز القوي على الخصوصية والأمان أن يضع معياراً جديداً لهذه الصناعة. ويهدف التزام الشركة بحماية البيانات، إلى جانب قدرات الذكاء الاصطناعي المبتكرة، إلى الحفاظ على ثقة المستخدم مع تحفيز اعتماد تقنيات الذكاء الاصطناعي على نطاق واسع.
ومع ذلك، فإن النجاح النهائي لاستراتيجية «أبل» سيعتمد على التنفيذ الفعال، والشفافية، وتثقيف المستخدم. لا يحمي هذا النهج بيانات المستخدم فحسب، بل يعزز أيضاً بيئة يمكن أن يزدهر فيها الذكاء الاصطناعي؛ مما يؤدي إلى التقدم المستقبلي في التكنولوجيا وتعزيز تجربة المستخدم الشاملة.