كيف تضمن «أبل» حوسبة سحابية آمنة في تطبيقاتها للذكاء الاصطناعي؟

خبير في الأمن السيبراني يشرح لـ«الشرق الأوسط»

كيف تضمن «أبل» حوسبة سحابية آمنة في تطبيقاتها للذكاء الاصطناعي؟
TT

كيف تضمن «أبل» حوسبة سحابية آمنة في تطبيقاتها للذكاء الاصطناعي؟

كيف تضمن «أبل» حوسبة سحابية آمنة في تطبيقاتها للذكاء الاصطناعي؟

مع دخول شركة «أبل» سباق دمج الذكاء الاصطناعي في أجهزتها وخدماتها الاستهلاكية، تراهن شركة التكنولوجيا العملاقة على التركيز القوي على الخصوصية والأمان لتمييز عروضها في سوق شديدة التنافسية.

وبالفعل، كشفت «أبل» خلال مؤتمر المطورين العالمي الأخير بداية شهر يونيو (حزيران) الماضي، عن نظامها الطموح للذكاء الاصطناعي «Apple Intelligence» الذي يتضمن تقديم خدمة حوسبة سحابية خاصة وآمنة مصممة للتعامل مع مهام الذكاء الاصطناعي المعقدة.

نهج الأمن أولاً

تعدّ خدمة الحوسبة السحابية الخاصة الجديدة من «أبل» حجر الزاوية في استراتيجية الذكاء الاصطناعي للشركة، مع التشديد على أهمية الخصوصية والأمان في تطبيقات الذكاء الاصطناعي. تعمل هذه الخدمة على تعزيز إجراءات الأمان المستندة إلى الأجهزة مثل «سيكيور بووت» (Secure Boot) و«سيكيور إنكلايف بروسيسور» (Secure Enclave Processor ) لإنشاء بيئة آمنة لحسابات الذكاء الاصطناعي.

ماذا يعني كل منهما؟

تُعد «سيكيور بووت» ميزة في البرامج الثابتة على أجهزة «أبل» المزودة بشريحة «T2» أو أحدث، تعمل كحارس بوابة يتأكد من أن البرامج المصرّح بها فقط تبدأ تشغيل الجهاز. تتحقق من شرعية نظام التشغيل قبل السماح بتحميله؛ مما يمنع البرامج غير المصرح بها من السيطرة. هذا يحمي الأجهزة من البرمجيات الخبيثة والهجمات الضارة.

أما معالج «سيكيور إنكلايف بروسيسور» (Secure Enclave Processor ) الموجود في أجهزة «أبل» المزودة بشريحة «A11» أو أحدث، هو شريحة مخصصة للتعامل مع معلومات المستخدم الحساسة مثل كلمات المرور، وبصمات الأصابع، ومفاتيح التشفير. يعمل بشكل مستقل عن المعالج الرئيسي؛ مما يوفر طبقة إضافية من الحماية ضد الثغرات البرمجية المحتملة.

ماركو مسعد باحث في مركز الشرق الأوسط للسياسات بواشنطن وخبير في الأمن السيبراني والذكاء الاصطناعي (الشرق الأوسط)

يشرح ماركو مسعد، الباحث في مركز الشرق الأوسط للسياسات بواشنطن والخبير في الأمن السيبراني والذكاء الاصطناعي، في حديث خاص لـ«الشرق الأوسط» من الولايات المتحدة بأن ذلك يوفر لـ«أبل» إمكانية الحفاظ على الخصوصية؛ لأنها تعالج بيانات عملائها بنفسها وليس عن طريق طرف ثالث.

وأشار مسعد إلى أن وجود تقنية السحابة الجديدة مع تقنيات الحماية الموجودة بالفعل ستعزز قدرة «أبل» على حماية الفضاء السحابي. ويعتبر أن ذلك يجعل خطر الهجمات محدود النطاق بسبب القدرة على عزل التطبيقات، حيث يكون لكل تطبيق القدرة للوصول إلى أقل حجم من البيانات ليضمن تشغيله فقط.

الأمان والخصوصية

تم إطلاق الحوسبة السحابية الخاصة بـ«أبل» (Private Cloud Compute /PCC) في يونيو (حزيران) 2024 جنباً إلى جنب مع نظام الذكاء الاصطناعي «Apple Intelligence»، وهو نظام قائم على السحابة مصمم خصيصاً لمعالجة بيانات المستخدم مع الاهتمام البالغ بالخصوصية.

وفي حين يعتمد «Apple Intelligence» على المعالجة على الجهاز للعديد من المهام، تتولى «الحوسبة السحابية الخاصة» الميزات المعقدة للذكاء الاصطناعي التي تتطلب المزيد من القدرة على المعالجة. الفرق الرئيسي هو أن «PCC» يضمن أن بيانات المستخدم لا تترك الجهاز في شكل يمكن استخدامه.

وتؤكد «أبل» أن البيانات التي يتم إرسالها إلى «PCC» مشفرة وتُستخدم فقط لتلبية طلب المستخدم. بمجرد اكتمال المهمة، يقوم «PCC» بحذفها بالكامل. كما تم تصميم «PCC» مع وضع الشفافية في الحسبان، فالنظام مبني للسماح للباحثين الأمنيين المستقلين بالتحقق من ممارسات معالجة البيانات الخاصة به. هذا يعزز الثقة في تدابير الخصوصية للنظام.

سيتطلب دمج «شات جي بي تي» في «سيري» أن يقرر المستخدمون ما إذا كانوا موافقين على إرسال طلبات معقدة إلى أداة الذكاء الاصطناعي (شاترستوك)

الشراكة مع «OpenAI» والتكامل مع «سيري»

أحد الجوانب الرئيسية لاستراتيجية الذكاء الاصطناعي لشركة «أبل» هو شراكتها مع «أوبن آي» (OpenAI) لدمج برنامج الدردشة «شات جي بي تي» (ChatGPT) في مساعدها الرقمي «سيري». وقد أثار هذا التعاون بعض المخاوف وطرح العديد من الاستفسارات بشأن الآثار الأمنية لأداة الذكاء الاصطناعي المستخدمة على نطاق واسع. كما يحذر خبراء التقنية من أن أقل المهاجمين السيبرانيين خبرة لديهم القدرة الآن على استخدام «OpenAI» لتقليد اللغة البشرية، وإنشاء رسائل بريد إلكتروني تصيدية أكثر تقدماً، وإنشاء مواقع مزيفة، وتنظيم حملات تضليل.

سيتطلب دمج «ChatGPT» في «سيري» أن يقرر المستخدمون ما إذا كانوا موافقين على إرسال طلبات معقدة إلى أداة الذكاء الاصطناعي. وينوه ماركو مسعد في حديثه لـ«الشرق الأوسط» إلى تأكيد «أبل» وجود إجراءات حماية الخصوصية، مثل إخفاء عناوين بروتوكول الإنترنت (IP) والتأكد من أن «OpenAI» لن يخزّن الطلبات. وأضاف مسعد أنه إذا ربط المستخدمون حساب «شات جي بي تي»، فسيتم تطبيق سياسات استخدام البيانات الخاصة بـ«OpenAI» والتي تتضمن استخدام بيانات المستخدم للتدريب على نماذج الذكاء الاصطناعي بشكل افتراضي. وحذر ماركو مسعد من أنه «مع افتقار وجود سياسة واضحة ورادعة للذكاء الاصطناعي باستثناء الاتحاد الأوروبي، تظل الخصوصية أمراً مشكوكاً فيه؛ لأنه ببساطة لدى شركات التكنولوجيا إمكانيات أكبر من الحكومات وهي التي تحتفظ بتك الأسرار»، على حد تعبيره.

التدابير الأمنية ومراقبة المستخدم

وللتخفيف من المخاطر الأمنية التي تشكلها أدوات الذكاء الاصطناعي مثل «شات جي بي تي»، يُعد التدريب القوي على الأمن السيبراني للموظفين والتدابير الاستباقية من قِبل أقسام تكنولوجيا المعلومات أمراً ضرورياً. كما تسمح «أبل» للمستخدمين بتعطيل تدريب نموذج الذكاء الاصطناعي في تطبيق «ChatGPT iOS» وعلى الويب. يمكن الوصول إلى هذه الميزة من خلال إعدادات التطبيق ضمن «عناصر التحكم في البيانات»، حيث يمكن للمستخدمين تبديل خيار «تحسين النموذج للجميع»؛ مما يضمن عدم استخدام المحادثات الجديدة لنماذج التدريب.

وضع معيار جديد

يرى الخبراء أنه يمكن لنهج «أبل» في دمج الذكاء الاصطناعي مع التركيز القوي على الخصوصية والأمان أن يضع معياراً جديداً لهذه الصناعة. ويهدف التزام الشركة بحماية البيانات، إلى جانب قدرات الذكاء الاصطناعي المبتكرة، إلى الحفاظ على ثقة المستخدم مع تحفيز اعتماد تقنيات الذكاء الاصطناعي على نطاق واسع.

ومع ذلك، فإن النجاح النهائي لاستراتيجية «أبل» سيعتمد على التنفيذ الفعال، والشفافية، وتثقيف المستخدم. لا يحمي هذا النهج بيانات المستخدم فحسب، بل يعزز أيضاً بيئة يمكن أن يزدهر فيها الذكاء الاصطناعي؛ مما يؤدي إلى التقدم المستقبلي في التكنولوجيا وتعزيز تجربة المستخدم الشاملة.


مقالات ذات صلة

واجهات تفاعل الدماغ والكمبيوتر تواجه اختباراً حاسماً

علوم واجهات تفاعل الدماغ والكمبيوتر تواجه اختباراً حاسماً

واجهات تفاعل الدماغ والكمبيوتر تواجه اختباراً حاسماً

تعمل كل من شركات «نيورالينك» و«سينكرون» و«نيوراكل» على توسيع نطاق التجارب السريرية، وتحاول جاهدة الوصول إلى منتجات فعلية، كما كتب أنطونيو ريغالادو،

«الشرق الأوسط» (لندن)
علوم الواقع الافتراضي يستخدم لإنشاء بيئات ثلاثية الأبعاد تفاعلية تحاكي الواقع (المعاهد الوطنية للصحة في أميركا)

تطبيقات الواقع الافتراضي تعزز علاج الأمراض النفسية

لا يزال التشخيص الدقيق أحد أكبر التحديات في مجال الطب النفسي، حيث يتغير تشخيص أكثر من نصف المرضى النفسيين خلال 10 سنوات.

محمد السيد علي (القاهرة)
تكنولوجيا الميزة تتيح التحدث مباشرة مع «جيميناي» حول ما يظهر على الشاشة أو أمام الكاميرا من دون الحاجة للكتابة (شاترستوك)

«جيميناي» يفهم الآن الملفات والصور والفيديوهات... ويتفاعل صوتياً

«غوغل» تطلق ميزة «جيميناي لايف» لجميع أجهزة «آندرويد» متيحة التفاعل الصوتي مع المساعد الذكي عبر الكاميرا أو مشاركة الشاشة لفهم المحتوى مباشرة.

نسيم رمضان (لندن)
تكنولوجيا تُستخدم أدوات الذكاء الاصطناعي لإنشاء متاجر إلكترونية وهمية في دقائق ما يزيد صعوبة التمييز بينها وبين الحقيقية (شاترستوك)

«مايكروسوفت» تتصدى لـ1.6 مليون محاولة اختراق أمني في الساعة

كشفت «مايكروسوفت» عن جهودها لمكافحة الاحتيال الإلكتروني محبطة محاولات احتيال بـ4 مليارات دولار عبر تقنيات ذكاء اصطناعي وحماية مدمجة في منتجاتها.

نسيم رمضان (لندن)
تكنولوجيا تتيح الميزة الجديدة من «تشات جي بي تي» للمستخدمين عرض وتنظيم جميع الصور المُولّدة بالذكاء الاصطناعي في مكان واحد (شاترستوك)

«أوبن إيه آي» تطلق مكتبة صور في «تشات جي بي تي» لتعزز تجربة المستخدم

تحديث جديد في «تشات جي بي تي» يتيح عرض وتعديل جميع الصور المُولّدة بالذكاء الاصطناعي دون تكلفة إضافية.

نسيم رمضان (لندن)

«أوبن إيه آي» تطلق أداة ذكاء اصطناعي جديدة للمهام الأرخص والأبطأ

شركة «أوبن إيه آي» تعمل على إنشاء منصة للتواصل الاجتماعي خاصة بها (رويترز)
شركة «أوبن إيه آي» تعمل على إنشاء منصة للتواصل الاجتماعي خاصة بها (رويترز)
TT

«أوبن إيه آي» تطلق أداة ذكاء اصطناعي جديدة للمهام الأرخص والأبطأ

شركة «أوبن إيه آي» تعمل على إنشاء منصة للتواصل الاجتماعي خاصة بها (رويترز)
شركة «أوبن إيه آي» تعمل على إنشاء منصة للتواصل الاجتماعي خاصة بها (رويترز)

في محاولة لتعزيز قدرتها على مواجهة المنافسة المتزايدة في سوق الذكاء الاصطناعي من شركات مثل «غوغل»، أطلقت «أوبن إيه آي» المطوِّرة لمنصة محادثة الذكاء الاصطناعي الشهيرة «شات جي بي تي»، أداة واجهة برمجة تطبيقات جديدة باسم «فليكس»، تتيح استخدام نماذج الذكاء الاصطناعي بتكلفة أقل مقابل زيادة زمن أداء المهام واحتمال عدم إنجازها في بعض الحالات.

وتقول شركة «أوبن إيه آي» إن أداة «فليكس» المتوفرة في الإصدار التجريبي لنماذج الذكاء الاصطناعي الاستدلالي «o3» و«o4 - ميني» التي أصدرتها الشركة مؤخراً، تهدف إلى أداء المهام ذات الأولوية المنخفضة و«غير الإنتاجية» مثل تقييمات النماذج وإثراء البيانات وأحمال العمل غير المتزامنة.

وتقلل هذه الأداء تكلفة استخدام واجهة برمجة التطبيقات بنصف التكلفة الطبيعية. وبالنسبة إلى نموذج الذكاء الاصطناعي الاستدلالي «أو 3»، سيدفع المستخدم 5 دولارات مقابل كل مليون رمز إدخال (750 ألف كلمة) و20 دولاراً مقابل كل مليون رمز إخراج، في حين تصل تكلفة هذه المعالجات من دون «فليكس» إلى 10 دولارات لكل مليون رمز إدخال، و40 دولاراً لكل مليون رمز إخراج.

وبالنسبة إلى نموذج الذكاء الاصطناعي «أو 4 - ميني» تخفض أداة «فليكس» التكلفة إلى 0.55 دولار لكل مليون رمز إدخال و2.2 دولار لكل مليون رمز إخراج من 1.10 دولار لكل مليون رمز إدخال و4.40 دولار لكل مليون رمز إخراج، وفق وكالة الأنباء الألمانية.

وأشار موقع «تك كرانش» المتخصص في موضوعات التكنولوجيا، إلى أن إطلاق أداة «فليكس» يأتي في ظل استمرار ارتفاع أسعار خدمات الذكاء الاصطناعي لشركة «أوبن إيه آي» الرائدة، وإطلاق المنافسين نماذج أرخص وأكثر كفاءة، حيث أطلقت شركة «غوغل» نموذج «جيميناي 2.5 فلاش» للذكاء الاصطناعي الاستدلالي ليضاهي ويتفوق على نموذج «آر 1» من شركة «ديب سيك» الصينية التي فاجأت العالم في بداية العام الحالي بإطلاق نموذج ذكاء اصطناعي قادر على تنفيذ أغلب المهام وبتكلفة أقل كثيراً من النماذج التي تقدمها الشركات الأميركية الرائدة مثل «أوبن إيه آي».