هل بياناتك في خطر؟... إليك تصنيف أكثر أدوات الذكاء الاصطناعي انتهاكاً للخصوصية

تقرير يكشف أين تذهب بياناتك ومن يقرأها!

التصنيف اعتمد على 3 محاور رئيسة هي استخدام بيانات التدريب والشفافية وجمع البيانات ومشاركتها مع أطراف ثالثة (غيتي)
التصنيف اعتمد على 3 محاور رئيسة هي استخدام بيانات التدريب والشفافية وجمع البيانات ومشاركتها مع أطراف ثالثة (غيتي)
TT

هل بياناتك في خطر؟... إليك تصنيف أكثر أدوات الذكاء الاصطناعي انتهاكاً للخصوصية

التصنيف اعتمد على 3 محاور رئيسة هي استخدام بيانات التدريب والشفافية وجمع البيانات ومشاركتها مع أطراف ثالثة (غيتي)
التصنيف اعتمد على 3 محاور رئيسة هي استخدام بيانات التدريب والشفافية وجمع البيانات ومشاركتها مع أطراف ثالثة (غيتي)

في الوقت الذي تُحدث فيه تقنيات الذكاء الاصطناعي ثورة في طريقة عملنا وتعلمنا وتواصلنا، تزداد وتيرة الاعتماد على نماذج اللغة الكبيرة (LLMs) والأدوات التوليدية، مثل «تشات جي بي تي» وأمثاله. هذه الأدوات توفر للمستخدمين راحة وكفاءة غير مسبوقتين، ولكن تأتي هذه الراحة على حساب الخصوصية أحياناً.

تقرير جديد صادر عن «إنكوغني» (Incogni) يلقي الضوء على كيفية تعامل أبرز منصات الذكاء الاصطناعي مع بيانات المستخدمين، كاشفاً عن فروق كبيرة في مدى احترام الخصوصية والشفافية.

بين الابتكار والانتهاك

مع تسارع انتشار أدوات الذكاء الاصطناعي، نادراً ما يسأل المستخدمون: من يرى ما أكتبه؟ وما مصير تلك البيانات؟ تعتمد هذه النماذج في تدريبها وتحسين أدائها على البيانات بما فيها ما يدخله المستخدمون بأنفسهم. لكن طريقة استخدام تلك البيانات تختلف بشكل كبير من منصة إلى أخرى.

قامت«إنكوغني» بتحليل تسع منصات رائدة باستخدام 11 معياراً متعلقاً بالخصوصية، لتقييم مدى التزامها بحماية معلومات المستخدمين.

تقرير «إنكوغني» 2025 يصنّف أبرز منصات الذكاء الاصطناعي بحسب مدى احترامها لخصوصية المستخدمين بناءً على 11 معياراً دقيقاً (غيتي)

منصات تجمع بين الأداء والخصوصية

1. Le Chat (Mistral AI)

جاءت هذه المنصة في المرتبة الأولى، بفضل جمعها المحدود للبيانات، وإتاحة خيار عدم مشاركة بيانات المستخدم مع النموذج. رغم أن الشفافية ليست مثالية، فإنها تُعدّ الأكثر احتراماً للخصوصية.

2. ChatGPT (OpenAI)

حلّت «ChatGPT» في المرتبة الثانية، بفضل سياسات واضحة تتيح للمستخدمين إلغاء مشاركة المحادثات مع النظام، إلى جانب توفير وثائق خصوصية سهلة الوصول والفهم.

3. Grok (xAI)

نموذج «غروك» من شركة «xAI» احتل المركز الثالث. وتبين أنه يتمتع بأداء جيد فيما يتعلق بالخصوصية، لكنه متأخر نسبياً في مجالات الشفافية ومشاركة البيانات.

كما جاءت نماذج «Claude» من شركة «Anthropic» في مرتبة قريبة، وإن كانت هناك بعض المخاوف حول كيفية تفاعلها مع بيانات المستخدم.

من جاء في قاع التصنيف؟

احتلت الشركات التقنية الكبرى المراتب الأدنى في التصنيف. جاءت «ميتا إيه آي» (Meta AI) في ذيل القائمة، تليها «جيمناي» (Gemini) من «غوغل» و«كوبايلوت» من «مايكروسوفت». وُجد أن هذه المنصات لا تتيح للمستخدمين خيار إلغاء استخدام محادثاتهم لأغراض التدريب. كما أنها تشارك البيانات داخلياً، وأحياناً مع جهات خارجية. وأيضاً تستخدم سياسات خصوصية عامة وغامضة لا تفصل كيفية تعاملها مع بيانات الذكاء الاصطناعي تحديداً.

يشكل التقرير أداة مهمة لتوعية المستخدمين ودفع الشركات نحو الشفافية ودعم الجهات التنظيمية في وضع تشريعات رقمية عادلة (أدوبي)

المعايير المتبعة

اعتمدت «إنكوغني» في تصنيفها لمدى احترام منصات الذكاء الاصطناعي للخصوصية على ثلاث فئات رئيسة من المعايير، تشكل مجتمعة صورة شاملة لكيفية تعامل كل منصة مع بيانات المستخدم.

المعيار الأول يتمثل في استخدام بيانات التدريب، ويقيس ما إذا كانت المنصات تستخدم محادثات المستخدمين في تدريب نماذجها، وما إذا كان بإمكان المستخدم إلغاء هذا الاستخدام. أظهرت النتائج أن منصات مثل OpenAI وMicrosoft وMistral وxAI تتيح للمستخدمين خيار الانسحاب من عملية استخدام بياناتهم لأغراض التدريب، وهو ما يُعدُّ خطوة مهمة نحو تعزيز التحكم الشخصي. في المقابل، لا توفر منصات مثل Google وMeta وDeepSeek وPi AI هذا الخيار؛ ما يثير تساؤلات حول مدى التزامها بمنح المستخدمين حرية الاختيار. من جهة أخرى، تميزت نماذج «كلود» (Claude) التابعة لشركة «أنثروبيك» (Anthropic) بعدم استخدامها بيانات المستخدمين في التدريب على الإطلاق.

أما المعيار الثاني، فهو الشفافية، والذي يقيّم مدى وضوح المنصة في شرح سياساتها المتعلقة بجمع البيانات واستخدامها. في هذا المجال، حصلت OpenAI وAnthropic وMistral وxAI على أعلى التقييمات، بفضل وثائقها الواضحة وسهولة الوصول. في المقابل، جاءت «مايكروسوفت» و«ميتا» في مرتبة أقل نظراً لصعوبة الوصول إلى التفاصيل الدقيقة في وثائقهما، بينما لجأت «غوغل» و«ديب سيك» و«باي إيه آي» و«Pi AI» إلى دفن المعلومات المهمة داخل سياسات خصوصية مطوّلة يصعب على المستخدم العادي تتبعها أو فهمها.

أما الفئة الثالثة والأخيرة، فهي جمع البيانات ومشاركتها، حيث ركّز التقييم على نوعية البيانات التي تجمعها التطبيقات، وما إذا كانت تشارك هذه البيانات مع أطراف خارجية. برزت منصتا «Le Chat» و«Pi AI» أكثر الأدوات احتراماً لخصوصية المستخدم في هذا الجانب؛ إذ جمعتا الحد الأدنى من بيانات الهاتف المحمول. على النقيض، كشفت الدراسة عن أن «Meta AI» و«Gemini» و«Grok» تجمع كميات كبيرة من البيانات الحساسة مثل الموقع الجغرافي، الصور، وأرقام الهواتف، بل وتقوم أحياناً بمشاركتها مع جهات خارجية؛ وهو ما يشكل مصدر قلق حقيقي فيما يخص أمن المعلومات الشخصية.

تطبيقات الهواتف المحمولة

نظراً لأن عدداً كبيراً من المستخدمين يتفاعلون مع أدوات الذكاء الاصطناعي من خلال تطبيقات الهواتف الذكية، شمل تقرير «إنكوغني» أيضاً تحليلاً دقيقاً لإصدارات «آي أو إس» (iOS) و«أندرويد» (Android) الخاصة بهذه المنصات؛ بهدف تقييم مستوى الأمان والخصوصية في بيئة الهاتف المحمول.

وقد أظهر التحليل تبايناً واضحاً في مستويات جمع البيانات بين التطبيقات. في المقدمة، جاء تطبيقا «Le Chat» و«Pi AI» أكثر التطبيقات التزاماً بالخصوصية، حيث اقتصر جمع البيانات فيهما على الحد الأدنى؛ ما جعلهما من بين الخيارات الأكثر أماناً للمستخدمين على الهاتف.

أما تطبيق «تشات جي بي تي» فصُنّف في فئة المخاطر المتوسطة؛ إذ يجمع بعض البيانات، لكنها لا تُقارن من حيث الكم أو النوع مع المنصات الأخرى الأقل احتراماً للخصوصية.

في المقابل، احتلت تطبيقات «Grok» و«Claude» و«Gemini» و«DeepSeek» مرتبة عالية في مستوى جمع البيانات، في حين جاءت «Meta AI» في ذيل القائمة بوصفها الأسوأ من حيث الخصوصية. فقد تبين أنها تجمع مجموعة كبيرة من البيانات الحساسة مثل الاسم والموقع الجغرافي والبريد الإلكتروني، بل وتقوم بمشاركة هذه المعلومات أحياناً مع أطراف خارجية؛ ما يُثير قلقاً كبيراً بشأن حماية معلومات المستخدمين الشخصية في بيئة الهاتف المحمول.

كشف تحليل إصدارات تطبيقات الهواتف عن أن جمع البيانات على الأجهزة المحمولة قد يكون أكثر تدخلاً وخطورة من استخدام المنصة على الويب (أدوبي)

ما أهمية التصنيف؟

تبرز أهمية هذا التصنيف في كونه أكثر من مجرد ترتيب تقني؛ فهو يمثل أداة توعوية وتنظيمية في آنٍ واحد، تخدم المستخدمين وصناع القرار والشركات على حد سواء.

أولاً، على مستوى الأفراد، يسهم التصنيف في توعية المستخدمين؛ إذ يسلط الضوء على كيفية تعامل كل منصة مع البيانات الشخصية، وهو أمر لا يعرفه الكثير من المستخدمين عند استخدام أدوات الذكاء الاصطناعي. ومن خلال هذا التقييم، يصبح بإمكانهم اتخاذ قرارات مبنية على وعي ومعرفة، واختيار المنصات التي تحترم خصوصيتهم فعلياً.

ثانياً، يلعب التصنيف دوراً تحفيزياً في دفع المنصات نحو مزيد من الشفافية، حيث يشكّل الضغط المجتمعي أداة فعالة لإجبار الشركات على تحسين سياساتها وتقديم خيارات أكثر وضوحاً وتحكماً للمستخدم فيما يتعلق بالبيانات التي يتم جمعها أو استخدامها.

وأخيراً، يُعدّ هذا التصنيف مفيداً أيضاً على صعيد السياسات العامة؛ إذ يساهم في تمكين الجهات التنظيمية من خلال توفير بيانات موثوقة، ومبنية على تحليل دقيق؛ ما يساعد في صياغة تشريعات رقمية أكثر توازناً وحداثة تستجيب للتطورات المتسارعة في عالم الذكاء الاصطناعي.

الخيارات أمام المستخدم

أما بالنسبة للمستخدم، فإن التقرير يقدم مجموعة من الخيارات العملية التي يمكن اتخاذها لتعزيز الخصوصية الرقمية عند استخدام أدوات الذكاء الاصطناعي.

في البداية، يُنصح باختيار منصات مثل «Le Chat» و«ChatGPT» و«Grok»؛ كونها من الأدوات التي توفر مستوى جيداً من الشفافية وتتيح للمستخدمين التحكم الفعلي في كيفية استخدام بياناتهم، بما في ذلك إمكانية إلغاء مشاركة المحادثات في تدريب النماذج.

كما يُعدّ تعديل إعدادات الخصوصية خطوة ضرورية، حيث ينبغي على المستخدمين التأكد من تفعيل خيار الانسحاب من استخدام المحادثات في التدريب إن توفر، والاطلاع على خيارات مشاركة البيانات المتاحة في إعدادات الحساب.

أخيراً، وقبل تثبيت أي تطبيق ذكاء اصطناعي على الهاتف، من المهم مراجعة أذونات التطبيق بعناية خصوصاً تلك المتعلقة بجمع البيانات مثل الموقع الجغرافي أو جهات الاتصال أو الصور، ومعرفة ما إذا كانت تُشارك مع جهات خارجية؛ لضمان تقليل المخاطر على الخصوصية الشخصية إلى أدنى حد ممكن.

التوازن هو الحل

تستمر أدوات الذكاء الاصطناعي في دفع حدود الابتكار، ولكن كما أظهر «تصنيف خصوصية» عام 2025، ليست كل المنصات سواءً في احترام بياناتك. الدرس واضح: اختر أدوات تُصمم بخصوصيتك في الاعتبار، وادعم السياسات التي تحاسب المنصات، وساهم في بناء مستقبل رقمي لا يُضحّي بالحقوق من أجل الراحة.


مقالات ذات صلة

الذكاء الاصطناعي السيادي… نهاية السحابة أم بداية نموذج مزدوج؟

خاص يتحوّل النقاش في عصر الذكاء الاصطناعي من التطبيقات إلى البنية التحتية ومن يملكها وكيف تُدار (أدوبي)

الذكاء الاصطناعي السيادي… نهاية السحابة أم بداية نموذج مزدوج؟

يرى باحثون أن صعود الذكاء الاصطناعي السيادي يعيد تشكيل خريطة الحوسبة العالمية في ظل تحوّلٍ من نموذج السحابة المشتركة إلى سيطرة معمارية على البيانات والموارد.

نسيم رمضان (لندن)
تكنولوجيا تطبيقات استوديو «أبل» للمبدعين (أبل)

لماذا يختار بعض صُنّاع المحتوى «أبل»… ويتمسّك المحترفون بـ«أدوبي»؟

«أبل» تراهن على التكامل بين الأجهزة والسرعة والبساطة لصانع المحتوى اليومي، بينما ترتكز «أدوبي» على العمق والمرونة والأدوات الاحترافية للمشاريع المعقّدة.

عبد العزيز الرشيد (الرياض)
تكنولوجيا «نوت بوك إل إم» أداة ذكاء اصطناعي مجانية عظيمة الفائدة

«نوت بوك إل إم» أداة ذكاء اصطناعي مجانية عظيمة الفائدة

يشكل «نوت بوك إل إم» NotebookLM أداة الذكاء الاصطناعي المجانية الأكثر فائدة خلال عام 2025؛ إذ يتميّز بقدرتين رائعتين: أولاً- يمكنك استخدامه للعثور على مجموعة.

جيرمي كابلان (واشنطن)
تكنولوجيا تدعم جميع المتصفحات الإضافات التي تطور من قدراتها عبر نظم التشغيل المختلفة

«جواسيس في متصفحك»: إضافات تعزيز الإنتاجية تتحول إلى كابوس أمني

تُعدّ إضافات المتصفح Browser Extensions اليوم جزءاً لا يتجزأ من تجربة المستخدم الرقمية، حيث تَعِد بتحويل المتصفح البسيط إلى أداة عمل خارقة قادرة على الترجمة .

خلدون غسان سعيد (جدة)
تكنولوجيا ينتقل الذكاء الاصطناعي في القطاع المصرفي من مرحلة التجارب إلى التشغيل واسع النطاق ليصبح جزءاً من البنية الأساسية لاتخاذ القرارات الحساسة (شاترستوك)

الذكاء الاصطناعي في العمل المصرفي… هل يتحول من أداة مساعدة إلى بنية أساسية؟

يدخل الذكاء الاصطناعي العمل المصرفي بوصفه بنية أساسية، حيث تُدار القرارات آلياً، وتقاس الثقة رقمياً، وتتصاعد تحديات الحوكمة، والبيانات، والاحتيال.

نسيم رمضان (لندن)

بالخطأ... منصة في كوريا الجنوبية توزع «بتكوين» بقيمة 44 مليار دولار

شعار منصة تداول العملات المشفرة الكورية الجنوبية «بيثامب» (رويترز)
شعار منصة تداول العملات المشفرة الكورية الجنوبية «بيثامب» (رويترز)
TT

بالخطأ... منصة في كوريا الجنوبية توزع «بتكوين» بقيمة 44 مليار دولار

شعار منصة تداول العملات المشفرة الكورية الجنوبية «بيثامب» (رويترز)
شعار منصة تداول العملات المشفرة الكورية الجنوبية «بيثامب» (رويترز)

كشفت منصة تداول العملات المشفرة الكورية الجنوبية «بيثامب»، اليوم السبت، عن أنها وزعت عملات «بتكوين» بقيمة تتجاوز 40 مليار دولار على عملاء بوصفها مكافآت ترويجية عن طريق الخطأ، ما أدى إلى موجة بيع حادة على المنصة.

واعتذرت «‌بيثامب» عن ‌الخطأ الذي ‌وقع ⁠أمس ​الجمعة، ‌وقالت إنها استعادت 99.7 في المائة من إجمالي 620 ألف «بتكوين» بقيمة تبلغ نحو 44 مليار دولار بالأسعار الحالية. وقيدت عمليات التداول والسحب ⁠على 695 عميلاً متأثراً بالواقعة في ‌غضون 35 دقيقة ‍من التوزيع ‍الخاطئ أمس.

وأفادت تقارير إعلامية بأن ‍المنصة كانت تعتزم توزيع مكافآت نقدية صغيرة في حدود 2000 وون كوري (1.40 دولار) ​أو أكثر لكل مستخدم في إطار حدث ترويجي، لكن ⁠الفائزين حصلوا بدلاً من ذلك على ألفي «بتكوين» على الأقل لكل منهم.

وقالت «‌بيثامب» في بيان: «نود أن نوضح أن هذا لا علاقة له بقرصنة خارجية أو انتهاكات أمنية، ولا توجد مشاكل في أمن النظام ‌أو إدارة أصول العملاء».


«مدمّر ستارلينك» المحتمل... خطوة تقنية صينية تفتح الباب أمام تعطيل الأقمار الاصطناعية

صورة مركبة لنموذج قمر اصطناعي مع خلفية لكوكب الأرض (رويترز)
صورة مركبة لنموذج قمر اصطناعي مع خلفية لكوكب الأرض (رويترز)
TT

«مدمّر ستارلينك» المحتمل... خطوة تقنية صينية تفتح الباب أمام تعطيل الأقمار الاصطناعية

صورة مركبة لنموذج قمر اصطناعي مع خلفية لكوكب الأرض (رويترز)
صورة مركبة لنموذج قمر اصطناعي مع خلفية لكوكب الأرض (رويترز)

طوّر علماء صينيون مولّد طاقة فائق القوة وصغير الحجم، في خطوة تمهّد الطريق لتطوير أسلحة من الجيل القادم قد تُستخدم يوماً ما ضد أسراب الأقمار الاصطناعية، مثل كوكبة «ستارلينك» التابعة لشركة «سبيس إكس»، وذلك وفقاً لما أوردته صحيفة «إندبندنت».

وخلال السنوات الأخيرة، اكتسبت أسلحة الموجات الدقيقة عالية الطاقة اهتماماً متزايداً بوصفها بديلاً منخفض التكلفة للصواريخ والبنادق التقليدية، نظراً لقدرتها شبه غير المحدودة على إطلاق النبضات.

وفي هذا السياق، يُجري باحثون في الولايات المتحدة، وروسيا، والصين على وجه الخصوص، دراسات مكثفة حول إمكانية تطوير هذه التقنية إلى أسلحة طاقة موجهة قادرة على تعطيل الأقمار الاصطناعية.

ويُعدّ تدمير قمر اصطناعي في الفضاء مهمة بالغة التعقيد، إذ من المرجح أن تُخلّف الأسلحة التقليدية كميات كبيرة من الحطام المداري، ما قد يؤدي إلى عواقب غير متوقعة، بما في ذلك تهديد الأقمار الاصطناعية التابعة للدولة المنفذة نفسها.

ومن الناحية النظرية، يمكن لأسلحة الموجات الدقيقة تعطيل الأقمار الاصطناعية مع توليد قدر محدود من الحطام، فضلاً عن إتاحة قدر من «الإنكار المعقول»، وهو ما يمنحها ميزة استراتيجية واضحة.

وتعتمد هذه الأسلحة على مبدأ تخزين الطاقة الكهربائية ثم إطلاقها دفعة واحدة على شكل نبضة قوية، على غرار آلية عمل ملف تسلا.

وتُستخدم هذه النبضة الهائلة من الطاقة في تشغيل مولدات الموجات الدقيقة، التي تعمل بدورها على تعطيل الأنظمة، والأجهزة الإلكترونية.

شاشة تظهر إيلون ماسك وشعار شركة «ستارلينك» (رويترز)

وحتى وقت قريب، كانت غالبية النماذج الأولية لهذه المولدات النبضية ضخمة الحجم، إذ بلغ طولها 10 أمتار على الأقل، ووزنها أكثر من 10 أطنان، ما جعل دمجها في أنظمة الأسلحة الصغيرة أو المتحركة أمراً بالغ الصعوبة.

غير أنّ دراسة حديثة أجراها علماء صينيون من معهد شمال غربي الصين للتكنولوجيا النووية (NINT) أظهرت تقدماً ملحوظاً في هذا المجال، حيث استخدم الباحثون مادة عازلة سائلة خاصة تُعرف باسم «ميدل 7131»، ما أتاح تحقيق كثافة أعلى لتخزين الطاقة، وعزلاً أكثر قوة، وتقليلاً لفقدان الطاقة، وأسهم في تصميم جهاز أصغر حجماً، وأكثر كفاءة.

وكتب العلماء في الدراسة المنشورة: «من خلال استخدام مادة عازلة سائلة عالية الكثافة للطاقة تُعرف باسم (ميدل 7131)، إلى جانب خط تشكيل نبضات مزدوج العرض، تمكنت الدراسة من تصغير حجم محول تسلا المتكامل، ونظام تشكيل النبضات».

وبحسب الدراسة، يبلغ طول الجهاز الجديد أربعة أمتار فقط (13 قدماً)، ويزن خمسة أطنان، ما يجعله أول جهاز تشغيل صغير الحجم في العالم لسلاح الميكروويف عالي الطاقة.

ويُعرف هذا الجهاز باسم TPG1000Cs، وهو صغير بما يكفي ليُثبت على الشاحنات، والطائرات، بل وحتى على أقمار اصطناعية أخرى، وفقاً لما أفاد به الباحثون.

وأشار الباحثون إلى أن «النظام أظهر استقراراً في التشغيل لمدة دقيقة واحدة متواصلة، حيث جُمعت نحو 200 ألف نبضة بأداء ثابت».

ويؤكد خبراء أن سلاح ميكروويف أرضياً بقدرة تتجاوز 1 غيغاواط (GW) سيكون قادراً على تعطيل وتدمير آلية عمل أقمار «ستارلينك» الاصطناعية في مدارها بشكل كبير.

وذكر الباحثون، بحسب ما نقلته صحيفة «ساوث تشاينا مورنينغ بوست»، أن جهاز TPG1000Cs قادر على توليد نبضات كهربائية فائقة القوة تصل إلى 20 غيغاواط.

وتأتي هذه التطورات في وقت نشرت فيه الصين عدداً من الدراسات التي تشدد على ضرورة إيجاد وسائل فعالة لتعطيل أقمار «ستارلينك» الاصطناعية التابعة لرجل الأعمال إيلون ماسك.


الذكاء الاصطناعي السيادي… نهاية السحابة أم بداية نموذج مزدوج؟

يتحوّل النقاش في عصر الذكاء الاصطناعي من التطبيقات إلى البنية التحتية ومن يملكها وكيف تُدار (أدوبي)
يتحوّل النقاش في عصر الذكاء الاصطناعي من التطبيقات إلى البنية التحتية ومن يملكها وكيف تُدار (أدوبي)
TT

الذكاء الاصطناعي السيادي… نهاية السحابة أم بداية نموذج مزدوج؟

يتحوّل النقاش في عصر الذكاء الاصطناعي من التطبيقات إلى البنية التحتية ومن يملكها وكيف تُدار (أدوبي)
يتحوّل النقاش في عصر الذكاء الاصطناعي من التطبيقات إلى البنية التحتية ومن يملكها وكيف تُدار (أدوبي)

لم يعد الذكاء الاصطناعي مجرّد قصة برمجيات. فمع تسارع الحكومات في تنفيذ استراتيجياتها الرقمية، واندماج تقنيات الذكاء الاصطناعي التوليدي في صلب العمليات المؤسسية، يتحوّل النقاش من التطبيقات إلى البنية التحتية، تحديداً من يملكها وأين تُدار وكيف تُبنى. فالمفهوم الذي يتصدر هذا الجدل اليوم هو «السيادة».

غير أن السيادة في سياق الذكاء الاصطناعي ليست مجرد شعار جيوسياسي، بل تعكس تحوّلاً بنيوياً في فهم الدول والشركات لمخاطر المرحلة الجديدة، خصوصاً في عصر النماذج اللغوية الكبرى.

فالحوسبة السحابية التقليدية أثارت مخاوف تتعلق بالخصوصية والأمن السيبراني. أما الذكاء الاصطناعي التوليدي فقد أضاف بُعداً مختلفاً. إذاً ماذا يحدث عندما تتعلّم النماذج من بيانات حساسة بطرق يصعب عكسها؟

يجيب سامي عيسى، الرئيس التنفيذي لشركة «غلوبال إيه آي»، بأنه «لا يوجد في عالم الذكاء الاصطناعي ما يُسمى بالحق في النسيان. إذا تعلّم نموذج لغوي أسرار نموذج عملي التجاري، فمن شبه المستحيل إقناعه بإلغاء ما تعلّمه». ويشير خلال لقاء خاص مع «الشرق الأوسط» إلى أن الفارق بين تخزين البيانات وترميزها داخل أوزان النموذج «هو ما يدفع باتجاه مفهوم الذكاء الاصطناعي السيادي».

سامي عيسى الرئيس التنفيذي لشركة «غلوبال إيه آي»

السيادة بالهندسة المعمارية

يمكن النظر إلى السيادة من زاويتين؛ الأولى قائمة على التشريعات والضوابط التعاقدية، والثانية قائمة على البنية الهندسية ذاتها. السيادة بالسياسة تعتمد على القوانين والاتفاقات، لكن تنفيذ تلك الضوابط يصبح معقّداً حين يكون «التسرّب» غير قابل للاسترجاع. ويقول عيسى إن «التسرّب لا يمكن استعادته ولا يمكنك أن تطلب من النموذج أن ينسى».

وهنا تظهر فكرة «السيادة بالهندسة المعمارية»، أي بناء بيئات حوسبة معزولة ومخصصة بالكامل لجهة واحدة، بحيث لا تكون مشتركة مع أطراف أخرى. وفي هذا النموذج، تكون البنية التحتية «مفصولة مادياً» (air-gapped)، ولا يشاركها أي عميل آخر.

المنطق واضح، فإذا كانت النماذج التوليدية تستمد قيمتها من بيانات حساسة كالنماذج التجارية أو الشيفرات الجينية أو البنى المالية، فإن التحكم المعماري يصبح أداًة استراتيجيةً لحماية هذه القيمة. فالسيادة هنا ليست انعزالاً، بل إدارة واعية للمخاطر طويلة الأمد.

الحوسبة السحابية والذكاء الاصطناعي

على مدى عقدين تقريباً، أعادت الحوسبة السحابية تشكيل البنية الرقمية للشركات. لكن حتى اليوم، لم تنتقل غالبية بيانات المؤسسات بالكامل إلى السحابة العامة. ومع صعود الذكاء الاصطناعي التوليدي، بدأ البعض يعيد النظر.

يرى عيسى أنه «بعد 15 أو 20 عاماً من الحوسبة السحابية، لم تنتقل نسبة كبيرة من بيانات المؤسسات إلى السحابة. أما الآن، في عصر الذكاء الاصطناعي، نرى بعضهم ينسحب». ويُرجع عيسى السبب ليس إلى أساس عاطفي بل بنيوي، ويقول: «في الحوسبة التقليدية، يمكن فصل البيانات، أما في النماذج اللغوية، فإن المعرفة تصبح جزءاً من تكوين النموذج نفسه. لكن هل يعني ذلك أن الحوسبة السحابية والسيادة في مسار تصادمي؟».

يرد عيسى قائلاً: «أعتقد أن الأمر كذلك، فالذكاء الاصطناعي سرّع هذا الاتجاه»، موضحاً أن المقصود ليس نهاية الحوسبة السحابية، بل ظهور بنى مزدوجة. إنها بيئات سحابية مشتركة للأعمال العامة وبيئات سيادية مخصصة للتطبيقات الاستراتيجية.

النماذج اللغوية تجعل مسألة «السيادة» أكثر إلحاحاً لأن المعرفة التي تتعلّمها لا يمكن استرجاعها أو محوها بسهولة (غيتي)

مخاطر البطء أكبر من مخاطر الإسراف

بينما يتخوف بعض صناع القرار من الإفراط في الإنفاق على البنية التحتية للذكاء الاصطناعي، يرى عيسى أن الخطر الأكبر هو التردد، ويشرح أن «مخاطر التقليل في الاستثمار أكبر من مخاطر الإفراط فيه»، وأن الذكاء الاصطناعي ليس مجرد تطور تدريجي في السرعة أو السعة، بل يعيد تعريف نماذج الإنتاجية والخدمات. ويصف عيسى ما يحدث بأنه «ليس مجرد قفزة تقنية بل طريقة مختلفة تماماً في التفكير بالأعمال وخلق القيمة». ويشدد على أنه بالنسبة للدول التي تسعى إلى التحول لمراكز للذكاء الاصطناعي، «فإن التأخير قد يعني خسارة سباق استقطاب المواهب».

البنية التحتية وحدها لا تكفي

الاستثمار في مراكز البيانات لا يحل المشكلة بالكامل، فالموهبة هي العامل الحاسم. ويفيد عيسى خلال حديثه مع «الشرق الأوسط» بأن «الموهبة تحتاج إلى وقت، وأن التحول نحو الذكاء الاصطناعي يتطلب طيفاً واسعاً من الكفاءات؛ مهندسي كهرباء ومختصي طاقة وخبراء مراكز بيانات ومطوري برمجيات وباحثي تعلم آلي وغيرهم». ويلفت عيسى إلى أن «أي تقنية تعزز الإنتاجية تؤثر في سوق العمل لكنها تخلق أيضاً وظائف جديدة»، ويضرب مثالاً توضيحياً كنجاح وادي السيليكون «الذي لم يكن نتيجة بنية تحتية فقط، بل نتيجة منظومة تعليمية ومؤسسية بُنيت على مدى عقود»، ويضيف: «إذا أردت أن تصبح مركزاً للذكاء الاصطناعي، فإن أهم قرار معماري هو أن تبدأ الآن».

تتجه بعض المؤسسات إلى نماذج سيادية معمارية مخصّصة بدل الاعتماد الكامل على الحوسبة السحابية المشتركة (غيتي)

السيادة... لكن مع ترابط عالمي

ألا تعني السيادة الاستقلال الكامل؟ يرد عيسى قائلاً إن «السيادة الكاملة دون أي ترابط هي خيال. فإنتاج الشرائح المتقدمة، على سبيل المثال، لا يزال يعتمد إلى حد كبير على مصانع خارجية... لذلك، السيادة مفهوم نسبي»، ويزيد: «هناك درجات من السيادة يمكن تحقيقها...لكن 100 في المائة سيادة؟ حتى العالم بأكمله لا يستطيع ذلك».

بالنسبة للدول ذات الطموحات الكبيرة والموارد المحدودة، يظل السؤال قائماً: كيف تلحق بالركب؟ يحذر عيسى من أن «هذه ليست ثورة تكنولوجية يمكن أن تتأخر عنها ولا يمكنك أيضاً أن تنتظر عشر سنوات بينما تستمتع الدول المجاورة بمكاسب الإنتاجية». الذكاء الاصطناعي لا يعيد تشكيل قطاع واحد، بل قطاعات بأكملها.

في النهاية، قد لا يكون الجدل حول السيادة مجرد صراع جيوسياسي، بل تحوّل اقتصادي عميق. فالتحكم في بيئات تدريب النماذج قد يصبح عاملاً استراتيجياً يعادل أهمية الموارد الطبيعية في مراحل سابقة. لكن، كما يختتم عيسى، فإن الاستثمار الحقيقي لا يقتصر على العتاد «حيث إن بناء الموهبة يحتاج إلى وقت واستثمار طويل الأمد».