5 خيارات للسيطرة على تهديدات الذكاء الاصطناعي للحق في الخصوصية

الحرفان الأولان من عبارة «الذكاء الاصطناعي» مع يد روبوت مصغرة في هذا الرسم التوضيحي الملتقط في 23 يونيو 2023 (رويترز)
الحرفان الأولان من عبارة «الذكاء الاصطناعي» مع يد روبوت مصغرة في هذا الرسم التوضيحي الملتقط في 23 يونيو 2023 (رويترز)
TT

5 خيارات للسيطرة على تهديدات الذكاء الاصطناعي للحق في الخصوصية

الحرفان الأولان من عبارة «الذكاء الاصطناعي» مع يد روبوت مصغرة في هذا الرسم التوضيحي الملتقط في 23 يونيو 2023 (رويترز)
الحرفان الأولان من عبارة «الذكاء الاصطناعي» مع يد روبوت مصغرة في هذا الرسم التوضيحي الملتقط في 23 يونيو 2023 (رويترز)

قبل نحو عامين، فرضت تقنيات الذكاء الاصطناعي نفسها على جدول أولويات صناع القرار في عديد من المجالات على مستوى العالم، بعد أن اتضح أن الجيل الجديد من هذه التكنولوجيا الرقمية ينطوي على فوائد جمة وتحديات ومخاطر كثيرة في الوقت نفسه. وبسبب خطورة وأهمية ما تمثله تطورات تكنولوجيا الذكاء الاصطناعي، نشرت مؤسسة الأبحاث والتطوير الأميركية للدراسات الاستراتيجية «راند»، دراسة حول تأثيرات الذكاء الاصطناعي على قوانين حماية الخصوصية أعدّها 6 خبراء، هم: تيفاني صادق الأستاذة في كلية القانون بجامعة ميشيغان، وكارلين ستانلي كبير باحثين في السياسة بمؤسسة «راند»، والمحلل السياسي غريغوري سميث، والباحثة كريستينا مارسينك، والمحلل السياسي بول كورماري، وساليل جوناشيكار المدير المشارك في مركز أبحاث «راند أوروبا».

وتقول الدراسة، وفق تقرير لـ«وكالة الأنباء الألمانية»، إن الذكاء الاصطناعي يعد ببدء عصر من التطور التكنولوجي السريع الذي قد يؤثر في كل جوانب المجتمع تقريباً، سواء بشكل إيجابي أو سلبي. وتحتاج الاستفادة من مزايا الذكاء الاصطناعي جمع ومعالجة وتفسير كميات كبيرة من البيانات، بما في ذلك البيانات الشخصية والحساسة، لذلك، ظهرت الأسئلة المتعلقة بكيفية حماية البيانات، والحق في الخصوصية في النقاش العام.

وتلعب حماية الخصوصية دوراً محورياً في محافظة الأفراد على معلوماتهم الشخصية، وفي حماية المؤسسات للمعلومات الحساسة للأفراد، ومنع استخدامها في عمليات الاحتيال أو الوصول غير المسموح به لبيانات الأفراد. ورغم ذلك فإن الولايات المتحدة تفتقر لإطار تشريعي أو تنظيمي اتحادي شامل لتنظيم حقوق البيانات، والخصوصية وحمايتها.

وهناك عديد من المحاولات لصياغة قانون اتحادي شامل للخصوصية، بما في ذلك قانون حقوق الخصوصية الأميركي، الذي يستهدف تنظيم جمع ونقل واستخدام بيانات الأميركيين في أغلب الدوائر. ورغم أن بعض قضايا خصوصية البيانات يمكن معالجتها بالتشريعات، هناك فجوات في حماية البيانات؛ بسبب السمات الفريدة للذكاء الاصطناعي.

ومن أكثر الأمور المثيرة للقلق من منظور حماية البيانات في الذكاء الاصطناعي الغياب المحتمل لفهم كيفية قيام الخوارزميات باستخدام وجمع وتعديل البيانات، أو اتخاذ القرارات على أساس البيانات. هذا الغياب المحتمل للفهم يُعرف باسم «التعتيم الخوارزمي»، ويمكن أن ينتج عن الطبيعة المعقدة للخوارزميات أو الإخفاء المتعمد من خلال استخدام أي شركة لقانون حماية الأسرار التجارية لكي تحمي خوارزمياتها، أو استخدام تعليم الآلة لإنشاء خوارزمية، وفي هذه الحالة ربما لا يكون في مقدور مطوري الخوارزميات التنبؤ بكيفية أدائها. فالتعتيم الخوارزمي يمكن أن يجعل من الصعب أو المستحيل رؤية كيفية نقل البيانات المستخدمة في الوصول إلى بيانات جديدة أو القرارات الناتجة عن استخدام تلك البيانات، وهو ما يثير الأسئلة حول محدودية القدرة على فحص أو تنظيم تقنيات الذكاء الاصطناعي.

وبحسب دراسة مؤسسة «راند»، هناك مجموعة أخرى من الهواجس بشأن الخصوصية، التي تأخذ جوانب فريدة مرتبطة بالذكاء الصناعي أو تضخم هذه السمات الفريدة للذكاء الاصطناعي، ومنها إعادة استخدام البيانات، التي تشير إلى البيانات التي يتم استخدامها بعيداً عن الغرض المقصود أو المعلن لها، ودون علم ولا موافقة صاحبها. ففي سياق الذكاء الاصطناعي يمكن أن تحدث إعادة استخدام البيانات، عندما يتم جمع بيانات السيرة الذاتية من أحد الأشخاص لتغذية خوارزمية يمكن أن تتعلم من هذه البيانات الأنماط المرتبطة ببيانات الشخص. على سبيل المثال، تضمنت حزمة التحفيز الاقتصادي في الولايات المتحدة في أثناء الأزمة المالية التي تفجرت في خريف 2008، تمويل عملية رقمنة سجلات الرعاية الصحية بهدف تسهيل نقل بيانات المرضى بين موفري الرعاية الصحية لمصلحة المرضى. ورغم ذلك يمكن أن تستخدم المستشفيات وشركات التأمين الخوارزميات الطبية لتحديد المخاطر الصحية لكل شخص، ومدى جدارته بالحصول على الرعاية الطبية، وهو غرض لم يكن مقصوداً في البداية عند جمع ورقمنة هذه البيانات.

ويتعلق هاجس ثانٍ بانتشار البيانات، الذي يحدث عندما يتم جمع البيانات بشأن الأفراد الذين لم يكونوا مقصودين في أثناء جمع البيانات. على سبيل المثال يمكن استخدام الذكاء الاصطناعي لتحليل صورة تم التقاطها لشخص ما لكنها تضم أشخاصاً آخرين غير مقصودين. وهناك مثال آخر وهو أقارب أي شخص يقوم بتحميل بياناته الجينية إلى أحد مراكز تجميع البيانات الجينية مثل «23 آند مي».

الهاجس الثالث هو استمرارية البيانات، ويشير إلى بقاء البيانات لفترة أطول مما كان متوقعاً في أثناء جمعها، وربما بما يتجاوز حياة الأشخاص الذين جمعوا البيانات أو الذين وافقوا على استخدامها، خصوصاً إذا تم دمج البيانات في خوارزمية ذكاء اصطناعي أو أُعيد تجميعها أو أُعيد استخدامها.

ورغم ذلك فإن دراسة مؤسسة «راند» تقترح مجموعة من الخيارات المحتملة لمعالجة المخاطر الفريدة للذكاء الاصطناعي على الخصوصية، ومنها الحد من جمع البيانات والاكتفاء بالحد الأدنى منها، وهو ما يشير إلى ضرورة أن يقتصر جمع البيانات الشخصية على تلك المطلوبة أو اللازمة بشكل مباشر لتحقيق أهداف محددة بدقة. وهذا المبدأ يتعارض مع النهج الذي تستخدمه كثير من الشركات اليوم، التي تجمع أكبر قدر ممكن من المعلومات. وتحت مظلة تقليل جمع البيانات إلى أقصى درجة ممكنة، يجب فرض قيود قانونية على استخدام البيانات بالنسبة للهدف المحدد في أثناء جمعها.

الخيار الثاني هو تقييمات التأثير الخوارزمي على الاستخدام العام. حيث تهدف تقييمات التأثير الخوارزمي إلى إخضاع المؤسسات التي تستخدم أنظمة صناعة القرار الآلية للمحاسبة. وتواجه تقييمات التأثير الخوارزمي مشكلة التعتيم الخوارزمي من خلال كشفها عن الأضرار المحتملة الناتجة عن استخدام الذكاء الاصطناعي في صناعة القرار ودعوة المؤسسات لاتخاذ خطوات عملية للتخفيف من الأضرار المحددة. وسيفرض أي تقييم للتأثير الخوارزمي الكشف عن أنظمة صناعة القرار المعتمدة على الذكاء الاصطناعي سواء القائمة أو المقترحة، بما في ذلك أغراضها ونطاقها، والتأثيرات المحتملة على المجتمعات قبل بدء استخدام مثل هذه الخوارزميات.

الخيار الثالث لمواجهة مخاطر الذكاء الاصطناعي على الخصوصية يتمثل في التدقيق الخوارزمي، الذي يعدّ تقييماً منظماً لأي نظام ذكاء اصطناعي لضمان توافقه مع الأهداف والمعايير والاشتراطات القانونية المحددة سلفاً. وفي إطار مثل هذا التدقيق، يتم فحص تصميم ومدخلات ومخرجات أي نظام، وحالات الاستخدام والأداء بشكل عام وبصورة مستمرة لتحديد أي فجوات أو ثغرات أو مخاطر. ويتضمن التدقيق الخوارزمي المناسب، وضع أهداف محددة وواضحة للتدقيق مثل التحقق من الأداء والدقة، بالإضافة إلى وضع معايير موحدة لتقييم أداء النظام. وفي سياق الخصوصية، يمكن للتدقيق أن يؤكد أن البيانات تستخدَم في الإطار الذي وافق عليه الأشخاص، وتحت مظلة اللوائح المعمول بها.

الخيار الرابع لمعالجة هواجس الخصوصية هو «الإفصاح الإلزامي»، الذي يقضي بضرورة قيام المؤسسة التي تستخدم تكنولوجيا الذكاء الاصطناعي بإبلاغ العامة بذلك. على سبيل المثال يلزم قانون الذكاء الاصطناعي في الاتحاد الأوروبي الشركات بوضع علامة مميزة على أي محتوى منتج باستخدام الذكاء الاصطناعي. كما يشترط قانون الاتحاد الأوروبي الإفصاح عن استخدام أنظمة الذكاء الاصطناعي لتصنيف الأشخاص أو التعرف على مشاعرهم أو نواياهم باستخدام البيانات اليومترية الخاصة بهم. وفي العام الماضي تم طرح مشروع قانون مماثل في الولايات المتحدة.

وأخيراً، تتمثل الاعتبارات المتعلقة بصناع السياسة الخيار الخامس والأخير لمعالجة مخاطر الذكاء الاصطناعي على الخصوصية، حيث يجب عليهم تحقيق التوازن الصحيح بين التنظيم والابتكار. ولذلك فإن توسيع دائرة المشاركين في صياغة سياسات وقواعد استخدام الذكاء الاصطناعي يمكن أن يساعد على تهدئة المخاوف من أن تؤدي القواعد والنظم إلى خنق الابتكار والتطوير والاستفادة من المزايا التي توفرها تقنيات الذكاء الاصطناعي. وفي هذا الإطار تبنّى قانون الاتحاد الأوروبي للذكاء الاصطناعي دعوة كل الأطراف المعنية بهذه الصناعة، خصوصاً مطوري نماذج الذكاء الاصطناعي للمشاركة في وضع مدونة السلوك المنظمة لنماذج الذكاء الاصطناعي العامة. كما يتضمن قانون الاتحاد الأوروبي بنوداً لدعم الابتكار، خصوصاً بين الشركات الصغيرة والمتوسطة، ومنها الشركات الناشئة. على سبيل المثال، يوفر القانون ما تُسمى «صناديق الاختبار التنظيمية»، التي تعني إيجاد بيئة اختبار وتجربة خاضعة لرقابة صارمة من جانب الجهات التنظيمية. والهدف المحدد من «صندوق الاختبار التنظيمي» هو تعزيز ابتكارات الذكاء الاصطناعي من خلال توفير أطر لتطوير وتدريب وإثبات صحة واختبار أنظمة الذكاء الاصطناعي بطريقة تضمن الامتثال لقانون الذكاء الاصطناعي للاتحاد الأوروبي، وبالتالي تخفيف عدم اليقين القانوني بالنسبة لموفري هذه الأنظمة.


مقالات ذات صلة

ترمب يكشف عن مرشحيه لتولي وزارات الخزانة والعمل والإسكان

الولايات المتحدة​ سكوت بيسنت مؤسس شركة الاستثمار «كي سكوير غروب» يتحدث في مناسبة انتخابية للرئيس ترمب (رويترز)

ترمب يكشف عن مرشحيه لتولي وزارات الخزانة والعمل والإسكان

رشّح الرئيس الأميركي المنتخب دونالد ترمب، سكوت بيسنت، مؤسس شركة الاستثمار «كي سكوير غروب»، لتولي منصب وزير الخزانة.

«الشرق الأوسط» (واشنطن)
العالم القراصنة قاموا بعمليات استطلاع وفحص محدودة لمواقع إلكترونية متعددة مرتبطة بالانتخابات الأميركية (أرشيفية - رويترز)

مسؤول: قراصنة إلكترونيون صينيون يستعدون لصدام مع أميركا

قال مسؤول كبير في مجال الأمن الإلكتروني في الولايات المتحدة إن قراصنة إلكترونيين صينيين يتخذون مواطئ قدم في بنية تحتية خاصة بشبكات حيوية أميركية.

المشرق العربي الضابط الأميركي كيفين بيرغنير يعلن للصحافيين في بغداد اعتقال علي موسى دقدوق 2 يوليو (تموز) 2007 (أ.ف.ب - غيتي)

تقرير: مقتل القيادي بـ«حزب الله» علي موسى دقدوق بغارة إسرائيلية في سوريا

قال مسؤول دفاعي أميركي إن قائداً كبيراً بـ«حزب الله» اللبناني كان قد ساعد في التخطيط لإحدى أجرأ وأعقد الهجمات ضد القوات الأميركية خلال حرب العراق، قُتل بسوريا.

«الشرق الأوسط» (واشنطن)
الولايات المتحدة​ ليندا مكماهون مرشحة دونالد ترمب لقيادة وزارة التعليم (أ.ب)

مرشحة ترمب لوزارة التعليم مُتهمة بـ«تمكين الاعتداء الجنسي على الأطفال»

لا تزال الاتهامات تلاحق الفريق الذي اختاره الرئيس الأميركي المنتخب لتشكيل إدارته؛ حيث زعمت دعوى قضائية أن ليندا مكماهون سمحت بالاعتداء الجنسي على الأطفال.

«الشرق الأوسط» (واشنطن)
الولايات المتحدة​ صورة مركّبة لدونالد ترمب وستورمي دانيالز (رويترز)

إرجاء إصدار الحكم في قضية ترمب بنيويورك إلى «أجل غير مسمى»

أمر القاضي في قضية الاحتيال المالي ضد دونالد ترمب، الجمعة، بتأجيل النطق بالحكم إلى أجل غير مسمى، ما يمثل انتصاراً قانونياً للرئيس المنتخب.

«الشرق الأوسط» (نيويورك)

مؤتمر «مايكروسوفت إغنايت 2024» يكشف عن أبرز نزعات الذكاء الاصطناعي المقبلة

يستعرض مؤتمر «مايكروسوفت إغنايت 2024» أبرز تقنيات الذكاء الاصطناعي المقبلة
يستعرض مؤتمر «مايكروسوفت إغنايت 2024» أبرز تقنيات الذكاء الاصطناعي المقبلة
TT

مؤتمر «مايكروسوفت إغنايت 2024» يكشف عن أبرز نزعات الذكاء الاصطناعي المقبلة

يستعرض مؤتمر «مايكروسوفت إغنايت 2024» أبرز تقنيات الذكاء الاصطناعي المقبلة
يستعرض مؤتمر «مايكروسوفت إغنايت 2024» أبرز تقنيات الذكاء الاصطناعي المقبلة

تنتهي اليوم فعاليات مؤتمر «مايكروسوفت إغنايت 2024» (Microsoft Ignite) السنوي في مدينة شيكاغو الأميركية، بحضور تجاوز 14 ألف زائر، الذي استعرضت «مايكروسوفت» خلال أيامه الثلاثة أكثر من 80 خدمة ومنتجاً وميزة مرتبطة بالذكاء الاصطناعي.

الذكاء الاصطناعي بخدمة الموظفين

طوّرت الشركة خدمة «مايكروسوفت 365 كوبايلوت» (Microsoft 365 Copilot) الخاصة بالشركات، مقدمة «أفعال كوبايلوت» (Copilot Actions) التي تسمح بأتمتة المهام اليومية في مجال العمل بأوامر بسيطة، مثل الحصول على ملخص اجتماعات «تيمز» (Teams) في ذلك اليوم أو إعداد التقارير الأسبوعية أو تلخيص ما الذي يجب القيام به حسب الرسائل الواردة إلى بريد المستخدم والاجتماعات التي حدثت قبل عودته من إجازته السنوية، وغيرها.

 

 

«عملاء مايكروسوفت»

كشفت الشركة كذلك ميزة «عملاء مايكروسوفت» (Microsoft Agents) التي تسمح بالبحث في ملفات الشركة وتحليلها والإجابة على أسئلة الموظفين أو العملاء بكل خصوصية، وتلخيص النتائج بهدف تسريع اتخاذ قرارات العمل. وتعمل هذه الميزة في خدمة «شيربوينت» (SharePoint) لكل شركة.

 

 

 

المترجم الفوري

ويمكن لعميل ذكاء اصطناعي اسمه «المترجم الفوري» (Interpreter) ترجمة محادثات الاجتماعات المرئية في «تيمز» بهدف كسر الحواجز اللغوية والتركيز على جوهر الاجتماع، مع القدرة على محاكاة صوت المستخدم بلغة الطرف الثاني. ويمكن لعميل ذكي آخر اسمه «المُيَسِّر» (Facilitator) تلخيص اجتماعات «تيمز» وأتمتة إدارة المشاريع عبر جميع مراحلها. كما يستطيع بعض عملاء الذكاء الاصطناعي مساعدة الموظفين على حلّ مشاكلهم التقنية دون الحاجة للعودة إلى قسم الدعم الفني، والإجابة على أسئلتهم المتعلقة بسياسات الشركة والموارد البشرية والمشتريات، وغيرها.

الذكاء الاصطناعي رفيق المبرمجين

ولتسهيل تضمين تقنيات الذكاء الاصطناعي في برامج الشركات والأفراد، تقدم «مايكروسوفت» ما تسميه بـ«مسبك آجور للذكاء الاصطناعي» (Azure AI Foundry) الذي يوفر مجموعة برمجية للذكاء الاصطناعي وبوابة لتطوير عملاء الذكاء الاصطناعي.

وتوفر هذه المجموعة البرمجية أكثر من 25 قالباً مسبق الإعداد (Template) للذكاء الاصطناعي تسمح بتطوير تطبيقات مدعومة بهذه التقنية وتبسيط عملية البرمجة ونشرها عبر منصات «غيتهاب» (Github) و«فيجوال ستوديو» (Visual Studio) و«كوبايلوت ستوديو» (Copilot Studio). وتسمح البوابة للمبرمجين اكتشاف خدمات وأدوات ونماذج ذكاء اصطناعي تناسب احتياجاتهم واحتياجات الشركات التي يعملون لديها.

حماية المستخدمين

حذّرت «مايكروسوفت» أن عدد الهجمات الإلكترونية التي تستهدف سرقة كلمات السرّ قد ارتفع خلال آخر 3 أعوام من 579 إلى أكثر من 7000 هجمة في كل ثانية، مع مضاعفة العدد في آخر سنة، ما يضع سبل الحماية التقليدية في موضع لا يسمح لها اللحاق بتقدم القراصنة.

مبادرة المستقبل الآمن

هذا الأمر يتطلب إعادة تطوير عملية حماية المستخدمين، ما دفع الشركة إلى إطلاق «مبادرة المستقبل الآمن» (Secure Future Initiative) التي طلبت من 34000 مهندس العمل على أكبر مشروع للأمن الرقمي بتاريخ البشرية وتطوير مقاومة البرامج ونظم التشغيل وأجهزة المستخدمين لطوفان الهجمات الرقمية الذي تتسارع وتيرته في كل يوم.

وكشفت كذلك عن عملها على تطوير «مايكروسوفت سيكيوريتي إكسبوجر مانجمنت» (Microsoft Security Exposure Management) الذي يقوم بتحليل آلية تواصل الأجهزة المختلفة والبيانات والهوية الرقمية والشبكات، بعضها مع بعض، داخل بيئة العمل واكتشاف العلاقات بينها وعرض مسار الاختراقات الممكنة لأي قرصان إلكتروني، وذلك لاكتشاف نقطة الضعف في البيئة المعقدة التي يمكن للقراصنة الدخول منها، وتوقع هدفهم وتتبع المسار المفترض لهم عبر الأجهزة المختلفة للوصول إلى الهوية الرقمية أو البيانات الحساسة، ومن ثم حماية ذلك المسار بشكل استباقي على صعيد سدّ الثغرات في الأجهزة أو البرامج أو نظام التشغيل أو الشبكة، وغيرها من العوامل الأخرى. كما يستطيع هذا المشروع التأكد من سلامة الاحتياطات الأمنية للفريق التقني داخل الشركة.

وأطلقت الشركة نظام «مايكروسوفت سيكيوريتي كوبايلوت» (Microsoft Security Copilot) المدعوم بالذكاء الاصطناعي للقيام بالوظائف الأمنية باستخدام الذكاء الاصطناعي بكل سلاسة وسهولة، حيث أظهرت الدراسات انخفاض معدل مدة حلّ المشاكل الأمنية لدى استخدام هذا النظام بنحو 30 في المائة.

أجهزة الذكاء الاصطناعي

واستعرضت الشركة أول جهاز من فئته، مصنوع خصيصاً للاتصال بأمان مع خدمة «ويندوز 365» السحابية، اسمه «ويندوز 365 لينك» (Windows 365 Link).

الجهاز بسيط وآمن، وسيتم إطلاقه في أبريل (نيسان) 2025 المقبل، بسعر 349 دولاراً أميركياً، ويسمح للمستخدمين بالعمل بأمان مع نظام التشغيل «ويندوز» السحابي بكل سرعة وموثوقية.

ولا يقوم الجهاز بتخزين أي بيانات داخله، ولا يقوم بتثبيت أي برامج فيه، مع تقديم وحدة معالجة للذكاء الاصطناعي مدمجة فيه لتسريع التفاعل مع البيانات والحصول على النتائج بكل سلاسة.

 

تحليل علوم الأرض

وعلى الصعيد نفسه، تعاونت وكالة الفضاء الأميركية «ناسا» مع «مايكروسوفت» لتطوير أداة مدعومة بالذكاء الاصطناعي اسمها «كوبايلوت الأرض» (Earth Copilot) تهدف إلى تبسيط عملية تحليل البيانات المرتبطة بعلوم الأرض التي تجمعها الأقمار الاصطناعية الخاصة بـ«ناسا». وسيتم نشر هذه البيانات المعقدة للجميع بهدف مشاركة المعلومات المهمة مع العلماء والباحثين والطلاب والمدرسين وصناع السياسات وعموم الناس.

وستستخدم الوكالة خدمة «آجور أوبين إيه آي» (Azure OpenAI Service) لتذليل العقبات التقنية وتمكين المجموعات المختلفة للمستخدمين من التفاعل مع البيانات العلمية لكوكب الأرض، ما يدل على الأبواب التي يفتحها الذكاء الاصطناعي لتسهيل وتبسيط عملية التعليم والبحث وتحليل مجموعات البيانات الضخمة في المجالات العلمية وسنّ السياسات، وفي مجالات الزراعة والتخطيط الحضري والاستجابة في حالات الكوارث، وغيرها.

ويمكن زيارة الموقع من هذا الرابط: www.earthdata.nasa.gov/dashboard