5 خيارات للسيطرة على تهديدات الذكاء الاصطناعي للحق في الخصوصية

الحرفان الأولان من عبارة «الذكاء الاصطناعي» مع يد روبوت مصغرة في هذا الرسم التوضيحي الملتقط في 23 يونيو 2023 (رويترز)
الحرفان الأولان من عبارة «الذكاء الاصطناعي» مع يد روبوت مصغرة في هذا الرسم التوضيحي الملتقط في 23 يونيو 2023 (رويترز)
TT

5 خيارات للسيطرة على تهديدات الذكاء الاصطناعي للحق في الخصوصية

الحرفان الأولان من عبارة «الذكاء الاصطناعي» مع يد روبوت مصغرة في هذا الرسم التوضيحي الملتقط في 23 يونيو 2023 (رويترز)
الحرفان الأولان من عبارة «الذكاء الاصطناعي» مع يد روبوت مصغرة في هذا الرسم التوضيحي الملتقط في 23 يونيو 2023 (رويترز)

قبل نحو عامين، فرضت تقنيات الذكاء الاصطناعي نفسها على جدول أولويات صناع القرار في عديد من المجالات على مستوى العالم، بعد أن اتضح أن الجيل الجديد من هذه التكنولوجيا الرقمية ينطوي على فوائد جمة وتحديات ومخاطر كثيرة في الوقت نفسه. وبسبب خطورة وأهمية ما تمثله تطورات تكنولوجيا الذكاء الاصطناعي، نشرت مؤسسة الأبحاث والتطوير الأميركية للدراسات الاستراتيجية «راند»، دراسة حول تأثيرات الذكاء الاصطناعي على قوانين حماية الخصوصية أعدّها 6 خبراء، هم: تيفاني صادق الأستاذة في كلية القانون بجامعة ميشيغان، وكارلين ستانلي كبير باحثين في السياسة بمؤسسة «راند»، والمحلل السياسي غريغوري سميث، والباحثة كريستينا مارسينك، والمحلل السياسي بول كورماري، وساليل جوناشيكار المدير المشارك في مركز أبحاث «راند أوروبا».

وتقول الدراسة، وفق تقرير لـ«وكالة الأنباء الألمانية»، إن الذكاء الاصطناعي يعد ببدء عصر من التطور التكنولوجي السريع الذي قد يؤثر في كل جوانب المجتمع تقريباً، سواء بشكل إيجابي أو سلبي. وتحتاج الاستفادة من مزايا الذكاء الاصطناعي جمع ومعالجة وتفسير كميات كبيرة من البيانات، بما في ذلك البيانات الشخصية والحساسة، لذلك، ظهرت الأسئلة المتعلقة بكيفية حماية البيانات، والحق في الخصوصية في النقاش العام.

وتلعب حماية الخصوصية دوراً محورياً في محافظة الأفراد على معلوماتهم الشخصية، وفي حماية المؤسسات للمعلومات الحساسة للأفراد، ومنع استخدامها في عمليات الاحتيال أو الوصول غير المسموح به لبيانات الأفراد. ورغم ذلك فإن الولايات المتحدة تفتقر لإطار تشريعي أو تنظيمي اتحادي شامل لتنظيم حقوق البيانات، والخصوصية وحمايتها.

وهناك عديد من المحاولات لصياغة قانون اتحادي شامل للخصوصية، بما في ذلك قانون حقوق الخصوصية الأميركي، الذي يستهدف تنظيم جمع ونقل واستخدام بيانات الأميركيين في أغلب الدوائر. ورغم أن بعض قضايا خصوصية البيانات يمكن معالجتها بالتشريعات، هناك فجوات في حماية البيانات؛ بسبب السمات الفريدة للذكاء الاصطناعي.

ومن أكثر الأمور المثيرة للقلق من منظور حماية البيانات في الذكاء الاصطناعي الغياب المحتمل لفهم كيفية قيام الخوارزميات باستخدام وجمع وتعديل البيانات، أو اتخاذ القرارات على أساس البيانات. هذا الغياب المحتمل للفهم يُعرف باسم «التعتيم الخوارزمي»، ويمكن أن ينتج عن الطبيعة المعقدة للخوارزميات أو الإخفاء المتعمد من خلال استخدام أي شركة لقانون حماية الأسرار التجارية لكي تحمي خوارزمياتها، أو استخدام تعليم الآلة لإنشاء خوارزمية، وفي هذه الحالة ربما لا يكون في مقدور مطوري الخوارزميات التنبؤ بكيفية أدائها. فالتعتيم الخوارزمي يمكن أن يجعل من الصعب أو المستحيل رؤية كيفية نقل البيانات المستخدمة في الوصول إلى بيانات جديدة أو القرارات الناتجة عن استخدام تلك البيانات، وهو ما يثير الأسئلة حول محدودية القدرة على فحص أو تنظيم تقنيات الذكاء الاصطناعي.

وبحسب دراسة مؤسسة «راند»، هناك مجموعة أخرى من الهواجس بشأن الخصوصية، التي تأخذ جوانب فريدة مرتبطة بالذكاء الصناعي أو تضخم هذه السمات الفريدة للذكاء الاصطناعي، ومنها إعادة استخدام البيانات، التي تشير إلى البيانات التي يتم استخدامها بعيداً عن الغرض المقصود أو المعلن لها، ودون علم ولا موافقة صاحبها. ففي سياق الذكاء الاصطناعي يمكن أن تحدث إعادة استخدام البيانات، عندما يتم جمع بيانات السيرة الذاتية من أحد الأشخاص لتغذية خوارزمية يمكن أن تتعلم من هذه البيانات الأنماط المرتبطة ببيانات الشخص. على سبيل المثال، تضمنت حزمة التحفيز الاقتصادي في الولايات المتحدة في أثناء الأزمة المالية التي تفجرت في خريف 2008، تمويل عملية رقمنة سجلات الرعاية الصحية بهدف تسهيل نقل بيانات المرضى بين موفري الرعاية الصحية لمصلحة المرضى. ورغم ذلك يمكن أن تستخدم المستشفيات وشركات التأمين الخوارزميات الطبية لتحديد المخاطر الصحية لكل شخص، ومدى جدارته بالحصول على الرعاية الطبية، وهو غرض لم يكن مقصوداً في البداية عند جمع ورقمنة هذه البيانات.

ويتعلق هاجس ثانٍ بانتشار البيانات، الذي يحدث عندما يتم جمع البيانات بشأن الأفراد الذين لم يكونوا مقصودين في أثناء جمع البيانات. على سبيل المثال يمكن استخدام الذكاء الاصطناعي لتحليل صورة تم التقاطها لشخص ما لكنها تضم أشخاصاً آخرين غير مقصودين. وهناك مثال آخر وهو أقارب أي شخص يقوم بتحميل بياناته الجينية إلى أحد مراكز تجميع البيانات الجينية مثل «23 آند مي».

الهاجس الثالث هو استمرارية البيانات، ويشير إلى بقاء البيانات لفترة أطول مما كان متوقعاً في أثناء جمعها، وربما بما يتجاوز حياة الأشخاص الذين جمعوا البيانات أو الذين وافقوا على استخدامها، خصوصاً إذا تم دمج البيانات في خوارزمية ذكاء اصطناعي أو أُعيد تجميعها أو أُعيد استخدامها.

ورغم ذلك فإن دراسة مؤسسة «راند» تقترح مجموعة من الخيارات المحتملة لمعالجة المخاطر الفريدة للذكاء الاصطناعي على الخصوصية، ومنها الحد من جمع البيانات والاكتفاء بالحد الأدنى منها، وهو ما يشير إلى ضرورة أن يقتصر جمع البيانات الشخصية على تلك المطلوبة أو اللازمة بشكل مباشر لتحقيق أهداف محددة بدقة. وهذا المبدأ يتعارض مع النهج الذي تستخدمه كثير من الشركات اليوم، التي تجمع أكبر قدر ممكن من المعلومات. وتحت مظلة تقليل جمع البيانات إلى أقصى درجة ممكنة، يجب فرض قيود قانونية على استخدام البيانات بالنسبة للهدف المحدد في أثناء جمعها.

الخيار الثاني هو تقييمات التأثير الخوارزمي على الاستخدام العام. حيث تهدف تقييمات التأثير الخوارزمي إلى إخضاع المؤسسات التي تستخدم أنظمة صناعة القرار الآلية للمحاسبة. وتواجه تقييمات التأثير الخوارزمي مشكلة التعتيم الخوارزمي من خلال كشفها عن الأضرار المحتملة الناتجة عن استخدام الذكاء الاصطناعي في صناعة القرار ودعوة المؤسسات لاتخاذ خطوات عملية للتخفيف من الأضرار المحددة. وسيفرض أي تقييم للتأثير الخوارزمي الكشف عن أنظمة صناعة القرار المعتمدة على الذكاء الاصطناعي سواء القائمة أو المقترحة، بما في ذلك أغراضها ونطاقها، والتأثيرات المحتملة على المجتمعات قبل بدء استخدام مثل هذه الخوارزميات.

الخيار الثالث لمواجهة مخاطر الذكاء الاصطناعي على الخصوصية يتمثل في التدقيق الخوارزمي، الذي يعدّ تقييماً منظماً لأي نظام ذكاء اصطناعي لضمان توافقه مع الأهداف والمعايير والاشتراطات القانونية المحددة سلفاً. وفي إطار مثل هذا التدقيق، يتم فحص تصميم ومدخلات ومخرجات أي نظام، وحالات الاستخدام والأداء بشكل عام وبصورة مستمرة لتحديد أي فجوات أو ثغرات أو مخاطر. ويتضمن التدقيق الخوارزمي المناسب، وضع أهداف محددة وواضحة للتدقيق مثل التحقق من الأداء والدقة، بالإضافة إلى وضع معايير موحدة لتقييم أداء النظام. وفي سياق الخصوصية، يمكن للتدقيق أن يؤكد أن البيانات تستخدَم في الإطار الذي وافق عليه الأشخاص، وتحت مظلة اللوائح المعمول بها.

الخيار الرابع لمعالجة هواجس الخصوصية هو «الإفصاح الإلزامي»، الذي يقضي بضرورة قيام المؤسسة التي تستخدم تكنولوجيا الذكاء الاصطناعي بإبلاغ العامة بذلك. على سبيل المثال يلزم قانون الذكاء الاصطناعي في الاتحاد الأوروبي الشركات بوضع علامة مميزة على أي محتوى منتج باستخدام الذكاء الاصطناعي. كما يشترط قانون الاتحاد الأوروبي الإفصاح عن استخدام أنظمة الذكاء الاصطناعي لتصنيف الأشخاص أو التعرف على مشاعرهم أو نواياهم باستخدام البيانات اليومترية الخاصة بهم. وفي العام الماضي تم طرح مشروع قانون مماثل في الولايات المتحدة.

وأخيراً، تتمثل الاعتبارات المتعلقة بصناع السياسة الخيار الخامس والأخير لمعالجة مخاطر الذكاء الاصطناعي على الخصوصية، حيث يجب عليهم تحقيق التوازن الصحيح بين التنظيم والابتكار. ولذلك فإن توسيع دائرة المشاركين في صياغة سياسات وقواعد استخدام الذكاء الاصطناعي يمكن أن يساعد على تهدئة المخاوف من أن تؤدي القواعد والنظم إلى خنق الابتكار والتطوير والاستفادة من المزايا التي توفرها تقنيات الذكاء الاصطناعي. وفي هذا الإطار تبنّى قانون الاتحاد الأوروبي للذكاء الاصطناعي دعوة كل الأطراف المعنية بهذه الصناعة، خصوصاً مطوري نماذج الذكاء الاصطناعي للمشاركة في وضع مدونة السلوك المنظمة لنماذج الذكاء الاصطناعي العامة. كما يتضمن قانون الاتحاد الأوروبي بنوداً لدعم الابتكار، خصوصاً بين الشركات الصغيرة والمتوسطة، ومنها الشركات الناشئة. على سبيل المثال، يوفر القانون ما تُسمى «صناديق الاختبار التنظيمية»، التي تعني إيجاد بيئة اختبار وتجربة خاضعة لرقابة صارمة من جانب الجهات التنظيمية. والهدف المحدد من «صندوق الاختبار التنظيمي» هو تعزيز ابتكارات الذكاء الاصطناعي من خلال توفير أطر لتطوير وتدريب وإثبات صحة واختبار أنظمة الذكاء الاصطناعي بطريقة تضمن الامتثال لقانون الذكاء الاصطناعي للاتحاد الأوروبي، وبالتالي تخفيف عدم اليقين القانوني بالنسبة لموفري هذه الأنظمة.


مقالات ذات صلة

بايدن يتحول من نجم إلى شخصية هامشية في مؤتمر الحزب الديمقراطي

الولايات المتحدة​ جو بايدن يتحدث خلال فعالية حول مفاوضات أسعار أدوية الرعاية الطبية في 15 أغسطس 2024 (د.ب.أ)

بايدن يتحول من نجم إلى شخصية هامشية في مؤتمر الحزب الديمقراطي

بعد انسحابه من الانتخابات الرئاسية، أصبح الرئيس الأميركي جو بايدن شخصية هامشية، جلّ ما قد يقوم به هو إلقاء خطاب تمهيدي لكامالا هاريس في مؤتمر الحزب الديمقراطي.

«الشرق الأوسط» (واشنطن)
الولايات المتحدة​ المرشح الرئاسي الجمهوري الرئيس الأميركي السابق دونالد ترمب خلال فعالية لمكافحة معاداة السامية في بيدمينستر بنيوجرسي - 15 أغسطس 2024 (أ.ف.ب)

ترمب يطلب من نتنياهو «الانتصار بسرعة» .. وينتقد دعوة وقف إطلاق النار

قال الرئيس الأميركي السابق المرشح الجمهوري دونالد ترمب إنه طلب من نتنياهو إنهاء حرب غزة، ولكن ترمب انتقد أيضاً دعوة وقف إطلاق النار.

«الشرق الأوسط» (واشنطن)
الولايات المتحدة​ 
هاريس خلال فعالية انتخابية بنيفادا (رويترز)

بايدن وهاريس يعلنان خفضاً «تاريخياً» لأسعار الأدوية

أعلن الرئيس الأميركي جو بايدن ونائبته كامالا هاريس، المرشّحة عن الحزب الديمقراطي للانتخابات الرئاسية المقبلة، خفضاً تاريخياً في أسعار بعض الأدوية .

هبة القدسي (واشنطن) علي بردى
الولايات المتحدة​ صورة مركّبة لهاريس وترمب (أ.ف.ب)

هاريس وترمب يتوافقان على إجراء مناظرتين رئاسيتين

أعلنت حملة المرشحة الديمقراطية للرئاسة الأميركية كامالا هاريس أنها ستجري مناظرتين تلفزيونيتين مع منافسها الجمهوري دونالد ترمب.

«الشرق الأوسط» (واشنطن)
شؤون إقليمية في الخلفية جانب من مستوطنة الكرمل الإسرائيلية في 10 يوليو 2024 (أ.ب)

أميركا تدين إعلان إسرائيل بناء مستوطنة على موقع مدرج بقائمة التراث العالمي

أدانت الولايات المتحدة، اليوم الخميس، موافقة إسرائيل على بناء مستوطنة في منطقة بتير المدرجة على قائمة التراث العالمي لليونيسكو بالقرب من بيت لحم.

«الشرق الأوسط» (واشنطن)

السعودية تبدأ تطبيق نظام حماية البيانات الشخصية في 14 سبتمبر المقبل

نظام حماية البيانات الشخصية يمنح الأفراد الحق في معرفة كيفية جمع بياناتهم ومعالجتها (شاترستوك)
نظام حماية البيانات الشخصية يمنح الأفراد الحق في معرفة كيفية جمع بياناتهم ومعالجتها (شاترستوك)
TT

السعودية تبدأ تطبيق نظام حماية البيانات الشخصية في 14 سبتمبر المقبل

نظام حماية البيانات الشخصية يمنح الأفراد الحق في معرفة كيفية جمع بياناتهم ومعالجتها (شاترستوك)
نظام حماية البيانات الشخصية يمنح الأفراد الحق في معرفة كيفية جمع بياناتهم ومعالجتها (شاترستوك)

يجعل الاعتماد المتزايد على التكنولوجيا والبيانات الرقمية حماية البيانات الشخصية محور اهتمام كبير للأفراد والمؤسسات. ومن المتوقع أن تبدأ الهيئة السعودية للبيانات والذكاء الاصطناعي في الإنفاذ الكامل لنظام حماية البيانات الشخصية بدءاً من 14 سبتمبر (أيلول) المقبل، بعد انتهاء الفترة الانتقالية الحالية للامتثال. يتمتع النظام بنطاق واسع للغاية، وينطبق على جميع الكيانات العاملة في المملكة، وكذلك الكيانات خارجها التي تعالج البيانات الشخصية للأفراد في السعودية دون الحاجة إلى استهداف الأفراد أو مراقبتهم.

ندى خليل مستشارة الحوكمة والمخاطر والالتزام في شركة «Help AG» متحدثة لـ«الشرق الأوسط» (Help AG)

ماهية البيانات الشخصية والحسّاسة

تقول ندى خليل مستشارة الحوكمة والمخاطر والالتزام في شركة «Help AG» إن البيانات الشخصية هي تلك التي يمكن من خلالها التعرف على الفرد سواء بشكل مباشر أو غير مباشر. وتشرح في حديث خاص لـ«الشرق الأوسط» أن هذه البيانات تشمل الاسم ورقم الهوية والعنوان وأرقام التواصل والحسابات البنكية وحتى الصور الشخصية. وتوضح أن «البيانات الشخصية الحساسة» هي تلك المتعلقة بمعلومات أكثر خصوصية، مثل الأصل العرقي أو القبلي والمعتقد الديني أو البيانات الوراثية والصحية.

وتشير ندى خليل إلى أن إساءة استخدام هذه البيانات يمكن أن يكون له عواقب وخيمة، حيث يمكن للمخترقين استخدام البيانات الحساسة في انتحال هوية الأشخاص، أو بيعها لشركات تسويق بطرق غير قانونية، أو حتى استخدامها لأغراض تجسسية. وتؤكد على أهمية حماية البيانات الشخصية خصوصاً في ظل الخدمات المجانية التي قد تكون على حساب الخصوصية. وتضيف، كما يُقال: «إذا كان المنتج مجانياً، فاعلم أن خصوصيتك هي الثمن».

سيتعين على جميع الكيانات المشمولة في النطاق تنفيذ برنامج امتثال قبل 14 سبتمبر المقبل (شاترستوك)

نظام حماية البيانات الشخصية

في إطار حرص القيادة السعودية على حقوق المواطنين، تم إطلاق نظام حماية البيانات الشخصية بوصفه إطاراً قانونياً يهدف إلى حماية خصوصية الأفراد. تَعد ندى خليل أن هذا النظام يمنح الأفراد حقّ معرفة كل ما يتعلّق ببياناتهم الشخصية، وكيفية جمعها ومعالجتها، ويتيح لهم الوصول إليها، وتصحيحها، والاعتراض على طريقة معالجتها، وطلب حذفها أو التخلّص منها. وتشير إلى أن النظام لا يقتصر على الجهات داخل السعودية فحسب، بل يشمل أيضاً الجهات الخارجية التي تتعامل مع بيانات المواطنين السعوديين.

وتوضح خليل أن انتهاك قانون حماية البيانات الشخصية قد يؤدي إلى فرض غرامات مالية تصل إلى 5 ملايين ريال سعودي والتي يمكن مضاعفتها بسبب تكرار المخالفات، والسجن المحتمل لبعض عمليات الإفصاح عن البيانات الشخصية الحساسة، والتحذيرات، ومصادرة الأموال التي تم الحصول عليها نتيجة الانتهاك، ومطالبات التعويض من الأفراد.

التوافق مع التشريعات الدولية

يتماشى نظام حماية البيانات الشخصية في السعودية مع التشريعات الدولية المماثلة، مثل اللائحة العامة لحماية البيانات (GDPR) في الاتحاد الأوروبي وقانون خصوصية المستهلك في كاليفورنيا (CCPA). وتنوه خليل بأن هذا التوافق يعزز سمعة المملكة، ويسهل التعاون الدولي في مجال التشريعات المتعلقة بحماية البيانات. وإذا كان لدى كيان ما بالفعل برنامج امتثال للائحة العامة لحماية البيانات، فيمكن توسيع هذا البرنامج ليسري على البيانات المشمولة في نطاق النظام، مع إجراء تعديلات وإضافات خاصة بالمملكة العربية السعودية.

«البيانات الشخصية الحساسة» هي تلك المتعلقة بمعلومات أكثر خصوصية مثل الأصل العرقي أو القبلي والمعتقد الديني (شاترستوك)

دعم الاقتصاد والخدمات الرقمية

يلعب نظام حماية البيانات دوراً مهماً في دعم التحول الرقمي في المملكة، حيث يوفر بيئة آمنة للابتكار، ويجذب الاستثمارات الأجنبية. وتشير خليل إلى أن وجود نظام صارم لحماية البيانات يعزز من ثقة المستثمرين في المملكة، ويدعم تحقيق «رؤية السعودية 2030»، مما يضع المملكة في طليعة الدول المتقدمة تكنولوجياً.

وفي معرض حديثها لـ«الشرق الأوسط»، تستعرض ندى خليل الإجراءات التي يمكن اتخاذها للامتثال بنظام حماية البيانات الشخصية. وتعد أن من أهم هذه الإجراءات هي تحديد وحصر البيانات الشخصية التي يتم جمعها، وإجراء تقييم تأثير الخصوصية لتحديد المخاطر، وتطوير أطر وسياسات لحوكمة البيانات الشخصية. كما تؤكد على أهمية تطبيق التدابير التقنية والأمنية وتدريب العاملين على حماية البيانات.

وتوضح أن شركة «Help AG» يمكن أن تساعد المؤسسات في الامتثال لقانون حماية البيانات الشخصية بوصفها شركة رائدة في مجال الأمن السيبراني، مقدمة حلولاً وأدوات لحماية البيانات الشخصية، وخدمات استشارية تضمن الالتزام بالنظام. لا يعد الامتثال لنظام حماية البيانات الشخصية في السعودية ضرورياً لحماية الأفراد، بل هو أيضاً عامل حاسم في دعم التحول الرقمي والاقتصاد في المملكة لتعزيز مكانتها بوصفها قوة تقنية واقتصادية عالمية.