نوح فيلدمان
أستاذ القانون بجامعة هارفارد وكاتب بموقع «بلومبيرغ»
TT

حول استخدام الذكاء الصناعي في عمل الشرطة

جاء خبر استعانة قسم شرطة مدينة «نيو أورلينز» الأميركية بإحدى شركات التكنولوجيا بـ«وادي السيليكون» للتنبؤ بالجرائم قبل حدوثها، ليثير مشكلات شبيهة بتلك التي تنشأ نتيجة لاستخدام الذكاء الاصطناعي في غيرها من المجالات، مثل مجال سلوك المستهلكين، والطب، والتوظيف. لكن الصادم في الأمر هو أن التعاون بين قسم الشرطة وشركة «بلانتر» سار في سرية تامة، ولم يكشف اللثام عنه سوى مؤخراً.
وبحسب ما ورد تفصيلياً في مقال نشرته شبكة «ذا فيرج» الإخبارية، فقد أشار جيمس كارفيل، الخبير الاستراتيجي المعروف عضو الحزب الديمقراطي الذي عمل مستشاراً للرئيس الأميركي السابق بيل كلينتون، إلى تلك الشراكة صراحة خلال برنامج إذاعي بث عام 2014، ويرجع علم كارفيل بهذا الأمر إلى سبب بسيط هو أنه صاحب الفكرة (على حسب زعمه). ووفق روايته، كانت شركة «بلانتير» تبحث عن فرص «مجانية» لتجربة تكنولوجيا جديدة لم تختبر من قبل. وقام كارفيل بدور همزة الوصل بين قسم شرطة «نيو أورلينز» وشركة التكنولوجيا، ونشأت العلاقة «الودية المجانية»، وبذلك جرى التحايل على شرط علانية العلاقة الذي يتطلبه ذلك النوع من شراكات العمل. وغني عن القول هنا أن تجربة التوقع باستخدام «الذكاء الاصطناعي» في أرض الواقع، وفي ظل إنفاذ القانون، يتطلب مراقبة عامة وقدراً من الوعي. فقد كان من الأحرى إثارة النقاش الجاري حالياً قبل استخدام التكنولوجيا، لا بعدها، وسيكون من الخطأ صب جام غضبنا فقط على عنصر السرية في إتمام هذا التعاون. والحوار الأهم هنا يجب أن يتناول القضايا الأعمق التي أثارتها تلك القضية.
وهنا يجب تقييم قضية إنفاذ القانون - وعلى نطاق أوسع العدالة الجنائية - وفق معيارين منفصلين: التأثير العملي، والعدالة الجنائية.
بالطبع، ووفق ما سيشير إليه المدافعون عن اتجاه تحليل البيانات بكل تأكيد، ستستغرق تكنولوجيا التنبؤ بعض الوقت حتى يمكن تنقيح نتائجها (أو التنقيح الذاتي في حالة التعلم الآلي)، وهنا ينبغي القول إنه كلما زادت البيانات كانت النتائج أفضل. لكن ترجمة التوقع إلى وقاية ليس بالأمر السهل أيضاً. وقد يتجه حوارنا هنا إلى الافتراض بأنه سيأتي يوم تتمكن فيه عملية التنبؤ باستخدام خاصية التعلم الآلي المعتمدة على البيانات الوفيرة من التفوق على عمل الشرطة باستخدام أدواتها التقليدية الحالية. الأهم من كل شيء هو أن الجريمة هي شكل من أشكال السلوك الإنساني شأن غيرها من أنماط السلوك، وأن الأنماط والنماذج الحسابية للذكاء الاصطناعي تتحسن يوماً بعد آخر في توقع مزيد من أشكال السلوك الإنساني في مجالات مختلفة.
يقودنا هذا إلى مسألة العدالة: ماذا لو أن خطأ ما قد حدث في التنبؤ الآلي للجريمة؟
مصدر القلق الأكبر هو أن أجهزة الكومبيوتر ربما تخطئ في توقعاتها، وبالتالي تدفع الشرطة إلى استهداف أشخاص معينين، ومن ثم التحقيق معهم ومراقبتهم، رغم أنهم لا يخططون لارتكاب جريمة. هنا يأتي الخطر الحقيقي ويجب أخذه على محمل الجد. ولنتيقن من ذلك، من ناحية المبدأ، لا يمكن بحال، ولا يجب استخدام خاصية التوقع الآلي في توجيه اتهام أو إدانة لشخص ما. وهنا يجب أن يطبق الدستور: فالشرطة والنيابة تحتاجان إلى دليل غير إحصائي في قضية منطقية قبل أن تقدم على انتهاك خصوصية المشتبه بهم واعتقالهم. وفي حال أحيل متهم إلى المحاكمة، سيتعين على الادعاء تقديم الدليل، وعلى المحكمة أن تجد دليل إدانة لا يحتمل الشكل. كذلك فإن هناك العديد من الأساليب التي تجعل من انتباه الشرطة أمراً غير مرغوب فيه حتى وإن لم تؤد إلى إصدار أمر بالاعتقال أو توجيه اتهامات جنائية. فالشرطة مخولة بحكم القانون لأن تقوم بمختلف أنواع المراقبة من دون الحاجة إلى إذن مسبق، شريطة أن يُجرى العمل في مكان عام. ومن الضروري في أي مجتمع ديمقراطي أن تحدد الشرطة أهدافها استناداً إلى الشك المنطقي، وليس من المنطقي أن تستهدف أشخاصاً استناداً إلى الطبقة الاجتماعية أو العرقية مثلاً.
هنا قد تتعقد الأمور بدرجة كبيرة. فكما تعرف، حتى من دون الذكاء الاصطناعي، فإن الشرطة تستخدم عدداً من الأدوات الإحصائية في تحديد المتهمين والأماكن التي ربما تشكل خطراً ما.
وعلى اعتبار أن الشرطة تستخدم بالفعل أدوات مثل سجل الاعتقالات أو الاتهامات السابقة لتعزيز التحقيقات، ما الضرر في أن يؤدي الكومبيوتر العمل نفسه وبطريقة أدق إذن؟
في الحقيقة، ما دام أن الكومبيوتر استطاع أن يخرج بتوقعات أكثر تنقيحاً من توقعات البشر، ألن يساهم ذلك في خفض معدلات التحريات وفي الاستجوابات الخاطئة؟
تلك هي نوعية الأسئلة التي يجب أن تجد إجابات في وضح النهار وبشفافية كاملة قبل وأثناء استخدام الذكاء الاصطناعي في عمل الشرطة.
* بالاتفاق مع «بلومبيرغ»