«درون» مطورة للشرطة الأميركية

«درون» مطورة للشرطة الأميركية
TT

«درون» مطورة للشرطة الأميركية

«درون» مطورة للشرطة الأميركية

عندما يتلقى قسم الشرطة في مدينة تشولا فيستا اتصالاً عبر خط الطوارئ، يمكنه الاستجابة بإرسال طائرة «درون» بكبسة زرّ. وكل يوم، يستجيب قسم الشرطة في المدينة لنحو 15 نداء طوارئ، بواسطة طائرات الـ«درون». ومنذ بداية البرنامج قبل عامين، أطلق القسم الطائرات أكثر من 1400 مرة.
كانت مدينة تشولا فيستا الواقعة في جنوب كاليفورنيا والتي يبلغ عدد سكانها 270 ألفاً، أول من تبنى برنامج «طائرة الدرون... المستجيب الأول»، وفقاً لـ«نيويورك تايمز».
خلال الأشهر القليلة الماضية، حذت 3 مدن أخرى حذوها، اثنتان في كاليفورنيا، وواحدة في جورجيا. منذ سنوات، تستخدم وكالات الشرطة من هاواي إلى نيويورك طائرات الـ«درون»، ولكن معظمها كان بسيطاً ويقتصر على الطيّران اليدوي، كأن يحمل رجال الشرطة المركبة الصغيرة في صندوق السيّارة أثناء دوريّة، أو أن يصحبوها إلى مسرح جريمة قبل إطلاقها فوق متنزّه أو داخل مبنى.
ولكنّ أحدث تقنيات الـ«درون»، أي تقنية الانعكاس التي تزوّد السيّارات الآلية بالطّاقة، قادرة على إحداث تحوّل في أعمال الشرطة اليومية تماماً كما يمكنها إحداث تحوّل في مجال توصيل الحزم ومراقبة عمليات البناء والاستطلاع العسكري. يساعد هذا النوع من البرامج أصغر وحدات الشرطة على تشغيل طائرات «درون» صغيرة لإتمام عمليات بسيطة بدل إنفاق ملايين الدولارات على الطوّافات والطيّارين.
ولكنّ هذه الأتمتة الطارئة تثير بعض المخاوف فيما يتعلّق بالحريّات المدنية، لا سيّما مع اكتساب طائرات الـ«درون» نفوذاً إضافياً بمراقبة العربات والنّاس بشكل أوتوماتيكي. ومع استخدام الشرطة عدداً أكبر من هذه الطائرات، سيصبح بإمكانها جمع وتخزين مزيد من الفيديوهات حول الحياة في المدينة، ما لن يترك للنّاس أي فرصٍ للاستمتاع بالخصوصية بعد خروجهم من المنزل.
ولكن إذا انخفضت أسعار هذه المركبات الآلية الصغيرة وازدادت قوّتها، فستقدّم وسائل أكثر فاعلية لمراقبة المناطق المدنية. هذا الأمر من شأنه أن يساعد أقسام الشرطة في ظلّ تراجع أعداد الموظفين.
تمنع قوانين إدارة الطيران الفيدرالية، التي وُضعت لحماية الطائرات التجارية وغيرها من المركبات الطائرة، طائرات الـ«درون» من التحليق فوق خطوط رؤية مشغّليها. ولكنّ قسم شرطة «تشولا فيستا» حصل على إعفاء من الإدارة، أي إنّ الطيّار والضابط التّابعين له يستطيعان تطيير الـ«درون» على ارتفاع 3 أميالٍ من موقع إطلاقها.
تصل تكلفة كل طائرة «درون» مجهّزة بكاميرات للمسافات الطويلة وغيرها من أجهزة الاستشعار والبرامج الإلكترونية، إلى 35 ألف دولار، ويرتفع هذا المبلغ إذا تمّت الاستعانة بالبرنامج الذي يسمح لعدّة ضبّاط بتشغيل الـ«درون».
ويتعامل قسم شرطة تشولا فيستا مع فيديو الطائرات من دون طيار مثلما يتعامل مع الفيديوهات الملتقطة بكاميرات الشرطة، ويخزن اللقطات على أنها دليل ولا ينشرها علانية دون موافقة رسمية، لافتاً إلى أن القسم لا يستخدم طائرات الـ«درون» في الدوريات الروتينية.



«مرايا» الذكاء الاصطناعي تعكس دواخلها «مع كل التحيزات»

«بوابة السحاب» مرآة تعكس الحياة وتشوهاتها
«بوابة السحاب» مرآة تعكس الحياة وتشوهاتها
TT

«مرايا» الذكاء الاصطناعي تعكس دواخلها «مع كل التحيزات»

«بوابة السحاب» مرآة تعكس الحياة وتشوهاتها
«بوابة السحاب» مرآة تعكس الحياة وتشوهاتها

قبل بضع سنوات، وجدت شانون فالور نفسها أمام تمثال «بوابة السحاب (Cloud Gate)»، الضخم المُصمَّم على شكل قطرة زئبقية من تصميم أنيش كابور، في حديقة الألفية في شيكاغو. وبينما كانت تحدق في سطحه اللامع المرآتي، لاحظت شيئاً، كما كتب أليكس باستيرناك (*).

وتتذكر قائلة: «كنت أرى كيف أنه لا يعكس أشكال الأفراد فحسب، بل والحشود الكبيرة، وحتى الهياكل البشرية الأكبر مثل أفق شيكاغو... ولكن أيضاً كانت هذه الهياكل مشوَّهة؛ بعضها مُكبَّر، وبعضها الآخر منكمش أو ملتوٍ».

الفيلسوفة البريطانية شانون فالور

تشويهات التعلم الآلي

بالنسبة لفالور، أستاذة الفلسفة في جامعة أدنبره، كان هذا يذكِّرنا بالتعلم الآلي، «الذي يعكس الأنماط الموجودة في بياناتنا، ولكن بطرق ليست محايدة أو موضوعية أبداً»، كما تقول. أصبحت الاستعارة جزءاً شائعاً من محاضراتها، ومع ظهور نماذج اللغة الكبيرة (والأدوات الكثيرة للذكاء الاصطناعي التي تعمل بها)، اكتسبت مزيداً من القوة.

مرايا الذكاء الاصطناعي مثل البشر

تبدو «مرايا» الذكاء الاصطناعي مثلنا كثيراً؛ لأنها تعكس مدخلاتها وبيانات التدريب، مع كل التحيزات والخصائص التي يستلزمها ذلك. وبينما قد تنقل القياسات الأخرى للذكاء الاصطناعي شعوراً بالذكاء الحي، فإن «المرآة» تعبير أكثر ملاءمة، كما تقول فالور: «الذكاء الاصطناعي ليس واعياً، بل مجرد سطح مسطح خامل، يأسرنا بأوهامه المرحة بالعمق».

غلاف كتاب «مرايا الذكاء الاصطناعي»

النرجسية تبحث عن صورتها

كتابها الأخير «مرآة الذكاء الاصطناعي (The AI Mirror)»، هو نقد حاد وذكي يحطِّم عدداً من الأوهام السائدة التي لدينا حول الآلات «الذكية». يوجه بعض الاهتمام الثمين إلينا نحن البشر. في الحكايات عن لقاءاتنا المبكرة مع برامج الدردشة الآلية، تسمع أصداء نرجس، الصياد في الأساطير اليونانية الذي وقع في حب الوجه الجميل الذي رآه عندما نظر في بركة من الماء، معتقداً بأنه شخص آخر. تقول فالور، مثله، «إن إنسانيتنا مُعرَّضة للتضحية من أجل هذا الانعكاس».

تقول الفيلسوفة إنها ليست ضد الذكاء الاصطناعي، لكي نكون واضحين. وسواء بشكل فردي، أو بصفتها المديرة المشارِكة لمنظمة «BRAID»، غير الربحية في جميع أنحاء المملكة المتحدة المكرسة لدمج التكنولوجيا والعلوم الإنسانية، قدَّمت فالور المشورة لشركات وادي السيليكون بشأن الذكاء الاصطناعي المسؤول.

نماذج «مسؤولة» ومختبرة

وهي ترى بعض القيمة في «نماذج الذكاء الاصطناعي المستهدفة بشكل ضيق والآمنة والمختبرة جيداً والمبررة أخلاقياً وبيئياً» لمعالجة المشكلات الصحية والبيئية الصعبة. ولكن بينما كانت تراقب صعود الخوارزميات، من وسائل التواصل الاجتماعي إلى رفاق الذكاء الاصطناعي، تعترف بأن ارتباطها بالتكنولوجيا كان مؤخراً «أشبه بالوجود في علاقة تحوَّلت ببطء إلى علاقة سيئة. أنك لا تملك خيار الانفصال».

فضائل وقيم إنسانية

بالنسبة لفالور، إحدى الطرق للتنقل وإرشاد علاقاتنا المتزايدة عدم اليقين بالتكنولوجيا الرقمية، هي الاستفادة من فضائلنا وقيمنا، مثل العدالة والحكمة العملية. وتشير إلى أن الفضيلة لا تتعلق بمَن نحن، بل بما نفعله، وهذا جزء من «صراع» صنع الذات، بينما نختبر العالم، في علاقة مع أشخاص آخرين. من ناحية أخرى، قد تعكس أنظمة الذكاء الاصطناعي صورة للسلوك أو القيم البشرية، ولكن كما كتبت في كتابها، فإنها «لا تعرف عن التجربة الحية للتفكير والشعور أكثر مما تعرف مرايا غرف نومنا آلامنا وأوجاعنا الداخلية».

الخوارزميات والعنصرية وعدم المساواة

في الوقت نفسه تعمل الخوارزميات المدربة على البيانات التاريخية، بهدوء، على تقييد مستقبلنا بالتفكير نفسه الذي ترك العالم «مليئاً بالعنصرية والفقر، وعدم المساواة، والتمييز، وكارثة المناخ».

«كيف سنتعامل مع تلك المشكلات الناشئة التي ليست لها سابقة؟»، تتساءل فالور، وتشير: «مرايانا الرقمية الجديدة تشير إلى الوراء».

الاعتماد على السمات البشرية المفيدة

مع اعتمادنا بشكل أكبر على الآلات، وتحسينها وفقاً لمعايير معينة مثل الكفاءة والربح، تخشى فالور أننا نخاطر بإضعاف عضلاتنا الأخلاقية أيضاً، وفقدان المسار للقيم التي تجعل الحياة تستحق العناء.

مع اكتشافنا لما يمكن أن يفعله الذكاء الاصطناعي، سنحتاج إلى التركيز على الاستفادة من السمات البشرية الفريدة أيضاً، مثل التفكير القائم على السياق والحكم الأخلاقي، وعلى تنمية قدراتنا البشرية المتميزة. كما تعلمون. وهي تقول: «لسنا بحاجة إلى هزيمة الذكاء الاصطناعي. نحن بحاجة إلى عدم هزيمة أنفسنا».

* مجلة «فاست كومباني» - خدمات «تريبيون ميديا»

اقرأ أيضاً