كيف أصبحت سرقة السيارات على مستوى عالٍ من التقنية؟

اختراق لواحد من 100 كومبيوتر فيها يسهل السيطرة عليها

كيف أصبحت سرقة السيارات على مستوى عالٍ من التقنية؟
TT

كيف أصبحت سرقة السيارات على مستوى عالٍ من التقنية؟

كيف أصبحت سرقة السيارات على مستوى عالٍ من التقنية؟

تحولت السيارات هذه الأيام إلى مراكز كومبيوتر على عجلات؛ إذ تحتوي عربات اليوم على ما يصل إلى 100 كومبيوتر وملايين خطوط الرموز البرمجية. وهذه الكومبيوترات متصلة ببعضها البعض ضمن شبكة لتشغيل كل تفاصيل عمل سيارتكم. من هنا، لم يعُد مفاجئاً أن تصبح سرقات السيارات بدورها على قدرٍ عالٍ من التقنية.

نظم الكومبيوتر في العربات

تُقسم الكومبيوترات في العربات إلى 4 فئات. تُخصص واحدة من هذه الفئات لتشغيل مجموعة القيادة، وتكون مسؤولة عن الوقود والبطارية أو كليهما، ومراقبة الانبعاثات، وتشغيل مثبت السرعة.

وتعمل الفئة الثانية على تأمين السلامة؛ إذ تجمع هذه الكومبيوترات البيانات من العربة والمحيط الخارجي، وتدير وظائف، كتصحيح المسار، والتشغيل الأوتوماتيكي للمكابح، والمراقبة الاحتياطية.

تدعم الفئة الثالثة نظام المعلومات والترفيه لتقديم الموسيقى والفيديوهات، بالإضافة إلى التواصل مع أجهزتكم الشخصية بواسطة البلوتوث اللاسلكي. تستطيع عربات كثيرة أيضاً الاتصال بالخدمات الخلوية وتأمين اتصال بالواي - فاي. أما الفئة الرابعة، فتُعنى بنظام الملاحة ونظام تحديد المواقع GPS.

تحتاج الكومبيوترات في فئة ما غالباً إلى التواصل مع كومبيوترات الفئات الأخرى. على سبيل المثال، يجب أن يكون نظام السلامة قادراً على التحكم بمجموعة القيادة وأنظمة المعلومات والترفيه.

تختلف شبكة الكومبيوترات في سيارتكم عن شبكات الكومبيوتر التقليدية الأخرى بعاملٍ واحد وهو ثقة أجهزة السيارة ببعضها البعض، ما يعني أن نجاح المخترق في الوصول إلى كومبيوتر واحد، سيسهِّل وصوله إلى الكومبيوترات الأخرى.

وكما هو الحال في أي تقنية جديدة أخرى، تحتوي سيارات اليوم على بعض الجوانب التي تصعب سرقتها، وأخرى تسهل الأمر. ولكن الأكيد أن سيارات اليوم قابلة للسرقة بمساعدة التقنيات الحديثة.

قرصنة المفاتيح اللاسلكية

تتعدد المزايا التقنية المتطورة في سيارات اليوم، ومن أبرزها وأكثرها شيوعاً الدخول من دون مفتاح والتشغيل عن بُعد. يتزاوج جهاز التحكم الصغير الذي تحملونه مع السيارة بواسطة رمز يعرفه كلاهما، وهذا ما يمنع تشغيلكم لسيارات أخرى. يختلف الدخول من دون مفتاح عن أجهزة التحكم التقليدية التي تفتح السيارات؛ بأن الأجهزة الداعمة للأولى دائمة الإرسال لإشاراتها، لذا عندما تقتربون من سيارتكم وتلمسون الباب، سيفتح القفل. في السابق، كان على صاحب السيارة النقر على زر لفتح السيارة، ومن ثم استخدام مفتاح لتشغيلها.

كانت أولى أجهزة التحكم التي تفتح سيارة من دون مفتاح تعمل بنقل رمز رقمي إلى السيارة لتُقفل. لاحظ السارقون فوراً أنهم يستطيعون التنصت على إشارة الراديو وتسجيلها، ومن ثم إعادة تشغيل الإشارة لفك قفل السيارة. ولكن أجهزة التحكم باتت اليوم تعتمد على رموز أحادية الاستخدام لفتح الباب.

تعتمد إحدى وسائل سرقة السيارات على استخدام جهازين لبناء جسرٍ إلكتروني بين جهاز التحكم والسيارة. يقترب أحدهم من السيارة ويستخدم جهازاً لخداعها لترسل رمزاً رقمياً يُستخدم للتثبت من جهاز المالك. يرسل جهاز السارق تلك الإشارة إلى شريكه الواقف بالقرب من منزل المالك لنقل نسخة من إشارة السيارة. عندما يستجيب جهاز التحكم الخاص بمالك السيارة، يرسل الجهاز القريب من المنزل إشارة جهاز التحكم الأصلي نفسها للجهاز الموضوع بالقرب من السيارة، لتفتح الأخيرة. بعدها، يستطيع السارق الانطلاق بالسيارة، ولكنه عندما يطفئها لاحقاً، لن يستطيع تشغيلها مرة أخرى. يسعى صانعو السيارات اليوم لتصحيح هذا الخلل من خلال فرض وجود جهاز التحكم في السيارة ليُسمح بقيادتها.

قرصنة الشبكات

تُعرف الشبكة التي تستخدمها جميع الكومبيوترات في السيارة للتواصل باسم «شبكة منطقة التحكم» controller area network bus، وتُصمم للسماح للكومبيوترات بإرسال الأوامر والمعلومات لبعضها البعض، إلا أنها غير معنية بمسألة الأمن، على افتراض أن الأجهزة تحمي نفسها بنفسها. ولكن هذا الافتراض يترك «شبكة منطقة التحكم» مكشوفة أمام القراصنة.

يحاول سارقو السيارات غالباً اختراق هذه الشبكة، ومن ثم الكومبيوترات التي تتحكم بمحرك السيارة. تخزن وحدة التحكم بالمحرك نسخة من رمز المفتاح اللاسلكي، ويستطيع القراصنة نسخ هذا الرمز إلى جهاز تحكم فارغ لاستخدامه في فتح سيارة الضحية. لاختراق النظام، يعمد القراصنة إلى الوصول إلى التشخيصات الذاتية في السيارة من خلال منفذ أو اتصال لاسلكي مخصص لتقنيي الصيانة.

يعتمد البعض على وسيلة أخرى، وهي اختراق الضوء العلوي للوصول إلى الشبكة عبر اتصال سلكي مباشر.

هجوم ارتداد

ييستخدم السارقون العصريون أيضاً ما يُعرف بقرصنة USB التي تستغل عيباً تصميمياً في سيارات من نوع «هيونداي» و«كيا»، ولكن هذه الطريقة أقرب إلى تسليك تقليدي للسيارة منها إلى مسألة كومبيوتر عالية التقنية. تُسمى هذه الوسيلة بحيلة «USB»، لأن السارقين يبحثون عن منفذ في عمود التوجيه فور دخولهم إلى السيارة لوضع موصل «USB» في المنفذ يتيح لهم تشغيل المحرك. إذن، كل ما على أحدهم فعله هو كسر نافذة السيارة، ووضع موصل «USB» وتشغيلها. ولكن هذه التقنية أصبحت شائعة ومنتشرة بسبب مقاطع تستعرضها على منصة «تيك توك». وقد أصدرت شركتا «هيونداي» و«كيا» تحديثاً يحل هذا الانكشاف عبر فرض وجود جهاز التحكم داخل السيارة قبل تشغيلها.

تتنوع موديلات السيارات وتزداد تعقيداً؛ ما يعني أن السارقين سيستمرون في ابتكار المزيد من الوسائل لسرقة السيارات.

إذن، ماذا يجب أن تفعلوا؟ بعض الأشياء الثابتة: احرصوا على إبقاء سيارتكم مقفلة، ولا تتركوا جهاز التحكم في داخلها، وحدثوا برمجيات العربة بشكلٍ دوري كما تفعلون مع الهاتف والكومبيوتر.

* مجلة «فاست كومباني»

- خدمات «تريبيون ميديا»


مقالات ذات صلة

العثور على جثتين في حجرة معدات هبوط طائرة أميركية

الولايات المتحدة​ طائرة تابعة لشركة «جيت بلو» تقلع من مطار تامبا الدولي بولاية فلوريدا... أعلنت الشركة في 7 يناير الحالي العثور على جثتين في حجرة معدات الهبوط في طائرة تابعة للشركة كانت تقوم برحلة بين نيويورك وفلوريدا (أ.ب)

العثور على جثتين في حجرة معدات هبوط طائرة أميركية

أعلنت شركة «جيت بلو» الأميركية، اليوم (الثلاثاء)، العثورَ على جثتين في حجرة معدات الهبوط في طائرة كانت تقوم برحلة بين نيويورك وفلوريدا.

«الشرق الأوسط» (نيويورك)
العالم جزء من مباني البرلمان الكندي في أوتاوا (رويترز)

كندا «لن تتراجع أبداً» في مواجهة تهديدات ترمب

احتجت وزيرة الخارجية الكندية ميلاني جولي، اليوم (الثلاثاء)، على تعليقات الرئيس الأميركي المنتخب دونالد ترمب حول إمكانية استخدام القوة الاقتصادية ضد البلاد.

«الشرق الأوسط» (أوتاوا)
الولايات المتحدة​ الرئيس الأميركي المنتخب دونالد ترمب خلال مؤتمر صحافي في مار إيه لاغو 7 يناير 2024... في بالم بيتش بولاية فلوريدا الأميركية (رويترز)

ترمب يرفض استبعاد التحرّك العسكري للسيطرة على جزيرة غرينلاند وقناة بنما

قال الرئيس الأميركي المنتخب دونالد ترمب، اليوم (الثلاثاء)، إنه لا يستبعد استخدام القوة العسكرية أو الاقتصادية لإنهاء مخاوفه المتعلقة بقناة بنما وجزيرة غرينلاند.

شادي عبد الساتر (بيروت)
الولايات المتحدة​ عائلات الرهائن المحتجزين لدى «حماس» في غزة ترفع لافتات خلال احتجاج يطالب بوقف إطلاق النار والإفراج عنهم في تل أبيب (إ.ب.أ)

مبعوث ترمب للشرق الأوسط يأمل في إحراز تقدم بملف الرهائن الإسرائيليين في غزة

أعلن ستيف ويتكوف مبعوث الرئيس الأميركي المنتخب دونالد ترمب إلى الشرق الأوسط الثلاثاء أنه يأمل في تحقيق نتائج طيبة فيما يتعلق بالرهائن الإسرائيليين.

«الشرق الأوسط» (واشنطن)
الولايات المتحدة​ الرئيس الأميركي المنتخب دونالد ترمب خلال مؤتمر صحافي في مار إيه لاغو، الثلاثاء 7 يناير 2024 في بالم بيتس بولاية فلوريدا الأميركية (أ.ب)

قاضية تمنع مؤقتاً إصدار تقرير المستشار الخاص بشأن قضايا ترمب

منعت قاضية فيدرالية مؤقتاً الإصدار العام لتقرير المستشار الخاص جاك سميث بشأن التحقيقات في قضايا الرئيس الأميركي المنتخب دونالد ترمب.

«الشرق الأوسط» (واشنطن)

أكبر إخفاقات الذكاء الاصطناعي في عام 2024

أكبر إخفاقات الذكاء الاصطناعي في عام 2024
TT

أكبر إخفاقات الذكاء الاصطناعي في عام 2024

أكبر إخفاقات الذكاء الاصطناعي في عام 2024

من برامج الدردشة الآلية التي تقدّم نصائح غير قانونية إلى نتائج البحث المشبوهة التي أُنشئت بواسطة الذكاء الاصطناعي، إليكم نظرة إلى الوراء على أكبر إخفاقات الذكاء الاصطناعي في العام، كما كتبت ريانون ويليامز في مجلة «تكنولوجي ريفيو» الصادرة عن معهد «ماساتشوستس للتكنولوجيا».

اختبارات... بنتائج جديدة وغريبة وضارة

لا شك أن الأشهر الـ12 الماضية كانت مزدحمة لأولئك الذين يعملون في مجال الذكاء الاصطناعي. فقد شهدنا إطلاق منتجات أكثر نجاحاً مما يمكننا إحصاؤه، وحتى جوائز نوبل. لكن لم يكن الأمر دائماً سلساً.

الذكاء الاصطناعي هو تقنية غير متوقعة، وقد أدّى توافر النماذج التوليدية المتزايد إلى دفع الناس إلى اختبار حدودهم بطرق جديدة وغريبة وأحياناً ضارة. كانت هذه بعضاً من أكبر إخفاقات الذكاء الاصطناعي في عام 2024.

فوضى الذكاء الاصطناعي تسلّلت إلى الإنترنت

تسلّلت أخطاء الذكاء الاصطناعي إلى كل ركن تقريباً من الإنترنت. يجعل الذكاء الاصطناعي التوليدي إنشاء كميات هائلة من النصوص والصور ومقاطع الفيديو وأنواع أخرى من المواد أمراً سهلاً. ولأن الأمر لا يستغرق سوى بضع ثوانٍ بين إدخال مطالبة لنموذجك المفضل لإخراج النتيجة، فقد أصبحت هذه النماذج طريقة سريعة وسهلة لإنتاج المحتوى على نطاق واسع. وكان 2024 هو العام الذي بدأنا فيه وصف هذه الوسائط (رديئة الجودة عموماً) بما هي عليه؛ بـ«فوضى الذكاء الاصطناعي».

إن هذه الطريقة المنخفضة المخاطر لإنشاء فوضى الذكاء الاصطناعي تعني أنه يمكن العثور عليها الآن في كل ركن من أركان الإنترنت تقريباً؛ من النشرات الإخبارية في صندوق الوارد الخاص بك، والكتب المبيعة على «أمازون»، إلى الإعلانات والمقالات عبر الويب، والصور الرديئة على موجزات وسائل التواصل الاجتماعي الخاصة بك. وكلما كانت هذه الصور أكثر إثارة للمشاعر (قدامى المحاربين الجرحى، والأطفال الباكون، وإشارة الدعم في الصراع الإسرائيلي الفلسطيني) زادت احتمالية مشاركتها؛ مما يؤدي إلى زيادة المشاركة وإيرادات الإعلانات لمنشئيها الأذكياء.

قمامات رقمية يُعيد إنتاجها الذكاء الاصطناعي

فوضى الذكاء الاصطناعي ليست مزعجة فحسب، بل إن صعودها يشكّل مشكلة حقيقية لمستقبل النماذج ذاتها التي ساعدت في إنتاجها. ولأن هذه النماذج مدرّبة على بيانات جُمعت من الإنترنت، فإن العدد المتزايد من المواقع الإلكترونية غير المرغوب فيها التي تحتوي على قمامة الذكاء الاصطناعي يعني أن هناك خطراً حقيقياً للغاية، يتمثّل في أن إنتاج النماذج وأداءها سوف يزداد سوءاً بشكل مطرد.

فن الذكاء الاصطناعي يشوّه الأحداث الحقيقية

كان عام 2024 أيضاً هو العام الذي بدأت فيه تأثيرات صور الذكاء الاصطناعي السريالية تتسرّب إلى حياتنا الحقيقية. تصدّرت تجربة ويلي للشوكولاته -وهي حدث غامر غير رسمي مستوحى من رواية «تشارلي ومصنع الشوكولاته» لروالد دال- عناوين الأخبار في جميع أنحاء العالم في فبراير (شباط)، بعد أن أعطت مواد التسويق الرائعة التي أُنشئت بواسطة الذكاء الاصطناعي للزوار الانطباع بأنها ستكون أعظم بكثير من المستودع المزخرف بشكل بسيط الذي أنشأه منتجوها.

وبالمثل، اصطفّ مئات الأشخاص في شوارع دبلن لحضور عرض «هالوين» لم يكن موجوداً. إذ استخدم موقع ويب، مقره باكستان، الذكاء الاصطناعي لإنشاء قائمة بالأحداث في المدينة، التي تمّت مشاركتها على نطاق واسع عبر وسائل التواصل الاجتماعي قبل 31 أكتوبر (تشرين الأول)، وهو عيد «الهالوين». وكلا الحدثين يوضح كيف يمكن للثقة العامة بالمواد التي أُنشئت بواسطة الذكاء الاصطناعي عبر الإنترنت، أن تعود إلى مطاردتنا.

إنشاء صور مزيفة لأي وضع أو سيناريو

تحتوي الغالبية العظمى من مولدات الصور الرئيسة للذكاء الاصطناعي على حواجز -قواعد تملي ما يمكن لنماذج الذكاء الاصطناعي فعله وما لا يمكنها فعله- لمنع المستخدمين من إنشاء محتوى عنيف وصريح وغير قانوني وأنواع أخرى من المحتوى الضار.

في بعض الأحيان، تهدف هذه الحواجز فقط إلى التأكد من عدم قيام أي شخص باستغلال الملكية الفكرية للآخرين بشكل صارخ. لكن مساعد «غروك» Grok، الذي صنعته شركة الذكاء الاصطناعي التابعة لإيلون ماسك، التي تسمى «xAI»، يتجاهل كل هذه المبادئ تقريباً بما يتماشى مع رفض ماسك ما يسميه «الذكاء الاصطناعي المتيقظ».

بينما نماذج الصور الأخرى ترفض عموماً إنشاء صور للمشاهير، أو المواد المحمية بحقوق الطبع والنشر، أو العنف، أو الإرهاب -ما لم يتم خداعها لتجاهل هذه القواعد- فإن «Grok» سيولّد بسعادة صوراً لدونالد ترمب وهو يطلق بازوكا، أو ميكي ماوس يحمل قنبلة.

انتشرت صور مزيفة جنسية صريحة لتايلور سويفت على الإنترنت، وعلى وسائل التواصل الاجتماعي. وقد خدع أفراد مسجلون في «تلغرام» برنامج إنشاء الصور «AI Designer» من «مايكروسوفت» لإنشاء صور فاضحة؛ مما يوضح كيف يمكن التحايل على الحواجز الأمنية حتى عندما تكون موجودة.

وبينما أغلقت «مايكروسوفت» بسرعة ثغرات النظام، ألقى الحادث الضوء على سياسات تعديل المحتوى السيئة للمنصات، بعد تداول المنشورات التي تحتوي على الصور على نطاق واسع وظلّت حية لعدة أيام.

لكن النتيجة الأكثر إثارة للرعب هي مدى عجزنا عن محاربة المواد الإباحية المزيفة غير الموافقة. في حين أن أدوات وضع العلامات المائية وتسميم البيانات يمكن أن تساعد، إلا أنها ستحتاج إلى تبنيها على نطاق أوسع بكثير لإحداث فرق.

برامج الدردشة التجارية أصبحت مجنونة

مع انتشار الذكاء الاصطناعي على نطاق واسع، تتسابق الشركات لتبني أدوات توليدية لتوفير الوقت والمال، وتعظيم الكفاءة. والمشكلة هي أن برامج الدردشة الآلية تخترع أشياء، ولا يمكن الاعتماد عليها لتزويدك دائماً بمعلومات دقيقة.

اكتشفت الخطوط الجوية الكندية هذا الأمر بالطريقة الصعبة، بعد أن نصح برنامج الدردشة الآلية الخاص بها أحد العملاء باتباع سياسة استرداد الأموال في حالات الحزن التي لم تكن موجودة. وفي فبراير الماضي، أيّدت محكمة المطالبات الصغيرة الكندية الشكوى القانونية للعميل، رغم تأكيد شركة الطيران أن برنامج الدردشة الآلية كان «كياناً قانونياً منفصلاً مسؤولاً عن أفعاله الخاصة».

وفي أمثلة أخرى بارزة لكيفية تسبّب برامج الدردشة الآلية في ضرر أكثر من نفعه، أقسم برنامج شركة التوصيل «DPD» بمرح ووصف نفسه بأنه عديم الفائدة دون أي مطالبة، في حين انتهى الأمر ببرنامج آخر تم إنشاؤه لتزويد سكان نيويورك بمعلومات دقيقة حول حكومة مدينتهم إلى تقديم إرشادات حول كيفية انتهاك القانون.

أدوات ذكاء اصطناعي فاشلة

إن أهم شيء حاولت صناعة الذكاء الاصطناعي اختراقه في عام 2024 هو اختراق ميدان المساعدين الماديين، إلا أنها فشلت في ذلك. حاولت «Humane» الترويج لـ«Ai Pin»، وهو كومبيوتر ياقة يمكن ارتداؤه، ولكنه فشل في تعزيز المبيعات الضعيفة حتى بعد خفض سعره. كما عانى «Rabbit R1» -وهو جهاز مساعد شخصي قائم على «جي بي تي»- مصيراً مماثلاً، بعد سلسلة من المراجعات النقدية والتقارير التي تفيد بأنه بطيء ومليء بالأخطاء. يبدو أن كلا المنتجَيْن يحاول حل مشكلة لم تكن موجودة بالفعل.

ملخصات بحث خاطئة بالذكاء الاصطناعي

هل سبق لك أن أضفت غراء إلى بيتزا، أو أكلت صخرة صغيرة؟ هذه ليست سوى بعض الاقتراحات الغريبة التي قدمتها ميزة «AI Overviews» من «غوغل» لمستخدمي الويب في مايو (أيار)، بعد أن أضافت شركة البحث العملاقة استجابات مولدة إلى أعلى نتائج البحث. نظراً إلى أن أنظمة الذكاء الاصطناعي لا يمكنها معرفة الفرق بين قصة إخبارية صحيحة فعلياً ومنشور لنكتة على «Reddit»، فقد تسابق المستخدمون للعثور على أغرب الاستجابات التي يمكن أن تولّدها ميزة «غوغل» تلك.

لكن ملخصات الذكاء الاصطناعي يمكن أن تكون لها أيضاً عواقب وخيمة. لقد أدت ميزة جديدة في «آيفون» تجمع إشعارات التطبيقات معاً وتُنشئ ملخصات لمحتوياتها، أخيراً إلى ظهور عنوان إخباري زائف على قناة «بي بي سي نيوز».

وذكر الملخص كذباً أن لويجي مانجيوني، الذي اتُّهم بقتل الرئيس التنفيذي لشركة التأمين الصحي برايان تومسون، قد أطلق النار على نفسه. يمكن أن تؤدي مثل هذه الأخطاء عن غير قصد إلى نشر معلومات مضللة وتقويض الثقة في المؤسسات الإخبارية.