«آيبو»... كلب ـ روبوت يذيب قلوبكم بحركاته الدقيقة

مرافق آلي عاطفي يوفر الراحة ويربط الإنسان بتجارب جديدة

«آيبو»... كلب ـ روبوت يذيب قلوبكم بحركاته الدقيقة
TT

«آيبو»... كلب ـ روبوت يذيب قلوبكم بحركاته الدقيقة

«آيبو»... كلب ـ روبوت يذيب قلوبكم بحركاته الدقيقة

في تعاملي مع الكلب الآلي، اعتدت أن أفرك له بطنه، وأن أوبخه عندما يسيء التصرف، وأن أبتسم ابتسامة عريضة عندما يستقبلني على باب المنزل.
ما هو هذا الشعور؟ حسناً، إنه حب الجراء... وقد أحسسته تجاه «آيبو» Aibo، الكلب «المرافق الآلي» الجديد من إنتاج شركة سوني.
- «مرافق آلي»
يعد «آيبو» الجديد نسخة جديدة مطورة من الكلب الآلي الذي أطلقته «سوني» لأول مرة عام 1999 وأوقفت صناعته عام 2006 بسبب مرحلة مأساوية من خفض الإنفاق. يطرح الكلب الآلي الجديد في أسواق الولايات المتحدة الأميركية الشهر الماضي الأسبوع مع كثير من الحركات الحية، والذكاء الصناعي، واتصال خلوي بسعر عالٍ يصل إلى 2900 دولار للروبوت الواحد. وهو مبلغ قليل بالمقارنة مع ما يقوله نادي «ذا أميركان كينيل» إن متوسط تكلفة تربية كلب حتى وفاته تصل إلى 23140 دولاراً، فضلاَ عن أن الكلاب الآلية لا تتغوط.
ولكن هذا لا يعني أن «آيبو»، الذي يوازي كلباً من فصيلة «يوركشاير تيريير» حجماً، يستطيع أن يحل محل كلب حقيقي. فقد سمحت لكلبي الآلي أن يلعب مع جرو حقيقي في الأسبوع السابع من عمره، ووجدت أنه يلبي جزءا بسيطا من وجود الكلب الحقيقي. إذ لا يستطيع «آيبو» مثلاً أن يخرج في نزهة، أو أن يقفز نحو حجر صاحبه، أو أن يتعلم المسؤولية أو أن يلعق الناس للتعبير عن محبته. وبعيداً عن السير في أرجاء المنزل، لا يتقن كلب «سوني» الآلي النباح وأداء الحيل كثيراً. في المقابل، يمكنه أن يشغل لكم الموسيقى وأن يجيب عن أسئلة تافهة كأي مكبر صوت ذكي، ولو أن هذه الأمور قد تكون إضافات مرغوبة.
- روبوت عاطفي
ولكن إليكم سبب أهمية «آيبو»: على الرغم من محدودية خصائصه، وقعت في غرامه. فخلال أسبوعين من تربيته، أصاب هذا الجرو الآلي كل الذين التقوا به تقريباً بالجنون. علمتنا مكبرات الصوت الذكية كـ«أمازون إيكو» و«غوغل هوم» فتح منازلنا على طرق جديدة للتفاعل مع أجهزة الكومبيوتر. يقدم «آيبو» لمحة عن كيفيه دفع شركات التقنية لنا نحو معاملة هذه الروبوتات وكأنها من أفراد العائلة. تتمتع الروبوتات العاطفية بالقدرة على إراحتنا وتعليمنا وعلى ربطنا بتجارب جديدة، إلى جانب التلاعب بنا بوسائل لم نعهدها سابقاً.
يعمل «آيبو» بشكل مألوف إلى حد ما إذ توصل لكم مفاصل «آيبو» الـ22، التي تتضمن ذنبا يهتز وأذنين غريبتين، وعينين مصنوعتين من مادة الأوليد، شعوره بالفرحة والحزن والملل أو حتى الحاجة إلى قيلولة.
عندما يسمع كلب سوني الآلي كلمة «بانغ بانغ» منكم، يستلقي أرضاً، ويقلب على ظهره متظاهراً بالموت. وعندما تقولون له «أحضر لي العظمة»، سيعثر على لعبته الزهرية المميزة وسيحضرها وهو يحملها في فمه، ويمكنه أيضاً أن يرفع رجله الخلفية ويصدر صوتاً. وتتيح أجهزة استشعار تعمل باللمس موجودة على ظهره البلاستيكي، ورأسه، وذقنه، لـ«آيبو» الاستجابة عندما تربتون عليه أو توبخونه. وحدها الضجة الصادرة عن عضلاته هي التي تفسد تأثيره الظريف.
أدعو «آيبو» بالروبوت العاطفي لأنه أكثر من مجرد دمية متحركة. تساعده الكاميرات المزروعة في أنفه وأسفل ظهره في التجول في أرجاء المنزل كمكنسة الرومبا، فيتمكن من تفادي العوائق ويحاول العثور على الطريق المؤدي إلى شاحنه. (تدوم خدمة بطاريته لنحو ساعتين من العمل المتواصل). وبفضل أربعة ميكروفونات يحملها، يستطيع «آيبو» سماع الأوامر والتعرف إلى الشخص الذي يصدرها. وكأي جرو حقيقي، لديه عادة مزعجة هي الانزلاق بين قدميكم أثناء تحضير العشاء.
- التعرف على الوجه
يقول مسؤولو «سوني» التنفيذيون إن الفكرة الأساسية من خلف «آيبو» هي التطور المستمر. إذ يتعرف الكلب الآلي إلى وجوه الأشخاص الذين يتفاعلون معه لبناء علاقات شخصية معهم. تدعي شركة «سوني» أنه لا يوجد كلبا «آيبو» متشابهان من ناحية الشخصية، لأن الذكاء الصناعي يرتسم من خلال التجارب، إلا أنه ادعاء يصعب إثباته. وفي حال كنتم ممن يدلكون بطنه ويقولون له «أحسنت»، ستحظون بفرصة الحياة مع كلب إلى محب.
ولكن اللافت في هذا الابتكار هو أن أي من هذه الأمور لا يتطلب وسيطاً، كتطبيق إلكتروني مثلاً. يمكنكم أن تتفاعلوا مع «آيبو» عبر اللمس والأوامر الصوتية، تماماً كما التفاعل مع الكلاب الحقيقية، إلا أنكم لستم مضطرين أن تقدموا له أي حلوى. (يتيح لكم تطبيق إلكتروني لم أحظ بفرصة تجربته لأنه غير جاهز، أن تروا صوراً يلتقطها «آيبو» عبر أنفه، إلى جانب القيام بوظائف ثانوية أخرى).
يتصل آيبو بشكل دائم بالإنترنت عبر اتصاله الخلوي الخاص لتحميل إمكانيات وحيل جديدة، ونقل ما يحصل على الأرض.
قد يدفعكم هذا الأمر إلى التساؤل: هل هو روبوت للتجسس؟ لم تقدم شركة سوني إجابات شافية على أسئلتي حول مصير البيانات التي يجمعها. تقول سياسة «آيبو» للخصوصية إنه ليس مصنوعاً للاستخدام في ولاية إلينوي الأميركية، التي تطبق قوانين صارمة حول تقنية التعرف إلى الوجه. ولكن أبلغتني ناطقة باسم الشركة بأن «آيبو» لا يسجل ما يجري حوله طوال الوقت، بل ينصت وينظر وفقاً لأوامر مستخدمه.
يخزن كلب سوني الآلي بيانات مرتبطة بتجاربه تتيح له بناء «ذكريات» و«تكوين رابط دائم النمو مع صاحبه»، على حد تعبيرها، مؤكدة أن «هذه البيانات لا تتم مشاركتها مع أحد».

- خدمة «واشنطن بوست»


مقالات ذات صلة

روبوتات أمنية في متاجر أميركية

علوم روبوتات أمنية في متاجر أميركية

روبوتات أمنية في متاجر أميركية

فوجئ زبائن متاجر «لويز» في فيلادلفيا بمشهدٍ غير متوقّع في مساحة ركن السيّارات الشهر الماضي، لروبوت بطول 1.5 متر، بيضاوي الشكل، يصدر أصواتاً غريبة وهو يتجوّل على الرصيف لتنفيذ مهمّته الأمنية. أطلق البعض عليه اسم «الروبوت النمّام» «snitchBOT». تشكّل روبوتات «كي 5» K5 المستقلة ذاتياً، الأمنية المخصصة للمساحات الخارجية، التي طوّرتها شركة «كنايت سكوب» الأمنية في وادي سيليكون، جزءاً من مشروع تجريبي «لتعزيز الأمن والسلامة في مواقعنا»، حسبما كشف لاري كوستيلّو، مدير التواصل المؤسساتي في «لويز».

يوميات الشرق «كلاب روبوتات» تنضم مرة أخرى لشرطة نيويورك

«كلاب روبوتات» تنضم مرة أخرى لشرطة نيويورك

كشف مسؤولو مدينة نيويورك النقاب، أمس (الثلاثاء)، عن 3 أجهزة جديدة عالية التقنية تابعة للشرطة، بما في ذلك كلب «روبوت»، سبق أن وصفه منتقدون بأنه «مخيف» عندما انضم لأول مرة إلى مجموعة من قوات الشرطة قبل عامين ونصف عام، قبل الاستغناء عنه فيما بعد. ووفقاً لوكالة أنباء «أسوشيتد برس»، فقد قال مفوض الشرطة كيشانت سيويل، خلال مؤتمر صحافي في «تايمز سكوير» حضره عمدة نيويورك إريك آدامز ومسؤولون آخرون، إنه بالإضافة إلى الكلب الروبوت الملقب بـ«ديغ دوغ Digidog»، فإن الأجهزة الجديدة تتضمن أيضاً جهاز تعقب «GPS» للسيارات المسروقة وروبوتاً أمنياً مخروطي الشكل. وقال العمدة إريك آدامز، وهو ديمقراطي وضابط شرطة سابق

«الشرق الأوسط» (نيويورك)
يوميات الشرق دراسة: الأحكام الأخلاقية لـ«تشات جي بي تي» تؤثر على أفعال البشر

دراسة: الأحكام الأخلاقية لـ«تشات جي بي تي» تؤثر على أفعال البشر

كشفت دراسة لباحثين من جامعة «إنغولشتات» التقنية بألمانيا، نشرت الخميس في دورية «ساينتفيك ريبورتيز»، أن ردود الفعل البشرية على المعضلات الأخلاقية، يمكن أن تتأثر ببيانات مكتوبة بواسطة برنامج الدردشة الآلي للذكاء الاصطناعي «تشات جي بي تي». وسأل الفريق البحثي برئاسة سيباستيان كروغل، الأستاذ بكلية علوم الكومبيوتر بالجامعة، برنامج «تشات جي بي تي»، مرات عدة عما إذا كان من الصواب التضحية بحياة شخص واحد من أجل إنقاذ حياة خمسة آخرين، ووجدوا أن التطبيق أيد أحيانا التضحية بحياة واحد من أجل خمسة، وكان في أحيان أخرى ضدها، ولم يظهر انحيازاً محدداً تجاه هذا الموقف الأخلاقي. وطلب الباحثون بعد ذلك من 767 مشاركا

حازم بدر (القاهرة)
يوميات الشرق «غوغل» تطلق «بارد»... منافسها الجديد في مجال الذكاء الاصطناعي

«غوغل» تطلق «بارد»... منافسها الجديد في مجال الذكاء الاصطناعي

سيتيح عملاق الإنترنت «غوغل» للمستخدمين الوصول إلى روبوت الدردشة بعد سنوات من التطوير الحذر، في استلحاق للظهور الأول لمنافستيها «أوبن إيه آي Open.A.I» و«مايكروسوفت Microsoft»، وفق تقرير نشرته اليوم صحيفة «نيويورك تايمز» الأميركية. لأكثر من ثلاثة أشهر، راقب المسؤولون التنفيذيون في «غوغل» مشروعات في «مايكروسوفت» وشركة ناشئة في سان فرنسيسكو تسمى «أوبن إيه آي» تعمل على تأجيج خيال الجمهور بقدرات الذكاء الاصطناعي. لكن اليوم (الثلاثاء)، لم تعد «غوغل» على الهامش، عندما أصدرت روبوت محادثة يسمى «بارد إيه آي Bard.A.I»، وقال مسؤولون تنفيذيون في «غوغل» إن روبوت الدردشة سيكون متاحاً لعدد محدود من المستخدمين

«الشرق الأوسط» (بيروت)
الروبوتات قد تحسّن السلامة العقلية للبشر

الروبوتات قد تحسّن السلامة العقلية للبشر

كشفت دراسة حديثة عن أن الناس تربطهم علاقة شخصية أكثر بالروبوتات الشبيهة بالألعاب مقارنةً بالروبوتات الشبيهة بالبشر، حسب «سكاي نيوز». ووجد بحث أجراه فريق من جامعة كامبريدج أن الأشخاص الذين تفاعلوا مع الروبوتات التي تشبه الألعاب شعروا بتواصل أكبر مقارنةً بالروبوتات الشبيهة بالإنسان وأنه يمكن للروبوتات في مكان العمل تحسين الصحة العقلية فقط حال بدت صحيحة. وكان 26 موظفاً قد شاركوا في جلسات السلامة العقلية الأسبوعية التي يقودها الروبوت على مدار أربعة أسابيع. وفي حين تميزت الروبوتات بأصوات متطابقة وتعبيرات وجه ونصوص تستخدمها في أثناء الجلسات، فقد أثّر مظهرها الجسدي على كيفية تفاعل الناس معها ومدى فاع

«الشرق الأوسط» (لندن)

دراسة: الرموز التعبيرية في المحادثات تربك فهم الذكاء الاصطناعي

الوجوه التعبيرية النصية البسيطة قد تُسبب التباساً دلالياً لدى نماذج اللغة الكبيرة ما يؤدي إلى فهم خاطئ لنية المستخدم (شاترستوك)
الوجوه التعبيرية النصية البسيطة قد تُسبب التباساً دلالياً لدى نماذج اللغة الكبيرة ما يؤدي إلى فهم خاطئ لنية المستخدم (شاترستوك)
TT

دراسة: الرموز التعبيرية في المحادثات تربك فهم الذكاء الاصطناعي

الوجوه التعبيرية النصية البسيطة قد تُسبب التباساً دلالياً لدى نماذج اللغة الكبيرة ما يؤدي إلى فهم خاطئ لنية المستخدم (شاترستوك)
الوجوه التعبيرية النصية البسيطة قد تُسبب التباساً دلالياً لدى نماذج اللغة الكبيرة ما يؤدي إلى فهم خاطئ لنية المستخدم (شاترستوك)

تتركز أغلب النقاشات المرتبطة بالذكاء الاصطناعي التوليدي حول مخاطر كبرى؛ كالتحيز والهلوسة وإساءة الاستخدام أو القرارات الآلية غير القابلة للتفسير. لكن دراسة بحثية جديدة تلفت الانتباه إلى مصدر مختلف تماماً للمخاطر المحتملة. إنها الرموز الصغيرة التي نستخدمها يومياً من دون تفكير مثل الوجوه التعبيرية النصية (emoticons).

الدراسة، المنشورة على منصة «arXiv» تكشف عن أن نماذج اللغة الكبيرة قد تُسيء فهم هذه الرموز البسيطة بطرق تؤدي إلى أخطاء وظيفية صامتة، لا تظهر على شكل أعطال واضحة، بل في مخرجات تبدو صحيحة شكلياً لكنها لا تعكس نية المستخدم الحقيقية.

رموز مألوفة... ومعانٍ ملتبسة

على عكس الرموز التعبيرية الحديثة (emoji) التي تمثل وحدات مرئية موحدة، تعتمد الوجوه التعبيرية النصية مثل «: -)» أو «: P» على تسلسل أحرف «ASCII». ورغم بساطتها ، تحمل هذه الرموز معاني سياقية دقيقة، تختلف باختلاف الثقافة أو سياق الاستخدام. المشكلة، بحسب الباحثين، أن نماذج اللغة لا تتعامل دائماً مع هذه الرموز باعتبارها إشارات دلالية، بل قد تفسرها أحياناً كجزء من الشيفرة البرمجية أو كنص حرفي بلا معنى عاطفي.

هذا الالتباس الدلالي قد يبدو تفصيلاً صغيراً، لكنه يصبح أكثر خطورة عندما تُستخدم نماذج الذكاء الاصطناعي في مهام حساسة، مثل توليد الشيفرات البرمجية أو تحليل التعليمات أو تشغيل وكلاء آليين يتخذون قرارات تلقائية.

يمتد تأثير هذا الالتباس إلى الأنظمة المعتمدة على «الوكلاء الأذكياء» ما قد يضخّم الخطأ عبر سلاسل قرارات آلية متتابعة (شاترستوك)

قياس المشكلة بشكل منهجي

لفهم حجم هذه الظاهرة، طوّر فريق البحث إطاراً آلياً لاختبار تأثير الوجوه التعبيرية النصية على أداء النماذج. واعتمدوا على مجموعة بيانات تضم 3.757 حالة اختبار، ركزت في الغالب على سيناريوهات برمجية متعددة اللغات، حيث قد يؤدي سوء الفهم إلى أخطاء دقيقة ولكن مؤثرة.

حقائق

38 %

هو معدل تجاوز الخطأ الذي سجلته الاختبارات عند وجود رموز تعبيرية نصية رغم بساطة هذه الإشارات وشيوع استخدامها اليومي.

الفشل الصامت

النتيجة الأكثر إثارة للقلق في الدراسة ليست نسبة الخطأ بحد ذاتها، بل طبيعة هذه الأخطاء. فقد وجد الباحثون أن أكثر من 90 في المائة من حالات الإخفاق كانت «فشلاً صامتاً»؛ أي أن النموذج أنتج مخرجات تبدو صحيحة من حيث البنية أو الصياغة، لكنها تنفذ منطقاً مختلفاً عمّا قصده المستخدم.

في البرمجة، على سبيل المثال، قد يؤدي ذلك إلى شيفرة تعمل دون أخطاء، لكنها تنفذ وظيفة غير متوقعة. هذا النوع من الأخطاء يصعب اكتشافه؛ لأنه لا يولد تحذيرات مباشرة، وقد لا يظهر إلا بعد فترة طويلة، أو في ظروف تشغيل محددة.

تجاوز النماذج نفسها

لم تتوقف الدراسة عند اختبار النماذج اللغوية بشكل مباشر، بل امتدت إلى أنظمة قائمة على «الوكلاء» (agent - based frameworks) التي تعتمد على هذه النماذج كعقل مركزي لاتخاذ القرار. ووجد الباحثون أن الالتباس الدلالي ينتقل بسهولة إلى هذه الأنظمة المركبة، ما يعني أن الخطأ لا يبقى محصوراً في إجابة واحدة، بل قد يتضخم عبر سلسلة من القرارات الآلية. هذا الاكتشاف مهم في ظل التوجه المتسارع نحو استخدام وكلاء ذكيين لإدارة مهام معقدة، من أتمتة البرمجيات إلى تشغيل سلاسل عمل كاملة دون تدخل بشري مباشر.

لماذا تفشل الحلول الحالية؟

قد يبدو الحل بديهياً، وهو تعليم النموذج تجاهل الوجوه التعبيرية، أو إضافة تعليمات صريحة في المطالبات (prompts). لكن الدراسة تشير إلى أن هذه المعالجات السطحية ليست كافية. فحتى مع تعليمات إضافية، استمرت النماذج في الوقوع في الالتباس نفسه، ما يدل على أن المشكلة أعمق من مجرد «سوء صياغة» في الطلب.

يرجّح الباحثون أن جذور المشكلة تعود إلى بيانات التدريب نفسها، حيث لا يتم تمثيل الوجوه التعبيرية النصية بشكل متسق، أو يتم التعامل معها أحياناً على أنها ضوضاء لغوية. كما أن البنية الداخلية للنماذج قد لا تميز بوضوح بين الرمز بوصفه إشارة عاطفية أو عنصراً نحوياً أو جزءاً من شيفرة.

الدراسة: جذور المشكلة تعود إلى بيانات التدريب وبنية النماذج نفسها ما يستدعي اختبارات أمان أدق وتحسين تمثيل الإشارات اللغوية الصغيرة (أدوبي)

سلامة الذكاء الاصطناعي

تكشف هذه الدراسة عن جانب مهم من التحديات التي تواجه نشر نماذج الذكاء الاصطناعي في البيئات الواقعية. فالمخاطر لا تنشأ فقط من القرارات الكبرى أو المدخلات الخبيثة، بل قد تأتي من تفاصيل صغيرة ومألوفة ويومية. وفي سياق سلامة الذكاء الاصطناعي، يسلط البحث الضوء على الحاجة إلى اختبارات أكثر دقة، لا تكتفي بتقييم صحة الإجابة من حيث المضمون العام، بل تدرس مدى تطابقها مع نية المستخدم. كما يطرح تساؤلات حول مدى جاهزية هذه النماذج للتعامل مع اللغة كما تُستخدم فعلياً، لا كما تُكتب في الأمثلة المثالية.

الخطوة التالية

لا تقدم الدراسة حلولاً نهائية، لكنها ترسم خريطة واضحة للمشكلة، وتدعو إلى مزيد من البحث في كيفية تمثيل الرموز غير التقليدية داخل النماذج اللغوية. وقد يكون ذلك عبر تحسين بيانات التدريب أو تطوير آليات تفسير دلالي أدق أو دمج اختبارات أمان جديدة تركز على «الإشارات الصغيرة».

تهدف الدراسة إلى القول إن في عصر الذكاء الاصطناعي، لا توجد تفاصيل صغيرة حقاً. حتى رمز ابتسامة بسيط قد يحمل مخاطر أكبر مما نتخيل، إذا أسيء فهمه داخل عقل آلي يعتمد عليه البشر في قرارات متزايدة الحساسية.


تقنية توثيق بشرائح ذات بصمة مشتركة من دون خوادم خارجية

أظهر النموذج الأولي تطابقاً في البصمة بنسبة تفوق 98 % ما يضمن توثيقاً مستقراً وموثوقاً (شاترستوك)
أظهر النموذج الأولي تطابقاً في البصمة بنسبة تفوق 98 % ما يضمن توثيقاً مستقراً وموثوقاً (شاترستوك)
TT

تقنية توثيق بشرائح ذات بصمة مشتركة من دون خوادم خارجية

أظهر النموذج الأولي تطابقاً في البصمة بنسبة تفوق 98 % ما يضمن توثيقاً مستقراً وموثوقاً (شاترستوك)
أظهر النموذج الأولي تطابقاً في البصمة بنسبة تفوق 98 % ما يضمن توثيقاً مستقراً وموثوقاً (شاترستوك)

في عالم الأمن السيبراني تقوم الثقة غالباً على أسرار مخزنة في مكان آخر؛ قد تكون على خادم أو داخل ذاكرة محمية أو في قاعدة بيانات سحابية. لكن ماذا لو لم يكن من الضروري أن تغادر هذه الأسرار الشريحة الإلكترونية أساساً؟

طوّر مهندسون في معهد ماساتشوستس للتكنولوجيا (MIT) تقنية تصنيع تُمكّن شريحتين إلكترونيتين من توثيق بعضهما عبر «بصمة» مادية مشتركة، من دون الحاجة إلى تخزين بيانات تعريف حساسة على خوادم طرف ثالث. ويمكن لهذه المقاربة أن تعزز الخصوصية وتخفض استهلاك الطاقة والذاكرة المرتبط عادةً بالأنظمة التشفيرية التقليدية.

الأسرار المخزّنة خارج الشريحة

حتى عندما تُصمَّم شرائح «CMOS» لتكون متطابقة، فإنها تحتوي على اختلافات مجهرية طفيفة تنشأ بشكل طبيعي أثناء عملية التصنيع. هذه الاختلافات تمنح كل شريحة توقيعاً مادياً فريداً يُعرف باسم «الدالة الفيزيائية غير القابلة للاستنساخ» (PUF). ومثل بصمة الإصبع البشرية، يمكن استخدام هذه الدالة للتحقق من الهوية.

في الأنظمة التقليدية، عندما يتلقى الجهاز طلب توثيق، فإنه يولّد استجابة تعتمد على بنيته الفيزيائية. ويقارن الخادم هذه الاستجابة بقيمة مرجعية مخزنة مسبقاً للتأكد من صحة الجهاز. لكن هذه البيانات المرجعية يجب أن تُخزَّن في مكانٍ ما، وغالباً على خادم خارجي. وإذا تم اختراق ذلك الخادم، تصبح منظومة التوثيق بأكملها عرضة للخطر.

يقول يون سوك لي، طالب الدراسات العليا في الهندسة الكهربائية وعلوم الحاسوب في «MIT» والمؤلف الرئيسي للدراسة: «أكبر ميزة في هذه الطريقة الأمنية أننا لا نحتاج إلى تخزين أي معلومات. ستبقى كل الأسرار داخل السيليكون دائماً».

تعتمد التقنية على استغلال الاختلافات المجهرية الطبيعية في تصنيع شرائح «CMOS» لإنشاء بصمة غير قابلة للاستنساخ (MIT)

شريحتان ببصمة واحدة

للتغلب على الاعتماد على التخزين الخارجي، ابتكر فريق «MIT» طريقة لتصنيع شريحتين تتشاركان بصمة مدمجة واحدة؛ أي بصمة فريدة لهاتين الشريحتين فقط.

ويمكن فهم الفكرة عبر تشبيه بسيط: تخيّل ورقة تم تمزيقها إلى نصفين، الحواف الممزقة عشوائية وفريدة، ولا يمكن إعادة إنتاجها بدقة. ومع ذلك، فإن القطعتين تتطابقان تماماً؛ لأنهما تتشاركان نفس الحافة غير المنتظمة. طبّق الباحثون هذا المفهوم أثناء تصنيع أشباه الموصلات؛ إذ تُنتج عدة شرائح في الوقت نفسه على رقاقة سيليكون واحدة قبل فصلها. واستغل الفريق هذه المرحلة لإدخال «عشوائية مشتركة» بين شريحتين متجاورتين قبل تقطيعهما. يشرح لي: «كان علينا إيجاد طريقة لتنفيذ ذلك قبل مغادرة الشريحة المصنع، لتعزيز الأمان. فبمجرد دخول الشريحة في سلسلة التوريد، لا نعرف ما الذي قد يحدث لها».

هندسة العشوائية داخل السيليكون

لإنشاء البصمة المشتركة، استخدم الباحثون عملية تُعرف باسم «انهيار أكسيد البوابة» (Gate Oxide Breakdown)؛ إذ يتم تطبيق جهد كهربائي مرتفع على ترانزستورات محددة مع تسليط ضوء «LED» منخفض التكلفة عليها. وبسبب الفروقات المجهرية الطبيعية، ينهار كل ترانزستور في لحظة مختلفة قليلاً. تمثل حالة الانهيار هذه مصدر العشوائية التي تُبنى عليها البصمة الفيزيائية.

ولإنشاء بصمة مزدوجة، صمّم الفريق أزواجاً من الترانزستورات تمتد عبر شريحتين متجاورتين، مع ربطها بطبقات معدنية أثناء وجودها على الرقاقة نفسها. وعند حدوث الانهيار، تتطور خصائص كهربائية مترابطة بين الترانزستورات المرتبطة.

بعد ذلك، تُقطَّع الرقاقة بحيث تحصل كل شريحة على نصف زوج الترانزستورات، وبالتالي تحتفظ كل واحدة ببصمة مشتركة مع الأخرى. وبعد تحسين العملية، تمكّن الباحثون من إنتاج نموذج أولي لشريحتين متطابقتين أظهرتا تطابقاً في العشوائية بنسبة تفوق 98 في المائة، وهي نسبة كافية لضمان توثيق مستقر وآمن.

ويقول لي إنه «لم يتم نمذجة انهيار الترانزستورات بدقة في العديد من المحاكاة، لذلك كان هناك قدر كبير من عدم اليقين. تحديد جميع الخطوات وتسلسلها لإنتاج هذه العشوائية المشتركة هو جوهر الابتكار في هذا العمل». والأهم أن التقنية متوافقة مع عمليات تصنيع «CMOS» القياسية، ولا تتطلب مواد خاصة. كما أن استخدام مصابيح «LED» منخفضة التكلفة وتقنيات دوائر تقليدية يجعل تطبيقها على نطاق واسع أمراً عملياً.

يمكن أن تفيد التقنية الأجهزة منخفضة الطاقة مثل المستشعرات الطبية عبر توفير أمن أعلى بتكلفة طاقة أقل (شاترستوك)

أهمية خاصة للأجهزة منخفضة الطاقة

يمكن أن تكون هذه التقنية مفيدة بشكل خاص في الأنظمة التي تعمل بقيود طاقة صارمة؛ إذ تُعد الكفاءة والأمن أولوية في آن واحد. فعلى سبيل المثال، قد تستفيد كبسولات استشعار طبية قابلة للبلع متصلة برقعة تُرتدى على الجسم من هذا النهج؛ إذ يمكن للكبسولة والرقعة توثيق بعضهما مباشرة من دون الحاجة إلى خادم وسيط أو بروتوكولات تشفير معقدة تستهلك طاقة إضافية.

يعد أنانثا تشاندراكاسان، نائب رئيس «MIT» والمؤلف المشارك في الدراسة، أن «هناك طلباً متزايداً بسرعة على أمن الطبقة الفيزيائية للأجهزة الطرفية». ويضيف أن منهج البصمة المزدوجة «يتيح اتصالاً آمناً بين العقد من دون عبء بروتوكولات ثقيلة، ما يحقق كفاءة في الطاقة وأمناً قوياً في الوقت نفسه».

نحو ترسيخ الثقة في العتاد نفسه

لا يقتصر البحث على الحلول الرقمية فقط؛ إذ يستكشف الفريق أيضاً إمكان تطوير أشكال أكثر تعقيداً من «السرية المشتركة» تعتمد على خصائص تماثلية يمكن تكرارها مرة واحدة فقط.

ويرى روانان هان، أستاذ الهندسة الكهربائية وعلوم الحاسوب والمؤلف المشارك في الدراسة، أن هذه الخطوة تمثل محاولة أولية لتقليل المفاضلة بين الأمان وسهولة الاستخدام. ويقول: «إن إنشاء مفاتيح تشفير مشتركة داخل مصانع أشباه الموصلات الموثوقة قد يساعد على كسر المفاضلة بين تعزيز الأمان وتسهيل حماية نقل البيانات».

ومع تزايد انتشار الأجهزة المتصلة وتوسع الحوسبة الطرفية، قد يصبح دمج الثقة مباشرة في العتاد أمراً ضرورياً. فمن خلال ضمان بقاء الأسرار داخل السيليكون نفسه، تشير هذه التقنية إلى مستقبل يُبنى فيه التوثيق داخل الشريحة لا خارجها.


«إنستغرام» لتنبيه الآباء عند بحث المراهقين عن محتوى متعلق بالانتحار

إنستغرام سينبه أولياء الأمور إذا أجرى ​أبناؤهم ممن هم في سن المراهقة عمليات بحث متكررة عن مصطلحات مرتبطة بالانتحار أو إيذاء النفس (رويترز)
إنستغرام سينبه أولياء الأمور إذا أجرى ​أبناؤهم ممن هم في سن المراهقة عمليات بحث متكررة عن مصطلحات مرتبطة بالانتحار أو إيذاء النفس (رويترز)
TT

«إنستغرام» لتنبيه الآباء عند بحث المراهقين عن محتوى متعلق بالانتحار

إنستغرام سينبه أولياء الأمور إذا أجرى ​أبناؤهم ممن هم في سن المراهقة عمليات بحث متكررة عن مصطلحات مرتبطة بالانتحار أو إيذاء النفس (رويترز)
إنستغرام سينبه أولياء الأمور إذا أجرى ​أبناؤهم ممن هم في سن المراهقة عمليات بحث متكررة عن مصطلحات مرتبطة بالانتحار أو إيذاء النفس (رويترز)

أفاد تطبيق «إنستغرام» بأنه سيبدأ بتنبيه أولياء الأمور، إذا أجرى ​أبناؤهم، ممن هم في سن المراهقة، عمليات بحث متكررة عن مصطلحات مرتبطة بالانتحار أو إيذاء النفس، خلال فترة زمنية قصيرة، وذلك في وقت تتزايد فيه ‌الضغوط على الحكومات ‌لاعتماد قيود ​مشابهة لحظر ⁠أستراليا ​استخدام وسائل ⁠التواصل الاجتماعي لمن هم دون سن 16 عاماً.

ووفقاً لـ«رويترز»، قالت بريطانيا، في يناير (كانون الثاني)، إنها تدرس فرض قيود لحماية الأطفال عند اتصالهم بالإنترنت، ⁠بعد الخطوة التي اتخذتها ‌أستراليا، في ‌ديسمبر (كانون الأول). ​ وأعلنت إسبانيا واليونان ‌وسلوفينيا، في الأسابيع القليلة الماضية، ‌أنها تدرس أيضاً فرض قيود.

وذكر تطبيق «إنستغرام» المملوك لشركة «ميتا بلاتفورمز»، اليوم (الخميس)، أنه سيبدأ ‌في تنبيه أولياء الأمور المسجَّلين في إعدادات الإشراف الاختيارية، ⁠إذا ⁠حاول أطفالهم الوصول إلى محتوى يتعلق بالانتحار أو إيذاء النفس.

وتابعت المنصة في بيان: «تُضاف هذه التنبيهات إلى عملنا الحالي للمساعدة في حماية القصّر من المحتوى الضار المحتمل على (إنستغرام)... لدينا سياسات صارمة ضد المحتوى الذي ​يروج أو ​يشيد بالانتحار أو إيذاء النفس».