نظم الذكاء الصناعي.. خطوات واثقة لخدمة الإنسان

تتغلغل نحو ميادين الصحة والألعاب والتجارة

نظام {واطن}  -  جيرمي هوارد مؤسس شركة {إنليتيك} بجوار نظام الذكاء الصناعي الصحي
نظام {واطن} - جيرمي هوارد مؤسس شركة {إنليتيك} بجوار نظام الذكاء الصناعي الصحي
TT

نظم الذكاء الصناعي.. خطوات واثقة لخدمة الإنسان

نظام {واطن}  -  جيرمي هوارد مؤسس شركة {إنليتيك} بجوار نظام الذكاء الصناعي الصحي
نظام {واطن} - جيرمي هوارد مؤسس شركة {إنليتيك} بجوار نظام الذكاء الصناعي الصحي

يعد تسجيل الكومبيوتر العملاق «غوغل ديب مايند» (الفكر العميق) وبرنامج الذكاء الصناعي له المسمى «ألفا غو» لعدد من الانتصارات في مباريات اللعبة «غو» مع اللاعب لي سي - دول، وهو أمهر اللاعبين لهذه اللعبة في سول بكوريا الجنوبية، حدثا متميزا في ميدان تطوير نظم ذكية تنافس الإنسان وتتغلب على قدراته الفكرية.
ويأتي هذا الفوز بعد فوز كومبيوتر «ديب بلو» على بطل الشطرنج العالمي غاري كاسباروف عام 1997، وفوز كومبيوتر «واطسون» من «آي بي إم» عام 2011 بمسابقة «جيوباردي».
عندما تفوق كومبيوتر واطسون العملاق من إنتاج شركة «آي بي إم» على أمهر الأبطال من البشر في مسابقة «جيوباردي» الترفيهية، كان ذلك من قبيل الإنجازات التي تعد بآفاق مذهلة في مجال الذكاء الصناعي. وبعد فترة وجيزة، انتقل رؤساء الشركة إلى تحويل واطسون من مشروع علمي محتفى به إلى مشروع تجاري مدر لكثير من الأموال، بدءا بمجال الرعاية الصحية.
ومع ذلك، فإن السنوات القليلة التالية بعد الفوز المحقق للمشروع أثبتت أن مشروع واطسون كان متواضعا، فاليوم أصبح المديرون التنفيذيون في الشركة يعرفون بصراحة مطلقة أن المجال الطبي كان من أصعب المجالات بأكثر مما كان متوقعا، حيث غلبت التكاليف الباهظة وحالات الإحباط المتكررة على مشاريع واطسون المبكرة في المجال الطبي، مما أدى إلى تراجع الشركة عن مواصلة الأعمال، وإعادة التركيز على مجالات أخرى، وربما التخلي عن المشروع بأكمله في بعض الأحيان.
* تقنيات واعدة
وتشير الصعوبات الأولى لشركة «آي بي إم» مع واطسون إلى حقيقة واقعية، وهي أن التسويق التجاري لهذه التكنولوجيا الحديثة، على الرغم من أنها تكنولوجيا واعدة، في الغالب قد تقتصر على خطوات صغيرة بدلا من كونها قفزات عملاقة.
وعلى الرغم من التحديات أمام الشركة فإن الانتصار الذي حققه الكومبيوتر واطسون على شاشات التلفاز – والذي كان قبل خمس سنوات في مثل هذا الشهر – قد ساعد في تغذية الحماس والاهتمام في مجال الذكاء الصناعي من جانب الجمهور وبقية أنحاء صناعة التكنولوجيا. وضخ أصحاب رؤوس الأموال الاستثمارية مزيدا من الأموال على تأسيس شركات الذكاء الصناعي الناشئة، وعلى الشركات العملاقة مثل «غوغل»، و«فيسبوك»، و«مايكروسوفت»، و«آبل»، والتي كانت تشتري شركات الذكاء الصناعي الوليدة. وبلغت تلك الاستثمارات مستوى 8.5 مليار دولار العام الماضي، وهي زيادة بمقدار ثلاثة أضعاف ونصف المستوى المسجل في عام 2010، وفقا لشركة «كويد» العاملة في مجال تحليل البيانات.
وأصبح مهندسو البرمجيات من ذوي المهارات في مجال الذكاء الصناعي يُعاملون معاملة نجوم الرياضة الكبار، مما أثرى حروب العروض المغرية من جانب الشركات للاستفادة من خدماتهم.
ويقول جيري كابلان عالم الكومبيوتر ورجل الأعمال والمؤلف، والمؤسس المشارك أيضًا في شركة الذكاء الصناعي الناشئة «إيه آي» التي عفا عليها الزمان منذ فترة الثمانينات: «إننا في ذروة الإثارة الآن بكل تأكيد. وباتت التوقعات تتحرك على طريق الواقع الملموس أخيرا». كان مصطلح الذكاء الصناعي من أبرز مصطلحات الخيال العلمي، حيث الماكينات ذات القدرة على التفكير بنفسها ومساعدة البشر في مختلف المهام، أو المخلوقات الجاحدة التي تحاول القضاء على الجنس البشري. أو كما يتحرك التفكير عبر مختلف الأفلام من هذا النوع.
أما الواقع، رغم كل شيء، فهو أقل إثارة من الأفلام والروايات، فالصوت الآلي على هاتفك الذكي الذي يحاول الإجابة على الأسئلة، هو نوع من أنواع الذكاء الصناعي. كذلك مثل الخواص المميزة لمحرك البحث غوغل الشهير. كما تستخدم تلك التكنولوجيا في مختلف مشكلات الأعمال المعقدة مثل العثور على الاتجاهات في مجال أبحاث السرطان.
* خطوات صغيرة
يعود مجال الذكاء الصناعي إلى بداية عصر الكومبيوتر، ولقد توالت التطورات عبر دورات مختلفة من التفاؤل وخيبة الأمل منذ ذلك الحين، والتي شجعها عدد قليل من الروبوتات التي ظهرت في الأفلام وبعض العروض الناجحة لمعارض الألعاب المتقدمة.
والتوقعات التي ثارت في التسعينات حول الطريقة التي سوف تغير بها شبكة الإنترنت من أسس وسائل الإعلام، والإعلانات، والبيع بالتجزئة، أثبتت صحتها بمرور الوقت، على سبيل المثال. ولكن تلك التوقعات تحققت بعد مرور عقد كامل. والذكاء الصناعي اليوم، كما يقول المتفائلون، لا يزال يخطو أولى خطواته المبكرة.
يقول إريك برينجولفسون، مدير مبادرة الاقتصاد الرقمي لدى كلية سلوان للإدارة التابعة لمعهد ماساتشوستس للتكنولوجيا: «أعتقد أن أجيال المستقبل سوف تنظر إلى ثورة الذكاء الصناعي الحالية ومقارنة تأثيرها بالمحرك البخاري أو الكهرباء. ولكن، بطبيعة الحال، سوف يستغرق الأمر عقودا من هذه التكنولوجيا حتى تؤتي ثمارها».
هناك أسباب وراء هذا الحماس، حيث تستمر أسعار الكومبيوترات في الهبوط حتى مع تزايد قوة تلك الأجهزة، مما يجعلها أسهل عن ذي قبل في استيعاب كميات هائلة من البيانات في لحظات. كذلك، فإن المستشعرات، والهواتف الذكية وغيرها من الأجهزة التكنولوجية أصبحت منتشرة في كل مكان، وتعمل على تغذية مزيد ومزيد من المعلومات إلى الكومبيوترات التي تتعلم مزيدا ومزيدا عن حياتنا.
* تعلم الآلات العميق
خلال العام أو العامين الماضيين فقط، تمكن الباحثون من تحقيق قفزات سريعة باستخدام أساليب التعلم الآلي والمعروف باسم التعلم العميق في تحسين أداء البرمجيات التي تتعرف على الصور، وتترجم اللغات، وتفهم الكلام. ولقد نُفذت تلك العمليات في شركات التكنولوجيا الناشئة وفي الشركات العملاقة مثل «غوغل»، و«فيسبوك»، و«مايكروسوفت»، إلى جانب الجامعات، والمراكز البحثية الخاصة مثل معهد آلان للذكاء الصناعي.
يقول بيتر لي، نائب رئيس شركة «مايكروسوفت» للأبحاث: «كان هناك تقدم مذهل في مشكلات الإدراك، والإبصار، والسمع، واللغة».
وفي شركة «إنليتيك» وهي من الشركات الناشئة في سان فرانسيسكو، يعتقد جيرمي هوارد المؤسس والرئيس التنفيذي للشركة أن الذكاء الصناعي بإمكانه تثوير ميدان الرعاية الصحية الضخمة، وحفظ المزيد من الأرواح والأموال، وهو الطموح المماثل لطموح شركة «آي بي إم»، ولكنه مشروع يمتد إلى 25 عاما من الآن.
تركز شركة «إنليتيك» أولا على التقنيات الشعاعية، فالصور الطبية تخرج جميعها في شكل رقمي، كما يلاحظ السيد هوارد، والمسح المستمر غير المتوقف للإشارات المنبهة بالأنسجة غير الطبيعية هي من المهام التي تتفق معها تكنولوجيا التعرف على الصور المعتمدة على فكرة التعلم الآلي العميق.
ولقد اختبرت شركة «إنليتيك» برمجياتها مقابل قاعدة بيانات من 6 آلاف تشخيص لسرطان الرئة، الإيجابية والسلبية منها على حد سواء، والتي أجراها الأطباء المحترفون في مجال الأشعة الطبية. وفي إحدى الدراسات التي سوف تنشر قريبا، كانت اللوغاريتمات أكثر دقة بنسبة 50 في المائة من الأشعة البشرية.ويضيف السيد هوارد قائلا: «ينبغي عليك استخدام التكنولوجيا التي أثبتت فعاليتها وتطبيقها على المشكلة المعروفة. فالابتكار المجرد ليس إلا خطأ مجردا».
لم تتمكن أية شركة من تحقيق إنجاز كبير وواسع النطاق في التسويق التجاري لتكنولوجيا الذكاء الصناعي مثل شركة «آي بي إم» (IBM) خلال الكومبيوتر واطسون. حيث اعتمدت واطسون كمجال الأعمال الخاص بها منذ عام 2014، واستثمرت مليارات الدولارات في تسريع تطوير واعتماد هذه التكنولوجيا، بما في ذلك شراء كثير من الشركات الناشئة. وتضم وحدة واطسون حاليا أكثر من 7 آلاف موظف.
* كومبيوتر «واطسون»
تعرضت تكنولوجيا واطسون للتجديد بالكامل. وخلال أيام مسابقة «جيوباردي» المشار إليها، كانت واطسون عبارة عن كومبيوتر يحتل مساحة غرفة بأكملها. واليوم، فإن برمجيات الكومبيوتر واطسون السحابية تصل عبر الإنترنت من خلال مراكز البيانات البعيدة. ولقد انقسمت برمجيات واطسون ذاتها إلى عشرات مكونات الذكاء الصناعي المستقلة بما في ذلك المصنف اللغوي، وترجمة النصوص إلى كلام، والتعرف على الصور.
تحاول «آي بي إم» في الوقت الراهن وضع واطسون في مركز معادل لنظم التشغيل بالذكاء الصناعي، وهي منصة للبرمجيات يستخدمها الآخرون في بناء التطبيقات المختلفة. وهناك ما يقرب من 80 ألف مطور قد حملوا واختبروا هذه البرمجيات. وتمتلك الشركة في الوقت الحالي أكثر من 5 آلاف شريك صناعي، من الشركات العملاقة والناشئة، في مختلف الصناعات مثل الرعاية الصحية، والخدمات المالية، ومبيعات التجزئة، والمنتجات الاستهلاكية، والخدمات القانونية.
وتنظر الشركة إلى الصعوبات الكبرى الأولى التي شهدها واطسون في مجال الرعاية الصحية من واقع الخبرات التعليمية والدروس المستفادة. ويقول المديرون التنفيذيون في الشركة إن فرق العمل في الشركة قللوا من أهمية صعوبات التعامل مع مختلف البيانات الفوضوية مثل وثائق الفاكس والملاحظات المكتوبة وفشلوا في تفهم كيفية اتخاذ الأطباء للقرارات الطبية.
يقول جون كيلي، نائب الرئيس الأول والمشرف على مشروع واطسون: «كان هناك كثير من التحديات مع العملاء الأوائل»، مصيفا أن المشروع على أول طريق الانطلاق حاليا. ولا تُفصح الشركة عن النتائج المالية الخاصة بمشروع واطسون، وهي تصف المشروع بأنه «كبير ومتسع»، ويسهم في عائدات الشركة بمبلغ 18 مليار دولار في العام من تحليل الأعمال.
يعتبر مشروع واطسون، وفي مركز أندرسون للسرطان التابع لجامعة تكساس في مدينة هيوستن، من أحد المكونات الخاصة بتقديم الاستشارات الآلية الخبيرة بالنسبة لمجال رعاية مرضى السرطان، كما أن النظام الصحي لجامعة تكساس يستخدم مشروع واطسون في البرامج المساعدة لمرضى السكري ومساعدة مقدمي الرعاية الطبية على إدارة المرض، في مشروع كبير يتوقع أن يتم عرضه بالكامل قبل نهاية العام الحالي.
تقول الطبيبة ليندا تشين، كبيرة مسؤولي الابتكار الطبي في النظام الصحي التابع للجامعة: «كان الأمر أصعب كثيرا مما اعتقدنا، ولكن خبراتنا قد أقنعتني بإمكانية بناء محرك الذكاء الصناعي الذي يُحسن من الرعاية الصحية».

• خدمة «نيويورك تايمز»



دراسة: الرموز التعبيرية في المحادثات تربك فهم الذكاء الاصطناعي

الوجوه التعبيرية النصية البسيطة قد تُسبب التباساً دلالياً لدى نماذج اللغة الكبيرة ما يؤدي إلى فهم خاطئ لنية المستخدم (شاترستوك)
الوجوه التعبيرية النصية البسيطة قد تُسبب التباساً دلالياً لدى نماذج اللغة الكبيرة ما يؤدي إلى فهم خاطئ لنية المستخدم (شاترستوك)
TT

دراسة: الرموز التعبيرية في المحادثات تربك فهم الذكاء الاصطناعي

الوجوه التعبيرية النصية البسيطة قد تُسبب التباساً دلالياً لدى نماذج اللغة الكبيرة ما يؤدي إلى فهم خاطئ لنية المستخدم (شاترستوك)
الوجوه التعبيرية النصية البسيطة قد تُسبب التباساً دلالياً لدى نماذج اللغة الكبيرة ما يؤدي إلى فهم خاطئ لنية المستخدم (شاترستوك)

تتركز أغلب النقاشات المرتبطة بالذكاء الاصطناعي التوليدي حول مخاطر كبرى؛ كالتحيز والهلوسة وإساءة الاستخدام أو القرارات الآلية غير القابلة للتفسير. لكن دراسة بحثية جديدة تلفت الانتباه إلى مصدر مختلف تماماً للمخاطر المحتملة. إنها الرموز الصغيرة التي نستخدمها يومياً من دون تفكير مثل الوجوه التعبيرية النصية (emoticons).

الدراسة، المنشورة على منصة «arXiv» تكشف عن أن نماذج اللغة الكبيرة قد تُسيء فهم هذه الرموز البسيطة بطرق تؤدي إلى أخطاء وظيفية صامتة، لا تظهر على شكل أعطال واضحة، بل في مخرجات تبدو صحيحة شكلياً لكنها لا تعكس نية المستخدم الحقيقية.

رموز مألوفة... ومعانٍ ملتبسة

على عكس الرموز التعبيرية الحديثة (emoji) التي تمثل وحدات مرئية موحدة، تعتمد الوجوه التعبيرية النصية مثل «: -)» أو «: P» على تسلسل أحرف «ASCII». ورغم بساطتها ، تحمل هذه الرموز معاني سياقية دقيقة، تختلف باختلاف الثقافة أو سياق الاستخدام. المشكلة، بحسب الباحثين، أن نماذج اللغة لا تتعامل دائماً مع هذه الرموز باعتبارها إشارات دلالية، بل قد تفسرها أحياناً كجزء من الشيفرة البرمجية أو كنص حرفي بلا معنى عاطفي.

هذا الالتباس الدلالي قد يبدو تفصيلاً صغيراً، لكنه يصبح أكثر خطورة عندما تُستخدم نماذج الذكاء الاصطناعي في مهام حساسة، مثل توليد الشيفرات البرمجية أو تحليل التعليمات أو تشغيل وكلاء آليين يتخذون قرارات تلقائية.

يمتد تأثير هذا الالتباس إلى الأنظمة المعتمدة على «الوكلاء الأذكياء» ما قد يضخّم الخطأ عبر سلاسل قرارات آلية متتابعة (شاترستوك)

قياس المشكلة بشكل منهجي

لفهم حجم هذه الظاهرة، طوّر فريق البحث إطاراً آلياً لاختبار تأثير الوجوه التعبيرية النصية على أداء النماذج. واعتمدوا على مجموعة بيانات تضم 3.757 حالة اختبار، ركزت في الغالب على سيناريوهات برمجية متعددة اللغات، حيث قد يؤدي سوء الفهم إلى أخطاء دقيقة ولكن مؤثرة.

حقائق

38 %

هو معدل تجاوز الخطأ الذي سجلته الاختبارات عند وجود رموز تعبيرية نصية رغم بساطة هذه الإشارات وشيوع استخدامها اليومي.

الفشل الصامت

النتيجة الأكثر إثارة للقلق في الدراسة ليست نسبة الخطأ بحد ذاتها، بل طبيعة هذه الأخطاء. فقد وجد الباحثون أن أكثر من 90 في المائة من حالات الإخفاق كانت «فشلاً صامتاً»؛ أي أن النموذج أنتج مخرجات تبدو صحيحة من حيث البنية أو الصياغة، لكنها تنفذ منطقاً مختلفاً عمّا قصده المستخدم.

في البرمجة، على سبيل المثال، قد يؤدي ذلك إلى شيفرة تعمل دون أخطاء، لكنها تنفذ وظيفة غير متوقعة. هذا النوع من الأخطاء يصعب اكتشافه؛ لأنه لا يولد تحذيرات مباشرة، وقد لا يظهر إلا بعد فترة طويلة، أو في ظروف تشغيل محددة.

تجاوز النماذج نفسها

لم تتوقف الدراسة عند اختبار النماذج اللغوية بشكل مباشر، بل امتدت إلى أنظمة قائمة على «الوكلاء» (agent - based frameworks) التي تعتمد على هذه النماذج كعقل مركزي لاتخاذ القرار. ووجد الباحثون أن الالتباس الدلالي ينتقل بسهولة إلى هذه الأنظمة المركبة، ما يعني أن الخطأ لا يبقى محصوراً في إجابة واحدة، بل قد يتضخم عبر سلسلة من القرارات الآلية. هذا الاكتشاف مهم في ظل التوجه المتسارع نحو استخدام وكلاء ذكيين لإدارة مهام معقدة، من أتمتة البرمجيات إلى تشغيل سلاسل عمل كاملة دون تدخل بشري مباشر.

لماذا تفشل الحلول الحالية؟

قد يبدو الحل بديهياً، وهو تعليم النموذج تجاهل الوجوه التعبيرية، أو إضافة تعليمات صريحة في المطالبات (prompts). لكن الدراسة تشير إلى أن هذه المعالجات السطحية ليست كافية. فحتى مع تعليمات إضافية، استمرت النماذج في الوقوع في الالتباس نفسه، ما يدل على أن المشكلة أعمق من مجرد «سوء صياغة» في الطلب.

يرجّح الباحثون أن جذور المشكلة تعود إلى بيانات التدريب نفسها، حيث لا يتم تمثيل الوجوه التعبيرية النصية بشكل متسق، أو يتم التعامل معها أحياناً على أنها ضوضاء لغوية. كما أن البنية الداخلية للنماذج قد لا تميز بوضوح بين الرمز بوصفه إشارة عاطفية أو عنصراً نحوياً أو جزءاً من شيفرة.

الدراسة: جذور المشكلة تعود إلى بيانات التدريب وبنية النماذج نفسها ما يستدعي اختبارات أمان أدق وتحسين تمثيل الإشارات اللغوية الصغيرة (أدوبي)

سلامة الذكاء الاصطناعي

تكشف هذه الدراسة عن جانب مهم من التحديات التي تواجه نشر نماذج الذكاء الاصطناعي في البيئات الواقعية. فالمخاطر لا تنشأ فقط من القرارات الكبرى أو المدخلات الخبيثة، بل قد تأتي من تفاصيل صغيرة ومألوفة ويومية. وفي سياق سلامة الذكاء الاصطناعي، يسلط البحث الضوء على الحاجة إلى اختبارات أكثر دقة، لا تكتفي بتقييم صحة الإجابة من حيث المضمون العام، بل تدرس مدى تطابقها مع نية المستخدم. كما يطرح تساؤلات حول مدى جاهزية هذه النماذج للتعامل مع اللغة كما تُستخدم فعلياً، لا كما تُكتب في الأمثلة المثالية.

الخطوة التالية

لا تقدم الدراسة حلولاً نهائية، لكنها ترسم خريطة واضحة للمشكلة، وتدعو إلى مزيد من البحث في كيفية تمثيل الرموز غير التقليدية داخل النماذج اللغوية. وقد يكون ذلك عبر تحسين بيانات التدريب أو تطوير آليات تفسير دلالي أدق أو دمج اختبارات أمان جديدة تركز على «الإشارات الصغيرة».

تهدف الدراسة إلى القول إن في عصر الذكاء الاصطناعي، لا توجد تفاصيل صغيرة حقاً. حتى رمز ابتسامة بسيط قد يحمل مخاطر أكبر مما نتخيل، إذا أسيء فهمه داخل عقل آلي يعتمد عليه البشر في قرارات متزايدة الحساسية.


تقنية توثيق بشرائح ذات بصمة مشتركة من دون خوادم خارجية

أظهر النموذج الأولي تطابقاً في البصمة بنسبة تفوق 98 % ما يضمن توثيقاً مستقراً وموثوقاً (شاترستوك)
أظهر النموذج الأولي تطابقاً في البصمة بنسبة تفوق 98 % ما يضمن توثيقاً مستقراً وموثوقاً (شاترستوك)
TT

تقنية توثيق بشرائح ذات بصمة مشتركة من دون خوادم خارجية

أظهر النموذج الأولي تطابقاً في البصمة بنسبة تفوق 98 % ما يضمن توثيقاً مستقراً وموثوقاً (شاترستوك)
أظهر النموذج الأولي تطابقاً في البصمة بنسبة تفوق 98 % ما يضمن توثيقاً مستقراً وموثوقاً (شاترستوك)

في عالم الأمن السيبراني تقوم الثقة غالباً على أسرار مخزنة في مكان آخر؛ قد تكون على خادم أو داخل ذاكرة محمية أو في قاعدة بيانات سحابية. لكن ماذا لو لم يكن من الضروري أن تغادر هذه الأسرار الشريحة الإلكترونية أساساً؟

طوّر مهندسون في معهد ماساتشوستس للتكنولوجيا (MIT) تقنية تصنيع تُمكّن شريحتين إلكترونيتين من توثيق بعضهما عبر «بصمة» مادية مشتركة، من دون الحاجة إلى تخزين بيانات تعريف حساسة على خوادم طرف ثالث. ويمكن لهذه المقاربة أن تعزز الخصوصية وتخفض استهلاك الطاقة والذاكرة المرتبط عادةً بالأنظمة التشفيرية التقليدية.

الأسرار المخزّنة خارج الشريحة

حتى عندما تُصمَّم شرائح «CMOS» لتكون متطابقة، فإنها تحتوي على اختلافات مجهرية طفيفة تنشأ بشكل طبيعي أثناء عملية التصنيع. هذه الاختلافات تمنح كل شريحة توقيعاً مادياً فريداً يُعرف باسم «الدالة الفيزيائية غير القابلة للاستنساخ» (PUF). ومثل بصمة الإصبع البشرية، يمكن استخدام هذه الدالة للتحقق من الهوية.

في الأنظمة التقليدية، عندما يتلقى الجهاز طلب توثيق، فإنه يولّد استجابة تعتمد على بنيته الفيزيائية. ويقارن الخادم هذه الاستجابة بقيمة مرجعية مخزنة مسبقاً للتأكد من صحة الجهاز. لكن هذه البيانات المرجعية يجب أن تُخزَّن في مكانٍ ما، وغالباً على خادم خارجي. وإذا تم اختراق ذلك الخادم، تصبح منظومة التوثيق بأكملها عرضة للخطر.

يقول يون سوك لي، طالب الدراسات العليا في الهندسة الكهربائية وعلوم الحاسوب في «MIT» والمؤلف الرئيسي للدراسة: «أكبر ميزة في هذه الطريقة الأمنية أننا لا نحتاج إلى تخزين أي معلومات. ستبقى كل الأسرار داخل السيليكون دائماً».

تعتمد التقنية على استغلال الاختلافات المجهرية الطبيعية في تصنيع شرائح «CMOS» لإنشاء بصمة غير قابلة للاستنساخ (MIT)

شريحتان ببصمة واحدة

للتغلب على الاعتماد على التخزين الخارجي، ابتكر فريق «MIT» طريقة لتصنيع شريحتين تتشاركان بصمة مدمجة واحدة؛ أي بصمة فريدة لهاتين الشريحتين فقط.

ويمكن فهم الفكرة عبر تشبيه بسيط: تخيّل ورقة تم تمزيقها إلى نصفين، الحواف الممزقة عشوائية وفريدة، ولا يمكن إعادة إنتاجها بدقة. ومع ذلك، فإن القطعتين تتطابقان تماماً؛ لأنهما تتشاركان نفس الحافة غير المنتظمة. طبّق الباحثون هذا المفهوم أثناء تصنيع أشباه الموصلات؛ إذ تُنتج عدة شرائح في الوقت نفسه على رقاقة سيليكون واحدة قبل فصلها. واستغل الفريق هذه المرحلة لإدخال «عشوائية مشتركة» بين شريحتين متجاورتين قبل تقطيعهما. يشرح لي: «كان علينا إيجاد طريقة لتنفيذ ذلك قبل مغادرة الشريحة المصنع، لتعزيز الأمان. فبمجرد دخول الشريحة في سلسلة التوريد، لا نعرف ما الذي قد يحدث لها».

هندسة العشوائية داخل السيليكون

لإنشاء البصمة المشتركة، استخدم الباحثون عملية تُعرف باسم «انهيار أكسيد البوابة» (Gate Oxide Breakdown)؛ إذ يتم تطبيق جهد كهربائي مرتفع على ترانزستورات محددة مع تسليط ضوء «LED» منخفض التكلفة عليها. وبسبب الفروقات المجهرية الطبيعية، ينهار كل ترانزستور في لحظة مختلفة قليلاً. تمثل حالة الانهيار هذه مصدر العشوائية التي تُبنى عليها البصمة الفيزيائية.

ولإنشاء بصمة مزدوجة، صمّم الفريق أزواجاً من الترانزستورات تمتد عبر شريحتين متجاورتين، مع ربطها بطبقات معدنية أثناء وجودها على الرقاقة نفسها. وعند حدوث الانهيار، تتطور خصائص كهربائية مترابطة بين الترانزستورات المرتبطة.

بعد ذلك، تُقطَّع الرقاقة بحيث تحصل كل شريحة على نصف زوج الترانزستورات، وبالتالي تحتفظ كل واحدة ببصمة مشتركة مع الأخرى. وبعد تحسين العملية، تمكّن الباحثون من إنتاج نموذج أولي لشريحتين متطابقتين أظهرتا تطابقاً في العشوائية بنسبة تفوق 98 في المائة، وهي نسبة كافية لضمان توثيق مستقر وآمن.

ويقول لي إنه «لم يتم نمذجة انهيار الترانزستورات بدقة في العديد من المحاكاة، لذلك كان هناك قدر كبير من عدم اليقين. تحديد جميع الخطوات وتسلسلها لإنتاج هذه العشوائية المشتركة هو جوهر الابتكار في هذا العمل». والأهم أن التقنية متوافقة مع عمليات تصنيع «CMOS» القياسية، ولا تتطلب مواد خاصة. كما أن استخدام مصابيح «LED» منخفضة التكلفة وتقنيات دوائر تقليدية يجعل تطبيقها على نطاق واسع أمراً عملياً.

يمكن أن تفيد التقنية الأجهزة منخفضة الطاقة مثل المستشعرات الطبية عبر توفير أمن أعلى بتكلفة طاقة أقل (شاترستوك)

أهمية خاصة للأجهزة منخفضة الطاقة

يمكن أن تكون هذه التقنية مفيدة بشكل خاص في الأنظمة التي تعمل بقيود طاقة صارمة؛ إذ تُعد الكفاءة والأمن أولوية في آن واحد. فعلى سبيل المثال، قد تستفيد كبسولات استشعار طبية قابلة للبلع متصلة برقعة تُرتدى على الجسم من هذا النهج؛ إذ يمكن للكبسولة والرقعة توثيق بعضهما مباشرة من دون الحاجة إلى خادم وسيط أو بروتوكولات تشفير معقدة تستهلك طاقة إضافية.

يعد أنانثا تشاندراكاسان، نائب رئيس «MIT» والمؤلف المشارك في الدراسة، أن «هناك طلباً متزايداً بسرعة على أمن الطبقة الفيزيائية للأجهزة الطرفية». ويضيف أن منهج البصمة المزدوجة «يتيح اتصالاً آمناً بين العقد من دون عبء بروتوكولات ثقيلة، ما يحقق كفاءة في الطاقة وأمناً قوياً في الوقت نفسه».

نحو ترسيخ الثقة في العتاد نفسه

لا يقتصر البحث على الحلول الرقمية فقط؛ إذ يستكشف الفريق أيضاً إمكان تطوير أشكال أكثر تعقيداً من «السرية المشتركة» تعتمد على خصائص تماثلية يمكن تكرارها مرة واحدة فقط.

ويرى روانان هان، أستاذ الهندسة الكهربائية وعلوم الحاسوب والمؤلف المشارك في الدراسة، أن هذه الخطوة تمثل محاولة أولية لتقليل المفاضلة بين الأمان وسهولة الاستخدام. ويقول: «إن إنشاء مفاتيح تشفير مشتركة داخل مصانع أشباه الموصلات الموثوقة قد يساعد على كسر المفاضلة بين تعزيز الأمان وتسهيل حماية نقل البيانات».

ومع تزايد انتشار الأجهزة المتصلة وتوسع الحوسبة الطرفية، قد يصبح دمج الثقة مباشرة في العتاد أمراً ضرورياً. فمن خلال ضمان بقاء الأسرار داخل السيليكون نفسه، تشير هذه التقنية إلى مستقبل يُبنى فيه التوثيق داخل الشريحة لا خارجها.


«إنستغرام» لتنبيه الآباء عند بحث المراهقين عن محتوى متعلق بالانتحار

إنستغرام سينبه أولياء الأمور إذا أجرى ​أبناؤهم ممن هم في سن المراهقة عمليات بحث متكررة عن مصطلحات مرتبطة بالانتحار أو إيذاء النفس (رويترز)
إنستغرام سينبه أولياء الأمور إذا أجرى ​أبناؤهم ممن هم في سن المراهقة عمليات بحث متكررة عن مصطلحات مرتبطة بالانتحار أو إيذاء النفس (رويترز)
TT

«إنستغرام» لتنبيه الآباء عند بحث المراهقين عن محتوى متعلق بالانتحار

إنستغرام سينبه أولياء الأمور إذا أجرى ​أبناؤهم ممن هم في سن المراهقة عمليات بحث متكررة عن مصطلحات مرتبطة بالانتحار أو إيذاء النفس (رويترز)
إنستغرام سينبه أولياء الأمور إذا أجرى ​أبناؤهم ممن هم في سن المراهقة عمليات بحث متكررة عن مصطلحات مرتبطة بالانتحار أو إيذاء النفس (رويترز)

أفاد تطبيق «إنستغرام» بأنه سيبدأ بتنبيه أولياء الأمور، إذا أجرى ​أبناؤهم، ممن هم في سن المراهقة، عمليات بحث متكررة عن مصطلحات مرتبطة بالانتحار أو إيذاء النفس، خلال فترة زمنية قصيرة، وذلك في وقت تتزايد فيه ‌الضغوط على الحكومات ‌لاعتماد قيود ​مشابهة لحظر ⁠أستراليا ​استخدام وسائل ⁠التواصل الاجتماعي لمن هم دون سن 16 عاماً.

ووفقاً لـ«رويترز»، قالت بريطانيا، في يناير (كانون الثاني)، إنها تدرس فرض قيود لحماية الأطفال عند اتصالهم بالإنترنت، ⁠بعد الخطوة التي اتخذتها ‌أستراليا، في ‌ديسمبر (كانون الأول). ​ وأعلنت إسبانيا واليونان ‌وسلوفينيا، في الأسابيع القليلة الماضية، ‌أنها تدرس أيضاً فرض قيود.

وذكر تطبيق «إنستغرام» المملوك لشركة «ميتا بلاتفورمز»، اليوم (الخميس)، أنه سيبدأ ‌في تنبيه أولياء الأمور المسجَّلين في إعدادات الإشراف الاختيارية، ⁠إذا ⁠حاول أطفالهم الوصول إلى محتوى يتعلق بالانتحار أو إيذاء النفس.

وتابعت المنصة في بيان: «تُضاف هذه التنبيهات إلى عملنا الحالي للمساعدة في حماية القصّر من المحتوى الضار المحتمل على (إنستغرام)... لدينا سياسات صارمة ضد المحتوى الذي ​يروج أو ​يشيد بالانتحار أو إيذاء النفس».