«تشات جي بي تي»... استخدامات مفيدة وخبيثة

تساعد في صناعة المحتوى بدقة وتدمج في محركات البحث... وقد توظف لاختراق المواقع

قد نشهد قريباً صراعات بين كبرى شركات التقنية بهدف تيسير الذكاء الصناعي داخل محركات البحث
قد نشهد قريباً صراعات بين كبرى شركات التقنية بهدف تيسير الذكاء الصناعي داخل محركات البحث
TT

«تشات جي بي تي»... استخدامات مفيدة وخبيثة

قد نشهد قريباً صراعات بين كبرى شركات التقنية بهدف تيسير الذكاء الصناعي داخل محركات البحث
قد نشهد قريباً صراعات بين كبرى شركات التقنية بهدف تيسير الذكاء الصناعي داخل محركات البحث

بدأ صراع كبرى شركات التقنية حول تبني منصات الذكاء الصناعي داخل منتجاتها؛ خصوصاً في محركات البحث والبرامج ونظم التشغيل. ومن تلك التقنيات نظام «تشات جي بي تي» الذي يشكل نواة لإحداث نقلة نوعية في القطاع التقني.
وسنذكر في هذا الموضوع كيفية استخدام هذه التقنية في العديد من المجالات، ونقدم أدوات تساعدكم في الكشف عن المحتوى البشري والآلي، بالإضافة إلى ذكر بعض الوسائل التي يستخدمها القراصنة لتسخير هذه التقنية في أمور تصيدية لسرقة الأموال واختراق صفحات الإنترنت.

نظام دردشة آلية

الدردشة الآلية «تشات جي بي تي (ChatGPT)» نظام يستطيع فهم الكلمات المدخلة ومن ثم يجيب عن الأسئلة ويساعد في المهام المختلفة بلغة بشرية سلسة، مثل كتابة المقالات والنصوص البرمجية بلغة ما، ورسائل البريد الإلكتروني، واقتراح أفكار مرتبطة بمحور رئيسي. وما يميز هذا النظام عن غيره هو استخدامه لغة بشرية سلسة يشعر المستخدم عبرها كأنه يتحدث مع شخص حقيقي وليس مع برنامج ما.
وطورت شركة تقنيات الذكاء الصناعي «أوبين إيه آي (OpenAI)» هذا النظام، وهي الشركة نفسها التي طورت نظام «دالي - إي2 (DALLE - E -2)» الذي يستطيع توليد صور عالية الجودة من أوصاف نصية، ونظام «Whisper» للتعرف الآلي على الكلام المنطوق. واعتمدت الشركة على التصحيح البشري للنصوص التي يجري إنتاجها آلياً، ليقوم النظام بتحليل التصحيحات البشرية وتطوير قدرته لإيجاد نصوص جديدة لا تستدعي أي ملاحظات بشرية.
يذكر أن هذا النظام غير متاح للمستخدمين في منطقة الشرق الأوسط حالياً، حيث إنه لا يزال في مرحلة التطوير، ولا ترغب الشركة في إطلاقه لجميع مستخدمي الإنترنت حول العالم قبل الانتهاء من تطوير قدراته الحالية وتحسين أدائه وفقاً لملاحظات المستخدمين. وتتوقع الشركة المطورة جني 200 مليون دولار من هذا النظام في عام 2023، ومليار دولار في عام 2024.
وكشفت شركة «مايكروسوفت» الأسبوع الماضي عن استثمارها بمليارات الدولارات مجدداً في شركة «أوبين إيه آي» التي وضعت أسس نظام الدردشة الآلية «تشات جي بي تي»، وذلك بهدف المنافسة مع شركات أخرى، مثل «غوغل» و«ميتا» و«أبل» في مجال توليد نصوص وصور ووسائط متعددة وفقاً لأوامر نصية بسيطة من المستخدم.
وأُطلق نظام الدردشة الآلي «تشات جي بي تي» في ديسمبر (كانون الأول) الماضي، وهو يشكل نواة لإعادة تعريف آلية عمل محركات البحث وبرامج تحرير الصور والرسومات وكتابة النصوص.
ومن المتوقع أن تدمج «مايكروسوفت» هذه التقنية في محرك بحثها «بينغ» قريباً وداخل مجموعة البرامج المكتبية «أوفيس» وفي نظام التشغيل «ويندوز» المكتبي، وحتى في الإصدار السحابي منه المسمى «أزور (Azure)»، لمساعدة الأفراد والشركات على إيجاد المحتوى بجودة عالية وبكل سهولة، والذي يشمل التغريدات والمدونات والمقالات والنصوص البرمجية والصور.
يذكر أن سوندار بتشاي؛ الرئيس التنفيذي لـ«غوغل»، كان قد دعا في شهر ديسمبر الماضي لاري بيج وسيرغي برين، مؤسسي الشركة اللذين تخليا عن مهامهما اليومية في «غوغل» قبل 3 أعوام، للتحدث حول استراتيجية الشركة في مجال الذكاء الصناعي جراء توجه «مايكروسوفت» نحو دمج «تشات جي بي تي» في محرك بحثها «بينغ» وما قد يشكله ذلك من خطر على هيمنة «غوغل» في قطاع البحث. وتعتزم «غوغل» تطوير إصدار خاص من محرك بحثها يستخدم تقنيات الذكاء الصناعي والدردشة الآلية في وقت لاحق من هذا العام.

صناعة المحتوى

ونظراً إلى أن نظام «تشات جي بي تي» يتميز بتوليد محادثات ذات انسيابية كبيرة ومحتوى بشري، فسيشعر المستخدم بأنه يتحدث مع شخص آخر. ويمكن استخدام هذه الميزة في توليد الأفكار وكتابة مسودات المقالات والمنشورات.
ويمكن استخدام هذا النظام بهدف إيجاد أفكار جديدة للمحتوى الذي يرغب المستخدم في كتابته حول موضوع ما، مثل طلب مشاركة أفكار جديدة حول موضوعات تقنيات النانو. كما يمكن مشاركة الأفكار الرئيسية مع النظام ليكتب مسودة محتوى مرتبط به، ويمكن بعد ذلك تحرير المحتوى قليلاً ليتناسب مع الأسلوب المرغوب. ويمكن استخدام هذه التقنية أيضاً لإيجاد عناوين لافتة للانتباه ومرتبطة بفكرة الموضوع، مثل طلب 5 عناوين مرتبطة بفكرة المادة، سواء أكانت مقالاً أم فيديو أو أي نوع آخر من المحتوى.
ويستطيع النظام تلخيص النصوص الطويلة، بحيث يمكن مشاركة النص معه، أو جزء من النص، وطلب اختصاره إلى عدد معين من الكلمات، أو اختصار جملة ما إلى عدد محدد من الأحرف؛ الأمر الذي يساعد في كتابة التغريدات وملخصات الموضوعات، وحتى اختزال المقالات التي تجاوز عدد صفحاتها هدفاً محدداً.
ميزة أخرى تقدمها تقنية «تشات جي بي تي» هي المساعدة في عمليات البحث، حيث يمكن سؤالها عن الجملة المطلوب استخدامها في محركات البحث للعثور على معلومات دقيقة، ليقدم النظام مجموعة من المقترحات ذات جدوى عالية. ومن المتوقع تطوير هذه التقنية بشكل أكبر خلال الفترة المقبلة لتصبح هي نفسها محرك «بحث ذكي» يجلب المعلومات من مصادر عدة ويلخصها أمام المستخدم مع ذكر مصادرها، بدلاً من عرض صفحات مختلفة في نتائج البحث تحتوي أجزاءً من المعلومة المطلوبة. ومن شأن هذا الأمر إحداث ثورة جذرية ونقلة نوعية في عالم محركات البحث، وهو محور المعركة الجديدة بين «مايكروسوفت» و«غوغل»، وغيرهما من كبرى الشركات التقنية.

رصد المحتوى غير البشري

ونظراً إلى إمكانية هذا النظام في إنتاج محتوى دقيق علمياً أو أدبياً وصحيح لغوياً في أسلوب بشري سلس، فقد يخلق مشكلات جديدة في بعض القطاعات، مثل الأبحاث الأكاديمية التي من الممكن أن يقوم فيها الطلاب أو الباحثون بإنشاء أبحاث أو نصوص يصعب تمييزها عن تلك التي يكتبها البشر، وبالتالي حصول غش أو احتيال غير عادل مقارنة مع من يكتب بحثه بجهد وتعب كبيرين.
ولكن هذا الأمر يمكن الكشف عنه من خلال مجموعة من الأدوات التي تستطيع التعرف على المحتوى الآلي الذي يوجِده نظام «تشات جي بي تي»، سنذكر مجموعة منها، مثل:
* «GPT - 2 Output Detector» من شركة الذكاء الصناعي «Hugging Face» التي حصلت على تمويل بقيمة 40 مليون دولار لتطوير مكتبة لغة طبيعية خاصة بها، حيث تقوم الأداة بتصنيف المحتوى إلى فئات المقالات الإخبارية ومنشورات شبكات التواصل الاجتماعي ومراجعات وتقييمات المنتجات. وستخبر الأداة المستخدم بتوقعاتها حول نسبة واقعية النص إلى كونه من صُنع الذكاء الصناعي. وتمتاز هذه الأداة بدقتها العالية في الكشف عن النصوص الآلية.
* أداة أخرى هي «Writer AI Content Detector» التي تستخدم تقنيات الذكاء الصناعي للكشف عن المحتوى الذي يكتبه الذكاء الصناعي، مثل المقالات المطولة. ويمكن مشاركة رابط لموقع المحتوى أو لنص ما، لتحلله الأداة وتخبر المستخدم ما إذا كان من كتابة البشر أو من إبداعات الذكاء الصناعي. أما أداة «Scale AI Content Detector»، فتستطيع الكشف عن المحتوى الناتج عن الذكاء الصناعي، وتمتاز بدقتها العالية جداً في التعرف على محتوى الذكاء الصناعي.
واختبرت «الشرق الأوسط» هذه الأدوات، ولاحظت دقتها في النصوص المكتوبة باللغة الإنجليزية، بينما عانت في التعرف على المحتوى البشري باللغة العربية، حيث غالباً ما كانت تخطئ وتظن أنه من صنع الذكاء الصناعي. ومن المتوقع تطوير آلية التعرف على اللغات من خلال تطوير قدرات النظام وإضافة كميات كبيرة من المحتوى العربي إلى قاعدة البيانات التي تستند الأدوات إليها لتحليل أسلوب الكتابة والتعرف على الأسلوب البشري، خصوصاً أن اللغة العربية متقدمة في البلاغة وتقديم الخبر على المبتدأ والجمل الفعلية والاسمية... وغيرها من مزايا لغتنا، مقارنة باللغات الأخرى.

الذكاء الصناعي والقرصنة

بدأ قراصنة روس توظيف شغف الناس بهذه التقنية لأغراض خبيثة، وذلك عبر تقديم تطبيقات ذكاء صناعي مبنية على هذه التقنية توهم المستخدمين بأنها شرعية ولكنها تسرق بيانات بطاقاتهم الائتمانية، ومن ثم استخدام تلك الأموال ومعلومات المستخدمين لإنشاء حسابات حقيقية في «تشات جي بي تي» بعد منع المستخدمين الروس من الوصول إليها، ومن ثم استخدام تلك التقنية لإيجاد نصوص برمجية تسهل اختراق صفحات الإنترنت وكتابة البرامج الضارة ورسائل البريد الإلكتروني التصيدية واختراق برامج «أوفيس» بنصوص برمجية ضارة.
ويستطيع القراصنة سؤال «تشات جي بي تي» عن طرق اختبار نقاط الضعف في موقع ما بهدف التفوق في اختبارات الاختراق وحماية الموقع، ليقترح النظام عليهم طرقاً مختلفة تساعدهم في البدء بالبحث عن نقاط الضعف، والتدقيق في النص البرمجي للموقع المستهدف وإخبارهم بمواطئ الضعف بهدف إصلاحها، ليقوم المخترقون باستغلال تلك الثغرات واختراق المواقع في أقل من 45 دقيقة.
كما يمكن استخدام هذه التقنية بغرض إيجاد حسابات وهمية في الشبكات الاجتماعية وصناعة محتوى آلي يُنشر فيها دون تدخل بشري، الأمر الذي قد يؤثر على مصداقية العديد من الحسابات، أو حتى إيجاد أعداد كبيرة من المتابعين الوهميين الذي يستطيعون خداع نظم مراقبة الحسابات الوهمية في الشبكات الاجتماعية، ومن ثم بيع خدمات متابعة حسابات المشاهير، أو من يرغب في أن يحصل على أعداد كبيرة من المتابعين بغرض زيادة شهرة حسابه والحصول على عوائد مالية من الجهات المعلنة.


مقالات ذات صلة

دراسة: الرموز التعبيرية في المحادثات تربك فهم الذكاء الاصطناعي

تكنولوجيا الوجوه التعبيرية النصية البسيطة قد تُسبب التباساً دلالياً لدى نماذج اللغة الكبيرة ما يؤدي إلى فهم خاطئ لنية المستخدم (شاترستوك)

دراسة: الرموز التعبيرية في المحادثات تربك فهم الذكاء الاصطناعي

دراسة علمية تكشف عن أن الرموز التعبيرية النصية قد تُربك نماذج الذكاء الاصطناعي مسببة أخطاء صامتة تؤثر على دقة الفهم والقرارات الآلية.

نسيم رمضان (لندن)
تكنولوجيا أظهر النموذج الأولي تطابقاً في البصمة بنسبة تفوق 98 % ما يضمن توثيقاً مستقراً وموثوقاً (شاترستوك)

تقنية توثيق بشرائح ذات بصمة مشتركة من دون خوادم خارجية

باحثو «MIT» يطوّرون تقنية تمكّن شريحتين من توثيق بعضهما ببصمة سيليكون مشتركة دون تخزين مفاتيح خارجية لتعزيز الأمان والكفاءة.

نسيم رمضان (لندن)
تكنولوجيا الفرق عالية الأداء تتفوق بفضل الاستثمار المنهجي في الذكاء الاصطناعي والشراكات والتخطيط البيعي (رويترز)

«سيلزفورس»: 9 من كل 10 فرق مبيعات تتجه إلى وكلاء الذكاء الاصطناعي

تقرير «سيلزفورس» يكشف تسارع تبنّي وكلاء الذكاء الاصطناعي في المبيعات، لرفع الإنتاجية، وتحسين البيانات، ودعم نماذج تسعير مرنة لتحقيق النمو.

نسيم رمضان (لندن)
تكنولوجيا تطبيقات ذكاء اصطناعي متخصصة للتعامل مع البريد الإلكتروني

كيف تتحول الفوضى الرقمية إلى أداة إنتاجية متقدمة؟

في عصرنا الرقمي، تحول البريد الإلكتروني من وسيلة للتواصل إلى عبء يومي ثقيل. وبالنسبة للكثيرين،

خلدون غسان سعيد (جدة)
تكنولوجيا توليفة مناسبة الثمن لتوصيل "آيبود" بكابل منج قبل 15 عاما بجهاز كومبيوتر بمنافذ "يو اس بي" صغيرة

كيف تتعامل مع العشرات من الأجهزة القديمة؟

أطاحت الجوالات الذكية بمشغلات الموسيقى الرقمية والكاميرات وألقتها جانباً بشكل كبير. ومع ذلك، لا يزال كثير من الناس يحتفظون بتلك الاجهزة مخبأة في مكان ما.

جيه دي بيرسدورفر (نيويورك)

دراسة: الرموز التعبيرية في المحادثات تربك فهم الذكاء الاصطناعي

الوجوه التعبيرية النصية البسيطة قد تُسبب التباساً دلالياً لدى نماذج اللغة الكبيرة ما يؤدي إلى فهم خاطئ لنية المستخدم (شاترستوك)
الوجوه التعبيرية النصية البسيطة قد تُسبب التباساً دلالياً لدى نماذج اللغة الكبيرة ما يؤدي إلى فهم خاطئ لنية المستخدم (شاترستوك)
TT

دراسة: الرموز التعبيرية في المحادثات تربك فهم الذكاء الاصطناعي

الوجوه التعبيرية النصية البسيطة قد تُسبب التباساً دلالياً لدى نماذج اللغة الكبيرة ما يؤدي إلى فهم خاطئ لنية المستخدم (شاترستوك)
الوجوه التعبيرية النصية البسيطة قد تُسبب التباساً دلالياً لدى نماذج اللغة الكبيرة ما يؤدي إلى فهم خاطئ لنية المستخدم (شاترستوك)

تتركز أغلب النقاشات المرتبطة بالذكاء الاصطناعي التوليدي حول مخاطر كبرى؛ كالتحيز والهلوسة وإساءة الاستخدام أو القرارات الآلية غير القابلة للتفسير. لكن دراسة بحثية جديدة تلفت الانتباه إلى مصدر مختلف تماماً للمخاطر المحتملة. إنها الرموز الصغيرة التي نستخدمها يومياً من دون تفكير مثل الوجوه التعبيرية النصية (emoticons).

الدراسة، المنشورة على منصة «arXiv» تكشف عن أن نماذج اللغة الكبيرة قد تُسيء فهم هذه الرموز البسيطة بطرق تؤدي إلى أخطاء وظيفية صامتة، لا تظهر على شكل أعطال واضحة، بل في مخرجات تبدو صحيحة شكلياً لكنها لا تعكس نية المستخدم الحقيقية.

رموز مألوفة... ومعانٍ ملتبسة

على عكس الرموز التعبيرية الحديثة (emoji) التي تمثل وحدات مرئية موحدة، تعتمد الوجوه التعبيرية النصية مثل «: -)» أو «: P» على تسلسل أحرف «ASCII». ورغم بساطتها ، تحمل هذه الرموز معاني سياقية دقيقة، تختلف باختلاف الثقافة أو سياق الاستخدام. المشكلة، بحسب الباحثين، أن نماذج اللغة لا تتعامل دائماً مع هذه الرموز باعتبارها إشارات دلالية، بل قد تفسرها أحياناً كجزء من الشيفرة البرمجية أو كنص حرفي بلا معنى عاطفي.

هذا الالتباس الدلالي قد يبدو تفصيلاً صغيراً، لكنه يصبح أكثر خطورة عندما تُستخدم نماذج الذكاء الاصطناعي في مهام حساسة، مثل توليد الشيفرات البرمجية أو تحليل التعليمات أو تشغيل وكلاء آليين يتخذون قرارات تلقائية.

يمتد تأثير هذا الالتباس إلى الأنظمة المعتمدة على «الوكلاء الأذكياء» ما قد يضخّم الخطأ عبر سلاسل قرارات آلية متتابعة (شاترستوك)

قياس المشكلة بشكل منهجي

لفهم حجم هذه الظاهرة، طوّر فريق البحث إطاراً آلياً لاختبار تأثير الوجوه التعبيرية النصية على أداء النماذج. واعتمدوا على مجموعة بيانات تضم 3.757 حالة اختبار، ركزت في الغالب على سيناريوهات برمجية متعددة اللغات، حيث قد يؤدي سوء الفهم إلى أخطاء دقيقة ولكن مؤثرة.

حقائق

38 %

هو معدل تجاوز الخطأ الذي سجلته الاختبارات عند وجود رموز تعبيرية نصية رغم بساطة هذه الإشارات وشيوع استخدامها اليومي.

الفشل الصامت

النتيجة الأكثر إثارة للقلق في الدراسة ليست نسبة الخطأ بحد ذاتها، بل طبيعة هذه الأخطاء. فقد وجد الباحثون أن أكثر من 90 في المائة من حالات الإخفاق كانت «فشلاً صامتاً»؛ أي أن النموذج أنتج مخرجات تبدو صحيحة من حيث البنية أو الصياغة، لكنها تنفذ منطقاً مختلفاً عمّا قصده المستخدم.

في البرمجة، على سبيل المثال، قد يؤدي ذلك إلى شيفرة تعمل دون أخطاء، لكنها تنفذ وظيفة غير متوقعة. هذا النوع من الأخطاء يصعب اكتشافه؛ لأنه لا يولد تحذيرات مباشرة، وقد لا يظهر إلا بعد فترة طويلة، أو في ظروف تشغيل محددة.

تجاوز النماذج نفسها

لم تتوقف الدراسة عند اختبار النماذج اللغوية بشكل مباشر، بل امتدت إلى أنظمة قائمة على «الوكلاء» (agent - based frameworks) التي تعتمد على هذه النماذج كعقل مركزي لاتخاذ القرار. ووجد الباحثون أن الالتباس الدلالي ينتقل بسهولة إلى هذه الأنظمة المركبة، ما يعني أن الخطأ لا يبقى محصوراً في إجابة واحدة، بل قد يتضخم عبر سلسلة من القرارات الآلية. هذا الاكتشاف مهم في ظل التوجه المتسارع نحو استخدام وكلاء ذكيين لإدارة مهام معقدة، من أتمتة البرمجيات إلى تشغيل سلاسل عمل كاملة دون تدخل بشري مباشر.

لماذا تفشل الحلول الحالية؟

قد يبدو الحل بديهياً، وهو تعليم النموذج تجاهل الوجوه التعبيرية، أو إضافة تعليمات صريحة في المطالبات (prompts). لكن الدراسة تشير إلى أن هذه المعالجات السطحية ليست كافية. فحتى مع تعليمات إضافية، استمرت النماذج في الوقوع في الالتباس نفسه، ما يدل على أن المشكلة أعمق من مجرد «سوء صياغة» في الطلب.

يرجّح الباحثون أن جذور المشكلة تعود إلى بيانات التدريب نفسها، حيث لا يتم تمثيل الوجوه التعبيرية النصية بشكل متسق، أو يتم التعامل معها أحياناً على أنها ضوضاء لغوية. كما أن البنية الداخلية للنماذج قد لا تميز بوضوح بين الرمز بوصفه إشارة عاطفية أو عنصراً نحوياً أو جزءاً من شيفرة.

الدراسة: جذور المشكلة تعود إلى بيانات التدريب وبنية النماذج نفسها ما يستدعي اختبارات أمان أدق وتحسين تمثيل الإشارات اللغوية الصغيرة (أدوبي)

سلامة الذكاء الاصطناعي

تكشف هذه الدراسة عن جانب مهم من التحديات التي تواجه نشر نماذج الذكاء الاصطناعي في البيئات الواقعية. فالمخاطر لا تنشأ فقط من القرارات الكبرى أو المدخلات الخبيثة، بل قد تأتي من تفاصيل صغيرة ومألوفة ويومية. وفي سياق سلامة الذكاء الاصطناعي، يسلط البحث الضوء على الحاجة إلى اختبارات أكثر دقة، لا تكتفي بتقييم صحة الإجابة من حيث المضمون العام، بل تدرس مدى تطابقها مع نية المستخدم. كما يطرح تساؤلات حول مدى جاهزية هذه النماذج للتعامل مع اللغة كما تُستخدم فعلياً، لا كما تُكتب في الأمثلة المثالية.

الخطوة التالية

لا تقدم الدراسة حلولاً نهائية، لكنها ترسم خريطة واضحة للمشكلة، وتدعو إلى مزيد من البحث في كيفية تمثيل الرموز غير التقليدية داخل النماذج اللغوية. وقد يكون ذلك عبر تحسين بيانات التدريب أو تطوير آليات تفسير دلالي أدق أو دمج اختبارات أمان جديدة تركز على «الإشارات الصغيرة».

تهدف الدراسة إلى القول إن في عصر الذكاء الاصطناعي، لا توجد تفاصيل صغيرة حقاً. حتى رمز ابتسامة بسيط قد يحمل مخاطر أكبر مما نتخيل، إذا أسيء فهمه داخل عقل آلي يعتمد عليه البشر في قرارات متزايدة الحساسية.


تقنية توثيق بشرائح ذات بصمة مشتركة من دون خوادم خارجية

أظهر النموذج الأولي تطابقاً في البصمة بنسبة تفوق 98 % ما يضمن توثيقاً مستقراً وموثوقاً (شاترستوك)
أظهر النموذج الأولي تطابقاً في البصمة بنسبة تفوق 98 % ما يضمن توثيقاً مستقراً وموثوقاً (شاترستوك)
TT

تقنية توثيق بشرائح ذات بصمة مشتركة من دون خوادم خارجية

أظهر النموذج الأولي تطابقاً في البصمة بنسبة تفوق 98 % ما يضمن توثيقاً مستقراً وموثوقاً (شاترستوك)
أظهر النموذج الأولي تطابقاً في البصمة بنسبة تفوق 98 % ما يضمن توثيقاً مستقراً وموثوقاً (شاترستوك)

في عالم الأمن السيبراني تقوم الثقة غالباً على أسرار مخزنة في مكان آخر؛ قد تكون على خادم أو داخل ذاكرة محمية أو في قاعدة بيانات سحابية. لكن ماذا لو لم يكن من الضروري أن تغادر هذه الأسرار الشريحة الإلكترونية أساساً؟

طوّر مهندسون في معهد ماساتشوستس للتكنولوجيا (MIT) تقنية تصنيع تُمكّن شريحتين إلكترونيتين من توثيق بعضهما عبر «بصمة» مادية مشتركة، من دون الحاجة إلى تخزين بيانات تعريف حساسة على خوادم طرف ثالث. ويمكن لهذه المقاربة أن تعزز الخصوصية وتخفض استهلاك الطاقة والذاكرة المرتبط عادةً بالأنظمة التشفيرية التقليدية.

الأسرار المخزّنة خارج الشريحة

حتى عندما تُصمَّم شرائح «CMOS» لتكون متطابقة، فإنها تحتوي على اختلافات مجهرية طفيفة تنشأ بشكل طبيعي أثناء عملية التصنيع. هذه الاختلافات تمنح كل شريحة توقيعاً مادياً فريداً يُعرف باسم «الدالة الفيزيائية غير القابلة للاستنساخ» (PUF). ومثل بصمة الإصبع البشرية، يمكن استخدام هذه الدالة للتحقق من الهوية.

في الأنظمة التقليدية، عندما يتلقى الجهاز طلب توثيق، فإنه يولّد استجابة تعتمد على بنيته الفيزيائية. ويقارن الخادم هذه الاستجابة بقيمة مرجعية مخزنة مسبقاً للتأكد من صحة الجهاز. لكن هذه البيانات المرجعية يجب أن تُخزَّن في مكانٍ ما، وغالباً على خادم خارجي. وإذا تم اختراق ذلك الخادم، تصبح منظومة التوثيق بأكملها عرضة للخطر.

يقول يون سوك لي، طالب الدراسات العليا في الهندسة الكهربائية وعلوم الحاسوب في «MIT» والمؤلف الرئيسي للدراسة: «أكبر ميزة في هذه الطريقة الأمنية أننا لا نحتاج إلى تخزين أي معلومات. ستبقى كل الأسرار داخل السيليكون دائماً».

تعتمد التقنية على استغلال الاختلافات المجهرية الطبيعية في تصنيع شرائح «CMOS» لإنشاء بصمة غير قابلة للاستنساخ (MIT)

شريحتان ببصمة واحدة

للتغلب على الاعتماد على التخزين الخارجي، ابتكر فريق «MIT» طريقة لتصنيع شريحتين تتشاركان بصمة مدمجة واحدة؛ أي بصمة فريدة لهاتين الشريحتين فقط.

ويمكن فهم الفكرة عبر تشبيه بسيط: تخيّل ورقة تم تمزيقها إلى نصفين، الحواف الممزقة عشوائية وفريدة، ولا يمكن إعادة إنتاجها بدقة. ومع ذلك، فإن القطعتين تتطابقان تماماً؛ لأنهما تتشاركان نفس الحافة غير المنتظمة. طبّق الباحثون هذا المفهوم أثناء تصنيع أشباه الموصلات؛ إذ تُنتج عدة شرائح في الوقت نفسه على رقاقة سيليكون واحدة قبل فصلها. واستغل الفريق هذه المرحلة لإدخال «عشوائية مشتركة» بين شريحتين متجاورتين قبل تقطيعهما. يشرح لي: «كان علينا إيجاد طريقة لتنفيذ ذلك قبل مغادرة الشريحة المصنع، لتعزيز الأمان. فبمجرد دخول الشريحة في سلسلة التوريد، لا نعرف ما الذي قد يحدث لها».

هندسة العشوائية داخل السيليكون

لإنشاء البصمة المشتركة، استخدم الباحثون عملية تُعرف باسم «انهيار أكسيد البوابة» (Gate Oxide Breakdown)؛ إذ يتم تطبيق جهد كهربائي مرتفع على ترانزستورات محددة مع تسليط ضوء «LED» منخفض التكلفة عليها. وبسبب الفروقات المجهرية الطبيعية، ينهار كل ترانزستور في لحظة مختلفة قليلاً. تمثل حالة الانهيار هذه مصدر العشوائية التي تُبنى عليها البصمة الفيزيائية.

ولإنشاء بصمة مزدوجة، صمّم الفريق أزواجاً من الترانزستورات تمتد عبر شريحتين متجاورتين، مع ربطها بطبقات معدنية أثناء وجودها على الرقاقة نفسها. وعند حدوث الانهيار، تتطور خصائص كهربائية مترابطة بين الترانزستورات المرتبطة.

بعد ذلك، تُقطَّع الرقاقة بحيث تحصل كل شريحة على نصف زوج الترانزستورات، وبالتالي تحتفظ كل واحدة ببصمة مشتركة مع الأخرى. وبعد تحسين العملية، تمكّن الباحثون من إنتاج نموذج أولي لشريحتين متطابقتين أظهرتا تطابقاً في العشوائية بنسبة تفوق 98 في المائة، وهي نسبة كافية لضمان توثيق مستقر وآمن.

ويقول لي إنه «لم يتم نمذجة انهيار الترانزستورات بدقة في العديد من المحاكاة، لذلك كان هناك قدر كبير من عدم اليقين. تحديد جميع الخطوات وتسلسلها لإنتاج هذه العشوائية المشتركة هو جوهر الابتكار في هذا العمل». والأهم أن التقنية متوافقة مع عمليات تصنيع «CMOS» القياسية، ولا تتطلب مواد خاصة. كما أن استخدام مصابيح «LED» منخفضة التكلفة وتقنيات دوائر تقليدية يجعل تطبيقها على نطاق واسع أمراً عملياً.

يمكن أن تفيد التقنية الأجهزة منخفضة الطاقة مثل المستشعرات الطبية عبر توفير أمن أعلى بتكلفة طاقة أقل (شاترستوك)

أهمية خاصة للأجهزة منخفضة الطاقة

يمكن أن تكون هذه التقنية مفيدة بشكل خاص في الأنظمة التي تعمل بقيود طاقة صارمة؛ إذ تُعد الكفاءة والأمن أولوية في آن واحد. فعلى سبيل المثال، قد تستفيد كبسولات استشعار طبية قابلة للبلع متصلة برقعة تُرتدى على الجسم من هذا النهج؛ إذ يمكن للكبسولة والرقعة توثيق بعضهما مباشرة من دون الحاجة إلى خادم وسيط أو بروتوكولات تشفير معقدة تستهلك طاقة إضافية.

يعد أنانثا تشاندراكاسان، نائب رئيس «MIT» والمؤلف المشارك في الدراسة، أن «هناك طلباً متزايداً بسرعة على أمن الطبقة الفيزيائية للأجهزة الطرفية». ويضيف أن منهج البصمة المزدوجة «يتيح اتصالاً آمناً بين العقد من دون عبء بروتوكولات ثقيلة، ما يحقق كفاءة في الطاقة وأمناً قوياً في الوقت نفسه».

نحو ترسيخ الثقة في العتاد نفسه

لا يقتصر البحث على الحلول الرقمية فقط؛ إذ يستكشف الفريق أيضاً إمكان تطوير أشكال أكثر تعقيداً من «السرية المشتركة» تعتمد على خصائص تماثلية يمكن تكرارها مرة واحدة فقط.

ويرى روانان هان، أستاذ الهندسة الكهربائية وعلوم الحاسوب والمؤلف المشارك في الدراسة، أن هذه الخطوة تمثل محاولة أولية لتقليل المفاضلة بين الأمان وسهولة الاستخدام. ويقول: «إن إنشاء مفاتيح تشفير مشتركة داخل مصانع أشباه الموصلات الموثوقة قد يساعد على كسر المفاضلة بين تعزيز الأمان وتسهيل حماية نقل البيانات».

ومع تزايد انتشار الأجهزة المتصلة وتوسع الحوسبة الطرفية، قد يصبح دمج الثقة مباشرة في العتاد أمراً ضرورياً. فمن خلال ضمان بقاء الأسرار داخل السيليكون نفسه، تشير هذه التقنية إلى مستقبل يُبنى فيه التوثيق داخل الشريحة لا خارجها.


«إنستغرام» لتنبيه الآباء عند بحث المراهقين عن محتوى متعلق بالانتحار

إنستغرام سينبه أولياء الأمور إذا أجرى ​أبناؤهم ممن هم في سن المراهقة عمليات بحث متكررة عن مصطلحات مرتبطة بالانتحار أو إيذاء النفس (رويترز)
إنستغرام سينبه أولياء الأمور إذا أجرى ​أبناؤهم ممن هم في سن المراهقة عمليات بحث متكررة عن مصطلحات مرتبطة بالانتحار أو إيذاء النفس (رويترز)
TT

«إنستغرام» لتنبيه الآباء عند بحث المراهقين عن محتوى متعلق بالانتحار

إنستغرام سينبه أولياء الأمور إذا أجرى ​أبناؤهم ممن هم في سن المراهقة عمليات بحث متكررة عن مصطلحات مرتبطة بالانتحار أو إيذاء النفس (رويترز)
إنستغرام سينبه أولياء الأمور إذا أجرى ​أبناؤهم ممن هم في سن المراهقة عمليات بحث متكررة عن مصطلحات مرتبطة بالانتحار أو إيذاء النفس (رويترز)

أفاد تطبيق «إنستغرام» بأنه سيبدأ بتنبيه أولياء الأمور، إذا أجرى ​أبناؤهم، ممن هم في سن المراهقة، عمليات بحث متكررة عن مصطلحات مرتبطة بالانتحار أو إيذاء النفس، خلال فترة زمنية قصيرة، وذلك في وقت تتزايد فيه ‌الضغوط على الحكومات ‌لاعتماد قيود ​مشابهة لحظر ⁠أستراليا ​استخدام وسائل ⁠التواصل الاجتماعي لمن هم دون سن 16 عاماً.

ووفقاً لـ«رويترز»، قالت بريطانيا، في يناير (كانون الثاني)، إنها تدرس فرض قيود لحماية الأطفال عند اتصالهم بالإنترنت، ⁠بعد الخطوة التي اتخذتها ‌أستراليا، في ‌ديسمبر (كانون الأول). ​ وأعلنت إسبانيا واليونان ‌وسلوفينيا، في الأسابيع القليلة الماضية، ‌أنها تدرس أيضاً فرض قيود.

وذكر تطبيق «إنستغرام» المملوك لشركة «ميتا بلاتفورمز»، اليوم (الخميس)، أنه سيبدأ ‌في تنبيه أولياء الأمور المسجَّلين في إعدادات الإشراف الاختيارية، ⁠إذا ⁠حاول أطفالهم الوصول إلى محتوى يتعلق بالانتحار أو إيذاء النفس.

وتابعت المنصة في بيان: «تُضاف هذه التنبيهات إلى عملنا الحالي للمساعدة في حماية القصّر من المحتوى الضار المحتمل على (إنستغرام)... لدينا سياسات صارمة ضد المحتوى الذي ​يروج أو ​يشيد بالانتحار أو إيذاء النفس».