الذكاء الاصطناعي: عمالقة التقنية تتنافس على جذب المستخدمين بميزات مبتكرة

جولة عبر أحدث الابتكارات التي ستغير طريقة تفاعلنا مع العالم الرقمي... صور واقعية وملخصات البحث و«رفيق رقمي» للاعبين

أمثلة للقدرات المتقدمة لنموذج «ميدجورني في7» الجديد على توليد الصور من النصوص الوصفية
أمثلة للقدرات المتقدمة لنموذج «ميدجورني في7» الجديد على توليد الصور من النصوص الوصفية
TT

الذكاء الاصطناعي: عمالقة التقنية تتنافس على جذب المستخدمين بميزات مبتكرة

أمثلة للقدرات المتقدمة لنموذج «ميدجورني في7» الجديد على توليد الصور من النصوص الوصفية
أمثلة للقدرات المتقدمة لنموذج «ميدجورني في7» الجديد على توليد الصور من النصوص الوصفية

في سباق محموم نحو المستقبل الرقمي، تتسابق كبرى شركات التقنية لإعادة صياغة تفاعلاتنا اليومية من خلال أحدث ابتكارات الذكاء الاصطناعي. ونستعرض في هذا الموضوع موجة جديدة من التطورات التي تقودها «ميتا» و«ميدجورني» و«أمازون» و«مايكروسوفت» و«غوغل»، حيث تطلق كل منها أدوات وميزات ثورية تعد بتغيير طريقة تواصلنا وإبداعنا وحتى لعبنا. من نماذج لغوية ضخمة متعددة الوسائط إلى مساعد صوتي فائق الذكاء، ومن مولدات صور واقعية إلى رفقاء رقميين للاعبين، يشهد عالم التقنية نقلة نوعية تضع الذكاء الاصطناعي في صميم تجاربنا اليومية.

«لاما 4» يجمع بين القوة والمرونة ويتفوق على المنافسين

وأعلنت شركة «ميتا» Meta عن إطلاق نموذج «لاما 4» Llama 4 الذي يُعتبر أحدث وأقوى عائلة من نماذج اللغة الكبيرة مفتوحة الوزن حتى الآن. (الوزن المفتوح في سياق نماذج الذكاء الاصطناعي هو مشاركة المعاملات التي يتم تدريب النموذج عليها بهدف مزيد من الوضوح وسهولة التعديل ولفهم كيفية عمل النموذج).

ويتفوق هذا النموذج على العديد من النماذج الحديثة في المعايير الأساسية ويُعتبر الأكبر من نوعه الذي أطلقته «ميتا» حتى الآن، حيث تتكون عائلة «لاما 4» من ثلاثة أحجام مختلفة، هي «الضخم جداً» Behemoth الذي يضم تريليونين (ألفي مليار) معامل parameter، و«مافريك» Maveric المتوسط الذي يحتوي على 400 مليار معامل، و«الكشاف» Scout الصغير الذي يضم 109 مليارات معامل. وأطلقت «ميتا» نموذجي «مافريك» و«الكشاف»، في حين لم يتم طرح نموذج «الضخم جداً» بعد، وذلك بسبب تطوير الشركة له.

وتتميز هذه النماذج بقدرتها على التعامل المتقدم مع الوسائط المتعددة، حيث تدعم التفاعل مع النصوص والصور وعروض الفيديو بوصفها مدخلات، مما يجعلها أول نموذج «لاما» متعدد الوسائط بشكل قياسي. وتعتمد بنية «لاما 4» على تقنية «مزيج الخبراء» Mixture of Experts التي تتيح توسيع نطاق النماذج بكفاءة عالية.

ويتميز نموذج «الكشاف» بنافذة سياق استثنائية تبلغ 10 ملايين رمز Token، وهي الأكبر بين جميع النماذج المفتوحة والمغلقة، بينما يدعم «مافريك» ما يصل إلى مليون رمز، ما يجعله يضاهي نماذج «غوغل جيميناي» في هذه الميزة. وتتطابق نماذج «لاما 4» مع نظيراتها في مختلف المعايير وتتفوق عليها في بعض الأحيان، حيث يُعتبر «مافريك» منافساً قوياً أو متفوقاً على «جيميناي 2.0 فلاش» و«ديبسيك 3.1» و«تشات جي بي تي - 4 أو»، بينما يمكن مقارنة نموذج «الضخم جداً» بنماذج مثل «جيميناي 2.0 برو» و«كلود سونيت 3.7» و«تشات جي بي تي - 4.5». وقامت «ميتا» بتحسين عملية ما بعد التدريب لـ«لاما 4»، مما أدى إلى رفع أدائه بشكل كبير. ويمكن استخدام هذه النماذج من موقع مساعد «ميتا» أو مباشرة من تطبيقات «واتساب» و«إنستغرام» و«فيسبوك مسنجر».

«ميدجورني في7»: حين يصبح الخيال حقيقة بلمسة ذكاء اصطناعي

ومن جهتها، أعلنت «ميدجورني» Midjourney عن إطلاق نموذجها الجديد لتوليد الصور «في7» V7 استجابة للتطورات الأخيرة في قطاع الذكاء الاصطناعي. ويقدم النموذج الجديد تحسينات كبيرة في جودة الصورة، ما يسمح بالحصول على صور أكثر واقعية وتفاصيل محسنة في الأيدي والأجسام. ويقدم هذا الإصدار وضعين، الأول هو «السريع» Turbo الذي يُعتبر أكثر تكلفة، و«الاسترخاء» Relax. وتقدم ميزة «وضع المسودة» الجديدة القدرة على إنشاء صور أسرع بتكلفة مخفضة، ولكن بجودة أقل يمكن تحسينها لاحقاً.

ويدعم الإصدار الجديد ميزات مثل «لوح المزاج» Mood Boards و«مرجع الأسلوب» Style Reference، بينما لا يزال تحرير الصور وتحسينها يعتمد على إصدار «في6»، مع خطط لدمج هذه المزايا في الإصدار الجديد في المستقبل. وتتيح ميزة التخصيص للذكاء الاصطناعي تعلم تفضيلات المستخدم بمرور الوقت، مما يؤدي إلى إنشاء صور أكثر تخصيصاً.

وظائف «أليكسا» تتطور في خدمة «أليكسا بلس» الجديدة

«أليكسا بلاس»: مساعدك الصوتي يصبح أكثر ذكاء وشخصية

وننتقل إلى «أمازون» التي أعلنت عن خدمة «أليكسا بلاس» Alexa Plus، وهي خدمة اشتراك جديدة تهدف إلى تعزيز قدرات مساعدها الصوتي الشهير «أليكسا». وستوفر الخدمة المدفوعة للمستخدمين وصولاً إلى مجموعة من الميزات المحسنة والمتقدمة التي تتجاوز الإمكانيات الحالية المجانية لـ«أليكسا»، التي تشمل استجابة أكثر ذكاء ودقة وقدرة أكبر على فهم السياقات المعقدة وتفاعلات شخصية أكثر، بالإضافة إلى أدوات جديدة لأتمتة المهام المنزلية وإدارة الأجهزة الذكية بشكل أكثر فاعلية. كما يستطيع هذا الإصدار اقتراح أفكار للهدايا وطلب البقالة عبر الأوامر الصوتية وطلب الطعام باستخدام سياق المحادثة وتذكير أفراد العائلة بالمهام المنزلية، مباشرة من المتصفح أو من خلال أجهزة وتطبيق «أليكسا».

ويشير هذا الإعلان إلى توجه الشركة نحو تقديم خيارات متنوعة للمستخدمين، حيث سيبقى الإصدار الأساسي لـ«أليكسا» متاحاً بمجموعة من الوظائف الأساسية. ومن المتوقع أن يتم الكشف عن المزيد من التفاصيل حول الخدمة الجديدة في الأشهر القادمة قبل إطلاقها الرسمي للمستخدمين. وتأتي هذه الخطوة من «أمازون» في ظل المنافسة المتزايدة في سوق المساعدات الصوتية والذكاء الاصطناعي.

«كوبايلوت للألعاب»: سلاحك السري لاحتراف الألعاب الإلكترونية

وركزت «مايكروسوفت» على قطاع الألعاب الإلكترونية، حيث كشفت عن مساعدها الذكي الجديد للألعاب «كوبايلوت للألعاب»Copilot for Gaming، وهو أداة تعمل بالذكاء الاصطناعي تهدف إلى تعزيز تجربة اللعب للمستخدمين على جهاز «إكس بوكس» والكومبيوترات الشخصية التي تعمل بنظام التشغيل «ويندوز». ويعتمد هذا المساعد على نماذج لغوية كبيرة وتقنيات الذكاء الاصطناعي المتقدمة لتقديم مجموعة متنوعة من المزايا التي تتجاوز مجرد تقديم النصائح والإرشادات خلال جلسات اللعب.

ملخصات بحث بالذكاء الاصطناعي من «مايكروسوفت»

ويهدف هذا المساعد الجديد إلى فهم سياق اللعبة التي يلعبها المستخدم وتقديم مساعدة ديناميكية ومخصصة، حيث يمكنه الإجابة على الأسئلة المتعلقة بالقصة والشخصيات والعناصر داخل اللعبة وتقديم استراتيجيات ونصائح تكتيكية لتحسين أداء اللاعب والمساعدة في العثور على العناصر المخفية وإكمال المهام الصعبة. وبالإضافة إلى ذلك، من المتوقع أن يوفر المساعد الجديد مزايا أخرى تشمل تحليل أداء اللاعب وتقديم اقتراحات لتحسين مهاراته وتسهيل التواصل والتنسيق مع اللاعبين الآخرين في الألعاب متعددة اللاعبين.

وتعتبر هذه الخطوة من «مايكروسوفت» جزءاً من استراتيجيتها الأوسع لدمج الذكاء الاصطناعي في مختلف منتجاتها وخدماتها بهدف توفير تجارب أكثر ذكاء وتخصيصاً للمستخدمين وجذب المزيد من اللاعبين إلى نظامها البيئي وتقديم قيمة مضافة تتجاوز مجرد الألعاب. ولا تزال التفاصيل الدقيقة حول كيفية عمل المساعد الذكي الجديد ومزاياه الكاملة قيد التطوير والكشف التدريجي. ومع ذلك، فإن الإعلان عن هذه الأداة يشير إلى إمكانات الذكاء الاصطناعي في تغيير طريقة تفاعلنا مع الألعاب وتقديم مستوى جديد من المساعدة والتخصيص للاعبين. ومن المتوقع أن يتم الكشف عن المزيد من المعلومات حول هذا المساعد الذكي المبتكر في الأشهر المقبلة. وسيُطلق مساعد «كوبايلوت للألعاب» في البداية عبر تطبيق «إكس بوكس» على الهاتف الجوال، حيث سيعمل مثل شاشة إضافية توفر معلومات وإرشادات خلال مجريات اللعب.

وفي أحد العروض التوضيحية، قدم المساعد نصائح للاعب في لعبة «أوفرووتش 2» Overwatch 2، وذلك بتحليل أخطائه في الهجوم دون دعم زملائه، وأوصى بأفضل الشخصيات التي يمكن اختيارها لتعزيز تكوين الفريق مع شرح نقاط القوة والضعف لكل بطل. وبالنسبة للعبة «ماينكرافت» Minecraft، أجاب المساعد عن استفسارات اللاعبين حول كيفية صناعة الأدوات داخل عالم اللعبة.

تطويرات ذكاء اصطناعي متنوعة

وأعلنت «غوغل» عن إطلاق ميزة «ملخصات الذكاء الاصطناعي» AI Overviews عالمياً، التي تُعتبر تطويراً جديداً في طريقة عرض نتائج البحث تهدف إلى تقديم ملخصات مباشرة وإجابات شاملة للمستخدمين عوضاً عن عرض قائمة بالروابط. وتعتمد هذه الميزة على أحدث نماذج «غوغل» اللغوية الكبيرة لدمج المعلومات من مصادر متعددة وتقديم نظرة عامة موجزة ومنظمة متعلقة بموضوع البحث. وتهدف هذه الميزة إلى توفير الوقت والجهد على المستخدمين من خلال تلخيص المعلومات الأساسية وتقديمها بشكل مباشر في أعلى نتائج البحث. وتشمل الملخصات نقاطاً رئيسية وتعاريف وشروحات مبسطة للمفاهيم المعقدة ومقارنات بين وجهات نظر مختلفة حول الموضوع. وتسعى الشركة إلى مساعدة المستخدمين على فهم مواضيع بحثهم بشكل أعمق وأسرع دون الحاجة إلى تصفح العديد من الروابط بشكل فردي.

و

ملخصات بحث بالذكاء الاصطناعي من «غوغل»

رغم أن هذه الميزة قد أُطلقت في شهر مارس (آذار) 2023، فإنها كانت متاحة لمجموعة محدودة، ولكنها أصبحت متوافرة لجميع مستخدمي محرك البحث «غوغل» الآن. ويأتي هذا الإطلاق في ظل المنافسة الشرسة من محركات البحث الأخرى المدعومة بالذكاء الاصطناعي، مثل «سيرتش جي بي تي» SearchGPT و«ديب سيرتش» Deep Search.

وردت «مايكروسوفت» على «غوغل» بإطلاق خدمة «كوبايلوت سيرتش» Copilot Search، وهي تطوير جديد لمحرك البحث «بينغ» Bing يدمج قدرات الذكاء الاصطناعي المتقدمة في عملية البحث. وتعتمد هذه الميزة على نموذج مساعد «كوبايلوت» الذكي لتقديم تجربة بحث أكثر تفاعلية وذكاء للمستخدمين. وتسعى هذه الخدمة إلى فهم استفسارات المستخدم بشكل أعمق وتقديم إجابات مباشرة وملخصات للمعلومات المطلوبة. ويمكن للمستخدم طرح أسئلة أكثر تعقيداً وبلغة طبيعية، ليقوم المساعد بتحليل المعلومات من مصادر متعددة وتقديم إجابات شاملة ومنظمة. وبالإضافة إلى ذلك، من المتوقع أن توفر الميزة قدرات إضافية مثل تلخيص المقالات الطويلة ومقارنة المنتجات والخدمات وتقديم اقتراحات لمتابعة البحث بناء على السياق.

ويثير إطلاق هاتين الميزتين بعض المخاوف والتساؤلات حول دقة وموثوقية الملخصات التي يقدمها الذكاء الاصطناعي وإمكانية تحيزها أو تقديم معلومات غير كاملة، إلا أن الشركتين تران فيها تطوراً طبيعياً في سعيهما لجعل البحث أكثر كفاءة وفائدة للمستخدمين. ومن المتوقع أن تقوم «غوغل» و«مايكروسوفت» بمراقبة أداء الخدمتين وجمع ملاحظات المستخدمين والمواقع الإلكترونية لتحسينها ومعالجة أي مسائل قد تظهر مع مرور الوقت.

منصة «أمازون نوفا آكت» لتطوير بنية ذكاء اصطناعي متقدمة لجميع المستخدمين

هذا، وأعلنت «أمازون» عن إطلاق مشروع «نوفا آكت» Nova Act و«وكيل الذكاء الاصطناعي للمحادثات» بهدف تعزيز تجربة التسوق والتفاعل مع المستخدمين على منصتها. ويركز مشروع «نوفا آكت» على تقديم بنية تحتية للذكاء الاصطناعي أكثر قوة ومرونة قادرة على دعم مجموعة واسعة من التطبيقات والميزات الذكية عبر خدمات أمازون المختلفة. أما «وكيل الذكاء الاصطناعي للمحادثات»، فيمثل واجهة تفاعلية جديدة تهدف إلى جعل تجربة التسوق أكثر سلاسة وشخصية.

ومن المتوقع أن يتمكن هذا الوكيل من فهم استفسارات المستخدمين المعقدة وتقديم توصيات مخصصة بناء على تاريخ الشراء وتفضيلاتهم، والمساعدة في مقارنة المنتجات والإجابة على الأسئلة المتعلقة بالمواصفات والتوافر وتقديم الدعم الفني الأساسي، كل ذلك بشكل تفاعل طبيعي وسلس باللغة الأم لكل مستخدم.


مقالات ذات صلة

دراسة: الرموز التعبيرية في المحادثات تربك فهم الذكاء الاصطناعي

تكنولوجيا الوجوه التعبيرية النصية البسيطة قد تُسبب التباساً دلالياً لدى نماذج اللغة الكبيرة ما يؤدي إلى فهم خاطئ لنية المستخدم (شاترستوك)

دراسة: الرموز التعبيرية في المحادثات تربك فهم الذكاء الاصطناعي

دراسة علمية تكشف عن أن الرموز التعبيرية النصية قد تُربك نماذج الذكاء الاصطناعي مسببة أخطاء صامتة تؤثر على دقة الفهم والقرارات الآلية.

نسيم رمضان (لندن)
الاقتصاد شخص يستخدم تطبيقات الذكاء الاصطناعي على حاسوبه المحمول في نيودلهي (أ.ب)

هل يكفي نمو الإنتاجية بالذكاء الاصطناعي لوقف انفجار الديون الحكومية؟

إذا تحققت طفرة إنتاجية مدفوعة بالذكاء الاصطناعي، فقد تمنح الاقتصادات الكبرى مزيداً من الوقت لتقويم أوضاعها المالية العامة المرهقة، وفق ما يرى اقتصاديون.

«الشرق الأوسط» (لندن)
الاقتصاد متداولو عملات يراقبون مؤشر «كوسبي» وسعر صرف الدولار مقابل الوون داخل قاعة تداول في بنك هانا بسيول (أ.ب)

الأسهم الآسيوية تتباين بعد خسائر حادة لسهم «إنفيديا» في «وول ستريت»

تباين أداء الأسهم الآسيوية، الجمعة، عقب خسائر حادة تكبّدها سهم «إنفيديا» في «وول ستريت»، في وقتٍ أثارت فيه قرارات تسريح وظائف مرتبطة بالذكاء الاصطناعي موجة قلق.

«الشرق الأوسط» (بانكوك)
يوميات الشرق بين الجسد والبرمجة... معركة على الملامح (أ.ف.ب)

ممثلة ألبانية تُقاضي «وزيرة» ذكاء اصطناعي سرقت وجهها وصوتها

باتت الممثلة الألبانية أنيلا بيشا أسيرة «وزيرة» افتراضية مولّدة بالذكاء الاصطناعي تستخدم وجهها وصوتها من دون إذنها.

«الشرق الأوسط» (تيرانا - ألبانيا)
تكنولوجيا أظهر النموذج الأولي تطابقاً في البصمة بنسبة تفوق 98 % ما يضمن توثيقاً مستقراً وموثوقاً (شاترستوك)

تقنية توثيق بشرائح ذات بصمة مشتركة من دون خوادم خارجية

باحثو «MIT» يطوّرون تقنية تمكّن شريحتين من توثيق بعضهما ببصمة سيليكون مشتركة دون تخزين مفاتيح خارجية لتعزيز الأمان والكفاءة.

نسيم رمضان (لندن)

دراسة: الرموز التعبيرية في المحادثات تربك فهم الذكاء الاصطناعي

الوجوه التعبيرية النصية البسيطة قد تُسبب التباساً دلالياً لدى نماذج اللغة الكبيرة ما يؤدي إلى فهم خاطئ لنية المستخدم (شاترستوك)
الوجوه التعبيرية النصية البسيطة قد تُسبب التباساً دلالياً لدى نماذج اللغة الكبيرة ما يؤدي إلى فهم خاطئ لنية المستخدم (شاترستوك)
TT

دراسة: الرموز التعبيرية في المحادثات تربك فهم الذكاء الاصطناعي

الوجوه التعبيرية النصية البسيطة قد تُسبب التباساً دلالياً لدى نماذج اللغة الكبيرة ما يؤدي إلى فهم خاطئ لنية المستخدم (شاترستوك)
الوجوه التعبيرية النصية البسيطة قد تُسبب التباساً دلالياً لدى نماذج اللغة الكبيرة ما يؤدي إلى فهم خاطئ لنية المستخدم (شاترستوك)

تتركز أغلب النقاشات المرتبطة بالذكاء الاصطناعي التوليدي حول مخاطر كبرى؛ كالتحيز والهلوسة وإساءة الاستخدام أو القرارات الآلية غير القابلة للتفسير. لكن دراسة بحثية جديدة تلفت الانتباه إلى مصدر مختلف تماماً للمخاطر المحتملة. إنها الرموز الصغيرة التي نستخدمها يومياً من دون تفكير مثل الوجوه التعبيرية النصية (emoticons).

الدراسة، المنشورة على منصة «arXiv» تكشف عن أن نماذج اللغة الكبيرة قد تُسيء فهم هذه الرموز البسيطة بطرق تؤدي إلى أخطاء وظيفية صامتة، لا تظهر على شكل أعطال واضحة، بل في مخرجات تبدو صحيحة شكلياً لكنها لا تعكس نية المستخدم الحقيقية.

رموز مألوفة... ومعانٍ ملتبسة

على عكس الرموز التعبيرية الحديثة (emoji) التي تمثل وحدات مرئية موحدة، تعتمد الوجوه التعبيرية النصية مثل «: -)» أو «: P» على تسلسل أحرف «ASCII». ورغم بساطتها ، تحمل هذه الرموز معاني سياقية دقيقة، تختلف باختلاف الثقافة أو سياق الاستخدام. المشكلة، بحسب الباحثين، أن نماذج اللغة لا تتعامل دائماً مع هذه الرموز باعتبارها إشارات دلالية، بل قد تفسرها أحياناً كجزء من الشيفرة البرمجية أو كنص حرفي بلا معنى عاطفي.

هذا الالتباس الدلالي قد يبدو تفصيلاً صغيراً، لكنه يصبح أكثر خطورة عندما تُستخدم نماذج الذكاء الاصطناعي في مهام حساسة، مثل توليد الشيفرات البرمجية أو تحليل التعليمات أو تشغيل وكلاء آليين يتخذون قرارات تلقائية.

يمتد تأثير هذا الالتباس إلى الأنظمة المعتمدة على «الوكلاء الأذكياء» ما قد يضخّم الخطأ عبر سلاسل قرارات آلية متتابعة (شاترستوك)

قياس المشكلة بشكل منهجي

لفهم حجم هذه الظاهرة، طوّر فريق البحث إطاراً آلياً لاختبار تأثير الوجوه التعبيرية النصية على أداء النماذج. واعتمدوا على مجموعة بيانات تضم 3.757 حالة اختبار، ركزت في الغالب على سيناريوهات برمجية متعددة اللغات، حيث قد يؤدي سوء الفهم إلى أخطاء دقيقة ولكن مؤثرة.

حقائق

38 %

هو معدل تجاوز الخطأ الذي سجلته الاختبارات عند وجود رموز تعبيرية نصية رغم بساطة هذه الإشارات وشيوع استخدامها اليومي.

الفشل الصامت

النتيجة الأكثر إثارة للقلق في الدراسة ليست نسبة الخطأ بحد ذاتها، بل طبيعة هذه الأخطاء. فقد وجد الباحثون أن أكثر من 90 في المائة من حالات الإخفاق كانت «فشلاً صامتاً»؛ أي أن النموذج أنتج مخرجات تبدو صحيحة من حيث البنية أو الصياغة، لكنها تنفذ منطقاً مختلفاً عمّا قصده المستخدم.

في البرمجة، على سبيل المثال، قد يؤدي ذلك إلى شيفرة تعمل دون أخطاء، لكنها تنفذ وظيفة غير متوقعة. هذا النوع من الأخطاء يصعب اكتشافه؛ لأنه لا يولد تحذيرات مباشرة، وقد لا يظهر إلا بعد فترة طويلة، أو في ظروف تشغيل محددة.

تجاوز النماذج نفسها

لم تتوقف الدراسة عند اختبار النماذج اللغوية بشكل مباشر، بل امتدت إلى أنظمة قائمة على «الوكلاء» (agent - based frameworks) التي تعتمد على هذه النماذج كعقل مركزي لاتخاذ القرار. ووجد الباحثون أن الالتباس الدلالي ينتقل بسهولة إلى هذه الأنظمة المركبة، ما يعني أن الخطأ لا يبقى محصوراً في إجابة واحدة، بل قد يتضخم عبر سلسلة من القرارات الآلية. هذا الاكتشاف مهم في ظل التوجه المتسارع نحو استخدام وكلاء ذكيين لإدارة مهام معقدة، من أتمتة البرمجيات إلى تشغيل سلاسل عمل كاملة دون تدخل بشري مباشر.

لماذا تفشل الحلول الحالية؟

قد يبدو الحل بديهياً، وهو تعليم النموذج تجاهل الوجوه التعبيرية، أو إضافة تعليمات صريحة في المطالبات (prompts). لكن الدراسة تشير إلى أن هذه المعالجات السطحية ليست كافية. فحتى مع تعليمات إضافية، استمرت النماذج في الوقوع في الالتباس نفسه، ما يدل على أن المشكلة أعمق من مجرد «سوء صياغة» في الطلب.

يرجّح الباحثون أن جذور المشكلة تعود إلى بيانات التدريب نفسها، حيث لا يتم تمثيل الوجوه التعبيرية النصية بشكل متسق، أو يتم التعامل معها أحياناً على أنها ضوضاء لغوية. كما أن البنية الداخلية للنماذج قد لا تميز بوضوح بين الرمز بوصفه إشارة عاطفية أو عنصراً نحوياً أو جزءاً من شيفرة.

الدراسة: جذور المشكلة تعود إلى بيانات التدريب وبنية النماذج نفسها ما يستدعي اختبارات أمان أدق وتحسين تمثيل الإشارات اللغوية الصغيرة (أدوبي)

سلامة الذكاء الاصطناعي

تكشف هذه الدراسة عن جانب مهم من التحديات التي تواجه نشر نماذج الذكاء الاصطناعي في البيئات الواقعية. فالمخاطر لا تنشأ فقط من القرارات الكبرى أو المدخلات الخبيثة، بل قد تأتي من تفاصيل صغيرة ومألوفة ويومية. وفي سياق سلامة الذكاء الاصطناعي، يسلط البحث الضوء على الحاجة إلى اختبارات أكثر دقة، لا تكتفي بتقييم صحة الإجابة من حيث المضمون العام، بل تدرس مدى تطابقها مع نية المستخدم. كما يطرح تساؤلات حول مدى جاهزية هذه النماذج للتعامل مع اللغة كما تُستخدم فعلياً، لا كما تُكتب في الأمثلة المثالية.

الخطوة التالية

لا تقدم الدراسة حلولاً نهائية، لكنها ترسم خريطة واضحة للمشكلة، وتدعو إلى مزيد من البحث في كيفية تمثيل الرموز غير التقليدية داخل النماذج اللغوية. وقد يكون ذلك عبر تحسين بيانات التدريب أو تطوير آليات تفسير دلالي أدق أو دمج اختبارات أمان جديدة تركز على «الإشارات الصغيرة».

تهدف الدراسة إلى القول إن في عصر الذكاء الاصطناعي، لا توجد تفاصيل صغيرة حقاً. حتى رمز ابتسامة بسيط قد يحمل مخاطر أكبر مما نتخيل، إذا أسيء فهمه داخل عقل آلي يعتمد عليه البشر في قرارات متزايدة الحساسية.


تقنية توثيق بشرائح ذات بصمة مشتركة من دون خوادم خارجية

أظهر النموذج الأولي تطابقاً في البصمة بنسبة تفوق 98 % ما يضمن توثيقاً مستقراً وموثوقاً (شاترستوك)
أظهر النموذج الأولي تطابقاً في البصمة بنسبة تفوق 98 % ما يضمن توثيقاً مستقراً وموثوقاً (شاترستوك)
TT

تقنية توثيق بشرائح ذات بصمة مشتركة من دون خوادم خارجية

أظهر النموذج الأولي تطابقاً في البصمة بنسبة تفوق 98 % ما يضمن توثيقاً مستقراً وموثوقاً (شاترستوك)
أظهر النموذج الأولي تطابقاً في البصمة بنسبة تفوق 98 % ما يضمن توثيقاً مستقراً وموثوقاً (شاترستوك)

في عالم الأمن السيبراني تقوم الثقة غالباً على أسرار مخزنة في مكان آخر؛ قد تكون على خادم أو داخل ذاكرة محمية أو في قاعدة بيانات سحابية. لكن ماذا لو لم يكن من الضروري أن تغادر هذه الأسرار الشريحة الإلكترونية أساساً؟

طوّر مهندسون في معهد ماساتشوستس للتكنولوجيا (MIT) تقنية تصنيع تُمكّن شريحتين إلكترونيتين من توثيق بعضهما عبر «بصمة» مادية مشتركة، من دون الحاجة إلى تخزين بيانات تعريف حساسة على خوادم طرف ثالث. ويمكن لهذه المقاربة أن تعزز الخصوصية وتخفض استهلاك الطاقة والذاكرة المرتبط عادةً بالأنظمة التشفيرية التقليدية.

الأسرار المخزّنة خارج الشريحة

حتى عندما تُصمَّم شرائح «CMOS» لتكون متطابقة، فإنها تحتوي على اختلافات مجهرية طفيفة تنشأ بشكل طبيعي أثناء عملية التصنيع. هذه الاختلافات تمنح كل شريحة توقيعاً مادياً فريداً يُعرف باسم «الدالة الفيزيائية غير القابلة للاستنساخ» (PUF). ومثل بصمة الإصبع البشرية، يمكن استخدام هذه الدالة للتحقق من الهوية.

في الأنظمة التقليدية، عندما يتلقى الجهاز طلب توثيق، فإنه يولّد استجابة تعتمد على بنيته الفيزيائية. ويقارن الخادم هذه الاستجابة بقيمة مرجعية مخزنة مسبقاً للتأكد من صحة الجهاز. لكن هذه البيانات المرجعية يجب أن تُخزَّن في مكانٍ ما، وغالباً على خادم خارجي. وإذا تم اختراق ذلك الخادم، تصبح منظومة التوثيق بأكملها عرضة للخطر.

يقول يون سوك لي، طالب الدراسات العليا في الهندسة الكهربائية وعلوم الحاسوب في «MIT» والمؤلف الرئيسي للدراسة: «أكبر ميزة في هذه الطريقة الأمنية أننا لا نحتاج إلى تخزين أي معلومات. ستبقى كل الأسرار داخل السيليكون دائماً».

تعتمد التقنية على استغلال الاختلافات المجهرية الطبيعية في تصنيع شرائح «CMOS» لإنشاء بصمة غير قابلة للاستنساخ (MIT)

شريحتان ببصمة واحدة

للتغلب على الاعتماد على التخزين الخارجي، ابتكر فريق «MIT» طريقة لتصنيع شريحتين تتشاركان بصمة مدمجة واحدة؛ أي بصمة فريدة لهاتين الشريحتين فقط.

ويمكن فهم الفكرة عبر تشبيه بسيط: تخيّل ورقة تم تمزيقها إلى نصفين، الحواف الممزقة عشوائية وفريدة، ولا يمكن إعادة إنتاجها بدقة. ومع ذلك، فإن القطعتين تتطابقان تماماً؛ لأنهما تتشاركان نفس الحافة غير المنتظمة. طبّق الباحثون هذا المفهوم أثناء تصنيع أشباه الموصلات؛ إذ تُنتج عدة شرائح في الوقت نفسه على رقاقة سيليكون واحدة قبل فصلها. واستغل الفريق هذه المرحلة لإدخال «عشوائية مشتركة» بين شريحتين متجاورتين قبل تقطيعهما. يشرح لي: «كان علينا إيجاد طريقة لتنفيذ ذلك قبل مغادرة الشريحة المصنع، لتعزيز الأمان. فبمجرد دخول الشريحة في سلسلة التوريد، لا نعرف ما الذي قد يحدث لها».

هندسة العشوائية داخل السيليكون

لإنشاء البصمة المشتركة، استخدم الباحثون عملية تُعرف باسم «انهيار أكسيد البوابة» (Gate Oxide Breakdown)؛ إذ يتم تطبيق جهد كهربائي مرتفع على ترانزستورات محددة مع تسليط ضوء «LED» منخفض التكلفة عليها. وبسبب الفروقات المجهرية الطبيعية، ينهار كل ترانزستور في لحظة مختلفة قليلاً. تمثل حالة الانهيار هذه مصدر العشوائية التي تُبنى عليها البصمة الفيزيائية.

ولإنشاء بصمة مزدوجة، صمّم الفريق أزواجاً من الترانزستورات تمتد عبر شريحتين متجاورتين، مع ربطها بطبقات معدنية أثناء وجودها على الرقاقة نفسها. وعند حدوث الانهيار، تتطور خصائص كهربائية مترابطة بين الترانزستورات المرتبطة.

بعد ذلك، تُقطَّع الرقاقة بحيث تحصل كل شريحة على نصف زوج الترانزستورات، وبالتالي تحتفظ كل واحدة ببصمة مشتركة مع الأخرى. وبعد تحسين العملية، تمكّن الباحثون من إنتاج نموذج أولي لشريحتين متطابقتين أظهرتا تطابقاً في العشوائية بنسبة تفوق 98 في المائة، وهي نسبة كافية لضمان توثيق مستقر وآمن.

ويقول لي إنه «لم يتم نمذجة انهيار الترانزستورات بدقة في العديد من المحاكاة، لذلك كان هناك قدر كبير من عدم اليقين. تحديد جميع الخطوات وتسلسلها لإنتاج هذه العشوائية المشتركة هو جوهر الابتكار في هذا العمل». والأهم أن التقنية متوافقة مع عمليات تصنيع «CMOS» القياسية، ولا تتطلب مواد خاصة. كما أن استخدام مصابيح «LED» منخفضة التكلفة وتقنيات دوائر تقليدية يجعل تطبيقها على نطاق واسع أمراً عملياً.

يمكن أن تفيد التقنية الأجهزة منخفضة الطاقة مثل المستشعرات الطبية عبر توفير أمن أعلى بتكلفة طاقة أقل (شاترستوك)

أهمية خاصة للأجهزة منخفضة الطاقة

يمكن أن تكون هذه التقنية مفيدة بشكل خاص في الأنظمة التي تعمل بقيود طاقة صارمة؛ إذ تُعد الكفاءة والأمن أولوية في آن واحد. فعلى سبيل المثال، قد تستفيد كبسولات استشعار طبية قابلة للبلع متصلة برقعة تُرتدى على الجسم من هذا النهج؛ إذ يمكن للكبسولة والرقعة توثيق بعضهما مباشرة من دون الحاجة إلى خادم وسيط أو بروتوكولات تشفير معقدة تستهلك طاقة إضافية.

يعد أنانثا تشاندراكاسان، نائب رئيس «MIT» والمؤلف المشارك في الدراسة، أن «هناك طلباً متزايداً بسرعة على أمن الطبقة الفيزيائية للأجهزة الطرفية». ويضيف أن منهج البصمة المزدوجة «يتيح اتصالاً آمناً بين العقد من دون عبء بروتوكولات ثقيلة، ما يحقق كفاءة في الطاقة وأمناً قوياً في الوقت نفسه».

نحو ترسيخ الثقة في العتاد نفسه

لا يقتصر البحث على الحلول الرقمية فقط؛ إذ يستكشف الفريق أيضاً إمكان تطوير أشكال أكثر تعقيداً من «السرية المشتركة» تعتمد على خصائص تماثلية يمكن تكرارها مرة واحدة فقط.

ويرى روانان هان، أستاذ الهندسة الكهربائية وعلوم الحاسوب والمؤلف المشارك في الدراسة، أن هذه الخطوة تمثل محاولة أولية لتقليل المفاضلة بين الأمان وسهولة الاستخدام. ويقول: «إن إنشاء مفاتيح تشفير مشتركة داخل مصانع أشباه الموصلات الموثوقة قد يساعد على كسر المفاضلة بين تعزيز الأمان وتسهيل حماية نقل البيانات».

ومع تزايد انتشار الأجهزة المتصلة وتوسع الحوسبة الطرفية، قد يصبح دمج الثقة مباشرة في العتاد أمراً ضرورياً. فمن خلال ضمان بقاء الأسرار داخل السيليكون نفسه، تشير هذه التقنية إلى مستقبل يُبنى فيه التوثيق داخل الشريحة لا خارجها.


«إنستغرام» لتنبيه الآباء عند بحث المراهقين عن محتوى متعلق بالانتحار

إنستغرام سينبه أولياء الأمور إذا أجرى ​أبناؤهم ممن هم في سن المراهقة عمليات بحث متكررة عن مصطلحات مرتبطة بالانتحار أو إيذاء النفس (رويترز)
إنستغرام سينبه أولياء الأمور إذا أجرى ​أبناؤهم ممن هم في سن المراهقة عمليات بحث متكررة عن مصطلحات مرتبطة بالانتحار أو إيذاء النفس (رويترز)
TT

«إنستغرام» لتنبيه الآباء عند بحث المراهقين عن محتوى متعلق بالانتحار

إنستغرام سينبه أولياء الأمور إذا أجرى ​أبناؤهم ممن هم في سن المراهقة عمليات بحث متكررة عن مصطلحات مرتبطة بالانتحار أو إيذاء النفس (رويترز)
إنستغرام سينبه أولياء الأمور إذا أجرى ​أبناؤهم ممن هم في سن المراهقة عمليات بحث متكررة عن مصطلحات مرتبطة بالانتحار أو إيذاء النفس (رويترز)

أفاد تطبيق «إنستغرام» بأنه سيبدأ بتنبيه أولياء الأمور، إذا أجرى ​أبناؤهم، ممن هم في سن المراهقة، عمليات بحث متكررة عن مصطلحات مرتبطة بالانتحار أو إيذاء النفس، خلال فترة زمنية قصيرة، وذلك في وقت تتزايد فيه ‌الضغوط على الحكومات ‌لاعتماد قيود ​مشابهة لحظر ⁠أستراليا ​استخدام وسائل ⁠التواصل الاجتماعي لمن هم دون سن 16 عاماً.

ووفقاً لـ«رويترز»، قالت بريطانيا، في يناير (كانون الثاني)، إنها تدرس فرض قيود لحماية الأطفال عند اتصالهم بالإنترنت، ⁠بعد الخطوة التي اتخذتها ‌أستراليا، في ‌ديسمبر (كانون الأول). ​ وأعلنت إسبانيا واليونان ‌وسلوفينيا، في الأسابيع القليلة الماضية، ‌أنها تدرس أيضاً فرض قيود.

وذكر تطبيق «إنستغرام» المملوك لشركة «ميتا بلاتفورمز»، اليوم (الخميس)، أنه سيبدأ ‌في تنبيه أولياء الأمور المسجَّلين في إعدادات الإشراف الاختيارية، ⁠إذا ⁠حاول أطفالهم الوصول إلى محتوى يتعلق بالانتحار أو إيذاء النفس.

وتابعت المنصة في بيان: «تُضاف هذه التنبيهات إلى عملنا الحالي للمساعدة في حماية القصّر من المحتوى الضار المحتمل على (إنستغرام)... لدينا سياسات صارمة ضد المحتوى الذي ​يروج أو ​يشيد بالانتحار أو إيذاء النفس».