عبر الذكاء الاصطناعي... نموذج للترجمة من «غوغل» ينطق بصوت المستخدمhttps://aawsat.com/%D8%AA%D9%83%D9%86%D9%88%D9%84%D9%88%D8%AC%D9%8A%D8%A7/4423266-%D8%B9%D8%A8%D8%B1-%D8%A7%D9%84%D8%B0%D9%83%D8%A7%D8%A1-%D8%A7%D9%84%D8%A7%D8%B5%D8%B7%D9%86%D8%A7%D8%B9%D9%8A-%D9%86%D9%85%D9%88%D8%B0%D8%AC-%D9%84%D9%84%D8%AA%D8%B1%D8%AC%D9%85%D8%A9-%D9%85%D9%86-%C2%AB%D8%BA%D9%88%D8%BA%D9%84%C2%BB-%D9%8A%D9%86%D8%B7%D9%82-%D8%A8%D8%B5%D9%88%D8%AA-%D8%A7%D9%84%D9%85%D8%B3%D8%AA%D8%AE%D8%AF%D9%85
عبر الذكاء الاصطناعي... نموذج للترجمة من «غوغل» ينطق بصوت المستخدم
شعار غوغل (أ.ف.ب)
نيويورك:«الشرق الأوسط»
TT
نيويورك:«الشرق الأوسط»
TT
عبر الذكاء الاصطناعي... نموذج للترجمة من «غوغل» ينطق بصوت المستخدم
شعار غوغل (أ.ف.ب)
تفتح تكنولوجيا الذكاء الاصطناعي الباب أمام جيل جديد من تطبيقات الترجمة، في حين تنفذ خدمات الإنترنت والتكنولوجيا الأمريكية «غوغل» كسر حواجز اللغة من خلال نموذج جديد للذكاء الاصطناعي يستطيع التحدث باللغة الأجنبية بصوت المستخدم.
وكشفت «غوغل» عن نموذج «أوديو - بالم إيه.آي» للترجمة، يستطيع التعرف ومعالجة وإنتاج العبارات، سواء مكتوبة أو مسموعة، لكن الخاصية الأبرز هي أنه يستطيع استخدام صوت المستخدم عند نطق العبارات المترجمة إلى اللغة الأجنبية، حسب ما ذكرت وكالة الأنباء الألمانية.
وعرض خبراء «غوغل» نتائج المشروع في فيديو يحتوي على حوار بين مجموعة أشخاص يتحدثون بلغات مختلفة، حيث تتم ترجمة أحاديثهم إلى اللغة الإنجليزية بأصواتهم نفسها بسلاسة.
Google has introduced AudioPaLM, an innovative language model that can recognize speaker identity AND produce speech in multiple languages!This tech brings us closer to a future where AI speaks more like a real human. pic.twitter.com/CdmOEbpXp1
يأتي ذلك في الوقت الذي تراجعت فيه شعبية خدمة «ترجمة غوغل» أمام أدوات الترجمة المنافسة مثل «ديب إل» من حيث جودة الترجمة، لكن المطورين يقولون إن النموذج الجديد الذي تطوره «غوغل»، «يتفوق بشدة على الأنظمة الحالية للترجمة المسموعة».
ولا يحتاج المستخدم إلى استغراق وقت طويل لإعداد وتدريب مترجم الذكاء الاصطناعي لكي يتحدث بصوته، وإنما يحتاج إلى «توجيه مسموع مختصر» حتى يبدأ استخدام الخدمة.
ويجمع تطبيق الترجمة الجديد «أوديو - بالم» بين نموذج لغة الذكاء الاصطناعي المعروف باسم «بال» مع مولد الأصوات بالذكاء الاصطناعي «أوديو - إل.إم»، كما يستخدم النموذج «بالم» تطبيق محادثة «الذكاء الاصطناعي بارد» الذي طورته «غوغل».
وفي حين أن خدمة الترجمة الجديدة، تتيح للأشخاص الموجودين في أي تجمع تبادل الأحاديث بغض النظر عن اختلاف لغاتهم دون عناء، لكنهم سيضطرون إلى التوقف برهة بعد كل جملة حتى تتم ترجمة العبارة للباقين. كما أنه لا يوجد أي مؤشر حتى الآن على ما إذا كان يمكن استخدام تقنية «أوديو بالم» في خدمة «ترجمة غوغل» المتاحة حالياً.
طالب 3 أعضاء ديمقراطيين في مجلس الشيوخ الأميركي شركتي «أبل» و«غوغل» بإزالة منصة «إكس» وروبوت الدردشة الآلية «غروك» المدمج بها من متاجر التطبيقات الخاصة بهما.
ماذا يعني أن تصبح «سيري» شبيهة بـ«ChatGPT»؟https://aawsat.com/%D8%AA%D9%83%D9%86%D9%88%D9%84%D9%88%D8%AC%D9%8A%D8%A7/5232646-%D9%85%D8%A7%D8%B0%D8%A7-%D9%8A%D8%B9%D9%86%D9%8A-%D8%A3%D9%86-%D8%AA%D8%B5%D8%A8%D8%AD-%D8%B3%D9%8A%D8%B1%D9%8A-%D8%B4%D8%A8%D9%8A%D9%87%D8%A9-%D8%A8%D9%80chatgpt%D8%9F
تعمل «أبل» على إعادة تصميم «سيري» لتتحول من منفذة أوامر إلى مساعد حواري سياقي شبيه بـ«ChatGPT» (شاترستوك)
تستعد «سيري»، المساعد الصوتي من شركة «أبل»، لأكبر تحول في تاريخها منذ إطلاقها قبل أكثر من عقد. فحسب تقارير متطابقة من وسائل إعلام تقنية، تعمل «أبل» على إعادة تصميم «سيري» لتتحول من أداة تعتمد على الأوامر الصوتية البسيطة إلى مساعد حواري متقدم، قادر على إجراء محادثات سياقية طويلة، على غرار «شات جي بي تي» (ChatGPT) وغيره من روبوتات الدردشة التوليدية.
لطالما واجهت «سيري» انتقادات بسبب محدودية فهمها للغة الطبيعية مقارنة بمنافسين مثل مساعد «غوغل» ونماذج الذكاء الاصطناعي التوليدي الحديثة. ففي الوقت الذي أصبحت فيه روبوتات الدردشة قادرة على تلخيص المعلومات وشرح المفاهيم المعقدة، والتفاعل مع المستخدمين بسلاسة، بقيت «سيري» مرتبطة بمهام أساسية، مثل ضبط المنبهات أو فتح التطبيقات، مع تحسينات تدريجية لم تغيّر جوهر التجربة.
اليوم، يبدو أن «أبل» تعترف بأن هذا النهج لم يعد كافياً.
من الأوامر إلى الحوار
تُشير التقارير إلى أن «أبل» تعمل على تحويل «سيري» إلى مساعد حواري متكامل، يستطيع متابعة السياق والرد عبر الصوت أو النص، والتعامل مع الأسئلة المركبة بطريقة أكثر طبيعية. ويُمثل هذا التحول قطيعة مع التصميم التقليدي لـ«سيري»، الذي بُني أساساً على تنفيذ أوامر محددة بدلاً من إجراء حوار مفتوح.
ووفق ما نُشر، تعتمد «أبل» في هذه المرحلة على دمج تقنيات ذكاء اصطناعي توليدي متقدمة، من بينها نماذج مثل «جيميناي» من «غوغل» ضمن إطارها الخاص المعروف باسم «ذكاء أبل» (Apple Intelligence). ولا يعني ذلك التخلي عن تطويرها الداخلي، بل الاستفادة من أفضل النماذج المتاحة لتعزيز قدرات «سيري» اللغوية والحوارية. الهدف هو جعل التفاعل مع «سيري» أقرب إلى محادثة حقيقية، بدلاً من سلسلة أوامر منفصلة، وهو ما أصبح معياراً جديداً في عالم المساعدات الذكية.
«سيري» ستستفيد من «غوغل جيميناي» لتعزيز الحوار والسياق ضمن توجه «أبل» لمواكبة الذكاء الاصطناعي التفاعلي (شاترستوك)
استجابة متأخرة
يأتي هذا التحول فيما تتسارع المنافسة على الذكاء الاصطناعي الحواري، فقد اعتاد المستخدمون خلال العامين الماضيين أدوات قادرة على إنتاج نصوص وشرح أفكار والمساعدة في التخطيط واتخاذ القرار. وفي المقابل، بدا أن «أبل» تتحرك بوتيرة أبطأ، مع تركيز واضح على الخصوصية والاستقرار بدل السبق التقني.
ورغم أن الشركة بدأت سابقاً دمج «ChatGPT» خياراً مساعداً ضمن بعض ميزات «ذكاء أبل»، فإن هذه الخطوة أبرزت الفجوة بين «سيري» التقليدية وتجربة الدردشة التوليدية الحديثة. ومع تزايد الاعتماد اليومي على هذه الأدوات، بات من الصعب على «أبل» تجاهل التحول الجاري في طريقة تفاعل المستخدمين مع التقنية.
الخصوصية في التصميم
على عكس بعض المنافسين، لا يبدو أن «أبل» تسعى إلى تحويل «سيري» إلى مجرد واجهة لخدمة سحابية خارجية، فالتقارير تشير إلى أن جزءاً كبيراً من المعالجة سيجري على الجهاز نفسه أو عبر خوادم خاضعة لسيطرة «أبل»، بما ينسجم مع سياستها التقليدية في تقليل جمع البيانات وحماية خصوصية المستخدم. هذا التوازن بين القدرات المتقدمة والخصوصية قد يكون العامل الفارق في تجربة «سيري» الجديدة، لكنه في الوقت نفسه يفرض قيوداً تقنية قد تؤثر في سرعة التطوير مقارنة بمنافسين يعتمدون بشكل أوسع على الحوسبة السحابية.
«سيري» الجديدة تستهدف التكامل العميق مع النظام لفهم ما على الشاشة وربط التطبيقات وتنفيذ مهام متعددة بطلب واحد (شاترستوك)
أكثر من دردشة
ولا يقتصر طموح «أبل» على جعل «سيري» أكثر بلاغة فحسب، بل على جعلها أكثر فاعلية، فالتقارير تُشير إلى أن النسخة الجديدة ستكون قادرة على فهم ما يجري على شاشة الجهاز، وربط المعلومات بين التطبيقات، وتنفيذ مهام متعددة بناءً على طلب واحد بلغة طبيعية. بهذا المعنى، لا تسعى «أبل» إلى تقديم «روبوت دردشة» فقط، بل إلى مساعد ذكي قادر على التحرك داخل النظام، وإدارة المهام اليومية، والتفاعل مع محتوى المستخدم وسياقه. وهذا يعكس توجهاً أوسع في صناعة التقنية نحو ما يُعرف بـ«الذكاء القابل للتنفيذ»؛ حيث لا يكتفي النظام بالإجابة بل يتخذ إجراءً.
ماذا يعني ذلك للمستخدمين؟
من المتوقع أن تكشف «أبل» عن ملامح هذا التحول خلال مؤتمرها السنوي للمطورين في شهر يونيو (حزيران) المقبل، على أن تُطرح التجربة الجديدة ضمن الإصدارات المقبلة من أنظمة «iOS» و«macOS» و«iPadOS». وإذا نجحت الشركة في تنفيذ رؤيتها، فقد تصبح «سيري» جزءاً أكثر مركزية في الحياة الرقمية اليومية لمستخدمي أجهزة «أبل».
لكن التحدي لا يزال قائماً، فالمستخدمون الذين اعتادوا مرونة وسرعة أدوات مثل «ChatGPT» ستكون لديهم توقعات عالية. وسيُقاس نجاح «سيري» الجديدة بمدى قدرتها على الجمع بين الحوار العميق، والتنفيذ العملي، والخصوصية من دون التضحية بتجربة الاستخدام.
روبوتات تفكر وتتحرك: ما الذي يميّز «Rho-Alpha» من «مايكروسوفت»؟https://aawsat.com/%D8%AA%D9%83%D9%86%D9%88%D9%84%D9%88%D8%AC%D9%8A%D8%A7/5232449-%D8%B1%D9%88%D8%A8%D9%88%D8%AA%D8%A7%D8%AA-%D8%AA%D9%81%D9%83%D8%B1-%D9%88%D8%AA%D8%AA%D8%AD%D8%B1%D9%83-%D9%85%D8%A7-%D8%A7%D9%84%D8%B0%D9%8A-%D9%8A%D9%85%D9%8A%D9%91%D8%B2-rho-alpha-%D9%85%D9%86-%D9%85%D8%A7%D9%8A%D9%83%D8%B1%D9%88%D8%B3%D9%88%D9%81%D8%AA%D8%9F
روبوتات تفكر وتتحرك: ما الذي يميّز «Rho-Alpha» من «مايكروسوفت»؟
نموذج «Rho-Alpha» يدمج الرؤية واللغة والفعل في إطار تعلم واحد ما يمكّن الروبوتات من التفاعل مع العالم المادي بمرونة أعلى (مايكروسوفت)
يشهد الذكاء الاصطناعي تقدماً سريعاً في فهم اللغة والصور، إلا أن تحويل هذا الذكاء إلى أفعال ملموسة في العالم الحقيقي لا يزال أحد أكثر التحديات تعقيداً في مجال الحوسبة. وفي هذا السياق، تخطو أبحاث «مايكروسوفت» خطوة مهمة نحو سد هذه الفجوة، من خلال الكشف عن أعمال جديدة تهدف إلى تمكين الروبوتات من الإدراك والتفكير والتنفيذ بفاعلية أكبر داخل البيئات المادية الديناميكية.
وفي صميم هذا التوجه يأتي نموذج جديد يُعرف باسم «Rho-Alpha»، وهو نموذج يجمع بين الرؤية واللغة والفعل، ويهدف إلى مساعدة الروبوتات على تجاوز السلوكيات المبرمجة مسبقاً، والعمل بدرجة أعلى من الاستقلالية. ويعكس هذا النموذج طموح «مايكروسوفت» الأوسع في تطوير أنظمة ذكاء اصطناعي لا تكتفي بفهم المعلومات الرقمية، بل قادرة أيضاً على التفاعل مع العالم الفيزيائي بطرق أكثر مرونة وواقعية.
دمج الإدراك والفعل
على عكس الأنظمة الروبوتية التقليدية التي تعتمد على سلاسل هندسية منفصلة حيث تُعالج الرؤية والتخطيط والتحكم كوحدات مستقلة، يدمج نموذج «Rho-Alpha» هذه القدرات ضمن إطار تعلم واحد. ويتم تدريب النموذج على تحليل المدخلات البصرية، وفهم التعليمات باللغة الطبيعية، وتوليد أفعال جسدية مناسبة، ما يسمح للروبوتات بالاستجابة بسلاسة أكبر للمهام المعقدة.
ويعالج هذا النهج أحد التحديات المزمنة في عالم الروبوتات، المعروف بمشكلة «الميل الأخير». فعلى الرغم من قدرة نماذج الذكاء الاصطناعي على التعرف على الأشياء أو تنفيذ أوامر محددة، فإنها غالباً ما تفشل عند حدوث تغييرات غير متوقعة في البيئة. فاختلاف بسيط في الإضاءة أو موقع الأجسام أو سلوك البشر قد يؤدي إلى تعطل الأنظمة التقليدية. وتسعى أبحاث «مايكروسوفت» إلى جعل الروبوتات أكثر قدرة على التكيف من خلال ربط قراراتها بالسياق الواقعي بدلاً من القواعد الجامدة.
تعلم يتجاوز المختبر
يستند نموذج «Rho-Alpha» إلى التطورات الحديثة في النماذج التأسيسية، مستفيداً من مفاهيم النماذج اللغوية الضخمة والأنظمة متعددة الوسائط، مع تكييفها لمتطلبات التفاعل المادي. وبدلاً من تعلم المهام بشكل منفصل، يستطيع النموذج التعميم عبر سيناريوهات مختلفة، ما يمكّن الروبوتات من التعامل مع أشياء أو تعليمات لم تُصادفها صراحة أثناء التدريب. وتُعد هذه القدرة أساسية لنشر الروبوتات خارج المختبرات والبيئات الخاضعة للتحكم. وتصف أبحاث «مايكروسوفت» هذا العمل بأنه جزء من رؤية أوسع لما يُعرف بـ«الذكاء الاصطناعي المتجسد»، حيث يتشكل الذكاء ليس فقط من البيانات، بل من التفاعل المباشر مع العالم المادي. وفي هذا الإطار، تصبح الرؤية والفعل عنصرين متلازمين، ما يسمح للآلات بالتعلم من التجربة بأسلوب أقرب إلى السلوك البشري.
آفاق التطبيق العملي
تتعدد التطبيقات المحتملة لهذه التقنيات عبر قطاعات مختلفة. ففي البيئات الصناعية، يمكن للروبوتات الأكثر مرونة دعم مهام التصنيع والخدمات اللوجيستية التي تتطلب إعادة تهيئة مستمرة. أما في مجالات الرعاية الصحية والخدمات، فقد تساعد هذه الأنظمة في تنفيذ أنشطة يومية تتطلب تفاعلاً مباشراً مع البشر وبيئات غير متوقعة. ورغم أن «مايكروسوفت» لم تعلن عن منتجات تجارية قائمة على «Rho-Alpha»، فإن هذا البحث يسلط الضوء على قدرات أساسية قد تُمهّد لتطبيقات مستقبلية.
تؤكد «مايكروسوفت» أن التقدم في مجال الذكاء الاصطناعي للعالم المادي لا يقتصر على الأداء التقني فحسب، بل يشمل أيضاً اعتبارات السلامة والموثوقية ومواءمة الأنظمة مع النيات البشرية. فالروبوتات ذاتية التشغيل يجب أن تكون قادرة على فهم التعليمات بدقة، والتعامل مع الحالات الاستثنائية، خصوصاً في البيئات المشتركة مع البشر. لذلك، لا تركز الأبحاث على تعزيز القدرات فقط، بل أيضاً على المتانة والتصميم المسؤول.
يعتمد النموذج على مفهوم الذكاء الاصطناعي المتجسّد حيث يتعلم الروبوت من التجربة المباشرة والتفاعل مع البيئة كما يفعل البشر (مايكروسوفت)
من الذكاء إلى الفعل
يعكس إطلاق نموذج «Rho-Alpha» تحولاً أوسع في صناعة التكنولوجيا. فمع تزايد قدرات الذكاء الاصطناعي في السياقات الرقمية، يتجه الاهتمام تدريجياً نحو كيفية تجسيد هذه القدرات في آلات تعمل في العالم الحقيقي. ويطرح هذا التحول أسئلة جديدة حول جمع البيانات والمحاكاة وطرق التقييم، نظراً لأن البيئات المادية أقل قابلية للتنبؤ مقارنة بالبيئات الافتراضية.
وتشير أبحاث «مايكروسوفت» إلى أن المرحلة المقبلة من تطور الذكاء الاصطناعي لن تُقاس فقط بذكاء النماذج، بل بقدرتها على تحويل هذا الذكاء إلى أفعال ملموسة. ومن خلال توحيد الرؤية واللغة والتحكم ضمن إطار واحد، يمثل نموذج «Rho-Alpha» محطة بحثية مهمة في مسار جعل الذكاء الاصطناعي أكثر حضوراً وفاعلية خارج نطاق الشاشات والخوادم.
ومع تلاشي الحدود بين الذكاء الرقمي والأنظمة المادية، قد تُسهم مثل هذه التطورات في إعادة تشكيل طريقة تعاون الروبوتات مع البشر عبر مختلف القطاعات، في تحول تدريجي من آلات مبرمجة إلى شركاء أكثر وعياً بالسياق وقدرة على التكيف مع العالم الحقيقي.
تقارير: هل سيعتمد أول جهاز استهلاكي من «أوبن إيه آي» على الصوت؟https://aawsat.com/%D8%AA%D9%83%D9%86%D9%88%D9%84%D9%88%D8%AC%D9%8A%D8%A7/5232276-%D8%AA%D9%82%D8%A7%D8%B1%D9%8A%D8%B1-%D9%87%D9%84-%D8%B3%D9%8A%D8%B9%D8%AA%D9%85%D8%AF-%D8%A3%D9%88%D9%84-%D8%AC%D9%87%D8%A7%D8%B2-%D8%A7%D8%B3%D8%AA%D9%87%D9%84%D8%A7%D9%83%D9%8A-%D9%85%D9%86-%D8%A3%D9%88%D8%A8%D9%86-%D8%A5%D9%8A%D9%87-%D8%A2%D9%8A-%D8%B9%D9%84%D9%89-%D8%A7%D9%84%D8%B5%D9%88%D8%AA%D8%9F
تقارير: هل سيعتمد أول جهاز استهلاكي من «أوبن إيه آي» على الصوت؟
الجهاز المرتقب قد يعمل بلا شاشة معتمداً على الحوار الصوتي باعتباره نموذجاً جديداً للحوسبة اليومية (شاترستوك)
قد تكون شركة «أوبن إيه آي» بصدد الاستعداد لدخول سوق الأجهزة الاستهلاكية للمرة الأولى، وفقاً لتقرير يشير إلى أن الشركة تعمل على تطوير جهاز جديد مدعوم بالذكاء الاصطناعي، مع تركيز واضح على التفاعل الصوتي. ورغم محدودية التفاصيل المتاحة حتى الآن، يوصف المشروع بأنه خروج عن النماذج التقليدية المعتمدة على الشاشات والهواتف الذكية، لصالح نموذج حوسبة قائم على الصوت.
ويُقال إن الجهاز، الذي لا يزال غير رسمي ويُوصف بأنه «غامض»، يتم تطويره بالتعاون مع جوني آيف، الرئيس السابق للتصميم في شركة «أبل». ويُنظر إلى هذه الشراكة، التي جرى الإعلان عنها سابقاً، على أنها محاولة لإعادة التفكير في كيفية تفاعل المستخدمين مع الذكاء الاصطناعي خارج إطار التطبيقات والأجهزة التقليدية.
الصوت أولاً
بدلاً من أن يشبه هاتفاً ذكياً أو جهازاً لوحياً، يُعتقد أن المنتج يعتمد على الصوت بوصفه واجهة التفاعل الأساسية، وقد يأتي على شكل جهاز قابل للارتداء أو أداة محمولة باليد، وذلك وفقاً لتقرير نشره موقع «ITHome» نقلاً عن صحيفة «إيكونوميك ديلي نيوز» التايوانية، في حين لم تؤكد «أوبن إيه آي» بعد الشكل النهائي للجهاز، كما لم تعلن عن موعد لإطلاقه.
ويبدو أن الطموح الأساسي وراء هذا المشروع يتمثل في ابتكار جهاز يتيح للمستخدمين التفاعل مع الذكاء الاصطناعي بطريقة أكثر طبيعية، من خلال الحوار والمحادثة، بدلاً من الاعتماد على الشاشات أو لوحات المفاتيح أو الواجهات اللمسية. ويتماشى هذا التوجه مع سعي «أوبن إيه آي» الأوسع لجعل أنظمة الذكاء الاصطناعي أكثر بساطة واندماجاً في الحياة اليومية.
ويمثل هذا الجهاز المحتمل أول خطوة كبيرة لـ«أوبن إيه آي» خارج نطاق البرمجيات والخدمات السحابية. فحتى الآن، ركزت الشركة على تطوير نماذج لغوية ضخمة، وإتاحتها عبر منصات مثل «تشات جي بي تي» وواجهات برمجية يستخدمها المطورون والشركات. أما الانتقال إلى مجال الأجهزة، فسيعني توسيعاً ملحوظاً لدورها داخل منظومة الذكاء الاصطناعي.
وقد شهدت الأجهزة المعتمدة على التفاعل الصوتي اهتماماً متزايداً في قطاع التكنولوجيا، مدفوعاً بالتقدم في تقنيات التعرف على الصوت، ومعالجة اللغة الطبيعية، والاستدلال الفوري. ورغم الانتشار الواسع للمساعدات الصوتية، فإن معظمها لا يزال مرتبطاً بالهواتف الذكية أو السماعات الذكية. وقد يتيح جهاز مخصص للذكاء الاصطناعي تجربة أكثر استمرارية وتخصيصاً، لكنه في الوقت نفسه يثير تساؤلات تتعلق بالخصوصية والدقة وثقة المستخدمين.
المشروع يُعد رهاناً طويل الأمد على «الحوسبة المحيطة» حيث تصبح التقنية غير مرئية لكنها حاضرة دائماً (شاترستوك)
رهان طويل الأمد
كما أسهمت مشاركة جوني آيف في تسليط مزيد من الضوء على المشروع؛ نظراً لتاريخه في تصميم منتجات استهلاكية مؤثرة وواسعة الانتشار. ويُذكر أن شركته للتصميم تعمل مع «أوبن إيه آي» على تصورات لأجهزة جديدة تهدف إلى تجاوز الفئات التقليدية، مع تأكيد الطرفين أن العمل لا يزال في مرحلة استكشافية.
وبحسب التقرير، وصف مسؤولو «أوبن إيه آي» هذا الجهاز داخلياً بأنه مبادرة طويلة الأمد، وليس منتجاً وشيك الإطلاق. ويشير ذلك إلى أن الشركة لا تزال تختبر كيفية عمل الأجهزة المصممة أساساً للذكاء الاصطناعي، ومدى جاهزية المستهلكين لتبني نموذج جديد من التفاعل.
وفي حال تحقق هذا المشروع، فقد يضع «أوبن إيه آي» ضمن اتجاه أوسع نحو ما يُعرف بالحوسبة المحيطة، حيث تعمل التكنولوجيا في الخلفية وتستجيب للمستخدم عبر الصوت والسياق. ومع ذلك، يبقى نجاح مثل هذا الجهاز على نطاق واسع أمراً غير محسوم، خاصة في سوق مزدحمة بالأجهزة الذكية التي لم تحقق جميعها توقعات المستخدمين.
وفي الوقت الراهن، تعكس مساعي «أوبن إيه آي» في مجال الأجهزة اتجاهاً أوسع في صناعة الذكاء الاصطناعي. فمع ازدياد قدرات النماذج الذكية، قد لا تكون المنافسة المستقبلية محصورة في مستوى الذكاء فحسب، بل في الأجهزة والواجهات التي يختبر المستخدمون من خلالها هذه التقنيات.