«ساس»: 2026 عام الاختبار الحقيقي لصناعة الذكاء الاصطناعي

نتائج ملموسة بدل الوعود… وانضباط بدل الاندفاع

يشير تقرير «ساس» إلى أن عام 2026 سيكون عام الاختبار الحقيقي لصناعة الذكاء الاصطناعي بعد سنوات من الاندفاع والمبالغة (غيتي)
يشير تقرير «ساس» إلى أن عام 2026 سيكون عام الاختبار الحقيقي لصناعة الذكاء الاصطناعي بعد سنوات من الاندفاع والمبالغة (غيتي)
TT

«ساس»: 2026 عام الاختبار الحقيقي لصناعة الذكاء الاصطناعي

يشير تقرير «ساس» إلى أن عام 2026 سيكون عام الاختبار الحقيقي لصناعة الذكاء الاصطناعي بعد سنوات من الاندفاع والمبالغة (غيتي)
يشير تقرير «ساس» إلى أن عام 2026 سيكون عام الاختبار الحقيقي لصناعة الذكاء الاصطناعي بعد سنوات من الاندفاع والمبالغة (غيتي)

مع اقتراب نهاية 2025، يبدو مشهد الذكاء الاصطناعي العالمي وكأنه يقف على مفترق طرق حساس. فبين نجاحات سريعة وتطبيقات مذهلة، تتزايد الشكوك حول استدامة النمو، وتظهر تساؤلات صعبة حول فقاعة محتملة، وأزمات طاقة تلوح في الأفق، ومشاريع ذكاء اصطناعي توليدي لم تحقق النتائج التي وُعد بها المستثمرون. وفي هذا السياق، تقدّم شركة «ساس» رؤية متوازنة لعام 2026، الذي تعتبره عاماً ستضع فيه الصناعة نفسها تحت الاختبار الحقيقي.

الشركة ترى أن المستقبل ليس مظلماً، لكنه يتطلب وللمرة الأولى انضباطاً حقيقياً ومسؤولية مشتركة بين قادة البيانات والمطوّرين والشركات. وفي هذا الجانب، يلخص جيريد بيترسون نائب الرئيس الأول لهندسة المنصات المزاج العام بقوله إن «عام 2026 سيُظهر بوضوح أن مراكز البيانات الضخمة ليست حلاً اقتصادياً دائماً، وأن الصناعة بحاجة إلى التفكير بمرونة أكبر».

«ساس»: سيشهد عام 2026 تحولاً جذرياً في دور الوكلاء الذكيين داخل المؤسسات حيث سيصبحون جزءاً أساسياً من فرق العمل وليس مجرد أدوات (شاترستوك)

انتهاء مرحلة الحماس غير المشروط

بعد سنوات من الاندفاع نحو الذكاء الاصطناعي التوليدي، يؤكد التقرير أن 2026 سيكون عام «النتائج الواقعية». لم يعد الإنفاق على المشاريع الضخمة يُبرّر بالقول إنها «استثمار في المستقبل». الآن، سيطلب المديرون الماليون قياساً واضحاً للعوائد، خاصة بعد مبالغ طائلة ضُخت في منتجات مشابهة لـ«شات جي بي تي» (ChatGPT) دون نتائج ملموسة. ولتأكيد هذا التحول، تقول مانيشا خانا، مديرة أولى للمنتجات في الذكاء الاصطناعي إن «الحديث عن الابتكار لا يكفي... يجب أن تُثبت هذه المشاريع أنها توفر وفورات أو تزيد الإيرادات خلال 6 إلى 12 شهراً فقط».

وكلاء الذكاء الاصطناعي

عام 2026 سيشهد نقلة من استخدام الذكاء الاصطناعي كأداة إلى دمجه كجزء عضوي من فرق العمل. وكلاء الذكاء الاصطناعي الذين يستطيعون التعلم والتنفيذ واتخاذ قرارات مستقلة لن يكونوا في الهامش بعد الآن.

ويشير أودو سقالفو، نائب رئيس تطبيقات الذكاء الاصطناعي، عن هذا التحول قائلاً إن «المنظمات ستعمل بفرق مختلطة من البشر والوكلاء... ليس كطرف مساند، بل كشركاء قادرين على فهم السياق وتنفيذ المهام بموثوقية». يوضح هذا الاقتباس أن التحول لا يتعلق بالتكنولوجيا فقط، بل بالثقافة التنظيمية نفسها.

يبرز التقرير مخاوف كبيرة حول استهلاك الطاقة المتزايد لمراكز البيانات ما قد يهدد القدرة العالمية على مواكبة سباق الذكاء الاصطناعي (شاترستوك)

زمن التوازن الدقيق

مع تسارع القوانين الحكومية حول الذكاء الاصطناعي، ستحتاج الشركات إلى تطوير أنظمة حوكمة ذاتية. لن يكفي الامتثال للقوانين فقط، بل سيصبح «السلوك المسؤول» أحد المعايير التنافسية. ويضيف ريجي تاونسند نائب رئيس أخلاقيات البيانات رؤية مهمة «بأن النجاح في 2026 لن يكون لمن يتبنى الذكاء الاصطناعي أولاً، بل لمن يفهم أن الحوكمة ليست عائقاً... بل عنصراً أساسياً للابتكار المستدام». ينسجم هذا التصريح مع جوهر التقرير الذي يؤكد أن الانضباط سيحدد الفائزين الحقيقيين.

تحديات الطاقة... والتنافس العالمي

يبرز في التقرير تحذير حاد حول مستقبل الطاقة؛ إذ تتوقع «ساس» أن النمو الحالي غير مستدام. الطلب المتصاعد على الطاقة لتشغيل مراكز البيانات قد يهدد قدرة بعض الدول، خاصة الولايات المتحدة، على المنافسة في سباق الذكاء الاصطناعي. هذا البعد الجيوسياسي يجعل عام 2026 أكثر حساسية، ويكشف أن مستقبل الذكاء الاصطناعي ليس تقنياً فقط بل اقتصادياً وطاقوياً أيضاً.

التقرير يتوقع أيضاً توسعاً في مجال الحوسبة الكمية، ونضجاً ملموساً في استخدام البيانات الاصطناعية كـ«وقود بديل» لنماذج الذكاء الاصطناعي، إضافة إلى ازدياد الطلب على هياكل ذكاء اصطناعي سيادية تمنح الشركات والحكومات سيطرة أكبر على البيانات والبنية التحتية.

ما بين كل هذه التوقعات، من إعادة تقييم الاستثمارات، إلى صعود وكلاء الذكاء الاصطناعي، إلى أزمات الطاقة، إلى تحولات الحوكمة، تتفق «ساس» على نقطة واحدة؛ أن عام 2026 سيكون امتحاناً شاملاً للصناعة. تقول الشركة إن موجة المبالغة التي رافقت الذكاء الاصطناعي خلال عامي 2023 و2024 ستتراجع، وإن ما سيصمد هو الابتكار المسؤول القادر على تحقيق نتائج قابلة للقياس.


مقالات ذات صلة

البرلمان الأوروبي يحظر أدوات ذكاء اصطناعي «تعرّي» أشخاصاً

تكنولوجيا شعار روبوت الدردشة «غروك» يظهر على شاشتين (أ.ف.ب)

البرلمان الأوروبي يحظر أدوات ذكاء اصطناعي «تعرّي» أشخاصاً

أقرّ البرلمان الأوروبي، الخميس، قانوناً يحظّر استخدام الذكاء الاصطناعي لـ«تعرية» الأشخاص من دون موافقتهم.

«الشرق الأوسط» (بروكسل)
تكنولوجيا تجمع الشراكة بين البنية التحتية والنماذج لدى «هيوماين» وخبرة «Turing» في تطوير وتقييم أنظمة الذكاء الاصطناعي (هيوماين)

«هيوماين» و«Turing» تطلقان سوقاً عالمية لوكلاء الذكاء الاصطناعي للمؤسسات

«هيوماين» و«Turing» تطلقان سوقاً لوكلاء الذكاء الاصطناعي لتمكين المؤسسات من تشغيل مهامها عبر وكلاء أذكياء بدل البرمجيات التقليدية.

نسيم رمضان (لندن)
علوم صورة من موقع شركة «آيبر» يظهر فيها عمل النظام الروبوتي المزدوج لتنظيف المسبح من السطح إلى الجدران إلى القاع

نظام روبوتي ذكي مزدوج لتنظيف المسابح

يعمل بشكل ذاتي من السطح إلى القاع بتغطية شاملة

غريغ إيلمان (واشنطن)
تكنولوجيا تلعب طريقة عرض المعلومات وسردها دوراً أساسياً في تشكيل الفهم وليس فقط مضمونها (شاترستوك)

دراسة تبحث: هل يغيّر الذكاء الاصطناعي طريقة تفكيرنا رغم صحة المعلومات؟

دراسة تظهر أن الذكاء الاصطناعي يؤثر في الآراء عبر طريقة عرض المعلومات حتى عندما تكون الحقائق صحيحة وغير مضللة.

نسيم رمضان (لندن)
تكنولوجيا رئيس شركة «أبل» تيم كوك خلال أحد المؤتمرات السنوية للشركة (إ.ب.أ)

«أبل» في عامها الخمسين… قصة شركة أعادت تشكيل التكنولوجيا العالمية

مسيرة «أبل» خلال 50 عاماً تعكس قدرة استثنائية على الابتكار وإعادة الابتكار، من مرآب صغير إلى شركة أعادت تشكيل التكنولوجيا العالمية.

نسيم رمضان (لندن)

النمسا تعتزم حظر استخدام وسائل التواصل الاجتماعي للأطفال تحت سن 14 عاماً

استخدام وسائل التواصل الاجتماعي بكثرة قد يؤثر على الحياة اليومية (رويترز)
استخدام وسائل التواصل الاجتماعي بكثرة قد يؤثر على الحياة اليومية (رويترز)
TT

النمسا تعتزم حظر استخدام وسائل التواصل الاجتماعي للأطفال تحت سن 14 عاماً

استخدام وسائل التواصل الاجتماعي بكثرة قد يؤثر على الحياة اليومية (رويترز)
استخدام وسائل التواصل الاجتماعي بكثرة قد يؤثر على الحياة اليومية (رويترز)

أعلن الائتلاف الحاكم في النمسا، اليوم الجمعة، عن خطط لحظر استخدام وسائل التواصل الاجتماعي للأطفال تحت سن 14 عاماً، لتنضم إلى سلسلة من الدول الأخرى في فرض مثل هذه القيود على الصغار.

وقال ألكسندر برول، مسؤول شؤون الرقمنة في مكتب المستشار النمساوي كريستيان شتوكر، إنه سوف يتم طرح مشروع قانون بهذا الشأن بحلول نهاية يونيو (حزيران) المقبل.

وأضاف أن «الأساليب الحديثة تقنياً للتحقق من العمر سوف تطبق للسماح بالتحقق من أعمار المستخدمين مع احترام خصوصيتهم».

ولم يتضح على الفور الموعد الذي ربما تدخل فيه الخطة لتحديد الحد الأدنى للعمر حيز التنفيذ والتي ستحتاج إلى موافقة برلمانية.

العديد من الدول تعتزم حظر وصول الأطفال دون سن الـ16 لوسائل التواصل الاجتماعي (رويترز)

يشار إلى أن أستراليا أخذت بزمام المبادرة في هذا الصدد عام 2024، لتصبح أول دولة تحظر استخدام الأطفال تحت سن 16 عاماً وسائل التواصل الاجتماعي بغرض حمايتهم من المحتوى الضار والإفراط في استخدام الشاشات، ومن المقرر سريان حظر مماثل في إندونيسيا غداً السبت.


«أبل» تعتزم فتح «سيري» أمام خدمات الذكاء الاصطناعي المنافِسة

يظهر شعار شركة «أبل» على مبنى في حي مانهاتن بمدينة نيويورك الأميركية (د.ب.أ)
يظهر شعار شركة «أبل» على مبنى في حي مانهاتن بمدينة نيويورك الأميركية (د.ب.أ)
TT

«أبل» تعتزم فتح «سيري» أمام خدمات الذكاء الاصطناعي المنافِسة

يظهر شعار شركة «أبل» على مبنى في حي مانهاتن بمدينة نيويورك الأميركية (د.ب.أ)
يظهر شعار شركة «أبل» على مبنى في حي مانهاتن بمدينة نيويورك الأميركية (د.ب.أ)

ذكرت «بلومبيرغ نيوز»، اليوم الخميس، أن «أبل» تخطط لفتح مساعدها الصوتي «سيري» أمام خدمات ​الذكاء الاصطناعي المنافِسة، بما يتجاوز شراكتها الحالية مع «تشات جي بي تي».

وقالت الوكالة، في تقريرها الذي نقلته عن مصادر مطّلعة، إن هذه الخطوة، المتوقعة ضِمن تحديث نظام التشغيل «آي أو إس 27» من «أبل»، ستسمح لتطبيقات الذكاء الاصطناعي التابعة لجهات خارجية بالاندماج مباشرة مع «سيري»، مما يمكّن المستخدمين من توجيه الاستفسارات إلى خدمات مثل «جيميناي» التابعة لشركة «ألفابت»، أو «كلود» التابعة لشركة «أنثروبيك» من داخل المساعد.

وهذا التغيير تحول مهم في استراتيجية «أبل» للذكاء الاصطناعي، إذ تسعى الشركة إلى اللحاق بركب نظيراتها في وادي السيليكون، ووضع «آيفون» كمنصة أوسع للذكاء الاصطناعي.

و«سيري»، الذي أُطلق لأول مرة منذ أكثر من عقد، عنصر أساسي في هذا المسعى. وأفادت «بلومبيرغ نيوز» بأن «أبل» تُطور أدوات تسمح لتطبيقات روبوتات الدردشة المثبتة عبر متجر التطبيقات الخاص بها بالعمل مع «سيري» وميزات أخرى ضِمن منصة «أبل إنتليجنس». وسيتمكن المستخدمون من اختيار خدمة الذكاء الاصطناعي التي تتولى معالجة كل طلب.

وذكر التقرير أن هذا التحديث قد يساعد «أبل» أيضاً على تحقيق مزيد من الإيرادات من خلال الحصول على حصة من الاشتراكات المبيعة عبر خدمات الذكاء الاصطناعي التابعة لجهات خارجية.

ومن المتوقع أن تستعرض «أبل» ميزات البرنامج الجديدة في مؤتمر المطورين العالمي الذي تعقده في يونيو (حزيران) المقبل، غير أن الخطط قد تتغير.


البرلمان الأوروبي يحظر أدوات ذكاء اصطناعي «تعرّي» أشخاصاً

شعار روبوت الدردشة «غروك» يظهر على شاشتين (أ.ف.ب)
شعار روبوت الدردشة «غروك» يظهر على شاشتين (أ.ف.ب)
TT

البرلمان الأوروبي يحظر أدوات ذكاء اصطناعي «تعرّي» أشخاصاً

شعار روبوت الدردشة «غروك» يظهر على شاشتين (أ.ف.ب)
شعار روبوت الدردشة «غروك» يظهر على شاشتين (أ.ف.ب)

أقرّ البرلمان الأوروبي، الخميس، قانوناً يحظّر استخدام الذكاء الاصطناعي لـ«تعرية» الأشخاص من دون موافقتهم.

وتمّ تبني القرار في نصّ أُقرّ بأغلبية ساحقة (569 صوتاً مقابل 45 صوتاً معارضاً) خلال جلسة عامة للبرلمان في بروكسل، وفقاً لـ«وكالة الصحافة الفرنسية».

وأوضح بيان صادر عن البرلمان أن الأمر يتعلّق بحظر برامج «التعرية» التي «تستخدم الذكاء الاصطناعي لإنشاء أو التلاعب بصور ذات إيحاءات جنسية واضحة، أو صور في وضع حميم تشبه شخصاً حقيقياً يمكن التعرّف عليه، من دون موافقة هذا الشخص».

ولا يطبّق النص على أنظمة الذكاء الاصطناعي المزوّدة «بتدابير أمنية فعّالة» تحول دون هذه الممارسات.

وكانت دول الاتحاد الأوروبي أقرّت هذا الشهر إجراء مشابهاً. وسيتعيّن عليها الآن التفاوض مع البرلمان للتوصل إلى صياغة متقاربة، قبل أن يصبح من الممكن تطبيق الإجراء.

وتأتي هذه المبادرات خصوصاً بعد إدخال خاصية قبل بضعة أشهر في تطبيق «غروك» للذكاء الاصطناعي تتيح للمستخدمين أن يطلبوا منه تركيب صور مزيفة قريبة جداً من الواقعية (ديب فيك) لنساء وأطفال عراة، انطلاقاً من صور حقيقية.

وأثارت هذه القضية موجة استنكار في العديد من الدول ودفعت الاتحاد الأوروبي إلى فتح تحقيق.

كما وافق البرلمان في النص ذاته، على إرجاء دخول قوانين أوروبية جديدة حيّز التنفيذ بشأن أنظمة الذكاء الاصطناعي ذات المخاطر العالية، أي تلك العاملة في مجالات حساسة كالأمن أو الصحة أو الحقوق الأساسية.

وكان من المفترض أن تدخل هذه القواعد حيّز التنفيذ في أغسطس (آب) 2026. وعلى غرار الدول الأعضاء، اقترح النواب الأوروبيون تاريخين محدّدين لهذا التأجيل، في حين كانت المفوضية الأوروبية تريد منح الشركات جدولاً زمنياً أكثر مرونة.

والتاريخان هما: الثاني من ديسمبر (كانون الأول) 2027 للأنظمة المستقلة ذات المخاطر العالية، والثاني من أغسطس (آب) 2028 للأنظمة المدمجة في برامج أو منتجات أخرى.