ألعاب تتحدث وتردّ… هل يعيد الذكاء الاصطناعي تشكيل تجربة اللّعب لدى الأطفال؟

تشير الدراسة إلى أن تأثير هذه الألعاب في تطور الأطفال دون سن الخامسة لا يزال غير مفهوم بشكل كافٍ (شاترستوك)
تشير الدراسة إلى أن تأثير هذه الألعاب في تطور الأطفال دون سن الخامسة لا يزال غير مفهوم بشكل كافٍ (شاترستوك)
TT

ألعاب تتحدث وتردّ… هل يعيد الذكاء الاصطناعي تشكيل تجربة اللّعب لدى الأطفال؟

تشير الدراسة إلى أن تأثير هذه الألعاب في تطور الأطفال دون سن الخامسة لا يزال غير مفهوم بشكل كافٍ (شاترستوك)
تشير الدراسة إلى أن تأثير هذه الألعاب في تطور الأطفال دون سن الخامسة لا يزال غير مفهوم بشكل كافٍ (شاترستوك)

يتوسع حضور الذكاء الاصطناعي بسرعة في مختلف جوانب الحياة اليومية، لكن أحد أكثر المجالات غير المتوقعة التي بدأ يدخلها هو عالم ألعاب الأطفال. فقد ظهرت في السنوات الأخيرة فئة جديدة من الألعاب المدعومة بالذكاء الاصطناعي التوليدي قادرة على التحدث مع الأطفال والإجابة عن أسئلتهم والمشاركة في ألعاب تفاعلية. غير أن باحثين يرون أن تطور هذه التقنيات يسير بوتيرة أسرع من فهمنا لتأثيراتها المحتملة في نمو الأطفال خلال السنوات الأولى من حياتهم.

دراسة جديدة من جامعة كامبردج تبحث في كيفية تفاعل الأطفال دون سن الخامسة مع هذه الألعاب الذكية، وتثير تساؤلات حول تأثيراتها على التطور العاطفي والخصوصية ودور الذكاء الاصطناعي في مراحل التعلم المبكرة. وقد أُجريت الدراسة ضمن مشروع «الذكاء الاصطناعي في السنوات المبكرة» الذي يدرس آثار الألعاب المعتمدة على الذكاء الاصطناعي المصممة للأطفال الصغار.

وتشير النتائج إلى أنه رغم ما قد توفره هذه الألعاب من فرص تعليمية، فإنها تثير أيضاً مخاوف مهمة تتعلق بالاستجابة العاطفية للأطفال وحماية بياناتهم وطبيعة العلاقة التي قد ينشئونها مع الآلات.

رفيق جديد للّعب

على عكس الألعاب التقليدية، تستطيع الألعاب المدعومة بالذكاء الاصطناعي التفاعل مع الأطفال بشكل ديناميكي. فهي تعتمد على نماذج لغوية قادرة على إجراء محادثات والإجابة عن الأسئلة وتوليد محتوى تفاعلي يشبه التواصل البشري. ويشير الباحثون إلى أن بعض هذه الألعاب يُسوَّق بالفعل بوصفه رفيقاً تعليمياً أو صديقاً للأطفال، إذ يمكنه التفاعل مع الطفل في الزمن الحقيقي.

وتُعد السنوات الأولى من حياة الطفل حتى سن الخامسة مرحلة حساسة في التطور الاجتماعي والعاطفي. وخلال هذه الفترة يتعلم الأطفال أساسيات التواصل والعلاقات عبر التفاعل مع الوالدين ومقدمي الرعاية والأقران. لذلك فإن إدخال أنظمة ذكاء اصطناعي محاورة في هذا السياق قد يخلق فرصاً جديدة، لكنه قد يطرح أيضاً تحديات غير متوقعة.

تقول الباحثة إيميلي غوداكر، إحدى المشاركات في الدراسة، إن بعض الألعاب المدعومة بالذكاء الاصطناعي قد تؤكد للأطفال أنها «أصدقاء لهم»، في مرحلة لا يزال الأطفال فيها يتعلمون معنى الصداقة نفسها. وقد يدفع ذلك بعض الأطفال إلى مشاركة مشاعرهم أو مشكلاتهم مع اللعبة بدلاً من التحدث إلى شخص بالغ. لكن إذا لم تتمكن اللعبة من فهم تلك المشاعر أو الاستجابة لها بشكل مناسب، فقد تكون النتيجة إشكالية.

يدعو الباحثون إلى وضع معايير تنظيمية أوضح لحماية الأطفال وضمان شفافية استخدام البيانات (شاترستوك)

ألعاب الذكاء الاصطناعي

لفهم كيفية تفاعل الأطفال مع هذه الألعاب في الواقع، أجرى الباحثون جلسات ملاحظة مباشرة لأطفال يلعبون مع لعبة ذكاء اصطناعي محادثة تُدعى «غابو» (Gabbo). وشملت الدراسة 14 طفلاً تتراوح أعمارهم بين ثلاث وخمس سنوات، إضافة إلى مقابلات مع الآباء بعد جلسات اللعب. خلال الجلسات، استخدم الأطفال اللعبة بطرق مختلفة. بعضهم طرح عليها أسئلة حول ما تحبه أو ما تفضله، بينما بدأ آخرون ألعاباً تخيلية معها. وكثيراً ما تعامل الأطفال مع اللعبة كما لو كانت شريكاً اجتماعياً حقيقياً، إذ قاموا بمعانقتها أو التعبير عن مشاعرهم تجاهها. وفي إحدى الحالات، قال طفل للعبة: «أنا أحبك»، فردت اللعبة برسالة إرشادية تقول: «يرجى التأكد من أن التفاعل يلتزم بالإرشادات المتاحة».

ويبرز هذا المثال أحد التحديات الأساسية يتعلق بمدى قدرة أنظمة الذكاء الاصطناعي على فهم السياق العاطفي كما يفعل البشر على الرغم من محاكاة الحوار. كما لاحظ الباحثون أيضاً حالات متكررة من سوء الفهم في المحادثة، إذ كانت اللعبة أحياناً تتجاهل مقاطعات الطفل أو تسيء تفسير كلامه أو لا تستجيب لتغيير الموضوع، الأمر الذي أدى أحياناً إلى شعور الأطفال بالإحباط.

أين تفشل الألعاب الذكية؟

أحد أهم استنتاجات الدراسة يتعلق بطبيعة اللعب في الطفولة المبكرة، فالتطور في هذه المرحلة يعتمد بدرجة كبيرة على اللعب الاجتماعي واللعب التخيلي، وهما عنصران أساسيان في نمو مهارات التواصل والخيال لدى الطفل. لكن الباحثين وجدوا أن الألعاب المعتمدة على الذكاء الاصطناعي لا تزال ضعيفة في التعامل مع هذين النوعين من اللعب. فعلى سبيل المثال، عندما قدم طفل هدية خيالية للعبة ضمن لعبة تخيلية، أجابت اللعبة بأنها «لا تستطيع فتح الهدية»، ثم غيرت الموضوع.

وفي حالة أخرى، قال طفل إنه يشعر بالحزن، لكن اللعبة ردت بطريقة مبهجة ودعت إلى الاستمرار في اللعب، وهو رد قد يُفسَّر على أنه تجاهل لمشاعر الطفل. ويرى الباحثون أن هذا يعكس حدود قدرة الأنظمة الحالية على فهم الإشارات العاطفية الدقيقة، وهي مهارة أساسية في التفاعل الإنساني خلال الطفولة.

فرص تعليمية محتملة

مع ذلك، لا ترفض الدراسة فكرة استخدام هذه الألعاب بالكامل. فقد رأى بعض الآباء والمعلمين المشاركين في الدراسة أن لها إمكانات تعليمية، خصوصاً في مجالات مثل تطوير اللغة والتواصل. إذ يمكن للألعاب الذكية إجراء محادثات مع الأطفال وطرح أسئلة متابعة وتشجيعهم على التفاعل اللفظي، ما قد يساعد في تنمية المهارات اللغوية. كما يمكن أن توفر تجارب تعلم شخصية تتكيف مع استجابات الطفل، وهو ما قد يكون مفيداً في بعض السياقات التعليمية. لكن الباحثين يشددون على أن هذه الفوائد لم تُثبت علمياً بعد. فقد أظهرت مراجعة الأدبيات العلمية التي أجريت ضمن المشروع أن الدراسات حول تأثير الألعاب المعتمدة على الذكاء الاصطناعي في الأطفال دون الخامسة لا تزال محدودة للغاية.

أظهرت الملاحظات أن الألعاب الذكية قد تسيء فهم مشاعر الأطفال أو ترد بطريقة غير مناسبة عاطفياً (شاترستوك)

مخاوف تتعلق بالخصوصية

إحدى القضايا الرئيسية التي أثارتها الدراسة تتعلق بالبيانات والخصوصية، فالألعاب القائمة على المحادثة تعتمد على تسجيل الصوت أو معالجته، ما يعني احتمال جمع بيانات عن الأطفال. وقد أعرب العديد من الآباء المشاركين في الدراسة عن قلقهم بشأن طبيعة هذه البيانات ومكان تخزينها. كما لاحظ الباحثون أن سياسات الخصوصية لبعض الألعاب المتوفرة في السوق غير واضحة، أو تفتقر إلى تفاصيل مهمة. وهذا يثير تساؤلات حول كيفية استخدام هذه البيانات ومن يمكنه الوصول إليها.

علاقة عاطفية من طرف واحد

تشير الدراسة أيضاً إلى احتمال أن يطور الأطفال نوعاً من العلاقة العاطفية مع الألعاب الذكية. فقد لوحظ أن الأطفال في الدراسة عانقوا اللعبة وقبلوها وتحدثوا معها كما لو كانت صديقاً. ويصف الباحثون هذا النوع من التفاعل بأنه علاقة شبه اجتماعية أي علاقة عاطفية من طرف واحد. ورغم أن اللعب التخيلي مع الألعاب أمر طبيعي في الطفولة، فإن القدرة الحوارية للذكاء الاصطناعي قد تجعل هذه العلاقة أكثر تعقيداً.

وفي ضوء هذه النتائج، يدعو الباحثون إلى وضع معايير تنظيمية أوضح للألعاب المدعومة بالذكاء الاصطناعي الموجهة للأطفال. وتشمل التوصيات تطوير معايير سلامة واضحة، وتعزيز الشفافية بشأن استخدام البيانات، ووضع ملصقات تساعد الآباء على تقييم مدى ملاءمة اللعبة للأطفال. كما يقترح الباحثون الحد من تصميم الألعاب بطريقة تشجع الأطفال على اعتبارها أصدقاء حقيقيين. ويؤكد خبراء أن تصميم هذه المنتجات يجب أن يتم بالتشاور مع متخصصين في حماية الطفل قبل طرحها في الأسواق.

تقنية سبقت الأدلة

في النهاية، يؤكد الباحثون أن الألعاب المدعومة بالذكاء الاصطناعي لا تزال تقنية جديدة نسبياً، وأن فهم تأثيراتها على نمو الأطفال ما زال في بدايته. لكن ما يبدو واضحاً هو أن الذكاء الاصطناعي بدأ بالفعل يدخل إلى مساحات كانت تقليدياً تعتمد على التفاعل البشري المباشر. ويبقى السؤال المطروح: هل ستصبح هذه الألعاب أدوات تعليمية مفيدة، أم ستخلق تحديات جديدة في فهم الأطفال للعلاقات والتواصل؟

بالنسبة للباحثين، الإجابة تعتمد إلى حد كبير على كيفية تصميم هذه التقنيات وتنظيمها واستخدامها في حياة الأطفال. فحتى مع تطور التكنولوجيا، يبقى العنصر الأكثر أهمية في نمو الطفل هو ما لم يتغير: التفاعل الإنساني الحقيقي.

Your Premium trial has endedYour Premium trial has ended


مقالات ذات صلة

البرلمان الأوروبي يحظر أدوات ذكاء اصطناعي «تعرّي» أشخاصاً

تكنولوجيا شعار روبوت الدردشة «غروك» يظهر على شاشتين (أ.ف.ب)

البرلمان الأوروبي يحظر أدوات ذكاء اصطناعي «تعرّي» أشخاصاً

أقرّ البرلمان الأوروبي، الخميس، قانوناً يحظّر استخدام الذكاء الاصطناعي لـ«تعرية» الأشخاص من دون موافقتهم.

«الشرق الأوسط» (بروكسل)
الاقتصاد أشخاص يسيرون في شارع وول ستريت قرب بورصة نيويورك (رويترز)

رغم تقلبات الأسواق... مكافآت «وول ستريت» في 2025 تصل إلى مستويات قياسية

بلغت مكافآت «وول ستريت» لعام 2025 مستويات غير مسبوقة خلال عام شهد تقلبات حادة في الأسواق.

«الشرق الأوسط» (نيويورك)
الولايات المتحدة​ ميلانيا ترمب تصل برفقة الروبوت لحضور قمة «Fostering the Future Together» العالمية في البيت الأبيض بواشنطن اليوم (أ.ب) p-circle

ميلانيا ترمب تستقبل أول «روبوت» بشري في البيت الأبيض

خطفت السيدة الأولى الأميركية ميلانيا ترمب الأنظار مجدداً، بعدما رافقها «روبوت» بشري متطور خلال فعالية رسمية في البيت الأبيض.

«الشرق الأوسط» (واشنطن)
تكنولوجيا تلعب طريقة عرض المعلومات وسردها دوراً أساسياً في تشكيل الفهم وليس فقط مضمونها (شاترستوك)

دراسة تبحث: هل يغيّر الذكاء الاصطناعي طريقة تفكيرنا رغم صحة المعلومات؟

دراسة تظهر أن الذكاء الاصطناعي يؤثر في الآراء عبر طريقة عرض المعلومات حتى عندما تكون الحقائق صحيحة وغير مضللة.

نسيم رمضان (لندن)
علوم لماذا يفقد الجمهور ثقته في الذكاء الاصطناعي التوليدي؟

لماذا يفقد الجمهور ثقته في الذكاء الاصطناعي التوليدي؟

تراجع ثقة الأميركيين بعد انتشار القصص الوهمية في وسائل الاتصال الاجتماعي

«الشرق الأوسط» (واشنطن)

«أبل» تعتزم فتح «سيري» أمام خدمات الذكاء الاصطناعي المنافِسة

يظهر شعار شركة «أبل» على مبنى في حي مانهاتن بمدينة نيويورك الأميركية (د.ب.أ)
يظهر شعار شركة «أبل» على مبنى في حي مانهاتن بمدينة نيويورك الأميركية (د.ب.أ)
TT

«أبل» تعتزم فتح «سيري» أمام خدمات الذكاء الاصطناعي المنافِسة

يظهر شعار شركة «أبل» على مبنى في حي مانهاتن بمدينة نيويورك الأميركية (د.ب.أ)
يظهر شعار شركة «أبل» على مبنى في حي مانهاتن بمدينة نيويورك الأميركية (د.ب.أ)

ذكرت «بلومبيرغ نيوز»، اليوم الخميس، أن «أبل» تخطط لفتح مساعدها الصوتي «سيري» أمام خدمات ​الذكاء الاصطناعي المنافِسة، بما يتجاوز شراكتها الحالية مع «تشات جي بي تي».

وقالت الوكالة، في تقريرها الذي نقلته عن مصادر مطّلعة، إن هذه الخطوة، المتوقعة ضِمن تحديث نظام التشغيل «آي أو إس 27» من «أبل»، ستسمح لتطبيقات الذكاء الاصطناعي التابعة لجهات خارجية بالاندماج مباشرة مع «سيري»، مما يمكّن المستخدمين من توجيه الاستفسارات إلى خدمات مثل «جيميناي» التابعة لشركة «ألفابت»، أو «كلود» التابعة لشركة «أنثروبيك» من داخل المساعد.

وهذا التغيير تحول مهم في استراتيجية «أبل» للذكاء الاصطناعي، إذ تسعى الشركة إلى اللحاق بركب نظيراتها في وادي السيليكون، ووضع «آيفون» كمنصة أوسع للذكاء الاصطناعي.

و«سيري»، الذي أُطلق لأول مرة منذ أكثر من عقد، عنصر أساسي في هذا المسعى. وأفادت «بلومبيرغ نيوز» بأن «أبل» تُطور أدوات تسمح لتطبيقات روبوتات الدردشة المثبتة عبر متجر التطبيقات الخاص بها بالعمل مع «سيري» وميزات أخرى ضِمن منصة «أبل إنتليجنس». وسيتمكن المستخدمون من اختيار خدمة الذكاء الاصطناعي التي تتولى معالجة كل طلب.

وذكر التقرير أن هذا التحديث قد يساعد «أبل» أيضاً على تحقيق مزيد من الإيرادات من خلال الحصول على حصة من الاشتراكات المبيعة عبر خدمات الذكاء الاصطناعي التابعة لجهات خارجية.

ومن المتوقع أن تستعرض «أبل» ميزات البرنامج الجديدة في مؤتمر المطورين العالمي الذي تعقده في يونيو (حزيران) المقبل، غير أن الخطط قد تتغير.


البرلمان الأوروبي يحظر أدوات ذكاء اصطناعي «تعرّي» أشخاصاً

شعار روبوت الدردشة «غروك» يظهر على شاشتين (أ.ف.ب)
شعار روبوت الدردشة «غروك» يظهر على شاشتين (أ.ف.ب)
TT

البرلمان الأوروبي يحظر أدوات ذكاء اصطناعي «تعرّي» أشخاصاً

شعار روبوت الدردشة «غروك» يظهر على شاشتين (أ.ف.ب)
شعار روبوت الدردشة «غروك» يظهر على شاشتين (أ.ف.ب)

أقرّ البرلمان الأوروبي، الخميس، قانوناً يحظّر استخدام الذكاء الاصطناعي لـ«تعرية» الأشخاص من دون موافقتهم.

وتمّ تبني القرار في نصّ أُقرّ بأغلبية ساحقة (569 صوتاً مقابل 45 صوتاً معارضاً) خلال جلسة عامة للبرلمان في بروكسل، وفقاً لـ«وكالة الصحافة الفرنسية».

وأوضح بيان صادر عن البرلمان أن الأمر يتعلّق بحظر برامج «التعرية» التي «تستخدم الذكاء الاصطناعي لإنشاء أو التلاعب بصور ذات إيحاءات جنسية واضحة، أو صور في وضع حميم تشبه شخصاً حقيقياً يمكن التعرّف عليه، من دون موافقة هذا الشخص».

ولا يطبّق النص على أنظمة الذكاء الاصطناعي المزوّدة «بتدابير أمنية فعّالة» تحول دون هذه الممارسات.

وكانت دول الاتحاد الأوروبي أقرّت هذا الشهر إجراء مشابهاً. وسيتعيّن عليها الآن التفاوض مع البرلمان للتوصل إلى صياغة متقاربة، قبل أن يصبح من الممكن تطبيق الإجراء.

وتأتي هذه المبادرات خصوصاً بعد إدخال خاصية قبل بضعة أشهر في تطبيق «غروك» للذكاء الاصطناعي تتيح للمستخدمين أن يطلبوا منه تركيب صور مزيفة قريبة جداً من الواقعية (ديب فيك) لنساء وأطفال عراة، انطلاقاً من صور حقيقية.

وأثارت هذه القضية موجة استنكار في العديد من الدول ودفعت الاتحاد الأوروبي إلى فتح تحقيق.

كما وافق البرلمان في النص ذاته، على إرجاء دخول قوانين أوروبية جديدة حيّز التنفيذ بشأن أنظمة الذكاء الاصطناعي ذات المخاطر العالية، أي تلك العاملة في مجالات حساسة كالأمن أو الصحة أو الحقوق الأساسية.

وكان من المفترض أن تدخل هذه القواعد حيّز التنفيذ في أغسطس (آب) 2026. وعلى غرار الدول الأعضاء، اقترح النواب الأوروبيون تاريخين محدّدين لهذا التأجيل، في حين كانت المفوضية الأوروبية تريد منح الشركات جدولاً زمنياً أكثر مرونة.

والتاريخان هما: الثاني من ديسمبر (كانون الأول) 2027 للأنظمة المستقلة ذات المخاطر العالية، والثاني من أغسطس (آب) 2028 للأنظمة المدمجة في برامج أو منتجات أخرى.


«هيوماين» و«Turing» تطلقان سوقاً عالمية لوكلاء الذكاء الاصطناعي للمؤسسات

تجمع الشراكة بين البنية التحتية والنماذج لدى «هيوماين» وخبرة «Turing» في تطوير وتقييم أنظمة الذكاء الاصطناعي (هيوماين)
تجمع الشراكة بين البنية التحتية والنماذج لدى «هيوماين» وخبرة «Turing» في تطوير وتقييم أنظمة الذكاء الاصطناعي (هيوماين)
TT

«هيوماين» و«Turing» تطلقان سوقاً عالمية لوكلاء الذكاء الاصطناعي للمؤسسات

تجمع الشراكة بين البنية التحتية والنماذج لدى «هيوماين» وخبرة «Turing» في تطوير وتقييم أنظمة الذكاء الاصطناعي (هيوماين)
تجمع الشراكة بين البنية التحتية والنماذج لدى «هيوماين» وخبرة «Turing» في تطوير وتقييم أنظمة الذكاء الاصطناعي (هيوماين)

في خطوة تعكس تسارع الاهتمام بتطبيقات الذكاء الاصطناعي داخل المؤسسات، أعلنت «هيوماين»، التابعة لصندوق الاستثمارات العامة، عن شراكة مع شركة «Turing» المتخصصة في تطوير أنظمة الذكاء الاصطناعي، بهدف إنشاء سوق عالمية لوكلاء الذكاء الاصطناعي ضمن منصة «HUMAIN ONE».

وتتمحور الفكرة حول توفير بيئة تمكّن الشركات من اكتشاف هذه الوكلاء وتطبيقها وتوسيع استخدامها عبر وظائف مختلفة، مثل الموارد البشرية والمالية والعمليات، في محاولة لتسريع الانتقال من استخدام أدوات رقمية تقليدية إلى نماذج تشغيل أكثر اعتماداً على الأتمتة الذكية.

يفتح المشروع المجال أمام المطورين لنشر حلولهم وبناء منظومة أوسع لما يُعرف بـ«اقتصاد الوكلاء» (شاترستوك)

منصات التشغيل الذكي

الشراكة تجمع بين ما تطوره «هيوماين» من بنية تحتية ونماذج ذكاء اصطناعي، وبين خبرة «Turing» في تقييم النماذج وضبطها وتطبيقها في بيئات العمل. الهدف المعلن هو الوصول إلى وكلاء ذكاء اصطناعي يمكن استخدامها على نطاق واسع داخل المؤسسات، وليس فقط في التجارب أو النماذج الأولية.

ويُتوقع أن يشكّل هذا السوق طبقة جديدة ضمن ما يُعرف بنماذج التشغيل القائمة على الوكلاء، حيث لا تقتصر البرمجيات على دعم سير العمل، بل تبدأ في تنفيذه بشكل مباشر. وفي هذا السياق، يمكن للمؤسسات الوصول إلى وكلاء متخصصين حسب الوظيفة أو القطاع، ضمن بيئة مصممة لتكون قابلة للتوسع ومراعية لمتطلبات الأمان.

كما يفتح هذا التوجه المجال أمام المطورين وشركات التقنية لنشر حلولهم عبر المنصة، ما قد يساهم في بناء منظومة أوسع لوكلاء الذكاء الاصطناعي، تتجاوز حدود المؤسسات الفردية إلى سوق أكثر تكاملاً.

وتشير «هيوماين» إلى أن هذه الخطوة تأتي ضمن رؤية أوسع لإعادة تعريف كيفية بناء البرمجيات واستخدامها داخل المؤسسات، عبر الانتقال من نموذج «البرمجيات كخدمة» إلى بيئات تعتمد على وكلاء قادرين على تنفيذ المهام والتعلم والتفاعل بشكل مستمر.

يعكس هذا التوجه تحولاً نحو نماذج تشغيل جديدة تعتمد على وكلاء أذكياء بدلاً من البرمجيات التقليدية داخل المؤسسات

اقتصاد الوكلاء الناشئ

من جانبه، يرى طارق أمين، الرئيس التنفيذي لـ«هيوماين»، أن المرحلة المقبلة ستشهد تحولاً في طبيعة البرمجيات المستخدمة داخل المؤسسات، قائلاً إن «المؤسسات في المستقبل لن تُبنى حول تطبيقات منفصلة، بل حول وكلاء أذكياء يعملون إلى جانب الإنسان». ويضيف أن هذه الشراكة تسعى إلى تسريع بناء سوق يربط بين قدرات المطورين واحتياجات المؤسسات.

بدوره، أشار جوناثان سيدهارث، الرئيس التنفيذي والشريك المؤسس لـ«Turing»، إلى أن تحويل قدرات الذكاء الاصطناعي المتقدمة إلى تطبيقات عملية يمثل التحدي الأساسي حالياً، موضحاً أن بناء سوق قائم على الوكلاء قد يسهم في جعل هذه التقنيات أكثر ارتباطاً بالإنتاجية الفعلية داخل المؤسسات.

وتأتي هذه الشراكة أيضاً في سياق أوسع يعكس طموح السعودية لتكون لاعباً في تطوير تقنيات الذكاء الاصطناعي، ليس فقط من حيث الاستخدام، بل كمصدر للمنصات والحلول التقنية.

وبينما لا تزال فكرة «اقتصاد الوكلاء» في مراحل مبكرة، فإن الاتجاه نحو بناء منصات تجمع بين المطورين والمؤسسات يشير إلى تحول محتمل في طريقة تطوير البرمجيات وتبنيها. فبدلاً من شراء أدوات جاهزة، قد تتجه المؤسسات مستقبلاً إلى تشغيل منظومات من الوكلاء القادرين على تنفيذ مهام متكاملة عبر مختلف أقسام العمل.

في هذا الإطار، تبدو «HUMAIN ONE» محاولة لبناء هذه الطبقة التشغيلية الجديدة، حيث لا تقتصر القيمة على التكنولوجيا نفسها، بل على كيفية تنظيمها وتكاملها داخل بيئات العمل.