فيديوهات الذكاء الاصطناعي المُضللة تغمر مواقع التواصل الاجتماعي

لنشر سيل من المعلومات والأخبار الكاذبة

فيديوهات الذكاء الاصطناعي المُضللة تغمر مواقع التواصل الاجتماعي
TT

فيديوهات الذكاء الاصطناعي المُضللة تغمر مواقع التواصل الاجتماعي

فيديوهات الذكاء الاصطناعي المُضللة تغمر مواقع التواصل الاجتماعي

انتشر، في أكتوبر (تشرين الأول) الماضي، مقطع فيديو على تطبيق «تيك توك» يُظهر امرأة تُجري مقابلة مع مراسلة تلفزيونية حول بيع قسائم الطعام (التي تمنح في أميركا لضعيفي الدخل)، كما كتب ستيفن لي مايرز وستيوارت إيه طومسون(*).

لم تكن المرأة حقيقية، ولم يحدث هذا الحوار أصلاً؛ فقد تم توليد الفيديو بواسطة الذكاء الاصطناعي. ومع ذلك، بدا أن الناس يعتقدون أن هذا حوار حقيقي حول بيع قسائم الطعام مقابل المال، وهو ما يُعد جريمة.

وقد انخدعت قناة «فوكس نيوز» بفيديو مزيف مماثل، معتبرة إياه مثالاً على الغضب الشعبي إزاء إساءة استخدام قسائم الطعام، وذلك في مقال تم حذفه لاحقاً من موقعها الإلكتروني.

تُظهر مقاطع الفيديو، مثل المقابلة المُفبركة التي تم إنشاؤها باستخدام تطبيق «سورا» الجديد من «أوبن إيه آي»، مدى سهولة التلاعب بالرأي العام، بواسطة أدوات قادرة على خلق واقع بديل، من خلال سلسلة من التوجيهات البسيطة.

وفي الشهرين الماضيين منذ إطلاق «سورا»، انتشرت مقاطع الفيديو المُضللة بشكل كبير على منصات «تيك توك»، و«إكس»، و«يوتيوب»، و«فيسبوك»، و«إنستغرام»، وفقاً لخبراء مُختصين في رصدها. وقد أثار هذا الانتشار الواسع مخاوف بشأن جيل جديد من المعلومات المُضللة والأخبار الكاذبة.

عدم كفاية وسائل ضبط التضليل

تتبنى معظم شركات التواصل الاجتماعي الكبرى سياسات تُلزم بالإفصاح عن استخدام الذكاء الاصطناعي، وتحظر بشكل عام المحتوى الذي يهدف إلى التضليل. إلا أن هذه الضوابط أثبتت عدم كفايتها بشكل كبير، لمواكبة التطورات التكنولوجية الهائلة التي تُمثلها أدوات «أوبن إيه آي».

وبينما يُقدم العديد من مقاطع الفيديو صوراً ساخرة أو صوراً مُفبركة لأطفال وحيوانات أليفة؛ فإن بعضها الآخر يهدف إلى تأجيج الكراهية التي غالباً ما تُهيمن على النقاشات السياسية على الإنترنت. وقد استخدمت هذه المقاطع بالفعل في عمليات التأثير الأجنبي.

مسؤوليات الشركات

وقال باحثون تتبعوا الاستخدامات الخادعة إن المسؤولية تقع الآن على عاتق الشركات لبذل المزيد من الجهد لضمان معرفة الناس بالحقيقي والمزيف.

وتساءل سام غريغوري، المدير التنفيذي لمنظمة «ويتنس Witness» (الشاهد) المعنية بحقوق الإنسان التي تركز على مخاطر التكنولوجيا: «هل بإمكانهم تحسين إدارة المحتوى ومكافحة المعلومات المضللة والمغلوطة؟ من الواضح أنهم لا يفعلون ذلك. هل بإمكانهم بذل المزيد من الجهد في البحث الاستباقي عن المعلومات المولدة بواسطة الذكاء الاصطناعي وتصنيفها بأنفسهم؟ الإجابة هي: (نعم) أيضاً - أي أنهم لا يفعلون ذلك».

ولم تستخدم الفيديوهات المُفبركة للسخرية من الفقراء فقط، بل من الرئيس ترمب أيضاً.

وحتى الآن، اعتمدت هذه المنصات بشكل كبير على مُنشئي المحتوى للكشف عن أن المحتوى الذي ينشرونه غير حقيقي، لكن هؤلاء لا يفعلون ذلك دائماً. ورغم وجود طرق تُمكّن منصات، مثل «يوتيوب» و«تيك توك» وغيرهما، من اكتشاف أن الفيديو مُفبرك باستخدام الذكاء الاصطناعي، إلا أنها لا تُنبّه المشاهدين دائماً على الفور.

وقالت نبيهة سيد، المديرة التنفيذية لمؤسسة «موزيلا»، وهي مؤسسة غير ربحية تُعنى بسلامة التكنولوجيا وتدعم متصفح «فايرفوكس»، مُعلقة على شركات التواصل الاجتماعي: «كان ينبغي عليهم أن يكونوا مُستعدين».

علامات رصد التزييف

تؤكد الشركات المطورة لأدوات الذكاء الاصطناعي أنها تسعى لتوضيح طبيعة المحتوى المُنشأ بواسطة الكومبيوترات، للمستخدمين. وتقوم كل من «سورا» والأداة المنافسة «فيو» التي تقدمها «غوغل»، بوضع علامة مائية مرئية على مقاطع الفيديو التي تنتجها. فعلى سبيل المثال، تضع «سورا» علامة «سورا» على كل فيديو. كما تُضيف الشركتان بيانات وصفية غير مرئية، يمكن قراءتها بواسطة الحاسوب، لتحديد مصدر كل فيديو مزيف.

وتتمثل الفكرة في إعلام المستخدمين بأن ما يشاهدونه ليس حقيقياً، وتزويد المنصات التي تعرض هذه الفيديوهات بالإشارات الرقمية اللازمة لكشفها تلقائياً.

تستخدم بعض المنصات هذه التقنية؛ فقد أعلنت منصة «تيك توك»، استجابة على ما يبدو للمخاوف بشأن مدى إقناع الفيديوهات المزيفة، الأسبوع الماضي، أنها ستشدد قواعدها المتعلقة بالإفصاح عن استخدام الذكاء الاصطناعي. كما وعدت بأدوات جديدة تُمكّن المستخدمين من تحديد مقدار المحتوى المُصطنع - مقارنة بالمحتوى الحقيقي - الذي يرغبون بمشاهدته.

ويستخدم «يوتيوب» العلامة المائية غير المرئية لتقنية «سورا» لإضافة ملصق صغير يُشير إلى أن فيديوهات الذكاء الاصطناعي «مُعدّلة أو مُصطنعة».

وقال جاك مالون، المتحدث باسم «يوتيوب»: «يرغب المشاهدون بشكل متزايد في مزيد من الشفافية حول ما إذا كان المحتوى الذي يشاهدونه مُعدّلاً أم مُصطنعاً».

سهولة التحايل

مع ذلك، قد تظهر الملصقات أحياناً بعد أن يشاهد الفيديوهات آلاف أو حتى ملايين الأشخاص. وفي بعض الأحيان، لا تظهر على الإطلاق.

وقد اكتشف أصحاب النيات الخبيثة سهولة التحايل على قواعد الإفصاح. فبعضهم يتجاهلها ببساطة، بينما يقوم آخرون بالتلاعب بالفيديوهات لإزالة العلامات المائية التعريفية. ووجدت صحيفة «نيويورك تايمز» عشرات الأمثلة على فيديوهات «سورا» التي تظهر على «يوتيوب» من دون العلامة الآلية.

وقد ظهرت عدة شركات تقدم خدمات إزالة الشعارات والعلامات المائية. كما أن تعديل الفيديوهات أو مشاركتها قد يؤديان إلى إزالة البيانات الوصفية المضمنة في الفيديو الأصلي، التي تشير إلى أنه تم إنشاؤه باستخدام الذكاء الاصطناعي.

وحتى عندما تبقى الشعارات ظاهرة، قد لا يلاحظها المستخدمون أثناء التصفح السريع على هواتفهم.

انخداع المشاهدين

ووفقاً لتحليل التعليقات الذي أجرته صحيفة «نيويورك تايمز»، الذي استخدم أدوات الذكاء الاصطناعي للمساعدة في تصنيف محتوى التعليقات، فإن ما يقرب من الثلثين، من ضمن أكثر من 3000 مستخدم علّقوا على فيديو «تيك توك» حول قسائم الطعام، تعاملوا معه كما لو كان حقيقياً.

وفي بيان لها، قالت «أوبن إيه آي» إنها تحظر الاستخدامات الخادعة أو المضللة لـ«سورا»، وتتخذ إجراءات ضد منتهكي سياساتها. وأضافت الشركة أن تطبيقها ليس سوى واحد من بين عشرات الأدوات المماثلة القادرة على إنشاء فيديوهات واقعية بشكل متزايد لا يطبق العديد منها أي ضمانات أو قيود على الاستخدام.

وأضافت الشركة: «تُنشأ مقاطع الفيديو المُولّدة بواسطة الذكاء الاصطناعي، وتُشارك عبر العديد من الأدوات المختلفة، لذا فإنّ معالجة المحتوى المُضلّل تتطلّب جهداً شاملاً من جميع الأطراف المعنية».

من جهته قال متحدث باسم شركة «ميتا»، المالكة لـ«فيسبوك» و«إنستغرام»، إنّه ليس من الممكن دائماً تصنيف جميع مقاطع الفيديو المُولّدة بواسطة الذكاء الاصطناعي، لا سيما مع التطور السريع لهذه التقنية. وأضاف أنّ الشركة تعمل على تحسين أنظمة تصنيف المحتوى.

ولم تستجب منصتا «إكس» و«تيك توك» لطلبات التعليق على انتشار مقاطع الفيديو المُزيّفة المُولّدة بواسطة الذكاء الاصطناعي.

لا يوجد حافز مالي لتقييد نشر الفيديوهات

وقال ألون يامين، الرئيس التنفيذي لشركة «Copyleaks»، وهي شركة تُعنى بكشف محتوى الذكاء الاصطناعي، إنّ منصات التواصل الاجتماعي لا تملك أي حافز مالي لتقييد انتشار مقاطع الفيديو طالما استمرّ المستخدمون في النقر عليها.

وأضاف: «على المدى البعيد، عندما يُصبح 90 في المائة من حركة المرور على المحتوى في منصّتك مُولّداً بواسطة الذكاء الاصطناعي، فإنّ ذلك يُثير تساؤلات حول جودة المنصّة والمحتوى.. لذا ربما على المدى الطويل، قد تكون هناك حوافز مالية أكبر لضبط محتوى الذكاء الاصطناعي فعلياً. لكن على المدى القصير، لا يمثل ذلك أولوية رئيسية».

* خدمة «نيويورك تايمز»


مقالات ذات صلة

البرلمان الأوروبي يحظر أدوات ذكاء اصطناعي «تعرّي» أشخاصاً

تكنولوجيا شعار روبوت الدردشة «غروك» يظهر على شاشتين (أ.ف.ب)

البرلمان الأوروبي يحظر أدوات ذكاء اصطناعي «تعرّي» أشخاصاً

أقرّ البرلمان الأوروبي، الخميس، قانوناً يحظّر استخدام الذكاء الاصطناعي لـ«تعرية» الأشخاص من دون موافقتهم.

«الشرق الأوسط» (بروكسل)
الاقتصاد أشخاص يسيرون في شارع وول ستريت قرب بورصة نيويورك (رويترز)

رغم تقلبات الأسواق... مكافآت «وول ستريت» في 2025 تصل إلى مستويات قياسية

بلغت مكافآت «وول ستريت» لعام 2025 مستويات غير مسبوقة خلال عام شهد تقلبات حادة في الأسواق.

«الشرق الأوسط» (نيويورك)
الولايات المتحدة​ ميلانيا ترمب تصل برفقة الروبوت لحضور قمة «Fostering the Future Together» العالمية في البيت الأبيض بواشنطن اليوم (أ.ب) p-circle

ميلانيا ترمب تستقبل أول «روبوت» بشري في البيت الأبيض

خطفت السيدة الأولى الأميركية ميلانيا ترمب الأنظار مجدداً، بعدما رافقها «روبوت» بشري متطور خلال فعالية رسمية في البيت الأبيض.

«الشرق الأوسط» (واشنطن)
تكنولوجيا تلعب طريقة عرض المعلومات وسردها دوراً أساسياً في تشكيل الفهم وليس فقط مضمونها (شاترستوك)

دراسة تبحث: هل يغيّر الذكاء الاصطناعي طريقة تفكيرنا رغم صحة المعلومات؟

دراسة تظهر أن الذكاء الاصطناعي يؤثر في الآراء عبر طريقة عرض المعلومات حتى عندما تكون الحقائق صحيحة وغير مضللة.

نسيم رمضان (لندن)
علوم لماذا يفقد الجمهور ثقته في الذكاء الاصطناعي التوليدي؟

لماذا يفقد الجمهور ثقته في الذكاء الاصطناعي التوليدي؟

تراجع ثقة الأميركيين بعد انتشار القصص الوهمية في وسائل الاتصال الاجتماعي

«الشرق الأوسط» (واشنطن)

«أبل» تعتزم فتح «سيري» أمام خدمات الذكاء الاصطناعي المنافِسة

يظهر شعار شركة «أبل» على مبنى في حي مانهاتن بمدينة نيويورك الأميركية (د.ب.أ)
يظهر شعار شركة «أبل» على مبنى في حي مانهاتن بمدينة نيويورك الأميركية (د.ب.أ)
TT

«أبل» تعتزم فتح «سيري» أمام خدمات الذكاء الاصطناعي المنافِسة

يظهر شعار شركة «أبل» على مبنى في حي مانهاتن بمدينة نيويورك الأميركية (د.ب.أ)
يظهر شعار شركة «أبل» على مبنى في حي مانهاتن بمدينة نيويورك الأميركية (د.ب.أ)

ذكرت «بلومبيرغ نيوز»، اليوم الخميس، أن «أبل» تخطط لفتح مساعدها الصوتي «سيري» أمام خدمات ​الذكاء الاصطناعي المنافِسة، بما يتجاوز شراكتها الحالية مع «تشات جي بي تي».

وقالت الوكالة، في تقريرها الذي نقلته عن مصادر مطّلعة، إن هذه الخطوة، المتوقعة ضِمن تحديث نظام التشغيل «آي أو إس 27» من «أبل»، ستسمح لتطبيقات الذكاء الاصطناعي التابعة لجهات خارجية بالاندماج مباشرة مع «سيري»، مما يمكّن المستخدمين من توجيه الاستفسارات إلى خدمات مثل «جيميناي» التابعة لشركة «ألفابت»، أو «كلود» التابعة لشركة «أنثروبيك» من داخل المساعد.

وهذا التغيير تحول مهم في استراتيجية «أبل» للذكاء الاصطناعي، إذ تسعى الشركة إلى اللحاق بركب نظيراتها في وادي السيليكون، ووضع «آيفون» كمنصة أوسع للذكاء الاصطناعي.

و«سيري»، الذي أُطلق لأول مرة منذ أكثر من عقد، عنصر أساسي في هذا المسعى. وأفادت «بلومبيرغ نيوز» بأن «أبل» تُطور أدوات تسمح لتطبيقات روبوتات الدردشة المثبتة عبر متجر التطبيقات الخاص بها بالعمل مع «سيري» وميزات أخرى ضِمن منصة «أبل إنتليجنس». وسيتمكن المستخدمون من اختيار خدمة الذكاء الاصطناعي التي تتولى معالجة كل طلب.

وذكر التقرير أن هذا التحديث قد يساعد «أبل» أيضاً على تحقيق مزيد من الإيرادات من خلال الحصول على حصة من الاشتراكات المبيعة عبر خدمات الذكاء الاصطناعي التابعة لجهات خارجية.

ومن المتوقع أن تستعرض «أبل» ميزات البرنامج الجديدة في مؤتمر المطورين العالمي الذي تعقده في يونيو (حزيران) المقبل، غير أن الخطط قد تتغير.


البرلمان الأوروبي يحظر أدوات ذكاء اصطناعي «تعرّي» أشخاصاً

شعار روبوت الدردشة «غروك» يظهر على شاشتين (أ.ف.ب)
شعار روبوت الدردشة «غروك» يظهر على شاشتين (أ.ف.ب)
TT

البرلمان الأوروبي يحظر أدوات ذكاء اصطناعي «تعرّي» أشخاصاً

شعار روبوت الدردشة «غروك» يظهر على شاشتين (أ.ف.ب)
شعار روبوت الدردشة «غروك» يظهر على شاشتين (أ.ف.ب)

أقرّ البرلمان الأوروبي، الخميس، قانوناً يحظّر استخدام الذكاء الاصطناعي لـ«تعرية» الأشخاص من دون موافقتهم.

وتمّ تبني القرار في نصّ أُقرّ بأغلبية ساحقة (569 صوتاً مقابل 45 صوتاً معارضاً) خلال جلسة عامة للبرلمان في بروكسل، وفقاً لـ«وكالة الصحافة الفرنسية».

وأوضح بيان صادر عن البرلمان أن الأمر يتعلّق بحظر برامج «التعرية» التي «تستخدم الذكاء الاصطناعي لإنشاء أو التلاعب بصور ذات إيحاءات جنسية واضحة، أو صور في وضع حميم تشبه شخصاً حقيقياً يمكن التعرّف عليه، من دون موافقة هذا الشخص».

ولا يطبّق النص على أنظمة الذكاء الاصطناعي المزوّدة «بتدابير أمنية فعّالة» تحول دون هذه الممارسات.

وكانت دول الاتحاد الأوروبي أقرّت هذا الشهر إجراء مشابهاً. وسيتعيّن عليها الآن التفاوض مع البرلمان للتوصل إلى صياغة متقاربة، قبل أن يصبح من الممكن تطبيق الإجراء.

وتأتي هذه المبادرات خصوصاً بعد إدخال خاصية قبل بضعة أشهر في تطبيق «غروك» للذكاء الاصطناعي تتيح للمستخدمين أن يطلبوا منه تركيب صور مزيفة قريبة جداً من الواقعية (ديب فيك) لنساء وأطفال عراة، انطلاقاً من صور حقيقية.

وأثارت هذه القضية موجة استنكار في العديد من الدول ودفعت الاتحاد الأوروبي إلى فتح تحقيق.

كما وافق البرلمان في النص ذاته، على إرجاء دخول قوانين أوروبية جديدة حيّز التنفيذ بشأن أنظمة الذكاء الاصطناعي ذات المخاطر العالية، أي تلك العاملة في مجالات حساسة كالأمن أو الصحة أو الحقوق الأساسية.

وكان من المفترض أن تدخل هذه القواعد حيّز التنفيذ في أغسطس (آب) 2026. وعلى غرار الدول الأعضاء، اقترح النواب الأوروبيون تاريخين محدّدين لهذا التأجيل، في حين كانت المفوضية الأوروبية تريد منح الشركات جدولاً زمنياً أكثر مرونة.

والتاريخان هما: الثاني من ديسمبر (كانون الأول) 2027 للأنظمة المستقلة ذات المخاطر العالية، والثاني من أغسطس (آب) 2028 للأنظمة المدمجة في برامج أو منتجات أخرى.


«هيوماين» و«Turing» تطلقان سوقاً عالمية لوكلاء الذكاء الاصطناعي للمؤسسات

تجمع الشراكة بين البنية التحتية والنماذج لدى «هيوماين» وخبرة «Turing» في تطوير وتقييم أنظمة الذكاء الاصطناعي (هيوماين)
تجمع الشراكة بين البنية التحتية والنماذج لدى «هيوماين» وخبرة «Turing» في تطوير وتقييم أنظمة الذكاء الاصطناعي (هيوماين)
TT

«هيوماين» و«Turing» تطلقان سوقاً عالمية لوكلاء الذكاء الاصطناعي للمؤسسات

تجمع الشراكة بين البنية التحتية والنماذج لدى «هيوماين» وخبرة «Turing» في تطوير وتقييم أنظمة الذكاء الاصطناعي (هيوماين)
تجمع الشراكة بين البنية التحتية والنماذج لدى «هيوماين» وخبرة «Turing» في تطوير وتقييم أنظمة الذكاء الاصطناعي (هيوماين)

في خطوة تعكس تسارع الاهتمام بتطبيقات الذكاء الاصطناعي داخل المؤسسات، أعلنت «هيوماين»، التابعة لصندوق الاستثمارات العامة، عن شراكة مع شركة «Turing» المتخصصة في تطوير أنظمة الذكاء الاصطناعي، بهدف إنشاء سوق عالمية لوكلاء الذكاء الاصطناعي ضمن منصة «HUMAIN ONE».

وتتمحور الفكرة حول توفير بيئة تمكّن الشركات من اكتشاف هذه الوكلاء وتطبيقها وتوسيع استخدامها عبر وظائف مختلفة، مثل الموارد البشرية والمالية والعمليات، في محاولة لتسريع الانتقال من استخدام أدوات رقمية تقليدية إلى نماذج تشغيل أكثر اعتماداً على الأتمتة الذكية.

يفتح المشروع المجال أمام المطورين لنشر حلولهم وبناء منظومة أوسع لما يُعرف بـ«اقتصاد الوكلاء» (شاترستوك)

منصات التشغيل الذكي

الشراكة تجمع بين ما تطوره «هيوماين» من بنية تحتية ونماذج ذكاء اصطناعي، وبين خبرة «Turing» في تقييم النماذج وضبطها وتطبيقها في بيئات العمل. الهدف المعلن هو الوصول إلى وكلاء ذكاء اصطناعي يمكن استخدامها على نطاق واسع داخل المؤسسات، وليس فقط في التجارب أو النماذج الأولية.

ويُتوقع أن يشكّل هذا السوق طبقة جديدة ضمن ما يُعرف بنماذج التشغيل القائمة على الوكلاء، حيث لا تقتصر البرمجيات على دعم سير العمل، بل تبدأ في تنفيذه بشكل مباشر. وفي هذا السياق، يمكن للمؤسسات الوصول إلى وكلاء متخصصين حسب الوظيفة أو القطاع، ضمن بيئة مصممة لتكون قابلة للتوسع ومراعية لمتطلبات الأمان.

كما يفتح هذا التوجه المجال أمام المطورين وشركات التقنية لنشر حلولهم عبر المنصة، ما قد يساهم في بناء منظومة أوسع لوكلاء الذكاء الاصطناعي، تتجاوز حدود المؤسسات الفردية إلى سوق أكثر تكاملاً.

وتشير «هيوماين» إلى أن هذه الخطوة تأتي ضمن رؤية أوسع لإعادة تعريف كيفية بناء البرمجيات واستخدامها داخل المؤسسات، عبر الانتقال من نموذج «البرمجيات كخدمة» إلى بيئات تعتمد على وكلاء قادرين على تنفيذ المهام والتعلم والتفاعل بشكل مستمر.

يعكس هذا التوجه تحولاً نحو نماذج تشغيل جديدة تعتمد على وكلاء أذكياء بدلاً من البرمجيات التقليدية داخل المؤسسات

اقتصاد الوكلاء الناشئ

من جانبه، يرى طارق أمين، الرئيس التنفيذي لـ«هيوماين»، أن المرحلة المقبلة ستشهد تحولاً في طبيعة البرمجيات المستخدمة داخل المؤسسات، قائلاً إن «المؤسسات في المستقبل لن تُبنى حول تطبيقات منفصلة، بل حول وكلاء أذكياء يعملون إلى جانب الإنسان». ويضيف أن هذه الشراكة تسعى إلى تسريع بناء سوق يربط بين قدرات المطورين واحتياجات المؤسسات.

بدوره، أشار جوناثان سيدهارث، الرئيس التنفيذي والشريك المؤسس لـ«Turing»، إلى أن تحويل قدرات الذكاء الاصطناعي المتقدمة إلى تطبيقات عملية يمثل التحدي الأساسي حالياً، موضحاً أن بناء سوق قائم على الوكلاء قد يسهم في جعل هذه التقنيات أكثر ارتباطاً بالإنتاجية الفعلية داخل المؤسسات.

وتأتي هذه الشراكة أيضاً في سياق أوسع يعكس طموح السعودية لتكون لاعباً في تطوير تقنيات الذكاء الاصطناعي، ليس فقط من حيث الاستخدام، بل كمصدر للمنصات والحلول التقنية.

وبينما لا تزال فكرة «اقتصاد الوكلاء» في مراحل مبكرة، فإن الاتجاه نحو بناء منصات تجمع بين المطورين والمؤسسات يشير إلى تحول محتمل في طريقة تطوير البرمجيات وتبنيها. فبدلاً من شراء أدوات جاهزة، قد تتجه المؤسسات مستقبلاً إلى تشغيل منظومات من الوكلاء القادرين على تنفيذ مهام متكاملة عبر مختلف أقسام العمل.

في هذا الإطار، تبدو «HUMAIN ONE» محاولة لبناء هذه الطبقة التشغيلية الجديدة، حيث لا تقتصر القيمة على التكنولوجيا نفسها، بل على كيفية تنظيمها وتكاملها داخل بيئات العمل.