مَن هم المتحكّمون بمقدرات الذكاء الاصطناعي؟

طروحات تعدُّه سباقاً جيوسياسياً للغلبة والفوز وليس نظاماً مجتمعياً ينبغي إدارته بحكمة

الذكاء الاصطناعي قد يوظف للغلبة والفوز.. رغم استفادة كل المجتمعات من مزاياه الفريدة
الذكاء الاصطناعي قد يوظف للغلبة والفوز.. رغم استفادة كل المجتمعات من مزاياه الفريدة
TT

مَن هم المتحكّمون بمقدرات الذكاء الاصطناعي؟

الذكاء الاصطناعي قد يوظف للغلبة والفوز.. رغم استفادة كل المجتمعات من مزاياه الفريدة
الذكاء الاصطناعي قد يوظف للغلبة والفوز.. رغم استفادة كل المجتمعات من مزاياه الفريدة

في قاعات مجالس إدارة وادي السيليكون، تباشر مجموعة صغيرة من المديرين التنفيذيين في هدوء اتخاذ قرارات ستُشكّل مسار حياة المليارات من البشر. ومعظمنا لن يعرف ما هي تلك القرارات إلا بعد فوات الأوان لتغييرها.

خطة أميركية للذكاء الاصطناعي

نشر البيت الأبيض، في يوليو (تموز) الماضي، «خطة عمل الذكاء الاصطناعي الأميركية»، وهي وثيقة من 28 صفحة تبدو أشبه بسياسة صناعية لسباق تسلح جديد.

يكمن في الركيزة الأولى سطر يُخبرك بالضبط إلى أين تتجه سياسة الولايات المتحدة: «مراجعة إطار عمل إدارة مخاطر الذكاء الاصطناعي التابع للمعهد الوطني للمعايير والتقنية (NIST) لإزالة الإشارات إلى المعلومات المضللة، والتنوع، والمساواة، والشمول، وتغيرات المناخ».

عندما تبدأ الحكومات في شطب هذه الكلمات عن قصد، من الإنصاف أن نتساءل: مَن الذي يضع شروط مستقبلنا التكنولوجي - ولمن تكون الفائدة؟تخفيف الرقابة... وسباق جيوسياسي

هذا أكثر من مجرد كلام. تتباهى الخطة نفسها بإلغاء أمر الإدارة الأميركية السابقة بشأن الذكاء الاصطناعي، وتخفيف الرقابة، وتسريع وتيرة البنية التحتية والطاقة لمراكز البيانات. إنها تُعيد صياغة الذكاء الاصطناعي بصورة أساسية بوصفه سباقاً جيوسياسياً «للغلبة والفوز»، وليس بوصفه نظاماً مجتمعياً تنبغي إدارته. إنه منظور أقل تركيزاً حول الإشراف وأكثر توجهاً صوب إبرام الصفقات، وهو أسلوب حوكمة يُعامل السياسة العامة معاملة وثيقة الشروط. هذا التأطير مهم: فعندما يكون الهدف السياسي هو السرعة والهيمنة، تصبح المساءلة مجرد «شيء جميل مُضاف».

المسار الأوروبي

اختارت أوروبا مساراً مختلفاً تماماً: فرض القيود أولاً، ثم التوسع. دخل قانون الاتحاد الأوروبي للذكاء الاصطناعي حيز التنفيذ في أغسطس (آب) من عام 2024، ويفرض التزامات تدريجية حتى عام 2026، مع تصميم إنفاذ القانون بناءً على المخاطر. فهل هو منقوص؟ بكل تأكيد. لكن الرسالة لا لبس فيها: يتعين على المؤسسات الديمقراطية - وليس فقط على إدارات العلاقات العامة للشركات - تحديد الاستخدامات، والإفصاحات، والمسؤوليات المقبولة قبل أن تنتشر التكنولوجيا في كل مكان.

الشركات تتحكم بالذكاء الاصطناعي

في الآونة ذاتها، يتركز ثقل الذكاء الاصطناعي في قبضة عدد قليل من الشركات التي تتحكم في قدرات الحوسبة، والنماذج، والتوزيع. لنتحدث عن الحوسبة مثالاً - أي سعة الحوسبة القائمة على الأدوات المسرعة (التي تسرّع وقت وحدة معالجة الرسوميات/وحدة المعالجة المركزية المسرّعة) اللازمة لتدريب وتشغيل الذكاء الاصطناعي الحديث - بالإضافة إلى النماذج والتوزيع.

لا يزال المحللون يُقدِّرون حصة شركة «إنفيديا» الأميركية من مسرعات الذكاء الاصطناعي بنحو 90 في المائة، وتستحوذ شركات الحوسبة السحابية الكبرى على السعة لسنوات مقدماً. وهذه الندرة تُشكل مَن يستطيع التجربة، ومَن لا يستطيعها، ومن يدفع لمن مقابل الوصول إليها. وعندما يتعامل رئيس الدولة مع السياسة التكنولوجية مثل مصرفي استثماري، فإن تلك المفاوضات لا تدور حول المصلحة العامة؛ وإنما حول تعظيم الصفقة، غالباً لمصلحة خزينة الدولة، وأحياناً لتحقيق مكاسب سياسية.

غموض وتعقيد

وما يزيد الغموض والتعقيد، التفاف الشركات وانعدام شفافيتها، إذ يرفض التقرير التقني الخاص ببرنامج «تشات جي بي تي 4» الخاص بشركة «أوبن إيه آي» الكشف عن بيانات التدريب، أو حجم النموذج، أو قدرات الحوسبة المستخدمة، مستشهدا صراحة بالمنافسة والسلامة.

وبغض النظر عن رأيك في هذا المنطق، فإن ذلك يعني أن الشركات تطلب من المجتمع قبول أنظمة ذات تبعات كبيرة بينما يبقى المجتمع إلى حد كبير جاهلاً بما يدخل في تكوينها. إن عبارة «ثقوا بنا» ليست أسلوباً للحوكمة الحكيمة.

سلطة مُركزة

إذا كنت تريد مثالاً صغيراً ولكنه واضح عن كيفية تأثير الخيارات الخاصة على الحياة العامة، فانظر إلى ما حدث عندما أطلقت شركة «أوبن إيه آي» صوتاً جذاباً يُدعى «سكاي - Sky» اعتقد الكثيرون أنه يشبه صوت الممثلة سكارليت جوهانسون. بعد رد فعل عنيف من الجمهور، أوقفت الشركة هذا الصوت مؤقتاً.

وهنا نلاحظ أنه لم تُرسم حدود ثقافية من قِبل جهة تنظيمية أو محكمة، بل من قِبل فريق منتجات، وقرار شركة. وهذا يمثل قدراً كبيراً للغاية من السلطة لمجموعة صغيرة للغاية من الناس.

أضرار بيئية

تظهر السلطة أيضاً في فواتير الخدمات. يربط أحدث تقرير بيئي لشركة «غوغل» زيادة بنسبة 48 في المائة في انبعاثات الغازات الدفيئة منذ عام 2019 بنمو مراكز البيانات للذكاء الاصطناعي، ويوثق استخدام 6.1 مليار غالون من المياه في عام 2023 لأغراض التبريد - وهي أرقام سترتفع مع التوسع. يذهب تحليل دورة حياة «ميسترال - Mistral» إلى أبعد من ذلك، حيث يُقدّر استهلاك الطاقة والمياه لكل استعلام «prompt» لنماذجها. كل «استعلام للنموذج» له بصمة؛ إذا تضاعفت هذه الأرقام بالمليارات، فلن تتمكن من التظاهر بأنها مجانية، مهما كنتَ مُنكراً للتغيرات المناخية.

إذن، أجل، الولايات المتحدة «تفوز بالسباق». إلا أن تركيز القرارات التي تؤثر على حرية التعبير، والتوظيف، والتعليم، والبيئة في دائرة صغيرة للغاية من قاعات مجالس الإدارة. والنتيجة هي عجز ديمقراطي. فهنا يُختزل الجمهور إلى مجرد متفرجين، يتفاعلون مع الحقائق المفروضة بدلاً من وضع القواعد.بدائل وخيارات

ماذا لو عكسنا الوضع؟ نبدأ بمعاملة الذكاء الاصطناعي بصفته بنيةً تحتية تتطلب قدرات عامة، وليس فقط نفقات رأسمالية خاصة. تعكس مبادرة «المورد الوطني لأبحاث الذكاء الاصطناعي» التجريبية «National AI Research Resource pilot» التوجه الصحيح:

* أستاذ في جامعة آي إي، مدريد. مجلة «طفاست كومباني» - خدمات «تريبيون ميديا»• أولاً - امنح الباحثين والشركات الناشئة وصولاً مشتركاً إلى قدرات الحوسبة والبيانات والأدوات؛ حتى لا تكون الأبحاث مقيدة بعقود مع شركات الحوسبة السحابية الكبرى. اجعل الوصول مستمراً، وممولاً جيداً، ومستقلاً؛ لأن العلم المفتوح يموت عندما يصبح الوصول إليه مرهوناً باتفاقيات عدم الإفصاح.

• ثانياً - اربط الأموال والمشتريات العامة بشروط. إذا كانت الوكالات والمدارس ستشتري الذكاء الاصطناعي، فيجب أن تطلب إفصاحات أساسية: ما هي البيانات التي استُخدمت للتدريب؛ ما هي الضوابط التي تحكم المخرجات؛ ما هي الاختبارات المستقلة التي اجتازها النموذج؛ وسجل للطاقة والمياه مرتبط بالزمان والمكان، وليس بالمعدلات السنوية. إذا لم يستطع البائع تلبية هذه الشروط، فإنه لا يحصل على العقود. هذا ليس «معاداة للابتكار»، بل هو انضباط السوق الذي يتسق مع القيم العامة.

• ثالثاً - افصل الطبقات لكبح الاحتكار. لا ينبغي لمقدمي الخدمات السحابية أن يكونوا قادرين على فرض استخدام نموذجهم لرقائقهم لتشغيل خدماتهم كخيار افتراضي. إن قابلية التشغيل البيني ونقل البيانات ليستا مثاليات رومانسية؛ بل هما السبيل للحفاظ على قطاع تنافسي عندما تتحكم ثلاث شركات في البنية بأكملها.

أهمية الشفافية

• رابعاً - يجب أن تعني الشفافية أكثر من مجرد «بطاقات النماذج» التي يكتبها البائع. بالنسبة للأنظمة التي تتجاوز حجماً معيناً، يجب أن نطلب إفصاحات قابلة للتدقيق لأطراف ثالثة مؤهلة - حول مصدر بيانات التدريب، ومجموعات التقييم، وأداء ما بعد النشر. إذا كان هذا يبدو مرهقاً؛ فذلك لأن العواقب على نطاق واسع مرهقة كذلك. لقد تعلمنا هذا في كل بنية تحتية حيوية أخرى.

• خامساً - اجعل السرد البيئي يتواءم مع الواقع. يجب أن تكون إفصاحات المياه والطاقة فورية، وخاصة بالمنشأة، وموثقة.

إن «توفير المياه بحلول عام 2030» لا يساعد بلدة ما تُستنزف طبقة المياه الجوفية لديها في هذا العقد. إذا كانت الشركات تريد أن تكون سبّاقة في طرح النماذج الرائدة، فيجب أن تكون أيضاً الأولى في تطبيق شراء الطاقة الخالية من الكربون على مدار الساعة، وتحديد ميزانيات مياه صارمة ذات صلة بالعلوم المحلية لحركة وتوزيع وإدارة المياه.

خطر أعمق

هناك خطر أعمق عندما تُدار الاستراتيجية التكنولوجية الوطنية مثلما تدار محفظة الأعمال: إذ تصبح الكفاءة والإيرادات هي المقاييس الأساسية؛ ما يطغى على احتياجات المواطنين التي يصعب قياسها كمياً.

في القطاع الخاص، يمكن تبرير التضحية بالأخلاق أو الشفافية أو الاستقرار على المدى الطويل من أجل صفقة مربحة بأنها تهدف إلى زيادة قيمة المساهمين. أما في الحكومة، فتؤدي هذه المقايضة نفسها إلى تآكل الديمقراطية ذاتها؛ ما يركز القرارات في أيدي أقل، ويجعل منظور «الربح أولاً» طبيعياً في مسائل يجب أن تركز على الحقوق، والضمانات، وثقة الجمهور.

ليس الهدف هو إبطاء الذكاء الاصطناعي. وإنما أن نقرر، علناً، أي نوع من الذكاء الاصطناعي نريده وبأي شروط.

إن الولايات المتحدة قادرة على الجمع بين الطموح وضبط النفس في آن واحد؛ لقد فعلنا ذلك في مجالات الطيران، والطب، والتمويل. يجب ألا يكون الذكاء الاصطناعي مختلفاً عن ذلك. إذا تركنا الخيارات الكبرى لعدد قليل من الشركات وعدد قليل من المُعينين السياسيين، فسوف نحصل على مستقبل صُنع لأجلنا، وليس بواسطتنا. وسوف يكون ثمن إعادة كتابته لاحقاً أعلى مما يعترف به أي إنسان اليوم.* أستاذ في جامعة آي إي، مدريد. مجلة «طفاست كومباني» - خدمات «تريبيون ميديا»


مقالات ذات صلة

«أبل» تغيّر القيادة... تيرنوس يخلف كوك في مرحلة اختبار جديدة

تكنولوجيا «أبل» أعلنت انتقال القيادة من تيم كوك إلى جون تيرنوس ضمن خطة تعاقب طويلة الأمد (أبل)

«أبل» تغيّر القيادة... تيرنوس يخلف كوك في مرحلة اختبار جديدة

«أبل» تنقل القيادة إلى جون تيرنوس مع احتفاظ تيم كوك بدور رئيس المجلس وسط ضغوط الذكاء الاصطناعي، واختبار المرحلة المقبلة.

نسيم رمضان (لاس فيغاس)
تكنولوجيا يمكن معاينة الاجتماعات وجدول المواعيد بكل سهولة في السيارات الذكية الجديدة

المكتب المتنقل... التقنية تحوّل سيارتك إلى مركز إنتاجية ذكي

لم يعد مفهوم العمل عن بُعد محصوراً في زوايا المنزل أو المقاهي الهادئة، بل انطلق ليعيد صياغة المقصورة الداخلية للسيارة كمساحة احترافية متكاملة.

خلدون غسان سعيد (جدة)
تكنولوجيا أفضل 10 أدوات لتحرير الصور بالذكاء الاصطناعي

أفضل 10 أدوات لتحرير الصور بالذكاء الاصطناعي

في الماضي، كانت الصور الضبابية والإضاءة الرديئة والعناصر العشوائية في الخلفية، تعني أمراً واحداً أي صوراً سيئة. أما اليوم،

«الشرق الأوسط» (لندن)
تكنولوجيا تقدّم تعلّماً تفاعلياً للغات قائماً على المواقف اليومية بالذكاء الاصطناعي (مختبرات غوغل)

بعد عام على إطلاقها… كيف تعمل تجربة «غوغل» لتعلّم اللغات؟

بعد نحو عام على طرحها، تواصل شركة «غوغل» اختبار تجربة تعليم اللغات المدعومة بالذكاء الاصطناعي تحت اسم «Little Language Lessons»، ضمن منصتها «مختبرات غوغل».

عبد العزيز الرشيد (الرياض)
تكنولوجيا «أدوبي» تطلق «القص السريع» لاختصار الطريق من الفكرة إلى الفيديو (رويترز)

«القص السريع» من «أدوبي»: اختصار الطريق من الفكرة إلى الفيديو

في سياق تسارع الابتكار داخل أدوات إنتاج المحتوى، تواصل «أدوبي» توسيع قدرات منصتها للذكاء الاصطناعي «فايرفلاي»، عبر تقديم ميزة جديدة تحمل اسم القص السريع (Quick…

عبد العزيز الرشيد (الرياض)

البحث المدعوم بالذكاء الاصطناعي يعاني … «مشكلة ثقة»

البحث المدعوم بالذكاء الاصطناعي يعاني … «مشكلة ثقة»
TT

البحث المدعوم بالذكاء الاصطناعي يعاني … «مشكلة ثقة»

البحث المدعوم بالذكاء الاصطناعي يعاني … «مشكلة ثقة»

استخدم ما يقرب من ثلثي البالغين الأميركيين أداة بحث مدعومة بالذكاء الاصطناعي خلال الأشهر الستة الماضية. ولكن الإحصائية المثيرة لمطوري هذه الأدوات: 15 في المائة فقط يقولون إنهم يثقون بالنتائج «ثقة تامة». وتُمثل هذه الفجوة بين الاستخدام والثقة التحدي الأكبر في المرحلة المقبلة من البحث المدعوم بالذكاء الاصطناعي. فالمستهلكون يُقبلون على هذه التقنية، لكنهم يُشككون في النتائج، كما كتب كريغ سالدانها (*).

وعلى مطوري هذه المنتجات، طرح سؤال مُحرج على أنفسهم: هل إنهم يصممون تجارب تكسب ثقة المستهلكين، وتستحقها؟

«حديقة مسوّرة»

تعاونت شركة Yelp مع Morning Consult لإجراء استطلاع رأي شمل أكثر من 2200 بالغ أميركي حول كيفية استخدامهم البحث المدعوم بالذكاء الاصطناعي ونظرتهم إليه. وتشير النتائج إلى مشكلة واحدة مُتكررة: يشعر المستهلكون بأنهم مُحاصرون.

أكثر من نصف المشاركين في الاستطلاع (51 في المائة) يقولون إن نتائج البحث المدعومة بالذكاء الاصطناعي تبدو وكأنها «حديقة مسوّرة» يصعب معها التحقق مما يقرأونه.

صعوبة التحقق من الإجابات

  • يقول 63 في المائة إنهم يتحققون من نتائج البحث المدعومة بالذكاء الاصطناعي بالرجوع إلى مصادر موثوقة أخرى، مثل مواقع الأخبار ومنصات التقييم.
  • ويشير 57 في المائة إلى أنهم أقل ميلاً لاستخدام البحث المدعوم بالذكاء الاصطناعي تحديداً لافتقاره إلى مصادر موثوقة.

في البدايات، أي في الأيام الأولى لعمليات البحث المدعوم بالذكاء الاصطناعي، اتسمت النتائج بالغموض، حيث كانت النماذج تُلفّق الإجابات بثقة. وتمكنت معظم المنصات الرائدة من حل هذه المشكلة التقنية إلى حد كبير. لكن ما زال هناك شك أعمق: ليس فقط «هل هذه الإجابة صحيحة؟»، بل «كيف لي أن أعرف؟»؛ إذ وعندما تُزيل المنصات المصادر والاقتباسات والروابط إلى المحتوى الواقعي الذي استندت إليه إجاباتها، فإنها تبني جدراناً لا جسوراً. يُعبّر المستهلكون بوضوح عن رغبتهم في الحصول على الروابط والمصادر والقدرة على التحقق بأنفسهم.

«فتح الأبواب» للبيانات الموثقة

يرسم الاستطلاع صورة متسقة بشكل ملحوظ لما يلزم، لسد فجوة الثقة.

يقول ما يقرب من ثلاثة أرباع المشاركين في الاستطلاع (72 في المائة) إن منصات الذكاء الاصطناعي يجب أن تُظهر دائماً مصدر معلوماتها.

  • يرغب ثلثا المشاركين (66 في المائة) في مزيد من الأدلة على المصادر الموثوقة، مثل روابط منصات التقييم ومواقع الأخبار، إلى جانب الإجابات التي يُقدمها الذكاء الاصطناعي.
  • بينما يقول أكثر من نصفهم (52 في المائة) إن الأدلة المرئية، مثل صور الطبق الغذائي، أو صور مصاحبة لطلباتهم، من شأنها أن تزيد من ثقتهم.

والمستهلكون ليسوا ضد الذكاء الاصطناعي، بل ضد الأنظمة المبهمة. إنهم يريدون أن يقوم الذكاء الاصطناعي بالعمل الشاق المتمثل في تحليل كميات هائلة من المعلومات ثم عرض النتائج.

لا يستخدم الشخص العادي الذكاء الاصطناعي لتحليل الشفرات أو غيرها من التطبيقات التقنية، بل يستخدمه في عمليات البحث المحلية اليومية.

استخدام محلّي يومي

  • يستخدم أكثر من نصف المشاركين في الاستطلاع (57 في المائة) أدوات الذكاء الاصطناعي للعثور على الشركات المحلية شهرياً على الأقل. إنهم يريدون نصائح حول مكان اصطحاب عائلاتهم لتناول عشاء عيد ميلاد أو اختيار من يسمحون له بدخول منزلهم لإصلاح أنبوب مياه متفجر؛ ولذا لن يكون ملخص الذكاء الاصطناعي المستقل دون دليل موثوق كافياً.

مصادر المعلومات

وعندما يلجأ المستهلكون إلى الذكاء الاصطناعي للمساعدة في اتخاذ هذه القرارات، تكون توقعاتهم واضحة لا لبس فيها:

  • 76 في المائة منهم يرون أن معرفة مصدر المعلومات أمرٌ بالغ الأهمية،
  • و73 في المائة يؤكدون على أهمية تقييمات وآراء الزبائن الحقيقيين

و76 في المائة يرون أهمية الاطلاع على مصادر موثوقة متعددة.

كما أن الشركات المحلية تتسم بطبيعتها بالديناميكية، حيث قد يرحل العاملون، وتتغير العروض (مثل انتقال الطهاة وتغيّر قوائم الطعام)، وتتغير ساعات العمل. لذا وبدون محتوى بشري أصيل ومُحدّث بانتظام من مصادر موثوقة، يُخاطر الذكاء الاصطناعي بتقديم معلومات قديمة أو غير موثوقة.

أجوبة جيل الإنترنت

وإذا كان أحدٌ يظن أن جيل الإنترنت، سيكون أكثر ثقة، فإن البيانات تُشير إلى عكس ذلك. يتمتع جيل الشباب بأعلى معدل استخدام:

  • استخدم 84 في المائة منهم منصة بحث تعتمد على الذكاء الاصطناعي خلال الأشهر الستة الماضية.
  • لكنهم أيضاً الأكثر تطلباً؛ إذ يقول 72 في المائة منهم إن منصات الذكاء الاصطناعي يجب أن تُقدّم المزيد من الأدلة على المصادر الموثوقة، مقارنةً بـ63 في المائة من جيل الألفية و59 في المائة من «جيل إكس» السابقين له.

إن هذا جيلٌ مُتشبّعٌ بمحتوى الذكاء الاصطناعي الرديء، وقد طوّر أفراده حساً أقوى في التمييز بين المعلومات الأصلية والمُصطنعة. لذا؛ تُخاطر المنصات التي تُبقي هذه الفئة من الجمهور داخل بيئة مغلقة، بفقدان الجيل الأكثر إلماماً بالذكاء الاصطناعي أولاً.

قصور الحُجّة المضادة

قد يجادل البعض بأن إضافة الاقتباسات والروابط ومؤشرات المصادر تخلق عوائق، وأن جوهر البحث المدعوم بالذكاء الاصطناعي يكمن في تقديم إجابة سلسة ومتكاملة. فلماذا إذن ندفع المستخدمين بعيداً عن منصتنا؟ لكن هذا الطرح يخلط بين القيود وقيمة ما يقدم.

لا يرفض المستهلكون الملخصات التي يُنشئها الذكاء الاصطناعي، بل يرفضون الإجابات التي لا يمكنهم التحقق منها.

  • غالبية المستهلكين (69 في المائة) يرغبون في خيار مغادرة منصات الذكاء الاصطناعي وزيارة مواقع موثوقة لإجراء بحوثهم الخاصة. وعندما اختبرنا ذلك عملياً، وعرضنا على المستهلكين نسختين من نتائج بحث الذكاء الاصطناعي، إحداهما بمصادر شفافة والأخرى من دونها، فضّل 80 في المائة النسخة التي تضمنت محتوى بشرياً أصيلاً ومصادر موثوقة وروابط قابلة للتنفيذ. إن إزالة القيود لا تُنفّر المستخدمين، بل تُعزز ثقتهم.

ربط الذكاء الاصطناعي بتجارب الواقع

يقف قطاع الذكاء الاصطناعي على مفترق طرق. ولن تكون المنصات الفائزة هي تلك التي تُنتج إجابات اصطناعية أكثر إقناعاً. بل ستكون هذه المنصات تلك التي تربط المستخدمين بسلاسة بتجارب حقيقية من العالم الواقعي، مستخدمةً الذكاء الاصطناعي جسراً إلى محتوى بشري موثوق.

مع نضوج منظومة الذكاء الاصطناعي، لن تقتصر المنصات التي تُحقق التوازن الأمثل بين الملخصات المُولّدة بالذكاء الاصطناعي والمحتوى البشري الشفاف والأصيل على سدّ فجوة الثقة فحسب، بل ستضع معياراً لما يتوقعه المستهلكون.

الشفافية تسهل اتخاذ القرارات

والخبر السار هو أن زيادة الروابط الشفافة والسخية تُعدّ مدًّا متصاعداً يُفيد الجميع: إذ يحصل المستهلكون على القدرة على إجراء أبحاثهم الخاصة واتخاذ قراراتهم بثقة، ويحصل مُنشئو المحتوى والناشرون على الزيارات التي تُحافظ على منظومة محتوى صحية، وتستفيد منصات الذكاء الاصطناعي نفسها من علاقات أقوى مع المصادر الموثوقة التي تجعل إجاباتها جديرة بالثقة في المقام الأول.

الشفافية ليست خياراً ثانوياً، بل هي أساس النجاح.

* مجلة «فاست كومباني»


ما السبب الحقيقي لفشل مبادرات الذكاء الاصطناعي في المؤسسات؟

ما السبب الحقيقي لفشل مبادرات الذكاء الاصطناعي في المؤسسات؟
TT

ما السبب الحقيقي لفشل مبادرات الذكاء الاصطناعي في المؤسسات؟

ما السبب الحقيقي لفشل مبادرات الذكاء الاصطناعي في المؤسسات؟

عندما طرح «تشات جي بي تي» في نوفمبر (تشرين الثاني) 2022، كان رد الفعل فورياً وقوياً: إنه يعمل! ولأول مرة، اختبر ملايين الأشخاص الذكاء الاصطناعي ليس بوصفه وعداً بعيد المنال، بل بوصفه شيئاً مفيداً وبديهياً. وحتى مع عيوبه، فقد ظهر أنه يتمتع بقدرات مذهلة.

حدس صحيح واستنتاج خاطئ

كان هذا الحدس صحيحاً. أما الاستنتاج الذي تلاه فكان خاطئاً. لأن ما ينجح ببراعة مع فرد أمام لوحة المفاتيح، أثبت عدم فاعليته بشكل مفاجئ داخل المؤسسة.

الشركات لا تُدار باللغة

بعد عامين، وبعد مليارات الدولارات من الاستثمارات، وعدد لا يحصى من التجارب، وتدفق مستمر من «المساعدين» الأذكياء، يتبلور واقع مختلف: الذكاء الاصطناعي التوليدي استثنائي في إنتاج اللغة... لكن الشركات لا تُدار باللغة: بل تُدار بالذاكرة والسياق والتغذية الراجعة والقيود.

وهذه هي الفجوة. ولهذا السبب تفشل الكثير من مبادرات الذكاء الاصطناعي في المؤسسات بهدوء. إذ حتى مع الانتشار الواسع، هناك تأثير محدود... وشعور متزايد بالتكرار.

فشل 95 % من المشاريع التجريبية

ليست هذه قصة عن تقنية فشلت في اكتساب زخم، بل على العكس تماماً.

وأظهر تحليل مدعوم من معهد ماساتشوستس للتكنولوجيا، والذي حظي باهتمام واسع، أن نحو 95 في المائة من المشاريع التجريبية للذكاء الاصطناعي التوليدي في المؤسسات تفشل في تحقيق نتائج ملموسة، حيث لا يصل سوى 5 في المائة منها إلى مرحلة الإنتاج المستدام. وتشير تغطيات أخرى للنتائج نفسها إلى النمط نفسه: تجارب مكثفة، وتحول محدود.

والتفسير واضح: المشكلة ليست في الحماس، ولا حتى في القدرة، بل في أن توظيف الأدوات لا يُترجم إلى تغيير عملي حقيقي... ليست هذه مشكلة للتبني، بل مشكلة هيكلية.

المفارقة المزعجة: ذكاء اصطناعي... لكن لا شيء يتغير

داخل معظم الشركات اليوم، يتعايش واقعان: من جهة، يستخدم الموظفون أدوات مثل «تشات جي بي تي» باستمرار. فهم يصيغون ويلخصون ويبتكرون ويسرّعون عملهم بطرق تبدو طبيعية وفعالة.

من جهة أخرى، تكافح مبادرات الذكاء الاصطناعي الرسمية في المؤسسات للتوسع خارج نطاق المشاريع التجريبية الخاضعة لرقابة دقيقة. يصف التحليل نفسه المتعلق بمعهد ماساتشوستس للتكنولوجيا فجوةً متزايدةً في «التعلم»: يجد الأفراد فائدة وقيمةً بسرعة، لكن المؤسسات تفشل في دمج هذه القيمة في سير العمل ذي الأهمية. والنتيجة هي ما يشبه «الذكاء الاصطناعي الخفي»: يستخدم الأفراد ما يُجدي نفعاً، بينما تستثمر الشركات فيما لا يُجدي.

الخطأ الأساسي: التعامل مع نموذج اللغة كنظام تشغيل

تركز معظم تفسيرات هذا الفشل على التنفيذ: بيانات غير دقيقة، حالات استخدام غير واضحة، نقص في التدريب. كل هذا صحيح، لكنه ثانوي.

المشكلة الحقيقية أبسط وأكثر جوهرية: نماذج اللغة الكبيرة مصممة للتنبؤ بالنصوص. هذا كل شيء. كل شيء آخر، من الاستدلال إلى التلخيص والمحادثة، إلخ، هو خاصية ناشئة عن هذه القدرة.

الأدوات الذكية التوليدية لا تعمل ضمن الواقع

لكن الشركات لا تعمل كسلاسل من النصوص. إنها تعمل كأنظمة متطورة ذات حالة وذاكرة وتوابع وحوافز وقيود... هذا هو التناقض. كما ذكرتُ سابقاً، هذا هو العيب البنيوي الأساسي للذكاء الاصطناعي: نماذج اللغة لا «ترى» العالم. فهي لا تحتفظ بحالة مستمرة. ولا تتعلم من ردود الفعل الواقعية إلا إذا صُممت خصيصاً لذلك... إنها تُنتج لغة مقنعة عن الواقع، لكنها لا تعمل ضمنه.

إجابات متميزة منفصلة عن النظام الفعلي

لا يمكنك إدارة شركة بناءً على تنبؤات الكلمات.اطلب من نموذج اللغة ما يلي:

-«زيادة مبيعاتي»

-«تصميم استراتيجية دخول السوق»

- «تحسين أداء الفريق»

وستحصل على إجابة. غالباً ما تكون جيدة جداً. إجابة منظمة، بليغة، ومقنعة. ولكنها منفصلة تماماً تقريباً عن النظام الفعلي الذي من المفترض أن تؤثر فيه.

وذلك لأن نموذج اللغة لا يستطيع تتبع مسار المبيعات، أو إدارة الحوافز، أو دمج بيانات إدارة علاقات العملاء، أو التكيف بناءً على النتائج. إذ يمكنه وصف استراتيجية، لكنه لا يستطيع تنفيذها.

وتؤكد نتائج معهد ماساتشوستس للتكنولوجيا هذه النقطة: أدوات الذكاء الاصطناعي التوليدي فعّالة في المهام الفردية المرنة، لكنها تعجز عن العمل في بيئات المؤسسات التي تتطلب التكيف والتعلم والتكامل. وبعبارة أخرى: يمكن للأداة الذكية كتابة المذكرة، لكنها لا تستطيع إدارة الشركة.

زيادة قدرات الحوسبة لن تحل المشكلة

كان ردّ فعل القطاع حتى الآن متوقعاً: بناء نماذج أكبر، ونشر بنية تحتية أوسع، وتوسيع نطاق كل شيء. لكن التوسع لا يُصلح خللاً في التصميم. إذا كان النظام يفتقر إلى أساس واقعي، فلن تُوفّر له المزيد من المعايير هذا الأساس. وإذا كان يفتقر إلى الذاكرة، فلن تُوفّر له المزيد من الرموز الذاكرة. وإذا كان يفتقر إلى حلقات التغذية الراجعة، فلن تُنشئها المزيد من مراكز البيانات.

يُضخّم التوسع ما هو موجود، لكنه لا يُنشئ ما هو مفقود. وما هو مفقود هنا ليس المزيد من اللغة، بل المزيد من العالم.

المرحلة المقبلة... نظم ذكية ضمن بيئات حقيقية

لن تُحدّد المرحلة التالية من الذكاء الاصطناعي المؤسسي بواجهات دردشة أفضل أو نماذج لغوية أكثر قوة، بل ستُحدّد بشيء آخر تماماً: أنظمة قادرة على الحفاظ على الحالة، والاندماج في سير العمل، والتعلم من النتائج، والعمل ضمن قيود.

أنظمة لا تُولّد نصوصاً فحسب، بل تعمل ضمن بيئات حقيقية. لهذا السبب؛ لن يُبنى مستقبل الذكاء الاصطناعي في الشركات على نماذج اللغة وحدها، بل على بنى تُدمجها ضمن نماذج أكثر ثراءً للواقع.

أقول ما يعرفه الكثيرون بالفعل... ولكن نادراً ما يقولونه: هناك زخم كبير، واستثمارات ضخمة، وسرديات كثيرة مبنية على فكرة أن توسيع نطاق نماذج اللغة سيحل كل شيء في النهاية. هذا لن يحدث.

فرصة حقيقية

هذه ليست نهاية الذكاء الاصطناعي المؤسسي، بل هي نهاية مفهوم خاطئ. فنماذج اللغة ليست بنية مؤسسية، بل هي طبقة واجهة. طبقة قوية، لكنها غير كافية بمفردها. الشركات التي تُدرك هذا أولاً لن تُحسّن فقط من استخدام الذكاء الاصطناعي، بل ستُنشئ شيئاً مختلفاً جذرياً.

مجلة «فاست كومباني»


الموظفون الأميركيون يستخدمون الذكاء الاصطناعي للتعلّم أثناء العمل

الموظفون الأميركيون يستخدمون الذكاء الاصطناعي للتعلّم أثناء العمل
TT

الموظفون الأميركيون يستخدمون الذكاء الاصطناعي للتعلّم أثناء العمل

الموظفون الأميركيون يستخدمون الذكاء الاصطناعي للتعلّم أثناء العمل

يتنافس الموظفون على تطوير مهاراتهم في الذكاء الاصطناعي. ووفقاً لتقرير جديد، فإنهم يستخدمونه أيضاً لتعزيز تعلمهم، سواءً كان ذلك لطلب مساعدة إضافية منه لتوضيح المفاهيم وحل المشكلات، أو لاكتساب مهارات جديدة، كما كتبت سارة بريغل (*).

تحسين المهارات

يستند التقرير إلى نتائج استطلاع أجرته شركة «فراكتل» لصالح الكلية الأميركية للتعليم (ACE)، شمل أكثر من 1000 موظف أميركي يستخدمون أدوات الذكاء الاصطناعي في عملهم اليومي.

وكما هو متوقع، تستخدم نسبة كبيرة من الموظفين الذكاء الاصطناعي لتحسين مهاراتهم. فقد أفاد 63 في المائة منهم بأنهم استخدموا الذكاء الاصطناعي لتعلم مهارات لم يتلقوا تدريباً رسمياً عليها من مؤسساتهم.

القلق من دقة المعلومات

ومع ذلك، أعرب 65 في المائة منهم عن قلقهم بشأن دقة الذكاء الاصطناعي. إلا أن 23 في المائة من الموظفين لا يزالون يعدّون الذكاء الاصطناعي خيارهم الأول عندما يحتاجون إلى تعلم شيء جديد.

فوائد سرعة الإجابات

قد يعود جزء من ذلك إلى سرعة توفير الذكاء الاصطناعي للإجابات: إذ قال ما يقرب من نصف الموظفين (46 في المائة) إنهم يستخدمون الذكاء الاصطناعي للبحث عن الإجابات لأنه أسرع من طلب المساعدة.

التعلّم سراً لتفادي الاتهامات بالجهل

وربما الأهم من ذلك، أن استخدام هذه التقنية يعني أيضاً أن الموظفين لا يضطرون إلى الاعتراف بجهلهم بشيء ما. فقد قال ما يقرب من ثلثهم (29في المائة) إنهم يستخدمون الذكاء الاصطناعي لتعلم مهارات جديدة دون الإفصاح عن ذلك. ويُعدّ المديرون أكثر عرضةً لهذا الأمر: إذ اعترف 32 في المائة منهم بأنهم يتعلمون سراً.

وبشكل عام، قال 69 في المائة من الموظفين إن استخدام الذكاء الاصطناعي حسّن إنتاجيتهم، وقال أكثر من 55 في المائة إنه ساعدهم على الشعور بمزيد من الثقة في وظائفهم.

الذكاء الاصطناعي نقطة انطلاق

ومع ذلك، فبينما يستخدم الموظفون الذكاء الاصطناعي بوضوح لسدّ فجوة ما، فإنهم ليسوا راضين تماماً عن قدراته التعليمية. فقد قال 7 في المائة فقط من الموظفين إنهم يشعرون بأن تعلم المهارات من الذكاء الاصطناعي كافٍ، وقال 39 في المائة إنهم يعدّون التدريب الذي يحصلون عليه من الذكاء الاصطناعي نقطة انطلاق لمزيد من التعلم.

الذكاء الاصطناعي يحفّز للانخراط في دورات تدريبية

أفاد ما يقارب نصف المشاركين (48 في المائة) بأنهم التحقوا بدورات تدريبية بعد أن عرّفهم الذكاء الاصطناعي على مواضيع معينة رغبوا في استكشافها بتعمق. والأكثر إثارة للإعجاب، أن 80 في المائة من العاملين أكدوا استمرارهم في التعلم بشكل أو بآخر بعد تعلمهم شيئاً ما باستخدام الذكاء الاصطناعي.

مع أن الذكاء الاصطناعي قد لا يحل محل التدريب العملي تماماً، فإنه يمثل حالياً نقطة انطلاق لغالبية العاملين الساعين لاكتساب مهارات جديدة.

* مجلة «فاست كومباني»