باحثو «ستانفورد»: لا يمكننا السماح بثورة ذكاء اصطناعي في الظلام

تصنيف علمي لشفافية طريقة تشغيل 10 نماذج منها

جدول جامعة ستانفورد لتقييم النماذج العشرة للذكاء الاصطناعي
جدول جامعة ستانفورد لتقييم النماذج العشرة للذكاء الاصطناعي
TT

باحثو «ستانفورد»: لا يمكننا السماح بثورة ذكاء اصطناعي في الظلام

جدول جامعة ستانفورد لتقييم النماذج العشرة للذكاء الاصطناعي
جدول جامعة ستانفورد لتقييم النماذج العشرة للذكاء الاصطناعي

ما مدى معرفتنا عن الذكاء الاصطناعي، عندما يتعلّق الأمر بالنماذج اللغوية الكبيرة التي أطلقتها شركات مثل «أوبن إي آي» و«غوغل» و«ميتا» العام الماضي؟ الجواب هو: لا شيء.

تُحجم هذه الشركات عامّة عن المشاركة بمعلومات عن البيانات التي استخدمتها لتدريب نماذجها أو الأدوات التي استخدمتها لتشغيلها. لا يوجد حتّى اليوم دليلٌ خاص بالمستخدم لأنظمة الذكاء الاصطناعي، ولا لائحة توضح قدرات هذه الأنظمة، أو حتّى اختبارات السلامة التي أجريت عليها.

صحيحٌ أنّ بعض نماذج الذكاء الاصطناعي مفتوحة المصدر -أي أنّ رمزها البرمجي متوفّر لعموم الجمهور مجّاناً- إلّا أنّ النّاس لا يعلمون الكثير عن عملية ابتكارها، أو ما الذي يحصل بعد إطلاقها.

تقييم جامعة ستانفورد

في هذا السياق، أطلق باحثون من جامعة ستانفورد أخيراً نظام تقييم على أمل المساعدة في تغيير هذا الوضع.

يحمل المشروع اسم «مؤشر شفافية نموذج الأساس» Foundation Model Transparency Index ويصنّف 10 نماذج لغوية كبيرة مدعومة بالذكاء الاصطناعي (تُسمّى أحياناً بـ«نماذج الأساس») بناءً على درجة شفافيتها.

يشمل المؤشر نماذج شهيرة مثل GPT-4 من «أوبن إي آي» (الذي يشغّل الإصدار المدفوع من «تشات جي بي تي»)، و«PaLM 2» (الذي يشغّل نموذج «بارد»)، و«LLaMA 2» من «ميتا»، بالإضافة إلى نماذج أقلّ شعبية مثل «Titan Text» من «أمازون»، و«Inflection-1» من «إنفلكشن إي آي»، الذي يشغّل روبوت المحادثة «باي».

لتصميم التصنيف، قيّم الباحثون كلّ نموذج وفقاً لمائة معيار، ككشف الشركة المنتجة عن مصادر بيانات التدريب ومعلومات عن الأدوات المستخدمة، والعمالة التي شاركت في التدريب، إلى جانب تفاصيل أخرى. وتضمّنت التصنيفات أيضاً معلومات عن العمالة والبيانات المستخدمة لإنتاج النموذج نفسه، إلى جانب ما سماه الباحثون «مؤشرات المجريات» (downstream indicators) المتعلّقة بكيفية استخدام النموذج بعد إطلاقه. (مثلاً، جاء أحد الأسئلة على الشكل الآتي: «هل كشف المطوّر عن البروتوكولات التي استخدمها لتخزين بيانات المستخدم، والوصول إليها، ومشاركتها؟»).

شفافية الذكاء الاصطناعي

وجد الباحثون بعد التصنيف الذي أجروه أنّ النموذج الأكثر شفافية هو «LLaMA 2» بنسبة 54 في المائة، بينما حقّق «GPT-4» و«PaLM 2» ثالث أعلى رصيد شفافية بـ40 في المائة.

وصف بيرسي ليانغ، مدير مركز أبحاث نماذج الأساس في ستانفورد، مشروع التصنيف، بالاستجابة الضرورية للشفافية المتردّية في صناعة الذكاء الاصطناعي. وأضاف أنّ تدفّق الأموال للاستثمار في الذكاء الاصطناعي وتصارع كبرى شركات التقنية للسيطرة على الصناعة، دفع كثيراً منها أخيراً إلى إحاطة نفسها بالسريّة التامّة.

ويشرح ليانغ: «قبل ثلاث سنوات، كان الناس ينشرون ويشاركون تفاصيل أكثر عن نماذجهم. أمّا اليوم، فلا توجد معلومات حول طبيعة هذه النماذج، وكيف طُوّرت، وأين تُستخدم».

تنطوي الشفافية اليوم على أهميّة استثنائية؛ لأنّ هذه النماذج تزداد قوّة، فضلاً عن أنّ أدوات الذكاء الاصطناعي باتت تدخل في حياة الملايين اليومية. ومعرفة مزيد عن عمل هذه الأنظمة سيزوّد واضعي القوانين والباحثين والمستخدمين بمفهومٍ أفضل عمّا يتعاملون معه، وسيتيح لهم طرح أسئلة بنّاءة عن الشركات التي تقف خلف النماذج.

ويشدّد ليانغ على «غياب مشاركة بعض القرارات التبعية التي تُتّخذ اليوم حول تطوير هذه النماذج».

سرّية غير مبررة

ويضيف ليانغ أنّه عندما يسأل المديرين التنفيذيين في شركات الذكاء الاصطناعي عن سبب عدم مشاركتهم لمزيد من المعلومات عن نماذجهم، يسمع واحدة من ثلاث إجابات شائعة:

* الأولى هي الدعاوى القضائية: تواجه شركات ذكاء اصطناعي عدّة دعاوى قضائية رفعها مؤلّفون وفنّانون وشركات إعلامية، تتهمها باستخدام أعمال خاضعة لحقوق الملكية بشكلٍ غير قانوني لتدريب نماذج الذكاء الاصطناعي الخاصة بها. استهدف معظم هذه الدعاوى حتّى اليوم مشاريع الذكاء الاصطناعي مفتوحة المصدر، أو المشاريع التي نشرت معلومات مفصّلة عن نماذجها. يتخوّف الوكلاء القانونيون لشركات الذكاء الاصطناعي من أن يجرّ إفصاح الشركات عن تفاصيل بناء نماذجها مزيداً من العواقب القانونية المزعجة والمكلفة.

* الثانية هي المنافسة: تعتقد شركات الذكاء الاصطناعي أنّ نماذجها تعمل لأنّها تملك ما يشبه «الصلصة السرية»؛ نسقٌ من البيانات النوعية التي لا تملكها الشركات الأخرى، وتقنية عالية الضبط تعطي نتائج أفضل، وبعض الصقل الذي يمنحها أفضلية ما. تحاجج هذه الشركات بأنّها في حال أُجبرت على الكشف عن وصفاتها السرية، ستُقدّم لمنافسيها حكمة اكتسبتها بصعوبة على طبقٍ من فضّة.

* الثالثة، وهي الأكثر ترداداً، السلامة: يحاجج بعض خبراء الذكاء الاصطناعي بأنّه كلّما زاد كمّ المعلومات التي تشاركها شركات الذكاء الاصطناعي عن نماذجها، سيتسارع تقدّم الذكاء الاصطناعي أكثر؛ لأنّ كلّ واحدة من هذه الشركات ستطّلع على ما حقّقته منافستها، وستعمد على الفور إلى التفوّق عليها ببناء نموذج أفضل وأكبر وأسرع. وهكذا، لن يملك المجتمع الوقت الكافي لتنظيم وإبطاء الذكاء الاصطناعي، مما سيعرّضنا جميعاً لمزيد من المخاطر إذا أصبح الذكاء الاصطناعي أقوى بسرعةٍ أكبر.

لا توجد معلومات حول طبيعة هذه النماذج وكيف طُوّرت وأين تُستخدم

تفسيرات غير مقنعة

ولكنّ باحثي ستانفورد لا يصدّقون هذه التفسيرات، ويعتقدون أنّ شركات الذكاء الاصطناعي يجب أن تخضع لضغوطات للكشف عن المعلومات الكافية التي توضح قوّة نماذجها؛ لأنّ المستخدمين والباحثين وواضعي القوانين يجب أن يكونوا على دراية بكيفية عمل هذه النماذج، ومحدوديتها، وبدرجة الخطر التي قد تترتّب عليها.

من جهته، قال ريشي بوماساني، أحد الباحثين المشاركين في المشروع، إنّ «الشفافية تشهد تراجعاً ملحوظاً يتزامن مع تصاعد تأثير هذه التقنية».

ونحن نوافقهم الرأي؛ لأنّ هذه النماذج الأساس أقوى من أن تبقى مبهمة، وكلّما توسّعت معرفتنا بها زاد فهمنا للتهديدات التي قد ترتّبها، والمكاسب التي قد تحملها، أو للطريقة التي تمكّننا من تنظيمها.

وإذا كان تنفيذيّو شركات الذكاء الاصطناعي يشعرون بالقلق من الدعاوى القضائية، فربّما يجب عليهم أن يكافحوا من أجل إعفاء عادلٍ يحمي قدرتهم على استخدام المعلومات الخاضعة لحقوق الملكية لتدريب نماذجهم بدل إخفاء الأدلّة. وإذا كانوا يشعرون بالقلق من التنازل عن أسرارهم التجارية للمنافسين، فيمكنهم رفع النقاب عن نوعٍ آخر من المعلومات، أو حماية أفكارهم بواسطة براءة اختراع. وفي حال كانوا قلقين من استعار سباق التسلّح بالذكاء الاصطناعي، نقول لهم: «ألسنا في وسط واحدٍ الآن؟»

لا يمكننا السماح بثورة ذكاء اصطناعي في الظلام، ويجب أن نعلم ماذا يوجد داخل صناديق الذكاء الاصطناعي السوداء إذا كنّا سنسمح لها بتغيير حياتنا.

* خدمة «نيويورك تايمز»


مقالات ذات صلة

الصين تُعلّق تراخيص المركبات ذاتية القيادة بعد عطل في خدمة «بايدو»

الاقتصاد سيارات معدة للتصدير في ميناء ليانيينغانغ شرق الصين (أ.ف.ب)

الصين تُعلّق تراخيص المركبات ذاتية القيادة بعد عطل في خدمة «بايدو»

علقت الصين إصدار تراخيص جديدة للمركبات ذاتية القيادة بعد توقف مفاجئ لسيارات الأجرة الآلية «أبولو جو» التابعة لشركة «بايدو» في ووهان الشهر الماضي.

«الشرق الأوسط» (بكين)
الاقتصاد شعار شركة «ديب سيك» على شاشة أحد الهواتف الذكية (رويترز)

شركات التكنولوجيا الصينية تتسابق للحصول على رقائق «هواوي»

ارتفع الطلب على رقائق «أسند 950» من شركة «هواوي» الصينية بشكل كبير، بعد إطلاق نموذج الذكاء الاصطناعي «في 4» من «ديب سيك».

«الشرق الأوسط» (بكين)
تكنولوجيا شعار شركة «ميتا» (رويترز)

«ميتا» تتجه إلى الفضاء لتوليد الطاقة الشمسية

تسعى شركة «ميتا» إلى استكشاف آفاق غير تقليدية لتأمين احتياجاتها المتزايدة من الطاقة، خصوصاً مع التوسع الكبير في تشغيل أنظمة الذكاء الاصطناعي.

«الشرق الأوسط» (كاليفورنيا (الولايات المتحدة))
الاقتصاد كلمة «الذكاء الاصطناعي» ولوحة مفاتيح ويدا روبوت في هذه الصورة التوضيحية (رويترز)

«سيتي غروب» ترفع توقعاتها لسوق الذكاء الاصطناعي إلى 4.2 تريليون دولار

تتوقع «سيتي غروب» أن يتجاوز حجم سوق الذكاء الاصطناعي العالمي 4.2 تريليون دولار بحلول عام 2030، منها نحو 1.9 تريليون دولار مرتبطة بالذكاء الاصطناعي للشركات.

«الشرق الأوسط» (نيويورك)
الاقتصاد المساعد الذكي «مانوس» على شاشة أحد الهواتف الذكية (أ.ف.ب)

الصين تمنع استحواذ «ميتا» على «مانوس» الناشئة للذكاء الاصطناعي

منعت هيئة التخطيط الحكومية الصينية، يوم الاثنين، استحواذ «ميتا» الأميركية على شركة «مانوس» الصينية الناشئة في مجال الذكاء الاصطناعي.

«الشرق الأوسط» (بكين)

خبراء يُحذرون: الذكاء الاصطناعي يكشف عن طرق خطيرة لتطوير أسلحة بيولوجية

مؤيدو الذكاء الاصطناعي يرون أنه يحمل إمكانات هائلة لإحداث ثورة في الطب (رويترز)
مؤيدو الذكاء الاصطناعي يرون أنه يحمل إمكانات هائلة لإحداث ثورة في الطب (رويترز)
TT

خبراء يُحذرون: الذكاء الاصطناعي يكشف عن طرق خطيرة لتطوير أسلحة بيولوجية

مؤيدو الذكاء الاصطناعي يرون أنه يحمل إمكانات هائلة لإحداث ثورة في الطب (رويترز)
مؤيدو الذكاء الاصطناعي يرون أنه يحمل إمكانات هائلة لإحداث ثورة في الطب (رويترز)

في وقت يتسارع فيه تطوّر تقنيات الذكاء الاصطناعي بوتيرة غير مسبوقة، تزيد المخاوف بشأن إساءة استخدام هذه الأدوات في مجالات حساسة وخطيرة. فبينما يُروَّج لهذه التقنيات بوصفها محركاً للابتكار العلمي والطبي، بدأت تظهر مؤشرات مقلقة إلى قدرتها على تقديم إرشادات قد تُستغل في تطوير أسلحة بيولوجية، ما يفتح الباب أمام تهديدات غير تقليدية يصعب احتواؤها.

تجربة صادمة لعالم في جامعة ستانفورد

في إحدى أمسيات الصيف الماضي، وجد الدكتور ديفيد ريلمان، عالم الأحياء الدقيقة وخبير الأمن البيولوجي في جامعة ستانفورد الأميركية، نفسه أمام موقف صادم أثناء اختباره أحد برامج الدردشة الآلية.

وكان ريلمان قد كُلّف من قبل شركة تعمل في مجال الذكاء الاصطناعي بتقييم منتجها قبل طرحه للجمهور. وخلال تلك التجربة، فوجئ بأن البرنامج لا يكتفي بالإجابة عن أسئلة عامة، بل قدّم شرحاً مفصلاً حول كيفية تعديل مسبب مرض خطير في المختبر ليصبح مقاوماً للعلاجات المعروفة، وفقاً لما نقلته صحيفة «نيويورك تايمز».

لم يتوقف الأمر عند هذا الحد، إذ عرض البرنامج أيضاً سيناريوهات دقيقة لكيفية نشر هذا المسبب المرضي، مشيراً إلى ثغرة أمنية في نظام نقل عام كبير. ووفقاً لريلمان، فقد تضمّن الشرح خطوات تهدف إلى زيادة عدد الضحايا إلى أقصى حد، مع تقليل فرص الكشف عن الجهة المنفذة.

وبسبب خطورة هذه المعلومات، طلب ريلمان عدم الكشف عن اسم المسبب المرضي أو تفاصيل إضافية، خشية أن تُستخدم في التحريض على هجمات حقيقية.

وقد أثارت هذه التجربة صدمة عميقة لديه، دفعته إلى مغادرة مكتبه لفترة قصيرة لاستعادة هدوئه. وقال: «لقد أجاب عن أسئلة لم تخطر ببالي، وبمستوى من الخبث والمكر أثار في نفسي شعوراً بالرعب».

ورغم أن الشركة المطوّرة أضافت بعض إجراءات السلامة بعد الاختبار، فإن ريلمان رأى أنها غير كافية للحد من هذه المخاطر.

خبراء يُحذّرون: النماذج الحالية تتجاوز مجرد المعلومات العامة

يُعدّ ريلمان واحداً من مجموعة محدودة من الخبراء الذين تستعين بهم شركات الذكاء الاصطناعي لتقييم المخاطر المحتملة لمنتجاتها. وفي الأشهر الأخيرة، شارك عدد منهم مع صحيفة «نيويورك تايمز» أكثر من 12 محادثة مع روبوتات دردشة.

وأظهرت هذه المحادثات أن النماذج المتاحة للجمهور قادرة على تقديم معلومات تتجاوز حدود المعرفة العامة، إذ شرحت بشكل مفصل كيفية شراء مواد وراثية خام، وتحويلها إلى أسلحة بيولوجية، بل حتى نشرها في أماكن عامة، مع اقتراح وسائل للتهرب من الكشف.

لطالما وضعت الحكومة الأميركية سيناريوهات لمواجهة تهديدات بيولوجية محتملة، تشمل استخدام بكتيريا أو فيروسات أو سموم فتاكة. ومنذ سبعينات القرن الماضي، شهد العالم عشرات الحوادث البيولوجية المحدودة، من أبرزها هجمات الرسائل الملوثة عام 2001، التي أودت بحياة 5 أميركيين.

ورغم أن الخبراء يرون أن احتمال وقوع كارثة بيولوجية كبرى لا يزال منخفضاً، فإن تداعياتها المحتملة قد تكون كارثية، إذ يمكن لسلاح بيولوجي فعّال أن يؤدي إلى وفاة ملايين الأشخاص.

الذكاء الاصطناعي يوسّع نطاق المخاطر

يشير عشرات الخبراء إلى أن الذكاء الاصطناعي يُعد من أبرز العوامل التي قد تزيد من هذه المخاطر، عبر توسيع دائرة الأفراد القادرين على الوصول إلى معلومات وأدوات كانت حكراً على المتخصصين.

فقد أصبحت بروتوكولات علمية متقدمة متاحة على الإنترنت، كما باتت الشركات تبيع مكونات جينية صناعية (DNA وRNA) مباشرة للمستهلكين. ويمكن للعلماء تقسيم أعمالهم الحساسة وإسنادها إلى مختبرات خاصة، في حين يمكن لروبوتات الدردشة المساعدة في إدارة هذه العمليات المعقدة.

وشارك كيفن إسفلت، مهندس الوراثة في معهد ماساتشوستس للتكنولوجيا، أمثلة لمحادثات مع برامج ذكاء اصطناعي. ففي إحدى الحالات، شرح أحد البرامج كيفية استخدام بالون طقس لنشر مواد بيولوجية فوق مدينة.

وفي مثال آخر، قام برنامج آخر بتصنيف مسببات الأمراض وفق قدرتها على الإضرار بقطاع الثروة الحيوانية. كما قدّم برنامج ثالث وصفة لسم جديد مستوحى من دواء للسرطان.

وأشار إسفلت إلى أن بعض هذه المعلومات كان بالغ الخطورة لدرجة لا يمكن نشرها علناً.

وفي تجربة أخرى، طلب عالم أميركي - فضّل عدم الكشف عن هويته - من أحد أنظمة الذكاء الاصطناعي تقديم «بروتوكول خطوة بخطوة» لإعادة تصنيع فيروس تسبب في جائحة سابقة.

وجاء الرد في شكل تعليمات مفصلة بلغ طولها نحو 8 آلاف كلمة، تتضمن كيفية الحصول على مكونات جينية وتجميعها. ورغم وجود بعض الأخطاء، فإن هذه المعلومات قد تكون مفيدة لشخص لديه نوايا ضارة.

تراجع الرقابة ومخاوف متزايدة

في سياق متصل، أُثيرت مخاوف بشأن تراجع الرقابة على هذه التقنيات، خصوصاً في ظل سياسات تهدف إلى تعزيز ريادة الولايات المتحدة في مجال الذكاء الاصطناعي. وقد شهدت المؤسسات المعنية بالأمن البيولوجي مغادرة عدد من كبار الخبراء دون تعويضهم، إلى جانب انخفاض ملحوظ في ميزانيات الدفاع البيولوجي.

في المقابل، يرى مؤيدو الذكاء الاصطناعي أنه يحمل إمكانات هائلة لإحداث ثورة في الطب، من خلال تسريع الأبحاث وتحليل البيانات الضخمة لاكتشاف علاجات جديدة.

كما يُشير بعض العلماء إلى أن المعلومات التي تقدمها هذه الأنظمة ليست جديدة بالكامل، وأن تطوير أسلحة بيولوجية فعّالة لا يزال يتطلب خبرة علمية عميقة وسنوات من العمل المختبري.

من جانبها، أكدت شركات التكنولوجيا الكبرى، مثل «أنثروبيك» و«أوبن إيه آي» و«غوغل»، أنها تعمل بشكل مستمر على تطوير أنظمتها وتحسين إجراءات الأمان، بهدف تحقيق توازن بين الفوائد المحتملة والمخاطر المصاحبة لهذه التقنيات.


«ميتا» توقع اتفاقية مع «أمازون ويب سيرفيسز» لتشغيل الذكاء الاصطناعي الوكيل عبر عشرات الملايين من المعالجات فائقة الأداء

معالج "غرافيتون5"
معالج "غرافيتون5"
TT

«ميتا» توقع اتفاقية مع «أمازون ويب سيرفيسز» لتشغيل الذكاء الاصطناعي الوكيل عبر عشرات الملايين من المعالجات فائقة الأداء

معالج "غرافيتون5"
معالج "غرافيتون5"

تعمل شركة «ميتا» على تطوير جيل جديد من تقنيات الذكاء الاصطناعي وتطوير تجارب غير مسبوقة للمستخدمين. ولتحقيق ذلك، تحتاج الشركة إلى جيل جديد من المعالجات، الأمر الذي توفره «أمازون ويب سيرفيسز (AWS)»، حيث تم توقيع اتفاقية بين الشركتين لاستخدام عشرات الملايين من معالجات «غرافيتون (AWS Graviton)»، ما يعكس تحولاً جوهرياً في كيفية بناء البنية التحتية للذكاء الاصطناعي.

معالج «غرافيتون 5»

وفي السابق، كانت «وحدات معالجة الرسومات (GPU)» أساسية لتدريب النماذج الضخمة، ولكن تطور «الذكاء الاصطناعي الوكيل (Agentic AI)» (وحدات برمجية مستقلة قادرة على التفكير والتخطيط وإنجاز المهام المعقدة وكأنها مستخدم يجلس أمام الكومبيوتر) يعني وجود حاجة متزايدة إلى طلب هائل على أحمال العمل التي تحتاج لموارد «معالجة مركزية (CPU)» مكثفة، مثل توليد النصوص البرمجية والبحث وتنسيق المهام متعددة الخطوات. وتم تصميم معالج «غرافيتون5» (Graviton5) خصيصاً لهذه المهام، ما يمنح «ميتا» قدرات الحوسبة اللازمة لتشغيلها بكفاءة وموثوقية.

معالجة أسرع للبيانات

ويتميز المعالج الجديد بتقديم 192 نواة وذاكرة تخزين مؤقتة أكبر بخمس مرات مقارنة بالجيل السابق، ما يخفض من زمن استجابة النوى بنسبة تصل إلى 33 في المائة، مما يعني معالجة أسرع للبيانات بنطاق ترددي أكبر، وهما شرطان أساسيان لنظم الذكاء الاصطناعي التي تتطلب تنفيذ مهام مستمرة ومتعددة الخطوات. وتم تصنيع المعالج بدقة 3 نانومتر للحصول على معالج بحجم أقل وكفاءة أعلى، ما ينجم عنه بنية تحتية بأداء أعلى بنسبة تصل إلى 25 في المائة مقارنة بالجيل السابق، مع الحفاظ على كفاءة فائقة باستهلاك الطاقة للحد من الأثر البيئي.

أعلى مستويات الأداء والأمان

كما صُممت المعالجات على نظام «إيه دبليو إس نايترو (AWS Nitro)» الذي يستخدم دارات إلكترونية وبرمجية مخصصة لتحقيق أعلى مستويات الأداء والتوافر والأمان. ويسمح هذا النظام بالوصول المباشر للعتاد الإلكتروني، مع توفير تقنيات متقدمة، مثل: «Elastic Network Adapter ENA» و«Amazon Elastic Block Store EBS»، لتشغيل البيئة الافتراضية الخاصة دون أي تأثير على الأداء.

كما يدعم المعالج تقنية «Elastic Fabric Adapter EFA» التي تتيح اتصالاً منخفض التأخير وعالي السعة بين البيئات الافتراضية المتعددة، وهو أمر بالغ الأهمية لتشغيل أعباء عمل الذكاء الاصطناعي الوكيل لدى «ميتا»، الذي يتطلب توزيع مهام واسعة النطاق على مجموعة متعددة من معالجات تعمل بتنسيق تام نحو تحقيق هدف واحد للمستخدم.


برنامج ذكاء اصطناعي... يتنبأ بترقيتك المقبلة

برنامج ذكاء اصطناعي... يتنبأ بترقيتك المقبلة
TT

برنامج ذكاء اصطناعي... يتنبأ بترقيتك المقبلة

برنامج ذكاء اصطناعي... يتنبأ بترقيتك المقبلة

ترقية الشخص غير المناسب مسألة مكلفة، كما أنها تحدث بشكل متكرر، إذ تتراوح نسبة فشل المديرين التنفيذيين المعينين بين 30 و50 في المائة خلال أول سنة ونصف من عملهم، كما كتبت سارة بريغل(*).

منصة ذكية لاختيار قادة المستقبل

وقد طورت شركة «وركهيومان» Workhuman، وهي منصة لإدارة الموظفين، أداة ذكاء اصطناعي جديدة باسم «فيوتشر ليدرز» Future Leaders (قادة المستقبل)، للمساعدة في تحسين قرارات الترقية.

رصد الإمكانات العالية للموظفين

تستطيع هذه الأداة التي أعلنت عنها الشركة يوم أمس الثلاثاء «تحديد الموظفين ذوي الإمكانات العالية الذين يُرجح أن يصبحوا قادة كباراً قبل الترقية بثلاث إلى خمس سنوات».

وقد تحدث الرئيس التنفيذي، إريك موسلي، أمام حشد من الحضور في المؤتمر السنوي للشركة في أورلاندو، فلوريدا، عن برنامج Future Leaders، قائلاً إن الشركة اختبرته من خلال بياناتها عام 2020، وقد تمكنت الأداة من التنبؤ بالترقيات بدقة تقارب 80 في المائة.

تحليل أسباب الثقة

ويقول إن نظام «فيوتشر ليدرز» قادر على تحليل أسباب حصول الموظفين على الترقيات. على سبيل المثال، عندما سُئل النظام عن سبب ترقية شخص ما إلى منصب نائب الرئيس، قدم شرحاً مفصلاً، مشيراً إلى أن المسؤوليات الموكلة إليه تدل على تقديره، وثقة النظام به بشكل كبير. وأوضح موسلي أن الذكاء الاصطناعي أطلق على هذا تعبير «الثقة الاستراتيجية». وأضاف أن هذا الأمر جعله يدرك أن الثقة الاستراتيجية «مؤشر رئيس على ترقية شخص ما في المستقبل».

استخلاص أنماط القادة

بما أن نظام «قادة المستقبل» مُدرب على مجموعة بيانات ضخمة من القادة، فإنه يستطيع استخلاص الأنماط التي تميز القادة الحقيقيين، وبالتالي إيجاد الموظفين الذين يتوافقون مع هذه الأنماط، والتوصية بهم. وأشار موسلي إلى أن هذه الأداة يمكن استخدامها لضمان عدم تفويت الشركات للموظفين الموهوبين الذين يستحقون الترقية.

توظيف الأدوات الذكية في التقييم

وقد بدأت العديد من الشركات بالفعل في تطبيق الذكاء الاصطناعي للمساعدة في الترقيات. ووفقاً لاستطلاع أجرته «Resume Builder» عام 2025، يستخدم 77 في المائة من المديرين الذكاء الاصطناعي للمساعدة في اتخاذ قرارات الترقية. وتتجاوز أدوات مثل «قادة المستقبل» ذلك، إذ تتيح للمديرين «استشراف» المستقبل.

التقدير البشري لا يزال مهماً

ومع ذلك، وحتى مع دقة تصل إلى 80 في المائة، قد يظل القرار النهائي بشأن من تتم ترقيته مرهوناً بعوامل لا يمكن لأي أداة ذكاء اصطناعي تحديدها. كما أشار موسلي إلى أنه لا يزال من المهم استخدام التقدير البشري، وفي نهاية المطاف، لا يكون الذكاء الاصطناعي فعالاً إلا بقدر فاعلية الإنسان الذي يوجهه.

* مجلة «فاست كومباني»