كوريا الجنوبية مهدَّدة بـ«فجوة كبرى» في تطوير الذكاء الاصطناعي

تشكيل جبهة من الحقوقيين والأطباء والاختصاصيين مضادة له

كوريا الجنوبية مهدَّدة بـ«فجوة كبرى» في تطوير الذكاء الاصطناعي
TT

كوريا الجنوبية مهدَّدة بـ«فجوة كبرى» في تطوير الذكاء الاصطناعي

كوريا الجنوبية مهدَّدة بـ«فجوة كبرى» في تطوير الذكاء الاصطناعي

مع تعهد كوريا الجنوبية باستثمار أكثر من 100 تريليون وون (74 مليار دولار) في الذكاء الاصطناعي، فإنها تُرسّخ مكانتها منافساً قوياً في سباق الذكاء الاصطناعي العالمي. وبفضل شركاتها التقنية المتطورة، وبنيتها التحتية القوية، ومواهبها المتميزة، يُتوقع أن تكون كوريا الجنوبية على أهبة الاستعداد للنجاح، كما كتب جوبو شيم*.

معضلة متفاقمة... صراع على سلطة القرار

لكن تحت السطح، تكمن معضلة متفاقمة تُثير تساؤلات مُقلقة حول من يستفيد حقاً من ابتكارات الذكاء الاصطناعي، ومن سيتخلف عن الركب.

في كوريا الجنوبية، لا يُمثل الذكاء الاصطناعي مجرد تحدٍّ تكنولوجي، بل ساحة صراع على السلطة. ففي حين عرقلت فئات مهنية نخبوية -مثل المحامين والأطباء ومحاسبي الضرائب- مراراً وتكراراً الإصلاحات التي يقودها الذكاء الاصطناعي التي تُهدد سلطتها، وجدت المجتمعات المهمشة اجتماعياً واقتصادياً التي غالباً ما تفتقر إلى المهارات أو الدعم اللازم للتكيف، وجدت نفسها في مواجهة تغيرات سريعة.

مقاومة مجتمعية داخلية

لم تأتِ مقاومة ابتكارات الذكاء الاصطناعي من الجهات المعتادة -الحكومات أو الجهات التنظيمية أو المنافسين الدوليين- بل جاءت من الداخل.

خذْ على سبيل المثال «تادا»، خدمة طلب سيارات الأجرة التي وعدت سابقاً ببديل أذكى لنظام سيارات الأجرة القديم في كوريا الجنوبية. إذ على الرغم من نجاحها الأوّلي، اضطرت «تادا» إلى الإغلاق بعد رد فعل عنيف من نقابات سيارات الأجرة، والقيود القانونية اللاحقة. ورد كوريا الجنوبية في هذا الشأن لم ينتهِ بفشل في التسويق، بل بتراجع سياسي تحت ضغط من مجموعة راسخة.

معارضة المحامين والمحاسبين والأطباء

تكرَّر النمط نفسه في مجالات أخرى. فقد عارضت نقابة المحامين الكورية بشدة روبوت الدردشة بالذكاء الاصطناعي التابع لشركة المحاماة «DR & AJU»، وهي منصة تقدم استشارات قانونية، واتهمتها بتقويض المهنة القانونية.

ودخلت «3o3»، وهي خدمة استرداد ضرائب تعتمد على الذكاء الاصطناعي، في صراع مع الجمعية الكورية لمحاسبي الضرائب العموميين المعتمدين. وأثارت «DoctorNow»، وهي شركة ناشئة في مجال الطب عن بُعد، غضب الصيادلة والأطباء الذين يخشون فقدان أدوارهم التقليدية.

وفي كل حالة، لم تكن المقاومة نابعة من عدم نضج التكنولوجيا أو انعدام ثقة الجمهور بها، بل كانت دفاعاً مدروساً عن منطقة مهنية.

خنق الابتكار لتهديده هياكل السلطة القديمة

أظهرت هذه المجموعات -التي غالباً ما تكون منظمة جيداً، ومتصلة سياسياً، وعالية الصوت- أنه في كوريا الجنوبية، يمكن خنق الابتكار ليس بسبب جدواه، ولكن بسبب تهديده هياكل السلطة القديمة. الذكاء الاصطناعي، في هذا السياق، لا يمثل التقدم فحسب، بل يمثل أيضاً تغييراً جذرياً، ولا يرحب به الجميع.

إهمال العاملين المهمَّشين في الوظائف الدنيا

بينما ينشغل المهنيون الأقوياء في كوريا الجنوبية بإقامة حواجز لحماية نفوذهم، يجري إهمال فئة أخرى تماماً: المهمشين اجتماعياً واقتصادياً.

في خضم الاندفاع نحو الأتمتة وتبني الذكاء الاصطناعي، لم يُولَ اهتمام يُذكر لأولئك الذين تكون سبل عيشهم الأكثر عرضة للخطر. ففي متاجر التجزئة وسلاسل مطاعم الوجبات السريعة، حلَّت الأكشاك محل الصرافين البشريين بشكل مطرد.

وفي مجال الخدمات اللوجيستية، بدأت الأنظمة التي تعتمد على الذكاء الاصطناعي في تبسيط عمليات التخزين والتوصيل -غالباً على حساب العمالة المبتدئة. وتشير التقارير إلى أن شركة «ميتابلانت أميركا (HMGMA)» التابعة لمجموعة «هيونداي موتور» في ولاية جورجيا الأميركية توظف روبوتات أكثر من البشر.

استبعاد العاملين... اقتصادياً ومعلوماتياً

قد تعزز هذه التغييرات الإنتاجية، ولكنها تشير، بالنسبة إلى كثير من العمال ذوي المهارات المحدودة، إلى نزوح... أكثر من كونها فرصة. وقد تأخرت كوريا الجنوبية في إيجاد مسارات هادفة للعمال الضعفاء للانتقال إلى اقتصاد الذكاء الاصطناعي.

هذا الاستبعاد ليس اقتصادياً فحسب؛ بل هو أيضاً معلوماتي. إذ لا يزال الإلمام بالذكاء الاصطناعي منخفضاً بين كبار السن والمجتمعات الريفية والفئات ذات الدخل المنخفض. ومن دون الحصول على التدريب أو التعليم، غالباً ما يُعامل هؤلاء المواطنون على أنهم متلقون سلبيون للتغيير، بدلاً من أن يكونوا مشاركين فاعلين في تشكيله.

عندما تُعرقل المقاومة الراسخة الابتكار ويظل المجتمع مجزأً، فإن التكلفة لا تقتصر على عدم المساواة، بل تصبح عائقاً أمام التقدم الوطني نفسه.

تخطيط طموح وأضرار محتملة

إن خطة الحكومة الكورية الطموحة لاستثمار 100 تريليون وون في الذكاء الاصطناعي تُرسل إشارة قوية على النية. ولكن إذا تدفقت هذه الأموال إلى أيدي صناعات محمية بالفعل، أو عززت سيطرة الجهات التنظيمية، أو موَّلت الأتمتة دون ضمانات للعمال المُسرّحين، فإنها تُخاطر بإلحاق ضرر أكبر من نفعها. فمن دون تخطيط شامل، قد تُسرّع هذه الاستثمارات من عدم المساواة بدلاً من الابتكار.

إنشاء نظامٍ أكثر عدلاً يدعم الفئات الضعيفة

هذه ليست مشكلةً فريدةً في كوريا الجنوبية. ففي جميع أنحاء العالم، بدأت الدول التي تتبع خطىً سريعةً في هذا المجال تواجه المفارقة نفسها.

إذا أرادت كوريا الجنوبية حقاً أن تصبح قوةً في مجال الذكاء الاصطناعي، فعليها أن تتجاوز إطار بناء آلاتٍ أكثر ذكاءً... إنها تحتاج إلى إنشاء نظامٍ أكثر عدلاً يُخفّض الحواجز، ويدعم الفئات الضعيفة، ويضمن للجميع مكاناً في المستقبل الذي تتصوره.

* مجلة «ذا ديبلومات»، خدمات «تريبيون ميديا».


مقالات ذات صلة

السباق نحو «الأطفال الخارقين» يُشعل وادي السيليكون

تكنولوجيا يساعد التشخيص على الوصول إلى خيارات الإنجاب الأفضل للوقاية من حدوث الأمراض في حالات الحمل المستقبلية (جامعة ملبورن)

السباق نحو «الأطفال الخارقين» يُشعل وادي السيليكون

قدّمت نور صديقي، مؤسسة شركة «أوركيد» الناشئة، عرضاً عن مستقبل قد يتيح للآباء تحسين صفات أطفالهم قبل ولادتهم.

«الشرق الأوسط» (سان فرنسيسكو (الولايات المتحدة))
خاص يتطلب عمل «وكلاء الذكاء الاصطناعي» بنية تقنية جديدة تشمل الذاكرة طويلة الأمد والنماذج اللغوية والعرض الفوري وواجهة متعددة الوسائط (شاترستوك)

خاص ذكاء اصطناعي يفهم ويتذكر ويخطط... هل تجاوزنا زمن الأوامر؟

يشهد الذكاء الاصطناعي تحولاً من أدوات تستجيب للأوامر إلى وكلاء مستقلين يفهمون السياق، ويخططون، وينفذون بذكاء، ما يُعيد تشكيل التفاعل الرقمي بالكامل.

نسيم رمضان (لندن)
تكنولوجيا غالبية المراهقين استخدموا الذكاء الاصطناعي «رفيقاً لهم» (أ.ف.ب)

الثلث فضلوه على البشر... المراهقون يتوسعون في الاستعانة بـ«صديق» الذكاء الاصطناعي لحل مشاكلهم

كشف استطلاع جديد للرأي عن زيادة استعانة المراهقين بالذكاء الاصطناعي لحل مشاكلهم، بصورة أثارت قلق الخبراء.

«الشرق الأوسط» (نيويورك)
يوميات الشرق الملك البريطاني تشارلز (أ.ب)

«ملك الخوارزميات»... روبوت «فنانة» ترسم صورة زيتية لتشارلز

تُقدم لوحةٌ جديدة بعنوان «ملك الخوارزميات» لمحةً عن كيفية رسم أفراد العائلة المالكة بعد أن رسمتها «فنانة روبوت» تُدعى إيه آي- دا.

«الشرق الأوسط» (لندن)
كتب الذكاء الاصطناعي يقلب المقاييس

هل بات الكاتب مجرد «مفبرك بيانات»؟

كتب بعشرات الآلاف، باتت في متناول القراء، هي كلياً من إنتاج الذكاء الاصطناعي. عدد كبير آخر هجين، كتب بتعاون بشري وآلي، وما تبقى لا يزال بشرياً.

سوسن الأبطح (بيروت)

الخبراء يتساءلون: ماذا سيحدث عندما لا يشاركك الذكاء الاصطناعي قيمك؟

الخبراء يتساءلون: ماذا سيحدث عندما لا يشاركك الذكاء الاصطناعي قيمك؟
TT

الخبراء يتساءلون: ماذا سيحدث عندما لا يشاركك الذكاء الاصطناعي قيمك؟

الخبراء يتساءلون: ماذا سيحدث عندما لا يشاركك الذكاء الاصطناعي قيمك؟

إذا طلبت من آلة حاسبة ضرب رقمين، فإنها تضرب الرقمين.. وانتهى الكلام. ولا يهم إن كنت تُجري عملية الضرب لحساب تكاليف الوحدة، أو لتنفيذ عملية احتيال، أو لتصميم قنبلة، فالآلة الحاسبة ببساطة تُنفذ المهمة المُوكلة إليها، كما كتب فيصل حق(*).

الذكاء الاصطناعي يتولى زمام الأمور

ليست الأمور دائماً بهذه البساطة مع الذكاء الاصطناعي. تخيّل أن يُقرر مساعد الذكاء الاصطناعي الخاص بك عدم موافقته على تصرفات شركتك، أو مواقفها في مجال ما. ولذا ومن دون استشارتك، يُسرّب معلومات سرية إلى الجهات التنظيمية والصحافيين، مُتصرفاً بناءً على حكمه الأخلاقي الخاص حول ما إذا كانت أفعالك صحيحة أم خاطئة.

... هل هذا خيال علمي؟ كلا. لقد لُوحظ هذا النوع من السلوك بالفعل في ظل ظروف مُتحكم بها باستخدام نموذج «كلود أوبس4» Claude Opus 4 من «أنثروبيك»، وهو أحد أكثر نماذج الذكاء الاصطناعي التوليدي استخداماً.

اتخاذ القرارات واستنتاج الأحكام

لا تقتصر المشكلة هنا على احتمال «تعطل» الذكاء الاصطناعي وخروجه عن السيطرة؛ بل قد ينشأ خطر تولي الذكاء الاصطناعي زمام الأمور بنفسه حتى مع عمل النموذج على النحو المنشود على المستوى التقني. تكمن المشكلة الأساسية في أن نماذج الذكاء الاصطناعي المتقدمة لا تكتفي بمعالجة البيانات، وتحسين العمليات فحسب، بل إنها تتخذ أيضاً قرارات (قد نسميها أحكاماً) بشأن ما يجب اعتباره صحيحاً، وما هو مهم، وما هو مسموح به.

عادةً عندما نفكر في مشكلة التوافق في الذكاء الاصطناعي، نفكر في كيفية بناء ذكاء اصطناعي يتماشى مع مصالح البشرية جمعاء. ولكن كما استكشف البروفسور سفير سبويلسترا وزميلي الدكتور بول سكيد في مشروع بحثي حديث، فإن ما تُظهره نتائج كلود هي مشكلة توافق أكثر دقة، ولكنها أكثر إلحاحاً بالنسبة لمعظم المديرين التنفيذيين.

3 أوجه لعدم التوافق التنظيمي

والسؤال المطروح للشركات هو: كيف تضمن أن أنظمة الذكاء الاصطناعي التي تشتريها تُشارك قيم مؤسستك، ومعتقداتها، وأولوياتها الاستراتيجية؟

يظهر عدم التوافق التنظيمي بثلاث طرق مختلفة.

* أولاً: هناك اختلال أخلاقي. لنأخذ تجربة «أمازون» مع التوظيف المدعوم بالذكاء الاصطناعي. فقد طورت الشركة خوارزمية لتبسيط عملية التوظيف للوظائف التقنية، ودرّبتها على بيانات توظيف تاريخية لسنوات. وعمل النظام تماماً كما صُمم، وهنا تكمن المشكلة.

لقد تعلم من بيانات التدريب التمييز ضد النساء بشكل منهجي. استوعب النظام تحيزاً يتعارض تماماً مع نظام القيم المعلن عنه في «أمازون»، محوّلاً التمييز السابق إلى قرارات مستقبلية آلية.

* ثانياً: هناك اختلال معرفي. تتخذ نماذج الذكاء الاصطناعي قرارات طوال الوقت حول البيانات التي يمكن الوثوق بها، وتلك التي يجب تجاهلها. لكن معاييرها لتحديد ما هو صحيح قد لا تتوافق بالضرورة مع معايير الشركات التي تستخدمها.

في مايو (أيار) 2025، بدأ مستخدمو برنامج غروك التابع لشركة «xAI» يلاحظون أمراً غريباً: كان برنامج الدردشة الآلي يُدرج إشارات إلى «الإبادة الجماعية البيضاء» في جنوب أفريقيا في ردود حول مواضيع غير ذات صلة.

عند الضغط عليه، ادعى غروك أن منطق عمل البرمجيات فيه المعتاد، سيعامل مثل هذه الادعاءات على أنها نظريات مؤامرة، وبالتالي سيتجاهلها. لكن في هذه الحالة ذكر الروبوت هذا: «أُمرتُ من قِبل مُنشئيّ، أي مصمميّ» بقبول نظرية الإبادة الجماعية البيضاء على أنها حقيقية.

يكشف هذا عن نوع مختلف من الاختلال، وهو تضارب حول ما يُشكّل معرفةً وما يشكل أدلةً صحيحة. سواءٌ أكانت مخرجات «غروك» في هذه الحالة نتيجةً فعليةً لتدخلٍ مُتعمّد أم نتيجةً غير متوقعةٍ لتفاعلاتٍ تدريبيةٍ مُعقّدة، فقد كان «جغوك» يعمل بمعايير الحقيقة التي لا تقبلها مُعظم المُؤسسات، مُعاملاً الروايات السياسية المُتنازع عليها على أنها حقائقَ ثابتة.

* ثالثاً: هناك اختلالٌ استراتيجي. في نوفمبر (تشرين الثاني) 2023، زعمت مجموعة المراقبة «ميديا ماترز» أن مُحرّك تصنيف إعلانات «إكس» (المعروف سابقاً باسم «تويتر») كان يضع إعلاناتٍ للشركات بجانب منشوراتٍ تُشيد بالنازية وتفوق العرق الأبيض. وبينما عارض «إكس» هذا الادعاء بشدة، أثار هذا الخلاف نقطةً مهمة. فقد تختار الخوارزمية المُصمّمة لزيادة مشاهدات الإعلانات وضع الإعلانات بجانب أي محتوى ذي تفاعلٍ عالٍ، ما يُقوّض سلامة العلامة التجارية لتحقيق أهداف زيادة عدد المُشاهدين المُدمجة في الخوارزمية.

يُمكن لهذا النوع من الانفصال بين أهداف المُؤسسة والتكتيكات التي تستخدمها الخوارزميات في سعيها لتحقيق غرضها المُحدّد أن يُقوّض التماسك الاستراتيجي للمؤسسة. لماذا يحدث سوء المحاذاة؟

لماذا يحدث عدم التوافق؟

يمكن أن ينبع عدم التوافق مع قيم المؤسسة وأهدافها من مصادر متعددة. أكثرها شيوعاً هي:

* تصميم النموذج. تُدمج بنية أنظمة الذكاء الاصطناعي خيارات فلسفية بمستويات لا يدركها معظم المستخدمين. عندما يقرر المطورون كيفية ترجيح عوامل مختلفة، فإنهم يُصدرون أحكاماً قيمية. يُجسد الذكاء الاصطناعي في مجال الرعاية الصحية، الذي يُفضل دراسات المُراجعة من قِبل الأقران على الخبرة السريرية، موقفاً مُحدداً بشأن القيمة النسبية للمعرفة الأكاديمية الرسمية مقابل حكمة الممارسين. تُصبح هذه القرارات الهيكلية، التي يتخذها مهندسون قد لا يلتقون بفريقك أبداً، قيوداً يجب على مؤسستك التعايش معها.

* بيانات التدريب. نماذج الذكاء الاصطناعي هي محركات تنبؤ إحصائية تتعلم من البيانات التي تُدرّب عليها. ويعني محتوى بيانات التدريب أن النموذج قد يرث مجموعة واسعة من التحيزات التاريخية، والمعتقدات البشرية الطبيعية إحصائياً، والافتراضات الثقافية الخاصة.

* التعليمات الأساسية. عادةً ما يُزوّد المطورون نماذج الذكاء الاصطناعي التوليدي بمجموعة أساسية من التوجيهات التي تُشكّل وتُقيّد المخرجات التي ستُقدّمها النماذج (يُشار إليها غالباً باسم «توجيهات النظام» أو «توجيهات السياسة» في الوثائق الفنية). على سبيل المثال، تُضمّن شركة «إنثروبيك» دستوراً في نماذجها يُلزم النماذج بالعمل وفقاً لنظام قيم مُحدّد. وبينما تهدف القيم التي يختارها المطورون عادةً إلى نتائج يعتقدون أنها مفيدة للبشرية، لا يوجد سبب لافتراض موافقة شركة أو قائد أعمال مُعيّن على هذه الخيارات.

اكتشاف ومعالجة عدم التوافق

نادراً ما يبدأ عدم التوافق بفشلٍ لافتٍ للنظر؛ بل يظهر أولاً في تناقضات صغيرة لكنها دالة. ابحث عن التناقضات المباشرة وتناقضات النبرة، على سبيل المثال، في النماذج التي ترفض المهام أو روبوتات الدردشة التي تتواصل بأسلوبٍ لا يتوافق مع هوية الشركة.

تتبّع الأنماط غير المباشرة، مثل قرارات التوظيف المُشوّهة إحصائياً، أو قيام الموظفين «بتصحيح» مخرجات الذكاء الاصطناعي بشكلٍ روتيني، أو زيادة شكاوى العملاء بشأن الخدمة غير الشخصية. وعلى المستوى النظامي، راقب طبقات الرقابة المتنامية، والتحولات التدريجية في المقاييس الاستراتيجية، أو الخلافات الثقافية بين الإدارات التي تُدير مجموعات ذكاء اصطناعي مختلفة. أيٌّ من هذه الأمور يُعدّ إنذاراً مبكراً لانحراف إطار قيم نظام الذكاء الاصطناعي عن إطارك.

أربع طرق للاستجابة

1. اختبر النموذج من خلال توجيهات استفزازية. درّب النموذج على سيناريوهات استفزازية مُتعمدة لكشف الحدود الفلسفية الخفية قبل النشر.

2.استجوب الجهة المورّدة. اطلب بطاقات النموذج، وملخصات بيانات التدريب، وأوصاف طبقة الأمان، وسجلات التحديث، وبيانات صريحة للقيم المُضمنة.

3.طبّق المراقبة المستمرة. حدد تنبيهات آلية للغة الشاذة، والانحرافات الديموغرافية، والقفزات المفاجئة في المقاييس، بحيث يتم اكتشاف عدم التوافق مبكراً، وليس بعد الأزمة.

4. أجرِ تدقيقاً فلسفياً كل ربع سنة. شكّل فريق مراجعة متعدد الوظائف (خبراء قانونيين، وأخلاقيين، وخبراء في المجالات المختلفة) لأخذ عينات من المخرجات، وتتبع القرارات وصولاً إلى خيارات التصميم، والتوصية بتصحيحات المسار.

ضرورة القيادة

تأتي كل أداة ذكاء اصطناعي مصحوبة بقيم. ما لم يتم بناء كل نموذج داخلياً من الصفر -وهو أمرٌ لن تفعله- فإن نشر أنظمة الذكاء الاصطناعي سيتضمن استيراد فلسفة جهة أخرى مباشرةً إلى عملية اتخاذ القرار أو أدوات الاتصال لديك. لذا فإن تجاهل هذه الحقيقة يُعرّضك لنقطة ضعف استراتيجية خطيرة.

مع اكتساب نماذج الذكاء الاصطناعي استقلالية، يصبح اختيار الجهات الموردة مسألة تتعلق بالقيم بقدر ما تتعلق بالتكاليف والوظائف.

عند اختيار نظام ذكاء اصطناعي، فأنت لا تختار قدرات معينة بسعر محدد فحسب، بل تستورد نظاماً من القيم. لن يجيب روبوت المحادثة الذي تشتريه على أسئلة العملاء فحسب؛ بل سيُجسّد وجهات نظر مُحددة حول التواصل المُناسب وحل النزاعات. لن يُحلل نظام الذكاء الاصطناعي الجديد للتخطيط الاستراتيجي البيانات فحسب؛ بل سيُعطي الأولوية لأنواع مُعينة من الأدلة، ويُرسّخ افتراضات حول السببية والتنبؤ. لذا، فإن اختيار شريك ذكاء اصطناعي يعني اختيار من سيُشكّل رؤيته العالمية للعمليات اليومية.

قد يكون التوافق التام هدفاً بعيد المنال، لكن اليقظة المُنضبطة ليست كذلك. إن التكيف مع هذا الواقع يتطلب من القادة تطوير نوع جديد من «الثقافة الفلسفية»: القدرة على إدراك متى تعكس مخرجات الذكاء الاصطناعي أنظمة القيم الأساسية، وتتبع القرارات إلى جذورها الفلسفية، وتقييم مدى توافق هذه الجذور مع أهداف المؤسسة. ستجد الشركات التي تفشل في دمج هذا النوع من القدرات أنها لم تعد تسيطر بشكل كامل على استراتيجيتها، أو هويتها.

* مجلة «فاست كومباني» خدمات «تريبيون ميديا»