نظم الذكاء الصناعي «الحساسة»... تحديات تواجه البشرية

حوار مع مدير «معهد مستقبل البشرية» في جامعة أكسفورد

نظم الذكاء الصناعي «الحساسة»... تحديات تواجه البشرية
TT

نظم الذكاء الصناعي «الحساسة»... تحديات تواجه البشرية

نظم الذكاء الصناعي «الحساسة»... تحديات تواجه البشرية

يكرّر الخبراء وبصوتٍ عالٍ: الذكاء الصناعي لا يشعر. إلا إن بوتات (نسبة إلى بوت (bot) وهو تطبيق أو برنامج إنترنتي للمحادثة الذكية مع الزبائن في المواقع الإلكترونية - تمييزاً عن الروبوت وهو جهاز آلي ذكي)، أو برامج المحادثة الذكية، أثارت كثيراً من الضجيج في الأشهر الأخيرة، وتسبب حدثان مستجدّان على الأقلّ في زرع فكرة «البوتات» الواعية والحسّاسة في مخيّلتنا.

تطبيقات ذكية واعية

كان أحد موظفي شركة «غوغل» أثار العام الماضي بعض المخاوف عندما تحدّث عمّا سماه دليلاً على وجود الإحساس لدى الذكاء الصناعي. بعدها، في فبراير (شباط)، انتشرت على وسائل التواصل الاجتماعي محادثة بين «روبوت المحادثة» الخاص بـ«مايكروسوفت» وزميلي كيفن روز عن الحبّ ورغبة الأوّل في التحوّل إلى كائن بشري، مما أثار هلع النّاس.
في المقابل، يذكّر الخبراء والصحافيون النّاس بشكلٍ متكرّر بأنّ بوتات المحادثة المدعومة بالذكاء الصناعي ليست واعية، وبأنّها حتى لو بدت بشرية بدرجة مريبة، فهذا الأمر يعود إلى تعلّمها كيف تشبه البشر... من كميات هائلة من النصوص الإلكترونية التي تشمل كلّ شيء؛ من مدوّنات الطعام إلى منشورات «فيسبوك» وصفحات «ويكيبيديا».
يوافق قادّة الصناعة على هذا التقييم حتّى الآن في الأقلّ، ولكنّ كثيرين يصرّون على أنّ الذكاء الصناعي سيصبح يوماً ما قادراً على عمل أي شيء يستطيع الدماغ البشري فعله.
يتحضّر نيك بوستروم (Nick Bostrom)، الفيلسوف ومدير «معهد مستقبل البشرية» في جامعة أكسفورد ومعدّ كتاب «الذكاء الخارق»، منذ عقودٍ لهذا اليوم. يعكف بوستروم على تخيّل المستقبل، ويحدّد المخاطر، ويضع أسساً متخيّلة لكيفية التعامل معها، ويتركّز اهتمامه الأكبر على كيفية إدارة عالم مليءٍ بالعقول الرقمية خارقة الذكاء.

نيك بوستروم

حوار علمي

تحدّثنا مع بوستروم عن احتمال تمتّع الذكاء الصناعي بالأحاسيس وكيف يمكن لهذا الأمر أن يعيد تشكيل افتراضاتنا الأساسية حول أنفسنا ومجتمعاتنا.
س: يصرّ كثير من الخبراء على أنّ بوتات المحادثة «ليست حسّاسة» و«لا واعية»، مستخدمين هذين التعبيرين اللذين يصفان الوعي بالعالم المحيط بنا. هل توافق على التقييم الذي يصف البوتات بالمُدخلات التي يُعاد إخراجها؟
ج: الوعي حالة فضفاضة ومعقّدة، متعدّدة الأبعاد، ويصعب تحديدها أو تعريفها. طوّر علماء أعصاب وفلاسفة فرضيات عدّة عن الوعي على مرّ السنوات، ولكن لا يوجد بعدُ توافق على واحدة منها. يمكن للباحثين مثلاً أن يحاولوا تطبيق هذه الفرضيات المختلفة لاختبار حسيّة أنظمة الذكاء الصناعي.
ولكنّني شخصياً أرى أنّ الإحساس مسألة متدرّجة، وكنتُ أودّ لو أستطيع أن أنسب درجة طفيفة من الإحساس لمجموعة واسعة من الأنظمة كالحيوانات. وإذا كان النّاس مستعدّين للاعتراف بأن مسألة الإحساس ليست «كلّ شيء أو لا شيء»، فعندها لن نبالغ إذا قلنا إنّ بعض هذه البوتات أو الأنظمة قد تملك بعض درجات الإحساس.
في البداية، في مسألة النماذج اللغوية الكبيرة، أعتقد أنّه ليس من الإنصاف أن نصفها بالنصوص المدخلة والمُعاد إخراجها؛ لأنّها ببساطة تُظهر ملامح لافتة من الإبداع والتفكير والفهم، حتّى إنّها قد توحي بمستويات بدائية من المنطق. قريباً، قد تطوّر هذه الأنواع من الذكاء الصناعي مفهوماً ثابتاً للذات، وتبدي مراعاة لبعض الرغبات، وتتفاعل مع المجتمع، وتبني علاقات مع البشر.

أحاسيس الذكاء الصناعي

س: ما الذي قد يحدث إذا أصرّ الذكاء الصناعي، ولو قليلاً، على أن يكون حساساً؟
ج: إذا أظهر الذكاء الصناعي نوعاً من الإحساس، إذن فسيكون لديه أيضاً مستوى معيّناً من الأخلاق، مما يعني أنه سيكون من الخطأ التعامل معه بأساليب معيّنة تشبه ركل أحدهم كلباً، أو إجراء الجرّاحين عملية جراحية على فأر من دون تخديره.
تعتمد التداعيات الأخلاقية على نوع ودرجة الأخلاق التي نتحدّث عنها. في الحدّ الأدنى منها، قد يعني الأمر ألا نتسبب له في الألم والمعاناة، وفي الحدّ الأقصى، قد يعني أن نراعي تفضيلاته وأن نحصل على موافقته قبل القيام ببعض الأمور. أعمل في مسألة أخلاقيات العقول الرقمية وأحاول تخيّل عالم مستقبلي توجد فيه عقول بشرية ورقمية من جميع الأنواع ودرجات التعقيد، ودائماً ما أتساءل: كيف نتعايش بطريقة منسجمة؟ الأمر صعب بسبب الافتراضات الكثيرة في الحالة البشرية والتي تحتاج إلى إعادة تفكير.
س: ما بعض هذه الافتراضات التي تحتاج لإعادة تخيّل أو تطوير لاستيعاب البشرية الذكاء الصناعي؟
ج: إليكم 3 جوانب؛ أولاً: البشر إمّا أحياء وإما أموات، بينما تختلف الحال مع العقول الرقمية؛ لأنّها قابلة للتوقيف المؤقّت وإعادة التشغيل لاحقاً.
ثانياً: الفردانية: عند البشر، الاختلاف موجود حتّى بين التوائم المتطابقة، في حين أنّ العقول الرقمية يمكن أن تكون نسخاً متطابقة.
ثالثُا: حاجتنا للعمل: الأعمال التي تحتاج البشر لإتمامها كثيرة في يومنا هذا، الأمر الذي قد ينتفي في حال تحقيق الأتمتة التامّة.
س: هل يمكنكم إعطاء مثال على كيف يمكن لهذه الافتراضات أن تختبرنا، أي تخضعنا للاختبار، على المستوى الاجتماعي؟
ج: مثالٌ واضحٌ آخر هو الديمقراطية؛ ففي الدول الديمقراطية، نتفاخر بأنّنا نعيش في ظلّ حكومة تضمن حريّة التعبير للجميع، ويكون الأمر عادة بصوتٍ واحد لشخصٍ واحد. فكّروا مثلاً في مستقبل تكون فيه العقول مطابقة للعقول البشرية باستثناء أنّها منفّذة على جهاز كومبيوتر. كيف يمكن توسيع الحوكمة الديمقراطية لتشملها؟ ربّما يمكننا إعطاء صوت واحد لكلّ ذكاء صناعي، ومن ثمّ صوت واحد لكلّ إنسان، ولكنّ الأمر ليس بهذه السهولة؛ إذ ما الذي قد يحدث إذا كان البرنامج الرقمي قابلاً للنسخ؟
قبل يومٍ من الانتخابات، يمكن صناعة 10 آلاف نسخة من ذكاء صناعي معيّن والحصول على 10 آلاف صوتٍ إضافي؛ أو ما الذي قد يحدث إذا كان مطوّرو الذكاء الصناعي يستطيعون اختيار القيم والتفضيلات السياسية لهذا الذكاء؟ وإذا كنتم من أصحاب الثروات، فيمكنكم بناء كثير من مشروعات الذكاء الصناعي للحصول على تأثير يوازي حجم ثروتكم.

مخاطر على البشرية

س: عمد أكثر من ألف قائد وباحث من صناعة التقنية، ومنهم إيلون ماسك، أخيراً إلى توجيه رسالة تحذّر من التطوير غير المراقب للذكاء الصناعي؛ لأنّه «يرتّب مخاطر كبيرة على المجتمع والإنسانية». ما مدى مصداقية التهديد الوجودي للذكاء الصناعي؟
ج: لطالما اعتقدتُ أنّ الانتقال إلى تفوّق الذكاء الآلي سيكون مصحوباً بمخاطر كبيرة وبعضها وجودي، وهذا الأمر لم يتغيّر، وأعتقد أيضاً أنّ المدة التي تفصلنا عن هذه المرحلة باتت أقصر من الماضي. يجدر بنا اليوم أن نحضّر أنفسنا لهذا التحدّي. مهّدت العقود الثلاثة الماضية لهذا الأمر، ولكنّنا للأسف كنّا نعيش حالة من الاسترخاء والاكتفاء بمشاهدة ما يحدث بدل التفكير في ما يجب علينا فعله في مجال أخلاقيات وحوكمة الذكاء الخارق المحتمل، وهذا الوقت الضائع لن يعود أبداً.
س: هل يمكنكم التوسّع أكثر في الحديث عن هذه التحديات؟ ما المسائل الأكثر إلحاحاً التي يجب أن يفكّر فيها الباحثون، وصناعة التقنية، وصانعو السياسات؟
ج: أولاً: يجب أن نفكّر في الاصطفاف. كيف نضمن أنّ أنظمة الذكاء الصناعي ذات القدرات المتزايدة التي نبنيها تسير في الاتجاه نفسه الذي يريد مطوّروها أن تسير فيه؟ إنها مشكلة تقنية. وتوجد أيضاً مشكلة الحوكمة. لعلّ المسألة الأهمّ بالنسبة لي هي محاولة مقاربة هذا الأمر بطريقة تعاونية؛ لأنّ الأمر أكبر من أي أحد منّا، أو أي شركة، أو حتّى أي دولة.
ويجب أيضاً أن نتجنّب تصميم نظم ذكاء صناعي يصعّب على الباحثين تحديد ما إذا كانت فعلاً تملك درجة من الأخلاق، كتدريبها مثلاً على رفض فكرة أنّها واعية أو أنّها تملك أخلاقاً في الأساس. صحيحٌ أنّنا لا نستطيع الحكم على المخرجات الشفهية الصادرة عن أنظمة الذكاء الصناعي اليوم، ولكنّنا يجب أن نبحث دائماً - دون محاولة القمع أو الإلغاء - عن إشارات واضحة على أنّ هذه الأنظمة نمّت فعلاً درجة من الإحساس أو الأخلاق.
* خدمة «نيويورك تايمز»


مقالات ذات صلة

«أبل» تغيّر القيادة... تيرنوس يخلف كوك في مرحلة اختبار جديدة

تكنولوجيا «أبل» أعلنت انتقال القيادة من تيم كوك إلى جون تيرنوس ضمن خطة تعاقب طويلة الأمد (أبل)

«أبل» تغيّر القيادة... تيرنوس يخلف كوك في مرحلة اختبار جديدة

«أبل» تنقل القيادة إلى جون تيرنوس مع احتفاظ تيم كوك بدور رئيس المجلس وسط ضغوط الذكاء الاصطناعي، واختبار المرحلة المقبلة.

نسيم رمضان (لاس فيغاس)
تكنولوجيا يمكن معاينة الاجتماعات وجدول المواعيد بكل سهولة في السيارات الذكية الجديدة

المكتب المتنقل... التقنية تحوّل سيارتك إلى مركز إنتاجية ذكي

لم يعد مفهوم العمل عن بُعد محصوراً في زوايا المنزل أو المقاهي الهادئة، بل انطلق ليعيد صياغة المقصورة الداخلية للسيارة كمساحة احترافية متكاملة.

خلدون غسان سعيد (جدة)
تكنولوجيا أفضل 10 أدوات لتحرير الصور بالذكاء الاصطناعي

أفضل 10 أدوات لتحرير الصور بالذكاء الاصطناعي

في الماضي، كانت الصور الضبابية والإضاءة الرديئة والعناصر العشوائية في الخلفية، تعني أمراً واحداً أي صوراً سيئة. أما اليوم،

«الشرق الأوسط» (لندن)
تكنولوجيا تقدّم تعلّماً تفاعلياً للغات قائماً على المواقف اليومية بالذكاء الاصطناعي (مختبرات غوغل)

بعد عام على إطلاقها… كيف تعمل تجربة «غوغل» لتعلّم اللغات؟

بعد نحو عام على طرحها، تواصل شركة «غوغل» اختبار تجربة تعليم اللغات المدعومة بالذكاء الاصطناعي تحت اسم «Little Language Lessons»، ضمن منصتها «مختبرات غوغل».

عبد العزيز الرشيد (الرياض)
تكنولوجيا «أدوبي» تطلق «القص السريع» لاختصار الطريق من الفكرة إلى الفيديو (رويترز)

«القص السريع» من «أدوبي»: اختصار الطريق من الفكرة إلى الفيديو

في سياق تسارع الابتكار داخل أدوات إنتاج المحتوى، تواصل «أدوبي» توسيع قدرات منصتها للذكاء الاصطناعي «فايرفلاي»، عبر تقديم ميزة جديدة تحمل اسم القص السريع (Quick…

عبد العزيز الرشيد (الرياض)

ما السبب الحقيقي لفشل مبادرات الذكاء الاصطناعي في المؤسسات؟

ما السبب الحقيقي لفشل مبادرات الذكاء الاصطناعي في المؤسسات؟
TT

ما السبب الحقيقي لفشل مبادرات الذكاء الاصطناعي في المؤسسات؟

ما السبب الحقيقي لفشل مبادرات الذكاء الاصطناعي في المؤسسات؟

عندما طرح «تشات جي بي تي» في نوفمبر (تشرين الثاني) 2022، كان رد الفعل فورياً وقوياً: إنه يعمل! ولأول مرة، اختبر ملايين الأشخاص الذكاء الاصطناعي ليس بوصفه وعداً بعيد المنال، بل بوصفه شيئاً مفيداً وبديهياً. وحتى مع عيوبه، فقد ظهر أنه يتمتع بقدرات مذهلة.

حدس صحيح واستنتاج خاطئ

كان هذا الحدس صحيحاً. أما الاستنتاج الذي تلاه فكان خاطئاً. لأن ما ينجح ببراعة مع فرد أمام لوحة المفاتيح، أثبت عدم فاعليته بشكل مفاجئ داخل المؤسسة.

الشركات لا تُدار باللغة

بعد عامين، وبعد مليارات الدولارات من الاستثمارات، وعدد لا يحصى من التجارب، وتدفق مستمر من «المساعدين» الأذكياء، يتبلور واقع مختلف: الذكاء الاصطناعي التوليدي استثنائي في إنتاج اللغة... لكن الشركات لا تُدار باللغة: بل تُدار بالذاكرة والسياق والتغذية الراجعة والقيود.

وهذه هي الفجوة. ولهذا السبب تفشل الكثير من مبادرات الذكاء الاصطناعي في المؤسسات بهدوء. إذ حتى مع الانتشار الواسع، هناك تأثير محدود... وشعور متزايد بالتكرار.

فشل 95 % من المشاريع التجريبية

ليست هذه قصة عن تقنية فشلت في اكتساب زخم، بل على العكس تماماً.

وأظهر تحليل مدعوم من معهد ماساتشوستس للتكنولوجيا، والذي حظي باهتمام واسع، أن نحو 95 في المائة من المشاريع التجريبية للذكاء الاصطناعي التوليدي في المؤسسات تفشل في تحقيق نتائج ملموسة، حيث لا يصل سوى 5 في المائة منها إلى مرحلة الإنتاج المستدام. وتشير تغطيات أخرى للنتائج نفسها إلى النمط نفسه: تجارب مكثفة، وتحول محدود.

والتفسير واضح: المشكلة ليست في الحماس، ولا حتى في القدرة، بل في أن توظيف الأدوات لا يُترجم إلى تغيير عملي حقيقي... ليست هذه مشكلة للتبني، بل مشكلة هيكلية.

المفارقة المزعجة: ذكاء اصطناعي... لكن لا شيء يتغير

داخل معظم الشركات اليوم، يتعايش واقعان: من جهة، يستخدم الموظفون أدوات مثل «تشات جي بي تي» باستمرار. فهم يصيغون ويلخصون ويبتكرون ويسرّعون عملهم بطرق تبدو طبيعية وفعالة.

من جهة أخرى، تكافح مبادرات الذكاء الاصطناعي الرسمية في المؤسسات للتوسع خارج نطاق المشاريع التجريبية الخاضعة لرقابة دقيقة. يصف التحليل نفسه المتعلق بمعهد ماساتشوستس للتكنولوجيا فجوةً متزايدةً في «التعلم»: يجد الأفراد فائدة وقيمةً بسرعة، لكن المؤسسات تفشل في دمج هذه القيمة في سير العمل ذي الأهمية. والنتيجة هي ما يشبه «الذكاء الاصطناعي الخفي»: يستخدم الأفراد ما يُجدي نفعاً، بينما تستثمر الشركات فيما لا يُجدي.

الخطأ الأساسي: التعامل مع نموذج اللغة كنظام تشغيل

تركز معظم تفسيرات هذا الفشل على التنفيذ: بيانات غير دقيقة، حالات استخدام غير واضحة، نقص في التدريب. كل هذا صحيح، لكنه ثانوي.

المشكلة الحقيقية أبسط وأكثر جوهرية: نماذج اللغة الكبيرة مصممة للتنبؤ بالنصوص. هذا كل شيء. كل شيء آخر، من الاستدلال إلى التلخيص والمحادثة، إلخ، هو خاصية ناشئة عن هذه القدرة.

الأدوات الذكية التوليدية لا تعمل ضمن الواقع

لكن الشركات لا تعمل كسلاسل من النصوص. إنها تعمل كأنظمة متطورة ذات حالة وذاكرة وتوابع وحوافز وقيود... هذا هو التناقض. كما ذكرتُ سابقاً، هذا هو العيب البنيوي الأساسي للذكاء الاصطناعي: نماذج اللغة لا «ترى» العالم. فهي لا تحتفظ بحالة مستمرة. ولا تتعلم من ردود الفعل الواقعية إلا إذا صُممت خصيصاً لذلك... إنها تُنتج لغة مقنعة عن الواقع، لكنها لا تعمل ضمنه.

إجابات متميزة منفصلة عن النظام الفعلي

لا يمكنك إدارة شركة بناءً على تنبؤات الكلمات.اطلب من نموذج اللغة ما يلي:

-«زيادة مبيعاتي»

-«تصميم استراتيجية دخول السوق»

- «تحسين أداء الفريق»

وستحصل على إجابة. غالباً ما تكون جيدة جداً. إجابة منظمة، بليغة، ومقنعة. ولكنها منفصلة تماماً تقريباً عن النظام الفعلي الذي من المفترض أن تؤثر فيه.

وذلك لأن نموذج اللغة لا يستطيع تتبع مسار المبيعات، أو إدارة الحوافز، أو دمج بيانات إدارة علاقات العملاء، أو التكيف بناءً على النتائج. إذ يمكنه وصف استراتيجية، لكنه لا يستطيع تنفيذها.

وتؤكد نتائج معهد ماساتشوستس للتكنولوجيا هذه النقطة: أدوات الذكاء الاصطناعي التوليدي فعّالة في المهام الفردية المرنة، لكنها تعجز عن العمل في بيئات المؤسسات التي تتطلب التكيف والتعلم والتكامل. وبعبارة أخرى: يمكن للأداة الذكية كتابة المذكرة، لكنها لا تستطيع إدارة الشركة.

زيادة قدرات الحوسبة لن تحل المشكلة

كان ردّ فعل القطاع حتى الآن متوقعاً: بناء نماذج أكبر، ونشر بنية تحتية أوسع، وتوسيع نطاق كل شيء. لكن التوسع لا يُصلح خللاً في التصميم. إذا كان النظام يفتقر إلى أساس واقعي، فلن تُوفّر له المزيد من المعايير هذا الأساس. وإذا كان يفتقر إلى الذاكرة، فلن تُوفّر له المزيد من الرموز الذاكرة. وإذا كان يفتقر إلى حلقات التغذية الراجعة، فلن تُنشئها المزيد من مراكز البيانات.

يُضخّم التوسع ما هو موجود، لكنه لا يُنشئ ما هو مفقود. وما هو مفقود هنا ليس المزيد من اللغة، بل المزيد من العالم.

المرحلة المقبلة... نظم ذكية ضمن بيئات حقيقية

لن تُحدّد المرحلة التالية من الذكاء الاصطناعي المؤسسي بواجهات دردشة أفضل أو نماذج لغوية أكثر قوة، بل ستُحدّد بشيء آخر تماماً: أنظمة قادرة على الحفاظ على الحالة، والاندماج في سير العمل، والتعلم من النتائج، والعمل ضمن قيود.

أنظمة لا تُولّد نصوصاً فحسب، بل تعمل ضمن بيئات حقيقية. لهذا السبب؛ لن يُبنى مستقبل الذكاء الاصطناعي في الشركات على نماذج اللغة وحدها، بل على بنى تُدمجها ضمن نماذج أكثر ثراءً للواقع.

أقول ما يعرفه الكثيرون بالفعل... ولكن نادراً ما يقولونه: هناك زخم كبير، واستثمارات ضخمة، وسرديات كثيرة مبنية على فكرة أن توسيع نطاق نماذج اللغة سيحل كل شيء في النهاية. هذا لن يحدث.

فرصة حقيقية

هذه ليست نهاية الذكاء الاصطناعي المؤسسي، بل هي نهاية مفهوم خاطئ. فنماذج اللغة ليست بنية مؤسسية، بل هي طبقة واجهة. طبقة قوية، لكنها غير كافية بمفردها. الشركات التي تُدرك هذا أولاً لن تُحسّن فقط من استخدام الذكاء الاصطناعي، بل ستُنشئ شيئاً مختلفاً جذرياً.

مجلة «فاست كومباني»


الموظفون الأميركيون يستخدمون الذكاء الاصطناعي للتعلّم أثناء العمل

الموظفون الأميركيون يستخدمون الذكاء الاصطناعي للتعلّم أثناء العمل
TT

الموظفون الأميركيون يستخدمون الذكاء الاصطناعي للتعلّم أثناء العمل

الموظفون الأميركيون يستخدمون الذكاء الاصطناعي للتعلّم أثناء العمل

يتنافس الموظفون على تطوير مهاراتهم في الذكاء الاصطناعي. ووفقاً لتقرير جديد، فإنهم يستخدمونه أيضاً لتعزيز تعلمهم، سواءً كان ذلك لطلب مساعدة إضافية منه لتوضيح المفاهيم وحل المشكلات، أو لاكتساب مهارات جديدة، كما كتبت سارة بريغل (*).

تحسين المهارات

يستند التقرير إلى نتائج استطلاع أجرته شركة «فراكتل» لصالح الكلية الأميركية للتعليم (ACE)، شمل أكثر من 1000 موظف أميركي يستخدمون أدوات الذكاء الاصطناعي في عملهم اليومي.

وكما هو متوقع، تستخدم نسبة كبيرة من الموظفين الذكاء الاصطناعي لتحسين مهاراتهم. فقد أفاد 63 في المائة منهم بأنهم استخدموا الذكاء الاصطناعي لتعلم مهارات لم يتلقوا تدريباً رسمياً عليها من مؤسساتهم.

القلق من دقة المعلومات

ومع ذلك، أعرب 65 في المائة منهم عن قلقهم بشأن دقة الذكاء الاصطناعي. إلا أن 23 في المائة من الموظفين لا يزالون يعدّون الذكاء الاصطناعي خيارهم الأول عندما يحتاجون إلى تعلم شيء جديد.

فوائد سرعة الإجابات

قد يعود جزء من ذلك إلى سرعة توفير الذكاء الاصطناعي للإجابات: إذ قال ما يقرب من نصف الموظفين (46 في المائة) إنهم يستخدمون الذكاء الاصطناعي للبحث عن الإجابات لأنه أسرع من طلب المساعدة.

التعلّم سراً لتفادي الاتهامات بالجهل

وربما الأهم من ذلك، أن استخدام هذه التقنية يعني أيضاً أن الموظفين لا يضطرون إلى الاعتراف بجهلهم بشيء ما. فقد قال ما يقرب من ثلثهم (29في المائة) إنهم يستخدمون الذكاء الاصطناعي لتعلم مهارات جديدة دون الإفصاح عن ذلك. ويُعدّ المديرون أكثر عرضةً لهذا الأمر: إذ اعترف 32 في المائة منهم بأنهم يتعلمون سراً.

وبشكل عام، قال 69 في المائة من الموظفين إن استخدام الذكاء الاصطناعي حسّن إنتاجيتهم، وقال أكثر من 55 في المائة إنه ساعدهم على الشعور بمزيد من الثقة في وظائفهم.

الذكاء الاصطناعي نقطة انطلاق

ومع ذلك، فبينما يستخدم الموظفون الذكاء الاصطناعي بوضوح لسدّ فجوة ما، فإنهم ليسوا راضين تماماً عن قدراته التعليمية. فقد قال 7 في المائة فقط من الموظفين إنهم يشعرون بأن تعلم المهارات من الذكاء الاصطناعي كافٍ، وقال 39 في المائة إنهم يعدّون التدريب الذي يحصلون عليه من الذكاء الاصطناعي نقطة انطلاق لمزيد من التعلم.

الذكاء الاصطناعي يحفّز للانخراط في دورات تدريبية

أفاد ما يقارب نصف المشاركين (48 في المائة) بأنهم التحقوا بدورات تدريبية بعد أن عرّفهم الذكاء الاصطناعي على مواضيع معينة رغبوا في استكشافها بتعمق. والأكثر إثارة للإعجاب، أن 80 في المائة من العاملين أكدوا استمرارهم في التعلم بشكل أو بآخر بعد تعلمهم شيئاً ما باستخدام الذكاء الاصطناعي.

مع أن الذكاء الاصطناعي قد لا يحل محل التدريب العملي تماماً، فإنه يمثل حالياً نقطة انطلاق لغالبية العاملين الساعين لاكتساب مهارات جديدة.

* مجلة «فاست كومباني»


لسانك لا يكذب… «بصمة تنبئية» للأمراض

حين يقرأ الذكاء الاصطناعي ما لا تراه العين
حين يقرأ الذكاء الاصطناعي ما لا تراه العين
TT

لسانك لا يكذب… «بصمة تنبئية» للأمراض

حين يقرأ الذكاء الاصطناعي ما لا تراه العين
حين يقرأ الذكاء الاصطناعي ما لا تراه العين

في حضارات وادي الرافدين، حيث تشكّلت البدايات الأولى للطب المنهجي، لم يكن التشخيص يعتمد على أجهزة، أو تحاليل مختبرية، بل على ملاحظة الجسد نفسه. كان الطبيب ينظر، ويتأمل التفاصيل التي قد تبدو عابرة، ومن بينها اللسان.

حين كان اللسان مفتاح التشخيص

معاينة اللسان

لم يكن طلب الطبيب من المريض أن يمد لسانه إجراءً شكلياً، بل خطوة أساسية في قراءة ما يجري داخل الجسد: تغيّر اللون، جفاف السطح، أو ظهور طبقة غير طبيعية؛ كلها إشارات ذات دلالة تُفسَّر ضمن فهم مبكر للصحة والمرض.

اليوم، يعود هذا المشهد القديم بصيغة مختلفة تماماً. فبدل أن يقف الطبيب وحده أمام المريض، تقف معه خوارزميات الذكاء الاصطناعي، وتحلل صورة اللسان بدقة رقمية، وتبحث عن أنماط قد لا تراها العين البشرية. فهل يمكن أن يعود التشخيص القديم... عبر أكثر أدوات العصر تطوراً؟

خريطة بيولوجية مصغّرة

يُعد اللسان من أكثر أعضاء الجسم ثراءً بالمعلومات البيولوجية، فهو يعكس حالة الدورة الدموية، ومستوى الترطيب، والتوازن البكتيري في الفم، بل وحتى بعض الاضطرابات الجهازية. فاللون الشاحب قد يرتبط بفقر الدم، والاحمرار الزائد بالالتهاب، في حين أن الطبقة البيضاء أو الصفراء قد تعكس تغيّرات في الميكروبيوم الفموي، ذلك العالم المجهري الذي يعيش على سطح اللسان.

بهذا المعنى لم يعد اللسان مجرد عضو للكلام، أو التذوق، بل نافذة حيوية على توازن داخلي معقّد.

حين يلتقي الميكروبيوم بالخوارزمية

في السنوات الأخيرة بدأ الباحثون ينظرون إلى اللسان باعتبار أنه نظام بيئي متكامل يرتبط فيه الميكروبيوم الفموي بعدد من الأمراض المزمنة... من السكري وأمراض القلب، وصولاً إلى اضطرابات أيضية معقّدة.

اضطرابات الكبد والأمراض المزمنة

في هذا السياق أظهرت دراسة نُشرت عام 2025 في مجلة «Chinese Medicine»، بقيادة فريق بحثي من الصين، أن تحليل صور اللسان باستخدام الذكاء الاصطناعي وربطها بتركيب الميكروبيوم يمكن أن يكشفا أنماطاً دقيقة مرتبطة باضطرابات في وظائف الكبد، مع قدرة لافتة على التمييز بين الحالات المرضية.

وفي تطور أحدث، طرح باحثون عام 2026 مفهوماً جديداً عُرف بـ«عمر اللسان» (Tongue Age)، يجمع بين تحليل مظهر اللسان وتركيب الميكروبيوم، لتقدير العمر البيولوجي، ومخاطر الإصابة بأمراض مزمنة.

اللسان «بصمة تنبئية»

وتشير هذه الأبحاث إلى أن اللسان قد يحمل بصمة تنبئية لصحة الإنسان تتجاوز الفحص الظاهري التقليدي. وأظهرت أبحاث حديثة من جامعة ستانفورد في الولايات المتحدة أن الدمج بين الصور الطبية والبيانات الحيوية يفتح آفاقاً جديدة لاكتشاف الأمراض قبل ظهور أعراضها بسنوات.

هنا لا تتحدث الخوارزمية بلغة التشخيص التقليدي، بل بلغة الأنماط الخفية، أنماط لم نكن نبحث عنها، لكنها كانت موجودة طوال الوقت.

حين ينتقل التشخيص إلى الهاتف

من الملاحظة إلى النمط

الفرق بين الطبيب القديم والخوارزمية الحديثة ليس في المبدأ، بل في الاتساع. الطبيب يرى إشارة واحدة، ويؤولها ضمن خبرته، أما الذكاء الاصطناعي فإنه يرى آلاف الإشارات في اللحظة نفسها، ويربط بينها داخل شبكة معقّدة من العلاقات.

وبينما كان التشخيص قائماً على الملاحظة المدعومة بالحدس، أصبح اليوم قائماً على البيانات المدعومة بالخوارزميات.

من العيادة إلى الهاتف... حين يصبح التشخيص مستمراً

لم تعد هذه التقنيات حبيسة المختبرات. فقد بدأت نماذج تحليل صور اللسان تنتقل إلى أدوات أبسط، بل وحتى إلى الهواتف الذكية. وفي هذا النموذج الجديد قد يتحول فحص اللسان من إجراء يتم داخل العيادة إلى عملية مستمرة تعمل في الخلفية، وترصد التغيرات الدقيقة قبل أن يشعر بها الإنسان.

وهنا يتغير معنى التشخيص نفسه. لم يعد حدثاً مؤقتاً، بل عملية ديناميكية لا تتوقف...

حدود الفهم... وحدود الثقة

رغم هذا التقدم، يبقى هناك فرق جوهري بين «الرؤية» و«الفهم». فالذكاء الاصطناعي قادر على اكتشاف الأنماط، لكنه لا يدرك السياق الإنساني الذي يمنح هذه الأنماط معناها.

قد يشير تغيّر في اللسان إلى مرض كامن، لكنه قد يكون أيضاً نتيجة غذاء معيّن، أو حالة عابرة. وهنا يظل دور الطبيب محورياً، ليس في رؤية العلامة فقط، بل في فهمها، وتفسيرها ضمن سياق الإنسان الكامل.

بين وادي الرافدين والذكاء الاصطناعي

إذا عدنا إلى الوراء، نجد أن أطباء وادي الرافدين أدركوا أن الجسد يرسل إشارات خفية، وأن مهمة الطبيب هي قراءتها. اليوم يعيد الذكاء الاصطناعي إحياء هذه الفكرة، لكن بدقة أعلى، ونطاق أوسع. ومع ذلك يبقى السؤال الجوهري كما كان: من يقرأ الإشارة... ومن يفهمها؟

الخلاصة: ما الذي لم نتعلم قراءته بعد؟

في زمن أصبح فيه الهاتف قادراً على تحليل صورة اللسان، لم يعد التشخيص حكراً على العيادة. لكن هذا التقدم يطرح سؤالاً أعمق: هل أصبحنا نرى أكثر... أم نفهم أقل؟

فاللسان، كما كان قبل آلاف السنين، لا يكذب. لكن التحدي الحقيقي لا يكمن فيما يكشفه، بل في قدرتنا على تفسيره. ولهذا، لم يعد السؤال: ماذا يخبرنا اللسان؟ بل أصبح: ما الذي تراه الخوارزميات فيه... ولم نتعلم بعد كيف نقرأه نحن؟