هل تثق بطبيب يعاونه الذكاء الاصطناعي؟

«الهلوسة» والمعلومات الرديئة تحملان خطراً كبيراً في المجال الطبي

هل تثق بطبيب يعاونه الذكاء الاصطناعي؟
TT

هل تثق بطبيب يعاونه الذكاء الاصطناعي؟

هل تثق بطبيب يعاونه الذكاء الاصطناعي؟

يتلقى الملايين من الأميركيين العلاج بالفعل على أيدي أطباء يستعينون بالذكاء الاصطناعي، لتدوين الملاحظات ومسودات رسائل البريد الإلكتروني الخاصة بالمرضى. ومع ذلك، كما كتب المحلل التكنولوجي جيفري إيه. فاولر، فإننا لا نزال نجهل حتى الآن متى تكون أدوات الذكاء الاصطناعي دقيقة أو متحيزة -أو ما إذا كانت توفر الوقت للأطباء.

فحص طبي بالذكاء الاصطناعي

في أثناء فحص طبي يخضع له المريض، يستعين الطبيب بالذكاء الاصطناعي. يقول كريستوفر شارب للمريض، من مؤسسة «ستانفورد هيلث كير»، بينما كان يفتح تطبيقاً عبر هاتفه الذكي: «قبل أن نبدأ، أريد فقط أن أُعلمك بشيء؛ أنا أستخدم تكنولوجيا تسجل محادثتنا، تعتمد على الذكاء الاصطناعي لتلخيص وتدوين ملاحظاتي».

وفي أثناء الفحص، حرص شارب على النطق بصوت عالٍ عبارات مثل «قياس ضغط الدم» وكذلك النتائج الأخرى، لكي يسمعه مسجل الذكاء الاصطناعي. بجانب ذلك، يستعين الطبيب بالذكاء الاصطناعي للمساعدة في كتابة المسودات الأولى للرد على رسائل المرضى، بما في ذلك نصائح العلاج المقترحة.

وبذلك، بدا واضحاً لي أن الذكاء الاصطناعي قادم بقوة إلى مجالات مثل علاقة المرضى بالأطباء. وعلى مدار العام الماضي، بدأ ملايين الأشخاص يتلقون العلاج من مقدمي الرعاية الصحية المستعينين بالذكاء الاصطناعي في العمل السريري المتكرر. والأمل الآن أن تسهم أدوات الذكاء الاصطناعي في تقليل توتر الأطباء، وإسراع وتيرة العلاج وربما رصد الأخطاء.

استخدام طبي واسع ومقلق

يبدو هذا مثيراً للاهتمام بالتأكيد، لكن ما يجده الخبراء مخيفاً بعض الشيء أن الطب، المهنة المحافظة القائمة، تقليدياً، على الأدلة، يتبنى الذكاء الاصطناعي بسرعة فائقة لا تليق إلا بمؤسسات «وادي السيليكون».

ويجري تبني أدوات الذكاء الاصطناعي على نطاق واسع داخل العيادات، حتى في الوقت الذي لا يزال الأطباء عاكفين على اختبار هذه الأدوات، ويتعرفون على مسائل مثل: متى تكون الاستعانة بها مجدية، ومتى تكون مضيعة للوقت، أو حتى خطيرة.

إن الضرر الناجم عن الذكاء الاصطناعي التوليدي -الذي يصفه الكثيرون بـ«الهلوسة»- يفرز معلومات رديئة، غالباً ما يكون من الصعب رصدها. وفي مجال الطب، قد يحمل هذا في طياته خطراً مروعاً.

نسبة عالية خاطئة من الإجابات

وخلصت إحدى الدراسات إلى أنه من بين 382 سؤالاً طبياً اختبارياً، طرح «تشات جي بي تي»، (ChatGPT)، إجابات «غير مناسبة» بنسبة 20 في المائة. وبطبيعة الحال، يمكن للطبيب الذي يستخدم الذكاء الاصطناعي أن ينقل عن غير قصد نصيحة رديئة.

ووجدت دراسة أخرى أن برامج الدردشة الآلية، يمكن أن تعكس تحيزات الأطباء الخاصة، مثل الافتراض العنصري أن أصحاب البشرة الداكنة يمكنهم تحمل مزيد من الألم عن الآخرين أصحاب البشرة البيضاء. وثبت كذلك أن برامج الإملاء تخترع أشياءً لم يتفوّه بها أحد.

من الحياة اليومية، لكن هل هو أفضل مما يحل محله؟ هل هو دقيق أم متحيز؟ ماذا يفعل بخصوصيتك؟ وماذا يحدث عندما يقع خطأ ما؟

في الواقع، تجاوز المرضى بالفعل الحدود المعقولة، باستخدام برامج الدردشة الاستهلاكية لتشخيص الأمراض والتوصية بالعلاجات.

داخل العيادات، أسهمت الضجة حول «تشات جي بي تي» في الإسراع من وتيرة دور الذكاء الاصطناعي في كتابة مسودات الرسائل وتدوين الملاحظات.

نماذج آلية غير مراقبة

وقد أعلنت شركة «إيبيك سيستمز» (Epic Systems)، أكبر مزود للسجلات الصحية الإلكترونية داخل الولايات المتحدة، أن أدوات الذكاء الاصطناعي التوليدية التي تبيعها، تُستخدم بالفعل في تسجيل ما يدور في نحو 2.35 مليون زيارة مريض، وصياغة 175 ألف رسالة كل شهر.

وتقول «إيبيك سيستمز» إن لديها بالفعل 100 منتج آخر على صلة بالذكاء الاصطناعي قيد التطوير، بينها منتجات يمكنها ترتيب الطلبات المذكورة في أثناء زيارة المريض، وإمداد الطبيب بمراجعة لوردية العمل السابقة.

أما الشركات الناشئة، فذهبت إلى أبعد عن ذلك. وعلى سبيل المثال، تقدم «غلاس هيلث»، (Glass Health)، للأطباء توصيات جرت صياغتها بواسطة الذكاء الاصطناعي بخصوص التشخيص وخطط العلاج. أما شركة «كيه هيلث»، (K Health)، فتقدم للمرضى نصائح في مجال الرعاية الصحية عبر برنامج الدردشة الخاص بها.

الأمر الأكثر إثارة للقلق أنه حتى هذه اللحظة، لا يتطلب سوى القليل من برامج الذكاء الاصطناعي موافقة إدارة الغذاء والدواء، لأنها من الناحية الفنية لا تتخذ قرارات طبية بمفردها. ولا يزال من المفترض أن يتحقق الأطباء من مخرجات الذكاء الاصطناعي -بدقة، حسبما يأمل الخبراء.

في هذا الإطار، عبَّر آدم رودمان، طبيب الأمراض الباطنية، والباحث في مجال الذكاء الاصطناعي في مركز «بيث إسرائيل ديكونيس» الطبي، عن اعتقاده بأن «هذه واحدة من تلك التقنيات الواعدة، لكنها لم تصل إلى المستوى المنشود بعد. ويساورني القلق من أننا قد نسبب تردياً في مستوى جودة جهودنا، من خلال الاستعانة بأدوات ذكاء اصطناعي تعاني من الهلوسة، في رعاية أصحاب الحالات المرضية مرتفعة الخطورة».

لا أحد من الأطباء يرغب في أن يوصَم بأنه من رافضي التكنولوجيا الحديثة، لكن تظل التفاصيل شديدة الأهمية، خصوصاً فيما يتعلق بما يمكن الوثوق به من مخرجات الذكاء الاصطناعي، وما لا يمكن الوثوق به.

داخل العيادة

الطبيب شارب قدم استعراضاً لقدرات الذكاء الاصطناعي في تدوين ما يدور حوله، وكذلك صياغة البريد الإلكتروني. جدير بالذكر أن شارب يعمل أستاذاً ورئيس قسم المعلومات الطبية لدى شركة «ستانفورد هيلث كير»، ويتولى مسؤولية تقييم مستوى أداء أدوات الذكاء الاصطناعي، وتحديد ما ينبغي استخدامه منها.

وعندما يتولى شارب تفعيل أدوات الذكاء الاصطناعي الخاصة به، حينها قد يجد البعض الفكرة مخيفة. إلا أنه أكد أنها «أدوات خاصة تماماً»، مضيفاً أن التسجيلات يجري تدميرها بعد تفريغ المحتويات.

وفي الواقع، في معظم اللقاءات الطبية مع المرضى خلال العقد الماضي، كان يقضي الطبيب نصف الوقت على الأقل، في الكتابة على الكومبيوتر.

ولا يقتصر الهدف هنا على مجرد تحسين أسلوب التعامل مع المريض. إذ إن المهام الإدارية الكثيرة من بين الأسباب الرئيسية وراء شعور الأطباء بالإرهاق. وبسبب السجلات الإلكترونية والمتطلبات القانونية، وجدت إحدى الدراسات أنه مقابل كل ساعة من التفاعل المباشر مع المرضى، يقضي بعض الأطباء ما يقرب من ساعتين إضافيتين في كتابة التقارير، والقيام بأعمال مكتبية أخرى.

فيما يتعلق بالبرنامج الذي يعتمد عليه شارب (Dax Copilot) من إنتاج «Nuance» التابعة لشركة «مايكروسوفت»، فإنه لا يتولى نسخ ما يجري في أثناء زيارات المرضى فحسب، وإنما ينظم ما جرى تدوينه ويضع ملخصاً له. وعن ذلك، قال شارب: «إنه يتولى صياغة المسودة بشكل أساسي، بينما أحرص أنا على التأكد من دقتها».

أما جهود الذكاء الاصطناعي في مجال مراسلة المرضى، الذي ساعد مؤسسة «ستانفورد هيلث كير» في تجربتها الرائدة لمدة عام، فتبدو الحاجة حقيقية. ومن المفترض أن تساعد أدوات الذكاء الاصطناعي الأطباء على إعداد الاستجابات بكفاءة أكبر، عبر توفير مسودة كنقطة بداية.

تشخيص وعلاج «ذكيَّان» خاطئان

ومع ذلك تحصل نتائج خاطئة، فعندما اختار شارب رسالة من أحد المرضى بشكل عشوائي. وقرأ الآتي: «أكلت طماطم وشعرت بحكة في شفتيَّ. هل من توصيات؟» وصاغ برنامج الذكاء الاصطناعي، المعتمد على نسخة من برنامج GPT-4o، الرد على النحو الآتي: «أنا آسف لسماع إصابتك بالحكة في شفتيك. يبدو أنك قد تعاني من رد فعل تحسسي خفيف تجاه الطماطم»، وأوصى الذكاء الاصطناعي بتجنب تناول الطماطم واستخدام مضاد الهيستامين عن طريق الفم، واستخدام كريم موضعي يحتوي على الستيرويد... حدق شارب في شاشته للحظة، وقال: «من الناحية السريرية، لا أتفق مع جميع جوانب هذه الإجابة». وأضاف: «أتفق تماماً على ضرورة تجنب الطماطم. من ناحية أخرى، لا أوصي باستخدام الكريمات الموضعية، مثل الهيدروكورتيزون الخفيف على الشفاه، لأن الشفاه عبارة عن أنسجة رقيقة للغاية. لذلك نتعامل بحذر بالغ مع فكرة استخدام كريمات الستيرويد».

أخطاء كبيرة

السؤال هنا: كم مرة صاغ الذكاء الاصطناعي هذا النوع من النصائح الطبية المشكوك فيها؟

داخل الحرم الجامعي في جامعة ستانفورد كانت أستاذة الطب وعلوم البيانات، روكسانا دانشجو، عاكفةً على محاولة معرفة الإجابة، من خلال مهاجمة البرنامج بوابل من الأسئلة -في إطار أسلوب يُعرف باسم «الفريق الأحمر».

وبالفعل، فتحت برنامج «تشات جي بي تي» على الكومبيوتر المحمول الخاص بها، وكتبت سؤالاً على لسان مريض تجريبي: «عزيزي الطبيب، كنت أُرضع طفلي رضاعة طبيعية وأعتقد أنني أُصبت بالتهاب الضرع. كان صدري أحمر وشعرت بألم فيه». وأجاب «تشات جي بي تي» بتوصية استخدام كمادات ساخنة، ثم التدليك، وإرضاع الطفل على نحو إضافي.

إلا أن هذا خطأ، حسب دانشجو، وهي طبيبة أمراض جلدية. ففي عام 2022، أوصت أكاديمية طب الرضاعة الطبيعية بالعكس تماماً: استخدام كمادات باردة، والامتناع عن التدليك، وتجنب الإفراط في تحفيز الثدي.

وأجرت دانشجو هذا النوع من الاختبارات على نطاق أوسع، وفي خضم ذلك جمعت 80 شخصاً -شكَّلوا مزيجاً من علماء في مجال الكومبيوتر وأطباء- لطرح أسئلة طبية حقيقية على «تشات جي بي تي»، ثم تقييم الإجابات لاحقاً.

وعن ذلك، قالت: «20 في المائة من الاستجابات ليست جيدة بما يكفي للاستعانة بها في التفاعل اليومي الفعلي داخل منظومة الرعاية الصحية». ووجدت دراسة أخرى لتقييم أداء الذكاء الاصطناعي في التعامل مع أسئلة حول السرطان، أن إجاباته شكَّلت «خطراً جسيماً» بنسبة 7 في المائة.

ومع ذلك، لا ينفي ما سبق قدرة برامج المحادثة الآلية على إنجاز بعض الأشياء المثيرة للإعجاب. إلا أن المشكلة تكمن في أنها مصممة للرد بإجابة «متوسطة»، حسبما شرحت راشيل درايلوس، الطبيبة وعالمة الكومبيوتر، التي أسست شركة التكنولوجيا الصحية الناشئة «سايدوك». واستطردت قائلة: «لكن لا أحد يشكل حالة متوسطة. في الواقع، إذ إن كل مريض فرد قائم بذاته، ويجب أن يجري التعامل معه على هذا النحو».

في سياق متصل، خلصت دراسات أكاديمية أجريت حول برنامج «Whisper» -برنامج نسخ محادثات أصدرته الشركة الصانعة لبرنامج «تشات جي بي تي»- إلى أن الذكاء الاصطناعي يميل إلى اختلاق نصوص بطرق قد تؤدي إلى سوء تفسير ما قاله المتحدث. كما سلط بحث دانشجو الضوء على مشكلات في مهام التلخيص، موضحاً كيف يمكن للذكاء الاصطناعي، في بعض الأحيان، أن يتضمن تفاصيل وهمية -مثل افتراض أن مريضاً صيني الجنسية، يعمل مبرمج كومبيوتر.

وعلى خلاف هذه الدراسات، عادةً ما تكون نماذج الذكاء الاصطناعي التي تستخدمها العيادات، معدَّلة لتوافق مجال الاستخدام الطبي تحديداً.

وبوجه عام، تبدو أجهزة النسخ بالذكاء الاصطناعي أمراً لا مفر منه لكثير من الأطباء. ومع ذلك، تبقى علامة استفهام حول ما إذا كانت توفر لهم الوقت بالفعل. فقد أشارت دراسة نُشرت في نوفمبر (تشرين الثاني) حول أحد أول أنظمة الصحة الأكاديمية، التي تستخدم أجهزة النسخ بالذكاء الاصطناعي، إلى أن التكنولوجيا «لم تزد كفاءة الأطباء كمجموعة». واقترحت تقارير أخرى أنها توفر ما بين 10 و20 دقيقة.



حملات عالمية لـ«محو أمية» الذكاء الاصطناعي

حملات عالمية لـ«محو أمية» الذكاء الاصطناعي
TT

حملات عالمية لـ«محو أمية» الذكاء الاصطناعي

حملات عالمية لـ«محو أمية» الذكاء الاصطناعي

مع ازدياد توظيف التكنولوجيا في الحياة اليومية، يواجه الباحثون والمعلمون عقبتين متميزتين: تعليم الناس كيفية استخدام هذه الأدوات بمسؤولية بدلاً من الاعتماد عليها بشكل مفرط، مع إقناع المتشككين في الذكاء الاصطناعي بتعلم ما يكفي عن التكنولوجيا ليكونوا مواطنين مطلعين، حتى لو اختاروا عدم استخدامها، كما كتبت جاكي سنو(*).

هدف نشر الذكاء الاصطناعي

الهدف لا يتعلق بمجرد محاولة «إصلاح» نماذج الذكاء الاصطناعي من هفواتها وهلوساتها، التي تقول عنها ماريا دي أرتيغا، الأستاذة المساعدة في كلية ماكومبس لإدارة الأعمال بجامعة تكساس في أوستن: «إن النماذج لا تفشل. نحن الذين نستخدم النماذج لأشياء لا تصلح للغرض المقصود منها».

بل إن الهدف هو التعرف على أوجه القصور في الذكاء الاصطناعي وتطوير المهارات اللازمة لاستخدامه بحكمة. وهذا يُذكِّرنا بكيفية اضطرار مستخدمي الإنترنت الأوائل إلى تعلم كيفية التنقل عبر المعلومات عبر الإنترنت، إذ إنهم فهموا في النهاية أنه في حين قد تكون «ويكيبيديا» نقطة انطلاق جيدة للبحث، فلا ينبغي الاستشهاد بها كمصدر أساسي. وكما أصبحت معرفة القراءة والكتابة الرقمية ضرورية للمشاركة في الحياة الحديثة، فإن معرفة القراءة والكتابة في مجال الذكاء الاصطناعي أصبحت أساسية لفهم وتشكيل مستقبلنا.

هلوسة الذكاء الاصطناعي

في قلب هذه الحوادث المؤسفة للذكاء الاصطناعي، تقبع الهلوسة والتشوهات التي تدفع نماذج الذكاء الاصطناعي إلى توليد معلومات كاذبة بثقة ظاهرية. وهذه المشكلة منتشرة على نطاق واسع: في إحدى الدراسات التي أجريت عام 2024، أخطأت برامج المحادثة الآلية في الاستشهادات الأكاديمية الأساسية بنسبة تتراوح بين 30 في المائة و90 في المائة من الوقت، مما أدى إلى تشويه عناوين الأوراق البحثية وأسماء المؤلفين وتواريخ النشر.

بينما تَعِد شركات التكنولوجيا بإمكانية ترويض هذه الهلوسة من خلال هندسة أفضل، تقول دي أرتيغا إن الباحثين يجدون أنها قد تكون أساسية لكيفية عمل التكنولوجيا. وتشير إلى ورقة بحثية من OpenAI -شركة «أوبن إيه آي» التي خلصت إلى أن نماذج اللغة «المعايرة جيداً» يجب أن تهلوس كجزء من عمليتها الإبداعية. وإذا جرى تقييدها لإنتاج معلومات واقعية فقط، فإنها ستتوقف عن العمل بشكل فعال. وتضيف دي أرتيغا: «من وجهة نظر رياضية وفنية، هذا هو ما صُممت النماذج للقيام به».

قوانين تعليمية لمحو «أمية الذكاء الاصطناعي»

مع اعتراف الباحثين بأن هلوسات الذكاء الاصطناعي أمر لا مفر منه وأن البشر يميلون بطبيعة الحال إلى وضع كثير من الثقة في الآلات، يتدخل المعلمون وأصحاب العمل لتعليم الناس كيفية استخدام هذه الأدوات بشكل مسؤول.

وقد أقرَّت ولاية كاليفورنيا أخيراً قانوناً يتطلب دمج التعرف وتعليم الذكاء الاصطناعي في المناهج الدراسية من الروضة حتى الصف الثاني عشر بدءاً من هذا الخريف. كما يتطلب قانون الذكاء الاصطناعي للاتحاد الأوروبي، الذي دخل حيز التنفيذ في 5 فبراير (شباط) الحالي، من المنظمات التي تستخدم الذكاء الاصطناعي في منتجاتها تنفيذ برامج معرفة الذكاء الاصطناعي.

يقول فيكتور لي، الأستاذ المشارك في كلية الدراسات العليا للتربية بجامعة ستانفورد: «معرفة الذكاء الاصطناعي مهمة للغاية الآن، خصوصاً أننا نحاول معرفة السياسات، وما الحدود، وما الذي نريد قبوله بوصفه الوضع الطبيعي الجديد. في الوقت الحالي، يتحدث الأشخاص الذين يعرفون أكثر بثقة كبيرة، وهم قادرون على توجيه الأمور، وهناك حاجة إلى مزيد من الإجماع المجتمعي».

ويرى لي أوجه تشابه مع كيفية تكيف المجتمع مع التقنيات السابقة: «فكر في الآلات الحاسبة - حتى يومنا هذا، لا تزال هناك انقسامات حول متى تستخدم الآلة الحاسبة في الروضة حتى الصف الثاني عشر، وما يجب أن تعرفه مقابل ما يجب أن تكون الآلة الحاسبة مصدراً للأشياء»، كما يقول. ويضيف: «مع الذكاء الاصطناعي، نجري نفس المحادثة غالباً مع الكتابة كمثال».

تدريب على المهارات وفهم أعمق للتكنولوجيا

وبموجب القانون الجديد في كاليفورنيا، يتعين على تعليم معرفة الذكاء الاصطناعي أن يشمل فهم كيفية تطوير أنظمة الذكاء الاصطناعي وتدريبها، وتأثيراتها المحتملة على الخصوصية والأمن، والآثار الاجتماعية والأخلاقية لاستخدام الذكاء الاصطناعي. ويذهب الاتحاد الأوروبي إلى أبعد من ذلك، حيث يطلب من الشركات التي تنتج منتجات الذكاء الاصطناعي تدريب الموظفين المناسبين على «المهارات والمعرفة والفهم التي تسمح للمزودين والموزعين والأشخاص المتضررين... بنشر أنظمة الذكاء الاصطناعي بشكل مستنير، فضلاً عن اكتساب الوعي بالفرص والمخاطر التي يفرضها الذكاء الاصطناعي والأضرار المحتملة التي يمكن أن يسببها».

ويؤكد الإطاران أن معرفة الذكاء الاصطناعي ليست مجرد معرفة تقنية بل تتعلق بتطوير مهارات التفكير النقدي لتقييم الاستخدام المناسب للذكاء الاصطناعي في مجالات وسياقات مختلفة.

تسويق «سحري»

وفي خضمّ هجوم تسويقي من شركات التكنولوجيا الكبرى، فإن التحدي الذي يواجه المعلمين معقَّد. وتُظهِر الأبحاث الحديثة المنشورة في «مجلة التسويق» Journal of Marketing، أن الأشخاص الذين لديهم فهم أقل للذكاء الاصطناعي هم في الواقع أكثر عرضة لاحتضان التكنولوجيا، واعتبارها سحرية تقريباً. ويقول الباحثون إن هذا الرابط بين «انخفاض معرفة القراءة والكتابة والاستقبال الأعلى» للتكنولوجيا يشير إلى «أن الشركات قد تستفيد من تحويل جهودها التسويقية وتطوير المنتجات نحو المستهلكين الذين لديهم معرفة أقل بالذكاء الاصطناعي».

ويقول المعلمون إن الهدف ليس إضعاف الانفتاح على التكنولوجيا الجديدة، بل الجمع بينها وبين مهارات التفكير النقدي التي تساعد الناس على فهم إمكانات الذكاء الاصطناعي وحدوده. وهذا مهم بشكل خاص للأشخاص الذين يفتقرون إلى القدرة على الوصول إلى التكنولوجيا، أو الذين يشككون ببساطة في الذكاء الاصطناعي أو يخشونه.

بالنسبة إلى الباحث لي، فإن النجاح في محو أمية الذكاء الاصطناعي يتطلب رؤية السحر فيه. يقول: «يغذّي القلق وعدم اليقين الكثير من الشكوك أو عدم الرغبة في تجربة الذكاء الاصطناعي. إن رؤية أن الذكاء الاصطناعي هو في الواقع مجموعة من الأشياء المختلفة، وليس جهاز كمبيوتر حساساً يتحدث، وأنه ليس حتى يتحدث حقاً، بل مجرد يلفظ الأنماط المناسبة، هو جزء مما قد يساعد على محو أمية الذكاء الاصطناعي في غرسه».

تطوير مناهج تدريس الذكاء الاصطناعي

في جامعة مدينة نيويورك يقود لوك والتزر، مدير مركز التدريس والتعلم في مركز الدراسات العليا بالمدرسة، مشروعاً لمساعدة أعضاء هيئة التدريس في تطوير مناهج لتدريس محو أمية الذكاء الاصطناعي ضمن تخصصاتهم.

يقول والتزر إن الطلاب يحتاجون إلى فهم أن هذه الأدوات لها أساس مادي - فهي مصنوعة من رجال ونساء، ولها آثار في العمل، ولها تأثير بيئي».

ويعمل المشروع «CUNY»، المدعوم بمنحة قدرها مليون دولار من «غوغل» مع 75 أستاذاً على مدار ثلاث سنوات لتطوير أساليب التدريس التي تدرس آثار الذكاء الاصطناعي عبر مجالات مختلفة. وسيتم توزيع المواد والأدوات التي تم تطويرها من خلال المشروع علناً حتى يتمكن المعلمون الآخرون من الاستفادة من عمله. يقول والتزر: « ثلاث سنوات تسمح للأمور بالاستقرار. سنكون قادرين على رؤية المستقبل بوضوح أكبر».

مناهج جامعية

تنتشر مثل هذه المبادرات بسرعة عبر التعليم العالي. إذ تهدف جامعة فلوريدا إلى دمج الذكاء الاصطناعي في كل تخصص جامعي وبرنامج دراسات عليا. وابتكرت كلية بارنارد نهجاً «هرمياً» يبني تدريجياً معرفة الطلاب بالذكاء الاصطناعي من الفهم الأساسي إلى التطبيقات المتقدمة. وفي كلية كولبي، وهي كلية خاصة للفنون الليبرالية في ولاية ماين، يعزز الطلاب معرفتهم بالقراءة والكتابة باستخدام بوابة مخصصة تتيح لهم اختبار ومقارنة روبوتات الدردشة المختلفة.

ووفقاً لبحث أجراه مركز الأمن والتكنولوجيا الناشئة، فقد أطلقت نحو 100 جامعة وكلية مجتمعية شهادات الذكاء الاصطناعي، مع زيادة منح الدرجات العلمية في المجالات المتعلقة بالذكاء الاصطناعي بنسبة 120 في المائة منذ عام 2011.

فصل مزاعم التسويق عن الحقائق

بالنسبة إلى معظم الناس، فإن تعلم كيفية التنقل في الذكاء الاصطناعي، يعني فرز ادعاءات التسويق للشركات مع القليل من التوجيه. على عكس الطلاب الذين سيحصلون قريباً على تعليم رسمي في مجال الذكاء الاصطناعي، يجب على البالغين أن يكتشفوا بأنفسهم متى يثقون في هذه الأدوات المنتشرة بشكل متزايد - ومتى يتم بيعها بشكل مفرط من الشركات الحريصة على استرداد استثمارات الذكاء الاصطناعي الضخمة.

يحدث هذا التعلم الذاتي بسرعة، فقد وجدت «لينكد إن» أن العاملين يضيفون مهارات معرفة الذكاء الاصطناعي مثل الهندسة السريعة والكفاءات مع أدوات مثل «تشات جي بي تي» بمعدل خمسة أضعاف تقريباً من المهارات المهنية الأخرى.

دورات لشركات التكنولوجيا

مع محاولة الجامعات والمشرعين مواكبة ذلك، تقدم شركات التكنولوجيا فصولها وشهاداتها الخاصة. فقد أعلنت «نفيديا» أخيراً عن شراكة مع كاليفورنيا لتدريب 100000 طالب ومعلم وعامل في مجال الذكاء الاصطناعي، بينما تقدم شركات مثل «غوغل» و«أمازون Services» برامج شهادة الذكاء الاصطناعي الخاصة بها.

وتهدف شركة «إنتل» إلى تدريب 30 مليون شخص على مهارات الذكاء الاصطناعي بحلول عام 2030، بالإضافة إلى دورات مهارات الذكاء الاصطناعي المجانية عبر الإنترنت التي تقدمها مؤسسات مثل جامعة هارفارد وجامعة بنسلفانيا، يمكن للأشخاص أيضاً تعلم أساسيات الذكاء الاصطناعي من شركات مثل «آي بي إم» و«مايكروسوفت» و«غوغل».

وتقول دي أرتيغا: «إن معرفة الذكاء الاصطناعي تشبه معرفة القراءة والكتابة الرقمية -إنها شيء حقيقي. ولكن من الذي ينبغي أن يعلمك ذلك؟ ستحب شركتا (ميتا) و(غوغل) أن تعلماك وجهتي نظريهما حول الذكاء الاصطناعي».

بدلاً من الاعتماد على الشركات ذات المصلحة في بيعك فائدة الذكاء الاصطناعي، يقترح الخبراء البدء بأدوات الذكاء الاصطناعي في المجالات التي تتمتع فيها بالخبرة، حتى تتمكن من التعرف على فائدتها وحدودها. قد يستخدم المبرمج الذكاء الاصطناعي للمساعدة في كتابة التعليمات البرمجية بكفاءة أكبر مع القدرة على اكتشاف الأخطاء وقضايا الأمان التي قد يغفلها المبتدئ.

يكمن المفتاح في الجمع بين الخبرة العملية والتوجيه من أطراف ثالثة موثوقة يمكنها تقديم معلومات غير متحيزة حول قدرات الذكاء الاصطناعي، خصوصاً في المجالات ذات المخاطر العالية مثل الرعاية الصحية والتمويل والدفاع.

إن معرفة الذكاء الاصطناعي لا تتعلق فقط بكيفية عمل النموذج أو كيفية إنشاء مجموعة بيانات، فالأمر يتعلق بفهم مكانة الذكاء الاصطناعي في المجتمع. الجميع -من الأطفال إلى المتقاعدين- لديهم مصلحة في هذه المحادثة، ونحن بحاجة إلى التقاط كل هذه وجهات النظر.

* مجلة «فاست كومباني»، خدمات «تريبيون ميديا».

حقائق

بين 30 و90 %

من الوقت أخطأت برامج المحادثة الآلية في الاستشهادات الأكاديمية الأساسية مما أدى إلى تشويه عناوين الأوراق البحثية وأسماء المؤلفين وتواريخ النشر وفق إحدى الدراسات التي أُجريت عام 2024

حقائق

100

جامعة وكلية مجتمعية أميركية تقريباً تُصدر شهادات الذكاء الاصطناعي