حملات عالمية لـ«محو أمية» الذكاء الاصطناعي

قوانين أميركية وأوروبية لتطوير مهارات التفكير النقدي وتقييم استخدامه المناسب

حملات عالمية لـ«محو أمية» الذكاء الاصطناعي
TT
20

حملات عالمية لـ«محو أمية» الذكاء الاصطناعي

حملات عالمية لـ«محو أمية» الذكاء الاصطناعي

مع ازدياد توظيف التكنولوجيا في الحياة اليومية، يواجه الباحثون والمعلمون عقبتين متميزتين: تعليم الناس كيفية استخدام هذه الأدوات بمسؤولية بدلاً من الاعتماد عليها بشكل مفرط، مع إقناع المتشككين في الذكاء الاصطناعي بتعلم ما يكفي عن التكنولوجيا ليكونوا مواطنين مطلعين، حتى لو اختاروا عدم استخدامها، كما كتبت جاكي سنو(*).

هدف نشر الذكاء الاصطناعي

الهدف لا يتعلق بمجرد محاولة «إصلاح» نماذج الذكاء الاصطناعي من هفواتها وهلوساتها، التي تقول عنها ماريا دي أرتيغا، الأستاذة المساعدة في كلية ماكومبس لإدارة الأعمال بجامعة تكساس في أوستن: «إن النماذج لا تفشل. نحن الذين نستخدم النماذج لأشياء لا تصلح للغرض المقصود منها».

بل إن الهدف هو التعرف على أوجه القصور في الذكاء الاصطناعي وتطوير المهارات اللازمة لاستخدامه بحكمة. وهذا يُذكِّرنا بكيفية اضطرار مستخدمي الإنترنت الأوائل إلى تعلم كيفية التنقل عبر المعلومات عبر الإنترنت، إذ إنهم فهموا في النهاية أنه في حين قد تكون «ويكيبيديا» نقطة انطلاق جيدة للبحث، فلا ينبغي الاستشهاد بها كمصدر أساسي. وكما أصبحت معرفة القراءة والكتابة الرقمية ضرورية للمشاركة في الحياة الحديثة، فإن معرفة القراءة والكتابة في مجال الذكاء الاصطناعي أصبحت أساسية لفهم وتشكيل مستقبلنا.

هلوسة الذكاء الاصطناعي

في قلب هذه الحوادث المؤسفة للذكاء الاصطناعي، تقبع الهلوسة والتشوهات التي تدفع نماذج الذكاء الاصطناعي إلى توليد معلومات كاذبة بثقة ظاهرية. وهذه المشكلة منتشرة على نطاق واسع: في إحدى الدراسات التي أجريت عام 2024، أخطأت برامج المحادثة الآلية في الاستشهادات الأكاديمية الأساسية بنسبة تتراوح بين 30 في المائة و90 في المائة من الوقت، مما أدى إلى تشويه عناوين الأوراق البحثية وأسماء المؤلفين وتواريخ النشر.

بينما تَعِد شركات التكنولوجيا بإمكانية ترويض هذه الهلوسة من خلال هندسة أفضل، تقول دي أرتيغا إن الباحثين يجدون أنها قد تكون أساسية لكيفية عمل التكنولوجيا. وتشير إلى ورقة بحثية من OpenAI -شركة «أوبن إيه آي» التي خلصت إلى أن نماذج اللغة «المعايرة جيداً» يجب أن تهلوس كجزء من عمليتها الإبداعية. وإذا جرى تقييدها لإنتاج معلومات واقعية فقط، فإنها ستتوقف عن العمل بشكل فعال. وتضيف دي أرتيغا: «من وجهة نظر رياضية وفنية، هذا هو ما صُممت النماذج للقيام به».

قوانين تعليمية لمحو «أمية الذكاء الاصطناعي»

مع اعتراف الباحثين بأن هلوسات الذكاء الاصطناعي أمر لا مفر منه وأن البشر يميلون بطبيعة الحال إلى وضع كثير من الثقة في الآلات، يتدخل المعلمون وأصحاب العمل لتعليم الناس كيفية استخدام هذه الأدوات بشكل مسؤول.

وقد أقرَّت ولاية كاليفورنيا أخيراً قانوناً يتطلب دمج التعرف وتعليم الذكاء الاصطناعي في المناهج الدراسية من الروضة حتى الصف الثاني عشر بدءاً من هذا الخريف. كما يتطلب قانون الذكاء الاصطناعي للاتحاد الأوروبي، الذي دخل حيز التنفيذ في 5 فبراير (شباط) الحالي، من المنظمات التي تستخدم الذكاء الاصطناعي في منتجاتها تنفيذ برامج معرفة الذكاء الاصطناعي.

يقول فيكتور لي، الأستاذ المشارك في كلية الدراسات العليا للتربية بجامعة ستانفورد: «معرفة الذكاء الاصطناعي مهمة للغاية الآن، خصوصاً أننا نحاول معرفة السياسات، وما الحدود، وما الذي نريد قبوله بوصفه الوضع الطبيعي الجديد. في الوقت الحالي، يتحدث الأشخاص الذين يعرفون أكثر بثقة كبيرة، وهم قادرون على توجيه الأمور، وهناك حاجة إلى مزيد من الإجماع المجتمعي».

ويرى لي أوجه تشابه مع كيفية تكيف المجتمع مع التقنيات السابقة: «فكر في الآلات الحاسبة - حتى يومنا هذا، لا تزال هناك انقسامات حول متى تستخدم الآلة الحاسبة في الروضة حتى الصف الثاني عشر، وما يجب أن تعرفه مقابل ما يجب أن تكون الآلة الحاسبة مصدراً للأشياء»، كما يقول. ويضيف: «مع الذكاء الاصطناعي، نجري نفس المحادثة غالباً مع الكتابة كمثال».

تدريب على المهارات وفهم أعمق للتكنولوجيا

وبموجب القانون الجديد في كاليفورنيا، يتعين على تعليم معرفة الذكاء الاصطناعي أن يشمل فهم كيفية تطوير أنظمة الذكاء الاصطناعي وتدريبها، وتأثيراتها المحتملة على الخصوصية والأمن، والآثار الاجتماعية والأخلاقية لاستخدام الذكاء الاصطناعي. ويذهب الاتحاد الأوروبي إلى أبعد من ذلك، حيث يطلب من الشركات التي تنتج منتجات الذكاء الاصطناعي تدريب الموظفين المناسبين على «المهارات والمعرفة والفهم التي تسمح للمزودين والموزعين والأشخاص المتضررين... بنشر أنظمة الذكاء الاصطناعي بشكل مستنير، فضلاً عن اكتساب الوعي بالفرص والمخاطر التي يفرضها الذكاء الاصطناعي والأضرار المحتملة التي يمكن أن يسببها».

ويؤكد الإطاران أن معرفة الذكاء الاصطناعي ليست مجرد معرفة تقنية بل تتعلق بتطوير مهارات التفكير النقدي لتقييم الاستخدام المناسب للذكاء الاصطناعي في مجالات وسياقات مختلفة.

تسويق «سحري»

وفي خضمّ هجوم تسويقي من شركات التكنولوجيا الكبرى، فإن التحدي الذي يواجه المعلمين معقَّد. وتُظهِر الأبحاث الحديثة المنشورة في «مجلة التسويق» Journal of Marketing، أن الأشخاص الذين لديهم فهم أقل للذكاء الاصطناعي هم في الواقع أكثر عرضة لاحتضان التكنولوجيا، واعتبارها سحرية تقريباً. ويقول الباحثون إن هذا الرابط بين «انخفاض معرفة القراءة والكتابة والاستقبال الأعلى» للتكنولوجيا يشير إلى «أن الشركات قد تستفيد من تحويل جهودها التسويقية وتطوير المنتجات نحو المستهلكين الذين لديهم معرفة أقل بالذكاء الاصطناعي».

ويقول المعلمون إن الهدف ليس إضعاف الانفتاح على التكنولوجيا الجديدة، بل الجمع بينها وبين مهارات التفكير النقدي التي تساعد الناس على فهم إمكانات الذكاء الاصطناعي وحدوده. وهذا مهم بشكل خاص للأشخاص الذين يفتقرون إلى القدرة على الوصول إلى التكنولوجيا، أو الذين يشككون ببساطة في الذكاء الاصطناعي أو يخشونه.

بالنسبة إلى الباحث لي، فإن النجاح في محو أمية الذكاء الاصطناعي يتطلب رؤية السحر فيه. يقول: «يغذّي القلق وعدم اليقين الكثير من الشكوك أو عدم الرغبة في تجربة الذكاء الاصطناعي. إن رؤية أن الذكاء الاصطناعي هو في الواقع مجموعة من الأشياء المختلفة، وليس جهاز كمبيوتر حساساً يتحدث، وأنه ليس حتى يتحدث حقاً، بل مجرد يلفظ الأنماط المناسبة، هو جزء مما قد يساعد على محو أمية الذكاء الاصطناعي في غرسه».

تطوير مناهج تدريس الذكاء الاصطناعي

في جامعة مدينة نيويورك يقود لوك والتزر، مدير مركز التدريس والتعلم في مركز الدراسات العليا بالمدرسة، مشروعاً لمساعدة أعضاء هيئة التدريس في تطوير مناهج لتدريس محو أمية الذكاء الاصطناعي ضمن تخصصاتهم.

يقول والتزر إن الطلاب يحتاجون إلى فهم أن هذه الأدوات لها أساس مادي - فهي مصنوعة من رجال ونساء، ولها آثار في العمل، ولها تأثير بيئي».

ويعمل المشروع «CUNY»، المدعوم بمنحة قدرها مليون دولار من «غوغل» مع 75 أستاذاً على مدار ثلاث سنوات لتطوير أساليب التدريس التي تدرس آثار الذكاء الاصطناعي عبر مجالات مختلفة. وسيتم توزيع المواد والأدوات التي تم تطويرها من خلال المشروع علناً حتى يتمكن المعلمون الآخرون من الاستفادة من عمله. يقول والتزر: « ثلاث سنوات تسمح للأمور بالاستقرار. سنكون قادرين على رؤية المستقبل بوضوح أكبر».

مناهج جامعية

تنتشر مثل هذه المبادرات بسرعة عبر التعليم العالي. إذ تهدف جامعة فلوريدا إلى دمج الذكاء الاصطناعي في كل تخصص جامعي وبرنامج دراسات عليا. وابتكرت كلية بارنارد نهجاً «هرمياً» يبني تدريجياً معرفة الطلاب بالذكاء الاصطناعي من الفهم الأساسي إلى التطبيقات المتقدمة. وفي كلية كولبي، وهي كلية خاصة للفنون الليبرالية في ولاية ماين، يعزز الطلاب معرفتهم بالقراءة والكتابة باستخدام بوابة مخصصة تتيح لهم اختبار ومقارنة روبوتات الدردشة المختلفة.

ووفقاً لبحث أجراه مركز الأمن والتكنولوجيا الناشئة، فقد أطلقت نحو 100 جامعة وكلية مجتمعية شهادات الذكاء الاصطناعي، مع زيادة منح الدرجات العلمية في المجالات المتعلقة بالذكاء الاصطناعي بنسبة 120 في المائة منذ عام 2011.

فصل مزاعم التسويق عن الحقائق

بالنسبة إلى معظم الناس، فإن تعلم كيفية التنقل في الذكاء الاصطناعي، يعني فرز ادعاءات التسويق للشركات مع القليل من التوجيه. على عكس الطلاب الذين سيحصلون قريباً على تعليم رسمي في مجال الذكاء الاصطناعي، يجب على البالغين أن يكتشفوا بأنفسهم متى يثقون في هذه الأدوات المنتشرة بشكل متزايد - ومتى يتم بيعها بشكل مفرط من الشركات الحريصة على استرداد استثمارات الذكاء الاصطناعي الضخمة.

يحدث هذا التعلم الذاتي بسرعة، فقد وجدت «لينكد إن» أن العاملين يضيفون مهارات معرفة الذكاء الاصطناعي مثل الهندسة السريعة والكفاءات مع أدوات مثل «تشات جي بي تي» بمعدل خمسة أضعاف تقريباً من المهارات المهنية الأخرى.

دورات لشركات التكنولوجيا

مع محاولة الجامعات والمشرعين مواكبة ذلك، تقدم شركات التكنولوجيا فصولها وشهاداتها الخاصة. فقد أعلنت «نفيديا» أخيراً عن شراكة مع كاليفورنيا لتدريب 100000 طالب ومعلم وعامل في مجال الذكاء الاصطناعي، بينما تقدم شركات مثل «غوغل» و«أمازون Services» برامج شهادة الذكاء الاصطناعي الخاصة بها.

وتهدف شركة «إنتل» إلى تدريب 30 مليون شخص على مهارات الذكاء الاصطناعي بحلول عام 2030، بالإضافة إلى دورات مهارات الذكاء الاصطناعي المجانية عبر الإنترنت التي تقدمها مؤسسات مثل جامعة هارفارد وجامعة بنسلفانيا، يمكن للأشخاص أيضاً تعلم أساسيات الذكاء الاصطناعي من شركات مثل «آي بي إم» و«مايكروسوفت» و«غوغل».

وتقول دي أرتيغا: «إن معرفة الذكاء الاصطناعي تشبه معرفة القراءة والكتابة الرقمية -إنها شيء حقيقي. ولكن من الذي ينبغي أن يعلمك ذلك؟ ستحب شركتا (ميتا) و(غوغل) أن تعلماك وجهتي نظريهما حول الذكاء الاصطناعي».

بدلاً من الاعتماد على الشركات ذات المصلحة في بيعك فائدة الذكاء الاصطناعي، يقترح الخبراء البدء بأدوات الذكاء الاصطناعي في المجالات التي تتمتع فيها بالخبرة، حتى تتمكن من التعرف على فائدتها وحدودها. قد يستخدم المبرمج الذكاء الاصطناعي للمساعدة في كتابة التعليمات البرمجية بكفاءة أكبر مع القدرة على اكتشاف الأخطاء وقضايا الأمان التي قد يغفلها المبتدئ.

يكمن المفتاح في الجمع بين الخبرة العملية والتوجيه من أطراف ثالثة موثوقة يمكنها تقديم معلومات غير متحيزة حول قدرات الذكاء الاصطناعي، خصوصاً في المجالات ذات المخاطر العالية مثل الرعاية الصحية والتمويل والدفاع.

إن معرفة الذكاء الاصطناعي لا تتعلق فقط بكيفية عمل النموذج أو كيفية إنشاء مجموعة بيانات، فالأمر يتعلق بفهم مكانة الذكاء الاصطناعي في المجتمع. الجميع -من الأطفال إلى المتقاعدين- لديهم مصلحة في هذه المحادثة، ونحن بحاجة إلى التقاط كل هذه وجهات النظر.

* مجلة «فاست كومباني»، خدمات «تريبيون ميديا».

حقائق

بين 30 و90 %

من الوقت أخطأت برامج المحادثة الآلية في الاستشهادات الأكاديمية الأساسية مما أدى إلى تشويه عناوين الأوراق البحثية وأسماء المؤلفين وتواريخ النشر وفق إحدى الدراسات التي أُجريت عام 2024

حقائق

100

جامعة وكلية مجتمعية أميركية تقريباً تُصدر شهادات الذكاء الاصطناعي


مقالات ذات صلة

صحيفة إيطالية تُصدر طبعة «يكتبها» الذكاء الاصطناعي

تكنولوجيا الذكاء الاصطناعي في خدمة الصحافة؟ (رويترز)

صحيفة إيطالية تُصدر طبعة «يكتبها» الذكاء الاصطناعي

بدأت إحدى الصحف الإيطالية، منذ الثلاثاء، إصدار طبعة مولّدة كلياً بواسطة الذكاء الاصطناعي، وستواصل لمدة شهر هذه التجربة الأولى من نوعها في العالم.

«الشرق الأوسط» (روما)
تكنولوجيا شعار «تشات جي بي تي» (رويترز)

رجل يطلب تغريم شركة «تشات جي بي تي» بعد تعريفه بأنه مجرم وقتل طفليه

تقدَّم رجل نرويجي بشكوى بعد أن أخبره برنامج «تشات جي بي تي»، بالخطأ، أنه قتل اثنين من أبنائه وسُجن لمدة 21 عاماً.

«الشرق الأوسط» (لندن)
تكنولوجيا روبوت يعمل بتقنية الذكاء الاصطناعي (أ.ف.ب)

الإنسان والحاسوب من التنافس إلى الشراكة

يتغير العالم حولنا اليوم بتسارع لم يسبق له مثيل في التاريخ. وتتطور مستجدات تكنولوجيا المعلومات والاتصالات، بحيث يصعب على المرء مجرد متابعتها.

د. حسن الشريف
علوم «نيوساينتست»: وزير التكنولوجيا البريطاني يستخدم برنامج «تشات جي بي تي» لتقديم المشورة بشأن السياسات الحكومية

وزير التكنولوجيا البريطاني يستخدم برنامج «تشات جي بي تي» لتقديم المشورة بشأن السياسات

استخدم بيتر كايل، وزير التكنولوجيا البريطاني، برنامج «تشات جي بي تي» (ChatGPT) لتقديم المشورة بشأن السياسات.

«الشرق الأوسط» (لندن)
الاقتصاد مقر شركة «سوفت بنك» في العاصمة اليابانية طوكيو (أ.ف.ب)

«سوفت بنك» تستحوذ على صانعة الرقائق «أمبير» مقابل 6.5 مليار دولار

أعلنت مجموعة «سوفت بنك» الاستثمارية اليابانية شراء شركة «أمبير كومبيوتينغ» مقابل 6.5 مليار دولار

«الشرق الأوسط» (طوكيو)

60 % من نتائج بحث أدوات الذكاء الاصطناعي... غير دقيقة

60 % من نتائج بحث أدوات الذكاء الاصطناعي... غير دقيقة
TT
20

60 % من نتائج بحث أدوات الذكاء الاصطناعي... غير دقيقة

60 % من نتائج بحث أدوات الذكاء الاصطناعي... غير دقيقة

إذا كنت تستخدم بحث الذكاء الاصطناعي في العمل، فكن حذراً. جاء هذا في دراسة جديدة تكشف عن معلوماتها «المختلقة».

قد تعرض أدوات الذكاء الاصطناعي للبحث، معلومات خاطئة تماماً. وقد سجَّلت أداة غروك Grok التابعة لإيلون ماسك أسوأ النتائج.

الذكاء الاصطناعي– محرك البحث المستقبلي

مع توجه «غوغل» بشكل أكبر نحو الاستثمار في ضخ نتائج البحث المُولَّدة بالذكاء الاصطناعي، وذلك بعد بداية متعثرة لها العام الماضي، وتجربة شركات مماثلة مثل «أوبن إيه آي» هذه التقنية المبتكرة، يبدو أن الذكاء الاصطناعي سيشكل مستقبل البحث عبر الإنترنت.

وستكون لذلك تداعيات على العاملين في أي شركة تقريباً، بغض النظر عن مجال عملها؛ لأن البحث عن المعلومات جزء أساسي من استخدامات الإنترنت.

دراسة جديدة لمشكلات الدقة

لكن دراسة جديدة من مركز «تاو» للصحافة الرقمية بجامعة كولومبيا، نُشرت في مجلة «Columbia Journalism Review»، تُسلِّط الضوء على ضرورة توخي موظفي المؤسسات والشركات الحذر الشديد، على الأقل في الوقت الحالي؛ لأن أدوات بحث الذكاء الاصطناعي من كثير من الشركات الكبرى تعاني مشكلات خطيرة في الدقة.

اختبار 8 أدوات ذكية

دققت الدراسة في عمل 8 أدوات بحث مختلفة للذكاء الاصطناعي، بما في ذلك «تشات جي بي تي» ChatGPT، و«بربليكسيتي» Perplexity، و«جيمناي» Gemini من «غوغل»، و«كوبايلوت» Copilot من «مايكروسوفت»، والأداة الصينية الرائدة «ديب سيك» DeepSeek.

وقد ركَّزت الدراسة على دقة الإجابات عندما تم اختبار كل أداة ذكاء اصطناعي حول قصة إخبارية، حسبما أفاد موقع أخبار التكنولوجيا «آرس تكنيكا».

60 % من الإجابات غير صحيحة

وكانت النتيجة الأبرز في الدراسة أن جميع أدوات الذكاء الاصطناعي أظهرت دقة سيئة بشكل مذهل، حيث أخطأت في 60 من الإجابات. ومع ذلك، لم يكن مستوى الخطأ متساوياً بين جميع الأدوات.

أظهرت أداة Perplexity معدل خطأ بلغ نحو 37 في المائة، في حين ارتفعت نسبة الأخطاء لدى ChatGPT إلى 67 في المائة. أما نموذج Grok 3، الذي طوَّره إيلون ماسك، فقد سجل أسوأ أداء، إذ كانت إجاباته خاطئة بنسبة 94 في المائة. وربما لم يكن ذلك مفاجئًا، خاصة أن ماسك روَّج للنموذج على أنه أقل تقيُّدًا بالقيود الأمنية مقارنة بمنافسيه في الذكاء الاصطناعي. (فضلًا عن أن الملياردير معروف بتوجهاته المتحررة نسبيًا فيما يتعلق بالدقة والحقائق وحرية التعبير).

والأسوأ من ذلك، لاحظ الباحثون أن الإصدارات المدفوعة من أدوات البحث هذه كانت أحياناً أسوأ من بدائلها المجانية.

أداة البحث تختلف عن أداة الدردشة

تجدر الإشارة إلى أن البحث بالذكاء الاصطناعي يختلف قليلًا عن استخدام روبوتات الدردشة التي تحاكي المحادثات البشرية. فعادةً ما يقوم البحث بالذكاء الاصطناعي بمحاكاة دور محرك البحث، حيث يجري البحث نيابة عنك بعد إدخال استعلامك، ثم يقدم ملخصًا لأهم المعلومات التي وجدها على الإنترنت، مما يغنيك عن الحاجة إلى قراءة المقال الأصلي الذي استُخلصت منه البيانات.

لكن المشكلة هنا تكمن في أن هذه النماذج، تمامًا مثل ذلك الزميل الواثق بنفسه إلى حد الإفراط، والذي يبدو دائمًا وكأنه يمتلك الحقيقة بغض النظر عن الموضوع المطروح، لا تميل إلى الاعتراف بعدم معرفتها بالإجابة على أي استعلام.

إجابات «معقولة» غير صحيحة

لاحظ مؤلفو الدراسة أنه بدلاً من قول «لا» عند عدم تمكنه من العثور على معلومات موثوقة، رداً على استفسار حول قصة إخبارية، غالباً ما قدَّم الذكاء الاصطناعي إجابات مُختلقة تبدو معقولة، ولكنها في الواقع غير صحيحة. ومن العيوب الأخرى التي اكتشفتها هذه الدراسة أنه حتى عندما قدمت أدوات بحث الذكاء الاصطناعي هذه استشهادات إلى جانب نتائج البحث (ظاهرياً حتى يتمكن المستخدمون من زيارة مواقع المصادر هذه للتحقق من أي تفاصيل، أو للتحقق من صحة البيانات)، غالباً ما أدت روابط الاستشهادات هذه إلى نسخ مُجمَّعة من المحتوى، بدلاً من نسخ الناشرين الأصليين. وفي بعض الأحيان، أدت هذه الروابط إلى عناوين ويب غير موجودة؛ فعل ذلك Gemini وGrok 3 في أكثر من نصف استشهاداتهم.

تجربة اختبارية متخصصة

كانت التجربة متخصصة بعض الشيء؛ لأنها استندت إلى مقالات إخبارية، ولم يبحث الباحثون بعمق في دقة نتائج بحث الذكاء الاصطناعي عن محتوى آخر موجود على الإنترنت. وبدلاً من ذلك، قاموا بتغذية أدوات الذكاء الاصطناعي بمقتطفات من أخبار حقيقية ثم طلبوا منها تلخيص المعلومات، بما في ذلك العنوان وتفاصيل أخرى.

يجب أن تهتم بنتائج الدراسة لسبب بسيط واحد. فنحن نعلم أن الذكاء الاصطناعي قادر على تسريع بعض مهام المكتب المملة وتعزيز كفاءة الموظفين. ويبدو أن البحث باستخدام الذكاء الاصطناعي قد يصبح هو القاعدة، ليحل محل البحث التقليدي على الإنترنت الذي قد يكون مهمة شاقة في بعض الأحيان.

محدودية الثقة بالذكاء الاصطناعي

ولكن إذا كان فريقك -على سبيل المثال- يبحث عن معلومات أساسية لإدراجها في محتوى ستنشره، أو حتى يبحث عن موارد على الإنترنت قبل بدء مشروع جديد، فعلى العاملين فيه توخي الحذر الشديد بشأن الثقة في نتائج أدوات بحث الذكاء الاصطناعي.

ويبدو بعض الإجابات وكأنه نسخة أخرى من مشكلة هلوسة الذكاء الاصطناعي المعروفة، وهي دليل إضافي على أنه إذا كنت تستخدم أدوات الذكاء الاصطناعي لتعزيز جهود شركتك، فأنت بالتأكيد بحاجة إلى أشخاص أذكياء على دراية تامة بنتائج الذكاء الاصطناعي للتحقق منها.

* «إنك»، خدمات «تريبيون ميديا».