60 % من نتائج بحث أدوات الذكاء الاصطناعي... غير دقيقة

معلومات خاطئة ومزيفة... لدى اختبار 8 أدوات رائدة منها

60 % من نتائج بحث أدوات الذكاء الاصطناعي... غير دقيقة
TT

60 % من نتائج بحث أدوات الذكاء الاصطناعي... غير دقيقة

60 % من نتائج بحث أدوات الذكاء الاصطناعي... غير دقيقة

إذا كنت تستخدم بحث الذكاء الاصطناعي في العمل، فكن حذراً. جاء هذا في دراسة جديدة تكشف عن معلوماتها «المختلقة».

قد تعرض أدوات الذكاء الاصطناعي للبحث، معلومات خاطئة تماماً. وقد سجَّلت أداة غروك Grok التابعة لإيلون ماسك أسوأ النتائج.

الذكاء الاصطناعي– محرك البحث المستقبلي

مع توجه «غوغل» بشكل أكبر نحو الاستثمار في ضخ نتائج البحث المُولَّدة بالذكاء الاصطناعي، وذلك بعد بداية متعثرة لها العام الماضي، وتجربة شركات مماثلة مثل «أوبن إيه آي» هذه التقنية المبتكرة، يبدو أن الذكاء الاصطناعي سيشكل مستقبل البحث عبر الإنترنت.

وستكون لذلك تداعيات على العاملين في أي شركة تقريباً، بغض النظر عن مجال عملها؛ لأن البحث عن المعلومات جزء أساسي من استخدامات الإنترنت.

دراسة جديدة لمشكلات الدقة

لكن دراسة جديدة من مركز «تاو» للصحافة الرقمية بجامعة كولومبيا، نُشرت في مجلة «Columbia Journalism Review»، تُسلِّط الضوء على ضرورة توخي موظفي المؤسسات والشركات الحذر الشديد، على الأقل في الوقت الحالي؛ لأن أدوات بحث الذكاء الاصطناعي من كثير من الشركات الكبرى تعاني مشكلات خطيرة في الدقة.

اختبار 8 أدوات ذكية

دققت الدراسة في عمل 8 أدوات بحث مختلفة للذكاء الاصطناعي، بما في ذلك «تشات جي بي تي» ChatGPT، و«بربليكسيتي» Perplexity، و«جيمناي» Gemini من «غوغل»، و«كوبايلوت» Copilot من «مايكروسوفت»، والأداة الصينية الرائدة «ديب سيك» DeepSeek.

وقد ركَّزت الدراسة على دقة الإجابات عندما تم اختبار كل أداة ذكاء اصطناعي حول قصة إخبارية، حسبما أفاد موقع أخبار التكنولوجيا «آرس تكنيكا».

60 % من الإجابات غير صحيحة

وكانت النتيجة الأبرز في الدراسة أن جميع أدوات الذكاء الاصطناعي أظهرت دقة سيئة بشكل مذهل، حيث أخطأت في 60 من الإجابات. ومع ذلك، لم يكن مستوى الخطأ متساوياً بين جميع الأدوات.

أظهرت أداة Perplexity معدل خطأ بلغ نحو 37 في المائة، في حين ارتفعت نسبة الأخطاء لدى ChatGPT إلى 67 في المائة. أما نموذج Grok 3، الذي طوَّره إيلون ماسك، فقد سجل أسوأ أداء، إذ كانت إجاباته خاطئة بنسبة 94 في المائة. وربما لم يكن ذلك مفاجئًا، خاصة أن ماسك روَّج للنموذج على أنه أقل تقيُّدًا بالقيود الأمنية مقارنة بمنافسيه في الذكاء الاصطناعي. (فضلًا عن أن الملياردير معروف بتوجهاته المتحررة نسبيًا فيما يتعلق بالدقة والحقائق وحرية التعبير).

والأسوأ من ذلك، لاحظ الباحثون أن الإصدارات المدفوعة من أدوات البحث هذه كانت أحياناً أسوأ من بدائلها المجانية.

أداة البحث تختلف عن أداة الدردشة

تجدر الإشارة إلى أن البحث بالذكاء الاصطناعي يختلف قليلًا عن استخدام روبوتات الدردشة التي تحاكي المحادثات البشرية. فعادةً ما يقوم البحث بالذكاء الاصطناعي بمحاكاة دور محرك البحث، حيث يجري البحث نيابة عنك بعد إدخال استعلامك، ثم يقدم ملخصًا لأهم المعلومات التي وجدها على الإنترنت، مما يغنيك عن الحاجة إلى قراءة المقال الأصلي الذي استُخلصت منه البيانات.

لكن المشكلة هنا تكمن في أن هذه النماذج، تمامًا مثل ذلك الزميل الواثق بنفسه إلى حد الإفراط، والذي يبدو دائمًا وكأنه يمتلك الحقيقة بغض النظر عن الموضوع المطروح، لا تميل إلى الاعتراف بعدم معرفتها بالإجابة على أي استعلام.

إجابات «معقولة» غير صحيحة

لاحظ مؤلفو الدراسة أنه بدلاً من قول «لا» عند عدم تمكنه من العثور على معلومات موثوقة، رداً على استفسار حول قصة إخبارية، غالباً ما قدَّم الذكاء الاصطناعي إجابات مُختلقة تبدو معقولة، ولكنها في الواقع غير صحيحة. ومن العيوب الأخرى التي اكتشفتها هذه الدراسة أنه حتى عندما قدمت أدوات بحث الذكاء الاصطناعي هذه استشهادات إلى جانب نتائج البحث (ظاهرياً حتى يتمكن المستخدمون من زيارة مواقع المصادر هذه للتحقق من أي تفاصيل، أو للتحقق من صحة البيانات)، غالباً ما أدت روابط الاستشهادات هذه إلى نسخ مُجمَّعة من المحتوى، بدلاً من نسخ الناشرين الأصليين. وفي بعض الأحيان، أدت هذه الروابط إلى عناوين ويب غير موجودة؛ فعل ذلك Gemini وGrok 3 في أكثر من نصف استشهاداتهم.

تجربة اختبارية متخصصة

كانت التجربة متخصصة بعض الشيء؛ لأنها استندت إلى مقالات إخبارية، ولم يبحث الباحثون بعمق في دقة نتائج بحث الذكاء الاصطناعي عن محتوى آخر موجود على الإنترنت. وبدلاً من ذلك، قاموا بتغذية أدوات الذكاء الاصطناعي بمقتطفات من أخبار حقيقية ثم طلبوا منها تلخيص المعلومات، بما في ذلك العنوان وتفاصيل أخرى.

يجب أن تهتم بنتائج الدراسة لسبب بسيط واحد. فنحن نعلم أن الذكاء الاصطناعي قادر على تسريع بعض مهام المكتب المملة وتعزيز كفاءة الموظفين. ويبدو أن البحث باستخدام الذكاء الاصطناعي قد يصبح هو القاعدة، ليحل محل البحث التقليدي على الإنترنت الذي قد يكون مهمة شاقة في بعض الأحيان.

محدودية الثقة بالذكاء الاصطناعي

ولكن إذا كان فريقك -على سبيل المثال- يبحث عن معلومات أساسية لإدراجها في محتوى ستنشره، أو حتى يبحث عن موارد على الإنترنت قبل بدء مشروع جديد، فعلى العاملين فيه توخي الحذر الشديد بشأن الثقة في نتائج أدوات بحث الذكاء الاصطناعي.

ويبدو بعض الإجابات وكأنه نسخة أخرى من مشكلة هلوسة الذكاء الاصطناعي المعروفة، وهي دليل إضافي على أنه إذا كنت تستخدم أدوات الذكاء الاصطناعي لتعزيز جهود شركتك، فأنت بالتأكيد بحاجة إلى أشخاص أذكياء على دراية تامة بنتائج الذكاء الاصطناعي للتحقق منها.

* «إنك»، خدمات «تريبيون ميديا».


مقالات ذات صلة

رئيس «إنفيديا» يقلّل من تداعيات الخلاف بين البنتاغون و«أنثروبيك»: ليست نهاية العالم

الاقتصاد شاشات تعرض صورة رئيس «إنفيديا» جينسين هوانغ وشعار الشركة في تولوز (أ.ف.ب)

رئيس «إنفيديا» يقلّل من تداعيات الخلاف بين البنتاغون و«أنثروبيك»: ليست نهاية العالم

دخل الرئيس التنفيذي لشركة «إنفيديا»، جينسين هوانغ، على خط المواجهة المحتدمة بين وزارة الدفاع الأميركية (البنتاغون) وشركة الذكاء الاصطناعي الناشئة «أنثروبيك».

«الشرق الأوسط» (كاليفورنيا)
الاقتصاد متداولون يعملون في بنك هانا بسيول (إ.ب.أ)

«إنفيديا» تقود انتعاش الأسواق الآسيوية بدعم نتائج تفوق التوقعات

ارتفعت معظم الأسهم الآسيوية، الخميس، مدعومةً بنتائج أعمال قوية لشركة «إنفيديا» فاقت توقعات الأسواق، ما أسهم في تهدئة مخاوف المستثمرين.

«الشرق الأوسط» (هونغ كونغ )
تكنولوجيا الهواتف الثلاثة الجديدة بأحجامها المختلفة

تعرف على مزايا ومواصفات هواتف سلسلة «سامسونغ غالاكسي إس26»

تتمتع بمزايا متنوعة على صعيد البرمجيات والعتاد التقني

خلدون غسان سعيد (جدة)
الاقتصاد شخصان يلتقطان صوراً لشعار شركة «إنفيديا» خارج مقرها الرئيسي في سانتا كلارا بكاليفورنيا (إ.ب.أ)

«إنفيديا»: أرباح فلكية وتوقعات تتجاوز السقف... وتساؤلات حول «الفائض النقدي»

نجحت شركة «إنفيديا» في تسجيل قفزة نوعية في إيرادات الربع المنتهي في يناير (كانون الثاني)، حيث بلغت المبيعات 68.13 مليار دولار.

«الشرق الأوسط» (كاليفورنيا)

في التعليم: تدرّب على قيادة الذكاء الاصطناعي... بدلا من «ركوبه» كمسافر

الأدوات الذكية تدخل المدارس
الأدوات الذكية تدخل المدارس
TT

في التعليم: تدرّب على قيادة الذكاء الاصطناعي... بدلا من «ركوبه» كمسافر

الأدوات الذكية تدخل المدارس
الأدوات الذكية تدخل المدارس

يقول المدرسون إنهم يرغبون في تمكين طلاب المرحلة الثانوية من قيادة الذكاء الاصطناعي، بدلاً من أن يكونوا مجرد مُتلقّين تُسيّرهم برامج الدردشة الآلية.

وفي الجلسة الأولى من دورة جديدة في الذكاء الاصطناعي أقيمت هذا الشهر لطلاب الصف الثاني عشر في «مدرسة واشنطن بارك الثانوية» في نيوآرك، لم يطرح أي شيء عن الذكاء الاصطناعي بل إنها خُصصت للذكاء البشري... بشكلٍ كامل.

كان واجب الطلاب: مُقارنة أوقات تصفّحهم السلبي لمنشورات وسائل التواصل الاجتماعي التي يُديرها الذكاء الاصطناعي، مع أوقات اختيارهم المُباشر للفيديوهات أو نتائج بحث «غوغل» التي يرغبون هم في مُشاهدتها.

«هل تُسيّر التكنولوجيا أم أنها هي التي تُسيّرك؟»

«هل تُسيّر أنت التكنولوجيا أم أنها هي التي تُسيّرك؟» هكذا طُرح السؤال من خلال شريحة عرض (سلايد) على السبورة البيضاء في مدرسة واشنطن بارك الثانوية.

وفي نقاشٍ صفّيٍّ تلا ذلك، قال طالبٌ يُدعى أدريان فاريل، 18 عاماً، إنه سيطر على الذكاء الاصطناعي من خلال طلبه من برنامج دردشة آلي مُراجعة واجباته المنزلية في الرياضيات للتأكّد من دقّتها. بينما قالت الطالبة بريانا بيريز، البالغة من العمر 18 عاماً، إنها دخلت في «وضع الراكب» عند استخدام ميزة «دي جي الذكاء الاصطناعي» في موقع «سبوتيفاي». وأضافت: «إنها تشغل موسيقاي المفضلة، فلا داعي لتغييرها».

«مدرسة واشنطن بارك الثانوية» في نيوآرك

«محو أمية الذكاء الاصطناعي» - مادة تعليمية

تسعى المدارس في جميع أنحاء الولايات المتحدة جاهدةً لإدخال مادة جديدة: معرفة (محو أمية) الذكاء الاصطناعي A.I. literacy. وفيما يسميها بعض التربويين «رخصة قيادة» للذكاء الاصطناعي، تهدف الدروس الجديدة إلى تعليم الطلاب كيفية فحص أحدث الأدوات التقنية واستخدامها بمسؤولية. ويقول المعلمون إنهم يريدون إعداد الشباب للتعامل مع عالم يتشكل بشكل متزايد بفعل الذكاء الاصطناعي، حيث تقوم برامج الدردشة الآلية بتأليف نصوص تبدو كأنها من صنع البشر، فيما يستخدم أصحاب العمل الخوارزميات للمساعدة في تقييم المرشحين للوظائف.

برامج ذكية في المناهج الدراسية

ويركز بعض المدارس على برامج الدردشة الآلية التي تعمل بالذكاء الاصطناعي، حيث تعلم الطلاب كيفية استخدام مساعد غوغل «جيميناي» أو مساعد مايكروسوفت «كوبايلوت». بينما تقوم مدارس أخرى بإدخال الذكاء الاصطناعي في المناهج الدراسية. وبوصفه موضوعاً جديداً في المناهج الدراسية، تتناول الدروس التداعيات المجتمعية مثل انتشار الصور العارية المُولّدة بالذكاء الاصطناعي، وهي الظاهرة المعروفة باسم «التزييف العميق».

تحسين التعليم أم تدميره؟

تزداد دروس الذكاء الاصطناعي شيوعاً في المدارس مع احتدام الجدل حول ما إذا كانت برامج الدردشة الآلية ستُحسّن التعليم أم ستُدمّره. يقول المؤيدون إن على المدارس أن تُعلّم الشباب سريعاً استخدام الذكاء الاصطناعي وأنه ضروري لدعم تعلّمهم، وإعدادهم للوظائف، ومساعدة الولايات المتحدة على منافسة الصين. وفي العام الماضي، أصدر الرئيس ترمب أمراً تنفيذياً يحثّ المدارس على تدريس «أساسيات الذكاء الاصطناعي» بدءاً من رياض الأطفال.

في مقابل ذلك يُحذر باحثون في مجال التعليم من أن برامج الدردشة الآلية قد تُلفّق المعلومات، وتُسهّل الغش، وتُضعف التفكير النقدي. ووجدت دراسة حديثة أجرتها مطبعة جامعة كمبردج و«مايكروسوفت للأبحاث» أن الطلاب الذين دوّنوا ملاحظات على النصوص كانوا أكثر فهماً للقراءة من الطلاب الذين تلقوا مساعدة من برامج الدردشة الآلية.

مؤسسة «برومينغز» أصدرت تقريراً الشهر الماضي حول أخطار الذكاء الاصطناعي

مخاطر الذكاء الاصطناعي أكبر من فوائده

في الوقت الراهن، «تفوق مخاطر استخدام الذكاء الاصطناعي في التعليم فوائده»، هذا ما خلصت إليه مؤسسة بروكينغز Brookings Institution الشهر الماضي في تقرير حول استخدام الذكاء الاصطناعي في المدارس.

موقف وسط

في خضمّ هذا الجدل، تتخذ مدارس مثل مدرسة واشنطن بارك الثانوية موقفاً وسطاً، إذ تتعامل مع الذكاء الاصطناعي كما لو كان سيارة، وتساعد الطلاب على وضع قواعد لاستخدامه.

وشبّه مايك تاوبمان، 45 عاماً، وهو مُدرّس استكشاف المسارات المهنية، الذي شارك في تطوير منهج محو الأمية الجديد في المدرسة، هذه الحصة الدراسية بتحضير المراهقين لاختبار رخصة القيادة.

وتساءل تاوبمان: «إلى أين تريدون الوصول؟ وهل يُمكن للذكاء الاصطناعي مساعدتكم على ذلك؟». وأضاف أن الطلاب بحاجة إلى تعلّم كيفية استخدام أدوات الذكاء الاصطناعي، وتحليل وظائفها، ووضع إرشادات للاستخدام الشخصي، وتصميم سياسات سلامة مثالية.

وتابع: «ما القوانين والقواعد والمعايير التي يجب أن تُطبّق على الذكاء الاصطناعي في مدينتي وبلدي؟».

المدرسان مايك تاوبمان وسكوت كيرن

تجربة مدرسية

يخدم مبنى واشنطن بارك، وهو مبنى من أربعة طوابق بواجهة من الطوب الأحمر في وسط نيوآرك، نحو 900 طالب في المرحلة الثانوية. وهو جزء من شبكة مدارس أنكومون، وهي شبكة مدارس مستقلة في شمال شرقي الولايات المتحدة الأميركية تركز على إعداد الطلاب للجامعة والمسارات المهنية.

وقد ابتكر تاوبمان مع سكوت كيرن، مدرس التاريخ الأميركي، فكرة المقرر الدراسي الاختياري الجديد حول الذكاء الاصطناعي. وكان كلاهما قد أدخل أدوات ومواضيع الذكاء الاصطناعي في مقرراتهما الدراسية.

وشارك كيرن، البالغ من العمر 45 عاماً، أخيراً في برنامج «بلاي لاب Playlab»، وهي منظمة غير ربحية تساعد المعلمين على إنشاء تطبيقات ذكاء اصطناعي مخصصة لمقرراتهم الدراسية. ولمساعدة طلابه على صقل مهاراتهم في الكتابة الجدلية، طوَّر كيرن روبوتات محادثة لصفوف التاريخ الأميركي بناءً على مواد المقرر الدراسي وتقييمات الطلاب. كما وضع إرشادات واضحة للطلاب حول متى يجب استخدام روبوتات الذكاء الاصطناعي ومتى يجب تجنب استخدامها.

مناقشة تاريخية اصطناعية-بشرية

وفي تجربة صفّية درّس السيد كيرن جانباً دراسياً متقدماً في تاريخ الولايات المتحدة حول أحداث شغب شيكاغو العرقية، وهي احتجاجات عنيفة اندلعت إثر مقتل مراهق أسود عام 1919. في البداية، طلب من الطلاب قراءة قصاصات صحافية قديمة ووثائق تاريخية أخرى. ثم أدار نقاشاً صفّياً حول الاتجاهات الأوسع التي أسهمت في تأجيج التوترات.

بعد ذلك، طلب السيد كيرن من الطلاب تخصيص بضع دقائق لوصف السبب الرئيسي للشغب لبرنامج دردشة آلي كان قد أنشأه خصيصاً لهذا الفصل.

وبعد بضع دقائق أخرى، أخبر كيرن الطلاب أن وقتهم مع الروبوت قد انتهى، واستأنف نقاش الصف. وأكد أن التعلم الأساسي للطلاب يجب أن يبقى نشاطاً خالياً من الذكاء الاصطناعي. وقال كيرن: «في أي وقت نرغب فيه أن يتفاعل الطلاب بعضهم مع بعض أو أن يمارسوا التفكير النقدي الأولي، لا أريد أبداً أن يتدخل الذكاء الاصطناعي أو أي نوع من التكنولوجيا المشابهة في ذلك».

وفي قسم آخر من المدرسة، كان تاوبمان يُدرّس دورة استكشاف المسارات المهنية. وقد طوّر مجموعة متنوعة من برامج الدردشة الآلية لمحاكاة المسارات المهنية لطلابه.

«رخصة قيادة» الذكاء الاصطناعي

وأقرّ كيرن وتاوبمان بأن تعبير «رخصة القيادة: الذي استخدموه له حدود. إذ سيعاني الطلاب من صعوبات اتخاذ قرارات مدروسة بشأن مخاطر أنظمة الذكاء الاصطناعي القوية... حتى الحين الذي سيتم فيه تزويد ​​برامج الدردشة الآلية بآليات حماية مُدمجة تُشبه أحزمة الأمان والوسائد الهوائية.

وقال كيرن إنه يأمل أن يتمكن الطلاب يوماً ما من «التأثير في بناء هذه الأدوات بطريقة أفضل وأكثر عدلاً وأكثر مراعاةً للبيئة مما هو موجود الآن».

* خدمة «نيويورك تايمز».


استطلاع أميركي: الغش بالذكاء الاصطناعي «أصبح جزءاً لا يتجزأ من الحياة الطلابية»

استطلاع أميركي: الغش بالذكاء الاصطناعي «أصبح جزءاً لا يتجزأ من الحياة الطلابية»
TT

استطلاع أميركي: الغش بالذكاء الاصطناعي «أصبح جزءاً لا يتجزأ من الحياة الطلابية»

استطلاع أميركي: الغش بالذكاء الاصطناعي «أصبح جزءاً لا يتجزأ من الحياة الطلابية»

أظهرت دراسة جديدة أجراها «مركز بيو للأبحاث» أن أكثر من نصف المراهقين في الولايات المتحدة يستخدمون أدوات الذكاء الاصطناعي للمساعدة في واجباتهم المدرسية.

تضاعف استخدام الذكاء الاصطناعي

وأفاد استطلاع «بيو» في تقرير نُشر أمس الثلاثاء أن 54 في المائة من الطلاب الذين تتراوح أعمارهم بين 13 و17 عاماً قالوا إنهم استخدموا برنامج دردشة آلية مثل «تشات جي بي تي» أو«كوبايلوت» لمهام مثل البحث عن الواجبات المدرسية أو حل مسائل الرياضيات.

وكان 26 في المائة من المراهقين الأميركيين أفادو عام 2024 أنهم استخدموا «تشات جي بي تي» في واجباتهم المدرسية، وذلك وفقاً لدراسة سابقة أجراها «مركز بيو» سألت تحديداً عن استخدامهم لهذا البرنامج. وقد مثل هذا زيادة مضاعفة مقارنةً بعام 2023، حيث أفاد 13 في المائة فقط من الطلاب باستخدامهم برنامج «جي بي تي» للمساعدة في دراستهم، وفقاً لنفس المركز.

تنفيذ الواجبات المدرسية

وخلص التقرير الحديث واستناداً إلى استطلاع شمل 1458 مراهقاً وأولياء أمورهم في خريف العام الماضي، إلى وجود تباين في استخدام الذكاء الاصطناعي بين المراهقين بشكل كبير. فبينما قال 44 في المائة من المراهقين إنهم استخدموا الذكاء الاصطناعي في «بعض» أو «قليل» من واجباتهم المدرسية، قال 10 في المائة إنهم لجأوا إلى برامج الدردشة الآلية للحصول على المساعدة في جميع أو معظم واجباتهم المدرسية.

وقالت كولين ماكلين، الباحثة الرئيسية في مركز بيو والمشاركة في إعداد الدراسة: «نلاحظ بوضوح أن استخدام برامج الدردشة الآلية المدعومة بالذكاء الاصطناعي للمساعدة في الواجبات المدرسية أصبح ممارسة شائعة بين المراهقين».

جدل محتدم

وتأتي هذه النتائج وسط جدل وطني محتدم حول انتشار أنظمة الذكاء الاصطناعي التوليدية، القادرة على إنتاج نصوص تبدو وكأنها من صنع الإنسان، وإنشاء صور واقعية، وتطوير تطبيقات.

يقول المؤيدون إن على المدارس تعليم الطلاب استخدام وتقييم روبوتات الدردشة المدعومة بالذكاء الاصطناعي لإعداد الشباب لمتطلبات سوق العمل المتغيرة. بينما يحذر المنتقدون من أن هذه الروبوتات قد تنشر معلومات مضللة، وتضلل الطلاب، وتقوض التفكير النقدي، وتؤدي إلى إيذاء النفس، وتسهل الغش.

تعويق التفكير النقدي للطلاب

تشير العديد من الدراسات الحديثة إلى أن روبوتات الدردشة قد تعيق التفكير النقدي وتؤثر سلباً على التعلم. ففي إحدى الدراسات التي أجرتها دار نشر جامعة كامبريدج والتقييم بالتعاون مع «مايكروسوفت للأبحاث» حول فهم النص المقروء، أظهر الطلاب الذين طُلب منهم تدوين الملاحظات دون استخدام روبوتات الدردشة فهماً أفضل للنص المقروء مقارنةً بالطلاب الذين طُلب منهم استخدامها لفهم النصوص.

التعلم والترفيه

طرح باحثو مركز بيو للأبحاث أسئلة متنوعة على المراهقين حول آرائهم واستخدامهم للذكاء الاصطناعي. وتُظهر النتائج أن العديد من الشباب يستخدمون روبوتات الدردشة كمنصات متعددة الأغراض للتعلم والترفيه والحصول على النصائح والتواصل الاجتماعي.

وقال 47 في المائة من المراهقين إنهم استخدموا روبوتات الدردشة للتسلية، بينما قال 42 في المائة إنهم استخدموها لتلخيص المحتوى. وقالت نسبة أقل، 12 في المائة، إنهم استخدموها للحصول على النصائح أو الدعم النفسي.

كيفية استخدام الذكاء الاصطناعي

وسلّط ​​التقرير الضوء أيضاً على كيفية استخدام المراهقين لأدوات الذكاء الاصطناعي في دراستهم.

وقال ما يقرب من نصف المراهقين إنهم استخدموا برامج الدردشة الآلية لأغراض البحث، بينما استخدم أكثر من 40 في المائة منهم الذكاء الاصطناعي للمساعدة في حل مسائل الرياضيات. وأفاد أكثر من ثلثهم بأنهم استخدموا هذه البرامج لتحرير كتاباتهم.

الغشّ «بشكل متكرر»

ولم يتطرق الاستطلاع إلى سؤال الطلاب عما إذا كانوا قد استخدموا برامج الدردشة الآلية لكتابة المقالات أو إنشاء واجبات أخرى، وهي أنواع الغش التي حذَّر منها المعلمون في جميع أنحاء الولايات المتحدة. لكن ما يقرب من 60 في المائة من المراهقين أخبروا مركز بيو للأبحاث أن طلاباً في مدارسهم يستخدمون برامج الدردشة الآلية للغش «بشكل متكرر» أو «بشكل متكرر إلى حد ما».

وذكر التقرير أن النتائج تشير إلى أن المراهقين يعتقدون أن «الغش باستخدام الذكاء الاصطناعي أصبح جزءاً لا يتجزأ من الحياة الطلابية».

* خدمة «نيويورك تايمز».


مهارات قيادية… لا يمكن للذكاء الاصطناعي أن يحل محلها

مهارات قيادية… لا يمكن للذكاء الاصطناعي أن يحل محلها
TT

مهارات قيادية… لا يمكن للذكاء الاصطناعي أن يحل محلها

مهارات قيادية… لا يمكن للذكاء الاصطناعي أن يحل محلها

يجلس الرئيس التنفيذي في غرفة اجتماعات، محدقاً في عروض استراتيجية أُعدّت بين عشية وضحاها بواسطة الذكاء الاصطناعي: إنها تقدم التحليل الدقيق، والتوصيات الواثقة، والأرقام المتناسقة... ومع ذلك، ثمة شعورٌ بعدم الارتياح؛ إذ يبدو الأمر مثالياً أكثر من اللازم، كما كتب جيف بيرنغهام (*).

الذكاء الاصطناعي أضحى أقوى أدوات الإدارة

أصبحت هذه اللحظة شائعة بشكل متزايد بين القادة. فالذكاء الاصطناعي اليوم يُعدّ من أقوى أدوات الإدارة على الإطلاق. بإمكانه تحليل الأسواق في ثوانٍ، واكتشاف أنماطٍ يعجز أي فريق بشري عن رصدها، ووضع خططٍ عند الطلب.

وبالنسبة للكثير من المديرين التنفيذيين، بات الذكاء الاصطناعي ضرورياً لا غنى عنه. ولكن مع تزايد انتشاره بوتيرة غير مسبوقة، يبرز سؤالٌ خفيّ داخل المؤسسات: كيف نضمن تركيز الذكاء الاصطناعي على ازدهار الإنسان؟

«الذكاء يتوسع»... والحكمة لا تتوسع

يتفوق الذكاء الاصطناعي في الذكاء. فهو يكتشف الأنماط، ويتنبأ بالنتائج، ويُحسّن الكفاءة. أما ما يفتقر إليه الذكاء الاصطناعي، فهو الحكمة السياقية: القدرة على فهم أهمية القرار (في سياق الأمور)، وكيف سيؤثر عاطفياً وثقافياً، وما الذي يعززه بمرور الوقت.

لم تكن القيادة يوماً تعني امتلاك أكبر قدر من المعلومات، بل لطالما كانت تعني تحديد الأولويات عند تضارب المعلومات.

في بيئة غنية بالذكاء الاصطناعي، حيث يُتداول الذكاء بصفته منتجاً، يواجه القادة إغراءً خفياً لتفويض الحكم إلى جهات خارجية. فعندما تبدو لوحات المعلومات دقيقة والتوصيات موضوعية، قد يجري الخلط بسهولة بين التحسين وبين الحكمة.

لكن الذكاء الاصطناعي لا يستطيع الإجابة عن الأسئلة التي تزداد مسؤولية القادة عنها:

- كيف يؤثر هذا على الأشخاص الأعزاء الذين أعتني بهم؟

- ما القيم التي تحرك هذا القرار؟

- هل يعكس هذا القرار نوع العالم الذي نسعى لبنائه معاً؟

هذه ليست أسئلة حسابية، بل هي أسئلة إنسانية.

الخطر الحقيقي: القيادة المتخلية

يركز جزء كبير من النقاش العام حول مخاطر الذكاء الاصطناعي على التحيز أو سوء الاستخدام. وهذه المخاوف حقيقية. لكن داخل المؤسسات، يبرز خطرٌ خفيّ: إسناد التفكير الذي يؤثر على البشر إلى «الآلة».

عندما يُفرط القادة في الاعتماد على توصيات الذكاء الاصطناعي، فإنهم يفقدون تدريجياً ثقتهم في حكمهم. ويتحول دور القيادة من فهم الأمور إلى مراقبة النظام. ثم تتوقف فِرق العمل عن النقاش، ويتوقف القادة عن تفسير الواقع ويبدأون في التحقق من صحة النتائج.

النتيجة ليست قيادة أفضل، بل قيادة أضعف... إذ ومع مرور الوقت، يظهر هذا في صورة انحراف ثقافي، ونقاط ضعف أخلاقية، وانفصال الموظفين، وفقدان الثقة، خاصةً في أوقات مثل تسريح العمال، أو إعادة الهيكلة، أو التحولات الاستراتيجية الكبرى. عندما يعجز القادة عن شرح أسباب اتخاذ قرار ما بوضوح، يشعر الموظفون بأنهم مُوجَّهون بدلاً من أن يكونوا مُقادين.

القادة الأقوياء

القادة الأقوياء لا يكتفون باتخاذ القرارات، بل يشرحون أهميتها. إنهم يربطون القرارات بمعناها وبالقيم المشتركة. إنهم يساعدون فرق العمل على فهم كيف تتناسب خيارات اليوم مع مسار التحول والتطور البشري الأوسع.

يمكن للذكاء الاصطناعي اقتراح حلول، لكن البشر وحدهم من يستطيعون صياغة المعنى.

لماذا أصبح الوضوح مهارة قيادية أساسية؟

في عالمٍ مُتشبّع بالذكاء الاصطناعي، يُضاعف الوضوح من قوة التأثير... وضوح بشأن الغاية...وضوح بشأن القيم... وضوح بشأن ما لا يجب تحسينه.

أي ببساطة: الوضوح هو تحديد ما ترفض السماح للذكاء الاصطناعي بتحسينه.

سيسعى الذكاء الاصطناعي بكل سرور إلى التحسين من أجل السرعة والكفاءة والتفاعل أو خفض التكاليف. ولن يسأل عما إذا كانت هذه التحسينات تُضعف الثقة أو الإبداع أو المرونة أو التماسك على المدى الطويل. يجب على القادة أن يفعلوا ذلك. لهذا السبب؛ أصبح الوضوح، وليس الكاريزما أو الخبرة التقنية، إحدى أهم القدرات القيادية في العقد المقبل.

رؤية واستبصار

يُتيح الوضوح للقادة:

- وضع حدود لكيفية ومكان استخدام الذكاء الاصطناعي.

- وضع إطار لرؤى الذكاء الاصطناعي ضمن السياق الإنساني.

- تحديد متى يجب أن تُضحّي الكفاءة المطلوبة بالأخلاق.

- حماية الإبداع حيث يُمكن للتحسين أن يُطغى عليه.

ومن دون الوضوح، يُخاطر القادة بأن يصبحوا مُتفاعلين مع الذكاء الاصطناعي بدلاً من أن يكونوا مسؤولين عن النتائج الإنسانية.

كيف يستخدم القادة الفعالون الذكاء الاصطناعي دون الاعتماد عليه؟

الهدف ليس مقاومة الذكاء الاصطناعي، بل توظيفه بالشكل الأمثل في ممارسات القيادة.

وهناك ثلاثة مبادئ تساعد القادة على تحقيق ذلك:

- التعامل مع الذكاء الاصطناعي بصفته مستشاراً، لا سلطة مطلقة.

- استخدام الذكاء الاصطناعي لاستكشاف الخيارات، واختبار الافتراضات، ودراسة السيناريوهات، مع التأكيد على أن القرار النهائي يبقى بيد الإنسان. عملياً، يعني هذا أن يتخذ القادة قراراتهم بكلماتهم الخاصة، لا بالاعتماد على خوارزمية.

- التأني في اللحظات الحاسمة.

عندما تؤثر القرارات على الأفراد، أو الثقافة، أو الهوية (التوظيف، التسريح، تغيير الاستراتيجية، القيم)، توقف. لا تسأل فقط «ماذا تشير إليه البيانات؟»، بل «ماذا يعكس هذا القرار عن هويتنا؟».

الاستثمار في الحكمة... لا مجرد الإلمام بالذكاء الاصطناعي

مهارات الذكاء الاصطناعي مهمة، لكن مهارات الحكمة أهم. فالمنظمات الناجحة يقودها أشخاص مدربون على التفكير الأخلاقي، والمنهجي، والتعبير عن القيم تحت الضغط، لا مجرد تشغيل الأدوات بكفاءة.

المعنى هو ميزة القيادة التي لا يستطيع الذكاء الاصطناعي منافستها.

وفي لحظات عدم اليقين، لا يتطلع الناس إلى القادة للحصول على تنبؤات مثالية، بل يبحثون عن التوجيه.

إنهم يريدون معرفة: ما هو المهم الآن؟ على ماذا يجب أن أركز؟ كيف يرتبط عملي بشيء ذي معنى؟

لا يستطيع الذكاء الاصطناعي توفير هذا التوجيه، بينما تستطيع القيادة ذلك. مع تسارع وتيرة الذكاء الاصطناعي، يصبح المعنى أكثر ندرة وقيمة. القادة الذين يوفرون الوضوح وسط التعقيد، والغاية وسط التسارع لا يبنون ثقافات أفضل فحسب، بل يقودون ابتكاراً أقوى، ومرونة تنظيمية أكبر، وخلق قيمة طويلة الأجل.

كل تحول تكنولوجي يعيد تشكيل القيادة

كل تحول تكنولوجي يُعيد تشكيل القيادة، وهذا التحول الجديد ليس استثناءً.

لكن الحقيقة الأساسية تبقى ثابتة: القيادة لا تتعلق بمعرفة المزيد، بل برؤية أوضح وممارسة الحكمة تحت الضغط.

سيستمر الذكاء الاصطناعي في التطور، وستتوسع قدراته، وستتحسن أدواته. ما يجب أن يتعمق بالتوازي مع ذلك هو قدرة القيادة البشرية على الوضوح، والحكمة، وصنع المعنى؛ لأنّ القادة الأكثر تأثيراً في عالم الذكاء الاصطناعي لن يكونوا أولئك الذين يعتمدون على أذكى الآلات، بل سيكونون أولئك الذين يتذكرون بحكمةٍ معنى الإنسانية أثناء استخدامهم لها.

* مجلة «فاست كومباني»