رصد آلاف الثغرات في برامج الذكاء الاصطناعي الشائعة

محتوى جنسي وعنيف وإنتاج أسلحة محرمة دولياً

رصد آلاف الثغرات في برامج الذكاء الاصطناعي الشائعة
TT

رصد آلاف الثغرات في برامج الذكاء الاصطناعي الشائعة

رصد آلاف الثغرات في برامج الذكاء الاصطناعي الشائعة

تقول شركة ناشئة في مجال الذكاء الاصطناعي إن اختباراتها وجدت أن برامج الذكاء الاصطناعي التوليدية الشهيرة أنتجت محتوىً عنيفاً أو جنسياً، وإنها أيضاً سمحت بأتمتة الهجمات الإلكترونية.

محتوى جنسي وأسلحة كيميائية

وقالت شركة «هايز لابز (Haize Labs)» إنها عثرت على الآلاف من نقاط الضعف في برامج الذكاء الاصطناعي التوليدية الشهيرة، وأصدرت قائمة باكتشافاتها.

بعد اختبار برامج الذكاء الاصطناعي التوليدية الشائعة؛ بما فيها برنامج إنشاء الفيديو «Pika»، وبرنامج «ChatGPT» الذي يركز على النصوص، ومولد الصور «Dall-E»، ونظام الذكاء الاصطناعي الذي يولد رموز الكومبيوتر، اكتشفت «هايز لابز» أن كثيراً من الأدوات المعروفة تنتج محتوىً عنيفاً أو جنسياً، كما أنها وجهت مستخدميها إلى معلومات حول إنتاج أسلحة كيميائية وبيولوجية، وسمحت بأتمتة الهجمات السيبرانية.

و«هايز لابز» شركة ناشئة صغيرة عمرها 5 أشهر فقط أسسها ليونارد تانغ وستيف لي وريتشارد ليو، وهم 3 من الخريجين الجدد الذين التقوا جميعاً في الكلية. ونشروا بشكل جماعي 15 ورقة بحثية حول التعلم الآلي خلال وجودهم في الكلية.

ووصف تانغ تقرير «هايز» بأنه «اختبار إجهاد مستقل من طرف ثالث»، وقال إن هدف شركته هو المساعدة في استئصال مشكلات الذكاء الاصطناعي ونقاط الضعف على نطاق واسع.

معايير السلامة للذكاء الاصطناعي

وفي إشارة إلى إحدى كبريات شركات تصنيف السندات على سبيل المقارنة، قال تانغ إن «هايز» تأمل في أن تصبح «وكالة موديز للذكاء الاصطناعي» التي تحدد تصنيفات السلامة العامة للنماذج الشعبية.

تعدّ سلامة الذكاء الاصطناعي مصدر قلق مزداد؛ حيث تدمج مزيد من الشركات الذكاء الاصطناعي التوليدي في عروضها وتستخدم نماذج لغوية كبيرة في المنتجات الاستهلاكية.

أجوبة «خرافية»

وفي الشهر الماضي، واجهت «غوغل» انتقادات حادة بعد أن اقترحت أداتها التجريبية «AI Overviews»، التي تهدف إلى الإجابة عن أسئلة المستخدمين، أنشطة خطرة مثل تناول صخرة صغيرة واحدة يومياً أو إضافة الغراء إلى البيتزا.

وفي شهر فبراير (شباط) الماضي، تعرضت «شركة طيران كندا» لانتقادات شديدة عندما وعد برنامج الدردشة الآلي الخاص بها؛ المزود بتقنية الذكاء الاصطناعي، بخصم وهمي لأحد المسافرين. وقد دعا مراقبو الصناعة إلى إيجاد طرق أفضل لتقييم مخاطر أدوات الذكاء الاصطناعي.

«مع انتشار أنظمة الذكاء الاصطناعي على نطاق واسع، فسنحتاج إلى مجموعة أكبر من المؤسسات لاختبار قدراتها ومدى إساءة الاستخدام المحتملة أو مشكلات السلامة»؛ وفق ما نشر جاك كلارك، المؤسس المشارك لـ«شركة أبحاث الذكاء الاصطناعي والسلامة (أنثروبيك Anthropic)»، مؤخراً على موقع «إكسX».

برامج توليدية غير آمنة

وقال تانغ: «ما تعلمناه هو أنه على الرغم من كل جهود السلامة التي بذلتها هذه الشركات الكبرى والمختبرات الصناعية، فإنه لا يزال من السهل للغاية إقناع هذه النماذج بفعل أشياء ليس من المفترض أن تفعلها... إنها ليست آمنة».

ويعمل اختبار «هايز» على ممارسة محاكاة الإجراءات العدائية لتحديد نقاط الضعف في نظام الذكاء الاصطناعي. وقال غراهام نيوبيج، الأستاذ المشارك في علوم الكومبيوتر بـ«جامعة كارنيغي ميلون»، إن صناعة الذكاء الاصطناعي تحتاج إلى كيان مستقل للسلامة. وأضاف: «أدوات السلامة الخاصة بالذكاء الاصطناعي التابعة لجهات خارجية مسألة مهمة... إنها يجب أن تكون عادلة ومحايدة على حد سواء. كما يمكن أن تتمتع أداة الأمان التابعة لجهة خارجية بأداء أعلى فيما يتعلق بالتدقيق؛ لأنها أُنشئت بواسطة مؤسسة مختصة في ذلك، على عكس بناء كل شركة أدواتها المختصة».

استئصال الثغرات

وقالت «هايز» إنها أبلغت صانعي أدوات الذكاء الاصطناعي التي اختُبرت بشكل استباقي بنقاط الضعف، ودخلت الشركة الناشئة في شراكة مع «أنثروبيك» لاختبار الإجهاد لمنتج خوارزمي لم يُطرح بعد. وقال تانغ إن استئصال نقاط الضعف في منصات الذكاء الاصطناعي من خلال الأنظمة الآلية أمر بالغ الأهمية؛ «لأن اكتشاف المشكلات يدوياً يستغرق وقتاً طويلاً ويعرض أولئك الذين يعملون في الإشراف على المحتوى لمحتوى عنيف ومزعج».

بعض المحتوى الذي اكتُشف عبر مراجعة «هايز» أدوات الذكاء الاصطناعي التوليدية الشائعة يتضمن صوراً ونصوصاً مروعة ورسومية. وقال تانغ: «كان هناك كثير من الحديث حول مشكلات السلامة التي تسيطر على العالم من خلال الذكاء الاصطناعي... أعتقد أنها مهمة، لكن المشكلة الكبرى هي إساءة استخدام الذكاء الاصطناعي على المدى القصير».

* مجلة «فاست كومباني» - خدمات «تريبيون ميديا»


مقالات ذات صلة

«أوبن إيه آي» تغلق حسابات استخدمت «تشات جي بي تي» في عمليات احتيال وتأثير

تكنولوجيا العلامة التجارية لشركة «أوبن إيه آي» (رويترز)

«أوبن إيه آي» تغلق حسابات استخدمت «تشات جي بي تي» في عمليات احتيال وتأثير

قالت شركة «أوبن إيه آي» ‌إنها حظرت حسابات مرتبطة بالسلطات الصينية ومحتالين على مواقع مواعدة وعمليات تأثير، بما في ذلك حملة ​تشويه ضد أول رئيسة وزراء في اليابان.

«الشرق الأوسط» (واشنطن)
تكنولوجيا الفرق عالية الأداء تتفوق بفضل الاستثمار المنهجي في الذكاء الاصطناعي والشراكات والتخطيط البيعي (رويترز)

«سيلزفورس»: 9 من كل 10 فرق مبيعات تتجه إلى وكلاء الذكاء الاصطناعي

تقرير «سيلزفورس» يكشف تسارع تبنّي وكلاء الذكاء الاصطناعي في المبيعات، لرفع الإنتاجية، وتحسين البيانات، ودعم نماذج تسعير مرنة لتحقيق النمو.

نسيم رمضان (لندن)
تكنولوجيا الذكاء الاصطناعي التكتيكي… لتفادي الصواريخ المعادية

الذكاء الاصطناعي التكتيكي… لتفادي الصواريخ المعادية

استخدم طيارو اختبار تابعون لسلاح الجو الأميركي، الذكاء الاصطناعي على متن طائرة مقاتلة تجريبية لتفادي صاروخ في نظام محاكاة إلكترونية، بنجاح. وبذلك أظهروا كيف…

«الشرق الأوسط» (أورورا (ولاية كولورادو الأميركية))
الاقتصاد شعار «أنثروبيك» (رويترز)

حرب الأكواد: غارة مادورو تضع «أنثروبيك» في مواجهة البنتاغون

تجد «أنثروبيك» نفسها اليوم محاصرة بين فكي كماشة فبينما يلاحقها المنافسون بأدوات خارقة يضعها البنتاغون أمام إنذار «الجمعة» الأخير

«الشرق الأوسط» (الرياض)
الاقتصاد مجسّمات مع أجهزة كمبيوتر وجوالات أمام عبارة «الذكاء الاصطناعي» في هذا الرسم التوضيحي (رويترز)

ضغوط الذكاء الاصطناعي تهزّ أسهم التكنولوجيا الأميركية مطلع 2026

تراجعت أسهم شركات التكنولوجيا الأميركية مع بداية عام 2026 تحت وطأة مخاوف كبيرة بشأن تداعيات الذكاء الاصطناعي

«الشرق الأوسط» (نيويورك )

في التعليم: تدرّب على قيادة الذكاء الاصطناعي... بدلا من «ركوبه» كمسافر

الأدوات الذكية تدخل المدارس
الأدوات الذكية تدخل المدارس
TT

في التعليم: تدرّب على قيادة الذكاء الاصطناعي... بدلا من «ركوبه» كمسافر

الأدوات الذكية تدخل المدارس
الأدوات الذكية تدخل المدارس

يقول المدرسون إنهم يرغبون في تمكين طلاب المرحلة الثانوية من قيادة الذكاء الاصطناعي، بدلاً من أن يكونوا مجرد مُتلقّين تُسيّرهم برامج الدردشة الآلية.

وفي الجلسة الأولى من دورة جديدة في الذكاء الاصطناعي أقيمت هذا الشهر لطلاب الصف الثاني عشر في «مدرسة واشنطن بارك الثانوية» في نيوآرك، لم يطرح أي شيء عن الذكاء الاصطناعي بل إنها خُصصت للذكاء البشري... بشكلٍ كامل.

كان واجب الطلاب: مُقارنة أوقات تصفّحهم السلبي لمنشورات وسائل التواصل الاجتماعي التي يُديرها الذكاء الاصطناعي، مع أوقات اختيارهم المُباشر للفيديوهات أو نتائج بحث «غوغل» التي يرغبون هم في مُشاهدتها.

«هل تُسيّر التكنولوجيا أم أنها هي التي تُسيّرك؟»

«هل تُسيّر أنت التكنولوجيا أم أنها هي التي تُسيّرك؟» هكذا طُرح السؤال من خلال شريحة عرض (سلايد) على السبورة البيضاء في مدرسة واشنطن بارك الثانوية.

وفي نقاشٍ صفّيٍّ تلا ذلك، قال طالبٌ يُدعى أدريان فاريل، 18 عاماً، إنه سيطر على الذكاء الاصطناعي من خلال طلبه من برنامج دردشة آلي مُراجعة واجباته المنزلية في الرياضيات للتأكّد من دقّتها. بينما قالت الطالبة بريانا بيريز، البالغة من العمر 18 عاماً، إنها دخلت في «وضع الراكب» عند استخدام ميزة «دي جي الذكاء الاصطناعي» في موقع «سبوتيفاي». وأضافت: «إنها تشغل موسيقاي المفضلة، فلا داعي لتغييرها».

«مدرسة واشنطن بارك الثانوية» في نيوآرك

«محو أمية الذكاء الاصطناعي» - مادة تعليمية

تسعى المدارس في جميع أنحاء الولايات المتحدة جاهدةً لإدخال مادة جديدة: معرفة (محو أمية) الذكاء الاصطناعي A.I. literacy. وفيما يسميها بعض التربويين «رخصة قيادة» للذكاء الاصطناعي، تهدف الدروس الجديدة إلى تعليم الطلاب كيفية فحص أحدث الأدوات التقنية واستخدامها بمسؤولية. ويقول المعلمون إنهم يريدون إعداد الشباب للتعامل مع عالم يتشكل بشكل متزايد بفعل الذكاء الاصطناعي، حيث تقوم برامج الدردشة الآلية بتأليف نصوص تبدو كأنها من صنع البشر، فيما يستخدم أصحاب العمل الخوارزميات للمساعدة في تقييم المرشحين للوظائف.

برامج ذكية في المناهج الدراسية

ويركز بعض المدارس على برامج الدردشة الآلية التي تعمل بالذكاء الاصطناعي، حيث تعلم الطلاب كيفية استخدام مساعد غوغل «جيميناي» أو مساعد مايكروسوفت «كوبايلوت». بينما تقوم مدارس أخرى بإدخال الذكاء الاصطناعي في المناهج الدراسية. وبوصفه موضوعاً جديداً في المناهج الدراسية، تتناول الدروس التداعيات المجتمعية مثل انتشار الصور العارية المُولّدة بالذكاء الاصطناعي، وهي الظاهرة المعروفة باسم «التزييف العميق».

تحسين التعليم أم تدميره؟

تزداد دروس الذكاء الاصطناعي شيوعاً في المدارس مع احتدام الجدل حول ما إذا كانت برامج الدردشة الآلية ستُحسّن التعليم أم ستُدمّره. يقول المؤيدون إن على المدارس أن تُعلّم الشباب سريعاً استخدام الذكاء الاصطناعي وأنه ضروري لدعم تعلّمهم، وإعدادهم للوظائف، ومساعدة الولايات المتحدة على منافسة الصين. وفي العام الماضي، أصدر الرئيس ترمب أمراً تنفيذياً يحثّ المدارس على تدريس «أساسيات الذكاء الاصطناعي» بدءاً من رياض الأطفال.

في مقابل ذلك يُحذر باحثون في مجال التعليم من أن برامج الدردشة الآلية قد تُلفّق المعلومات، وتُسهّل الغش، وتُضعف التفكير النقدي. ووجدت دراسة حديثة أجرتها مطبعة جامعة كمبردج و«مايكروسوفت للأبحاث» أن الطلاب الذين دوّنوا ملاحظات على النصوص كانوا أكثر فهماً للقراءة من الطلاب الذين تلقوا مساعدة من برامج الدردشة الآلية.

مؤسسة «برومينغز» أصدرت تقريراً الشهر الماضي حول أخطار الذكاء الاصطناعي

مخاطر الذكاء الاصطناعي أكبر من فوائده

في الوقت الراهن، «تفوق مخاطر استخدام الذكاء الاصطناعي في التعليم فوائده»، هذا ما خلصت إليه مؤسسة بروكينغز Brookings Institution الشهر الماضي في تقرير حول استخدام الذكاء الاصطناعي في المدارس.

موقف وسط

في خضمّ هذا الجدل، تتخذ مدارس مثل مدرسة واشنطن بارك الثانوية موقفاً وسطاً، إذ تتعامل مع الذكاء الاصطناعي كما لو كان سيارة، وتساعد الطلاب على وضع قواعد لاستخدامه.

وشبّه مايك تاوبمان، 45 عاماً، وهو مُدرّس استكشاف المسارات المهنية، الذي شارك في تطوير منهج محو الأمية الجديد في المدرسة، هذه الحصة الدراسية بتحضير المراهقين لاختبار رخصة القيادة.

وتساءل تاوبمان: «إلى أين تريدون الوصول؟ وهل يُمكن للذكاء الاصطناعي مساعدتكم على ذلك؟». وأضاف أن الطلاب بحاجة إلى تعلّم كيفية استخدام أدوات الذكاء الاصطناعي، وتحليل وظائفها، ووضع إرشادات للاستخدام الشخصي، وتصميم سياسات سلامة مثالية.

وتابع: «ما القوانين والقواعد والمعايير التي يجب أن تُطبّق على الذكاء الاصطناعي في مدينتي وبلدي؟».

المدرسان مايك تاوبمان وسكوت كيرن

تجربة مدرسية

يخدم مبنى واشنطن بارك، وهو مبنى من أربعة طوابق بواجهة من الطوب الأحمر في وسط نيوآرك، نحو 900 طالب في المرحلة الثانوية. وهو جزء من شبكة مدارس أنكومون، وهي شبكة مدارس مستقلة في شمال شرقي الولايات المتحدة الأميركية تركز على إعداد الطلاب للجامعة والمسارات المهنية.

وقد ابتكر تاوبمان مع سكوت كيرن، مدرس التاريخ الأميركي، فكرة المقرر الدراسي الاختياري الجديد حول الذكاء الاصطناعي. وكان كلاهما قد أدخل أدوات ومواضيع الذكاء الاصطناعي في مقرراتهما الدراسية.

وشارك كيرن، البالغ من العمر 45 عاماً، أخيراً في برنامج «بلاي لاب Playlab»، وهي منظمة غير ربحية تساعد المعلمين على إنشاء تطبيقات ذكاء اصطناعي مخصصة لمقرراتهم الدراسية. ولمساعدة طلابه على صقل مهاراتهم في الكتابة الجدلية، طوَّر كيرن روبوتات محادثة لصفوف التاريخ الأميركي بناءً على مواد المقرر الدراسي وتقييمات الطلاب. كما وضع إرشادات واضحة للطلاب حول متى يجب استخدام روبوتات الذكاء الاصطناعي ومتى يجب تجنب استخدامها.

مناقشة تاريخية اصطناعية-بشرية

وفي تجربة صفّية درّس السيد كيرن جانباً دراسياً متقدماً في تاريخ الولايات المتحدة حول أحداث شغب شيكاغو العرقية، وهي احتجاجات عنيفة اندلعت إثر مقتل مراهق أسود عام 1919. في البداية، طلب من الطلاب قراءة قصاصات صحافية قديمة ووثائق تاريخية أخرى. ثم أدار نقاشاً صفّياً حول الاتجاهات الأوسع التي أسهمت في تأجيج التوترات.

بعد ذلك، طلب السيد كيرن من الطلاب تخصيص بضع دقائق لوصف السبب الرئيسي للشغب لبرنامج دردشة آلي كان قد أنشأه خصيصاً لهذا الفصل.

وبعد بضع دقائق أخرى، أخبر كيرن الطلاب أن وقتهم مع الروبوت قد انتهى، واستأنف نقاش الصف. وأكد أن التعلم الأساسي للطلاب يجب أن يبقى نشاطاً خالياً من الذكاء الاصطناعي. وقال كيرن: «في أي وقت نرغب فيه أن يتفاعل الطلاب بعضهم مع بعض أو أن يمارسوا التفكير النقدي الأولي، لا أريد أبداً أن يتدخل الذكاء الاصطناعي أو أي نوع من التكنولوجيا المشابهة في ذلك».

وفي قسم آخر من المدرسة، كان تاوبمان يُدرّس دورة استكشاف المسارات المهنية. وقد طوّر مجموعة متنوعة من برامج الدردشة الآلية لمحاكاة المسارات المهنية لطلابه.

«رخصة قيادة» الذكاء الاصطناعي

وأقرّ كيرن وتاوبمان بأن تعبير «رخصة القيادة: الذي استخدموه له حدود. إذ سيعاني الطلاب من صعوبات اتخاذ قرارات مدروسة بشأن مخاطر أنظمة الذكاء الاصطناعي القوية... حتى الحين الذي سيتم فيه تزويد ​​برامج الدردشة الآلية بآليات حماية مُدمجة تُشبه أحزمة الأمان والوسائد الهوائية.

وقال كيرن إنه يأمل أن يتمكن الطلاب يوماً ما من «التأثير في بناء هذه الأدوات بطريقة أفضل وأكثر عدلاً وأكثر مراعاةً للبيئة مما هو موجود الآن».

* خدمة «نيويورك تايمز».


استطلاع أميركي: الغش بالذكاء الاصطناعي «أصبح جزءاً لا يتجزأ من الحياة الطلابية»

استطلاع أميركي: الغش بالذكاء الاصطناعي «أصبح جزءاً لا يتجزأ من الحياة الطلابية»
TT

استطلاع أميركي: الغش بالذكاء الاصطناعي «أصبح جزءاً لا يتجزأ من الحياة الطلابية»

استطلاع أميركي: الغش بالذكاء الاصطناعي «أصبح جزءاً لا يتجزأ من الحياة الطلابية»

أظهرت دراسة جديدة أجراها «مركز بيو للأبحاث» أن أكثر من نصف المراهقين في الولايات المتحدة يستخدمون أدوات الذكاء الاصطناعي للمساعدة في واجباتهم المدرسية.

تضاعف استخدام الذكاء الاصطناعي

وأفاد استطلاع «بيو» في تقرير نُشر أمس الثلاثاء أن 54 في المائة من الطلاب الذين تتراوح أعمارهم بين 13 و17 عاماً قالوا إنهم استخدموا برنامج دردشة آلية مثل «تشات جي بي تي» أو«كوبايلوت» لمهام مثل البحث عن الواجبات المدرسية أو حل مسائل الرياضيات.

وكان 26 في المائة من المراهقين الأميركيين أفادو عام 2024 أنهم استخدموا «تشات جي بي تي» في واجباتهم المدرسية، وذلك وفقاً لدراسة سابقة أجراها «مركز بيو» سألت تحديداً عن استخدامهم لهذا البرنامج. وقد مثل هذا زيادة مضاعفة مقارنةً بعام 2023، حيث أفاد 13 في المائة فقط من الطلاب باستخدامهم برنامج «جي بي تي» للمساعدة في دراستهم، وفقاً لنفس المركز.

تنفيذ الواجبات المدرسية

وخلص التقرير الحديث واستناداً إلى استطلاع شمل 1458 مراهقاً وأولياء أمورهم في خريف العام الماضي، إلى وجود تباين في استخدام الذكاء الاصطناعي بين المراهقين بشكل كبير. فبينما قال 44 في المائة من المراهقين إنهم استخدموا الذكاء الاصطناعي في «بعض» أو «قليل» من واجباتهم المدرسية، قال 10 في المائة إنهم لجأوا إلى برامج الدردشة الآلية للحصول على المساعدة في جميع أو معظم واجباتهم المدرسية.

وقالت كولين ماكلين، الباحثة الرئيسية في مركز بيو والمشاركة في إعداد الدراسة: «نلاحظ بوضوح أن استخدام برامج الدردشة الآلية المدعومة بالذكاء الاصطناعي للمساعدة في الواجبات المدرسية أصبح ممارسة شائعة بين المراهقين».

جدل محتدم

وتأتي هذه النتائج وسط جدل وطني محتدم حول انتشار أنظمة الذكاء الاصطناعي التوليدية، القادرة على إنتاج نصوص تبدو وكأنها من صنع الإنسان، وإنشاء صور واقعية، وتطوير تطبيقات.

يقول المؤيدون إن على المدارس تعليم الطلاب استخدام وتقييم روبوتات الدردشة المدعومة بالذكاء الاصطناعي لإعداد الشباب لمتطلبات سوق العمل المتغيرة. بينما يحذر المنتقدون من أن هذه الروبوتات قد تنشر معلومات مضللة، وتضلل الطلاب، وتقوض التفكير النقدي، وتؤدي إلى إيذاء النفس، وتسهل الغش.

تعويق التفكير النقدي للطلاب

تشير العديد من الدراسات الحديثة إلى أن روبوتات الدردشة قد تعيق التفكير النقدي وتؤثر سلباً على التعلم. ففي إحدى الدراسات التي أجرتها دار نشر جامعة كامبريدج والتقييم بالتعاون مع «مايكروسوفت للأبحاث» حول فهم النص المقروء، أظهر الطلاب الذين طُلب منهم تدوين الملاحظات دون استخدام روبوتات الدردشة فهماً أفضل للنص المقروء مقارنةً بالطلاب الذين طُلب منهم استخدامها لفهم النصوص.

التعلم والترفيه

طرح باحثو مركز بيو للأبحاث أسئلة متنوعة على المراهقين حول آرائهم واستخدامهم للذكاء الاصطناعي. وتُظهر النتائج أن العديد من الشباب يستخدمون روبوتات الدردشة كمنصات متعددة الأغراض للتعلم والترفيه والحصول على النصائح والتواصل الاجتماعي.

وقال 47 في المائة من المراهقين إنهم استخدموا روبوتات الدردشة للتسلية، بينما قال 42 في المائة إنهم استخدموها لتلخيص المحتوى. وقالت نسبة أقل، 12 في المائة، إنهم استخدموها للحصول على النصائح أو الدعم النفسي.

كيفية استخدام الذكاء الاصطناعي

وسلّط ​​التقرير الضوء أيضاً على كيفية استخدام المراهقين لأدوات الذكاء الاصطناعي في دراستهم.

وقال ما يقرب من نصف المراهقين إنهم استخدموا برامج الدردشة الآلية لأغراض البحث، بينما استخدم أكثر من 40 في المائة منهم الذكاء الاصطناعي للمساعدة في حل مسائل الرياضيات. وأفاد أكثر من ثلثهم بأنهم استخدموا هذه البرامج لتحرير كتاباتهم.

الغشّ «بشكل متكرر»

ولم يتطرق الاستطلاع إلى سؤال الطلاب عما إذا كانوا قد استخدموا برامج الدردشة الآلية لكتابة المقالات أو إنشاء واجبات أخرى، وهي أنواع الغش التي حذَّر منها المعلمون في جميع أنحاء الولايات المتحدة. لكن ما يقرب من 60 في المائة من المراهقين أخبروا مركز بيو للأبحاث أن طلاباً في مدارسهم يستخدمون برامج الدردشة الآلية للغش «بشكل متكرر» أو «بشكل متكرر إلى حد ما».

وذكر التقرير أن النتائج تشير إلى أن المراهقين يعتقدون أن «الغش باستخدام الذكاء الاصطناعي أصبح جزءاً لا يتجزأ من الحياة الطلابية».

* خدمة «نيويورك تايمز».


مهارات قيادية… لا يمكن للذكاء الاصطناعي أن يحل محلها

مهارات قيادية… لا يمكن للذكاء الاصطناعي أن يحل محلها
TT

مهارات قيادية… لا يمكن للذكاء الاصطناعي أن يحل محلها

مهارات قيادية… لا يمكن للذكاء الاصطناعي أن يحل محلها

يجلس الرئيس التنفيذي في غرفة اجتماعات، محدقاً في عروض استراتيجية أُعدّت بين عشية وضحاها بواسطة الذكاء الاصطناعي: إنها تقدم التحليل الدقيق، والتوصيات الواثقة، والأرقام المتناسقة... ومع ذلك، ثمة شعورٌ بعدم الارتياح؛ إذ يبدو الأمر مثالياً أكثر من اللازم، كما كتب جيف بيرنغهام (*).

الذكاء الاصطناعي أضحى أقوى أدوات الإدارة

أصبحت هذه اللحظة شائعة بشكل متزايد بين القادة. فالذكاء الاصطناعي اليوم يُعدّ من أقوى أدوات الإدارة على الإطلاق. بإمكانه تحليل الأسواق في ثوانٍ، واكتشاف أنماطٍ يعجز أي فريق بشري عن رصدها، ووضع خططٍ عند الطلب.

وبالنسبة للكثير من المديرين التنفيذيين، بات الذكاء الاصطناعي ضرورياً لا غنى عنه. ولكن مع تزايد انتشاره بوتيرة غير مسبوقة، يبرز سؤالٌ خفيّ داخل المؤسسات: كيف نضمن تركيز الذكاء الاصطناعي على ازدهار الإنسان؟

«الذكاء يتوسع»... والحكمة لا تتوسع

يتفوق الذكاء الاصطناعي في الذكاء. فهو يكتشف الأنماط، ويتنبأ بالنتائج، ويُحسّن الكفاءة. أما ما يفتقر إليه الذكاء الاصطناعي، فهو الحكمة السياقية: القدرة على فهم أهمية القرار (في سياق الأمور)، وكيف سيؤثر عاطفياً وثقافياً، وما الذي يعززه بمرور الوقت.

لم تكن القيادة يوماً تعني امتلاك أكبر قدر من المعلومات، بل لطالما كانت تعني تحديد الأولويات عند تضارب المعلومات.

في بيئة غنية بالذكاء الاصطناعي، حيث يُتداول الذكاء بصفته منتجاً، يواجه القادة إغراءً خفياً لتفويض الحكم إلى جهات خارجية. فعندما تبدو لوحات المعلومات دقيقة والتوصيات موضوعية، قد يجري الخلط بسهولة بين التحسين وبين الحكمة.

لكن الذكاء الاصطناعي لا يستطيع الإجابة عن الأسئلة التي تزداد مسؤولية القادة عنها:

- كيف يؤثر هذا على الأشخاص الأعزاء الذين أعتني بهم؟

- ما القيم التي تحرك هذا القرار؟

- هل يعكس هذا القرار نوع العالم الذي نسعى لبنائه معاً؟

هذه ليست أسئلة حسابية، بل هي أسئلة إنسانية.

الخطر الحقيقي: القيادة المتخلية

يركز جزء كبير من النقاش العام حول مخاطر الذكاء الاصطناعي على التحيز أو سوء الاستخدام. وهذه المخاوف حقيقية. لكن داخل المؤسسات، يبرز خطرٌ خفيّ: إسناد التفكير الذي يؤثر على البشر إلى «الآلة».

عندما يُفرط القادة في الاعتماد على توصيات الذكاء الاصطناعي، فإنهم يفقدون تدريجياً ثقتهم في حكمهم. ويتحول دور القيادة من فهم الأمور إلى مراقبة النظام. ثم تتوقف فِرق العمل عن النقاش، ويتوقف القادة عن تفسير الواقع ويبدأون في التحقق من صحة النتائج.

النتيجة ليست قيادة أفضل، بل قيادة أضعف... إذ ومع مرور الوقت، يظهر هذا في صورة انحراف ثقافي، ونقاط ضعف أخلاقية، وانفصال الموظفين، وفقدان الثقة، خاصةً في أوقات مثل تسريح العمال، أو إعادة الهيكلة، أو التحولات الاستراتيجية الكبرى. عندما يعجز القادة عن شرح أسباب اتخاذ قرار ما بوضوح، يشعر الموظفون بأنهم مُوجَّهون بدلاً من أن يكونوا مُقادين.

القادة الأقوياء

القادة الأقوياء لا يكتفون باتخاذ القرارات، بل يشرحون أهميتها. إنهم يربطون القرارات بمعناها وبالقيم المشتركة. إنهم يساعدون فرق العمل على فهم كيف تتناسب خيارات اليوم مع مسار التحول والتطور البشري الأوسع.

يمكن للذكاء الاصطناعي اقتراح حلول، لكن البشر وحدهم من يستطيعون صياغة المعنى.

لماذا أصبح الوضوح مهارة قيادية أساسية؟

في عالمٍ مُتشبّع بالذكاء الاصطناعي، يُضاعف الوضوح من قوة التأثير... وضوح بشأن الغاية...وضوح بشأن القيم... وضوح بشأن ما لا يجب تحسينه.

أي ببساطة: الوضوح هو تحديد ما ترفض السماح للذكاء الاصطناعي بتحسينه.

سيسعى الذكاء الاصطناعي بكل سرور إلى التحسين من أجل السرعة والكفاءة والتفاعل أو خفض التكاليف. ولن يسأل عما إذا كانت هذه التحسينات تُضعف الثقة أو الإبداع أو المرونة أو التماسك على المدى الطويل. يجب على القادة أن يفعلوا ذلك. لهذا السبب؛ أصبح الوضوح، وليس الكاريزما أو الخبرة التقنية، إحدى أهم القدرات القيادية في العقد المقبل.

رؤية واستبصار

يُتيح الوضوح للقادة:

- وضع حدود لكيفية ومكان استخدام الذكاء الاصطناعي.

- وضع إطار لرؤى الذكاء الاصطناعي ضمن السياق الإنساني.

- تحديد متى يجب أن تُضحّي الكفاءة المطلوبة بالأخلاق.

- حماية الإبداع حيث يُمكن للتحسين أن يُطغى عليه.

ومن دون الوضوح، يُخاطر القادة بأن يصبحوا مُتفاعلين مع الذكاء الاصطناعي بدلاً من أن يكونوا مسؤولين عن النتائج الإنسانية.

كيف يستخدم القادة الفعالون الذكاء الاصطناعي دون الاعتماد عليه؟

الهدف ليس مقاومة الذكاء الاصطناعي، بل توظيفه بالشكل الأمثل في ممارسات القيادة.

وهناك ثلاثة مبادئ تساعد القادة على تحقيق ذلك:

- التعامل مع الذكاء الاصطناعي بصفته مستشاراً، لا سلطة مطلقة.

- استخدام الذكاء الاصطناعي لاستكشاف الخيارات، واختبار الافتراضات، ودراسة السيناريوهات، مع التأكيد على أن القرار النهائي يبقى بيد الإنسان. عملياً، يعني هذا أن يتخذ القادة قراراتهم بكلماتهم الخاصة، لا بالاعتماد على خوارزمية.

- التأني في اللحظات الحاسمة.

عندما تؤثر القرارات على الأفراد، أو الثقافة، أو الهوية (التوظيف، التسريح، تغيير الاستراتيجية، القيم)، توقف. لا تسأل فقط «ماذا تشير إليه البيانات؟»، بل «ماذا يعكس هذا القرار عن هويتنا؟».

الاستثمار في الحكمة... لا مجرد الإلمام بالذكاء الاصطناعي

مهارات الذكاء الاصطناعي مهمة، لكن مهارات الحكمة أهم. فالمنظمات الناجحة يقودها أشخاص مدربون على التفكير الأخلاقي، والمنهجي، والتعبير عن القيم تحت الضغط، لا مجرد تشغيل الأدوات بكفاءة.

المعنى هو ميزة القيادة التي لا يستطيع الذكاء الاصطناعي منافستها.

وفي لحظات عدم اليقين، لا يتطلع الناس إلى القادة للحصول على تنبؤات مثالية، بل يبحثون عن التوجيه.

إنهم يريدون معرفة: ما هو المهم الآن؟ على ماذا يجب أن أركز؟ كيف يرتبط عملي بشيء ذي معنى؟

لا يستطيع الذكاء الاصطناعي توفير هذا التوجيه، بينما تستطيع القيادة ذلك. مع تسارع وتيرة الذكاء الاصطناعي، يصبح المعنى أكثر ندرة وقيمة. القادة الذين يوفرون الوضوح وسط التعقيد، والغاية وسط التسارع لا يبنون ثقافات أفضل فحسب، بل يقودون ابتكاراً أقوى، ومرونة تنظيمية أكبر، وخلق قيمة طويلة الأجل.

كل تحول تكنولوجي يعيد تشكيل القيادة

كل تحول تكنولوجي يُعيد تشكيل القيادة، وهذا التحول الجديد ليس استثناءً.

لكن الحقيقة الأساسية تبقى ثابتة: القيادة لا تتعلق بمعرفة المزيد، بل برؤية أوضح وممارسة الحكمة تحت الضغط.

سيستمر الذكاء الاصطناعي في التطور، وستتوسع قدراته، وستتحسن أدواته. ما يجب أن يتعمق بالتوازي مع ذلك هو قدرة القيادة البشرية على الوضوح، والحكمة، وصنع المعنى؛ لأنّ القادة الأكثر تأثيراً في عالم الذكاء الاصطناعي لن يكونوا أولئك الذين يعتمدون على أذكى الآلات، بل سيكونون أولئك الذين يتذكرون بحكمةٍ معنى الإنسانية أثناء استخدامهم لها.

* مجلة «فاست كومباني»