أدوات الذكاء الاصطناعي ربما تسبب ضرراً أكثر للتعليم

تخفف العبء المدرسي على حساب جودته

أدوات الذكاء الاصطناعي ربما تسبب ضرراً أكثر للتعليم
TT

أدوات الذكاء الاصطناعي ربما تسبب ضرراً أكثر للتعليم

أدوات الذكاء الاصطناعي ربما تسبب ضرراً أكثر للتعليم

فجأة، ظهرت في السوق أدوات ذكاء اصطناعي جديدة للمستهلكين يمكنها أخذ أي جزء من النص أو الصوت أو الفيديو وتوفير ملخصات مبسطة.

في هذه الأيام، كما كتب جيفري آر. يونغ (*) يمكن للطلاب استخدام أدوات مثل «نوتبوك إل إم» NotebookLM من «غوغل» لتحويل ملاحظات محاضراتهم «بودكاست»، حيث تتبادل روبوتات الذكاء الاصطناعي الرائقة المزاح والتعليق على النقاط الرئيسية. وأغلب الأدوات مجانية، وتقوم بعملها في ثوانٍ بنقرة زر.

أدوات ذكية شائعة

من الطبيعي أن كل هذا يسبب القلق بين بعض المدرسين، الذين يرون الطلاب يوجهون العمل الشاق المتمثل في تجميع المعلومات، إلى أداة الذكاء الاصطناعي بسرعة لم تكن ممكنة من قبل.

لكن الصورة العامة أكثر تعقيداً، خصوصاً وأن هذه الأدوات أصبحت أكثر شيوعاً وبدأ استخدامها يصبح معياراً في مجال الأعمال وغيرها من السياقات خارج الفصل الدراسي.

تعمل الأدوات بمثابة شريان حياة خاص للطلاب الذين يمتازون باختلافات في نشاطهم الذهني، الذين أصبح لديهم فجأة إمكانية الوصول إلى الخدمات التي يمكن أن تساعدهم على التنظيم ودعم فهمهم للقراءة، كما يقول خبراء التدريس.

لا توجد إجابة شاملة

تقول أليكسيس بيرس كوديل، المحاضرة في علوم المعلومات بجامعة إنديانا في بلومنغتون، التي قامت أخيراً بمهمة شارك فيها الكثير من الطلاب بخبراتهم ومخاوفهم بشأن أدوات الذكاء الاصطناعي: «لا توجد إجابة شاملة... إذ سيستخدمها الطلاب في علم الأحياء بطريقة ما، وسيستخدمها طلاب الكيمياء بطريقة أخرى. ويستخدمها طلابي جميعاً بطرق مختلفة».

وتؤكد المدرسة أن الأمر ليس بهذه البساطة، ولا يجب أن نفترض أن الطلاب جميعاً غشاشون. وتضيف: «كان بعض الطلاب قلقين بشأن الضغوط التي يتعرضون لها للانخراط في استخدام الأدوات - فإذا كان جميع أقرانهم يفعلون ذلك، فعليهم أن يفعلوا ذلك حتى لو شعروا أنه يعيق تعلمهم الحقيقي». وهم يسألون أنفسهم أسئلة مثل، «هل يساعدني هذا في اجتياز هذه المهمة المحددة أو هذا الاختبار المحدد - لكن هل سيكون هذا على حساب التعلم؟».

وكل هذا يضيف تحديات جديدة إلى المدارس والكليات في محاولتها وضع حدود وسياسات لاستخدام الذكاء الاصطناعي في الفصول الدراسية.

مخاوف من قلة الاستيعاب

يبدو أن شركات التكنولوجيا تعلن كل أسبوع تقريباً - أو حتى كل يوم - عن ميزات جديدة يتبناها الطلاب في دراساتهم.

على سبيل المثال، في الأسبوع الماضي فقط، أصدرت شركة «أبل» ميزات «أبل إنتليجنس» لأجهزة «آيفون»، ويمكن لإحدى الميزات إعادة صياغة أي جزء من النص بنغمات مختلفة، مثل غير الرسمية أو المهنية. وفي الشهر الماضي، أصدرت شركة «أوبن إيه آي»، وهي الشركة المصنعة لـ«تشات جي بي تي» ميزة تسمى «كانفاس» Canvas تتضمن أشرطة تمرير للمستخدمين لتغيير مستوى قراءة النص على الفور.

يقول مارك واتكينز، وهو محاضر في الكتابة والبلاغة في جامعة ميسيسيبي، إنه قلق من أن الطلاب ينجذبون إلى وعود توفير الوقت التي تقدمها هذه الأدوات، وقد لا يدركون أن استخدامها قد يعني التخلي العمل الفعلي اللازم لاستيعاب المادة وتذكرها.

ويضيف: «من وجهة نظر التدريس والتعلم، هذا أمر مقلق للغاية بالنسبة لي؛ لأننا نريد لطلابنا أن يكافحوا قليلاً، وأن يكون لديهم القليل من الاحتكاك، لأن هذا مهم لتعلمهم».

ويقول إن الميزات الجديدة تجعل من الصعب على المعلمين تشجيع الطلاب على استخدام الذكاء الاصطناعي بطرق مفيدة - مثل تعليمهم كيفية صياغة المطالبات لتغيير مستوى كتابة شيء ما.

ذلك أن هذه الأدوات «تزيل ذلك المستوى الأخير من الصعوبة المطلوب التغلب عليها في عملهم - وذلك عندما يمكنهم فقط الضغط على الأزرار والحصول (من الأداة) على مسودة نهائية، والحصول على تعليقات على المسودة النهائية أيضاً».

سياسات جديدة للتعليم بالذكاء الاصطناعي... تقادمت

وحتى الأساتذة والكليات التي تبنت سياسات الذكاء الاصطناعي قد تحتاج إلى إعادة النظر فيها في ضوء هذه الأنواع الجديدة من القدرات. كما قال أستاذان في مقال رأي نُشر مؤخراً بعنوان «سياسة الذكاء الاصطناعي الخاصة بك أصبحت قديمة بالفعل».

ويتساءل مؤلفا المقال، زاك جوستوس، مدير تطوير أعضاء هيئة التدريس في جامعة ولاية كاليفورنيافي تشيكو، ونيك جانوس، أستاذ علم الاجتماع هناك، عن مثل هذه الحالة: «طالب يقرأ مقالاً حمّله س، لكن الطالب لا يستطيع تذكر نقطة رئيسية في المقال؛ لذا يستخدم مساعد الذكاء الاصطناعي لتلخيص أو تذكيره بالمكان الذي قرأ فيه شيئاً ما.

هل استخدم هذا الشخص الذكاء الاصطناعي عندما كان هناك حظر على الاستخدام في الفصل الدراسي؟».

ويشيران إلى أن الأدوات الشائعة مثل «أدوبي أكروبات» Adobe Acrobat تحتوي الآن على ميزات «مساعد الذكاء الاصطناعي» التي يمكنها تلخيص المستندات بضغطة زر.

وبدلاً من صياغة وإعادة صياغة سياسات الذكاء الاصطناعي، يزعم الأستاذان أن المعلمين يجب أن يعملوا على وضع أطر عامة لما هو مقبول من المساعدة من برامج المحادثة الآلية.

لكن مارك واتكينز يدعو صناع أدوات الذكاء الاصطناعي إلى بذل المزيد من الجهود للتخفيف من سوء استخدام أنظمتهم في البيئات الأكاديمية، أو كما قال : «للتأكد من أن هذه الأداة التي يستخدمها الطلاب بشكل بارز، فعالة بالفعل في تعليمهم وليس فقط بصفتها أداةً لتخفيف العبء».

تجارب ميدانية: دقة غير متساوية

تثير أدوات الذكاء الاصطناعي الجديدة هذه مجموعة من التحديات الجديدة تتجاوز تلك التي كانت موجودة سابقاً.

أحد التحديات هو أن أدوات تلخيص الذكاء الاصطناعي لا تقدم دائماً معلومات دقيقة؛ بسبب ظاهرة نماذج اللغة الكبيرة المعروفة باسم «الهلوسة»، عندما تخمن برامج المحادثة الآلية الحقائق، ولكنها تقدمها للمستخدمين بصفتها أشياء مؤكدة.

التسطيح والعمق لدى الذكاء الاصطناعي

على سبيل المثال، عندما جرَّبت بوني ستاشوياك لأول مرة ميزة البث الصوتي على برنامج «نوتبوك إل إم» من «غوغل»، قالت إنها انبهرت بمدى واقعية أصوات الروبوتات ومدى قدرتها على تلخيص المستندات التي تغذيها بها. وستاشوياك هي مضيفة برنامج البث الصوتي الطويل الأمد، Teaching in Higher Ed، وعميدة التدريس والتعلم في جامعة فانغارد بجنوب كاليفورنيا، وهي تجرّب بانتظام أدوات الذكاء الاصطناعي الجديدة في تدريسها.

لكن مع تجربتها للأداة أكثر، وإضافة مستندات حول مواضيع معقدة تعرفها جيداً، لاحظت أخطاء أو سوء فهم عرضياً. وتقول: «إنها تسطح المواضيع فقط - إنها تفتقد معرفة كل هذه الفروق الدقيقة... ويبدو الأمر حميمياً للغاية؛ لأنه صوت والصوت هو وسيلة حميمة للغاية. ولكن بمجرد أن يكون شيئاً تعرف عنه الكثير، فإن الأداة سوف تفشل».

ومع ذلك، تقول إنها وجدت ميزة البث الصوتي في البرنامج مفيدة في مساعدتها على فهم القضايا البيروقراطية والتواصل بشأنها في جامعتها - مثل تحويل جزء من دليل أعضاء هيئة التدريس إلى ملخص للبث الصوتي. وعندما راجعت الأمر مع زملائها الذين يعرفون السياسات جيداً، قالت إنهم شعروا أنه قام «بعمل جيد تماماً». وتقول: «إنه جيد جداً في جعل البيروقراطية ثنائية الأبعاد (غير العميقة) أكثر سهولة في التعامل معها».

إشكالات أخلاقية

وتقول بيرس كوديل، من جامعة إنديانا، إن طلابها أثاروا أيضاً قضايا أخلاقية تتعلق باستخدام أدوات الذكاء الاصطناعي. وتضيف: «يقول البعض إنهم قلقون حقاً بشأن التكاليف البيئية للذكاء الاصطناعي التوليدي واستخدامه»، مشيرة إلى أن «تشات جي بي تي» ونماذج الذكاء الاصطناعي الأخرى تتطلب كميات كبيرة من قوة الحوسبة والكهرباء.

وتضيف أن آخرين قلقون بشأن مقدار البيانات التي ينتهي بها الأمر بالمستخدمين إلى تقديمها لشركات الذكاء الاصطناعي، خصوصاً عندما يستخدم الطلاب إصدارات مجانية من الأدوات.

وتتابع: «نحن لا نجري هذا النوع من المناقشات. نحن لا نجري مناقشات حول ما تعنيه مقاومة استخدام الذكاء الاصطناعي التوليدي بنشاط؟».

ومع ذلك، ترى الدراسة تأثيرات إيجابية على الطلاب، مثل عندما يستخدمون أداة للمساعدة في صنع بطاقات تعليمية للدراسة.

أدوات ممتازة للمصابين بالاضطرابات

وقالت إنها سمعت عن طالب مصاب باضطراب نقص الانتباه وفرط الحركة الذي كان يجد دائماً قراءة نص كبير أمراً «مربكاً»، لكنه كان يستخدم «تشات جي بي تي» «للتغلب على عقبة الانخراط الأولي في القراءة، ثم كان يتحقق من فهمه باستخدام (تشات جي بي تي)».

وتقول إنها سمعت عن أدوات الذكاء الاصطناعي الأخرى التي يستخدمها الطلاب ذوو الإعاقات الذهنية، مثل الأداة التي تساعد المستخدمين على تقسيم المهام الكبيرة إلى مهام فرعية أصغر وأكثر قابلية للإدارة. وتؤكد: «هذا ليس غشاً. إنه تقسيم الأشياء وتقدير المدة التي سيستغرقها شيء ما. هذا ليس شيئاً يأتي بشكل طبيعي لكثير من الناس».

* مجلة «فاست كومباني» - خدمات «تريبيون ميديا»


مقالات ذات صلة

الذكاء الاصطناعي نجح في إنجاز محرك صاروخي متطور في 3 أسابيع

علوم الذكاء الاصطناعي نجح في إنجاز محرك صاروخي متطور في 3 أسابيع

الذكاء الاصطناعي نجح في إنجاز محرك صاروخي متطور في 3 أسابيع

نجح الذكاء الاصطناعي في تصنيع محرك صاروخي متطور بالطباعة التجسيمية.

جيسوس دياز (واشنطن)
تكنولوجيا شمس الدين جبار يصور نفسه في المرآة بنظارات «ميتا» قبل هجوم نيو أورليانز (أ.ف.ب)

منفذ هجوم نيو أورليانز استخدمها... ماذا نعرف عن نظارات «ميتا»؟

استخدم المهاجم الذي قاد شاحنة عبر شارع بوربون في مدينة نيو أورليانز الأميركية في يوم رأس السنة الجديدة نظارات «ميتا» الذكية لاستطلاع المشهد قبل أسابيع.

«الشرق الأوسط» (واشنطن)
تكنولوجيا ثورة تقنيات الذكاء الاصطناعي الجديدة... تأثيرات عميقة مقبلة على حياتنا اليومية

تعرّف على تقنيات الذكاء الاصطناعي المقبلة في عام 2025

عالم رقمي أكثر ذكاء وتفاعلاً.

خلدون غسان سعيد (جدة)
الاقتصاد متداولون يعملون في قاعة بورصة نيويورك (أ.ب)

ارتفاع العقود الآجلة للأسواق الأميركية بقيادة قطاع التكنولوجيا

ارتفعت العقود الآجلة لمؤشرات الأسهم الأميركية يوم الاثنين، مستفيدة من ارتفاع متأخر الأسبوع الماضي، حيث اشترى المستثمرون أسهم التكنولوجيا.

«الشرق الأوسط» (نيويورك)
الاقتصاد نظام نقل الحركة للدراجات الكهربائية ذات العجلتين من إنتاج شركة «فوكسكون» (رويترز)

«فوكسكون» التايوانية تحقق إيرادات قياسية في الربع الرابع بفضل الذكاء الاصطناعي

تفوقت شركة «فوكسكون» التايوانية، أكبر شركة لصناعة الإلكترونيات التعاقدية في العالم، على التوقعات لتحقق أعلى إيراداتها على الإطلاق في الربع الرابع من عام 2024.

«الشرق الأوسط» (تايبيه)

أكبر إخفاقات الذكاء الاصطناعي في عام 2024

أكبر إخفاقات الذكاء الاصطناعي في عام 2024
TT

أكبر إخفاقات الذكاء الاصطناعي في عام 2024

أكبر إخفاقات الذكاء الاصطناعي في عام 2024

من برامج الدردشة الآلية التي تقدّم نصائح غير قانونية إلى نتائج البحث المشبوهة التي أُنشئت بواسطة الذكاء الاصطناعي، إليكم نظرة إلى الوراء على أكبر إخفاقات الذكاء الاصطناعي في العام، كما كتبت ريانون ويليامز في مجلة «تكنولوجي ريفيو» الصادرة عن معهد «ماساتشوستس للتكنولوجيا».

اختبارات... بنتائج جديدة وغريبة وضارة

لا شك أن الأشهر الـ12 الماضية كانت مزدحمة لأولئك الذين يعملون في مجال الذكاء الاصطناعي. فقد شهدنا إطلاق منتجات أكثر نجاحاً مما يمكننا إحصاؤه، وحتى جوائز نوبل. لكن لم يكن الأمر دائماً سلساً.

الذكاء الاصطناعي هو تقنية غير متوقعة، وقد أدّى توافر النماذج التوليدية المتزايد إلى دفع الناس إلى اختبار حدودهم بطرق جديدة وغريبة وأحياناً ضارة. كانت هذه بعضاً من أكبر إخفاقات الذكاء الاصطناعي في عام 2024.

فوضى الذكاء الاصطناعي تسلّلت إلى الإنترنت

تسلّلت أخطاء الذكاء الاصطناعي إلى كل ركن تقريباً من الإنترنت. يجعل الذكاء الاصطناعي التوليدي إنشاء كميات هائلة من النصوص والصور ومقاطع الفيديو وأنواع أخرى من المواد أمراً سهلاً. ولأن الأمر لا يستغرق سوى بضع ثوانٍ بين إدخال مطالبة لنموذجك المفضل لإخراج النتيجة، فقد أصبحت هذه النماذج طريقة سريعة وسهلة لإنتاج المحتوى على نطاق واسع. وكان 2024 هو العام الذي بدأنا فيه وصف هذه الوسائط (رديئة الجودة عموماً) بما هي عليه؛ بـ«فوضى الذكاء الاصطناعي».

إن هذه الطريقة المنخفضة المخاطر لإنشاء فوضى الذكاء الاصطناعي تعني أنه يمكن العثور عليها الآن في كل ركن من أركان الإنترنت تقريباً؛ من النشرات الإخبارية في صندوق الوارد الخاص بك، والكتب المبيعة على «أمازون»، إلى الإعلانات والمقالات عبر الويب، والصور الرديئة على موجزات وسائل التواصل الاجتماعي الخاصة بك. وكلما كانت هذه الصور أكثر إثارة للمشاعر (قدامى المحاربين الجرحى، والأطفال الباكون، وإشارة الدعم في الصراع الإسرائيلي الفلسطيني) زادت احتمالية مشاركتها؛ مما يؤدي إلى زيادة المشاركة وإيرادات الإعلانات لمنشئيها الأذكياء.

قمامات رقمية يُعيد إنتاجها الذكاء الاصطناعي

فوضى الذكاء الاصطناعي ليست مزعجة فحسب، بل إن صعودها يشكّل مشكلة حقيقية لمستقبل النماذج ذاتها التي ساعدت في إنتاجها. ولأن هذه النماذج مدرّبة على بيانات جُمعت من الإنترنت، فإن العدد المتزايد من المواقع الإلكترونية غير المرغوب فيها التي تحتوي على قمامة الذكاء الاصطناعي يعني أن هناك خطراً حقيقياً للغاية، يتمثّل في أن إنتاج النماذج وأداءها سوف يزداد سوءاً بشكل مطرد.

فن الذكاء الاصطناعي يشوّه الأحداث الحقيقية

كان عام 2024 أيضاً هو العام الذي بدأت فيه تأثيرات صور الذكاء الاصطناعي السريالية تتسرّب إلى حياتنا الحقيقية. تصدّرت تجربة ويلي للشوكولاته -وهي حدث غامر غير رسمي مستوحى من رواية «تشارلي ومصنع الشوكولاته» لروالد دال- عناوين الأخبار في جميع أنحاء العالم في فبراير (شباط)، بعد أن أعطت مواد التسويق الرائعة التي أُنشئت بواسطة الذكاء الاصطناعي للزوار الانطباع بأنها ستكون أعظم بكثير من المستودع المزخرف بشكل بسيط الذي أنشأه منتجوها.

وبالمثل، اصطفّ مئات الأشخاص في شوارع دبلن لحضور عرض «هالوين» لم يكن موجوداً. إذ استخدم موقع ويب، مقره باكستان، الذكاء الاصطناعي لإنشاء قائمة بالأحداث في المدينة، التي تمّت مشاركتها على نطاق واسع عبر وسائل التواصل الاجتماعي قبل 31 أكتوبر (تشرين الأول)، وهو عيد «الهالوين». وكلا الحدثين يوضح كيف يمكن للثقة العامة بالمواد التي أُنشئت بواسطة الذكاء الاصطناعي عبر الإنترنت، أن تعود إلى مطاردتنا.

إنشاء صور مزيفة لأي وضع أو سيناريو

تحتوي الغالبية العظمى من مولدات الصور الرئيسة للذكاء الاصطناعي على حواجز -قواعد تملي ما يمكن لنماذج الذكاء الاصطناعي فعله وما لا يمكنها فعله- لمنع المستخدمين من إنشاء محتوى عنيف وصريح وغير قانوني وأنواع أخرى من المحتوى الضار.

في بعض الأحيان، تهدف هذه الحواجز فقط إلى التأكد من عدم قيام أي شخص باستغلال الملكية الفكرية للآخرين بشكل صارخ. لكن مساعد «غروك» Grok، الذي صنعته شركة الذكاء الاصطناعي التابعة لإيلون ماسك، التي تسمى «xAI»، يتجاهل كل هذه المبادئ تقريباً بما يتماشى مع رفض ماسك ما يسميه «الذكاء الاصطناعي المتيقظ».

بينما نماذج الصور الأخرى ترفض عموماً إنشاء صور للمشاهير، أو المواد المحمية بحقوق الطبع والنشر، أو العنف، أو الإرهاب -ما لم يتم خداعها لتجاهل هذه القواعد- فإن «Grok» سيولّد بسعادة صوراً لدونالد ترمب وهو يطلق بازوكا، أو ميكي ماوس يحمل قنبلة.

انتشرت صور مزيفة جنسية صريحة لتايلور سويفت على الإنترنت، وعلى وسائل التواصل الاجتماعي. وقد خدع أفراد مسجلون في «تلغرام» برنامج إنشاء الصور «AI Designer» من «مايكروسوفت» لإنشاء صور فاضحة؛ مما يوضح كيف يمكن التحايل على الحواجز الأمنية حتى عندما تكون موجودة.

وبينما أغلقت «مايكروسوفت» بسرعة ثغرات النظام، ألقى الحادث الضوء على سياسات تعديل المحتوى السيئة للمنصات، بعد تداول المنشورات التي تحتوي على الصور على نطاق واسع وظلّت حية لعدة أيام.

لكن النتيجة الأكثر إثارة للرعب هي مدى عجزنا عن محاربة المواد الإباحية المزيفة غير الموافقة. في حين أن أدوات وضع العلامات المائية وتسميم البيانات يمكن أن تساعد، إلا أنها ستحتاج إلى تبنيها على نطاق أوسع بكثير لإحداث فرق.

برامج الدردشة التجارية أصبحت مجنونة

مع انتشار الذكاء الاصطناعي على نطاق واسع، تتسابق الشركات لتبني أدوات توليدية لتوفير الوقت والمال، وتعظيم الكفاءة. والمشكلة هي أن برامج الدردشة الآلية تخترع أشياء، ولا يمكن الاعتماد عليها لتزويدك دائماً بمعلومات دقيقة.

اكتشفت الخطوط الجوية الكندية هذا الأمر بالطريقة الصعبة، بعد أن نصح برنامج الدردشة الآلية الخاص بها أحد العملاء باتباع سياسة استرداد الأموال في حالات الحزن التي لم تكن موجودة. وفي فبراير الماضي، أيّدت محكمة المطالبات الصغيرة الكندية الشكوى القانونية للعميل، رغم تأكيد شركة الطيران أن برنامج الدردشة الآلية كان «كياناً قانونياً منفصلاً مسؤولاً عن أفعاله الخاصة».

وفي أمثلة أخرى بارزة لكيفية تسبّب برامج الدردشة الآلية في ضرر أكثر من نفعه، أقسم برنامج شركة التوصيل «DPD» بمرح ووصف نفسه بأنه عديم الفائدة دون أي مطالبة، في حين انتهى الأمر ببرنامج آخر تم إنشاؤه لتزويد سكان نيويورك بمعلومات دقيقة حول حكومة مدينتهم إلى تقديم إرشادات حول كيفية انتهاك القانون.

أدوات ذكاء اصطناعي فاشلة

إن أهم شيء حاولت صناعة الذكاء الاصطناعي اختراقه في عام 2024 هو اختراق ميدان المساعدين الماديين، إلا أنها فشلت في ذلك. حاولت «Humane» الترويج لـ«Ai Pin»، وهو كومبيوتر ياقة يمكن ارتداؤه، ولكنه فشل في تعزيز المبيعات الضعيفة حتى بعد خفض سعره. كما عانى «Rabbit R1» -وهو جهاز مساعد شخصي قائم على «جي بي تي»- مصيراً مماثلاً، بعد سلسلة من المراجعات النقدية والتقارير التي تفيد بأنه بطيء ومليء بالأخطاء. يبدو أن كلا المنتجَيْن يحاول حل مشكلة لم تكن موجودة بالفعل.

ملخصات بحث خاطئة بالذكاء الاصطناعي

هل سبق لك أن أضفت غراء إلى بيتزا، أو أكلت صخرة صغيرة؟ هذه ليست سوى بعض الاقتراحات الغريبة التي قدمتها ميزة «AI Overviews» من «غوغل» لمستخدمي الويب في مايو (أيار)، بعد أن أضافت شركة البحث العملاقة استجابات مولدة إلى أعلى نتائج البحث. نظراً إلى أن أنظمة الذكاء الاصطناعي لا يمكنها معرفة الفرق بين قصة إخبارية صحيحة فعلياً ومنشور لنكتة على «Reddit»، فقد تسابق المستخدمون للعثور على أغرب الاستجابات التي يمكن أن تولّدها ميزة «غوغل» تلك.

لكن ملخصات الذكاء الاصطناعي يمكن أن تكون لها أيضاً عواقب وخيمة. لقد أدت ميزة جديدة في «آيفون» تجمع إشعارات التطبيقات معاً وتُنشئ ملخصات لمحتوياتها، أخيراً إلى ظهور عنوان إخباري زائف على قناة «بي بي سي نيوز».

وذكر الملخص كذباً أن لويجي مانجيوني، الذي اتُّهم بقتل الرئيس التنفيذي لشركة التأمين الصحي برايان تومسون، قد أطلق النار على نفسه. يمكن أن تؤدي مثل هذه الأخطاء عن غير قصد إلى نشر معلومات مضللة وتقويض الثقة في المؤسسات الإخبارية.