أدوات الذكاء الاصطناعي ربما تسبب ضرراً أكثر للتعليم

تخفف العبء المدرسي على حساب جودته

أدوات الذكاء الاصطناعي ربما تسبب ضرراً أكثر للتعليم
TT

أدوات الذكاء الاصطناعي ربما تسبب ضرراً أكثر للتعليم

أدوات الذكاء الاصطناعي ربما تسبب ضرراً أكثر للتعليم

فجأة، ظهرت في السوق أدوات ذكاء اصطناعي جديدة للمستهلكين يمكنها أخذ أي جزء من النص أو الصوت أو الفيديو وتوفير ملخصات مبسطة.

في هذه الأيام، كما كتب جيفري آر. يونغ (*) يمكن للطلاب استخدام أدوات مثل «نوتبوك إل إم» NotebookLM من «غوغل» لتحويل ملاحظات محاضراتهم «بودكاست»، حيث تتبادل روبوتات الذكاء الاصطناعي الرائقة المزاح والتعليق على النقاط الرئيسية. وأغلب الأدوات مجانية، وتقوم بعملها في ثوانٍ بنقرة زر.

أدوات ذكية شائعة

من الطبيعي أن كل هذا يسبب القلق بين بعض المدرسين، الذين يرون الطلاب يوجهون العمل الشاق المتمثل في تجميع المعلومات، إلى أداة الذكاء الاصطناعي بسرعة لم تكن ممكنة من قبل.

لكن الصورة العامة أكثر تعقيداً، خصوصاً وأن هذه الأدوات أصبحت أكثر شيوعاً وبدأ استخدامها يصبح معياراً في مجال الأعمال وغيرها من السياقات خارج الفصل الدراسي.

تعمل الأدوات بمثابة شريان حياة خاص للطلاب الذين يمتازون باختلافات في نشاطهم الذهني، الذين أصبح لديهم فجأة إمكانية الوصول إلى الخدمات التي يمكن أن تساعدهم على التنظيم ودعم فهمهم للقراءة، كما يقول خبراء التدريس.

لا توجد إجابة شاملة

تقول أليكسيس بيرس كوديل، المحاضرة في علوم المعلومات بجامعة إنديانا في بلومنغتون، التي قامت أخيراً بمهمة شارك فيها الكثير من الطلاب بخبراتهم ومخاوفهم بشأن أدوات الذكاء الاصطناعي: «لا توجد إجابة شاملة... إذ سيستخدمها الطلاب في علم الأحياء بطريقة ما، وسيستخدمها طلاب الكيمياء بطريقة أخرى. ويستخدمها طلابي جميعاً بطرق مختلفة».

وتؤكد المدرسة أن الأمر ليس بهذه البساطة، ولا يجب أن نفترض أن الطلاب جميعاً غشاشون. وتضيف: «كان بعض الطلاب قلقين بشأن الضغوط التي يتعرضون لها للانخراط في استخدام الأدوات - فإذا كان جميع أقرانهم يفعلون ذلك، فعليهم أن يفعلوا ذلك حتى لو شعروا أنه يعيق تعلمهم الحقيقي». وهم يسألون أنفسهم أسئلة مثل، «هل يساعدني هذا في اجتياز هذه المهمة المحددة أو هذا الاختبار المحدد - لكن هل سيكون هذا على حساب التعلم؟».

وكل هذا يضيف تحديات جديدة إلى المدارس والكليات في محاولتها وضع حدود وسياسات لاستخدام الذكاء الاصطناعي في الفصول الدراسية.

مخاوف من قلة الاستيعاب

يبدو أن شركات التكنولوجيا تعلن كل أسبوع تقريباً - أو حتى كل يوم - عن ميزات جديدة يتبناها الطلاب في دراساتهم.

على سبيل المثال، في الأسبوع الماضي فقط، أصدرت شركة «أبل» ميزات «أبل إنتليجنس» لأجهزة «آيفون»، ويمكن لإحدى الميزات إعادة صياغة أي جزء من النص بنغمات مختلفة، مثل غير الرسمية أو المهنية. وفي الشهر الماضي، أصدرت شركة «أوبن إيه آي»، وهي الشركة المصنعة لـ«تشات جي بي تي» ميزة تسمى «كانفاس» Canvas تتضمن أشرطة تمرير للمستخدمين لتغيير مستوى قراءة النص على الفور.

يقول مارك واتكينز، وهو محاضر في الكتابة والبلاغة في جامعة ميسيسيبي، إنه قلق من أن الطلاب ينجذبون إلى وعود توفير الوقت التي تقدمها هذه الأدوات، وقد لا يدركون أن استخدامها قد يعني التخلي العمل الفعلي اللازم لاستيعاب المادة وتذكرها.

ويضيف: «من وجهة نظر التدريس والتعلم، هذا أمر مقلق للغاية بالنسبة لي؛ لأننا نريد لطلابنا أن يكافحوا قليلاً، وأن يكون لديهم القليل من الاحتكاك، لأن هذا مهم لتعلمهم».

ويقول إن الميزات الجديدة تجعل من الصعب على المعلمين تشجيع الطلاب على استخدام الذكاء الاصطناعي بطرق مفيدة - مثل تعليمهم كيفية صياغة المطالبات لتغيير مستوى كتابة شيء ما.

ذلك أن هذه الأدوات «تزيل ذلك المستوى الأخير من الصعوبة المطلوب التغلب عليها في عملهم - وذلك عندما يمكنهم فقط الضغط على الأزرار والحصول (من الأداة) على مسودة نهائية، والحصول على تعليقات على المسودة النهائية أيضاً».

سياسات جديدة للتعليم بالذكاء الاصطناعي... تقادمت

وحتى الأساتذة والكليات التي تبنت سياسات الذكاء الاصطناعي قد تحتاج إلى إعادة النظر فيها في ضوء هذه الأنواع الجديدة من القدرات. كما قال أستاذان في مقال رأي نُشر مؤخراً بعنوان «سياسة الذكاء الاصطناعي الخاصة بك أصبحت قديمة بالفعل».

ويتساءل مؤلفا المقال، زاك جوستوس، مدير تطوير أعضاء هيئة التدريس في جامعة ولاية كاليفورنيافي تشيكو، ونيك جانوس، أستاذ علم الاجتماع هناك، عن مثل هذه الحالة: «طالب يقرأ مقالاً حمّله س، لكن الطالب لا يستطيع تذكر نقطة رئيسية في المقال؛ لذا يستخدم مساعد الذكاء الاصطناعي لتلخيص أو تذكيره بالمكان الذي قرأ فيه شيئاً ما.

هل استخدم هذا الشخص الذكاء الاصطناعي عندما كان هناك حظر على الاستخدام في الفصل الدراسي؟».

ويشيران إلى أن الأدوات الشائعة مثل «أدوبي أكروبات» Adobe Acrobat تحتوي الآن على ميزات «مساعد الذكاء الاصطناعي» التي يمكنها تلخيص المستندات بضغطة زر.

وبدلاً من صياغة وإعادة صياغة سياسات الذكاء الاصطناعي، يزعم الأستاذان أن المعلمين يجب أن يعملوا على وضع أطر عامة لما هو مقبول من المساعدة من برامج المحادثة الآلية.

لكن مارك واتكينز يدعو صناع أدوات الذكاء الاصطناعي إلى بذل المزيد من الجهود للتخفيف من سوء استخدام أنظمتهم في البيئات الأكاديمية، أو كما قال : «للتأكد من أن هذه الأداة التي يستخدمها الطلاب بشكل بارز، فعالة بالفعل في تعليمهم وليس فقط بصفتها أداةً لتخفيف العبء».

تجارب ميدانية: دقة غير متساوية

تثير أدوات الذكاء الاصطناعي الجديدة هذه مجموعة من التحديات الجديدة تتجاوز تلك التي كانت موجودة سابقاً.

أحد التحديات هو أن أدوات تلخيص الذكاء الاصطناعي لا تقدم دائماً معلومات دقيقة؛ بسبب ظاهرة نماذج اللغة الكبيرة المعروفة باسم «الهلوسة»، عندما تخمن برامج المحادثة الآلية الحقائق، ولكنها تقدمها للمستخدمين بصفتها أشياء مؤكدة.

التسطيح والعمق لدى الذكاء الاصطناعي

على سبيل المثال، عندما جرَّبت بوني ستاشوياك لأول مرة ميزة البث الصوتي على برنامج «نوتبوك إل إم» من «غوغل»، قالت إنها انبهرت بمدى واقعية أصوات الروبوتات ومدى قدرتها على تلخيص المستندات التي تغذيها بها. وستاشوياك هي مضيفة برنامج البث الصوتي الطويل الأمد، Teaching in Higher Ed، وعميدة التدريس والتعلم في جامعة فانغارد بجنوب كاليفورنيا، وهي تجرّب بانتظام أدوات الذكاء الاصطناعي الجديدة في تدريسها.

لكن مع تجربتها للأداة أكثر، وإضافة مستندات حول مواضيع معقدة تعرفها جيداً، لاحظت أخطاء أو سوء فهم عرضياً. وتقول: «إنها تسطح المواضيع فقط - إنها تفتقد معرفة كل هذه الفروق الدقيقة... ويبدو الأمر حميمياً للغاية؛ لأنه صوت والصوت هو وسيلة حميمة للغاية. ولكن بمجرد أن يكون شيئاً تعرف عنه الكثير، فإن الأداة سوف تفشل».

ومع ذلك، تقول إنها وجدت ميزة البث الصوتي في البرنامج مفيدة في مساعدتها على فهم القضايا البيروقراطية والتواصل بشأنها في جامعتها - مثل تحويل جزء من دليل أعضاء هيئة التدريس إلى ملخص للبث الصوتي. وعندما راجعت الأمر مع زملائها الذين يعرفون السياسات جيداً، قالت إنهم شعروا أنه قام «بعمل جيد تماماً». وتقول: «إنه جيد جداً في جعل البيروقراطية ثنائية الأبعاد (غير العميقة) أكثر سهولة في التعامل معها».

إشكالات أخلاقية

وتقول بيرس كوديل، من جامعة إنديانا، إن طلابها أثاروا أيضاً قضايا أخلاقية تتعلق باستخدام أدوات الذكاء الاصطناعي. وتضيف: «يقول البعض إنهم قلقون حقاً بشأن التكاليف البيئية للذكاء الاصطناعي التوليدي واستخدامه»، مشيرة إلى أن «تشات جي بي تي» ونماذج الذكاء الاصطناعي الأخرى تتطلب كميات كبيرة من قوة الحوسبة والكهرباء.

وتضيف أن آخرين قلقون بشأن مقدار البيانات التي ينتهي بها الأمر بالمستخدمين إلى تقديمها لشركات الذكاء الاصطناعي، خصوصاً عندما يستخدم الطلاب إصدارات مجانية من الأدوات.

وتتابع: «نحن لا نجري هذا النوع من المناقشات. نحن لا نجري مناقشات حول ما تعنيه مقاومة استخدام الذكاء الاصطناعي التوليدي بنشاط؟».

ومع ذلك، ترى الدراسة تأثيرات إيجابية على الطلاب، مثل عندما يستخدمون أداة للمساعدة في صنع بطاقات تعليمية للدراسة.

أدوات ممتازة للمصابين بالاضطرابات

وقالت إنها سمعت عن طالب مصاب باضطراب نقص الانتباه وفرط الحركة الذي كان يجد دائماً قراءة نص كبير أمراً «مربكاً»، لكنه كان يستخدم «تشات جي بي تي» «للتغلب على عقبة الانخراط الأولي في القراءة، ثم كان يتحقق من فهمه باستخدام (تشات جي بي تي)».

وتقول إنها سمعت عن أدوات الذكاء الاصطناعي الأخرى التي يستخدمها الطلاب ذوو الإعاقات الذهنية، مثل الأداة التي تساعد المستخدمين على تقسيم المهام الكبيرة إلى مهام فرعية أصغر وأكثر قابلية للإدارة. وتؤكد: «هذا ليس غشاً. إنه تقسيم الأشياء وتقدير المدة التي سيستغرقها شيء ما. هذا ليس شيئاً يأتي بشكل طبيعي لكثير من الناس».

* مجلة «فاست كومباني» - خدمات «تريبيون ميديا»


مقالات ذات صلة

تعرف على أبرز أدوات الذكاء الاصطناعي لمختلف الاستخدامات

تكنولوجيا أداة «رانواي إم إل» لتوليد الفيديوهات المتقدمة بالذكاء الاصطناعي

تعرف على أبرز أدوات الذكاء الاصطناعي لمختلف الاستخدامات

تكمن جاذبيتها الأساسية في تقديم حل واحد لتلبية احتياجات الذكاء الاصطناعي المتنوعة

خلدون غسان سعيد (جدة)
تكنولوجيا شعار شركة «أوبن إيه آي» معروض على جوال مع صورة بشاشة حاسوب مُولّدة بالذكاء الاصطناعي (أ.ب)

​الصوت عنصر أساسي في مشهد الذكاء الاصطناعي المستقبلي

تتعاون شركة «أوبن إيه آي» مع المصمم التاريخي لمجموعة «أبل» جوني آيف منذ مدة طويلة على جهاز جديد يهدف إلى تسهيل استخدام الذكاء الاصطناعي التوليدي بالحياة اليومية

«الشرق الأوسط» (نيويورك)
يوميات الشرق داخل إحدى شاحنات أورورا ذاتية القيادة (أورورا)

«الأمم المتحدة» تحذّر: السيارات ذاتية القيادة قد تتحول إلى «روبوتات قتل»

حذّر تقرير أممي حديث من تنامي خطر استغلال الجماعات الإرهابية للتكنولوجيا المتقدمة، وعلى رأسها الذكاء الاصطناعي والمركبات ذاتية القيادة.

«الشرق الأوسط» (واشنطن)
الاقتصاد شعار «أوبن إيه آي»... (رويترز)

تقرير: «أوبن إيه آي» تجري مناقشات لجمع تمويل من السعودية ومستثمرين هنود

أفادت صحيفة «ذا إنفورميشن» بأن «أوبن إيه آي» تجري مناقشات لجمع تمويل من السعودية ومستثمرين هنود بقيمة 40 مليار دولار.

«الشرق الأوسط» (لندن)
علوم 3 طرقٍ يُحدث بها الذكاء الاصطناعي ثورةً في الطب

3 طرقٍ يُحدث بها الذكاء الاصطناعي ثورةً في الطب

دقة ملحوظة في تشخيص الأمراض من الصور الطبية ونتائج الاختبارات

«الشرق الأوسط» (واشنطن)

5 حقائق سوداء في فقاعة الضجة الكبرى للذكاء الاصطناعي

5 حقائق سوداء في فقاعة الضجة الكبرى للذكاء الاصطناعي
TT

5 حقائق سوداء في فقاعة الضجة الكبرى للذكاء الاصطناعي

5 حقائق سوداء في فقاعة الضجة الكبرى للذكاء الاصطناعي

يشكل كتاب «خدعة الذكاء الاصطناعي The AI Con» محاولة لاستكشاف الضجة المثارة حول تقنيات الذكاء الاصطناعي، والمصالح التي تخدمها، والأضرار التي تقع تحت هذه المظلة. ومع كل ذلك، تبقى هناك خيارات متاحة أمام المجتمع لمقاومة هذه الضجة، وما زال هناك أمل في أن نتحد معاً لمواجهة تغوّل شركات التكنولوجيا، ومنعها من رهن مستقبل البشرية.

«خدعة الذكاء الاصطناعي»

وفيما يلي تتشارك المؤلفتان إميلي بيندر (أستاذة في علم اللغة، مديرة برنامج الماجستير في اللغويات الحاسوبية بجامعة واشنطن)، وأليكس هنا (مديرة الأبحاث في معهد البحوث الموزعة للذكاء الاصطناعي، ومحاضرة في كلية المعلومات بجامعة كاليفورنيا في بيركلي) مع القراء بخمسة أفكار رئيسية من كتابهما الجديد «خدعة الذكاء الاصطناعي: كيف نحارب تضليل شركات التكنولوجيا الكبرى ونصنع المستقبل الذي نريده؟ ?The AI Con: How to Fight Big Tech’s Hype and Create the Future We Want».

01-> التكنولوجيا التي تحرِّك موجة الضجة الحالية حول الذكاء الاصطناعي ما هي إلا خدعة استعراضية: تبدو روبوتات الدردشة مثل «تشات جي بي تي»، تكنولوجيا مذهلة، لكن ليس بالضرورة بالطريقة التي نتصورها.

في الواقع، لا تستطيع هذه الأنظمة الاضطلاع بمجموعة الوظائف التي تزعم أنها قادرة عليها، وإنما جرى تصميمها لتبهرنا. ويكمن جوهر الخدعة في الطريقة التي يستخدم بها البشر اللغة. قد نعتقد أن فهم الكلمات مجرد فك رموز بسيطة، لكن الحقيقة أن العملية أشد تعقيداً بكثير، وتحمل في جوهرها طابعاً اجتماعياً عميقاً.

نحن نفسر اللغة عبر الاعتماد على كل ما نعرفه (أو نفترضه) عن الشخص الذي نطق الكلمات، وعلى الأرضية المشتركة بيننا وبينه، ثم نبدأ في استخلاص نيّات المتكلم. ونتولى إنجاز هذا الأمر على نحو تلقائي. لذا، عندما نصادف نصاً أنتجته أنظمة ذكية، فإننا نتعامل معه كما لو أن هناك عقلاً بشرياً خلَّفه، رغم عدم وجود عقل هناك أصلاً.

بمعنى آخر، فإن المهارات اللغوية والاجتماعية التي نُسقطها على النص المُنتَج من الذكاء الاصطناعي، تجعل من السهل على مروِّجي هذه التقنيات خداعنا لنعتقد أن برامج الدردشة كيانات عاقلة.

02- > الذكاء الاصطناعي لن يستحوذ على وظيفتك، لكنه سيجعلها أسوأ بكثير: في الغالب، تسعى تقنيات الذكاء الاصطناعي إلى إخراج الإنسان من معادلة العمل.

وهنا يبرز إضراب نقابة «كتّاب أميركا» عام 2023 مثالاً على ذلك، مع إعلان كتّاب السيناريو في هوليوود الإضراب عن العمل للمطالبة بعدة أمور، منها رفع أجورهم من شركات البث. إلا أن خلف هذه المطالب، كان هناك كذلك قلق عميق إزاء الاستعانة بالذكاء الاصطناعي في كتابة السيناريوهات، مما يهدد جودة العمل، ويجعل بيئة العمل أكثر ضغطاً وأقل احتراماً للمهارات البشرية.

كما أراد الكتّاب التأكد من أنهم لن يُجبروا على لعب دور مربّي الأطفال لأنظمة الدردشة الإلكترونية، التي يُكلفها المنتجون بكتابة سيناريوهات مبنية على أفكار ساذجة أو غير ناضجة مستوحاة من صناع السينما والتلفزيون.

في هذا الصدد، أشار جون لوبيز، عضو فريق العمل المعنيّ بالذكاء الاصطناعي داخل «نقابة الكتّاب»، إلى إمكانية حصول الكتّاب على أجر التعديلات فقط، عند تعاملهم مع محتوى ناتج عن الذكاء الاصطناعي، وهو أجر أقل بكثير من أجر كتابة سيناريو أصلي.

لقد رأينا بالفعل كيف أدّت أدوات توليد الصور والنصوص، إلى تقليص كبير في فرص العمل أمام مصممي الغرافيك، وفناني ألعاب الفيديو، والصحافيين. ولا يرجع ذلك إلى قدرة هذه الأدوات فعلاً على أداء مهام هؤلاء المحترفين بجودة عالية، بل لأنها تُنتج نتائج مقبولة بدرجة كافية لتقليص المهن، وإعادة توظيف العاملين مقابل أجور زهيدة، فقط ليقوموا بإصلاح مخرجات الذكاء الاصطناعي الرديئة.

وفوق ذلك، كثيراً ما تكون الأنظمة التي تُوصف بأنها «ذكاء اصطناعي» مجرد واجهات براقة تُخفي وراءها الاستراتيجية القديمة التي تعتمدها الشركات الكبرى، والمتمثلة في نقل وتحويل العمل إلى الأيدي العاملة في دول الجنوب العالمي.

وهؤلاء العمال -الذين غالباً ما يجري تجاهلهم- هم من يتولون مراجعة المحتوى عبر الإنترنت، واختبار أنظمة الدردشة للكشف عن المخرجات السامة، بل يقودون أحياناً المركبات التي يجري التسويق لها بوصفها ذاتية القيادة، عن بُعد.

ومع ذلك، يبقى هناك جانب مشرق يتمثل في نجاح بعض هؤلاء العمال من مقاومة هذا الاستغلال، سواء من خلال النشاط النقابي، أو من خلال ما يشبه التخريب الصناعي، مثل أدوات «نايتشيد» و«غليز» التي يستخدمها الفنانون لحماية أعمالهم من أن يجري استغلالها في تدريب نماذج توليد الصور، أو عبر التوعية السياسية.

إبعاد الناس عن تقديم الخدمات الاجتماعية

03- > الهدف من خدعة الذكاء الاصطناعي هو فصل الناس عن الخدمات الاجتماعية: نظراً لأننا نستخدم اللغة في كل مجالات النشاط البشري تقريباً، ولأن النص الاصطناعي الناتج عن هذه الأنظمة يمكن تدريبه على محاكاة اللغة، قد يبدو الأمر كأننا على وشك الحصول على تكنولوجيا قادرة على الاضطلاع بالتشخيص الطبي، وتقديم دروس تعليمية شخصية، واتخاذ قرارات حكيمة في توزيع الخدمات الحكومية، وتقديم استشارات قانونية، وغير ذلك -وكل ذلك مقابل تكلفة الكهرباء فقط (إضافة إلى ما تقرره الشركات المطورة من رسوم)... إلا أنه في كل هذه الحالات، ما يهم ليس مجرد الكلمات، بل التفكير الحقيقي وراءها، والعلاقات الإنسانية التي تساعدنا هذه الكلمات على بنائها والحفاظ عليها.

في الواقع، فإن أنظمة الذكاء الاصطناعي تخدم فقط أولئك الذين يريدون تحويل التمويل بعيداً عن الخدمات الاجتماعية، وتبرير سياسات التقشف. وفي الوقت نفسه، فإن أصحاب النفوذ سيحرصون على تلقي الخدمات من بشر حقيقيين، بينما يُفرض على باقي الناس نسخ رديئة من هذه الخدمات عبر أنظمة ذكية محدودة.

جدير بالذكر في هذا الصدد أن رئيس قسم الذكاء الاصطناعي الصحي في شركة «غوغل»، غريغ كورادو، صرّح بأنه لا يريد لنظام «ميد-بالم» Med-PaLM system التابع للشركة أن يكون جزءاً من رحلة الرعاية الصحية لعائلته. ورغم ذلك، فإن هذا لم يمنعه من التفاخر بأن النظام نجح في اجتياز اختبار ترخيص طبي -وهو في الحقيقة لم يفعل. والأهم من ذلك أن تصميم أنظمة تجتاز اختبارات متعددة حول المواقف الطبية، ليس وسيلة فعالة لبناء تكنولوجيا طبية مفيدة.

في هذه المجالات، تبدو الضجة حول الذكاء الاصطناعي أقرب إلى كونها ادعاءات زائفة عن حلول تكنولوجية لمشكلات اجتماعية، تستند -في أفضل الأحوال- إلى تقييمات مشكوك فيها ولا أساس لها من الصحة للأنظمة التي يجري بيعها.

04- > الذكاء الاصطناعي لن يقتلنا جميعاً، لكن التغييرات المناخية قد تفعل: في وقتٍ من الأوقات في «وادي السيليكون» وواشنطن العاصمة، دار تساؤل غريب، لكنه خطير، في أوساط العاملين في مجال التكنولوجيا أو السياسات التقنية: «ما احتمال الهلاك؟»، والمقصود به تقدير احتمالية أن يؤدي الذكاء الاصطناعي إلى القضاء على البشرية جمعاء؟

ويقوم هذا النوع من التفكير الكارثي على فكرة تطوير ذكاء عام اصطناعي -أي نظام يمكنه أداء مجموعة واسعة من المهام بقدرة تساوي أو تتفوق على قدرة الإنسان.

الحقيقة أن مفهوم «الذكاء العام الاصطناعي» مبهم وغير محدَّد بدقة، ومع ذلك فإن فكرة الهلاك تحظى بشعبية لدى بعض التقنيين وصناع السياسات. ويرتكز هذا التوجّه على آيديولوجيات مثيرة للقلق، مثل «الإيثار الفعّال effective altruism»، و«الاهتمام بالمستقبل البعيد longtermism»، و«العقلانية rationalism»، وهي كلها تيارات تستند إلى فلسفة النفعية، لكن تأخذها إلى أقصى حدودها، إذ تدعو إلى تقليل أهمية الأذى الحالي بحجة إنقاذ مليارات البشر الذين قد يعيشون في مستقبل غير محدد. وتنبع هذه الآيديولوجيات من أفكار انتقائية وتمييزية في جوهرها ونتائجها.

في الوقت ذاته، نحن على وشك الفشل في تحقيق هدف «اتفاقية باريس»، المتمثل في الحد من ارتفاع درجة حرارة الأرض إلى أقل من درجتين مئويتين فوق مستويات ما قبل الثورة الصناعية -والذكاء الاصطناعي يفاقم المشكلة.

تولِّد مراكز البيانات التي تستضيف هذه الأنظمة كميات هائلة من انبعاثات الكربون، والمكونات الإلكترونية المستخدمة في صناعتها تُسرّب مواد كيميائية سامة تدوم إلى الأبد في التربة، والمولدات الاحتياطية التي تُستخدم لدعمها تسهم في زيادة أمراض الجهاز التنفسي، خصوصاً داخل المناطق الأكثر فقراً في الولايات المتحدة وخارجها. وبالتالي، الروبوتات لن تسيطر على العالم، لكن تصنيعها قد يُفاقم أزمة المناخ بشكل خطير.

05- إجبار الإنسان على التنازل عن اختياراته

5. لا شيء من هذا محتوم: أولئك الذين يبيعون أنظمة الذكاء الاصطناعي ويثيرون الضجة حولها يريدون منَّا أن نتنازل طواعيةً عن قدرتنا على الاختيار. يُقال لنا إن الذكاء الاصطناعي -أو حتى الذكاء العام الاصطناعي- أمر لا مفر منه، أو على الأقل إن أدوات مثل «تشات جي بي تي» أصبحت واقعاً دائماً، لكن الحقيقة أنْ لا شيء من هذا محتوم. الحقيقة أننا نملك القدرة على العمل، سواء بشكل جماعي أو فردي.

على المستوى الجماعي، يمكننا الدفع نحو إقرار قوانين تنظم استخدام تقنيات الذكاء الاصطناعي وتحمي العمال من أن تُستخدم هذه الأدوات ضدهم. ويمكننا المطالبة بعقود عمل تضمن بقاء السيطرة بأيدي البشر.

وعلى المستوى الفردي، يمكننا ببساطة أن نرفض استخدام أنظمة الذكاء الاصطناعي. يمكننا أن نكون مستهلكين ناقدين لهذه الأتمتة، نتفحص ما الذي تجري أتمتته، وكيف يجري تقييمه، ولماذا.

كما يمكننا أن نكون ناقدين للإعلام التقني، فنبحث عن الصحافة التي تحاسب أصحاب القوة وتكشف عن حقائق ما يجري.

وأخيراً، يمكننا -بل يجب علينا- أن نسخر من هذه الأنظمة باعتبار ذلك وسيلة للمقاومة، بأن نُظهر بشكل مرح وساخر مدى رداءة إنتاج هذه الآلات الصناعية.

*مجلة «فاست كومباني»

خدمات «تريبيون ميديا»