5 حقائق سوداء في فقاعة الضجة الكبرى للذكاء الاصطناعي

مواجهة تغوّل شركات التكنولوجيا ومنعها من رهن مستقبل البشرية

5 حقائق سوداء في فقاعة الضجة الكبرى للذكاء الاصطناعي
TT

5 حقائق سوداء في فقاعة الضجة الكبرى للذكاء الاصطناعي

5 حقائق سوداء في فقاعة الضجة الكبرى للذكاء الاصطناعي

يشكل كتاب «خدعة الذكاء الاصطناعي The AI Con» محاولة لاستكشاف الضجة المثارة حول تقنيات الذكاء الاصطناعي، والمصالح التي تخدمها، والأضرار التي تقع تحت هذه المظلة. ومع كل ذلك، تبقى هناك خيارات متاحة أمام المجتمع لمقاومة هذه الضجة، وما زال هناك أمل في أن نتحد معاً لمواجهة تغوّل شركات التكنولوجيا، ومنعها من رهن مستقبل البشرية.

«خدعة الذكاء الاصطناعي»

وفيما يلي تتشارك المؤلفتان إميلي بيندر (أستاذة في علم اللغة، مديرة برنامج الماجستير في اللغويات الحاسوبية بجامعة واشنطن)، وأليكس هنا (مديرة الأبحاث في معهد البحوث الموزعة للذكاء الاصطناعي، ومحاضرة في كلية المعلومات بجامعة كاليفورنيا في بيركلي) مع القراء بخمسة أفكار رئيسية من كتابهما الجديد «خدعة الذكاء الاصطناعي: كيف نحارب تضليل شركات التكنولوجيا الكبرى ونصنع المستقبل الذي نريده؟ ?The AI Con: How to Fight Big Tech’s Hype and Create the Future We Want».

01-> التكنولوجيا التي تحرِّك موجة الضجة الحالية حول الذكاء الاصطناعي ما هي إلا خدعة استعراضية: تبدو روبوتات الدردشة مثل «تشات جي بي تي»، تكنولوجيا مذهلة، لكن ليس بالضرورة بالطريقة التي نتصورها.

في الواقع، لا تستطيع هذه الأنظمة الاضطلاع بمجموعة الوظائف التي تزعم أنها قادرة عليها، وإنما جرى تصميمها لتبهرنا. ويكمن جوهر الخدعة في الطريقة التي يستخدم بها البشر اللغة. قد نعتقد أن فهم الكلمات مجرد فك رموز بسيطة، لكن الحقيقة أن العملية أشد تعقيداً بكثير، وتحمل في جوهرها طابعاً اجتماعياً عميقاً.

نحن نفسر اللغة عبر الاعتماد على كل ما نعرفه (أو نفترضه) عن الشخص الذي نطق الكلمات، وعلى الأرضية المشتركة بيننا وبينه، ثم نبدأ في استخلاص نيّات المتكلم. ونتولى إنجاز هذا الأمر على نحو تلقائي. لذا، عندما نصادف نصاً أنتجته أنظمة ذكية، فإننا نتعامل معه كما لو أن هناك عقلاً بشرياً خلَّفه، رغم عدم وجود عقل هناك أصلاً.

بمعنى آخر، فإن المهارات اللغوية والاجتماعية التي نُسقطها على النص المُنتَج من الذكاء الاصطناعي، تجعل من السهل على مروِّجي هذه التقنيات خداعنا لنعتقد أن برامج الدردشة كيانات عاقلة.

02- > الذكاء الاصطناعي لن يستحوذ على وظيفتك، لكنه سيجعلها أسوأ بكثير: في الغالب، تسعى تقنيات الذكاء الاصطناعي إلى إخراج الإنسان من معادلة العمل.

وهنا يبرز إضراب نقابة «كتّاب أميركا» عام 2023 مثالاً على ذلك، مع إعلان كتّاب السيناريو في هوليوود الإضراب عن العمل للمطالبة بعدة أمور، منها رفع أجورهم من شركات البث. إلا أن خلف هذه المطالب، كان هناك كذلك قلق عميق إزاء الاستعانة بالذكاء الاصطناعي في كتابة السيناريوهات، مما يهدد جودة العمل، ويجعل بيئة العمل أكثر ضغطاً وأقل احتراماً للمهارات البشرية.

كما أراد الكتّاب التأكد من أنهم لن يُجبروا على لعب دور مربّي الأطفال لأنظمة الدردشة الإلكترونية، التي يُكلفها المنتجون بكتابة سيناريوهات مبنية على أفكار ساذجة أو غير ناضجة مستوحاة من صناع السينما والتلفزيون.

في هذا الصدد، أشار جون لوبيز، عضو فريق العمل المعنيّ بالذكاء الاصطناعي داخل «نقابة الكتّاب»، إلى إمكانية حصول الكتّاب على أجر التعديلات فقط، عند تعاملهم مع محتوى ناتج عن الذكاء الاصطناعي، وهو أجر أقل بكثير من أجر كتابة سيناريو أصلي.

لقد رأينا بالفعل كيف أدّت أدوات توليد الصور والنصوص، إلى تقليص كبير في فرص العمل أمام مصممي الغرافيك، وفناني ألعاب الفيديو، والصحافيين. ولا يرجع ذلك إلى قدرة هذه الأدوات فعلاً على أداء مهام هؤلاء المحترفين بجودة عالية، بل لأنها تُنتج نتائج مقبولة بدرجة كافية لتقليص المهن، وإعادة توظيف العاملين مقابل أجور زهيدة، فقط ليقوموا بإصلاح مخرجات الذكاء الاصطناعي الرديئة.

وفوق ذلك، كثيراً ما تكون الأنظمة التي تُوصف بأنها «ذكاء اصطناعي» مجرد واجهات براقة تُخفي وراءها الاستراتيجية القديمة التي تعتمدها الشركات الكبرى، والمتمثلة في نقل وتحويل العمل إلى الأيدي العاملة في دول الجنوب العالمي.

وهؤلاء العمال -الذين غالباً ما يجري تجاهلهم- هم من يتولون مراجعة المحتوى عبر الإنترنت، واختبار أنظمة الدردشة للكشف عن المخرجات السامة، بل يقودون أحياناً المركبات التي يجري التسويق لها بوصفها ذاتية القيادة، عن بُعد.

ومع ذلك، يبقى هناك جانب مشرق يتمثل في نجاح بعض هؤلاء العمال من مقاومة هذا الاستغلال، سواء من خلال النشاط النقابي، أو من خلال ما يشبه التخريب الصناعي، مثل أدوات «نايتشيد» و«غليز» التي يستخدمها الفنانون لحماية أعمالهم من أن يجري استغلالها في تدريب نماذج توليد الصور، أو عبر التوعية السياسية.

إبعاد الناس عن تقديم الخدمات الاجتماعية

03- > الهدف من خدعة الذكاء الاصطناعي هو فصل الناس عن الخدمات الاجتماعية: نظراً لأننا نستخدم اللغة في كل مجالات النشاط البشري تقريباً، ولأن النص الاصطناعي الناتج عن هذه الأنظمة يمكن تدريبه على محاكاة اللغة، قد يبدو الأمر كأننا على وشك الحصول على تكنولوجيا قادرة على الاضطلاع بالتشخيص الطبي، وتقديم دروس تعليمية شخصية، واتخاذ قرارات حكيمة في توزيع الخدمات الحكومية، وتقديم استشارات قانونية، وغير ذلك -وكل ذلك مقابل تكلفة الكهرباء فقط (إضافة إلى ما تقرره الشركات المطورة من رسوم)... إلا أنه في كل هذه الحالات، ما يهم ليس مجرد الكلمات، بل التفكير الحقيقي وراءها، والعلاقات الإنسانية التي تساعدنا هذه الكلمات على بنائها والحفاظ عليها.

في الواقع، فإن أنظمة الذكاء الاصطناعي تخدم فقط أولئك الذين يريدون تحويل التمويل بعيداً عن الخدمات الاجتماعية، وتبرير سياسات التقشف. وفي الوقت نفسه، فإن أصحاب النفوذ سيحرصون على تلقي الخدمات من بشر حقيقيين، بينما يُفرض على باقي الناس نسخ رديئة من هذه الخدمات عبر أنظمة ذكية محدودة.

جدير بالذكر في هذا الصدد أن رئيس قسم الذكاء الاصطناعي الصحي في شركة «غوغل»، غريغ كورادو، صرّح بأنه لا يريد لنظام «ميد-بالم» Med-PaLM system التابع للشركة أن يكون جزءاً من رحلة الرعاية الصحية لعائلته. ورغم ذلك، فإن هذا لم يمنعه من التفاخر بأن النظام نجح في اجتياز اختبار ترخيص طبي -وهو في الحقيقة لم يفعل. والأهم من ذلك أن تصميم أنظمة تجتاز اختبارات متعددة حول المواقف الطبية، ليس وسيلة فعالة لبناء تكنولوجيا طبية مفيدة.

في هذه المجالات، تبدو الضجة حول الذكاء الاصطناعي أقرب إلى كونها ادعاءات زائفة عن حلول تكنولوجية لمشكلات اجتماعية، تستند -في أفضل الأحوال- إلى تقييمات مشكوك فيها ولا أساس لها من الصحة للأنظمة التي يجري بيعها.

04- > الذكاء الاصطناعي لن يقتلنا جميعاً، لكن التغييرات المناخية قد تفعل: في وقتٍ من الأوقات في «وادي السيليكون» وواشنطن العاصمة، دار تساؤل غريب، لكنه خطير، في أوساط العاملين في مجال التكنولوجيا أو السياسات التقنية: «ما احتمال الهلاك؟»، والمقصود به تقدير احتمالية أن يؤدي الذكاء الاصطناعي إلى القضاء على البشرية جمعاء؟

ويقوم هذا النوع من التفكير الكارثي على فكرة تطوير ذكاء عام اصطناعي -أي نظام يمكنه أداء مجموعة واسعة من المهام بقدرة تساوي أو تتفوق على قدرة الإنسان.

الحقيقة أن مفهوم «الذكاء العام الاصطناعي» مبهم وغير محدَّد بدقة، ومع ذلك فإن فكرة الهلاك تحظى بشعبية لدى بعض التقنيين وصناع السياسات. ويرتكز هذا التوجّه على آيديولوجيات مثيرة للقلق، مثل «الإيثار الفعّال effective altruism»، و«الاهتمام بالمستقبل البعيد longtermism»، و«العقلانية rationalism»، وهي كلها تيارات تستند إلى فلسفة النفعية، لكن تأخذها إلى أقصى حدودها، إذ تدعو إلى تقليل أهمية الأذى الحالي بحجة إنقاذ مليارات البشر الذين قد يعيشون في مستقبل غير محدد. وتنبع هذه الآيديولوجيات من أفكار انتقائية وتمييزية في جوهرها ونتائجها.

في الوقت ذاته، نحن على وشك الفشل في تحقيق هدف «اتفاقية باريس»، المتمثل في الحد من ارتفاع درجة حرارة الأرض إلى أقل من درجتين مئويتين فوق مستويات ما قبل الثورة الصناعية -والذكاء الاصطناعي يفاقم المشكلة.

تولِّد مراكز البيانات التي تستضيف هذه الأنظمة كميات هائلة من انبعاثات الكربون، والمكونات الإلكترونية المستخدمة في صناعتها تُسرّب مواد كيميائية سامة تدوم إلى الأبد في التربة، والمولدات الاحتياطية التي تُستخدم لدعمها تسهم في زيادة أمراض الجهاز التنفسي، خصوصاً داخل المناطق الأكثر فقراً في الولايات المتحدة وخارجها. وبالتالي، الروبوتات لن تسيطر على العالم، لكن تصنيعها قد يُفاقم أزمة المناخ بشكل خطير.

05- إجبار الإنسان على التنازل عن اختياراته

5. لا شيء من هذا محتوم: أولئك الذين يبيعون أنظمة الذكاء الاصطناعي ويثيرون الضجة حولها يريدون منَّا أن نتنازل طواعيةً عن قدرتنا على الاختيار. يُقال لنا إن الذكاء الاصطناعي -أو حتى الذكاء العام الاصطناعي- أمر لا مفر منه، أو على الأقل إن أدوات مثل «تشات جي بي تي» أصبحت واقعاً دائماً، لكن الحقيقة أنْ لا شيء من هذا محتوم. الحقيقة أننا نملك القدرة على العمل، سواء بشكل جماعي أو فردي.

على المستوى الجماعي، يمكننا الدفع نحو إقرار قوانين تنظم استخدام تقنيات الذكاء الاصطناعي وتحمي العمال من أن تُستخدم هذه الأدوات ضدهم. ويمكننا المطالبة بعقود عمل تضمن بقاء السيطرة بأيدي البشر.

وعلى المستوى الفردي، يمكننا ببساطة أن نرفض استخدام أنظمة الذكاء الاصطناعي. يمكننا أن نكون مستهلكين ناقدين لهذه الأتمتة، نتفحص ما الذي تجري أتمتته، وكيف يجري تقييمه، ولماذا.

كما يمكننا أن نكون ناقدين للإعلام التقني، فنبحث عن الصحافة التي تحاسب أصحاب القوة وتكشف عن حقائق ما يجري.

وأخيراً، يمكننا -بل يجب علينا- أن نسخر من هذه الأنظمة باعتبار ذلك وسيلة للمقاومة، بأن نُظهر بشكل مرح وساخر مدى رداءة إنتاج هذه الآلات الصناعية.

*مجلة «فاست كومباني»

خدمات «تريبيون ميديا»


مقالات ذات صلة

الذكاء الاصطناعي في العمل المصرفي… هل يتحول من أداة مساعدة إلى بنية أساسية؟

تكنولوجيا ينتقل الذكاء الاصطناعي في القطاع المصرفي من مرحلة التجارب إلى التشغيل واسع النطاق ليصبح جزءاً من البنية الأساسية لاتخاذ القرارات الحساسة (شاترستوك)

الذكاء الاصطناعي في العمل المصرفي… هل يتحول من أداة مساعدة إلى بنية أساسية؟

يدخل الذكاء الاصطناعي العمل المصرفي بوصفه بنية أساسية، حيث تُدار القرارات آلياً، وتقاس الثقة رقمياً، وتتصاعد تحديات الحوكمة، والبيانات، والاحتيال.

نسيم رمضان (لندن)
تكنولوجيا يرى الباحثون أن الذكاء الاصطناعي قد يشارك خلال سنوات قليلة في صياغة الفرضيات العلمية وليس تنفيذ الحسابات فقط (أدوبي)

هل يقترب الذكاء الاصطناعي من «ممارسة العلم» بدلاً من دعمه فقط؟

يتوقع باحثون سويسريون أن يتحول الذكاء الاصطناعي خلال خمس سنوات من أداة داعمة إلى شريك فعلي في البحث العلمي والاكتشاف.

نسيم رمضان (لندن)
خاص يعيد الذكاء الاصطناعي تعريف مخاطر الخصوصية حيث أصبحت حماية البيانات مرتبطة بالسلوك البشري والثقافة المؤسسية بقدر ارتباطها بالتقنيات (شاترستوك)

خاص في اليوم العالمي لـ«خصوصية البيانات»، كيف تعيد السعودية تعريف الثقة الرقمية؟

تتحول خصوصية البيانات في السعودية والمنطقة إلى أساس للثقة الرقمية مع دمجها في الذكاء الاصطناعي والحوسبة السحابية والحوكمة المؤسسية.

نسيم رمضان (لندن)
تكنولوجيا تنامي الاهتمام بالمسارات الإبداعية والرياضية يشير إلى بحث متزايد عن فرص جديدة للتعبير والاحتراف (شاترستوك)

عمّ يبحث السعوديون على «غوغل» مع بداية 2026؟

تعكس بيانات البحث على «غوغل» في السعودية بداية عام 2026 تركيزاً على تعلّم المهارات وتطوير الذات وتحسين نمط الحياة وإعادة التفكير بالمسار المهني.

نسيم رمضان (لندن)
تكنولوجيا شكّل إعلان فبراير معاينة أولية فقط في حين تخطط «أبل» لإطلاق نسخة أكثر تكاملاً من «سيري» لاحقاً هذا العام (شاترستوك)

«أبل» تستعد في فبراير لكشف نسخة جديدة من «سيري»

تستعد «أبل» في فبراير (شباط) لكشف تحول جذري في «سيري» عبر دمج ذكاء توليدي متقدم في محاولة للحاق بمنافسة المساعدات الحوارية مع الحفاظ على الخصوصية.

نسيم رمضان (لندن)

«ناسا» تؤجل أول رحلة مأهولة للقمر ضمن برنامج «أرتيميس» بسبب البرودة

«ناسا» كانت على أهبة الاستعداد لإجراء اختبار تزويد الصاروخ التابع لمهمة «أرتيميس» (إ.ب.أ)
«ناسا» كانت على أهبة الاستعداد لإجراء اختبار تزويد الصاروخ التابع لمهمة «أرتيميس» (إ.ب.أ)
TT

«ناسا» تؤجل أول رحلة مأهولة للقمر ضمن برنامج «أرتيميس» بسبب البرودة

«ناسا» كانت على أهبة الاستعداد لإجراء اختبار تزويد الصاروخ التابع لمهمة «أرتيميس» (إ.ب.أ)
«ناسا» كانت على أهبة الاستعداد لإجراء اختبار تزويد الصاروخ التابع لمهمة «أرتيميس» (إ.ب.أ)

أجلت وكالة الفضاء الأميركية (ناسا) رحلة رواد الفضاء المقبلة إلى القمر، بسبب توقعات بانخفاض درجات الحرارة إلى ما يقارب الصفر في موقع الإطلاق.

وتم تحديد موعد أول رحلة مأهولة إلى القمر ضمن برنامج «أرتيميس» الآن في توقيت لا يتجاوز 8 فبراير (شباط)، متأخرة يومين عن الموعد الأصلي، وفق ما ذكرته وكالة «أسوشييتد برس» للأنباء.

وكانت وكالة «ناسا» على أهبة الاستعداد لإجراء اختبار تزويد الصاروخ التابع لمهمة «أرتيميس» القمرية، البالغ طوله 322 قدماً (98 متراً)، بالوقود، غداً السبت، لكنها ألغت كل شيء في وقت متأخر، أمس الخميس، بسبب الطقس البارد المتوقع.

والآن، تم تحديد موعد «الاختبار النهائي بالغ الأهمية»، يوم الاثنين المقبل، إذا سمحت ظروف الطقس.

ويعني هذا التغيير أن أمام «ناسا» ثلاثة أيام فقط في فبراير (شباط) لإرسال أربعة رواد فضاء في رحلة حول القمر والعودة، قبل أن تمتد المهمة إلى مارس (آذار).


الأولوية للإنسان المبدع... عند اختيار مهمات الذكاء الاصطناعي

الأولوية للإنسان المبدع... عند اختيار مهمات الذكاء الاصطناعي
TT

الأولوية للإنسان المبدع... عند اختيار مهمات الذكاء الاصطناعي

الأولوية للإنسان المبدع... عند اختيار مهمات الذكاء الاصطناعي

نشهد اليوم طفرة غير مسبوقة في القدرات الإبداعية؛ إذ تُزيل الواجهات الصوتية الحواجز أمام مليارات الأشخاص الذين يجدون لوحات المفاتيح مُرهقة، بينما تستطيع مولدات الصور المدعومة بالذكاء الاصطناعي محاكاة أي توجُّه إبداعي تقريباً على الفور. وهكذا تتلاشى القيود التقنية التي كانت تُحدد العمل الإبداعي، كما كتب كاميرون آدامز(*).

ومع ذلك، تُثير هذه الوفرة تحدياً جديداً: عندما يصبح كل شيء ممكناً، تُصبح الاحتمالات مُربكة. عندها، تكمن القيمة الحقيقية في معرفة ما يستحق الصنع والتنفيذ.. وما لا يستحق.

وأتوقع أنه في عام 2026، سيُصبح السؤال: «هل يجب أن نبني هذا؟» أكثر أهمية من السؤال «هل نستطيع بناء هذا؟».

فائض القدرات

يدور نقاش الذكاء الاصطناعي حول القدرات؛ ما يُمكنك صنعه. سرعة إنجازه. ما هو مُمكن الآن. لكن ثمة فجوة تتسع بين ما يُمكننا ابتكاره وما ينبغي علينا ابتكاره.

يكشف تقرير ماكينزي لحالة الذكاء الاصطناعي الصادر في نوفمبر (تشرين الثاني) 2025 عن مفارقة لافتة: 88 في المائة من المؤسسات تستخدم الذكاء الاصطناعي حالياً في وظيفة تجارية واحدة على الأقل، ومع ذلك، فإن نسبة 39 في المائة فقط تُبلغ عن تأثيره المالي على مستوى المؤسسة. إنها تُحقق قيمة في حالات استخدام مُحددة، لكنها تُعاني في ترجمة ذلك إلى نمو طويل الأجل أو تحسين هوامش الربح.

الخلل يكمن في معرفة المواضع التي يمكن فيها تطبيقه، وكيفية إنشاء إطار عمل يُمكّنه من إحداث تأثير فعلي.

المهارات التي يُمكن للجميع صقلها في عام 2026

يُتيح هذا التحوّل فرصة حقيقية لكل مُبدع، ومُحترف، وكل من يهتم بتطوير مهاراته وتوسيع نطاق تأثيره.

عندما يُصبح التنفيذ الإبداعي مُتاحاً للجميع، تبرز ثلاثة عوامل مهمة:

البدء بطرح أسئلة أفضل: «كيف يُمكننا تحقيق أكبر تأثير؟ ما القرارات التي يجب أن تبقى بيد الإنسان؟ أين تُؤدي الأتمتة إلى الهشاشة؟». هذه ليست قيوداً، بل أُطر عمل تمنع الإرهاق المعرفي عندما يكون كل شيء مُمكناً تقنياً.

• تطوير الذوق من خلال التكرار: كما حدث مع الآلات الحاسبة، فإنها لم تُلغِ الحاجة إلى الفهم الرياضي. وكذلك فإن الذكاء الاصطناعي لا يُلغي الحاجة إلى الأسس الإبداعية. ولكن ما يتغير هو أن القدرة على التكرار السريع باستخدام الذكاء الاصطناعي تُسرّع في الواقع من تطوير الذوق. ستحصل على المزيد من المحاولات، ودورات تغذية راجعة أكثر دقة، وتعلّم أسرع. أنت تُنمّي أحكامك من خلال اتخاذ المزيد من القرارات، لا أقل.

• تحديد موعد النشر والمشاركة: عندما يستطيع الذكاء الاصطناعي توليد عدد لا يُحصى من التنويعات فوراً، يصبح الضغط على زر مشاركة شيء ما مع شخص ما هو الفعل الإبداعي الأساسي. إن ما تُرسله، ومتى تُرسله، ومَن يتسلمه قرارات تشكل هويتك ورسالتك بطرق لا يستطيع التوليد وحده، تحقيقها.

الأدوات والمنصات الشركاء في الإبداع

إذا كانت معرفة ما يجب صنعه هي المهارة الجديدة، فإن الأدوات التي تُساعدنا على تطوير هذه المهارة لن تكون مجرد أدوات مُطيعة؛ إذ إن أدوات الذكاء الاصطناعي الأكثر قيمة لن تكون تلك التي تُنفّذ رؤيتك فحسب، بل تلك التي تعمل شركاء في الإبداع. أتوقع ظهور أدوات تُوفّر القدر المناسب من التحدي لدفع أفكارك الإبداعية قُدُماً.

سيتغير دور المنصات الإبداعية من مجرد توفير الإمكانيات إلى توفيرها مع دعمٍ مُدمجٍ في المنتج نفسه. وهذا يعني:

أدوات تُحفّز التفكير الإبداعي بدلاً من مجرد تنفيذ الأفكار

• واجهات تُدرك متى تتوقف عن الإزعاج بدلاً من المقاطعة المستمرة (إشعارات أقل، قرارات أقل، مقاطعات أقل)

• ميزات تُساعد المستخدمين على فهم سبب نجاح خيارٍ ما، وليس مجرد نجاحه

الطيف الإبداعي الجديد: إنساني واصطناعي وهجين.

نتجه الآن نحو أنماط إبداعية متعددة وفعّالة: إبداع بشري خالص، إبداع ذكاء اصطناعي خالص، إبداع ذكاء اصطناعي مُدمج مع إبداع بشري (أحياناً مُعلن، وأحياناً خفيّ). وبدلاً من هيمنة نهجٍ واحد، سيُنتج هذا الطيف أنواعاً مختلفة من الأعمال ونقاشاتٍ مُختلفة حول الإبداع. سنرى إعلانات «غير مُصمَّمة باستخدام الذكاء الاصطناعي» تتعايش مع دمج الذكاء الاصطناعي في الخفاء بوصفه ممارسة قياسية.

يعكس هذا توسعاً في الإمكانيات. سيتمكن عددٌ أكبر من الناس من الوصول إلى الأدوات الإبداعية أكثر من أي وقتٍ مضى. السؤال هو: هل سيُطورون القدرة على استخدامها بشكلٍ جيد؟

جوهر الذكاء الاصطناعي يكافئ مطوري مهارات التفكير النقدي

كيف يبدو النجاح الآن؟ لا يكمن التفاؤل في عام 2026 بأن يجعل الذكاء الاصطناعي الإبداع سهلاً. يكمن جوهر الذكاء الاصطناعي في إتاحة الإبداع للجميع، ثم مكافأة مَن يطورون مهارات التفكير النقدي ضمن هذا النطاق.

يتمتع مليارات الأشخاص اليوم بإمكانية الوصول إلى أدوات إبداعية احترافية؛ فهل سنغرق في فيديوهات التزييف العميق للمشاهير، أم سنشهد ظهور جيل جديد من الفنانين المعاصرين؟ يعتمد هذا على مدى جودة دمجنا «أطر التفكير النقدي» في أدوات الذكاء الاصطناعي التي نستخدمها وفي أساليب عملنا. علينا استخدام أدوات الذكاء الاصطناعي بحكمة، ولكننا نحتاج أيضاً إلى محاسبة أنفسنا على التفكير العميق قبل النشر.

أكثر المهنيين المطلوبين للعمل

سيكون الطلب أكثر على المحترفين القادرين على إعادة صياغة الأسئلة المعقدة، وتفنيد الافتراضات الخاطئة، وتحديد ما لا يحتاج إلى تحسين. لماذا؟ لأنه عندما تتوفر للجميع أدوات توليد المحتوى ذاتها، يرتفع مستوى جودة المخرجات، ولكن يزداد أيضاً حجم الأعمال المتوسطة التي تبدو احترافية، ولكنها تفتقر إلى الرؤية الاستراتيجية.

نشهد بالفعل عواقب الاعتماد على القدرات دون تمييز: حملات تسويقية مصقولة تقنياً ولكنها غير متماسكة استراتيجياً، وتصاميم تتبع الصيحات دون تلبية احتياجات المستخدمين، وبرمجيات تعمل ولكنها تُراكم ديوناً تقنية.

حملات إعلانية «ذكية بلا روح»

كانت حملة «كوكاكولا» لموسم الأعياد لعام 2024، التي تم إنشاؤها باستخدام الذكاء الاصطناعي، مصقولة تقنياً، ولكنها بدت «خالية من الروح» للجمهور الذي توقع دفء العلامة التجارية المعهود، بينما تم سحب إعلان «ماكدونالدز» في هولندا، الذي تم إنشاؤه باستخدام الذكاء الاصطناعي، بعد ثلاثة أيام فقط من إطلاقه، إثر ردود فعل غاضبة.

وفي مجال البرمجة، وجد تحليلGitClear» » لعام 2024 لـ211 ​​مليون سطر، أن كتل التعليمات البرمجية المنسوخة والملصقة زادت ثمانية أضعاف؛ ما أدى إلى توليد تعليمات برمجية تعمل ولكنها تُراكم «ديوناً تقنية» لتُسبب مشاكل مستقبلية.

مبدعون فائزون

الفائزون في هذا المشهد الجديد - سواء أكانوا مبدعين أو منصات - هم مَن يستطيعون تمييز ما هو مهم وسط الزحام.. مَن يطورون المهارة البشرية لمعرفة المشكلات الجديرة بالحل.. من يدركون أن الإمكانيات غير المحدودة لا تعني بالضرورة أن كل إمكانية قيّمة. يتحول معيار التنافس من «أستطيع فعل هذا» إلى «أعلم أن هذا يستحق العناء».

* مجلة «فاست كومباني»


الذكاء الاصطناعي يفكّ شفرة الجينوم البشري

«ألفا جينوم» لدراسة الحمض النووي
«ألفا جينوم» لدراسة الحمض النووي
TT

الذكاء الاصطناعي يفكّ شفرة الجينوم البشري

«ألفا جينوم» لدراسة الحمض النووي
«ألفا جينوم» لدراسة الحمض النووي

عام 2024، تقاسم عالمان من «غوغل ديب مايند» جائزة نوبل في الكيمياء عن برنامج الذكاء الاصطناعي المسمى «ألفا فولد 2».

وفي حين كان العلماء يجاهدون لعقود، لفهم كيفية طي سلاسل الوحدات البنائية الجزيئية التي تكون البنى ثلاثية الأبعاد المعقدة للبروتينات، قام ديميس هاسابيس وجون غامبر وزملاؤهما في «ديب مايند» بتدريب برنامج للتنبؤ بأشكال هذه البروتينات. وعندما طُرح برنامج «ألفا فولد 2» في عام 2020، حقق أداءً متميزاً في هذه المهمة، مما دفع العلماء حول العالم إلى اعتماده.

ويقول أليكس بالازو، عالم الوراثة في جامعة تورنتو: «الجميع يستخدم (ألفا فولد 2). وقد استخدم العلماء البرنامج لدراسة كيفية عمل البروتينات بشكل طبيعي، وكيف يمكن أن يؤدي خلل وظيفتها إلى الإصابة بالأمراض. وقد ساعدهم البرنامج في بناء بروتينات جديدة كلياً، سيخضع بعضها قريباً لتجارب سريرية».

«ألفا فولد» لدراسة إنتاج البروتينات

مشروع «ألفا جينوم»

والآن، يحاول فريق آخر من الباحثين في «ديب مايند» تطبيق ما فعلته الشركة مع البروتينات، على الحمض النووي «دي إن إيه»، فقد كشف الباحثون النقاب يوم أمس الأربعاء، عن برنامج «ألفا جينوم» AlphaGenome في مجلة «نتشر» Nature بعد أن درّبوا ذكاءهم الاصطناعي على كم هائل من البيانات الجزيئية، ما مكّنه من التنبؤ بآلاف الجينات.

التنبؤ بنشاط الطفرات الجينية

على سبيل المثال، يستطيع «ألفا جينوم» التنبؤ بما إذا كانت طفرة ما ستؤدي إلى تعطيل جين أو تنشيطه في وقت غير مناسب، وهو سؤال بالغ الأهمية لفهم السرطان وأمراض أخرى.

وقال الدكتور بيتر كو، عالم الأحياء الحاسوبية في مختبر «كولد سبرينغ هاربور» بنيويورك الذي لم يشارك في المشروع، إن برنامج «ألفا جينوم» يُمثل خطوةً هامةً نحو الأمام في تطبيق الذكاء الاصطناعي على الجينوم. وأضاف: «إنه إنجاز هندسي رائع». لكن كو وخبراء آخرين من خارج الفريق حذروا من أن هذا البرنامج ليس سوى خطوة واحدة على طريق طويل. وقال مارك غيرستين، عالم الأحياء الحاسوبية في جامعة ييل: «هذا ليس برنامج ألفافولد... ولن يفوز بجائزة نوبل».

شكوك علمية في فائدته

وفي الواقع سيكون برنامج ألفا جينوم مفيداً. وقال الدكتور غيرستين إنه سيضيفه على الأرجح إلى أدواته لاستكشاف الحمض النووي، ويتوقع آخرون أن يحذوا حذوه. لكن لا يبدو أن كل العلماء يثقون ببرامج الذكاء الاصطناعي مثل «ألفا جينوم» لمساعدتهم في فهم الجينوم.

فقد صرح ستيفن سالزبيرغ، عالم الأحياء الحاسوبية في جامعة جونز هوبكنز: «لا أرى أي قيمة لها على الإطلاق في الوقت الحالي. أعتقد أن هناك الكثير من الأذكياء يُضيعون وقتهم عليه».

قبل عصر الحواسيب، أجرى علماء الأحياء تجارب دقيقة لكشف القواعد التي تحكم جيناتنا. وكان أن اكتشفوا أن الجينات تُكتب بأبجدية جينية رباعية الأحرف تُسمى القواعد. ولإنتاج بروتين، تقرأ الخلية التسلسل الموجود في الجين، الذي قد يمتد لآلاف القواعد.

الخلايا وأخطاء إنتاج البروتينات من الجينات

لكن كلما تعمق العلماء في دراسة الجينوم البشري، ازداد تعقيده وتشابكه. ورأوا أنه عندما تقرأ الخلايا جيناً ما، على سبيل المثال، غالباً ما تتجاوز أجزاءً من تسلسله. ومن خلال هذه العملية تستطيع الخلايا إنتاج مئات البروتينات المختلفة من جين واحد. ولكن يحدث عدد من الأمراض عندما تتعامل الخلايا مع جيناتها بشكل خاطئ. ولا توجد بصمة بسيطة للمواقع في الجينات التي يجب أن يتم على الخلايا التعامل معها، لذا أمضى العلماء عقوداً في بناء فهرس لها.

ومن الأسئلة المهمة الأخرى المتعلقة بالجينوم، كيفية اختيار الخلايا الجينات التي تستخدمها لإنتاج البروتينات، إذ اكتشف العلماء جزيئات خاصة ترتبط بالحمض النووي «دي إن إيه» وتمدده في حلقات معقدة. في بعض الحالات، تُعرّض الحلقات الجين لآلية تصنيع البروتين في الخلية. وفي حالات أخرى، ينتهي المطاف بالجين مُخبأً داخل لولب.

جمع مليارات البيانات

في عام 2019، شرَّع باحثون في «غوغل ديب مايند» في مشروع تطور لاحقاً إلى «ألفا جينوم». بحلول ذلك الوقت، كان علماء الأحياء قد جمعوا كميات هائلة من البيانات، فإضافة إلى ثلاثة مليارات زوج من القواعد في الجينوم البشري، جمعوا أيضاً نتائج آلاف التجارب التي تقيس نشاط الجينات في أنواع عديدة من الخلايا.

وكان الباحثون في «ديب مايند» يأملون، من خلال تدريب الذكاء الاصطناعي على هذه النتائج الموجودة، في تطوير برنامج قادر على التنبؤ بدقة بأجزاء من الحمض النووي لم يسبق لهم رؤيتها. وقال زيغا أفسيك، الباحث العلمي في «ديب مايند»: «كان هذا هو الهدف الأمثل لنا».

توظيف الذكاء الاصطناعي

في عام 2021، كشف الدكتور أفسيك وزملاؤه عن نموذج أولي للذكاء الاصطناعي يُدعى «إنفورمر» Enformer، الذي قاموا بتطويره لاحقاً إلى «ألفا جينوم». وقد درّبوا البرنامج على نطاق أوسع من البيانات البيولوجية. وقال الدكتور غيرستين: «إنه حقاً يعمل على نطاق صناعي».

التنبؤ بـ11 عملية داخل الجينوم

يتناول العديد من برامج الذكاء الاصطناعي المصممة لدراسة الجينوم جانباً واحداً فقط منه، مثل عملية تعامل الخلايا مع الجينات. لكن «ألفا جينوم» دُرِّب على التنبؤ بـ11 عملية مختلفة. وفي التقرير الصادر أمس الأربعاء، أشار الدكتور أفسيك وزملاؤه إلى أن أداء «ألفا جينوم» كان مماثلاً أو أفضل من أداء البرامج الأخرى في جميع الجوانب.

التعامل مع الطفرات وآثارها

وقالت الدكتورة كاثرين بولارد، عالمة البيانات في معاهد غلادستون، وهي منظمة بحثية في سان فرانسيسكو، التي لم تشارك في الدراسة: «إنها تقنية متطورة للغاية». وأوضحت بولارد وباحثون آخرون أن برنامج «ألفا جينوم» يتمتع بقدرة فائقة على التعامل مع الطفرات، وقادر على التنبؤ بآثارها، مثل تعطيل جين مجاور.

رصد دور أحد الجينات في حدوث اللوكيميا

في إحدى اختبارات الأداء، أضاف الباحثون طفرات إلى جزء من الحمض النووي «دي إن إيه» الذي يتضمن جيناً يُسمى TAL1.

في الأشخاص الأصحاء، يساعد جين TAL1 خلايا المناعة على النضوج حتى تتمكن من مكافحة مسببات الأمراض. وبمجرد اكتمال نمو الخلايا، يتوقف عمل الجين. لكن العلماء اكتشفوا أن الطفرات في جين TAL1 يمكن أن تؤدي إلى تنشيط الجين بشكل دائم. وهذا التغيير قد يتسبب في نهاية المطاف في تكاثر خلايا المناعة بشكل خارج عن السيطرة، مما يؤدي إلى الإصابة بسرطان الدم (اللوكيميا).

ووجد الدكتور أفسيك وزملاؤه أن برنامج «ألفا جينوم» قد تنبأ بدقة بتأثير هذه الطفرات على جين TAL1، وقال: «لقد كان من المثير حقاً رؤية نجاح هذه النماذج. إنه أشبه بالسحر أحياناً».

أداة تنبؤية تحتاج إلى تجارب مختبرية

وشارك باحثو «ألفا جينوم» توقعاتهم بشأن جين TAL1 مع الدكتور مارك منصور، اختصاصي أمراض الدم في جامعة «يونيفرسيتي كوليدج لندن»، الذي أمضى سنوات في الكشف عن الطفرات المسببة لسرطان الدم من خلال التجارب المختبرية.

وقال الدكتور منصور: «لقد كان الأمر مذهلاً حقاً، فقد أظهر مدى قوة هذه التقنية»، لكنه أشار إلى أن قدرة «ألفا جينوم» على التنبؤ تتضاءل كلما ابتعدت دراسته عن جين معين. ويستخدم منصور الآن «ألفا جينوم» في أبحاثه حول السرطان، لكنه لا يقبل نتائجه دون تمحيص. وأضاف: «هذه الأدوات التنبؤية تبقى مجرد أدوات تنبؤية، وما زلنا بحاجة إلى إجراء التجارب المختبرية».

ثقة مبالغ فيها

أما الدكتور سالزبيرغ من جامعة جونز هوبكنز، فهو أقل تفاؤلاً بشأن «ألفا جينوم»، ويعود ذلك جزئياً إلى اعتقاده بأن مطوريها يبالغون في الثقة بالبيانات التي دُرّبت عليها. فالعلماء الذين يدرسون مواقع الربط الجيني لا يتفقون على تحديد المواقع الحقيقية، من المواقع التي تُعدّ مجرد أوهام جينية. ونتيجة لذلك، أنشأوا قواعد بيانات تحتوي على فهارس مختلفة لمواقع الربط الجيني.

وقال الدكتور سالزبيرغ: «يعمل المجتمع العلمي منذ 25 عاماً على محاولة تحديد جميع مواقع الربط في الجينوم البشري، وما زلنا بعيدين عن تحقيق ذلك. ليس لدينا معيار ذهبي متفق عليه».

كما حذَّر الدكتور بولارد أيضاً من أن برنامج «ألفا جينوم» لا يزال بعيداً كل البعد عن أن يكون أداةً يستخدمها الأطباء لفحص جينومات المرضى بحثاً عن أي مخاطر صحية. فهو يتنبأ فقط بتأثير طفرة واحدة على جينوم بشري قياسي واحد.

وفي الواقع، يمتلك أي شخصين ملايين الاختلافات الجينية في حمضهما النووي. ولا يزال تقييم تأثير كل هذه الاختلافات في جسم المريض يتجاوز بكثير قدرات برنامج «ألفا جينوم» الصناعية. وأضاف الدكتور بولارد: «إنها مشكلة أصعب بكثير».

خدمة «نيويورك تايمز»