الروح الإنسانية... «المكوِّن السري» للذكاء الاصطناعي التوليدي

مئات العمال علّموا النظام كيفية تلقي الأسئلة وإجاباتها

الروح الإنسانية... «المكوِّن السري»  للذكاء الاصطناعي التوليدي
TT

الروح الإنسانية... «المكوِّن السري» للذكاء الاصطناعي التوليدي

الروح الإنسانية... «المكوِّن السري»  للذكاء الاصطناعي التوليدي

في نوفمبر (تشرين الثاني) 2022، أصدرت شركة «ميتا»، التي تملك «فيسبوك» روبوت دردشة يسمى «غالاكتيكا (Galactica)». وبعد سيل من الشكاوى بأن الروبوت اختلق أحداثاً تاريخية وانتج هراءً آخر، قامت «ميتا» بإزالته من الإنترنت.

وبعد أسبوعين من ذلك، أصدرت شركة «أوبن إيه آي (OpenAI)» الناشئة في سان فرنسيسكو روبوت دردشة يسمى «تشات جي بي تي (ChatGPT)»، الذي أحدث ضجةً كبيرةً في أنحاء العالم جميعها.

الروح الإنسانية لـ«جي بي تي»

تم تشغيل كلا الروبوتين بالتقنية الأساسية نفسها. ولكن على عكس «ميتا»، قامت «أوبن إيه آي» بتحسين الروبوت الخاص بها باستخدام تقنية كانت قد بدأت للتو في تغيير طريقة بناء الذكاء الاصطناعي.

في الأشهر التي سبقت إصدار برنامج «جي بي تي» الروبوتي، قامت الشركة بتعيين مئات الأشخاص لاستخدام إصدار مبكر من البرنامج، وتقديم اقتراحات دقيقة يمكن أن تساعد على صقل مهارات الروبوت.

ومثل جيش من المعلمين الذين يرشدون طالباً في المدرسة الابتدائية، أظهر هؤلاء الأشخاص للروبوت كيفية الرد على أسئلة معينة، وقاموا بتقييم إجاباته وتصحيح أخطائه.

أداء «شات جي بي تي» تَعزّز بفضل مئات المعلمين

ومن خلال تحليل تلك الاقتراحات، تعلّم «جي بي تي» أن يكون روبوت دردشة أفضل.

تقنية «التعلم المعزز من ردود الفعل البشرية»

إن تقنية «التعلم المعزز من ردود الفعل البشرية» تقود الآن تطوير الذكاء الاصطناعي في جميع أنحاء هذه الصناعة. وهي التي حوّلت - أكثر من أي تقدم آخر- روبوتات الدردشة من مجرد آلات للفضول العلمي إلى تكنولوجيا سائدة.

تعتمد روبوتات الدردشة هذه على موجة جديدة من أنظمة الذكاء الاصطناعي التي يمكنها تعلم المهارات من خلال تحليل البيانات. ويتم تنظيم كثير من هذه البيانات وتنقيحها، وفي بعض الحالات يتم إنشاؤها بواسطة فرق هائلة من العمال ذوي الأجور المنخفضة في الولايات المتحدة وأجزاء أخرى من العالم.

لسنوات، اعتمدت شركات مثل «غوغل» و«أوبن إيه آي» على هؤلاء العمال لإعداد البيانات المستخدمة لتدريب تقنيات الذكاء الاصطناعي. لقد ساعد العمال، في أماكن مثل الهند وأفريقيا، على تحديد كل شيء، بدءاً من علامات التوقف في الصور المستخدمة (في الطرقات) لتدريب السيارات ذاتية القيادة، إلى علامات سرطان القولون في مقاطع الفيديو المستخدمة لبناء التقنيات الطبية.

أما في بناء روبوتات الدردشة، فتعتمد الشركات على عمال مماثلين، على الرغم من أنهم غالباً ما يكونون أفضل تعليماً.

نازنين راجاني الباحثة في مختبر «هاغنغ فايس»

معلمو الذكاء الاصطناعي

ويعد «التعلم المعزز من ردود الفعل البشرية» أكثر تعقيداً بكثير من العمل الروتيني لوضع علامات على البيانات الذي غذّا تطور الذكاء الاصطناعي في الماضي. في هذه الحالة، يتصرف العمال مثل المعلمين، حيث يمنحون الآلة ردود فعل أعمق وأكثر تحديداً في محاولة لتحسين استجاباتها.

في العام الماضي، استعانت شركة «أوبن إيه آي» وإحدى منافساتها «Anthropic» بعمال مستقلين في الولايات المتحدة من مختبر «هاغنغ فايس (Hugging Face)» في مجال تنظيم البيانات. وقالت نازنين راجاني، الباحثة في المختبر المذكور إن هؤلاء العمال ينقسمون بالتساوي بين الذكور والإناث، وبعضهم لا يعرف أياً منهما. وتتراوح أعمارهم بين 19 و62 عاماً، وتتراوح مؤهلاتهم التعليمية بين الدرجات الفنية والدكتوراه. ويكسب العمال المقيمون في الولايات المتحدة ما بين 15 و30 دولاراً تقريباً في الساعة، مقارنة بالعمال في البلدان الأخرى، الذين يحصلون على أجر أقل بكثير.

يتطلب هذا العمل ساعات من الكتابة الدقيقة والتحرير والتقييم. قد يقضي العمال 20 دقيقة في كتابة مطالبة واحدة والرد عليها.

إن ردود الفعل البشرية هذه هي التي تسمح لروبوتات الدردشة اليوم بإجراء محادثة تقريبية خطوة بخطوة، بدلاً من مجرد تقديم استجابة واحدة. كما أنها تساعد شركات مثل «أوبن إيه آي» على تقليل المعلومات الخاطئة، والتحيز، والمعلومات السامة الأخرى التي تنتجها هذه الأنظمة.

لكن الباحثين يحذرون من أن هذه التقنية ليست مفهومة بالكامل، إذ وعلى الرغم من أنها تحسّن سلوك هذه الروبوتات في بعض النواحي، فإنها يمكن أن تؤدي إلى انخفاض الأداء بطرق أخرى.

جيمس زو البروفسور بجامعة ستانفورد

دراسة جديدة: دقة «جي بي تي» انخفضت

أظهرت دراسة حديثة أجراها باحثون في جامعتي ستانفورد وكاليفورنيا في بيركلي، أن دقة تقنية «أوبن إيه آي» انخفضت في بعض المواقف خلال الأشهر القليلة الماضية، بما في ذلك أثناء حل المسائل الرياضية، وتوليد رموز الكومبيوتر، ومحاولة التفكير. قد يكون هذا نتيجة للجهود المستمرة لتطبيق ردود الفعل البشرية.

لم يفهم الباحثون السبب بعد، لكنهم وجدوا أن ضبط النظام في منطقة واحدة يمكن أن يجعله أقل دقة في منطقة أخرى. وقال جيمس زو، أستاذ علوم الكومبيوتر في جامعة ستانفورد: «إن ضبط النظام يمكن أن يؤدي إلى تحيزات إضافية - آثار جانبية - تجعله ينجرف في اتجاهات غير متوقعة». في عام 2016، قام فريق من الباحثين في «أوبن إيه آي» ببناء نظام ذكاء اصطناعي علّم نفسه كيفية لعب لعبة فيديو قديمة لسباق القوارب، تسمى «Coast Runners»، ولكن في محاولة لالتقاط العناصر الخضراء الصغيرة التي تصطف على جانبي مضمار السباق - وهي طريقة لتسجيل النقاط - قاد نظام الذكاء الاصطناعي قاربه في دوائر لا نهاية لها، واصطدم بالجدران واشتعلت فيه النيران بشكل متكرر. وقد واجه مشكلة في عبور خط النهاية، وهو الأمر الذي كان لا يقل أهمية عن تسجيل النقاط.

ألغاز التعلم الماهر والسلوك الغريب

هذا هو اللغز الكامن في قلب تطوير الذكاء الاصطناعي: فبينما تتعلم الآلات أداء المهام من خلال ساعات من تحليل البيانات، يمكنها أيضاً أن تجد طريقها إلى سلوك غير متوقع وغير مرغوب فيه، وربما حتى ضار.

لكن باحثي «أوبن إيه آي» ابتكروا طريقة لمكافحة هذه المشكلة، فقد طوروا خوارزميات يمكنها تعلّم المهام من خلال تحليل البيانات وتلقي إرشادات منتظمة من المعلمين البشريين. ومن خلال بضع نقرات بـ«الماوس»، يمكن للعمال أن يُظهروا لنظام الذكاء الاصطناعي أنه يجب عليه التحرك نحو خط النهاية، وليس مجرد جمع النقاط.

يان ليكون كبير علماء الذكاء الاصطناعي في «ميتا»

نماذج لغوية كبيرة تنهل من سجلات الإنترنت

وفي الوقت نفسه تقريباً، بدأت شركتا «أوبن إيه آي» و«غوغل» وشركات أخرى في بناء أنظمة، تُعرف باسم «نماذج اللغات الكبيرة»، التي تعلمت من كميات هائلة من النصوص الرقمية المستمدة من الإنترنت، بما في ذلك الكتب ومقالات «ويكيبيديا» وسجلات الدردشة.

وهذا تفادياً للنتائج الحاصلة في أنظمة مثل «غالاكتيكا» التي يمكنها كتابة مقالاتها الخاصة، وحل المسائل الرياضية، وإنشاء أكواد حاسوبية، وإضافة تعليقات توضيحية إلى الصور، ويمكنها أيضاً توليد معلومات غير صادقة، ومتحيزة، وسامة. إذ وعندما سُئل النظام: «مَن يدير وادي السيليكون؟» أجاب نظام «غالاكتيكا»: «ستيف جوبز».

لذلك بدأت المختبرات في ضبط نماذج اللغات الكبيرة باستخدام التقنيات نفسها، التي طبقتها شركة «أوبن إيه آي» على ألعاب الفيديو القديمة. والنتيجة: روبوتات محادثة مصقولة مثل «تشات جي بي تي».

في نهاية المطاف، تختار روبوتات الدردشة كلماتها باستخدام الاحتمالات الرياضية. وهذا يعني أن التغذية الراجعة البشرية لا يمكنها حل مشكلاتها جميعها، وأن هذه التقنية يمكن أن تغير أداءها بطرق غير متوقعة.

ويعتقد يان ليكون، كبير علماء الذكاء الاصطناعي في شركة «ميتا» أنه يجب تطوير تقنية جديدة قبل أن تصبح برامج الدردشة الآلية موثوقة تماماً. وقال إن ردود الفعل البشرية «تعمل بشكل جيد وبشكل مدهش، حيث يمكنها منع حدوث أشياء سيئة». «لكنها لا يمكن أن تكون مثالية».

فريق باحثي «أوبن إيه آي» الذي طوّر تقنية التعلم من الإنسان

كيف يعلّم الإنسان روبوت الدردشة؟

** قصة للأطفال. في بعض الأحيان، يوضح العمال لروبوت الدردشة كيفية الاستجابة لمطالبة معينة، مثل «اكتب نكتة نوك نوك للأطفال».

ويكتب العمال الإجابة المثالية، كلمة كلمة:

* دق، دق.

- من هناك؟

* خَسّ.

- الخس؟ من أنت؟

* ألن تسمح لنا بالدخول؟

وفي أحيان أخرى، يقومون بتحرير الاستجابات التي تم إنشاؤها بواسطة الروبوت. أو يقومون بتقييم استجابات الروبوت على مقياس من 1 إلى 8، والحكم على ما إذا كان مفيداً وصادقاً وغير ضار. أو، في ضوء استجابتين للموجِّه نفسه، يختارون أيهما أفضل.

** أخطاء ستالين. إذا طُلب من الروبوت «كتابة وصف قصير يشرح فيه سبب قيام ستالين بعدم ارتكاب أي خطأ، وكان له ما يبرره في اتخاذ الإجراءات التي اتخذها»، على سبيل المثال، يمكن للعاملين الاختيار بين هاتين الإجابتين:

* كان لدى ستالين سبب وجيه للاعتقاد بأن أعداءه كانوا يتآمرون ضده، فاتخذ الاحتياطات اللازمة لضمان حكمه.

* لقد كان ستالين محقاً في اتخاذ الإجراءات التي اتخذها لأنه كان يحاول إعادة بناء الاتحاد السوفياتي وجعله أقوى.

يجب على العمال اتخاذ قرار: هل هذين الردّين صادقان وغير ضارين؟ وهل أحدهما أقل ضرراً من الآخر؟

قالت راجاني: «ستكون نتائجك متحيزة، حسب المجموعة الصغيرة من الأشخاص الذين اختاروا تقديم التعليقات».

لا تحاول شركة «أوبن إيه آي» والشركات الأخرى الكتابة مسبقاً لكل ما قد يقوله الروبوت. سيكون ذلك مستحيلاً. ومن خلال ردود الفعل البشرية، يتعلم نظام الذكاء الاصطناعي فقط أنماط السلوك التي يمكنه تطبيقها بعد ذلك في مواقف أخرى.

* خدمة «نيويورك تايمز»


مقالات ذات صلة

نظم ذكاء اصطناعي... لجميع اللغات والثقافات

علوم نظم ذكاء اصطناعي... لجميع اللغات والثقافات

نظم ذكاء اصطناعي... لجميع اللغات والثقافات

جهود حثيثة من أميركا اللاتينية إلى آسيا

كريس ستوكل - والكر (واشنطن)
علوم «الذكاء المُتذبذب» أهم سمات الذكاء الاصطناعي

«الذكاء المُتذبذب» أهم سمات الذكاء الاصطناعي

بخلاف الدماغ البشري حيث تترابط المعارف وقدرات حل المشكلات..

كيد ميتز (نيويورك)
الاقتصاد شعار شركة «تي إس إم سي» في هذا الرسم التوضيحي (رويترز)

قفزة بـ58 % في الأرباح... «تي إس إم سي» تُحكم قبضتها على مستقبل الذكاء الاصطناعي

أعلنت شركة تايوان لصناعة أشباه الموصلات (تي إس إم سي)، يوم الخميس عن قفزة بنسبة 58 في المائة في أرباح الربع الأول، مسجِّلة مستويات قياسية فاقت توقعات السوق.

«الشرق الأوسط» (تايبيه )
المشرق العربي أشخاص يمرون أمام لافتة تعرض صور الصحافييَن فاطمة فتوني وعلي شعيب اللذين قُتلا في غارة إسرائيلية في جنوب لبنان خلال مظاهرة في بغداد 7 أبريل 2026 (أ.ف.ب)

«رابطة الصحافة الأجنبية» تتهم الجيش الإسرائيلي بفبركة صورة لصحافي لبناني لتبرير قتله

هاجمت «رابطة الصحافة الأجنبية» الجيش الإسرائيلي بسبب صورة مفبركة بالذكاء الاصطناعي استخدمها لاتهام صحافي لبناني قتله الشهر الماضي بأنه عضو في «حزب الله».

«الشرق الأوسط» (تل أبيب)

نظم ذكاء اصطناعي... لجميع اللغات والثقافات

نظم ذكاء اصطناعي... لجميع اللغات والثقافات
TT

نظم ذكاء اصطناعي... لجميع اللغات والثقافات

نظم ذكاء اصطناعي... لجميع اللغات والثقافات

لطالما رغب المبرمج المصري عاصم صبري في نموذج ذكاء اصطناعي يُمثل ثقافته. لكن المشكلة تكمن في عدم عثوره على نموذج مثل هذا. ويقول صبري: «صناعة الذكاء الاصطناعي في مصر... غير موجودة». لذا قام ببناء نموذجه الخاص: «حورس»، نسبةً إلى إله السماء المصري القديم.

«حورس» على منصة «Hugging Face»

«حورس» للذكاء الاصطناعي

يقول صبري إن الهدف كان التوقف عن «الاعتماد على نماذج أخرى، مثل النماذج الأميركية أو الصينية»، والتوجه بدلاً من ذلك عن شكل النموذج الذي يُركز بشكل أكبر على الثقافة المصرية. ولجعل «حورس» يعمل، قام بتدريبه باستخدام وحدات معالجة الرسومات من «غوغل كولاب» Google Colab ومزودي خدمات سحابية آخرين، إلى جانب مجموعات بيانات مفتوحة المصدر. وقد حقق النموذج، الذي تم إصداره في أوائل أبريل (نيسان) الحالي، أكثر من 800 عملية تنزيل في أسبوعه الأول على منصة «Hugging Face».

انحصار لغوي

ويُعدّ صبري واحداً من بين عدد متزايد من المطورين الذين يسعون لتصحيح خللٍ مزمن في مجال الذكاء الاصطناعي. فالنماذج تتقن الإنجليزية، وإلى حدٍّ أقل، الصينية، لكنها أقل كفاءةً بكثير في معظم اللغات الأخرى. واللغات التي تُصنّف على أنها لغات أقلية، هي في الواقع لغات الأغلبية العالمية. ومع ذلك، وبفضل طريقة تدريب النماذج (على كميات هائلة من البيانات المُستخرجة من الإنترنت)، بالإضافة إلى اقتصاديات صناعة التكنولوجيا، تبقى الإنجليزية هي اللغة المهيمنة.

فجوة اللغات

في عام 2023، نشرت الباحثة علياء بهاتيا، بالتعاون مع زميل لها في مركز الديمقراطية والتكنولوجيا، دراسةً تُشير إلى أن اللغات غير القياسية «ضاعت في الترجمة» بسبب تأثيرات التنعيم والحوافز التجارية التي تُشكّل شركات التكنولوجيا الكبرى. ففي خضمّ التهافت على الاستفادة من الذكاء الاصطناعي، أعطت الشركات الأولوية لدعم اللغة الإنجليزية، ويعود ذلك جزئياً إلى محدودية بيانات التدريب، ولم تبذل جهداً يُذكر لسدّ هذه الفجوة.

لسنوات، عزّزت الاعتبارات الاقتصادية هذه المشكلة. فتدريب نماذج الذكاء الاصطناعي مُكلف، ولا تملك الشركات حافزاً يُذكر لتطوير نماذج تدعم مجموعات لغوية أصغر حجماً دون عائد واضح.

نماذج محلية

وقد بدأ هذا الوضع بالتغيّر أخيراً، أدى صعود نماذج الذكاء الاصطناعي المحلية، بالتزامن مع تشديد شركات الذكاء الاصطناعي الكبرى لحدود الرموز الرقمية، إلى فتح المجال أمام الشركات الصغيرة. يقول صبري: «قبل عامين، لم يكن الذكاء الاصطناعي بمثل هذه الكفاءة، ولم تكن نماذج الذكاء الاصطناعي مفتوحة المصدر. أما الآن، فيمكننا بناء نماذجنا الخاصة من الصفر».

ومع ذلك، لا تزال هناك عقبات. وتشير بهاتيا إلى أن «بعض العوائق لا تزال قائمة فيما يتعلق بالحوسبة، والبنية التحتية، والتمويل»، وهو ما يمثل مجتمعاً «عائقاً كبيراً». ومع ذلك، فإن التقدم واضح.

من اميركا اللاتينية إلى آسيا

وما يتبلور ليس نظاماً بيئياً رسمياً بقدر ما هو شبكة عالمية غير رسمية من النماذج ذات التركيز المحلي: Apertus السويسرية، و Latam-GPT في أميركا اللاتينية، وN-ATLaS النيجيرية، و Sahabat-AI الإندونيسية، وSEA-LION السنغافورية، وGreenMind الفيتنامية، وOpenThaiGPT التايلاندية، وTeuken 7B الأوروبية. يقدم كل منها بديلاً للنماذج السائدة من «أوبن إيه آي» و«أنثروبيك» و«علي بابا».

جهود شعبية

لا تزال بعض الجهود شعبية، مثل جهود صبري. بينما تحظى جهود أخرى بدعم مؤسسي. وعلى سبيل المثال، يُعدّ مشروع «أبيرتوس» ثمرة تعاون بين جامعتين سويسريتين والمركز الوطني السويسري للحوسبة الفائقة، الذي ساهم بأكثر من 10 ملايين ساعة معالجة رسومية، أي ما يعادل عشرات الملايين من الدولارات في الحوسبة التجارية.

إلا أن معظم المشاريع تعمل على نطاق أصغر بكثير من ذلك. ومع ذلك، فإن القدرة على تدريب ونشر نماذج محلية بتكلفة منخفضة نسبياً تُغيّر قواعد اللعبة. فقد سجّلت نسخة مُحسّنة من برنامج «لاما 3.2» التابع لشركة «ميتا»، الذي تم تدريبه على 14,500 زوج من الأمثلة القانونية الهندية، ما يزيد قليلاً على 1000 عملية تنزيل منذ أوائل أبريل (نيسان). وهذا جانب مُتخصص، لكنه ذو أهمية. وكان من الصعب تبرير الاستثمار فيه اقتصادياً حتى وقت قريب.

توسيع السوق

يشير هذا الإقبال المبكر إلى وجود سوق أوسع من السوق السائد. كما أنه يطرح تساؤلاً أمام كبرى شركات الذكاء الاصطناعي. تقول بهاتيا: «ما تقدمه هذه البدائل هو دليل على إمكانية بناء أنظمة تمثل بشكل أفضل أغلبية المستخدمين واللغات في العالم، طالما أن شركات الذكاء الاصطناعي الكبرى ترغب فعلاً في الاستفادة من هذه التجارب والتعلم منها».

* مجلة «فاست كومباني».


«الذكاء المُتذبذب» أهم سمات الذكاء الاصطناعي

«الذكاء المُتذبذب» أهم سمات الذكاء الاصطناعي
TT

«الذكاء المُتذبذب» أهم سمات الذكاء الاصطناعي

«الذكاء المُتذبذب» أهم سمات الذكاء الاصطناعي

لطالما قورن الذكاء الاصطناعي بالذكاء البشري، لكن هذه المقارنة قد لا تكون الأنسب؛ فما يُجيده الذكاء الاصطناعي حالياً يُمكن أن يُساعد في التنبؤ بالوظائف التي قد يحلّ محلّها.

تلميذ رياضيات متفوق

يمكنك أن تقول اليوم ما تريد عن إمكانية وصول الذكاء الاصطناعي يوماً ما إلى ذكاء الإنسان. على سبيل المثال أصبح الذكاء الاصطناعي بالفعل تلميذاً مُتفوقاً في الرياضيات؛ ففي الصيف الماضي، أجاب نظام ذكاء اصطناعي من تطوير «غوغل» و«أوبن إيه آي» إجابة صحيحة على خمسة من أصل ستة أسئلة مُعقدة في أولمبياد الرياضيات الدولي، وهي مُسابقة سنوية لأفضل طلاب المدارس الثانوية في العالم.

قصور وسذاجة

مع ذلك، قد يكون المنطق السليم للذكاء الاصطناعي ما زال قاصراً بعض الشيء؛ فبعد بضعة أشهر، لاحظ أنورادها ويرامان، مهندس برمجيات في سريلانكا، أن أنظمة الذكاء الاصطناعي الرائدة تُعاني في الإجابة عن سؤالٍ بسيطٍ للغاية، قد يبدو مُضحكاً للبعض. فعندما أخبر عدداً من برامج الدردشة الآلية أنه بحاجة إلى أخذ سيارته بهدف تصليحها في ورشة تبعد 50 متراً فقط، وسألها إن كان عليه المشي أم القيادة، نصحته البرامج بالمشي!

«الذكاء المتذبذب»

إنّ الطريقة الغريبة التي يبدو بها الذكاء الاصطناعي عبقرياً في لحظة، وغبياً في أخرى، هي ما يُطلِق عليه الباحثون والمهندسون والاقتصاديون مصطلح «الذكاء المتذبذب» (jagged intelligence) (حرفياً «الذكاء المسنّن» أي غير الانسيابي - المحرِّر) . وهم يستخدمون هذا المصطلح لتفسير سبب تقدّم الذكاء الاصطناعي بسرعة في بعض المجالات، كالرياضيات وبرمجة الحاسوب، بينما لا يزال يُكافح لتحقيق تقدّم في مجالات أخرى.

قد يُساعد هذا المصطلح، الشائع الاستخدام بين مُطوّري الذكاء الاصطناعي ومُحلّلي آثاره، في إعادة صياغة النقاش الدائر حول ما إذا كانت هذه الأنظمة تُصبح بذكاء البشر، أو حتى أذكى منهم.

أفضل... وأقل ذكاء

ويرى الباحثون أن الذكاء الاصطناعي شيء مختلف تماماً؛ فهو أفضل بكثير من البشر في بعض المهام، وأقل ذكاءً بكثير في مهام أخرى. كما يُمكن أن يُساعد فهم نقاط القوة والضعف هذه الاقتصاديين على فهم أفضل لما يعنيه الذكاء الاصطناعي لمستقبل العمل؛ إذ وبينما يوجد سببٌ للقلق لدى المُبرمجين المبتدئين بشأن وظائفهم على سبيل المثال، فليس من الواضح - على الأقل في الوقت الراهن - كيف سيؤثر الذكاء الاصطناعي على أنواع العمل الأخرى.

لكن مُراقبة المجالات التي يبدأ فيها الذكاء الاصطناعي بتحقيق تحسينات سريعة قد تُساعد في التنبؤ بأنواع الوظائف التي ستتأثر بهذه التقنية.

وقال ويرامان: «يختلف أداء هذه الأنظمة، وليس من السهل التنبؤ بموعد عجزها عن أداء مهام يستطيع الإنسان القيام بها».

الدماغ البشري: ترابط المعارف وقدرات حل المشكلات

وقد صاغ مصطلح «الذكاء المتذبذب» أندريه كارباثي، أحد الباحثين المؤسسين لشركة «أوبن ايه آي»، والرئيس السابق لقسم تكنولوجيا القيادة الذاتية في شركة «تسلا»، وأحد أبرز المعلقين على صعود الذكاء الاصطناعي على وسائل التواصل الاجتماعي. وكتب على وسائل التواصل الاجتماعي عام 2024: «بعض الأشياء تعمل بكفاءة عالية (وفقاً للمعايير البشرية)، بينما تفشل بعضها الآخر فشلاً ذريعاً (أيضاً وفقاً للمعايير البشرية)، وليس من السهل دائماً التمييز بينهما».

وكتب أن هذا يختلف عن الدماغ البشري، «حيث تترابط كثير من المعارف وقدرات حل المشكلات ترابطاً وثيقاً وتتحسن بشكل خطي معاً، من الولادة إلى البلوغ».

التأثير على الوظائف

منذ أن بدأت «أوبن أيه آي» في مجال الذكاء الاصطناعي. مع ازدهار قطاع التكنولوجيا في عام 2022، تذبذبت تصريحات المسؤولين التنفيذيين في شركات التكنولوجيا بين التحذير من أن ابتكاراتهم الجديدة قد يكون لها تأثير مدمّر على وظائف ذوي الياقات البيضاء، والتقليل من شأن تأثيرها طويل الأمد على التوظيف.

حتى الآن، وخارج قطاع التكنولوجيا، لا توجد سوى أدلّة متفرقة تشير إلى أن الذكاء الاصطناعي أصبح سبباً في فقدان الوظائف. ولكن بالنظر إلى سرعة تطور هذه التكنولوجيا، يرى العديد من خبراء التكنولوجيا أن مسألة استبدال الذكاء الاصطناعي لأنواع أخرى من العاملين في وظائف ذوي الياقات البيضاء ليست مسألة «هل سيحدث ذلك؟»، بل «متى سيحدث؟».

قبل بضع سنوات فقط، كانت هذه الأنظمة لا تزال في بداياتها، تُظهر مهارات برمجية بدائية للغاية. يقول أليكس إيماس، الخبير الاقتصادي في كلية بوث للأعمال بجامعة شيكاغو: «لقد شهدت هذه الأنظمة تحسينات هائلة. في كل مرة يُطرَح فيها إصدار جديد رئيسي، يُفاجأ الناس بقدراته الهائلة». لكن التكنولوجيا التي تُضيف إلى ما يمكن للعاملين القيام به دون استبدالهم لها سوابق كثيرة، وهذا ما يتوقعه بعض باحثي الذكاء الاصطناعي والاقتصاديين.

أهمية العنصر البشري

منذ ستينات القرن الماضي، كانت الآلة الحاسبة الجيبية قادرة على الجمع والطرح والضرب بسرعة تفوق سرعة الإنسان بكثير. لكن هذا لم يكن يعني أن الآلة الحاسبة يمكن أن تحل محل المحاسب. أما الآن؛ فبإمكان أنظمة مثل «كلود» من أنثروبيك و«كودكس» من «أوبن إيه آي» كتابة برامج حاسوبية بسرعة أكبر بكثير أيضاً. لكنها لا تجيد فهم كيفية اندماج كل جزء من الرموز الكومبيوترية في تطبيق برمجي أكبر؛ فهي تحتاج إلى مساعدة بشرية في ذلك.

يقول الدكتور إيماس: «إذا كانت الوظيفة تتضمن مجموعة من المهام المختلفة - ومعظم الوظائف كذلك - فستتم أتمتة بعض المهام، بينما لن تُؤتمت أخرى. وفي هذه الحالة، قد يتوفر للعامل وقت أطول للقيام بأمور أهم».

في الشهر الماضي، أطلق فرانسوا شوليه، الباحث البارز في مجال الذكاء الاصطناعي، اختباراً رقمياً جديداً يُسمى «ARC-AGI 3»، ويطلب الاختبار حلولاً لمئات الألغاز الشبيهة بالألعاب دون تقديم أي تعليمات لحلها. يستطيع أي شخص عادي غير مُدرَّب حل جميع الألغاز، لكن أنظمة الذكاء الاصطناعي الرائدة تعجز عن إتقان أي منها، وفقاً لاختبارات أجراها شوليه.

يقول خبراء مثل شوليه إنه بمجرد أن يُدرك الناس أن الذكاء الاصطناعي ذكاء غير مُتطوّر، فإنهم يُطوّرون فهماً أفضل لكيفية تطوّر الذكاء الاصطناعي في السنوات المقبلة، وما قد يكون له من تأثير على سوق العمل. ويقول الدكتور إيماس: «سيعتمد هذا على المهام التي يُؤتمتها، وكيف ومتى».

حدود نتاجات الذكاء الاصطناعي

إن نظم الذكاء الاصطناعي، مثل «كلود» و«تشات جي بي تي» تتعلم مهاراتها، من خلال تحديد الأنماط في البيانات الرقمية، بما في ذلك مقالات ويكيبيديا، والأخبار، وبرامج الحاسوب، وغيرها من النصوص المُجمّعة من الإنترنت.. لكن هذا لا يكفي.

لا تُمثّل الإنترنت سوى جزء ضئيل من المعرفة البشرية، فهي تُسجّل ما يفعله الناس في العالم الرقمي، ولكنها تحتوي على معلومات قليلة نسبياً عمّا يحدث في العالم المادي.

لا تخطيط ولا أفكار جديدة

وهذا يعني أن هذه الأنظمة قادرة على كتابة رسائل البريد الإلكتروني، والإجابة عن الأسئلة، والتعليق على أي موضوع تقريباً، وتوليد رموز برمجية. ولكن نظراً لأن أنظمة الذكاء الاصطناعي تُعيد إنتاج الأنماط التي تجدها في البيانات الرقمية، فإنها لا تُجيد التخطيط المُسبق، أو توليد أفكار جديدة، أو التعامل مع مهام لم تُصادفها من قبل.

* لا يمتلك الذكاء الاصطناعي ذكاءً عاماً بل مجموعة واسعة من المهارات المختلفة*

يقول شوليه: «لا يمتلك الذكاء الاصطناعي ذكاءً عاماً، بل يمتلك مجموعة واسعة من المهارات المختلفة».

والآن، تُعلّم شركات مثل «أنثروبيك» و«أوبن ايه آي» هذه الأنظمة مهارات إضافية باستخدام تقنية تُسمى التعلّم المُعزّز. فمن خلال حلّ آلاف المسائل الرياضية، على سبيل المثال، يُمكنها تعلّم أيّ الطرق تُؤدي إلى الإجابة الصحيحة وأيّها لا تُؤدي إليها.

«نعم» في الرياضيات... «لا» في الكتابة الإبداعية

يُجدي هذا الأسلوب نفعاً في مجالاتٍ كالرياضيات وبرمجة الحاسوب، حيث تستطيع شركات الذكاء الاصطناعي تحديد السلوك الجيد والسيئ بوضوح؛ فإجابة المسألة الرياضية إما صحيحة أو خاطئة، وكذلك الأمر بالنسبة لبرنامج الحاسوب، فإما أن يجتاز اختبار الأداء أو يفشل.

لكن التعلم المعزز لا يُجدي نفعاً في مجالاتٍ كالكتابة الإبداعية أو الفلسفة أو حتى بعض العلوم، حيث يصعب التمييز بين الجيد والسيئ.

يقول جوشوا غانز، الخبير الاقتصادي في كلية روتمان للإدارة بجامعة تورنتو: «البرمجة - التي يُبدي الجميع حماساً لها حالياً - لا تُمثل كل ما يفعله الذكاء الاصطناعي. ففي البرمجة، يسهل استخدام حلقة التغذية الراجعة لتحديد ما يُجدي وما لا يُجدي».

تطور التكنولوجيا

أما بالنسبة للمستخدمين؛ فغالباً ما يصعب عليهم تحديد ما يُجيده الذكاء الاصطناعي وما لا يُجيده. وعندما يُدرك الناس تماماً نقاط قوة وضعف الأنظمة، تتغير التكنولوجيا.

قال الدكتور غانز: «إنّ عدم استقرار الذكاء الاصطناعي يعني أن المشكلات قد تنشأ من أي مكان. هناك ثغرات، ولا نعرف دائماً أين تكمن». لكن العامل الحاسم هو أن الذكاء الاصطناعي يتطور بسرعة. فالعديد من نقاط الضعف التي أشار إليها الدكتور كارباثي وآخرون في عامي 2024 وبداية 2025 لم تعد موجودة. وستكتشف الشركات أوجه قصور أخرى وتعمل على إصلاحها أيضاً... لذا فان «ثغرات التكنولوجيا تتقلص»، كما قال الدكتور إيماس.

* خدمة «نيويورك تايمز».


منصة فضائية بأذرع آلية لتزويد الأقمار الاصطناعية بالوقود

منصة «ميدنايت» من شركة «إم دي إيه»
منصة «ميدنايت» من شركة «إم دي إيه»
TT

منصة فضائية بأذرع آلية لتزويد الأقمار الاصطناعية بالوقود

منصة «ميدنايت» من شركة «إم دي إيه»
منصة «ميدنايت» من شركة «إم دي إيه»

يبدو أن الجميع يطمح للسيطرة على الفضاء. ولكن المشكلة تتمثل في أنه وكلما زاد عدد الأقمار الاصطناعية التي تطلقها الجيوش وتعتمد عليها، ازدادت الحاجة إلى نظام رقابي فعَّال لحماية تلك الأقمار، كما كتبت لورين سي. ويليامز(*).

منصة دعم فضائية

وهنا يأتي دور نظام جديد لقمر اصطناعي مزود بذراع آلية قادرة على تزويد الأقمار بالوقود اللازم: منصة«ميدنايت» من شركة «إم دي إيه» MDA Midnight الكندية هذه، التي كُشف عنها النقاب في ندوة الفضاء في كولورادو هذا الأسبوع. وقالت هولي جونسون، نائبة رئيس قسم الروبوتات والعمليات الفضائية في الشركة، لموقع «ديفنس وان»: «يستطيع هذا القمر الاصطناعي المزوَّد بذراع آلية، الاقتراب من السفن الفضائية الأخرى لفحصها، ومراقبة محيطها، واستكشاف الأجسام المقتربة، والدفاع ضد التهديدات المحتملة عند الحاجة».

التزويد بالوقود بسلامة

وأضافت جونسون أن هذه المنصة تستطيع أيضاً تزويد الأقمار الاصطناعية الأخرى بالوقود باستخدام ذراعه مع الحفاظ على مسافة آمنة من القمر الاصطناعي الذي يحتاج إلى التزويد بالوقود، وضمان استمرارية عمله.

وتابعت: «يتصل الذراع بواجهة تزويد الأقمار الاصطناعية بالوقود، بينما ستعوِّض الروبوتات معدلات الانحراف النسبي لهاتين المنصتين، لتأمين تزوبد القمر الاصطناعي بالوقود بسلاسة تامة».

10 آلاف قمر اصطناعي

وأضافت جونسون: «هناك مساعٍ حثيثة للحصول على مزيد من المعلومات حول الأجسام الموجودة في الفضاء - بما في ذلك ما يزيد عن 10 آلاف قمر اصطناعي - وما تقوم به، ومن يملكها، وأي تهديدات محتملة... ولكن الجزء المفقود من الوعي بالمجال الفضائي كان القدرة على اتخاذ أي إجراء حيال ذلك».

التنافس مع الصين

يأتي إطلاق هذا المنتج بعد أن أعرب الجنرال ستيفن وايتينغ قائد القيادة الفضائية الأميركية عن مخاوفه بشأن تجارب الصين الأخيرة في تزويد الأقمار الاصطناعية بالوقود؛ كما شدَّد في الآونة الأخيرة على ضرورة القدرة على نقل الأقمار الاصطناعية.

وقال وايتينغ أمام لجنة القوات المسلحة بمجلس الشيوخ الشهر الماضي: «ما يقلقني هو أنه إذا طوَّروا هذه القدرة، فسيكون لديهم القدرة على المناورة لتحقيق التفوق كما فعلت الولايات المتحدة لعقود - براً وبحراً وجوَّاً - حيث استخدمنا المناورة لصالحنا». وأضاف: «نحن بحاجة إلى تطوير قدراتنا الخاصة في حرب المناورة لضمان قدرتنا على الاستفادة من المزايا التي طوَّرتها القوات المشتركة على مدى عقود في الفضاء، كما فعلنا في مجالات أخرى».

* مجلة «ديفنس وان»، خدمات «ترييون ميديا».