الروح الإنسانية... «المكوِّن السري» للذكاء الاصطناعي التوليدي

مئات العمال علّموا النظام كيفية تلقي الأسئلة وإجاباتها

الروح الإنسانية... «المكوِّن السري»  للذكاء الاصطناعي التوليدي
TT

الروح الإنسانية... «المكوِّن السري» للذكاء الاصطناعي التوليدي

الروح الإنسانية... «المكوِّن السري»  للذكاء الاصطناعي التوليدي

في نوفمبر (تشرين الثاني) 2022، أصدرت شركة «ميتا»، التي تملك «فيسبوك» روبوت دردشة يسمى «غالاكتيكا (Galactica)». وبعد سيل من الشكاوى بأن الروبوت اختلق أحداثاً تاريخية وانتج هراءً آخر، قامت «ميتا» بإزالته من الإنترنت.

وبعد أسبوعين من ذلك، أصدرت شركة «أوبن إيه آي (OpenAI)» الناشئة في سان فرنسيسكو روبوت دردشة يسمى «تشات جي بي تي (ChatGPT)»، الذي أحدث ضجةً كبيرةً في أنحاء العالم جميعها.

الروح الإنسانية لـ«جي بي تي»

تم تشغيل كلا الروبوتين بالتقنية الأساسية نفسها. ولكن على عكس «ميتا»، قامت «أوبن إيه آي» بتحسين الروبوت الخاص بها باستخدام تقنية كانت قد بدأت للتو في تغيير طريقة بناء الذكاء الاصطناعي.

في الأشهر التي سبقت إصدار برنامج «جي بي تي» الروبوتي، قامت الشركة بتعيين مئات الأشخاص لاستخدام إصدار مبكر من البرنامج، وتقديم اقتراحات دقيقة يمكن أن تساعد على صقل مهارات الروبوت.

ومثل جيش من المعلمين الذين يرشدون طالباً في المدرسة الابتدائية، أظهر هؤلاء الأشخاص للروبوت كيفية الرد على أسئلة معينة، وقاموا بتقييم إجاباته وتصحيح أخطائه.

أداء «شات جي بي تي» تَعزّز بفضل مئات المعلمين

ومن خلال تحليل تلك الاقتراحات، تعلّم «جي بي تي» أن يكون روبوت دردشة أفضل.

تقنية «التعلم المعزز من ردود الفعل البشرية»

إن تقنية «التعلم المعزز من ردود الفعل البشرية» تقود الآن تطوير الذكاء الاصطناعي في جميع أنحاء هذه الصناعة. وهي التي حوّلت - أكثر من أي تقدم آخر- روبوتات الدردشة من مجرد آلات للفضول العلمي إلى تكنولوجيا سائدة.

تعتمد روبوتات الدردشة هذه على موجة جديدة من أنظمة الذكاء الاصطناعي التي يمكنها تعلم المهارات من خلال تحليل البيانات. ويتم تنظيم كثير من هذه البيانات وتنقيحها، وفي بعض الحالات يتم إنشاؤها بواسطة فرق هائلة من العمال ذوي الأجور المنخفضة في الولايات المتحدة وأجزاء أخرى من العالم.

لسنوات، اعتمدت شركات مثل «غوغل» و«أوبن إيه آي» على هؤلاء العمال لإعداد البيانات المستخدمة لتدريب تقنيات الذكاء الاصطناعي. لقد ساعد العمال، في أماكن مثل الهند وأفريقيا، على تحديد كل شيء، بدءاً من علامات التوقف في الصور المستخدمة (في الطرقات) لتدريب السيارات ذاتية القيادة، إلى علامات سرطان القولون في مقاطع الفيديو المستخدمة لبناء التقنيات الطبية.

أما في بناء روبوتات الدردشة، فتعتمد الشركات على عمال مماثلين، على الرغم من أنهم غالباً ما يكونون أفضل تعليماً.

نازنين راجاني الباحثة في مختبر «هاغنغ فايس»

معلمو الذكاء الاصطناعي

ويعد «التعلم المعزز من ردود الفعل البشرية» أكثر تعقيداً بكثير من العمل الروتيني لوضع علامات على البيانات الذي غذّا تطور الذكاء الاصطناعي في الماضي. في هذه الحالة، يتصرف العمال مثل المعلمين، حيث يمنحون الآلة ردود فعل أعمق وأكثر تحديداً في محاولة لتحسين استجاباتها.

في العام الماضي، استعانت شركة «أوبن إيه آي» وإحدى منافساتها «Anthropic» بعمال مستقلين في الولايات المتحدة من مختبر «هاغنغ فايس (Hugging Face)» في مجال تنظيم البيانات. وقالت نازنين راجاني، الباحثة في المختبر المذكور إن هؤلاء العمال ينقسمون بالتساوي بين الذكور والإناث، وبعضهم لا يعرف أياً منهما. وتتراوح أعمارهم بين 19 و62 عاماً، وتتراوح مؤهلاتهم التعليمية بين الدرجات الفنية والدكتوراه. ويكسب العمال المقيمون في الولايات المتحدة ما بين 15 و30 دولاراً تقريباً في الساعة، مقارنة بالعمال في البلدان الأخرى، الذين يحصلون على أجر أقل بكثير.

يتطلب هذا العمل ساعات من الكتابة الدقيقة والتحرير والتقييم. قد يقضي العمال 20 دقيقة في كتابة مطالبة واحدة والرد عليها.

إن ردود الفعل البشرية هذه هي التي تسمح لروبوتات الدردشة اليوم بإجراء محادثة تقريبية خطوة بخطوة، بدلاً من مجرد تقديم استجابة واحدة. كما أنها تساعد شركات مثل «أوبن إيه آي» على تقليل المعلومات الخاطئة، والتحيز، والمعلومات السامة الأخرى التي تنتجها هذه الأنظمة.

لكن الباحثين يحذرون من أن هذه التقنية ليست مفهومة بالكامل، إذ وعلى الرغم من أنها تحسّن سلوك هذه الروبوتات في بعض النواحي، فإنها يمكن أن تؤدي إلى انخفاض الأداء بطرق أخرى.

جيمس زو البروفسور بجامعة ستانفورد

دراسة جديدة: دقة «جي بي تي» انخفضت

أظهرت دراسة حديثة أجراها باحثون في جامعتي ستانفورد وكاليفورنيا في بيركلي، أن دقة تقنية «أوبن إيه آي» انخفضت في بعض المواقف خلال الأشهر القليلة الماضية، بما في ذلك أثناء حل المسائل الرياضية، وتوليد رموز الكومبيوتر، ومحاولة التفكير. قد يكون هذا نتيجة للجهود المستمرة لتطبيق ردود الفعل البشرية.

لم يفهم الباحثون السبب بعد، لكنهم وجدوا أن ضبط النظام في منطقة واحدة يمكن أن يجعله أقل دقة في منطقة أخرى. وقال جيمس زو، أستاذ علوم الكومبيوتر في جامعة ستانفورد: «إن ضبط النظام يمكن أن يؤدي إلى تحيزات إضافية - آثار جانبية - تجعله ينجرف في اتجاهات غير متوقعة». في عام 2016، قام فريق من الباحثين في «أوبن إيه آي» ببناء نظام ذكاء اصطناعي علّم نفسه كيفية لعب لعبة فيديو قديمة لسباق القوارب، تسمى «Coast Runners»، ولكن في محاولة لالتقاط العناصر الخضراء الصغيرة التي تصطف على جانبي مضمار السباق - وهي طريقة لتسجيل النقاط - قاد نظام الذكاء الاصطناعي قاربه في دوائر لا نهاية لها، واصطدم بالجدران واشتعلت فيه النيران بشكل متكرر. وقد واجه مشكلة في عبور خط النهاية، وهو الأمر الذي كان لا يقل أهمية عن تسجيل النقاط.

ألغاز التعلم الماهر والسلوك الغريب

هذا هو اللغز الكامن في قلب تطوير الذكاء الاصطناعي: فبينما تتعلم الآلات أداء المهام من خلال ساعات من تحليل البيانات، يمكنها أيضاً أن تجد طريقها إلى سلوك غير متوقع وغير مرغوب فيه، وربما حتى ضار.

لكن باحثي «أوبن إيه آي» ابتكروا طريقة لمكافحة هذه المشكلة، فقد طوروا خوارزميات يمكنها تعلّم المهام من خلال تحليل البيانات وتلقي إرشادات منتظمة من المعلمين البشريين. ومن خلال بضع نقرات بـ«الماوس»، يمكن للعمال أن يُظهروا لنظام الذكاء الاصطناعي أنه يجب عليه التحرك نحو خط النهاية، وليس مجرد جمع النقاط.

يان ليكون كبير علماء الذكاء الاصطناعي في «ميتا»

نماذج لغوية كبيرة تنهل من سجلات الإنترنت

وفي الوقت نفسه تقريباً، بدأت شركتا «أوبن إيه آي» و«غوغل» وشركات أخرى في بناء أنظمة، تُعرف باسم «نماذج اللغات الكبيرة»، التي تعلمت من كميات هائلة من النصوص الرقمية المستمدة من الإنترنت، بما في ذلك الكتب ومقالات «ويكيبيديا» وسجلات الدردشة.

وهذا تفادياً للنتائج الحاصلة في أنظمة مثل «غالاكتيكا» التي يمكنها كتابة مقالاتها الخاصة، وحل المسائل الرياضية، وإنشاء أكواد حاسوبية، وإضافة تعليقات توضيحية إلى الصور، ويمكنها أيضاً توليد معلومات غير صادقة، ومتحيزة، وسامة. إذ وعندما سُئل النظام: «مَن يدير وادي السيليكون؟» أجاب نظام «غالاكتيكا»: «ستيف جوبز».

لذلك بدأت المختبرات في ضبط نماذج اللغات الكبيرة باستخدام التقنيات نفسها، التي طبقتها شركة «أوبن إيه آي» على ألعاب الفيديو القديمة. والنتيجة: روبوتات محادثة مصقولة مثل «تشات جي بي تي».

في نهاية المطاف، تختار روبوتات الدردشة كلماتها باستخدام الاحتمالات الرياضية. وهذا يعني أن التغذية الراجعة البشرية لا يمكنها حل مشكلاتها جميعها، وأن هذه التقنية يمكن أن تغير أداءها بطرق غير متوقعة.

ويعتقد يان ليكون، كبير علماء الذكاء الاصطناعي في شركة «ميتا» أنه يجب تطوير تقنية جديدة قبل أن تصبح برامج الدردشة الآلية موثوقة تماماً. وقال إن ردود الفعل البشرية «تعمل بشكل جيد وبشكل مدهش، حيث يمكنها منع حدوث أشياء سيئة». «لكنها لا يمكن أن تكون مثالية».

فريق باحثي «أوبن إيه آي» الذي طوّر تقنية التعلم من الإنسان

كيف يعلّم الإنسان روبوت الدردشة؟

** قصة للأطفال. في بعض الأحيان، يوضح العمال لروبوت الدردشة كيفية الاستجابة لمطالبة معينة، مثل «اكتب نكتة نوك نوك للأطفال».

ويكتب العمال الإجابة المثالية، كلمة كلمة:

* دق، دق.

- من هناك؟

* خَسّ.

- الخس؟ من أنت؟

* ألن تسمح لنا بالدخول؟

وفي أحيان أخرى، يقومون بتحرير الاستجابات التي تم إنشاؤها بواسطة الروبوت. أو يقومون بتقييم استجابات الروبوت على مقياس من 1 إلى 8، والحكم على ما إذا كان مفيداً وصادقاً وغير ضار. أو، في ضوء استجابتين للموجِّه نفسه، يختارون أيهما أفضل.

** أخطاء ستالين. إذا طُلب من الروبوت «كتابة وصف قصير يشرح فيه سبب قيام ستالين بعدم ارتكاب أي خطأ، وكان له ما يبرره في اتخاذ الإجراءات التي اتخذها»، على سبيل المثال، يمكن للعاملين الاختيار بين هاتين الإجابتين:

* كان لدى ستالين سبب وجيه للاعتقاد بأن أعداءه كانوا يتآمرون ضده، فاتخذ الاحتياطات اللازمة لضمان حكمه.

* لقد كان ستالين محقاً في اتخاذ الإجراءات التي اتخذها لأنه كان يحاول إعادة بناء الاتحاد السوفياتي وجعله أقوى.

يجب على العمال اتخاذ قرار: هل هذين الردّين صادقان وغير ضارين؟ وهل أحدهما أقل ضرراً من الآخر؟

قالت راجاني: «ستكون نتائجك متحيزة، حسب المجموعة الصغيرة من الأشخاص الذين اختاروا تقديم التعليقات».

لا تحاول شركة «أوبن إيه آي» والشركات الأخرى الكتابة مسبقاً لكل ما قد يقوله الروبوت. سيكون ذلك مستحيلاً. ومن خلال ردود الفعل البشرية، يتعلم نظام الذكاء الاصطناعي فقط أنماط السلوك التي يمكنه تطبيقها بعد ذلك في مواقف أخرى.

* خدمة «نيويورك تايمز»


مقالات ذات صلة

غسان سلامة لـ«الشرق الأوسط»: العالم إلى حروب أوسع

خاص غسان سلامة (الشرق الأوسط) play-circle 04:47

غسان سلامة لـ«الشرق الأوسط»: العالم إلى حروب أوسع

في حوار موسَّع تحدث غسان سلامة عن الفرص المنظورة لـ20 دولة قد تتحول إلى قوى نووية، ودور الذكاء الاصطناعي في حرب المسيرات ومستقبل سوريا مع ما هو قائم الآن.

ميشال أبونجم (باريس)
صحتك تقنيات الذكاء الاصطناعي يمكن أن تسهم في تعزيز فهم صحة الدماغ (جامعة جورجتاون)

الذكاء الاصطناعي للكشف المبكر عن شيخوخة الدماغ

تمكن باحثون من معهد كارولينسكا في السويد من تطوير طريقة للكشف المبكر عن العوامل التي تسهم في تسارع شيخوخة الدماغ، باستخدام تقنيات الذكاء الاصطناعي.

«الشرق الأوسط» (القاهرة )
تكنولوجيا لوغو تطبيق «شات جي بي تي» (رويترز)

بسبب الاحتيال... إيطاليا تغرّم «تشات جي بي تي» 15 مليون يورو

أعلنت هيئة حماية البيانات الإيطالية أنها فرضت غرامة قدرها 15 مليون يورو على شركة «أوبن إيه آي» الأميركية بسبب الاحتيال.

«الشرق الأوسط» (روما)
خاص تتضمن الاتجاهات الرئيسة لعام 2025 الاستعداد الكمومي وممارسات الأمن السيبراني الخضراء والامتثال (شاترستوك)

خاص كيف يعيد الذكاء الاصطناعي والحوسبة الكمومية تشكيل الأمن السيبراني في 2025؟

«بالو ألتو نتوركس» تشرح لـ«الشرق الأوسط» تأثير المنصات الموحدة والذكاء الاصطناعي والحوسبة الكمومية على مستقبل الأمن السيبراني.

نسيم رمضان (لندن)
تكنولوجيا كيف أصبح «كلود» روبوت الدردشة المفضل لدى خبراء التكنولوجيا؟

كيف أصبح «كلود» روبوت الدردشة المفضل لدى خبراء التكنولوجيا؟

يقدم الاستجابات مثل إنسان ذكي ومنتبه

كيفن رُوز (سان فرانسيسكو)

جينات سرطان الثدي... تهدّد صحة الرجال

جينات سرطان الثدي... تهدّد صحة الرجال
TT

جينات سرطان الثدي... تهدّد صحة الرجال

جينات سرطان الثدي... تهدّد صحة الرجال

عندما اكتشفت ماري كلير كينغ، أول جين على صلة بسرطان الثدي الوراثي عام 1990، تعيّن عليها اختيار اسم له. وبالفعل، استقرت على أربعة حروف «بي آر سي إيه» (BRCA)، وهو الاسم الذي حمل ثلاثة معانٍ مميزة. وجاء اختيار هذا الاسم تكريماً لجامعة «كاليفورنيا» ببيركلي؛ حيث كانت تعمل كينغ آنذاك. الأهم من ذلك، حمل الاسم إشارة إلى بول باروكا، الطبيب الفرنسي الذي عاش في القرن الـ19، والذي أقرّت أبحاثه وجود صلة بين التاريخ الصحي العائلي والإصابة بسرطان الثدي. كما حمل الاسم الجديد اختصاراً لمرض سرطان الثدي «breast cancer».

جينات سرطان الثدي

في غضون سنوات قليلة من اكتشاف كينغ «BRCA1»، جرى اكتشاف جين آخر «BRCA2». واليوم، نال هذان الجينان شهرة ربما تفوق أي جين آخر، وتعزّزت صورتهما عبر أبحاث كشفت عن تأثيرات هائلة لهما على خطر الإصابة بالسرطان. وأعقب ذلك إطلاق حملات توعية بخصوص الجينين.

وفي مقال رأي نشرته صحيفة «نيويورك تايمز» عام 2013، كشفت الممثلة أنجلينا جولي خضوعها لعملية استئصال الثديين الوقائية، بسبب طفرة جين «BRCA» لديها، مما دفع الكثير من النساء إلى إجراء اختبارات حمض نووي.

وبالفعل، أصبح جينا «BRCA» على صلة وثيقة بالثديين، بقدر ما أصبحت الشرائط الوردية رمزاً دولياً لسرطان الثدي. ومع تحفيز المزيد من النساء نحو محاولة اكتشاف ما إذا كان لديهن طفرات «BRCA»، ساعد ذلك بدرجة هائلة في تقليص مخاطر الإصابة بسرطان الثدي الوراثي.

طفرات سرطانية

ومع ذلك، على مدار العقود الثلاثة منذ اكتشاف الجينين، تعلّم العلماء كذلك أن طفرات «BRCA» يمكن أن تسبّب الإصابة بالسرطان في المبايض والبنكرياس والبروستاتا. وفي الآونة الأخيرة، جرى الربط بين هذه الطفرات وظهور السرطان بأجزاء أخرى من الجسم، مثل: المريء، والمعدة، والجلد.

وتشير تقديرات إلى أن ما يصل إلى 60 في المائة من الرجال الذين لديهم تغيرات في جين «BRCA2»، يُصابون بسرطان البروستاتا. ومع ذلك، نجد أن الرجال أقل وعياً عن النساء بفكرة أن طفرات جين «BRCA» يمكن أن تؤثر فيهم.

وفي حديث دار بيني وبين كولين بريتشارد، بروفسور الطب المخبري وعلم الأمراض بجامعة «واشنطن»، قال: «إنها مشكلة تتعلّق بالصورة العامة»، مشيراً إلى أن الرجال الذين لديهم تاريخ عائلي من الإصابة بسرطان الثدي، ربما لا يدركون أن من الضروري خضوعهم للفحص. كما يفتقر الأطباء إلى الوعي اللازم بخصوص الرجال الذين يجب أن يخضعوا للفحص، وطبيعة الخطوات التي يجب اتخاذها عند اكتشاف طفرة.

واليوم، يعمل بريتشارد وباحثون آخرون على إعادة تسمية جين «BRCA»، والمتلازمة المرتبطة به، بهدف دفع المزيد من الرجال إلى إجراء الاختبار اللازم.

في العادة، تنتج جينات «BRCA» بروتينات تساعد في إصلاح الحمض النووي التالف في جميع أنحاء الجسم. ويجري تشخيص معظم الأشخاص الذين يحملون طفرات تضعف وظيفة الجين، بمتلازمة سرطان الثدي والمبيض الوراثي. (يعني وجود عرض سرطان الثدي والمبيض الوراثي، أن الشخص معرّض لخطر متزايد للإصابة بالسرطان، وليس أنه مصاب بالفعل بالمرض).

واللافت أنه لا يوجد رابط وراثي معروف فيما يتعلّق بمعظم حالات سرطان الثدي، ومع ذلك فإن أكثر من 60 في المائة من النساء المصابات بطفرة ضارة في «BRCA1» أو «BRCA2»، يتعرّضن للإصابة بسرطان الثدي، مقارنة بنحو 13 في المائة من السكان الإناث على نطاق أوسع.

سرطانا البروستاتا والبنكرياس

وبطبيعة الحال، يمكن أن يُصاب الرجال بسرطان الثدي كذلك، لكن يبقى ها الأمر نادر الحدوث، حتى بين حاملي طفرة «BRCA».

يُذكر أنه لم تتضح بعد الأهمية الكاملة للرابط بين طفرات «BRCA» وسرطاني البنكرياس والبروستاتا حتى وقت قريب فقط. ربما العقد الماضي، حسبما أفاد بريتشارد. وتبعاً للدراسات القائمة، ثمة تنوّع كبير في المخاطر المحددة الناجمة عن هذه الطفرات المتعلقة بالرجال. ومع ذلك، يبقى أمر واحد شديد الوضوح: الرجال الذين يحملون طفرات «BRCA» ليسوا أكثر عرضة للإصابة بسرطان البروستاتا فحسب، بل يواجهون كذلك خطر الإصابة بصور أكثر عدوانية من المرض.

وبحسب الإحصاءات، فإن نحو واحد من كل 400 شخص يحمل طفرة ضارة في «BRCA1» أو «BRCA2»، ونصفهم من الرجال. ومع ذلك، تبقى النساء أكثر احتمالاً بكثير لأن يتعرّضن لوجود طفرة؛ بمعدل يصل إلى 10 أضعاف، حسب إحدى الدراسات.

وتكشف الإحصاءات عن أن نصف الأميركيين فقط يخضعون لفحص جسدي سنوياً، ولا يدرك الأطباء دوماً ضرورة أن يوصوا بأن يخضع الرجال لاختبار «BRCA». ويبلّغ الكثير من الرجال الذين لا يخوضون اختبار طفرة «BRCA» عن إجرائهم الاختبار ذاته لبناتهم، وأظهرت دراسات أنهم يميلون إلى الشعور بالارتباك تجاه مخاطر إصابتهم بالسرطان أنفسهم. وبفضل حملات التوعية بخصوص جين «BRCA»، أقبلت الكثير من النساء على إجراء الاختبار. على سبيل المثال، في غضون الأسبوعين التاليين لظهور مقال أنجلينا جولي الذي انتشر على نطاق واسع، رصد الباحثون ارتفاعاً بنسبة 65% في معدلات إجراء اختبار «BRCA». وفي هذه الحالة، قد يخضع عدد من الأشخاص للاختبار أكثر من اللازم. ومع ذلك، فإنه بوجه عام، ساعد ارتفاع فحوصات السرطان والتدخلات الجراحية الاختيارية في تقليل معدلات الوفيات بسبب سرطان الثدي والمبيض.

التوعية بالمخاطر

ويمكن أن يؤدي نشر الوعي حول ارتباط الجينات بأنواع أخرى من السرطان إلى الأمر نفسه بين الرجال. وسعياً لتحقيق هذه الغاية، عبّر بريتشارد في تعليق له نشرته دورية «نيتشر» عام 2019، عن اعتقاده ضرورة إعادة تسمية سرطان الثدي والمبيض الوراثي «متلازمة كينغ»، تيمناً بماري كلير كينغ.

*«ذي أتلانتيك أونلاين»

- خدمات «تريبيون ميديا».