هل يقتل الذكاء الصناعي إبداع الباحثين؟

«تشات جي بي تي» يشارك في كتابة الأبحاث العلمية

مخاوف من «الفبركة» العلمية بمساعدة برنامج «تشات جي بي تي»
مخاوف من «الفبركة» العلمية بمساعدة برنامج «تشات جي بي تي»
TT

هل يقتل الذكاء الصناعي إبداع الباحثين؟

مخاوف من «الفبركة» العلمية بمساعدة برنامج «تشات جي بي تي»
مخاوف من «الفبركة» العلمية بمساعدة برنامج «تشات جي بي تي»

من المعتاد أن يجد المهتمون بمتابعة الأبحاث العلمية قائمة بأسماء الباحثين المشاركين في الأبحاث، ووسائل تواصل خاصة بهم، لكن كانت المفاجأة التي أحدثت دوياً في الأوساط البحثية، أن إحدى الباحثات كتبت مقالة افتتاحية في إحدى الدوريات العلمية المتخصصة، وكان الباحث المشارك معها، هو برنامج الذكاء الصناعي «تشات جي بي تي».
نصوص ذكية
ويُنشئ «تشات جي بي تي» chatGPT نصاً واقعياً وذكياً استجابة لطلب المستخدم، وذلك عن طريق الشبكات العصبية التي تتعلم أداء مهمة عن طريق هضم كميات هائلة من النصوص الموجودة التي تم إنشاؤها بواسطة الإنسان، وأصدرت شركة البرمجيات «أوبن إيه آي»، ومقرها سان فرنسيسكو بأميركا، الأداة في 30 نوفمبر (تشرين الثاني)، وهي مجانية الاستخدام.
ومنذ صدور تلك الأداة، كان الباحثون يتصارعون حول القضايا الأخلاقية المحيطة باستخدامها؛ لأنه قد يكون من الصعب تمييز الكثير من مخرجاتها عن النص المكتوب من قِبل الإنسان، حتى جاءت الباحثة سيوبان أوكونور، من قسم التمريض والقبالة والخدمة الاجتماعية بكلية العلوم الصحية بجامعة مانشستر البريطانية، لتفاجئ الجميع بتحويل تلك الأداة إلى باحث مشارك في مقالتها البحثية المنشورة في عدد يناير (كانون الثاني) من دورية «نيرس إيدوكيشن إن براكتس»، تحت عنوان «فتح منصات ذكاء صناعي في تعليم التمريض: أدوات للتقدم الأكاديمي أم إساءة؟».
وبينما يرفض كثيرون تلك الخطوة من منطلق «مسؤولية المؤلف»؛ لأن تلك الأداة لا تستطيع تحمّل المسؤولية عن محتوى الأوراق العلمية وسلامتها، يرى آخرون أنها أصبحت واقعاً، ومن الأفضل تقنينها بدلاً من منعها.
وتميل الباحثة سيوبان أوكونور، صاحبة أول مقال بحثي مشترك مع تلك الأداة، إلى خيار التقنين، معتبرة في تصريحات لـ«الشرق الأوسط»، أن «الخطوة التي أقدمت عليها، أفضل بكثير من أن يحمل المقال اسمها بمفردها، بينما يكون لتلك الأداة دور كبير في كتابته».
وتقول: «على حد علمي كانت مقالتي هي أول مقالة منشورة في مجلة علمية لاستخدام (تشات جي بي تي) كمؤلف مشارك، ولكن هناك البعض الآخر على مواقع ما قبل طباعة الأبحاث تخضع لمراجعة الأقران في المجلات».
كان تعليق أوكونور لـ«الشرق الأوسط»، قبل صدور تصريحات مؤخراً لروجر واتسون، رئيس تحرير المجلة التي نشرت هذا المقال، والذي اعتذر فيه عن كتابة اسم «تشات جي بي تي» ضمن المؤلفين المشاركين بالدراسة. وقال في تصريحات لموقع «نيتشر»، إن كتابة اسم البرنامج ضمن قائمة المؤلفين مرّ عن طريق الخطأ وسيتم تصحيحه قريباً، وكان ذلك سهواً من جانبه؛ لأن المقالات الافتتاحية تمر بنظام إدارة مختلف عن الأوراق البحثية، ولكن لم يحدث حتى الآن ما وصفه واتسون بـ«الخطأ».
ربما يعكس هذا التصحيح الذي يعتزم رئيس التحرير تنفيذه، اتجاهاً يفضله البعض، وهو الاعتراف بمساهمة الذكاء الصناعي في كتابة الأوراق، على أن تتم كتابة ذلك في قائمة المراجع، وليس في قائمة المؤلفين، لكن ذلك -كما يرى طارق قابيل، الأستاذ في كلية العلوم بجامعة القاهرة- نوع من «التقنين الشرعي للفبركة».
يقول لـ«الشرق الأوسط»: «أثناء كتابة البحث العلمي غير مسموح لك باقتباسات كاملة من المراجع، وهناك نسبة مسموح بها للاقتباس، وتوجد برامج تكتشف ذلك، لكننا أمام أداة لا تقتبس، بل تكتب كما يكتب البشر».
برنامج «أصيل»
وتؤكد تجربة قام بها عدد من الباحثين من جامعة نورثوستيرن الأميركية، ما ذهب إليه قابيل، حيث طلبوا من البرنامج كتابة 50 ملخصاً بحثياً في مجال الطب، وكانت جميعها خالية من الاقتباس ومُقنعة جداً لدرجة أن 32 في المائة منها تم تصنيفها من قِبل المُراجعين على أنها أبحاث أصلية.
وفي تجربة أخرى، أجراها جوناثان تشوي، الأستاذ في كلية الحقوق بجامعة مينيسوتا الأميركية، خاض البرنامج الاختبار نفسه الذي أعدّه لطلابه، والذي يتكون من 95 سؤالاً متعدد الخيارات و12 سؤالاً مقالياً، وكانت الإجابات نموذجية.
والبرنامج بهذه الكيفية، يصفه قابيل، بأنه مثير للقلق؛ لأنه قد يكون أداة لإصدار أبحاث لا أساس لها من الصحة، والخطوة الأكبر عندما تكون هذه الأبحاث عن أدوية أو أمراض تصيب البشر.
وفي رأي قابيل، لا يوجد حل يبدو في الأفق لتجنب «الفبركة» بواسطة هذه الأداة؛ ذلك لأن الأدوات القائمة على الذكاء الصناعي تتطور يوماً بعد الآخر وتتعلم من أخطائها، والحل الوحيد هو أن يتم إنتاج برنامج أذكى منها، قادر على اكتشاف الأبحاث التي اعتمدت بشكل «غير علمي» على البرنامج.
وإلى أن يحدث ما يتمناه قابيل، يخشى رمزي عبد العزيز، الباحث في علوم وتكنولوجيا النانو بجامعة «آلتو» الفنلندية، من إسراف الباحثين في استخدام هذا البرنامج، قائلاً في تعليق كتبه على صفحته بموقع «فيسبوك»: «نصيحتي لكل الباحثين أن يكون استخدامكم للبرنامج قاصراً فقط على جمع المعلومات في وقت قياسي، لكن من الخطورة الاعتماد على لغته؛ لأنكم بذلك ستقتلون ملكات الإبداع والتعبير والتأليف تدريجياً».
واقترح عبد العزيز وسيلة لكشف فبركة الأبحاث باستخدامه، قائلاً: «البرنامج من المؤكد أنه يفتقد إلى التمييز والتنوع، بمعنى أنه لو افترضنا أن 50 شخصاً سألوا السؤال نفسه، فسوف يحصلون على الإجابة نفسها، وبالتالي يمكن أن تكون تلك الطريقة مناسبة لكشف الأبحاث التي اعتمدت عليه في الكتابة».
ولكن محمد جمعة -وهو أستاذ مساعد في علم العقاقير بجامعة لينكولن ميموريال الأميركية- علّق على اقتراح عبد العزيز، موضحاً أن ما ذهب إليه يجتنبه الصواب؛ لأن البرنامج لا يعطي الإجابة نفسها في كل مرة.
وإزاء هذا التوضيح، لا يوجد حل سوى انتظار أداة أذكى من «شات جي بي تي»، أو الاعتراف به كمؤلف مشارك في الدراسة، فقد «يكون ذلك أفضل بكثير من أن يحمل المقال اسم الباحث بمفرده، بينما يكون لتلك الأداة دور كبير في كتابته»، كما قالت سيوبان أوكونور في تصريحاتها لـ«الشرق الأوسط».


مقالات ذات صلة

علماء ينتجون «نموذج جنين بشري» في المختبر

علوم النموذج تم تطويره باستخدام الخلايا الجذعية (أرشيف - رويترز)

علماء ينتجون «نموذج جنين بشري» في المختبر

أنتجت مجموعة من العلماء هيكلاً يشبه إلى حد كبير الجنين البشري، وذلك في المختبر، دون استخدام حيوانات منوية أو بويضات.

«الشرق الأوسط» (لندن)
علوم الهياكل الشبيهة بالأجنة البشرية تم إنشاؤها في المختبر باستخدام الخلايا الجذعية (أرشيف - رويترز)

علماء يطورون «نماذج أجنة بشرية» في المختبر

قال فريق من الباحثين في الولايات المتحدة والمملكة المتحدة إنهم ابتكروا أول هياكل صناعية في العالم شبيهة بالأجنة البشرية باستخدام الخلايا الجذعية.

«الشرق الأوسط» (لندن)
علوم علماء يتمكنون من جمع حمض نووي بشري من الهواء والرمال والمياه

علماء يتمكنون من جمع حمض نووي بشري من الهواء والرمال والمياه

تمكنت مجموعة من العلماء من جمع وتحليل الحمض النووي البشري من الهواء في غرفة مزدحمة ومن آثار الأقدام على رمال الشواطئ ومياه المحيطات والأنهار.

«الشرق الأوسط» (نيويورك)
علوم صورة لنموذج يمثل إنسان «نياندرتال» معروضاً في «المتحف الوطني لعصور ما قبل التاريخ» بفرنسا (أ.ف.ب)

دراسة: شكل أنف البشر حالياً تأثر بجينات إنسان «نياندرتال»

أظهرت دراسة جديدة أن شكل أنف الإنسان الحديث قد يكون تأثر جزئياً بالجينات الموروثة من إنسان «نياندرتال».

«الشرق الأوسط» (لندن)
علوم دراسة تطرح نظرية جديدة بشأن كيفية نشأة القارات

دراسة تطرح نظرية جديدة بشأن كيفية نشأة القارات

توصلت دراسة جديدة إلى نظرية جديدة بشأن كيفية نشأة القارات على كوكب الأرض مشيرة إلى أن نظرية «تبلور العقيق المعدني» الشهيرة تعتبر تفسيراً بعيد الاحتمال للغاية.

«الشرق الأوسط» (لندن)

«مرايا» الذكاء الاصطناعي تعكس دواخلها «مع كل التحيزات»

«بوابة السحاب» مرآة تعكس الحياة وتشوهاتها
«بوابة السحاب» مرآة تعكس الحياة وتشوهاتها
TT

«مرايا» الذكاء الاصطناعي تعكس دواخلها «مع كل التحيزات»

«بوابة السحاب» مرآة تعكس الحياة وتشوهاتها
«بوابة السحاب» مرآة تعكس الحياة وتشوهاتها

قبل بضع سنوات، وجدت شانون فالور نفسها أمام تمثال «بوابة السحاب (Cloud Gate)»، الضخم المُصمَّم على شكل قطرة زئبقية من تصميم أنيش كابور، في حديقة الألفية في شيكاغو. وبينما كانت تحدق في سطحه اللامع المرآتي، لاحظت شيئاً، كما كتب أليكس باستيرناك (*).

وتتذكر قائلة: «كنت أرى كيف أنه لا يعكس أشكال الأفراد فحسب، بل والحشود الكبيرة، وحتى الهياكل البشرية الأكبر مثل أفق شيكاغو... ولكن أيضاً كانت هذه الهياكل مشوَّهة؛ بعضها مُكبَّر، وبعضها الآخر منكمش أو ملتوٍ».

الفيلسوفة البريطانية شانون فالور

تشويهات التعلم الآلي

بالنسبة لفالور، أستاذة الفلسفة في جامعة أدنبره، كان هذا يذكِّرنا بالتعلم الآلي، «الذي يعكس الأنماط الموجودة في بياناتنا، ولكن بطرق ليست محايدة أو موضوعية أبداً»، كما تقول. أصبحت الاستعارة جزءاً شائعاً من محاضراتها، ومع ظهور نماذج اللغة الكبيرة (والأدوات الكثيرة للذكاء الاصطناعي التي تعمل بها)، اكتسبت مزيداً من القوة.

مرايا الذكاء الاصطناعي مثل البشر

تبدو «مرايا» الذكاء الاصطناعي مثلنا كثيراً؛ لأنها تعكس مدخلاتها وبيانات التدريب، مع كل التحيزات والخصائص التي يستلزمها ذلك. وبينما قد تنقل القياسات الأخرى للذكاء الاصطناعي شعوراً بالذكاء الحي، فإن «المرآة» تعبير أكثر ملاءمة، كما تقول فالور: «الذكاء الاصطناعي ليس واعياً، بل مجرد سطح مسطح خامل، يأسرنا بأوهامه المرحة بالعمق».

غلاف كتاب «مرايا الذكاء الاصطناعي»

النرجسية تبحث عن صورتها

كتابها الأخير «مرآة الذكاء الاصطناعي (The AI Mirror)»، هو نقد حاد وذكي يحطِّم عدداً من الأوهام السائدة التي لدينا حول الآلات «الذكية». يوجه بعض الاهتمام الثمين إلينا نحن البشر. في الحكايات عن لقاءاتنا المبكرة مع برامج الدردشة الآلية، تسمع أصداء نرجس، الصياد في الأساطير اليونانية الذي وقع في حب الوجه الجميل الذي رآه عندما نظر في بركة من الماء، معتقداً بأنه شخص آخر. تقول فالور، مثله، «إن إنسانيتنا مُعرَّضة للتضحية من أجل هذا الانعكاس».

تقول الفيلسوفة إنها ليست ضد الذكاء الاصطناعي، لكي نكون واضحين. وسواء بشكل فردي، أو بصفتها المديرة المشارِكة لمنظمة «BRAID»، غير الربحية في جميع أنحاء المملكة المتحدة المكرسة لدمج التكنولوجيا والعلوم الإنسانية، قدَّمت فالور المشورة لشركات وادي السيليكون بشأن الذكاء الاصطناعي المسؤول.

نماذج «مسؤولة» ومختبرة

وهي ترى بعض القيمة في «نماذج الذكاء الاصطناعي المستهدفة بشكل ضيق والآمنة والمختبرة جيداً والمبررة أخلاقياً وبيئياً» لمعالجة المشكلات الصحية والبيئية الصعبة. ولكن بينما كانت تراقب صعود الخوارزميات، من وسائل التواصل الاجتماعي إلى رفاق الذكاء الاصطناعي، تعترف بأن ارتباطها بالتكنولوجيا كان مؤخراً «أشبه بالوجود في علاقة تحوَّلت ببطء إلى علاقة سيئة. أنك لا تملك خيار الانفصال».

فضائل وقيم إنسانية

بالنسبة لفالور، إحدى الطرق للتنقل وإرشاد علاقاتنا المتزايدة عدم اليقين بالتكنولوجيا الرقمية، هي الاستفادة من فضائلنا وقيمنا، مثل العدالة والحكمة العملية. وتشير إلى أن الفضيلة لا تتعلق بمَن نحن، بل بما نفعله، وهذا جزء من «صراع» صنع الذات، بينما نختبر العالم، في علاقة مع أشخاص آخرين. من ناحية أخرى، قد تعكس أنظمة الذكاء الاصطناعي صورة للسلوك أو القيم البشرية، ولكن كما كتبت في كتابها، فإنها «لا تعرف عن التجربة الحية للتفكير والشعور أكثر مما تعرف مرايا غرف نومنا آلامنا وأوجاعنا الداخلية».

الخوارزميات والعنصرية وعدم المساواة

في الوقت نفسه تعمل الخوارزميات المدربة على البيانات التاريخية، بهدوء، على تقييد مستقبلنا بالتفكير نفسه الذي ترك العالم «مليئاً بالعنصرية والفقر، وعدم المساواة، والتمييز، وكارثة المناخ».

«كيف سنتعامل مع تلك المشكلات الناشئة التي ليست لها سابقة؟»، تتساءل فالور، وتشير: «مرايانا الرقمية الجديدة تشير إلى الوراء».

الاعتماد على السمات البشرية المفيدة

مع اعتمادنا بشكل أكبر على الآلات، وتحسينها وفقاً لمعايير معينة مثل الكفاءة والربح، تخشى فالور أننا نخاطر بإضعاف عضلاتنا الأخلاقية أيضاً، وفقدان المسار للقيم التي تجعل الحياة تستحق العناء.

مع اكتشافنا لما يمكن أن يفعله الذكاء الاصطناعي، سنحتاج إلى التركيز على الاستفادة من السمات البشرية الفريدة أيضاً، مثل التفكير القائم على السياق والحكم الأخلاقي، وعلى تنمية قدراتنا البشرية المتميزة. كما تعلمون. وهي تقول: «لسنا بحاجة إلى هزيمة الذكاء الاصطناعي. نحن بحاجة إلى عدم هزيمة أنفسنا».

* مجلة «فاست كومباني» - خدمات «تريبيون ميديا»

اقرأ أيضاً