خوارزمية لاكتشاف المقالات العلمية المزيفة عبر الذكاء الاصطناعي

طورها باحثان في جامعة «بينغامبتون» الأميركية

يسعى الباحثون إلى تطوير خوارزمية عالمية قادرة على تحديد المحتوى الذي يولد بواسطة الذكاء الاصطناعي (شاترستوك)
يسعى الباحثون إلى تطوير خوارزمية عالمية قادرة على تحديد المحتوى الذي يولد بواسطة الذكاء الاصطناعي (شاترستوك)
TT

خوارزمية لاكتشاف المقالات العلمية المزيفة عبر الذكاء الاصطناعي

يسعى الباحثون إلى تطوير خوارزمية عالمية قادرة على تحديد المحتوى الذي يولد بواسطة الذكاء الاصطناعي (شاترستوك)
يسعى الباحثون إلى تطوير خوارزمية عالمية قادرة على تحديد المحتوى الذي يولد بواسطة الذكاء الاصطناعي (شاترستوك)

لا شك بأن الذكاء الاصطناعي التوليدي مثل «تشات جي بي تي» قادر على إنشاء مقالات علمية تبدو حقيقية بشكل مقنع، لدرجة أنه بات التمييز بين الأوراق الأصلية والمزيفة صعباً بشكل متزايد. يمثل ذلك تحدياً خاصاً لأولئك خارج مجال البحث المحدد، الذين قد لا يمتلكون الخبرة اللازمة لتمييز التناقضات الدقيقة. لمعالجة هذه المشكلة، طور أحمد عابدين حامد، الباحث في كلية «توماس جاي واتسون» للهندسة والعلوم التطبيقية بجامعة «بينغامبتون» حلاً مبتكراً. فمن خلال خوارزمية التعلم الآلي «xFakeSci» التي طورها، يمكن اكتشاف ما يصل إلى 94 في المائة من الأوراق العلمية المزيفة، مما يضاعف تقريباً معدل نجاح تقنيات استخراج البيانات التقليدية.

أصل «xFakeSci»

يركز حامد في أبحاثه الأساسية على المعلوماتية الطبية الحيوية التي تتضمن التدقيق في المنشورات الطبية والتجارب السريرية والموارد عبر الإنترنت. لقد جعله هذا العمل مدركاً تماماً لانتشار وتأثير الأبحاث الزائفة، خصوصاً تلك التي تم تسليط الضوء عليها أثناء الوباء العالمي. لمعالجة هذه المشكلة، تعاون كل من أحمد عابدين حامد، وزيندونغ وو، أستاذ في جامعة «هيفاي للتكنولوجيا» في الصين لإنشاء وتحليل مقالات مزيفة عن مرض ألزهايمر والسرطان والاكتئاب. قارن الباحثان هذه المقالات التي تم إنشاؤها بواسطة الذكاء الاصطناعي بمقالات حقيقية من قاعدة بيانات «بابميد» التابعة للمعاهد الوطنية للصحة.

يمثل تطوير خوارزمية التعلم الآلي «xFakeSci» تقدماً كبيراً في مكافحة المقالات العلمية الاحتيالية (شاترستوك)

المنهجية والنتائج

تضمّن تطوير «xFakeSci» عملية دقيقة من التجارب، ركز الباحثان فيها على تحليل ميزتين رئيسيتين للمقالات، وهي التواتر وترابط الثنائيات التي تعد أزواج من الكلمات تظهر معاً بشكل شائع (على سبيل المثال «تغير المناخ»، «التجارب السريرية»). من خلال استخدام الكلمات الرئيسية نفسها لإنشاء مقالات مزيفة واسترجاع مقالات حقيقية ضَمَنوا أساساً متسقاً للمقارنة.

كشف تحليلهما عن اختلافات كبيرة بين المقالات التي تم إنشاؤها بواسطة الذكاء الاصطناعي والمقالات التي كتبها البشر. في المقالات المزيفة، كان عدد الكلمات الثنائية الفريدة أقل بكثير، ومع ذلك كانت هذه الكلمات الثنائية مرتبطة بشكل مفرط بكلمات أخرى في النص. يتناقض هذا النمط بشكل حاد مع المقالات الحقيقية، حيث كانت الكلمات الثنائية أكثر وفرة وأقل ارتباطاً بشكل موحد. سلط هذا الاكتشاف الضوء على اختلاف أساسي في أهداف الكتابة لدى البشر والذكاء الاصطناعي. فبينما يهدف الباحثون من البشر إلى الإبلاغ عن النتائج التجريبية بشكل شامل، فإن النص الذي تم إنشاؤه بواسطة الذكاء الاصطناعي يميل إلى الإفراط في استخدام الكلمات المهمة لإقناع القراء.

يتوقع الباحثون أن تكون أدوات مثل «xFakeSci» ضرورية للحفاظ على الثقة في الأبحاث المنشورة (شاترستوك)

تؤكد الأنماط المميزة التي حددتها «xFakeSci» على الأهداف المختلفة للباحثين البشر مقابل الذكاء الاصطناعي. يلاحظ حامد أنه بينما يحاول «تشات جي بي تي» إقناع القراء بعمق في نقاط محددة، تسعى الأوراق العلمية الحقيقية إلى الاتساع والدقة. هذا الفهم أمر بالغ الأهمية في تطوير أدوات للكشف عن المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي.

الاتجاهات المستقبلية

في حين أن معدل نجاح «xFakeSci» الحالي بنسبة 94 في المائة، وهي نسبة مثيرة للإعجاب، يعترف حامد بالحاجة إلى التحسين المستمر. وهو يخطط لتوسيع نطاق الخوارزمية خارج الموضوعات الطبية الحيوية إلى مجالات علمية أخرى والعلوم الإنسانية. سيساعد هذا التطبيق الأوسع في تحديد ما إذا كانت أنماط الكلمات المحددة صالحة عبر التخصصات المختلفة.

يتوقع حامد أيضاً أن يصبح الذكاء الاصطناعي متطوراً بشكل متزايد، مما يستلزم خوارزميات كشف أكثر شمولاً. وعلى الرغم من الإنجازات الحالية، يظل الباحث متفائلاً بشأن العمل الذي ينتظره، مؤكداً أهمية الجهود الجارية لتعزيز دقة الخوارزمية وضرورة زيادة الوعي بانتشار الأوراق العلمية المزيفة.


مقالات ذات صلة

«إكس» تعلّق استخدام بيانات مستخدميها الأوروبيين لتدريب برنامجها للذكاء الاصطناعي

تكنولوجيا استخدمت الشبكة التابعة للملياردير إيلون ماسك البيانات الشخصية لمستخدميها الأوروبيين من أجل تدريب برنامجها للذكاء الاصطناعي (رويترز)

«إكس» تعلّق استخدام بيانات مستخدميها الأوروبيين لتدريب برنامجها للذكاء الاصطناعي

علّقت منصة «إكس» استخدامها للبيانات الشخصية الخاصة بمستخدميها الأوروبيين لغايات تدريب برنامجها للذكاء الاصطناعي، بعد انتقادات كثيرة طالت هذه الممارسة.

«الشرق الأوسط» (باريس)
الاقتصاد موظفون يعملون في مقر شركة «تي إس إم سي» بمدينة هسينتش (أ.ف.ب)

طلب قوي على رقائق الذكاء الاصطناعي يدعم مبيعات «تي إس إم سي»

ارتفعت مبيعات شركة «تايوان لصناعة أشباه الموصلات (تي إس إم سي)» في يوليو بنسبة 45 في المائة.

«الشرق الأوسط» (تايبيه)
تكنولوجيا دمجت «إتش بي» تدابير الأمان المعززة بالذكاء الاصطناعي معاً كالقياسات الحيوية السلوكية واكتشاف التهديدات التي يقودها الذكاء الاصطناعي (إتش بي)

تعرف على أعلى أداء في العالم لكومبيوتر شخصي يعمل بالذكاء الاصطناعي

إنه الكومبيوتر الشخصي من الجيل الثاني «HP OmniBook Ultra» بعمر بطارية يصل إلى 21 ساعة.

نسيم رمضان (لندن)
الاقتصاد تتطلع أوركل للاستفادة من الطلب المتنامي على المناطق السحابية والذكاء الاصطناعي لتدشين ثلاث مناطق لها في السعودية (الشرق الأوسط)

«أوركل» تدشن منطقة سحابة عامة ثانية في السعودية لمواكبة الطلب على الذكاء الاصطناعي

أعلنت شركة «أوركل» الأميركية تدشين ثاني منطقة سحابة عامة لها في السعودية، وذلك ضمن مساعيها لتلبية الطلب المتنامي على خدمات الذكاء الاصطناعي والحوسبة السحابية.

«الشرق الأوسط» (الرياض)
تكنولوجيا الملياردير الأميركي إيلون ماسك (رويترز)

ماسك يعيد رفع دعوى ضد مؤسسي «أوبن إيه آي»... ما السبب؟

أعاد الملياردير إيلون ماسك أمس (الاثنين) رفع الدعوى التي سبق وتقدّم بها قبل أن يسحبها، ضد المشاركين في تأسيس «أوبن إيه آي».

«الشرق الأوسط» (واشنطن)

«أوبن إيه آي» قلقة من تبعات «الأنسنة» الكبيرة لمساعدها الصوتي

شعار  شركة «أوبن إيه آي» (رويترز)
شعار شركة «أوبن إيه آي» (رويترز)
TT

«أوبن إيه آي» قلقة من تبعات «الأنسنة» الكبيرة لمساعدها الصوتي

شعار  شركة «أوبن إيه آي» (رويترز)
شعار شركة «أوبن إيه آي» (رويترز)

تبدي شركة «أوبن إيه آي» المطورة لنموذج «تشات جي بي تي» قلقها من إمكان أن تتسبب الواقعية الكبيرة في الصوت المرفق ببرنامجها للذكاء الاصطناعي في تعلّق المستخدمين بالتفاعلات الآلية على حساب العلاقات البشرية.

وأشارت الشركة التي تتخذ مقراً في سان فرانسيسكو، إلى أن الدردشة مع الذكاء الاصطناعي كما قد يفعل المرء مع شخص آخر قد تدفع بالمستخدمين إلى أن يضعوا ثقة في غير محلها بالبرامج الآلية، كما أن الجودة العالية للصوت المدمج بنسخة «جي بي تي- 4 أو» (GPT-4o) من «تشات جي بي تي» قد تفاقم هذا التأثير.

وقالت «أوبن إيه آي» في تقرير عن العمل الأمني الذي تقوم به على نسخة ChatGPT-4o من برنامج الذكاء الاصطناعي الخاص بها، إن تقنيات التشبيه بالإنسان Anthropomorphization «تتضمن إسناد سلوكيات وخصائص خاصة بالبشر إلى كيانات غير بشرية، مثل نماذج الذكاء الاصطناعي». وحذّرت من أن «هذا الخطر قد يزداد بسبب القدرات الصوتية لـGPT-4o، والتي تسهّل المزيد من التفاعلات الشبيهة بالإنسان مع البرنامج» الآلي.

وقالت شركة «أوبن إيه آي» إنها لاحظت أن المستخدمين يتحدثون إلى الذكاء الاصطناعي بطرق تشير إلى روابط مشتركة، مثل التذمر بصوت عالٍ أمام البرنامج الآلي.

ولفتت إلى أن هذه الحالات تبدو حميدة، ولكن يجب درسها لمعرفة كيفية تطورها على مدى فترات أطول من الزمن.

وتكهنت «أوبن إيه آي» بأن التفاعل الاجتماعي مع الذكاء الاصطناعي قد يجعل المستخدمين أقل مهارة أو ميلاً للتواصل مع البشر.

وأشار التقرير إلى أن «التفاعل الموسّع مع البرنامج قد يؤثر على المعايير الاجتماعية»، مضيفاً «على سبيل المثال، نماذجنا تتعامل بتواضع مع المستخدمين وهذا يسمح لهم بالمقاطعة وأخذ الدور في الكلام في أي وقت، وهذا يتعارض مع آداب الحديث في التفاعلات البشرية، في حين أنه متوقع مع الذكاء الاصطناعي».

وبحسب «أوبن إيه آي»، فإن قدرة الذكاء الاصطناعي على تذكّر التفاصيل أثناء المحادثة وإنجاز المهام قد تجعل الناس يعتمدون بشكل مفرط على التكنولوجيا، وفق ما نقلته وكالة الصحافة الفرنسية.

الرئيس التنفيذي لشركة «أوبن إيه آي» سام ألتمان (د.ب.أ)

البديل؟

قال ألون يامين، المؤسس المشارك والرئيس التنفيذي لمنصة «كوبي ليكس» المتخصصة في رصد عمليات السرقة الأدبية بواسطة الذكاء الاصطناعي، إن «المخاوف الأخيرة التي شاركتها أوبن إيه آي حول الاعتماد المحتمل على الخدمة الصوتية في تشات جي بي تي تشير إلى ما بدأ الكثيرون بالفعل طرحه: هل حان الوقت للتوقف والتفكير في كيفية تأثير هذه التكنولوجيا على التفاعل البشري والعلاقات؟».

وشدد على ضرورة ألا يكون الذكاء الاصطناعي أبداً أن بديلاً للتفاعل البشري الفعلي.

وقالت «أوبن إيه آي» إنها ستختبر بشكل أكبر كيف يمكن لقدرات الصوت في الذكاء الاصطناعي أن تجعل الناس مرتبطين عاطفياً بالبرنامج الآلي.

وقد تمكنت الفرق التي اختبرت القدرات الصوتية في نسخة ChatGPT-4o، أيضاً من دفعها إلى تكرار معلومات كاذبة وإنتاج نظريات مؤامرة، ما أثار مخاوف من إمكان أن يُحمل الذكاء الاصطناعي إلى القيام بذلك بصورة تلقائية.

جدير بالذطر أن شركة «أوبن إيه آي» اعتذرت للممثلة سكارليت جوهانسون في يونيو (حزيران) لاستخدام البرنامج صوتاً يشبه صوتها في أحدث روبوت دردشة، مما سلّط الضوء على التجاوزات المحتملة لتقنية استنساخ الصوت.

وعلى الرغم من أن شركة «أوبن إيه آي» نفت أن يكون الصوت الذي استخدمته لجوهانسون، فإن استخدام الرئيس التنفيذي للشركة سام ألتمان عبارة «هير» Her للإشارة إلى النموذج الجديد عبر وسائل التواصل الاجتماعي زاد الشكوك في هذا المجال.

فقد أدت جوهانسون صوت شخصية من الذكاء الاصطناعي في فيلم Her، والذي قال ألتمان سابقاً إنه فيلمه المفضل عن التكنولوجيا.

ويؤدي خواكين فينيكس في الفيلم الصادر عام 2013 دور رجل يقع في حب مساعدة بالذكاء الاصطناعي تدعى سامانثا.