يمتد تأثير الذكاء الاصطناعي على البحث العلمي إلى جوهر العملية العلمية نفسها متجاوزاً تسريع التحليل أو تحسين الكتابة الأكاديمية. فحسب مقابلة حديثة أجرتها «المدرسة الاتحادية السويسرية للتكنولوجيا في لوزان» (EPFL)، يتوقع باحثون أن نشهد خلال السنوات الخمس المقبلة أنظمة ذكاء اصطناعي قادرة على اقتراح فرضيات علمية والمشاركة في توجيه مسار البحث، لا الاكتفاء بدور المساعد التقني.
جاء ذلك في حوار بين روبرت ويست، رئيس مختبر علوم البيانات في «EPFL» وأغنيس هورفات الأستاذة المشاركة في علوم الاتصال وعلوم الحاسوب في جامعة نورث وسترن الأميركية، حيث ناقش الطرفان التحولات المتسارعة في طريقة إنتاج المعرفة العلمية ونشرها، والدور المتنامي للذكاء الاصطناعي في هذا السياق.
الذكاء الاصطناعي وتحوّل التواصل العلمي
اليوم، تُنشر معظم الأبحاث العلمية عبر المنصات الرقمية، وأصبحت وسائل التواصل الاجتماعي مصدراً رئيسياً لاطلاع العلماء والصحافيين وصناع القرار والجمهور العام على الاكتشافات العلمية. غير أن هذا التحول، كما تشير هورفات، جعل المعرفة العلمية عرضة لمشكلات شبيهة بتلك التي تواجهها المعلومات العامة، مثل التبسيط المفرط، والعناوين المثيرة، وسوء الفهم، وأحياناً التضليل.
وتوضح هورفات أن نشاط العلماء على وسائل التواصل الاجتماعي حقق في السابق مكاسب ملموسة من حيث زيادة الاستشهادات الأكاديمية، إلا أن هذا الأثر تراجع بمرور الوقت، مع تسارع دورة المحتوى وتحوله إلى صيغ مختصرة تفقد كثيراً من السياق والدقة العلمية.

كتابة علمية بصياغة آلية
أحد أكثر الجوانب إثارة للقلق في رأي الباحثين يتمثل في الاستخدام المتزايد لنماذج اللغة الكبيرة في صياغة النصوص العلمية. فقد أظهرت تحليلات أجراها ويست وهورفات أن نحو 13 في المائة من الملخصات في بعض الأبحاث الطبية الحيوية تحمل أنماطاً لغوية تشير إلى تدخل أدوات ذكاء اصطناعي في كتابتها أو تحريرها. كما رُصدت مؤشرات مشابهة في مراجعات أوراق علمية ضمن مؤتمرات متخصصة في تعلم الآلة، ما يخلق وضعاً دائرياً تصبح فيه الخوارزميات كاتبة ومُقيمة للبحث في آن واحد.
ويحذّر ويست من أن هذه النماذج تميل إلى إنتاج لغة واثقة ومباشرة، وهو ما قد يعطي انطباعاً زائفاً باليقين في مجالات علمية يفترض أن تُبرز الشكوك والحدود المنهجية. كما يخشى الباحثان من أن يؤدي الاعتماد الواسع على هذه الأدوات إلى توحيد الأسلوب العلمي وتقليص تنوع طرق التفكير والتعبير.
من المساعدة إلى توليد الفرضيات
التحول الأعمق، حسب المقابلة، قد يكون في انتقال الذكاء الاصطناعي من دعم البحث إلى المشاركة في صياغته. ترى هورفات أن التطور السريع في قدرات النماذج الذكية يجعل من الممكن، خلال سنوات قليلة، أن تقترح هذه الأنظمة فرضيات علمية وتحدد أسئلة بحثية جديدة. لكن هذا الاحتمال يفتح تساؤلات جوهرية: هل ستطرح هذه الأنظمة «الأسئلة الصحيحة»؟ ومَن يحدد معايير الأهمية والأولوية في البحث العلمي؟
يشير ويست إلى أن الخطر لا يكمن فقط في قدرة الذكاء الاصطناعي على اقتراح أفكار، بل في توافق هذه الأفكار مع القيم الإنسانية والاحتياجات المجتمعية.
وفي حال أصبحت الخوارزميات قادرة على توجيه مسار البحث، فقد يتحول دور العلماء من مبتكرين للأسئلة إلى مقيّمين ومنقحين لمخرجات أنظمة ذكية، ما يطرح تحديات جديدة تتعلق بالشفافية، والمسؤولية، وفهم البشر للمعرفة التي تنتجها الآلات.

الثقة والمعرفة في عصر الخوارزميات
يتقاطع هذا التحول مع أزمة أوسع تتعلق بالثقة في المعرفة العلمية. فمع الانتشار الواسع للمحتوى العلمي عبر منصات غير منظمة بشكل كافٍ، قد تسهم أدوات الذكاء الاصطناعي بقدرتها على إنتاج محتوى مقنع على نطاق واسع في تضخيم المعلومات المضللة أو غير الدقيقة.
كما يفيد الباحثان بأن الذكاء الاصطناعي لا يتعامل مع عدم اليقين بالطريقة التي يفعلها العلماء، إذ تميل الأنظمة الحالية إلى تقديم إجابات حاسمة، حتى عندما تكون الأدلة غير مكتملة، ما قد يضر بفهم الجمهور لطبيعة العلم بوصفه عملية تراكمية قائمة على الاحتمال والمراجعة المستمرة.
تعاون لا استبدال
ورغم هذه المخاوف، لا يتبنى باحثو «EPFL» رؤية تشاؤمية مطلقة. فحسب ويست، يمكن للذكاء الاصطناعي أن يسهم في تحسين جودة التواصل العلمي، خصوصاً في الحالات التي يعاني فيها الباحثون من ضعف في الصياغة أو إيصال الأفكار. وقد يعمل الذكاء الاصطناعي، في هذا السياق، بوصفه أداة داعمة تُحسّن الوضوح دون أن تلغي الدور البشري.
وتخلص المقابلة إلى أن مستقبل العلم لن يكون صراعاً بين الإنسان والآلة، بل اختباراً لقدرتنا على بناء نموذج «ذكاء تعاوني» يوازن بين قوة الخوارزميات وحدس البشر وقيمهم. وفي هذا الإطار، تؤدي مؤسسات بحثية مثل «EPFL» دوراً محورياً في دراسة هذه التحولات ليس من زاوية تقنية فقط، بل من منظور اجتماعي وأخلاقي أوسع.







