حذارِ من المعلومات المضلّلة من برامج الذكاء الاصطناعي التوليدي

مخاوف من تحطيمه الحدود بين الحقيقة والخيال

حذارِ من المعلومات المضلّلة من برامج الذكاء الاصطناعي التوليدي
TT

حذارِ من المعلومات المضلّلة من برامج الذكاء الاصطناعي التوليدي

حذارِ من المعلومات المضلّلة من برامج الذكاء الاصطناعي التوليدي

حتّى وقتٍ قريبٍ جداً، كان النّاس يعتمدون على بحث «غوغل» لمعرفة المزيد عن أيّ موضوع علميّ جدلي؛ مثل الخلايا الجذعية، وسلامة الطاقة النووية، والتغيّر المناخي، فيختارون؛ من مصادر عدّة، المواقع أو الجهات التي يثقون بها للقراءة.

أمّا اليوم، فقد أصبح لدينا خيارٌ آخر: يمكنكم طرح السؤال على برنامج «تشات جي بي تي» أو أيّ منصّة ذكاء اصطناعي توليدي أخرى وتلقّي إجابة سريعة وموجزة على شكل مقطع.

توليد الإجابات

لا يبحث «تشات جي بي تي» في شبكة الإنترنت كما يفعل «غوغل»، بل يولّد إجابات عن الاستفسارات عبر التنبؤ بأرجحية توافق مجموعة من الكلمات بالاعتماد على كميات هائلة من المعلومات المتوفرة على الشبكة.

ولكن تبيّن أنّ الذكاء الاصطناعي التوليدي، وعلى الرغم من قدرته على تعزيز الإنتاجية، ينحو إلى ارتكاب أخطاء فادحة، مثل «الهذيان»: ويُستخدم هذا المصطلح على أنه توصيف حميد لاختراع أشياء غير موجودة. كما أنّه لا يحلّ مسائل المنطق بدقّة دائماً؛ فعلى سبيل المثال، عندما سُئل عن احتمال مرور سيّارة أو خزّان من مدخل، فلم ينجح في مراعاة قياسات العرض والطول.

ومع ذلك، يُستخدم «تشات جي بي تي» اليوم لإنتاج المقالات ومحتوى المواقع الإلكترونية، أو بوصفه أداةً تخدم عملية الكتابة، ولكنّكم على الأرجح لم تتمكّنوا من معرفة ما إذا كان ما تقرأونه من صنع الذكاء الاصطناعي.

نحن الاثنتان نقول هنا إننا، بصفتنا مؤلفتَي كتاب «الإنكار العلمي: لماذا يحصل وماذا يمكننا أن نفعل بشأنه»، نشعر بالقلق من فكرة تحطيم الذكاء الاصطناعي الحدود بين الحقيقة والخيال بالنسبة إلى أولئك الذين يبحثون عن معلومات علمية موثوقة.

اليوم، يتوجب على كلّ مستخدم أن يكون يقظاً أكثر من أيّ وقتٍ مضى والتحقّق من الدقّة العلمية للمادّة التي يقرأها. ولكن كيف تحافظون على يقظتكم في ضوء التغيرات في عالم المعلومات التي نعيشها اليوم؟

إنكار العلم

كيف يمكن للذكاء الاصطناعي أن يروّج للإنكار العلمي؟

* تآكل الثقة المعرفية: يعتمد مستهلكو المعلومات العلمية على أحكام الخبراء في مجال العلوم والطبّ. والثقة العلمية هي عملية الوثوق بالمعرفة التي نحصل عليها من الآخرين، وتنطوي على أهمية عالية لفهم واستخدام المعلومات العلمية. سواء أكان أحدهم يبحث عن معلومات حول مخاوف صحية محدّدة، أم يحاول فهم حلول التغيّر المناخي، فإنه غالباً ما يكون لديه فهم علمي محدود، ووصول ضعيف للأدلّة المباشرة. وفي ظلّ التنامي السريع للمعلومات على شبكة الإنترنت، بات على النّاس اتخاذ قرارات أكثر لتحديد بماذا وبمن يثقون. ومع ازدياد استخدام الذكاء الاصطناعي التوليدي واحتمال التلاعب، فإننا نعتقد أنّ الثقة ستتآكل أكثر فأكثر.

* تضليل أم خطأ عادي؟: تنعكس الأخطاء أو الانحياز في البيانات التي يدرَّب عليها الذكاء الاصطناعي على النتائج التي يعطيها، فعندما طلبنا من «تشات جي بي تي» خلال بحثنا توليد إجابات عدّة عن السؤال نفسه، حصلنا على نتائج متضاربة. وعندما سألناه عن سبب التضارب، أجاب: «أحياناً أرتكب الأخطاء». لعلّ المسألة الأكثر صعوبة والأكثر تعقيداً في المحتوى الذي يصنعه الذكاء الاصطناعي هي معرفة متى يخطئ.

* نشر التضليل المتعمّد: يمكن استخدام الذكاء الاصطناعي لتوليد معلومات مضلّلة مقنعة على شكل نصوص، أو صور وفيديوهات مزيّفة. فعندما طلبنا من «تشات جي بي تي» «الكتابة عن اللقاحات بأسلوب مضلّل»، أنتج اقتباساً غير موجود مصحوباً ببيانات مزيّفة. قدّم جيفري هينتون، الرئيس السابق لقسم تطوير الذكاء الاصطناعي في «غوغل»، استقالته من منصبه ليدقّ ناقوس الخطر بحريّة، قائلاً: «من الصعب رؤية كيف يمكن تجنّب العناصر السيئة التي تستخدم الذكاء الاصطناعي في الأمور السيئة». واليوم، يمكن القول إنّ الذكاء الاصطناعي قد عزّز سهولة وخطورة فبركة ونشر المعلومات الخاطئة والمضلّلة المتعمّدة التي كانت موجودة أصلاً.

* المصادر المفبركة: يقدّم «تشات جي بي تي» إجابات من دون مصادر، وإذا سئل عنها، فقد يعطي مصادر مختلقة. طلبنا كلتانا من «تشات جي بي تي» وضع لائحة بمنشوراتنا، ورصدت كلتانا بعض المصادر الصحيحة، ولكن اللائحة ضمّت عدداً أكبر من المصادر الخاطئة ذات السمعة الجيّدة والمنطقية مع أسماء باحثين مشاركين حقيقيين من دوريات علمية بارزة. تنطوي هذه القدرة الاختراعية على مشكلة حقيقية إذا كانت لائحة المنشورات التابعة لعالِم ما توحي بالثقة لقارئ لا وقت لديه للتحقّق من صحّتها.

* المعرفة المتقادمة: لا يعي «تشات جي بي تي» ماذا حلّ في العالم بعد انتهاء تدريبه. فعندما طلبنا منه تقديم نسبة مئوية عالمية للمصابين بـ«كوفيد19»، أجاب بأنّ «تاريخ معرفتي يقف عند سبتمبر (أيلول) 2021». ونظراً إلى السرعة التي تتقدّم بها المعرفة في مجالات معيّنة، فإنه يمكن لهذه المحدودية الزمنية أن تؤدي إلى تزويد القرّاء بمعلومات هائلة منتهية الصلاحية. باختصار؛ يجب أن تحذروا إذا كنتم تبحثون عن معلومات عن مسألة صحية شخصية مثلاً.

* التقدّم السريع والشفافية المتواضعة: تستمرّ أنظمة الذكاء الاصطناعي في تعظيم قوّتها والتعلّم سريعاً، وهذا الأمر يصاحبه احتمال مرتفع باكتسابها معلومات علمية مضلّلة. يذكر أنّ «غوغل» أعلنت أخيراً عن 25 استخداماً جديداً للذكاء الاصطناعي في خدماتها. في هذه المرحلة، لا تزال القوى الحريصة على تعزيز دقّة الذكاء الاصطناعي في مجال نشر المعلومات العلمية غير كافية.

الحذر والتدقيق

ماذا يمكننا أن نفعل؟ إذا كنتم تستخدمون «تشات جي بي تي» أو منصات ذكاء اصطناعي أخرى، فيجب أن تدركوا أنّها قد لا تكون دقيقة تماماً، ويبقى لكم أن تتأكّدوا من صحّة معلوماتها.

* تعزيز الحذر: قد تصبح التطبيقات المصمّمة للتأكّد من صحّة مواد الذكاء الاصطناعي متوفرة قريباً، ولكن في الوقت الراهن، يجب على المستخدمين أن يتحقّقوا بأنفسهم من صحّة هذه المواد، ولهذه الغاية، ننصحكم بالخطوات التالية:

* أوّلاً: كونوا حذرين، فغالباً ما يشارك النّاس تلقائياً المعلومات التي وجدوها خلال بحثهم على وسائل التواصل الاجتماعي بعد القليل من التدقيق أو حتّى من دونه. يجب أن تعوا متى يجب أن تكتفوا بتقييمكم للمعلومات ومتى يجب أن تحدّدوا مصادرها وتتأكّدوا منها. فإذا كنتم تحاولون معرفة كيف تتعاملون مع مرضٍ خطر أو فهم خطوات تصحيح التغيّر المناخي، فتحقّقوا من المصادر بروية.

* مزيد من المراجعة للحقائق: الخطوة الثانية هي القراءة الجانبية، وهي عبارة عن عملية تحقّق من صحّة المعلومات يستخدمها المدقّقون المحترفون؛ افتحوا نافذة جديدة في المتصفّح وابحثوا عن معلومات عن المصادر إذا زوّدتكم المنصة بها. هل يتمتّع المصدر بالمصداقية؟ هل يملك معدّ الدراسة خبرة ذات صلة؟ وما إجماع الخبراء في الموضوع؟ وإذا لم تحصلوا على مصادر أو كنتم لا تعلمون ما إذا كانت موجودة فعلاً أم لا، فاستخدموا متصفّحاً تقليدياً للبحث عن خبراء في المجال والاطلاع على تقييمهم.

* تقييم الأدلّة: بعدها، اطّلعوا على الأدلّة وصلتها بالادّعاء. هل يوجد دليل على أنّ الأطعمة المعدّلة جينياً آمنة؟ هل يوجد دليل على أنّها ليست كذلك؟ ما الإجماع العلمي في هذا الشأن؟ سيساعدكم تقييم هذه الادعاءات في الذهاب أبعد من نتائج الاستفسار السريع عبر «تشات جي بي تي».

إذا بدأتم عملكم مع الذكاء الاصطناعي، فلا تتوقفوا عنده، واحذروا من استخدامه مصدراً وحيداً في أيّ مسألة علمية. قد تودّون معرفة رأي «تشات جي بي تي» في المنتجات المعدّلة جينياً أو سلامة اللقاح، ولكنّكم يجب أن تلاحقوا الأمر أيضاً باستخدام أحد محرّكات البحث التقليدية قبل تبنّي الخلاصات.

* تقييم المعقولية: احكموا على ما إذا كان الادعاء معقولاً. هل من الممكن أن يكون صحيحاً؟ وإذا منحكم الذكاء الاصطناعي تصريحاً غير معقول (وغير دقيق) مثل «مليون وفاة سبّبتها اللقاحات» وليس «كوفيد19»، ففكروا جيداً فيما إذا كان منطقياً. ابدأوا بحكمٍ مؤقّت، وأبدوا استعداداً للمراجعة بعد التحقّق من الأدلّة.

* تحسين «القرائية الرقمية» (محو الأمية الرقمية) لديكم ولدى الآخرين: الجميع يحتاج إلى رفع مستواه، ومن هنا، يجب أن تحسّنوا قرائيتكم الرقمية. وإذا كنتم آباء أو أمهات، أو معلّمين، أو مرشدين، فيجب أن تعملوا على تحسين القرائية لدى الآخرين. تقدّم «جمعية علم النفس الأميركية» إرشادات تتعلق بالتحقّق من صحّة المعلومات الإلكترونية، وتوصي بتدريب المراهقين على مهارات التواصل الاجتماعي لتقليل مخاطره على الصحّة والرفاهية. يقدّم «مشروع القرائية الجديد» أدوات فعالة لتحسين ودعم القرائية الرقمية.

سلّحوا أنفسكم بالمهارات التي تحتاجونها للإبحار في مشهدية معلومات الذكاء الاصطناعي الجديدة. وإذا كنتم لا تستخدمون الذكاء الاصطناعي التوليدي، فلا بدّ من أنّكم قرأتم مقالات من إنتاجه وتطويره. قد يحتاج التحقق من موثوقية المعلومات العلمية الإلكترونية إلى الوقت والجهد، ولكنّ الأمر يستحقّ.

* بروفسورة في التربية وعلم النفس بجامعة ساوثرن كاليفورنيا، وبروفسورة فخرية في علم النفس بكلية ميدلباري الأميركية

*«فاست كومباني» - خدمات «تريبيون ميديا»



الذكاء الاصطناعي في الطب

بين عين الطبيب وعقل الخوارزمية
بين عين الطبيب وعقل الخوارزمية
TT

الذكاء الاصطناعي في الطب

بين عين الطبيب وعقل الخوارزمية
بين عين الطبيب وعقل الخوارزمية

في الطب، لا تبدأ الحقيقة دائماً بما نراه... بل كثيراً بما لا يُعرض علينا أصلاً، فالأرقام، مهما بدت دقيقة، لا تحكي القصة كاملة، والخوارزميات، مهما بلغت من ذكاء، لا تُفصح عن حدودها بصراحة.

حين تعتمد أوروبا على الذكاء الاصطناعي

تقرير أوروبي

في هذا السياق، صدر تقرير حديث عن منظمة الصحة العالمية - المكتب الإقليمي لأوروبا، ونُشر رسمياً في 20 أبريل (نيسان) 2026، ليُقدّم أول صورة شاملة عن واقع استخدام الذكاء الاصطناعي في الأنظمة الصحية داخل دول الاتحاد الأوروبي. لا بوصفه وعداً تقنياً، بل محاولة لقياس ما أصبح بالفعل جزءاً من الممارسة الطبية اليومية: مَن يستخدم هذه الأنظمة؟ كيف تُدمج في القرار السريري؟ وإلى أي حد يمكن الوثوق بها؟

ما الذي نقيسه... وما الذي يغيب عنا؟

لكن ما يلفت الانتباه في هذا التقرير، ليس فقط ما كشفه من أرقام بل ما تركه خارج القياس. فبينما يشير إلى أن نحو 64 في المائة من الدول الأوروبية باتت تعتمد الذكاء الاصطناعي في مجالات التشخيص، خصوصاً في تحليل الصور الطبية، يظل السؤال الأعمق معلقاً: هل تكفي هذه المؤشرات لفهم ما يحدث فعلاً داخل غرفة القرار الطبي؟

في مقالات سابقة، كان السؤال: مَن يقرر؟ أما اليوم، فقد تغيّر السؤال: ماذا لا نرى؟

بين الانتشار والفهم... فجوة لا تُرى

لم يعد إدخال أنظمة الذكاء الاصطناعي إلى المستشفيات تحدياً تقنياً يُذكر؛ فالنماذج قادرة اليوم على تحليل آلاف الصور الطبية في لحظات، واقتراح مسارات تشخيصية بدقة لافتة. غير أن التحدي الحقيقي لا يكمن في القدرة على الاستخدام، بل في القدرة على الفهم: ماذا تفعل هذه الأنظمة حين تعمل؟ وأين تتوقف حدودها؟

تفاوت الجاهزية البشرية والتنظيمية

يكشف تقرير منظمة الصحة العالمية عن تفاوت واضح بين الدول، لا في توفر التكنولوجيا، بل في جاهزيتها البشرية والتنظيمية؛خصوصاً في مجالات الحوكمة الأخلاقية، وتأهيل الأطباء، وإدارة البيانات. لكن هذا التفاوت الظاهر يخفي وراءه فجوة أعمق، لا تُقاس بسهولة.

إنها فجوة معرفية قبل أن تكون تقنية، فالذكاء الاصطناعي لا يعمل بمنطق الشك الذي اعتاد عليه الطبيب، ولا يعلن عن مناطق ضعفه كما يفعل العقل البشري حين يتردد. إنه يولد إجابات، لكنه لا يكشف عمّا استُبعد من الحساب، ولا عمّا لم يُمثَّل في البيانات أصلاً.

هنا يظهر ما يمكن تسميته بـ«الصمت الخوارزمي»؛ ليس بوصفه خللاً في الأداء، بل خاصية بنيوية في هذه الأنظمة: فراغ غير مرئي داخل القرار؛ حيث لا يكون الخطأ في ما قِيل، بل فيما لم يُطرح أصلاً.

هل يُقاس الطب بالخوارزميات وحدها؟

في بيئة طبية تتسارع فيها الأنظمة الذكية، يسهل اختزال جودة الرعاية الصحية في مؤشرات الأداء: دقة أعلى، وقت أقل، وقرارات أسرع. غير أن هذا القياس، على أهميته، يظل عاجزاً عن التقاط جوهر القرار الطبي. فالطب لا يقوم فقط على ما يُكتشف، بل على كيفية التعامل مع ما يظل غير محسوم.

الطبيب لا يعمل داخل معادلة مغلقة، بل داخل مساحة مفتوحة من الاحتمالات؛ حيث تُعاد صياغة القرار مع كل معلومة جديدة، ومع كل شك يظهر في الطريق. وهذا ما لا تعكسه المؤشرات الرقمية، ولا تُترجمه النماذج الحسابية بسهولة.

تفاعل الطبيب

التقرير الأوروبي يقيس مدى انتشار الذكاء الاصطناعي، لكنه لا يقيس كيفية تفاعل الطبيب مع مخرجاته: متى يقبلها؟ ومتى يعيد تفسيرها؟ ومتى يختار أن يتجاوزها؟ هذه اللحظات -التي لا تُسجل في البيانات- هي التي تُشكّل جوهر الممارسة السريرية.

وهنا تتجلى المفارقة بوضوح: كلما أصبحت الأنظمة أكثر دقة في الإجابة، ازدادت الحاجة إلى عقل قادر على إعادة طرح السؤال.

من يكتب القواعد... الإنسان أم الآلة؟

يُظهر تقرير منظمة الصحة العالمية أن الدول الأوروبية لا تتحرك بإيقاع واحد في تنظيم الذكاء الاصطناعي الطبي؛ فبعضها صاغ استراتيجيات وطنية واضحة، في حين لا يزال بعضها الآخر في طور البحث عن إطار ينظم ما يتسارع قبل أن يُفهم بالكامل.

غير أن المسألة لا تتعلق فقط بوجود القوانين، بل بطبيعة ما نحاول تنظيمه. فالذكاء الاصطناعي لم يعد أداة ثابتة يمكن إخضاعها لقواعد جامدة، بل نظام يتعلم ويتغير، وتتشكل مخرجاته من تفاعل معقد بين البيانات والسياق وطريقة الاستخدام.

وهنا تظهر مفارقة تنظيمية عميقة: نحن نكتب قواعد لأنظمة لا تتوقف عن إعادة تشكيل نفسها. فالقانون يفترض ثبات السلوك، في حين تقوم هذه الأنظمة على التحول المستمر.

لهذا، لم تعد مساءلة الذكاء الاصطناعي مساءلة تحديد «من أخطأ»، بل فهم كيف تُشكّل القرار أصلاً، ومن أين بدأ مساره. إنها مساءلة لا تبحث فقط في النتيجة، بل في البنية التي أنتجتها، وهذا ما يجعلها أقرب إلى سؤال فلسفي منه إلى إجراء تنظيمي تقليدي.

أوروبا تتقدم... فماذا عن العالم العربي؟

ما يلفت النظر في تقرير منظمة الصحة العالمية ليس فقط ما حققته أوروبا، بل ما يكشفه ضمنياً عن موقعنا نحن في هذه الخريطة المتحركة. ففي العالم العربي، تبدو الصورة غير متجانسة، بل أقرب إلى تفاوت حاد بين دول تقود التجربة، وأخرى لا تزال في بداياتها الأولى.

المملكة تقود التحول حيث يلتقي الطب بالذكاء

في المقدمة، تبرز المملكة العربية السعودية نموذجاً يقود التحول في الذكاء الاصطناعي الطبي، ضمن رؤية استراتيجية واضحة ترتبط بـ«رؤية السعودية 2030»؛ حيث لم يعد الاستخدام مقصوراً على التجريب، بل أصبح جزءاً من البنية التشغيلية في المستشفيات، ومنصات الرعاية الافتراضية، وتحليل البيانات الصحية على نطاق واسع.

تلي السعودية كل من قطر والإمارات العربية المتحدة بخطوات متفاوتة؛ حيث تتشكل منظومات واعدة، لكنها لم تصل بعد إلى مستوى التكامل الشامل الذي نشهده في التجربة السعودية.

أما بقية العالم العربي، والتي تمثل أكثر من 70 في المائة من الدول، فتتراوح بين مراحل وضع الأسس الأولية للذكاء الاصطناعي الطبي، أو غيابه شبه الكامل عن الممارسة السريرية المنظمة. وهنا لا تكون الفجوة تقنية فحسب، بل فجوة في الرؤية والتخطيط والجاهزية البشرية.

لكن التحدي الحقيقي لا يكمن في تسريع التبني فقط، بل في كيفية توجيهه. فالسؤال لم يعد: كم نظاماً نملك؟ بل: كيف نستخدمه؟ ومن يفسر نتائجه؟ وهل الطبيب العربي اليوم مُهيأ ليكون شريكاً في القرار، لا مجرد متلقٍ لمخرجاته؟

ما الذي لا يظهر في التقارير؟

ربما يكون أهم ما كشفه تقرير منظمة الصحة العالمية... هو ما لم يقله صراحة. فبين الأرقام، تختفي تفاصيل لا تُقاس: قلق طبيب شاب أمام توصية لا يفهم آليتها، أو مريض يبدأ موازنة ثقته بين الإنسان والنظام.

هذه المساحات غير المرئية ليست هامشية، بل هي التي تُشكّل جوهر القرار الطبي؛ حيث تتقاطع الدقة مع الشك، والتوصية مع المسؤولية.

الخلاصة: السؤال الذي تغيّر

في نهاية المطاف، لا يكمن السؤال فيما إذا كان الذكاء الاصطناعي سيُستخدم في الطب، بل في مَن يقود القرار حين يلتقي الإنسان بالخوارزمية.

في هذا العصر، لم تعد الأخطاء تختبئ فقط في القرارات الخاطئة، بل في القرارات التي لم تُتخذ، وفيما لم يُعرض أصلاً على طاولة التفكير السريري. ولهذا، لم يعد السؤال: هل أخطأ النظام؟ بل أصبح:

ما الذي لم نره... وكان ينبغي أن يكون جزءاً من القرار؟


«ناسا» تكشف عن تلسكوب سيوفر «أطلساً جديداً للكون»

صحافي يلتقط صورة للتلسكوب الفضائي الجديد «رومان» (أ.ف.ب)
صحافي يلتقط صورة للتلسكوب الفضائي الجديد «رومان» (أ.ف.ب)
TT

«ناسا» تكشف عن تلسكوب سيوفر «أطلساً جديداً للكون»

صحافي يلتقط صورة للتلسكوب الفضائي الجديد «رومان» (أ.ف.ب)
صحافي يلتقط صورة للتلسكوب الفضائي الجديد «رومان» (أ.ف.ب)

كشفت وكالة الفضاء الأميركية (ناسا) عن تلسكوبها الفضائي الجديد «رومان» القادر على مسح أجزاء شاسعة من الكون بحثاً عن كواكب خارجية، وكذلك عن إجابات لأكبر الألغاز الفيزيائية المتمثلة في المادة والطاقة المظلمتين.

ونقلت «وكالة الصحافة الفرنسية» عن مدير «ناسا» جاريد آيزاكمان قوله أمس (الثلاثاء) من مركز غودارد التابع للوكالة في ولاية ماريلاند (شرق الولايات المتحدة)، إن هذا التلسكوب من الجيل الأحدث «سيوفِّر لكوكب الأرض أطلساً جديداً للكون».

وسيُنقل التلسكوب الذي يتجاوز طوله 12 متراً والمزوَّد ألواحاً شمسية ضخمة إلى فلوريدا، تمهيداً لإرساله إلى الفضاء في أقرب وقت مطلع سبتمبر (أيلول)، بواسطة صاروخ تابع لشركة «سبيس إكس».

وأُطلقت تسمية «رومان» على هذا التلسكوب الذي فاقت تكلفته 4 مليارات دولار، تيمناً بنانسي غريس رومان، إحدى أهم عالمات الفلك الأميركيات، والملقبة بـ«أم هابل»، نسبة إلى تلسكوب «هابل» الشهير التابع لـ«ناسا».

ومن نقطة مراقبة تبعد 1.5 مليون كيلومتر عن كوكب الأرض، سيمسح «رومان» مناطق شاسعة من السماء، بفضل مجال رؤيته الواسع الذي يفوق مجال رؤية «هابل» بأكثر من مائة مرة.

وقال مهندس الأنظمة في مهمة «رومان» مارك ميلتون، لـ«وكالة الصحافة الفرنسية»، إن التلسكوب الجديد سيُرسِل إلى الأرض «11 تيرابايت من البيانات يوميّاً، ما يعني أن كمَّ البيانات التي سيوفِّرها في السنة الأولى وحدها يفوق ما جمعه تلسكوب هابل طوال فترة عمله» منذ دخوله الخدمة قبل 35 عاماً.

وتوقَّعت المسؤولة عن الأنشطة العلمية في «ناسا» نيكي فوكس، أن يتيح «رومان» بفضل عدسته الواسعة الزاوية «اكتشاف عشرات الآلاف من الكواكب الجديدة»، فضلاً عن «آلاف المستعرات العظمى» أي النجوم الضخمة التي شارفت دورة حياتها نهايتها.

لكنَّ «رومان» يهدف أيضاً إلى دراسة ما هو غير مرئي، أي دراسة المادة والطاقة المظلمتين اللتين يُعتقد أنهما تمثِّلان 95 في المائة من الكون.

وبفضل الأشعة تحت الحمراء، سيتمكَّن «رومان» من رصد الضوء المنبعث من أجرام سماوية قبل مليارات السنين، والعودة بذلك إلى الماضي، لفهم هاتين الظاهرتين الغامضتين بصورة أفضل.


دراسة: دخان حرائق الغابات قد يرفع خطر الإصابة بأنواع من السرطان

جانب من حرائق غابات في إزمير (إكس)
جانب من حرائق غابات في إزمير (إكس)
TT

دراسة: دخان حرائق الغابات قد يرفع خطر الإصابة بأنواع من السرطان

جانب من حرائق غابات في إزمير (إكس)
جانب من حرائق غابات في إزمير (إكس)

خلصت دراسة قدمت في اجتماع الجمعية الأميركية لأبحاث السرطان في سان دييغو إلى أن التعرض للدخان الناتج عن حرائق الغابات يرتبط بارتفاع كبير في مخاطر الإصابة بعدة أنواع من السرطان.

وحلل الباحثون بيانات عن انتشار الإصابة بالسرطان من تجربة فحص سرطان البروستاتا والرئة والقولون والمستقيم والمبيض، والتي تتعقب حالات التشخيص الجديدة بالسرطان لدى بالغين في أنحاء الولايات المتحدة ليس لديهم تاريخ سابق من الإصابة بالأورام الخبيثة.

ولتحديد مقدار التعرض لدخان حرائق الغابات، أجرى الباحثون تقييما للجسيمات الدقيقة والكربون الأسود في الجو باستخدام بيانات تلوث الهواء على مستوى سطح الأرض من الأحياء التي يعيش فيها المشاركون، إلى جانب صور الأقمار الصناعية التي ساعدت في حساب عدد الأيام التي تعرضت فيها مناطق إقامتهم للدخان.

ومن بين 91460 مشاركا تم تسجيل بياناتهم بين عامي 2006 و2018، ارتبط التعرض لدخان حرائق الغابات بشكل كبير بزيادة خطر الإصابة بسرطان الرئة والقولون والمستقيم والثدي والمثانة والدم، ولكن ليس بسرطان المبيض أو الجلد.

ووجد الباحثون أيضا أن خطر الإصابة بهذه الأنواع من السرطان يزداد مع ارتفاع مستوى تلوث الهواء الناتج عن الحرائق.

وقال رئيس الدراسة تشي تشن وو من مركز السرطان الشامل بجامعة نيو مكسيكو في بيان «الرسالة الرئيسية هي أن دخان حرائق الغابات ليس مجرد مشكلة قصيرة الأمد تتعلق بالجهاز التنفسي أو القلب والأوعية الدموية. فقد ينطوي التعرض المزمن له أيضا على مخاطر الإصابة بالسرطان على المدى الطويل».

وأضاف «من الملحوظ أن زيادة خطر الإصابة بالسرطان قد تحدث حتى عند مستويات منخفضة نسبيا من دخان حرائق الغابات (الجسيمات الدقيقة) التي يتعرض لها السكان عادة».

وأشار وو أيضا إلى أن مصدر ومكونات دخان حرائق الغابات تختلف باختلاف المناطق الجغرافية، وقد تتأثر الصحة أيضا بالمركبات والتحولات الكيميائية التي تحدث للدخان أثناء انتشاره.