حياة أوبنهايمر جسَّدت صراع العلم مع المسؤولية الأخلاقية

قائدو التطوّرات الثورية في العالم يتحمّلون مسؤولية معالجة مخاطرها على المجتمعات

حياة أوبنهايمر جسَّدت صراع العلم مع المسؤولية الأخلاقية
TT

حياة أوبنهايمر جسَّدت صراع العلم مع المسؤولية الأخلاقية

حياة أوبنهايمر جسَّدت صراع العلم مع المسؤولية الأخلاقية

عاش ج. روبرت أوبنهايمر، أبو القنبلة الذريّة، لسنوات في صراعٍ بين علمه وإملاء ضميره، حيث إنّه عبّر علناً عن قلقه من القنبلة الهيدروجينية وسباق التسلّح النووي. وأنهى أوبنهايمر، الذي يعود اليوم إلى الواجهة في فيلم عالمي يحكي سيرته، حياته العملية على مذبح سياسات الحرب الباردة. لحسن الحظّ، شعر خبراء ذرّيّون مبكرون آخرون، من بينهم علماء جامعة شيكاغو الذين أنتجوا أوّل تفاعلٍ تسلسلي نووي، بواجبهم في المساعدة في منع سوء توظيف علوم الذرة. وفهم هؤلاء العلماء أمراً، يجب على روّاد اليوم في ميادين الذكاء الاصطناعي والهندسة الجينية إدراكه، وهو أنّ الأشخاص الذين يقودون التطوّرات الثورية في العالم يتحمّلون مسؤولية مساعدة المجتمع في معالجة مخاطرها.

 

ملصق عن فيلم أوبنهايمر (أبو القنبلة الذرية)

* هل يمكننا هندسة نباتات وحيوانات مقاومة للعناصر المفترسة، من دون زعزعة توازن الطبيعة؟ وهل من الأخلاقي تصحيح اعتلالات مفترضة لدى البشر؟

أخلاقيات العلم

في مختبرات جامعية أو تابعة لشركات ربحية، يعمل الباحثون اليوم على تطوير تقنيات تثير أسئلة أخلاقية جديّة. هل يمكننا هندسة نباتات وحيوانات مقاومة للعناصر المفترسة، من دون زعزعة توازن الطبيعة؟ هل يجوز الترخيص لبراءات اختراع على الأشكال الحيّة؟ هل من الأخلاقي تصحيح اعتلالات مفترضة لدى البشر؟ هل يجب السماح للآلات باتخاذ قرارات مصيرية –مثلاً، بين استخدام القوّة للردّ على تهديد أو شنّ ضربة نووية انتقامية؟

ترك علماء الذرة من شيكاغو وغيرها من المؤسسات خلفهم نموذجاً عن السلوك المسؤول للعلم، نموذجاً قابلاً للتطبيق اليوم بقدر ما كان قابلاً للتطبيق في أيّام أوبنهايمر.

بدأ السباق نحو القنبلة الذريّة في مختبر «ميت لاب» التابع لجامعة شيكاغو، حيث حدث أوّل انشطار نووي مهندَسٌ ذاتيُّ الاستدامة في الثاني من ديسمبر (كانون الأول) 1942، اجتمع العلماء في ذلك الوقت فيما عُرفت بـ«القرية الذريّة»، ومن بينهم عالم الفيزياء المجري ليو زيلارد، الذي ساعد قبل بضع سنوات من ذلك، في إقناع ألبرت أينشتاين بتحذير الرئيس فرانكلين روزفلت من قرب تطوير سلاح جبار، ومن أنّ علماء هتلر يعلمون بهذا الأمر أيضاً.

وكانت «رسالة أينشتاين - زيلارد» الشهيرة، التي وضعت الولايات المتحدة على مسار «مشروع مانهاتن» المعروف، أوّل خطوة عظيمة باتجاه المسؤولية العلمية في العصر النووي. يقول الدرس الأوّل المستقى في «مختبر ميت»: «المعرفة العلمية، متى ما اكتُسبت، لا تمكن إعادتها من حيث أتت». عندما استشعر زيلارد وزملاؤه أنّ اكتشافات الفيزياء النووية الأخيرة قد تُغيّر العالم، كان عليهم أن يُطْلعوا قادة الديمقراطية على الأمر.

في ذلك الوقت، شغل القرية الذريّة في جامعة شيكاغو مزيج من العلماء الاستثنائيين كالفيزيائي جون سيمبسون، وكانوا مجموعة من الأميركيين اليافعين. وضمّت المجموعة أيضاً عدداً من المهاجرين اليهود، كزيلارد، والفيزيائي الألماني جايمس فرانك، وعالم الفيزياء الحيوية الروسي - الألماني يوجين رابينوفيتش، الذين عاشوا تجارب عزّزت حساسيتهم تجاه البعد الأخلاقي للعلم قبل مغادرة أوروبا. في الحقيقة، حظي فرانك بتجربة أولية في مجال إخضاع العلم للسياسة؛ فبينما كان لا يزال عالماً يافعاً في ألمانيا مع بداية الحرب العالمية الأولى، تطوّع في جيش القيصر وكان ضابطاً في الوحدة التي أدخلت غاز الكلورين لأوّل مرّة إلى ساحة المعركة. وقد انتقد صديقه، عالم الفيزياء البارز والمرشح لجائزة نوبل نيلز بور، في ذلك الوقت قراره قبول الدور الذي ندم عليه فرانك بشدّة لاحقاً.

وبحلول عام 1943 تحوّل العمل الأساسي في تطوير القنبلة النووية إلى مواقع «أوك ريدج»، في تينيسي؛ وهانفورد في واشنطن؛ ولوس آموس في نيو مكسيكو. أمّا العلماء الذين بقوا في «ميت لاب»، في جامعة شيكاغو، فقد حظوا بالوقت لهيكلة قرارات حول استخدام التقنية النووية لما تبقّى من الحرب العالمية الثانية وفي فترة ما بعد الحرب.

دروس الاكتشافات العلمية

أمّا الدرس الثاني من «ميت لاب»، فقد كانت أن الاكتشاف العلمي لا رجعة فيه ولكنّ تأثيراته قابلة للتنظيم. عام 1965، نشرت المؤرخة أليس كيمبل سميث كتاب «خطر وأمل: حركة العلماء في أميركا، 1945 - 1947»، الذي ارتكز على مواد أرشيفية ومقابلات سردت النقاشات الحادّة والغاضبة التي دارت بين العلماء في تلك الفترة. وأخيراً، وضع علماء «ميت لاب» أهدافاً نبيلة وعملية: لقد أرادوا منح اليابانيين لمحة عن قوّة القنبلة الذريّة وفرصة للاستسلام قبل استخدامها ضدّهم، بالإضافة إلى تحرير العلم من أغلال السريّة الرسمية، وتجنّب سباق التسلّح، وتأسيس مؤسسات دولية لحوكمة التقنية الذرية.

يشدّد الدرس الثالث التي خرج به المختبر على أنّ القرارات المهمّة المتعلّقة بتطبيقات التقنية الجديدة يجب أن يتّخذها مدنيّون في مسار ديمقراطي شفّاف. بدأ علماء شيكاغو الذريّون في منتصف الأربعينات نقل مخاوفهم إلى قادة «مشروع مانهاتن»، ومن ثمّ إلى المسؤولين الرسميين.

ألبرت أينشتاين شارك في «مشروع مانهاتن» لإنتاج القنبلة الذرية

فضّلت البيروقراطية العسكرية آنذاك إبقاء الأمور في الظلّ، ولكنّ العلماء واجهوها في كلّ خطوة. فقد قاد زيلارد، وفرانك، ورابينوفيتش، وسيمبسون إلى جانب عددٍ هائلٍ من زملائهم، جهوداً لتثقيف السياسيين وإطلاع الرأي العام على المخاطر النووية. كما أسّس هؤلاء جمعيات عدّة، أوّلاها كانت «علماء شيكاغو الذريّون»، ونظّموا المحاضرات، وكتبوا مقالات الرأي، وأطلقوا منشورات أبرزها «نشرة العلماء الذريين» التي حرّرها علماء «ميت لاب» ونشرتها جامعة «شيكاغو». عملوا أيضاً إلى جانب علماء آخرين من مواقع «مشروع مانهاتن» على تنظيم الدعم للانتقال إلى تنفيذ قانون الطاقة الذرية، الذي أسّس وكالة مستقلّة من المدنيين خاضعة لمحاسبة الرئيس والكونغرس للإشراف على تطوير واستخدام علوم الذرة. استمرّت جهودهم حتّى الحرب الباردة ونظّموا حملات ناجحة لمنع التجارب النووية، ولتطبيق مواثيق منع الانتشار واتفاقات ضبط الأسلحة.

 

* أبحاث القطاع الخاص تلغي حقّ الرأي العام بالمشاركة في اتخاذ القرارات الأخلاقية حول تطبيقات المعرفة العلمية والتقنية

مخاوف أبحاث القطاع الخاص

في القرن الحادي والعشرين، تتولّى مختبرات خاصة والأقسام التنفيذية في شركات تجارية اتخاذ قرارات كثيرة حول تطوير واستخدام التقنيات الجديدة بعيداً عن أنظار الرأي العام. وكما السرية العسكرية التي كانت مكروهة من علماء «ميت لاب»، تعيق مِلكية القطاع الخاص للقرار، التعاون والتدفّق الحرّ للمعرفة اللذين يعتمد عليهما التقدّم العلمي. كما أنّ إضفاء طابع الخصوصية على اتخاذ هذه القرارات يلغي حقّ الرأي العام في المشاركة عبر المسار الديمقراطي في اتخاذ القرارات الأخلاقية حول تطبيقات المعرفة العلمية والتقنية، أي نوع القرارات الذي أعطى «ميت لاب» الحقّ للنّاس في اتخاذها.

في أغسطس (آب) 1945، تسببت قنبلتان ذريّتان في الموت السريع والمحتَم لما يتراوح بين 150 و220 ألف شخص في مدينتي هيروشيما وناغازاكي اليابانيتين. بعد بضعة أشهر، خلال اجتماع في البيت الأبيض، قال أوبنهايمر لهاري ترومان: «سيّدي الرئيس، يداي ملطّختان بالدماء». ولكنّ ترومان ذكّر عالم الفيزياء بأنّ قرار رمي القنبلتين كان قراره وحده. لم يبرّئ علماءُ الذرّة الذين ساهموا في صناعة القنبلة أنفسَهم قط من الحادثة، ولكنّ النظام الذي رعوه والنموذج الذي وضعوه للعلم المسؤول، ساعدا في عدم تكرار استخدام السلاح النووي مرّة أخرى حتّى يومنا هذا، وعلينا الاستفادة من الدروس التي تعلّموها.

* «ذي أتلانتيك أونلاين» - خدمات «تريبيون ميديا»

 

 

 



في عصر الذكاء الاصطناعي… الاحتيال والنصب يصبحان أمراً سهلاً للغاية

في عصر الذكاء الاصطناعي… الاحتيال والنصب يصبحان أمراً سهلاً للغاية
TT

في عصر الذكاء الاصطناعي… الاحتيال والنصب يصبحان أمراً سهلاً للغاية

في عصر الذكاء الاصطناعي… الاحتيال والنصب يصبحان أمراً سهلاً للغاية

أصبح الغش سهلاً للغاية الآن. فباستخدام الذكاء الاصطناعي التوليدي، يستطيع أي شخص الحصول على وجبة تعويضية أو منتج بديل مجاناً. بل يمكنه حتى الحصول على أموال مجانية عن طريق الاحتيال على الحكومة نفسها. وكما اكتشف اختصاصيو الأشعة حديثاً، فإنه يمكن أيضاً خداع الأطباء وشركات التأمين باستخدام صور الأشعة السينية المولّدة بالذكاء الاصطناعي.

صعوبة تمييز أشعة «اكس» مزيفة

ووفقاً لدراسة جديدة نشرتها الجمعية الإشعاعية لأميركا الشمالية، فإن معظم الخبراء لا يستطيعون التمييز بين الكسور المزيفة والكسور الحقيقية. أصبح الاحتيال التأميني الذي لا يمكن كشفه على بُعد نقرة واحدة. هذه ليست سوى أحدث حلقة في سلسلة متزايدة من عمليات الاحتيال السهلة والمجانية التي أصبحت ممكنة بفضل قوة الذكاء الاصطناعي.

دراسة علمية

أخضعت دراسة أجرتها الجمعية 17 طبيباً متخصصاً من ست دول مختلفة، بعضهم يمتلك خبرة ميدانية تصل إلى 40 عاماً، لاختبار بصري شمل 264 صورة أشعة سينية - نصفها صور حقيقية، والنصف الآخر صور اصطناعية تم إنشاؤها بواسطة أدوات الذكاء الاصطناعي مثل «تشات جي بي تي» ونموذج «رونت جين» RoentGen مفتوح المصدر من جامعة ستانفورد. وعندما لم يكن الأطباء على علم بوجود هذه الصور الاصطناعية، لم يتمكنوا من تحديد صور الأشعة السينية الاصطناعية بشكل صحيح إلا في 41 في المائة من الحالات.

نجاح محدود في كشف التزييف

وحتى بعد تلقيهم تحذيرات صريحة بوجود صور مزيفة ضمن المجموعة، ازداد متوسط ​​نسبة نجاحهم إلى 75 في المائة؛ إذ تراوحت النسبة بين 58 في المائة المتدنية و92 في المائة المقبولة. ولكنها نتيجة غير مثالية. وتشير الدراسة إلى أن عقوداً من سنوات الخبرة العملية للأطباء لم تُسهم بشكل كبير في كشف التزييف، على الرغم من أن أداء خبراء الجهاز العضلي الهيكلي كان أفضل قليلاً من زملائهم.

حتى النظم الذكية أخفقت في كشف التزييف

وما يزيد الأمر سوءاً، أن نماذج اللغة الضخمة المسؤولة عن ظهور هذه الخدعة الرقمية - بما في ذلك «جي بي تي 40» و«جي بي تي 5» و«جيمناي برو 2.5» و«مافريك» Maverick و«لاما 4» من «ميتا» - لم تكن أفضل حالاً كأدوات كشف آلية؛ إذ تراوحت معدلات دقتها بين 57 في المائة و85 في المائة.

ثغرة أمنية وطبية خطيرة

وأشار الدكتور ميكائيل توردجمان، المؤلف الرئيسي للدراسة، إلى أن «دراستنا تُظهر أن صور الأشعة السينية المزيفة بتقنية التزييف العميق واقعية لدرجة كافية لخداع اختصاصيي الأشعة، وهم أكثر المتخصصين تدريباً في مجال التصوير الطبي، حتى عندما كانوا على دراية بوجود صور مُولّدة بواسطة الذكاء الاصطناعي». وأضاف: «يُشكّل هذا ثغرة أمنية خطيرة للغاية للتقاضي الاحتيالي، على سبيل المثال، إذا كان من الصعب التمييز بين كسر مُختلق وكسر حقيقي. كما يُوجد خطر كبير على الأمن السيبراني إذا تمكن المتسللون من الوصول إلى شبكة المستشفى وحقن صور اصطناعية للتلاعب بتشخيصات المرضى أو إحداث فوضى سريرية واسعة النطاق من خلال تقويض الموثوقية الأساسية للسجل الطبي الرقمي».

صور دقيقة بشكل مفرط

حسب توردجمان، غالباً ما تبدو الصور الطبية المُولّدة بالذكاء الاصطناعي مثاليةً للغاية، حيث تظهر العظام «ناعمةً بشكلٍ مفرط، والعمود الفقري مستقيماً بشكلٍ غير طبيعي، والرئتان متناظرتين بشكلٍ مفرط، وأنماط الأوعية الدموية متجانسةً بشكلٍ مفرط، والكسور تبدو نظيفةً ومتناسقةً بشكلٍ غير عادي، وغالباً ما تقتصر على جانب واحد من العظم».

لكن هذه مجرد مجموعة أدوات قديمة. فمثل مقاطع الفيديو المُولّدة بالذكاء الاصطناعي، سيجعل الذكاء الاصطناعي هذه الأشعة السينية مثاليةً تماماً وغير قابلةٍ للكشف قريباً. هذه هي طبيعة الذكاء الاصطناعي المتطور باستمرار.

ولمكافحة ذلك؛ يطالب الخبراء بعلامات مائية غير مرئية وتوقيعات تشفيرية مرتبطة مباشرةً بالفني الذي التقط الصورة، تعمل فعلياً كختم رياضي للمصداقية يُثبت وجود جسم بشري بالفعل في الغرفة.

التزييف السطحي والصفقات المشبوهة

تُعدّ صور الأشعة السينية الاحتيالية مثالاً خطيراً على التلاعب بالحقائق الذي يحدث بالفعل. خذ على سبيل المثال انتشار التزييف السطحي، وهو عبارة عن أوهام رقمية سطحية مختلقة لا تتطلب سوى جهد ضئيل لتحقيق أقصى مقدار من الخداع المالي.

يستغل المستهلكون العاديون تقنيات الذكاء الاصطناعي التوليدي لتغيير مظهر صور طلبات أطباق الطعام مثلاً وتحويلها أطباقاً «كارثية» غير شهية. بنقرة واحدة فقط؛ إذ مكّن التلاعب رقمياً بمظهر شطيرة البرغر أو قطعة الدجاج ليظهر وكأنه نيء؛ ما يخدع الخوارزميات وممثلي خدمة الزبائن للموافقة على استرداد الزبون أمواله فوراً.

خداع وتلاعب في كل المستويات

«هذا التوجه حقيقي ومتزايد»، كما صرّح ألبرتو بالومار، المتخصص في مكافحة الاحتيال باستخدام الذكاء الاصطناعي التوليدي، لصحيفة «إل كونفيدينسيال» الإسبانية. «يُتيح الذكاء الاصطناعي لأي شخص، حتى من لا يملك أي فكرة عن التكنولوجيا، إمكانية استغلال هذه الخدعة على جميع المستويات».

خدعة رقمية وأضرار بشرية

تقع الخسائر البشرية الجانبية في هذه الخدعة الرقمية على عاتق عمال توصيل الطعام. فعندما ينجح أحد الزبائن في تزييف وجبة تالفة أو غير مطهوة جيداً، يُعاقب السائق بمنحه تقييمات سيئة أو بتعطيل حسابه نهائياً.

من جهة أخرى، يستخدم بعض السائقين هذه التقنية أيضاً لتزييف عمليات توصيل يسرقونها ببساطة.

آثارٌ ورقيةٌ مزيفة لتسلّم التأمين... بملايين الدولارات

في غضون ذلك، يتحول وباء الاحتيال الصغير كارثةً اقتصادية كلية لقطاع التأمين العالمي، مُحوّلاً خدوش السيارات البسيطة وأعطال الهواتف الذكية التزاماتٍ مالية ضخمة على الشركات.

في الولايات المتحدة، «قد تتضمن 20 -30 في المائة من مطالبات التأمين الآن صوراً مُعدّلة، أو وثائق مُزوّرة، أو تقارير طبية مُزيّفة»، وفقاً لشركة «شيفت تكنولوجي»، وهي شركة تقنية تُقدّم وكلاء ذكاء اصطناعي لأتمتة المطالبات.

في المملكة المتحدة، أفادت شركة التأمين «أليانز» بزيادة نسبتها 300 في المائة في استخدام الذكاء الاصطناعي لتعديل الوثائق والصور ومقاطع الفيديو في مطالبات العملاء بين عامي 2022 و2023. وتتوقع شركة «فيريسك» العالمية لتحليلات بيانات التأمين أن يزداد الوضع سوءاً: «واحد من كل ثلاثة مستهلكين قد يُفكّر في تعديل صورة أو وثيقة مطالبة تأمين رقمياً لتعزيز موقفه، وترتفع هذه النسبة إلى 55 في المائة بين جيل الشباب».

في إسبانيا، تُفيد شركة التأمين «أكسا» بأنها تُعالج ما يصل إلى 30 ألف وثيقة متعلقة بالمطالبات يومياً؛ ما يُصعّب اكتشاف التلاعب المُصطنع على نطاق واسع.

وأوضح أرتورو لوبيز ليناريس، مدير قسم المطالبات في «أكسا» إسبانيا، أن «المشكلة الآن تكمن في سهولة القيام بذلك، وفي أن هذه الأدوات في متناول الجميع. يُمكنك أن تطلب من الذكاء الاصطناعي وضع خدش على سيارتك أو تعديل فاتورة إصلاح. من المستحيل اكتشاف ذلك بالعين المجردة؛ لذا أنت في حاجة أيضاً إلى استخدام التكنولوجيا لتحديده».

2 % من السكان يمارسون الغش

مع التسليم بأن نسبة مرتكبي الغش الرقمي لا تتجاوز 2 في المائة من السكان، إلا أن الأرقام لا ترحم. تكمن المشكلة في استحالة كشف هذه الجرائم. صحيح أنه يُمكن تحليل البيانات الوصفية للصور الرقمية - وهي عبارة عن سلاسل برمجية مخفية تعمل كبصمات رقمية تُسجّل الموقع الجغرافي ومواصفات الجهاز والوقت - ولكن نظراً لسهولة تزييف هذه البيانات؛ فقد زال هذا الحاجز.

التحقق من صحة البيانات

يرى البعض أن الدفاع الأمثل يعتمد على برامج تحليل الصور المتقدمة، ولكن كما أظهرت دراسة الأشعة السينية، فإن ذلك صعب أيضاً، وسيصبح مستحيلاً قريباً. ستتفوق أجيال الذكاء الاصطناعي القادمة على أي إجراءات مضادة في مجال الطب الشرعي الرقمي نطورها. إضافةً إلى ذلك، فإن تكلفة هذه الإجراءات، التي ستكون باهظة التنفيذ والتشغيل في مراكز البيانات، تُهدد فعلياً بقاء الشركات الصغيرة والمتوسطة.

ولعل الآن، ومع بدء تأثير الذكاء الاصطناعي على الاقتصاد، وعلى أرباح الشركات والحكومات، سيزداد الضغط بما يكفي للمطالبة بحلول إلزامية للتحقق من صحة البيانات، بما يعود بالنفع على الجميع.

* مجلة «فاست كومباني»


روابط جديدة بين الجينات… والأمراض والاستجابة للعلاج

روابط جديدة بين الجينات… والأمراض والاستجابة للعلاج
TT

روابط جديدة بين الجينات… والأمراض والاستجابة للعلاج

روابط جديدة بين الجينات… والأمراض والاستجابة للعلاج

في خطوة قد تعيد تشكيل مستقبل الطب الشخصي، كشفت دراسة علمية جديدة أجرتها جامعة كاليفورنيا في لوس أنجليس عن أهمية التنوع العرقي في الأبحاث الجينية، موضحة كيف يمكن لهذا التنوع أن يكشف روابط غير مسبوقة بين الجينات وخطر الإصابة بالأمراض، بل وحتى كيفية استجابة المرضى للعلاج.

الدراسة، التي أجراها باحثون من جامعة كاليفورنيا الأميركية ونُشرت في مجلة «Cell» في27 مارس (آذار) 2026 اعتمدت على تحليل بيانات ما يقارب 94 ألف مشارك ضمن بنك حيوي يُعرف باسم «أطلس» ATLAS، وهو واحد من أكثر قواعد البيانات تنوعاً من حيث الخلفيات العرقية في العالم.

لماذا يُعد التنوع مهماً؟

لطالما اعتمدت الدراسات الجينية السابقة بشكل كبير على عينات من أصول أوروبية، ما حدّ من إمكانية تعميم نتائجها على بقية سكان العالم. لكن هذه الدراسة تقدم نموذجاً مختلفاً، حيث شملت مشاركين من خلفيات متعددة تعكس التنوع الكبير في مدينة لوس أنجليس.

وقال دانيال غيشويند الباحث الرئيس في الدراسة من قسم علم الوراثة البشرية في جامعة كاليفورنيا إن هذه ليست نتائج مختبرية محدودة، بل تعكس بيانات حقيقية من مرضى متنوعين، ما يجعلها قابلة للتطبيق على فئات طالما تم تجاهلها في الطب.

الجينات تحدد الاستجابة للعلاج

ومن أبرز نتائج الدراسة أن الجينات قد تؤثر بشكل واضح على مدى استجابة المرضى لأدوية إنقاص الوزن من فئة GLP - 1، وهي أدوية تحاكي هرموناً طبيعياً في الجسم يساعد على تنظيم الشهية، وسكر الدم. ومن أشهر هذه العلاجات دواء سيماغلوتايد Semaglutide المتوفر تحت أسماء تجارية، مثل أوزيمبيك Ozempic، وويغوفي Wegovy.

وأظهرت النتائج أن فعالية هذه الأدوية تختلف بين الأفراد تبعاً لخلفياتهم الجينية، وترتبط بشكل خاص بمستوى الخطر الجيني للإصابة بمرض السكري من النوع الثاني. كما تم تحديد ارتباط جيني جديد بين استجابة المرضى للعلاج وجين يُعرف باسم PTPRU، وهو اكتشاف قد يفتح الباب أمام تطوير علاجات أكثر دقة في المستقبل.

اكتشافات جديدة للأمراض

ولم تقتصر نتائج الدراسة على الأدوية فقط، بل امتدت لتشمل فهماً أعمق لمخاطر الأمراض. فقد تمكن الباحثون من تحديد روابط جينية جديدة لم تكن معروفة سابقاً، خاصة عند تحليل «المتغيرات الجينية النادرة» Rare genetic variants.

على سبيل المثال، تم ربط جين ANKZF1 بمرض الأوعية الدموية الطرفية لدى أشخاص من أصول أفريقية. كما وُجدت علاقة بين جين EPG5 ومستويات الدهون في الدم لدى أفراد من أصول يهودية أشكنازية.

كما أظهرت الدراسة أن بعض المجموعات السكانية، مثل المتحدرين من أصول مكسيكية، أو من أميركا الجنوبية، قد يكونون أكثر عرضة لآثار جانبية معينة للعلاج الهرموني.

نحو طب أكثر دقة

واحدة من الأدوات المهمة التي تناولتها الدراسة هي ما يُعرف بـ«درجات الخطورة الجينية» Polygenic Risk Scores، وهي مؤشرات تُحسب بناءً على مئات أو آلاف المتغيرات الجينية لتقدير احتمالية الإصابة بأمراض مثل السكري، وأمراض القلب، والسرطان.

وأظهرت النتائج أن هذه الأداة قد تكون قريبة من الاستخدام السريري، حيث تم تحديد آلاف الأشخاص المعرضين لخطر مرتفع للإصابة بأمراض شائعة، مثل السكري من النوع الأول.

لكن الباحثين يؤكدون أن هناك حاجة لمزيد من الدراسات قبل اعتماد هذه النتائج بشكل واسع في الأنظمة الصحية.

قاعدة بيانات تعكس الواقع

في خطوة تعيد تشكيل مشهد البحث الطبي يبرز بنك «أطلس» الحيوي كنموذج استثنائي يدمج البيانات الجينية مع السجلات الصحية الإلكترونية، وليوفّر منصة فريدة لدراسة التفاعل بين الجينات والصحة في بيئة واقعية بعيداً عن حدود المختبرات التقليدية.

ويؤكد الباحث روني هاس من قسم علم الوراثة البشرية في جامعة كاليفورنيا، والمعد الرئيس للدراسة، أن كثيراً من الأبحاث السابقة كانت تفتقر إلى التنوع السكاني الكافي، بينما يأتي «أطلس» ليعكس تركيبة مجتمع حقيقي متعدّد الأعراق، ما يمنح النتائج العلمية قوّة، وواقعيةً استثنائية.

ويستوعب البنك الحيوي التنوع الهائل لمقاطعة لوس أنجليس التي تضم 9.6 مليون نسمة، حيث يغطي المشاركون خمس مجموعات قارية رئيسة، و36 مجموعة فرعية دقيقة، من بينهم أرمن، ويهود أشكناز، وفلبينيون، ومكسيكيون أميركيون، ويهود إيرانيون. وهذا المزيج الفريد يتيح للباحثين إجراء مقارنات دقيقة للتأثيرات الجينية على الصحة داخل نظام صحي واحد، مما يحدّ من الاختلافات في طرق الرعاية التي غالباً ما تعقّد الدراسات الممتدّة على مؤسسات متعددة.

مستقبل الطب الشخصي

وتشير هذه النتائج إلى تحول كبير في كيفية فهم الأمراض، وعلاجها. فبدلاً من الاعتماد على نهج موحد للجميع، يقترب الطب من مرحلة يمكن فيها تصميم العلاج وفقاً للتركيبة الجينية لكل فرد.

كما تؤكد الدراسة أن دمج البيانات الجينية مع السجلات الطبية في أنظمة صحية كبيرة ومتنوعة يمكن أن يفتح آفاقاً جديدة لفهم الأمراض، وتطوير استراتيجيات علاجية أكثر دقة، وفعالية.

ومع استمرار توسع هذه الأبحاث يبدو أن مستقبل الطب لن يعتمد فقط على تشخيص المرض، بل على فهم «الخريطة الجينية» لكل مريض، وهو ما قد يغير قواعد اللعبة في الرعاية الصحية حول العالم.


الذكاء الاصطناعي: 20 ثانية للموافقة على ضربة عسكرية… و1.2 ثانية لرفض طلب تأمين صحي

الذكاء الاصطناعي: 20 ثانية للموافقة على ضربة عسكرية… و1.2 ثانية لرفض طلب تأمين صحي
TT

الذكاء الاصطناعي: 20 ثانية للموافقة على ضربة عسكرية… و1.2 ثانية لرفض طلب تأمين صحي

الذكاء الاصطناعي: 20 ثانية للموافقة على ضربة عسكرية… و1.2 ثانية لرفض طلب تأمين صحي

في أول 24 ساعة من الحرب مع إيران، شنت الولايات المتحدة ضربات على ألف هدف. وبحلول نهاية الأسبوع، تجاوز العدد الإجمالي 3000 هدف، أي ضعف ما تم استهدافه في مرحلة «الصدمة والترويع» خلال غزو العراق عام 2003، وفقاً لوزير الحرب بيت هيغسيث، كما كتب فيصل حق (*).

دور الذكاء الاصطناعي العسكري

وقد أصبح هذا العدد غير المسبوق من الضربات ممكناً بفضل الذكاء الاصطناعي. وتصرّ القيادة المركزية الأميركية (سنتكوم) على أن العنصر البشري يبقى مشاركاً في كل قرار يتعلق بتحديد الأهداف، وأن الذكاء الاصطناعي موجود لمساعدتهما على اتخاذ «قرارات أكثر ذكاءً وبسرعة أكبر». لكن يبقى الدور الذي يمكن أن يلعبه البشر تحديداً عندما تعمل الأنظمة بهذه السرعة، غير واضح.

توفير الوقت... لقتل الفلسطينيين

قد يُقدم استخدام إسرائيل للذكاء الاصطناعي في تحديد الأهداف خلال حربها على «حماس» بعض الأفكار. فقد أفاد تحقيق أُجري العام الماضي بأن الجيش الإسرائيلي نشر نظام ذكاء اصطناعي يُدعى «لافندر» Lavender لتحديد المشتبه بهم من المسلحين في غزة.

وكانت الرواية الرسمية هي أن جميع قرارات الاستهداف كانت تخضع لتقييم بشري. لكن وفقاً لأحد العاملين في شركة «لافندر»، فإنه ومع ازدياد ثقة الموظفين بالنظام، اقتصرت فحوصهم على التأكد من أن الشخص المستهدف، ذكر. وهو يقول: «كنت أقضي 20 ثانية لكل شخص مستهدف. لم يكن لوجودي أي قيمة مضافة كإنسان، باستثناء كوني مجرد موافقة. لقد وفر ذلك الكثير من الوقت».

رفض طلب صحي - أسرع

وقد ساد هذا النمط نفسه في عالم الأعمال. ففي عام 2023، كشفت «بروبابليكا» عن أن شركة «سيغنا»، إحدى أكبر شركات التأمين الصحي في أميركا، استخدمت خوارزمية لتحديد المطالبات التي تستدعي الرفض. وكان أطباؤها، الذين يُلزمهم القانون بممارسة حكمهم السريري، يوقّعون على قرارات الخوارزمية على دفعات، ويقضون في المتوسط ​​1.2 ثانية في كل حالة. وقد رفض أحد الأطباء أكثر من 60 ألف مطالبة في شهر واحد. يقول طبيب سابق في «سيغنا»: «ببساطة، نضغط على زر الإرسال، ونرسل. لا يستغرق الأمر أكثر من 10 ثوانٍ لمعالجة 50 مطالبة في المرة الواحدة».

الانفصال عن القرار يجرّده من جوهره

يكتب الروائي ميلان كونديرا عن ثقل مواجهة خطورة أفعالنا الدائمة. إن الانفصال عن ثقل قراراتنا يُجرّدها من جوهرها ومعناها.

يَعِد الذكاء الاصطناعي بتخفيف عبء العمل الصعب والمُرهِق ذهنياً، فهو يُسهّل العمل. تصبح القرارات أسرع وأسهل. وفي الكثير من المجالات، يُعدّ هذا تقدماً حقيقياً. لكن بعض القرارات بالغة الأهمية لدرجة أننا يجب أن نشعر بثقلها.

ميزة التأني قبل القصف

يجب أن يستغرق الأمر وقتاً لاتخاذ قرار بقتل شخص أو رفض طلب رعاية صحية. يجب أن يكون من الصعب تحديد المباني التي يجب قصفها. في مثل هذه القرارات، تُؤدي الصعوبة وظيفةً، فهي ميزة وليست عيباً. إنها آلية تُجبر المؤسسات على التفكير ملياً فيما تفعله. عندما يُزيل الذكاء الاصطناعي هذا العبء، لا تصبح المؤسسة أكثر كفاءة، بل تُصبح عاجزة.

هذا ليس تقدماً... بل انحطاط أخلاقي

عندما يُزيل الذكاء الاصطناعي عبء اتخاذ القرارات بشأن من يعيش ومن يموت، فهذا ليس تقدماً، بل هو انحطاط أخلاقي.

إذا كان الإنسان في هذه العملية لا يقضي سوى ثوانٍ معدودة في كل قرار، فإن مسألة ما إذا كان النظام ذاتياً أم خاضعاً لإشراف بشري تصبح مسألة لفظية في جوهرها. علينا أن نُصرّ على وجود العنصر البشري في هذه العملية أيضاً.

السماح للإنسان أن يكون إنساناً

في مثل هذه الحالات، يجب السماح للإنسان بأن يكون إنساناً، حتى لو كان ذلك يعني أنه أبطأ وأقل دقة وكفاءة. هذا هو الثمن الذي ندفعه مقابل شيء ضروري للغاية: نحتاج إلى أن يشعر الإنسان بثقل القرارات التي يتخذها؛ لأن الصعوبة تُولّد الاحتكاك الذي يدفع الناس إلى التوقف والتساؤل والاعتراض.

الثقافة المؤسسية

عندما تصبح القرارات الصعبة سهلة، تتغير المؤسسة نفسها. يتوقف الناس عن التساؤل؛ لأنه لا يوجد ما يستحق التساؤل - فالنظام قد حسم أمره، ودور الإنسان هو التأكيد. يتراجع الاختلاف لأن الاختلاف يتطلب جهداً، وقد تم التخلص من هذا الجهد. تتضاءل المساءلة لأن الجميع يعلم أن الحاسوب هو من يتخذ القرارات.

لم تكن طبيبة شركة «سيغنا» التي رفضت 60 ألف مطالبة في شهر واحد قاسية. لقد وُضعت في نظام لا يتطلب فيه رفض المطالبة جهداً أكثر من نقرة زر. وفعل النظام شيئاً أكثر خبثاً من مجرد إفساد حكمها - لقد جعل حكمها غير ضروري. لهذا السبب؛ فإن قضية «سيغنا» ليست قصة عن شخص واحد سيئ، بل هي قصة عما يحدث لأي مؤسسة تُفرغ قراراتها الصعبة من ثقلها بشكل منهجي.

تكلفة «إفراغ المساءلة»

لإفراغ المساءلة تكلفة تظهر في ثلاثة جوانب للشركات.

- أولاً، المسؤولية القانونية. لا يمكن مقاضاة الخوارزمية أو فصلها أو تحميلها مسؤولية أخطائها. يمكن للمؤسسة التي وظّفته أن تفعل ذلك. إن الرقابة الشكلية ليست منطقة رمادية قانونية، بل هي مسؤولية تنتظر تدخل المحامين.

- ثانياً، الهشاشة المؤسسية. عندما يتوقف البشر عن المشاركة الفعّالة في اتخاذ القرارات، يتوقفون عن التعلم منها. عندما يبدو أن الآلة تُصيب دائماً، لا أحد يكتسب القدرة على التمييز بين الخطأ والخطأ. والمؤسسات التي تُهمّش دور البشر في عملية اتخاذ القرار تُصبح معتمدة على أنظمة لم تعد تفهمها تماماً. وهذا يُؤدي إلى هشاشة في اللحظات التي تتطلب المرونة.

- ثالثاً، الثقة. قد يرغب العملاء والموظفون والجهات التنظيمية في معرفة ما إذا كان الذكاء الاصطناعي قد اتخذ قراراً. لكنهم سيرغبون بالتأكيد في معرفة ما إذا كان هناك من يتحمل المسؤولية الحقيقية عنه. والإجابة، إنه في كثير من المؤسسات هي: لا، وهذه الإجابة لها عواقب وخيمة على علاقات المنظمة بالجهات المسؤولة أمامها.

الخلاصة

يُقال لنا إن الذكاء الاصطناعي يُحررنا - من الأعمال الشاقة، ومن بطء الإجراءات، ومن عبء القرارات الصعبة. وغالباً ما يكون كذلك. لكن ليس كل عبء مشكلة يجب حلها. أحياناً، تكون الأعباء هي الهدف. إنّ الثقل الذي ينبغي أن يشعر به القائد قبل إصدار أمرٍ بشنّ ضربة، والجهد الذي يبذله الطبيب قبل رفض تقديم الرعاية - ليسا مجرد أوجه قصور يمكن التخلص منها بسهولة. بل هما الآليتان اللتان تضمنان نزاهة المؤسسات فيما يتعلق بالسلطة التي تمارسها.

بالطبع، ستكون المؤسسات التي تتخلص من هذا الثقل أسرع وأخفّ وزناً. وقد يبدو، لفترة من الزمن، أنها تحقق النصر. لكن هذه المؤسسات ستكون أيضاً هي التي ستكتشف، بعد فوات الأوان، أن الصعوبة كانت ثمن كونها صاحبة القرار - وفي اللحظة التي تتوقف فيها المؤسسة عن دفع هذا الثمن، لا يحق لها اتخاذ أي قرار على الإطلاق.

* مجلة «فاست كومباني»