حياة أوبنهايمر جسَّدت صراع العلم مع المسؤولية الأخلاقية

قائدو التطوّرات الثورية في العالم يتحمّلون مسؤولية معالجة مخاطرها على المجتمعات

حياة أوبنهايمر جسَّدت صراع العلم مع المسؤولية الأخلاقية
TT

حياة أوبنهايمر جسَّدت صراع العلم مع المسؤولية الأخلاقية

حياة أوبنهايمر جسَّدت صراع العلم مع المسؤولية الأخلاقية

عاش ج. روبرت أوبنهايمر، أبو القنبلة الذريّة، لسنوات في صراعٍ بين علمه وإملاء ضميره، حيث إنّه عبّر علناً عن قلقه من القنبلة الهيدروجينية وسباق التسلّح النووي. وأنهى أوبنهايمر، الذي يعود اليوم إلى الواجهة في فيلم عالمي يحكي سيرته، حياته العملية على مذبح سياسات الحرب الباردة. لحسن الحظّ، شعر خبراء ذرّيّون مبكرون آخرون، من بينهم علماء جامعة شيكاغو الذين أنتجوا أوّل تفاعلٍ تسلسلي نووي، بواجبهم في المساعدة في منع سوء توظيف علوم الذرة. وفهم هؤلاء العلماء أمراً، يجب على روّاد اليوم في ميادين الذكاء الاصطناعي والهندسة الجينية إدراكه، وهو أنّ الأشخاص الذين يقودون التطوّرات الثورية في العالم يتحمّلون مسؤولية مساعدة المجتمع في معالجة مخاطرها.

 

ملصق عن فيلم أوبنهايمر (أبو القنبلة الذرية)

* هل يمكننا هندسة نباتات وحيوانات مقاومة للعناصر المفترسة، من دون زعزعة توازن الطبيعة؟ وهل من الأخلاقي تصحيح اعتلالات مفترضة لدى البشر؟

أخلاقيات العلم

في مختبرات جامعية أو تابعة لشركات ربحية، يعمل الباحثون اليوم على تطوير تقنيات تثير أسئلة أخلاقية جديّة. هل يمكننا هندسة نباتات وحيوانات مقاومة للعناصر المفترسة، من دون زعزعة توازن الطبيعة؟ هل يجوز الترخيص لبراءات اختراع على الأشكال الحيّة؟ هل من الأخلاقي تصحيح اعتلالات مفترضة لدى البشر؟ هل يجب السماح للآلات باتخاذ قرارات مصيرية –مثلاً، بين استخدام القوّة للردّ على تهديد أو شنّ ضربة نووية انتقامية؟

ترك علماء الذرة من شيكاغو وغيرها من المؤسسات خلفهم نموذجاً عن السلوك المسؤول للعلم، نموذجاً قابلاً للتطبيق اليوم بقدر ما كان قابلاً للتطبيق في أيّام أوبنهايمر.

بدأ السباق نحو القنبلة الذريّة في مختبر «ميت لاب» التابع لجامعة شيكاغو، حيث حدث أوّل انشطار نووي مهندَسٌ ذاتيُّ الاستدامة في الثاني من ديسمبر (كانون الأول) 1942، اجتمع العلماء في ذلك الوقت فيما عُرفت بـ«القرية الذريّة»، ومن بينهم عالم الفيزياء المجري ليو زيلارد، الذي ساعد قبل بضع سنوات من ذلك، في إقناع ألبرت أينشتاين بتحذير الرئيس فرانكلين روزفلت من قرب تطوير سلاح جبار، ومن أنّ علماء هتلر يعلمون بهذا الأمر أيضاً.

وكانت «رسالة أينشتاين - زيلارد» الشهيرة، التي وضعت الولايات المتحدة على مسار «مشروع مانهاتن» المعروف، أوّل خطوة عظيمة باتجاه المسؤولية العلمية في العصر النووي. يقول الدرس الأوّل المستقى في «مختبر ميت»: «المعرفة العلمية، متى ما اكتُسبت، لا تمكن إعادتها من حيث أتت». عندما استشعر زيلارد وزملاؤه أنّ اكتشافات الفيزياء النووية الأخيرة قد تُغيّر العالم، كان عليهم أن يُطْلعوا قادة الديمقراطية على الأمر.

في ذلك الوقت، شغل القرية الذريّة في جامعة شيكاغو مزيج من العلماء الاستثنائيين كالفيزيائي جون سيمبسون، وكانوا مجموعة من الأميركيين اليافعين. وضمّت المجموعة أيضاً عدداً من المهاجرين اليهود، كزيلارد، والفيزيائي الألماني جايمس فرانك، وعالم الفيزياء الحيوية الروسي - الألماني يوجين رابينوفيتش، الذين عاشوا تجارب عزّزت حساسيتهم تجاه البعد الأخلاقي للعلم قبل مغادرة أوروبا. في الحقيقة، حظي فرانك بتجربة أولية في مجال إخضاع العلم للسياسة؛ فبينما كان لا يزال عالماً يافعاً في ألمانيا مع بداية الحرب العالمية الأولى، تطوّع في جيش القيصر وكان ضابطاً في الوحدة التي أدخلت غاز الكلورين لأوّل مرّة إلى ساحة المعركة. وقد انتقد صديقه، عالم الفيزياء البارز والمرشح لجائزة نوبل نيلز بور، في ذلك الوقت قراره قبول الدور الذي ندم عليه فرانك بشدّة لاحقاً.

وبحلول عام 1943 تحوّل العمل الأساسي في تطوير القنبلة النووية إلى مواقع «أوك ريدج»، في تينيسي؛ وهانفورد في واشنطن؛ ولوس آموس في نيو مكسيكو. أمّا العلماء الذين بقوا في «ميت لاب»، في جامعة شيكاغو، فقد حظوا بالوقت لهيكلة قرارات حول استخدام التقنية النووية لما تبقّى من الحرب العالمية الثانية وفي فترة ما بعد الحرب.

دروس الاكتشافات العلمية

أمّا الدرس الثاني من «ميت لاب»، فقد كانت أن الاكتشاف العلمي لا رجعة فيه ولكنّ تأثيراته قابلة للتنظيم. عام 1965، نشرت المؤرخة أليس كيمبل سميث كتاب «خطر وأمل: حركة العلماء في أميركا، 1945 - 1947»، الذي ارتكز على مواد أرشيفية ومقابلات سردت النقاشات الحادّة والغاضبة التي دارت بين العلماء في تلك الفترة. وأخيراً، وضع علماء «ميت لاب» أهدافاً نبيلة وعملية: لقد أرادوا منح اليابانيين لمحة عن قوّة القنبلة الذريّة وفرصة للاستسلام قبل استخدامها ضدّهم، بالإضافة إلى تحرير العلم من أغلال السريّة الرسمية، وتجنّب سباق التسلّح، وتأسيس مؤسسات دولية لحوكمة التقنية الذرية.

يشدّد الدرس الثالث التي خرج به المختبر على أنّ القرارات المهمّة المتعلّقة بتطبيقات التقنية الجديدة يجب أن يتّخذها مدنيّون في مسار ديمقراطي شفّاف. بدأ علماء شيكاغو الذريّون في منتصف الأربعينات نقل مخاوفهم إلى قادة «مشروع مانهاتن»، ومن ثمّ إلى المسؤولين الرسميين.

ألبرت أينشتاين شارك في «مشروع مانهاتن» لإنتاج القنبلة الذرية

فضّلت البيروقراطية العسكرية آنذاك إبقاء الأمور في الظلّ، ولكنّ العلماء واجهوها في كلّ خطوة. فقد قاد زيلارد، وفرانك، ورابينوفيتش، وسيمبسون إلى جانب عددٍ هائلٍ من زملائهم، جهوداً لتثقيف السياسيين وإطلاع الرأي العام على المخاطر النووية. كما أسّس هؤلاء جمعيات عدّة، أوّلاها كانت «علماء شيكاغو الذريّون»، ونظّموا المحاضرات، وكتبوا مقالات الرأي، وأطلقوا منشورات أبرزها «نشرة العلماء الذريين» التي حرّرها علماء «ميت لاب» ونشرتها جامعة «شيكاغو». عملوا أيضاً إلى جانب علماء آخرين من مواقع «مشروع مانهاتن» على تنظيم الدعم للانتقال إلى تنفيذ قانون الطاقة الذرية، الذي أسّس وكالة مستقلّة من المدنيين خاضعة لمحاسبة الرئيس والكونغرس للإشراف على تطوير واستخدام علوم الذرة. استمرّت جهودهم حتّى الحرب الباردة ونظّموا حملات ناجحة لمنع التجارب النووية، ولتطبيق مواثيق منع الانتشار واتفاقات ضبط الأسلحة.

 

* أبحاث القطاع الخاص تلغي حقّ الرأي العام بالمشاركة في اتخاذ القرارات الأخلاقية حول تطبيقات المعرفة العلمية والتقنية

مخاوف أبحاث القطاع الخاص

في القرن الحادي والعشرين، تتولّى مختبرات خاصة والأقسام التنفيذية في شركات تجارية اتخاذ قرارات كثيرة حول تطوير واستخدام التقنيات الجديدة بعيداً عن أنظار الرأي العام. وكما السرية العسكرية التي كانت مكروهة من علماء «ميت لاب»، تعيق مِلكية القطاع الخاص للقرار، التعاون والتدفّق الحرّ للمعرفة اللذين يعتمد عليهما التقدّم العلمي. كما أنّ إضفاء طابع الخصوصية على اتخاذ هذه القرارات يلغي حقّ الرأي العام في المشاركة عبر المسار الديمقراطي في اتخاذ القرارات الأخلاقية حول تطبيقات المعرفة العلمية والتقنية، أي نوع القرارات الذي أعطى «ميت لاب» الحقّ للنّاس في اتخاذها.

في أغسطس (آب) 1945، تسببت قنبلتان ذريّتان في الموت السريع والمحتَم لما يتراوح بين 150 و220 ألف شخص في مدينتي هيروشيما وناغازاكي اليابانيتين. بعد بضعة أشهر، خلال اجتماع في البيت الأبيض، قال أوبنهايمر لهاري ترومان: «سيّدي الرئيس، يداي ملطّختان بالدماء». ولكنّ ترومان ذكّر عالم الفيزياء بأنّ قرار رمي القنبلتين كان قراره وحده. لم يبرّئ علماءُ الذرّة الذين ساهموا في صناعة القنبلة أنفسَهم قط من الحادثة، ولكنّ النظام الذي رعوه والنموذج الذي وضعوه للعلم المسؤول، ساعدا في عدم تكرار استخدام السلاح النووي مرّة أخرى حتّى يومنا هذا، وعلينا الاستفادة من الدروس التي تعلّموها.

* «ذي أتلانتيك أونلاين» - خدمات «تريبيون ميديا»

 

 

 



لماذا يفقد الجمهور ثقته في الذكاء الاصطناعي التوليدي؟

لماذا يفقد الجمهور ثقته في الذكاء الاصطناعي التوليدي؟
TT

لماذا يفقد الجمهور ثقته في الذكاء الاصطناعي التوليدي؟

لماذا يفقد الجمهور ثقته في الذكاء الاصطناعي التوليدي؟

انطلق عصر الذكاء الاصطناعي بوعودٍ واسعة النطاق ونقاشاتٍ حول إمكانياتٍ لا حدود لها، كما تكتب لويز ك. ألين(*).

تفاؤل وخيبة

والآن، وبعد سنواتٍ من الخبرة العملية، لا يزال الخبراء متفائلين بشأن التأثير طويل الأمد للذكاء الاصطناعي. وفي الوقت نفسه، يتفق معظم الناس على أن مساهماته في الحياة اليومية كانت مخيِّبة للآمال، إن لم تكن أسوأ من ذلك.

وحتى بصفتي واحدة من العاملات في القيادة التقنية بهذا المجال، لا بد لي من الاعتراف بأن استياء المستهلكين من الذكاء الاصطناعي له ما يبرره إلى حد كبير، فقد اتسمت تجربة المواطن الأميركي العادي مع الذكاء الاصطناعي التوليدي، حتى الآن، بتراجع الجودة وازدياد انعدام الثقة.

قصص وهمية في وسائل الاتصال الاجتماعي

تعجّ وسائل التواصل الاجتماعي بأشخاصٍ وقصصٍ وهمية، وتمتلئ الأسواق الإلكترونية بشكلٍ متزايد بعمليات الاحتيال المدعومة بالذكاء الاصطناعي. وغالباً ما تفشل مبادرات الشركات في تحقيق التوقعات المالية، بل إن عدداً منها زاد من صعوبة حياة العاملين.

لقد بات فشل أدوات الذكاء الاصطناعي العام في تحقيق الضجة الإعلامية الكبيرة التي أثيرت حولها، أمراً مُسلَّماً به عالمياً، حتى إن قاموس ميريام-ويبستر نفسه أعلن اختياره كلمة «هراء» ككلمة عام 2025.

«التحديد الدقيق والموجّه»

ومع ذلك، تتاح للجمهور، الآن، فرصة لتغيير هذا الواقع في عام 2026. ويبدأ ذلك بتوظيف مفهوم «التحديد الدقيق (specificity)» ككلمة تُعرِّف ما هو مقبل.

وفي حقيقة الأمر، فإن شركات التكنولوجيا وباحثي الذكاء الاصطناعي بالغوا في تقدير القدرات الفعلية لهذه التقنية منذ البداية، فقد ركّز هؤلاء الرواد على الإمكانات الكامنة، بدلاً من النتائج العملية. لقد صوّروا الذكاء الاصطناعي على أنه ضرورة يجب على الشركات اتباعها لمواكبة التطورات، بدلاً من كونه أداةً يمكن للمؤسسات والأفراد استخدامها لتحقيق أهداف محددة.

التكنولوجيا وسيلة وليست غاية

لتطوير هذه التقنية وتحقيق رؤيتهم لمستقبل مُحسَّن بالذكاء الاصطناعي، سيتعيّن على القادة التوقف عن مناشدة الجمهور لتغيير الخطاب حول الذكاء الاصطناعي.

إن الطريق إلى الأمام بسيط للغاية، إذ يحتاج قادة التكنولوجيا إلى العودة إلى أساسيات المنتج. عليهم أن يتقبلوا فكرة أن التكنولوجيا وسيلة لتحقيق غاية، وليست غاية في حد ذاتها، وهذا يعني إعادة تركيز استراتيجيات التطوير والتواصل على حلول للمشاكل الحقيقية.

خطوات التحديد الدقيق «الموجّه»

1. التصميم الموجَّه للأفراد لا «المستخدمين»

إن إغراء بناء أدوات عامة الأغراض مفهوم، لكن القيام بذلك باستخدام التكنولوجيا الحالية يُضعف فائدتها. وستكون أدوات الذكاء الاصطناعي، اليوم، أكثر فاعلية عندما تُصمم خصوصاً لأفراد محددين في أدوار محددة. يجب أن تُوجه هذه المعرفة عملية ابتكار المنتج، والتدريب، والتسويق، وتكتيكات المبيعات.

2. التركيز على النتائج بدلاً من القدرات

الذكاء الاصطناعي ليس مختلفاً عن أي منتج آخر. لن يستخدمه الناس إلا إذا حل مشكلة موجودة لديهم بالفعل. ويفشل كثير من أدوات الذكاء الاصطناعي في تحقيق هذا الهدف، فهي تركز على ما يمكن للنموذج فعله، بدلاً من التمعن في فهم أسباب أهمية ما يفعله.

3. التوقف عن تقديم وعود خيالية

قد يُمثل الذكاء الاصطناعي، اليوم، مستقبلاً يمكن فيه تحقيق التحسين الشامل، لكن هذا ليس صحيحاً. يجب أن تعكس خطط تطوير المنتجات هذه الحقيقة. إنّ الوضوح والمباشرة بشأن ما هو متاح الآن وما سيكون متاحاً في المستقبل يُساعدان على تخفيف الإرهاق الناتج عن الضجة الإعلامية واستعادة الثقة.

حان وقت إعادة النظر

بصفتي مديرة للمنتجات، شاهدتُ عدداً من الأمثلة على الاستخدام الأمثل للذكاء الاصطناعي، خلال السنوات القليلة الماضية.

ومع ذلك، أُدرك أن أسباب انعدام ثقة الجمهور أو عدم اهتمامه الواسع النطاق تقع في معظمها على عاتق قطاع التكنولوجيا، ذلك أن رغبة هذا القطاع في إنجاز كل شيء دفعة واحدة، خلقت بيئةً لا يثق فيها الناس بقدرة التكنولوجيا على القيام بأي شيء مفيد.

إنها حقيقةٌ يصعب تقبّلها، لكن أي قائد تقني يُنكر ذلك يُخدع نفسه. ومع ذلك، لم يفت الأوان بعدُ لتصحيح الوضع. إذا كان القادة على استعداد لتقبُّل هذه الحقيقة وإعادة توجيه استراتيجياتهم نحو «التحديد»، فسيكون هناك متسع من الوقت لإعادة النظر، وإعادة التقييم، وتحقيق رؤية مستقبلٍ مُحسَّن. يجب أن يحدث هذا قريباً، وإلا فسيضيع مستقبل الذكاء الاصطناعي هباءً.

*مجلة «إنك»، خدمات «تريبيون ميديا»


مجتمعات كاملة وتجارب إنسانية... لا تزال خارج نطاق الذكاء الاصطناعي

نافذة على عالمين_ أحدهما لا يفهم الآخر
نافذة على عالمين_ أحدهما لا يفهم الآخر
TT

مجتمعات كاملة وتجارب إنسانية... لا تزال خارج نطاق الذكاء الاصطناعي

نافذة على عالمين_ أحدهما لا يفهم الآخر
نافذة على عالمين_ أحدهما لا يفهم الآخر

في القاعات الكبرى، حيث تُصاغ البيانات وتُعلن المبادئ بلغة تبدو مكتملة، يظهر الذكاء الاصطناعي كأنه يسير بثقة نحو مستقبل أكثر عدلاً وإنصافاً. تُرفع شعارات الشفافية، وتُكرَّر مفاهيم الحوكمة، وتُقدَّم العدالة الخوارزمية كأنها حقيقة قريبة لا جدال فيها.

لكن خلف هذا الانسجام الظاهري، يبقى سؤال أكثر إزعاجاً، وأقل حضوراً:

هل ما يُقال في هذه القاعات يعكس فعلاً ما يحدث خارجها، أم أنه يكتفي بصياغة عالمٍ مثالي لا وجود له في الواقع؟

أخلاقيات داخل حدود البيانات

تركّز معظم النقاشات العالمية حول أخلاقيات الذكاء الاصطناعي على قضايا تبدو مكتملة: التحيّز، والخصوصية، والشفافية، والمسؤولية. وهي دون شك قضايا حقيقية، لكنها تنطلق من افتراض خفيّ نادراً ما يُناقش: أن المشكلة تكمن في كيفية استخدام البيانات، لا في حدودها.

لكن السؤال الأكثر عمقاً، والأقل طرحاً، هو: ماذا عن أولئك الذين لا تُمثّلهم البيانات أصلاً؟ فالذكاء الاصطناعي، مهما بلغ من تعقيد، لا يرى العالم كما هو، بل كما يُقدَّم له. وما لا يدخل في بياناته، لا يدخل في حساباته... ولا في قراراته. وهنا لا يكون الخطأ في الخوارزمية، بل في العالم الذي اختُصر داخلها.

ما لا تراه الخوارزميات

عالم خارج الرؤية الخوارزمية

في مساحات واسعة من هذا العالم، لا تُقاس المعاناة ولا تُسجَّل، ولا تتحول إلى بيانات يمكن للآلة أن تفهمها. هناك أمراض لا تصل إلى مرحلة التشخيص، وصدمات لا تُوثَّق، وواقع صحي كامل يظل خارج أي نموذج تنبؤي.

في مثل هذه البيئات، لا يكون التحيّز نتيجة خلل تقني في الخوارزمية، بل نتيجة غياب الصورة من الأساس. فالمشكلة ليست في طريقة التحليل... بل فيما لم يُحلَّل أصلاً.

وهنا يتبدّل معنى العدالة نفسها. فكيف يمكن الحديث عن «عدالة خوارزمية» في عالمٍ لم يُمثَّل رقمياً بعد؟ وهل يمكن للذكاء الاصطناعي أن يكون منصفاً... إذا كان لا يرى الجميع؟

عندما لا تكفي الأخلاقيات

في القمم العالمية، يُقدَّم الذكاء الاصطناعي كأداة يمكن تهذيبها أخلاقياً، وكأن المشكلة تكمن فقط في ضبط سلوك الخوارزمية من داخل النظام الذي أنشأها. تُناقش المبادئ، وتُصاغ الأطر، ويبدو وكأن الحل يكمن في تحسين ما هو قائم. لكن هذا التصور يخفي افتراضاً أعمق: أن جميع المشكلات قابلة للحل من داخل النظام نفسه. بينما يهمس الواقع بشيء مختلف تماماً.

فهناك معاناة لا تنتظر «حوكمة» الخوارزمية... بل تنتظر أن تُرى. وهناك بشر لا يحتاجون إلى خوارزميات أكثر عدلاً، بل إلى أن يدخلوا أصلاً في مجال رؤيتها.

ما بين الخطاب والواقع: درس من قمة الهند

كما ظهر في نقاشات القمة العالمية للذكاء الاصطناعي في الهند، التي رفعت شعار «الذكاء الاصطناعي المسؤول»، بدا أن التركيز ينصب على مبادئ الحوكمة، والشفافية، وتقليل التحيّز داخل الأنظمة. لكن ما تكشفه هذه النقاشات، رغم أهميتها، هو فجوة أعمق: أن الخطاب الأخلاقي العالمي يفترض وجود عالم ممثَّل بالكامل داخل البيانات... بينما الواقع مختلف تماماً. فما لا يُقال في هذه القاعات، ليس فقط حدود التقنية، بل حدود الرؤية نفسها... إذ توجد مجتمعات كاملة خارج نطاق النماذج، وتجارب إنسانية لا تصل إلى أنظمة الذكاء الاصطناعي، وبالتالي لا تدخل في أي إطار أخلاقي يُناقش.

* عدم الاستقرار البيئي أو الضغوط النفسية من العوامل التي لا يمكن قياسها ولا تدخل إلى الأدوات الذكية *

حدود ما يمكن قياسه

في دراسة حديثة نُشرت عام 2026 في مجلة «نيتشر ميديسن» (Nature Medicine)، أظهرت نماذج تنبؤية طوّرها باحثون في جامعة ستانفورد قدرة متقدمة على تحليل البيانات الصحية، واستباق المخاطر قبل حدوثها. ومع ذلك، توقفت هذه النماذج عند حدود واضحة عندما يتعلق الأمر بعوامل لا تُقاس بسهولة، مثل عدم الاستقرار البيئي أو الضغوط النفسية التي لا تجد طريقها إلى السجلات الطبية.

وهنا لا تنكشف حدود التقنية فحسب، بل حدود الفكرة التي تقوم عليها.

فالمشكلة ليست في دقة ما نقيس، بل في افتراضٍ أعمق: أن كل ما هو مهم... يمكن قياسه.

لكن الواقع أكثر تعقيداً من ذلك. فبعض أهم محددات الصحة لا تُكتب في البيانات، ولا تُترجم إلى أرقام، ومع ذلك تظل الأكثر تأثيراً في حياة الإنسان.

ما بعد الأخلاقيات

قد تنجح القمم في صياغة مبادئ أخلاقية للذكاء الاصطناعي، وتبدو هذه المبادئ مكتملة في نصوصها ومنطقها. لكن التحدي الحقيقي لا يبدأ داخل هذه الأطر، بل خارجها.

في تلك المساحات التي لا تصلها البيانات، ولا تلامسها النماذج، ولا تختزلها الأرقام، هناك يتغيّر السؤال نفسه. فلا يعود السؤال:

هل الذكاء الاصطناعي أخلاقي؟ بل يصبح أكثر عمقاً وإلحاحاً: هل يستطيع أن يرى ما يجب أن يكون أخلاقياً تجاهه؟


أول مهمة مأهولة إلى القمر منذ 50 عاماً

شكل تصويري لمركبة «أوريون» قرب القمر
شكل تصويري لمركبة «أوريون» قرب القمر
TT

أول مهمة مأهولة إلى القمر منذ 50 عاماً

شكل تصويري لمركبة «أوريون» قرب القمر
شكل تصويري لمركبة «أوريون» قرب القمر

سترسل وكالة الطيران والفضاء الاميركية ناسا، أربعة رواد فضاء في مهمة أرتميس 2 في رحلة تستغرق 10 أيام حول القمر للتمهيد لهبوط على سطحه في المستقبل وإقامة قواعد دائمة عليه.