تماماً مثل البشر... الذكاء الاصطناعي قد يُصاب بـ«تعفن الدماغ»https://aawsat.com/%D8%AA%D9%83%D9%86%D9%88%D9%84%D9%88%D8%AC%D9%8A%D8%A7/5200662-%D8%AA%D9%85%D8%A7%D9%85%D8%A7%D9%8B-%D9%85%D8%AB%D9%84-%D8%A7%D9%84%D8%A8%D8%B4%D8%B1-%D8%A7%D9%84%D8%B0%D9%83%D8%A7%D8%A1-%D8%A7%D9%84%D8%A7%D8%B5%D8%B7%D9%86%D8%A7%D8%B9%D9%8A-%D9%82%D8%AF-%D9%8A%D9%8F%D8%B5%D8%A7%D8%A8-%D8%A8%D9%80%D8%AA%D8%B9%D9%81%D9%86-%D8%A7%D9%84%D8%AF%D9%85%D8%A7%D8%BA
تماماً مثل البشر... الذكاء الاصطناعي قد يُصاب بـ«تعفن الدماغ»
نماذج الذكاء الاصطناعي يمكن أن تصاب بـ«تعفن الدماغ» تماماً مثل البشر (رويترز)
نيويورك:«الشرق الأوسط»
TT
نيويورك:«الشرق الأوسط»
TT
تماماً مثل البشر... الذكاء الاصطناعي قد يُصاب بـ«تعفن الدماغ»
نماذج الذكاء الاصطناعي يمكن أن تصاب بـ«تعفن الدماغ» تماماً مثل البشر (رويترز)
خلال السنوات الأخيرة، انتشر مصطلح «تعفن الدماغ» بين العلماء وخبراء الصحة، في إشارة إلى حالة تصيب البشر يعانون فيها من قصر فترات التركيز، وتشوهات في الذكريات، وزيادة مشكلات الصحة العقلية مثل التوتر والاكتئاب بسبب الإفراط في استهلاك المواد التي تُعدّ تافهة أو منخفضة الجودة، خاصة على الإنترنت.
ويقول الباحثون الآن إن الظاهرة نفسها يمكن أن تؤثر على نماذج الذكاء الاصطناعي أيضاً، بحسب ما نقلته مجلة «فورتشن».
وفي نماذج الذكاء الاصطناعي، يُؤدي التعرض المستمر لمنشورات التواصل الاجتماعي القصيرة والواسعة الانتشار، إلى «تدهور إدراكي دائم في نماذج اللغة الكبيرة»، وفقاً لدراسة جديدة لم تُنشر بعد.
ولإثبات فرضيتهم، قام الباحثون بتزويد نماذج اللغة الكبيرة باستمرار بمنشورات قصيرة وواسعة الانتشار على موقع «إكس».
ووجدوا أن «هذا التدريب السام يسبب تراجعاً ملحوظاً في القدرة على التفكير وفهم السياقات الطويلة، ويرجع ذلك جزئياً إلى زيادة في (تخطي الأفكار)، مما يعني أن نماذج الذكاء الاصطناعي أصبحت تفشل بشكل متزايد في وضع خطة للإجابة على الأسئلة، وتغفل أجزاء من عملية التحليل المنطقي الخاصة بها، أو تتجاوز العملية تماماً وتتجاهلها».
وعندما حاول الباحثون «معالجة» نماذج اللغات الكبيرة باستخدام بيانات مكتوبة بشرياً عالية الجودة، وجدوا أن النماذج ما زالت تعاني من آثار متبقية للتدهور الإدراكي، وأظهرت فجوة كبيرة بين جودة تفكيرها قبل التدريب على منشورات مواقع التواصل الاجتماعي وبعده.
وقال الباحثون إن هذه الفجوة تشير إلى أن تأثير تعفن الدماغ قد تم استيعابه بعمق، وأن التدهور في أدائها قد يكون طويل الأمد.
ونظراً لأن نماذج الذكاء الاصطناعي تُدرّب على تريليونات من البيانات من جميع أنحاء الإنترنت، فقد حذّر الباحثون من أنها تتعرض «حتماً وبشكل مستمر» لهذا المحتوى منخفض الجودة تماماً مثل البشر، مما قد يُشكّل مخاطر على التكنولوجيا ككل.
الثقل الذي ينبغي أن يشعر به القائد قبل إصدار أمرٍ بشنّ ضربة، والجهد الذي يبذله الطبيب قبل رفض تقديم الرعاية هما الآليتان اللتان تضمنان نزاهة المؤسسات...
40 دقيقة من الصمت… لماذا تفقد «ناسا» الاتصال مع روادها خلف القمر؟https://aawsat.com/%D8%AA%D9%83%D9%86%D9%88%D9%84%D9%88%D8%AC%D9%8A%D8%A7/5259763-40-%D8%AF%D9%82%D9%8A%D9%82%D8%A9-%D9%85%D9%86-%D8%A7%D9%84%D8%B5%D9%85%D8%AA%E2%80%A6-%D9%84%D9%85%D8%A7%D8%B0%D8%A7-%D8%AA%D9%81%D9%82%D8%AF-%D9%86%D8%A7%D8%B3%D8%A7-%D8%A7%D9%84%D8%A7%D8%AA%D8%B5%D8%A7%D9%84-%D9%85%D8%B9-%D8%B1%D9%88%D8%A7%D8%AF%D9%87%D8%A7-%D8%AE%D9%84%D9%81-%D8%A7%D9%84%D9%82%D9%85%D8%B1%D8%9F
40 دقيقة من الصمت… لماذا تفقد «ناسا» الاتصال مع روادها خلف القمر؟
مشهد «غروب الأرض» خلف القمر خلال مهمة «أرتميس 2» التي حطمت الرقم القياسي لبُعد البشر عن الأرض (أ.ف.ب)
في واحدة من أكثر لحظات الرحلات الفضائية حساسية، يفقد رواد الفضاء الاتصال الكامل مع الأرض أثناء مرورهم خلف الجانب البعيد من القمر. هذه الظاهرة، التي تستمر نحو 40 دقيقة، ليست خللاً تقنياً، بل جزء متوقع من تصميم المهمة، وقد أكدت «ناسا» أنها نتيجة مباشرة لطبيعة الاتصال في الفضاء العميق.
تعتمد أنظمة الاتصال بين المركبات الفضائية والأرض على مبدأ «خط النظر»، أي وجود مسار مباشر بين الهوائيات الأرضية والمركبة. وعندما تمر المركبة خلف القمر، ينقطع هذا المسار تماماً؛ لأن القمر يعمل كحاجز مادي يمنع انتقال الإشارات. وحسبما أوضحته «ناسا» في شرحها لأنظمة الاتصال ضمن برنامج «أرتميس»، فإن هذا الانقطاع يُعد أمراً طبيعياً ومخططاً له مسبقاً، ويستمر حتى تعود المركبة إلى نطاق الرؤية المباشرة للأرض.
صورة لـ«ناسا» تُظهر اقتراب الأرض من الاختفاء خلف القمر خلال مهمة «أرتميس 2» (أ.ف.ب)
صمت كامل... دون استثناء
خلال هذه الفترة، ينقطع كل أشكال الاتصال، بما في ذلك الصوت والبيانات، فلا يمكن لمراكز التحكم إرسال تعليمات، ولا يمكن للطاقم إرسال أي إشارات. هذا الانقطاع لا يُعد مؤشراً على مشكلة، بل مرحلة معروفة في مسار الرحلة حول القمر. وتشير تقارير إعلامية حديثة إلى أن هذه اللحظة تُعد من أكثر المراحل دقة في المهمة، حيث يعتمد الطاقم بالكامل على الأنظمة المبرمجة مسبقاً وعلى إجراءات تم التدريب عليها قبل الإطلاق.
إرث متكرر منذ «أبولو»
ليست هذه الظاهرة جديدة في تاريخ استكشاف القمر. فقد شهدت مهمات «أبولو» فترات مماثلة من انقطاع الاتصال عند المرور خلف القمر.
ورغم التقدم الكبير في تقنيات الاتصال منذ ذلك الوقت، لا يزال هذا التحدي قائماً؛ لأن سببه فيزيائي بالدرجة الأولى، وليس تقنياً فقط. فحتى مع إدخال تقنيات حديثة، مثل الاتصالات الليزرية التي تختبرها «ناسا»، لا يمكن تجاوز مشكلة انعدام «خط النظر» بشكل كامل في هذه المرحلة.
وفي ظل هذا الانقطاع، تعتمد المهمة على التخطيط الدقيق والأنظمة الذاتية. فمسار الرحلة والعمليات الأساسية والإجراءات الطارئة، كلها تُبرمج مسبقاً بحيث يمكن تنفيذها دون تدخل مباشر من الأرض.
كما يتم تدريب الطاقم على العمل في بيئة «دون اتصال»، بما يشمل التعامل مع السيناريوهات المحتملة واتخاذ قرارات مستقلة ضمن حدود محددة.
تظهر هذه الصورة فوهة «فافيلوف» القمرية من مركبة «أوريون» خلال مهمة «أرتميس 2» (أ.ف.ب)
لحظة استعادة الاتصال
بمجرد خروج المركبة من خلف القمر، تعود الإشارات تدريجياً، ويُعاد الاتصال مع الأرض تلقائياً. هذه اللحظة تمثل نهاية فترة الانقطاع، وتسمح لمراكز التحكم باستئناف متابعة الرحلة بشكل مباشر.
وقد أشارت تقارير عن مهمة «Artemis II» إلى أن استعادة الاتصال تتم كما هو مخطط لها، دون تدخل يدوي، بمجرد عودة المركبة إلى نطاق التغطية.
دلالات تتجاوز الدقائق الأربعين
رغم قصر هذه الفترة نسبياً، فإنها تحمل أهمية كبيرة في سياق استكشاف الفضاء. فهي تبرز حدود الاتصال الحالية، وتؤكد الحاجة إلى تطوير أنظمة أكثر استقلالية، خاصة مع التوجه نحو مهمات أبعد، مثل الرحلات المأهولة إلى المريخ. في هذه المهمات المستقبلية، لن يكون الانقطاع مجرد 40 دقيقة، بل قد يمتد إلى فترات أطول بكثير، نتيجة المسافات الهائلة بين الأرض والمركبة.
مشهد يُظهر الأرض من مركبة «أوريون» بعد بلوغ «أرتميس 2» أبعد مسافة بشرية عنها (رويترز)
بين التقدم التكنولوجي وحدود الفيزياء
تعكس هذه الظاهرة حقيقة أساسية في استكشاف الفضاء وهي أنه رغم التقدم الكبير في التكنولوجيا، لا تزال بعض التحديات خاضعة لقوانين فيزيائية لا يمكن تجاوزها بسهولة. فالانقطاع خلف القمر ليس نتيجة نقص في التطوير، بل نتيجة طبيعية لغياب المسار المباشر للإشارة. وهذا ما يجعل من هذه اللحظة مثالاً واضحاً على التوازن بين ما يمكن للتكنولوجيا تحقيقه، وما تفرضه طبيعة البيئة الفضائية.
تمثل هذه الـ40 دقيقة من الصمت مرحلة محسوبة بدقة ضمن تصميم المهمة، وليست مؤشراً على خطر أو خلل. ومع كل رحلة جديدة إلى القمر، تعود هذه الظاهرة لتذكّر بأن استكشاف الفضاء لا يزال يعتمد على التكيف مع بيئة تختلف جذرياً عن أي شيء على الأرض.
لعبة «براغماتا»: حين يصبح القمر مسرحاً لـ«حلم» تقني خرج عن السيطرةhttps://aawsat.com/%D8%AA%D9%83%D9%86%D9%88%D9%84%D9%88%D8%AC%D9%8A%D8%A7/5259719-%D9%84%D8%B9%D8%A8%D8%A9-%D8%A8%D8%B1%D8%A7%D8%BA%D9%85%D8%A7%D8%AA%D8%A7-%D8%AD%D9%8A%D9%86-%D9%8A%D8%B5%D8%A8%D8%AD-%D8%A7%D9%84%D9%82%D9%85%D8%B1-%D9%85%D8%B3%D8%B1%D8%AD%D8%A7%D9%8B-%D9%84%D9%80%D8%AD%D9%84%D9%85-%D8%AA%D9%82%D9%86%D9%8A-%D8%AE%D8%B1%D8%AC-%D8%B9%D9%86-%D8%A7%D9%84%D8%B3%D9%8A%D8%B7%D8%B1%D8%A9
لعبة «براغماتا»: حين يصبح القمر مسرحاً لـ«حلم» تقني خرج عن السيطرة
لعبة «براغماتا» الممتعة المقبلة
بعد سنوات من الغموض والتأجيلات التي أثارت فضول مجتمع اللاعبين، ومع اقتراب موعد إطلاق لعبة «براغماتا Pragmata» من شركة «كابكوم Capcom» المقرر في 17 أبريل (نيسان) الجاري، قمنا باختبار المرحلة التجريبية (Demo) المتاحة للاعبين والتي استمرت لنحو الساعتين، استكشفنا خلالها عالماً يمزج بين دقة التصميم وجموح الخيال.
«هيو» و«ديانا»
عالم قمري «مطبوع»
تدور أحداث اللعبة في مستقبل بائس هجر البشر فيه كوكب الأرض ولجأوا إلى القمر، ليؤسسوا قاعدة قمرية متطورة تعتمد كلياً على مادة «خام اللونيوم» Lunum Ore القادرة على محاكاة وتصنيع أي شيء عبر الطباعة ثلاثية الأبعاد. وتبدأ الرحلة بمحاولة بطل اللعبة «هيو» والطفلة «ديانا» البقاء على قيد الحياة داخل نسخة مطبوعة ومشوهة من مدينة نيويورك، حيث يبدو أن «ديانا» ليست مجرد طفلة عادية، بل هي المفتاح التقني لفك شفرات هذا العالم الذي خرج عن السيطرة، مما يجعل حمايتها هي أساس كل قرار يتخذه اللاعب.
وتتعمق السردية في تساؤلات حول طبيعة الواقع والذاكرة، حيث يظهر جلياً أن القاعدة القمرية قد تعرضت لكارثة تقنية حوّلتها إلى كابوس مستوحى من أفلام الخيال العلمي. ومن خلال استكشاف البيئات المحطمة وجمع «رموز ذاكرة الأرض الحمراء»، يكتشف اللاعبون أن «ديانا» تملك القدرة على استحضار ذكريات من الماضي البشري المفقود، بينما يحاول «هيو» فهم دوره في هذا النظام المنهار.
ولا تقتصر القصة فقط على الهروب، بل تتعلق بمفهوم الإرث وكيف يمكن للتقنية أن تحفظ أو تشوّه جوهر الإنسانية، وسط صراع دائم مع آلات وكيانات برمجية تحاول جاهدةً منع الثنائي من الوصول إلى الحقيقة الكامنة وراء مشروع «براغماتا».
مدينة نيويورك «المطبوعة» في القاعدة القمرية
وسيجد اللاعب ناطحات السحاب في أماكن خاطئة، وسيارات مطبوعة بشكل ناقص أو مشوه، مما يخلق بيئة غامضة. هذا التصميم ليس مجرد جمال بصري، بل هو جوهر اللعبة؛ حيث يكتشف اللاعب خلال تقدمه أسرار الأبحاث التي أدت لتحويل القمر إلى هذا المختبر العملاق.
توازن بين الحركة والملاذ الآمن
* تنقل سلس: تركز اللعبة على آلية القفز بين المنصات. ويمتلك «هيو» قدرات حركية مرنة؛ حيث يمكنه القفز لمسافات طويلة والاندفاع بسترته الآلية، بل حتى التحليق البسيط والنزول ببطء عند الضغط المطول على زر الاندفاع. وتعتمد اللعبة نظام تصميم المستويات المترابط، حيث تبدأ المسارات ضيقة ثم تتوسع تدريجياً. ومن خلال تفعيل المفاتيح وحل الألغاز البيئية، ستفتح اللعبة طرقاً مختصرة تسهل التنقل.
* ملاذ آمن: تقدم اللعبة نظام نقاط الحفظ «هاتش Hatch» التي تنقل اللاعب إلى منطقة خاصة يقيم فيها الروبوت المساعد «كابين». هناك، تأخذ اللعبة جانباً إنسانياً، حيث يمكن للاعب تقديم هدايا لـ«ديانا» على شكل عملات تذكارية تتحول إلى صور هولوغرامية من ماضي الأرض، مثل أجهزة التلفزيون القديمة.
* تطوير الشخصية: يمكن زيادة صحة شخصية «هيو» وتحسين قدرات الاختراق لدى «ديانا» باستخدام خام اللونيوم النادر من خلال تطوير برمجيات السترة الآلية (Firmware Updater)، بالإضافة إلى القدرة على تطوير الأسلحة والأدوات باستخدام موارد أكثر شيوعاً، من خلال نظام طباعة الوحدة (Unit Printer Build).
عناصر القتال وصراع لفك الشيفرات
* الاختراق: قد يكون القتال هو العنصر الأكثر تميزاً في اللعبة، ذلك أنها لا تعتمد على إطلاق النار العشوائي، بل على نظام الاختراق الرقمي (Hacking) الذي تقوم به «ديانا». فعندما يواجه «هيو» الأعداء الآليين، يجب عليه حماية نفسه و«ديانا»، بينما تقوم هي باختراق الأنظمة لتعطيل دروع الأعداء أو إضعافهم.
«ديانا» وهي تخترق نظم الأعداء
* تنوع الاستراتيجية والدقة: تختلف البرامج التي تحملها «ديانا»؛ فبعضها مخصص للقضاء على مجموعات الأعداء، وبعضها الآخر لكسر الدروع القوية. وبمجرد اختراق نظام العدو، تبرز نقاط ضعفه (مثل قضبان الوقود في ظهور الرجال الآليين الضخمة)، وهنا يأتي دور مهارة التصويب لدى «هيو».
* مواجهة الزعماء: وتقدم اللعبة معارك مع زعماء عديدين، منها معركة ملحمية ضد زعيم يشبه «العقرب» الآلي، التي كانت تجسيداً حقيقياً لعمق اللعبة؛ حيث استخدم الزعيم أجهزة تشويش لمنع «ديانا» من الاختراق، مما يجبر اللاعب على تدمير تلك الأجهزة أولاً مع تفادي موجات الكهرباء والمباني التي تظهر فجأة في ساحة المعركة.
منهجية لرصد «عدالة الذكاء الاصطناعي» داخل «الصندوق الأسود للخوارزميات»https://aawsat.com/%D8%AA%D9%83%D9%86%D9%88%D9%84%D9%88%D8%AC%D9%8A%D8%A7/5259671-%D9%85%D9%86%D9%87%D8%AC%D9%8A%D8%A9-%D9%84%D8%B1%D8%B5%D8%AF-%D8%B9%D8%AF%D8%A7%D9%84%D8%A9-%D8%A7%D9%84%D8%B0%D9%83%D8%A7%D8%A1-%D8%A7%D9%84%D8%A7%D8%B5%D8%B7%D9%86%D8%A7%D8%B9%D9%8A-%D8%AF%D8%A7%D8%AE%D9%84-%D8%A7%D9%84%D8%B5%D9%86%D8%AF%D9%88%D9%82-%D8%A7%D9%84%D8%A3%D8%B3%D9%88%D8%AF-%D9%84%D9%84%D8%AE%D9%88%D8%A7%D8%B1%D8%B2%D9%85%D9%8A%D8%A7%D8%AA
منهجية لرصد «عدالة الذكاء الاصطناعي» داخل «الصندوق الأسود للخوارزميات»
طوّر باحثو «MIT» منهجية لرصد مخاطر العدالة في أنظمة الذكاء الاصطناعي قبل نشرها (شاترستوك)
مع توسّع دور أنظمة الذكاء الاصطناعي في اتخاذ قرارات مستقلة داخل قطاعات حيوية، لم يعد السؤال يقتصر على كفاءة هذه الأنظمة؛ بل أصبح يشمل مدى عدالتها أيضاً. وفي هذا السياق، قدّم باحثون من معهد ماساتشوستس للتكنولوجيا (MIT) منهجية جديدة تهدف إلى رصد مخاطر العدالة في أنظمة اتخاذ القرار المستقلة قبل نشرها، ما قد يشكّل تحولاً في طريقة تقييم هذه التقنيات.
وعادةً ما تُصمَّم الأنظمة المستقلة لتحسين نتائج قابلة للقياس؛ ففي شبكات الطاقة، على سبيل المثال، قد يحدد نموذج ذكاء اصطناعي كيفية توزيع الكهرباء بطريقة تقلل التكاليف وتحافظ على الاستقرار. لكن هذا النوع من التحسين لا يأخذ بالضرورة في الاعتبار كيفية توزيع النتائج بين مختلف الفئات المجتمعية؛ فقد تبدو الاستراتيجية فعّالة من الناحية التقنية، لكنها قد تؤدي إلى تحميل أحياء ذات دخل منخفض عبء انقطاعات الكهرباء، مقابل حماية مناطق أكثر ثراءً.
العدالة في الذكاء الاصطناعي غالباً غير واضحة بسبب طبيعة «الصندوق الأسود» للخوارزميات (غيتي)
«الصناديق سوداء»
هذا التوتر بين الكفاءة والعدالة يشكّل جوهر البحث الجديد؛ فقد طوّر فريق «MIT» منهجية تقيم بشكل منهجي كيف توازن الأنظمة المستقلة بين هذه الأولويات المتنافسة. وبدلاً من التركيز فقط على مؤشرات الأداء التقنية، يدمج النهج الجديد عوامل كمية مثل التكلفة وموثوقية النظام مع اعتبارات نوعية تشمل العدالة والإنصاف.
تقنياً، تعمل هذه المنهجية بوضفها إطار تقييم آلياً، حيث تحلل القرارات التي تتخذها أنظمة الذكاء الاصطناعي وتحدد الحالات التي قد تؤدي إلى نتائج إشكالية أخلاقياً. ومن خلال رصد هذه المخاطر في مرحلة مبكرة، تتيح الأداة للمطورين وصناع القرار وأصحاب المصلحة تقييم المفاضلات قبل تطبيق الأنظمة في الواقع.
وتكتسب هذه القدرة أهمية خاصة لأن العدالة في الذكاء الاصطناعي ليست دائماً واضحة؛ فكثير من الخوارزميات تعمل بوصفها «صناديق سوداء»، ما يجعل من الصعب تتبع كيفية اتخاذ القرارات أو تفسير النتائج. وفي كثير من الأحيان، لا يكون التحيّز مقصوداً؛ بل ينشأ من البيانات المستخدمة في تدريب النظام أو من طريقة تصميم أهدافه.
وتعالج المنهجية الجديدة هذا التحدي من خلال توفير طريقة منظمة لتقييم العدالة جنباً إلى جنب مع مؤشرات الأداء التقليدية. وبدلاً من التعامل مع العدالة عاملاً ثانوياً أو متطلباً تنظيمياً منفصلاً، تصبح جزءاً أساسياً من عملية تصميم واختبار الأنظمة.
المنهجية توازن بين الكفاءة التقنية والاعتبارات الأخلاقية مثل الإنصاف وتوزيع النتائج (غيتي)
تداعيات الذكاء المستقل
لا تقتصر تداعيات هذا النهج على قطاع الطاقة؛ فأنظمة اتخاذ القرار المستقلة تُستخدم بشكل متزايد في مجالات مثل التخطيط الحضري، وتوزيع الموارد الصحية، والمركبات ذاتية القيادة. وفي كل من هذه المجالات، يمكن أن يكون لقرارات الذكاء الاصطناعي تأثيرات اجتماعية واسعة، خصوصاً عندما تتعلق بالوصول إلى خدمات أساسية.
وفي قطاع النقل، على سبيل المثال، قد تعمل خوارزميات التوجيه على تقليل زمن الرحلات، لكنها قد تفضّل مناطق معينة على حساب أخرى. وفي الرعاية الصحية، قد تسعى نماذج توزيع الموارد إلى تحقيق الكفاءة، لكنها قد لا تضمن توزيعاً عادلاً بين مختلف الفئات السكانية. ومن خلال توفير وسيلة منهجية لرصد هذه المخاطر، يُسهم بحث «MIT» في تعزيز تطوير أنظمة ذكاء اصطناعي أكثر مسؤولية ومواءمة مع القيم الاجتماعية.
كما يعكس هذا العمل توجهاً متزايداً نحو ما يُعرف بـ«الذكاء الاصطناعي الموثوق»، وهو إطار يركز على الشفافية والمساءلة والعدالة إلى جانب الأداء. ومع ذلك، فإن مفهوم العدالة في هذا السياق ليس موحداً؛ إذ قد يشير إلى المساواة في النتائج، أو في المعاملة، أو في توزيع الموارد، بحسب التطبيق. وهذا التعقيد يجعل من الصعب تصميم أنظمة تحقق الكفاءة والإنصاف في الوقت ذاته.
ولا تسعى منهجية «MIT» إلى حسم هذه النقاشات الفلسفية؛ بل تقدم أداة عملية تكشف نقاط التوازن والمفاضلة بين هذه الأهداف. ومن خلال إظهار هذه المفاضلات بشكل واضح، تتيح لصنّاع القرار التعامل معها بوعي، بدلاً من بقائها مخفية داخل العمليات الخوارزمية.
ومن أبرز مساهمات هذا البحث تركيزه على التقييم قبل النشر؛ فكثير من الجهود الحالية في مجال عدالة الذكاء الاصطناعي يركز على اكتشاف التحيّز بعد تطبيق الأنظمة، وهو نهج تفاعلي قد يكون مكلفاً وصعب التنفيذ، خصوصاً عندما تكون الأنظمة قد أصبحت جزءاً من بنى تحتية حيوية.
النهج الاستباقي يساعد في تقليل الأضرار المحتملة ويدعم تطوير أنظمة أكثر شفافية ومسؤولية (رويترز)
تقييم قبل النشر
في المقابل، يتيح النهج الجديد استراتيجية استباقية، حيث يمكن للمطورين اختبار سيناريوهات متعددة، وتقييم التأثيرات المحتملة، وضبط معايير النظام قبل إطلاقه. وهذا لا يقلل فقط من مخاطر الأضرار غير المقصودة؛ بل يتماشى أيضاً مع التوجهات التنظيمية المتزايدة التي تركز على تقييم المخاطر والمساءلة في أنظمة الذكاء الاصطناعي.
ومع ذلك، يسلّط هذا النهج الضوء أيضاً على التحديات المستمرة في تحويل مفهوم العدالة إلى تطبيق عملي داخل أنظمة معقدة؛ فالأنظمة المستقلة غالباً ما تتكون من عناصر متعددة تتفاعل ضمن بيئات ديناميكية، ما يجعل ضمان العدالة بشكل مستمر أمراً صعباً، خصوصاً مع توسّع نطاق استخدامها.
إضافة إلى ذلك، قد تتعارض اعتبارات العدالة أحياناً مع أهداف أخرى مثل تقليل التكاليف أو تحسين الكفاءة. والتعامل مع هذه التعارضات يتطلب ليس فقط حلولاً تقنية؛ بل أيضاً قرارات سياسية ومشاركة مجتمعية.
وفي هذا الإطار، لا تهدف الأدوات مثل تلك التي طوّرها فريق «MIT» إلى استبدال الحكم البشري؛ بل إلى دعمه وتزويده بمعلومات أوضح. ومع استمرار توسّع دور الأنظمة المستقلة في المجتمع، تصبح القدرة على تقييم آثارها الأوسع أمراً ضرورياً.
ويمثّل هذا البحث خطوة نحو تقييم أكثر شفافية ومنهجية لهذه الأنظمة، من خلال توفير وسيلة لرصد المخاطر الأخلاقية قبل أن تتحول إلى واقع. وهو ما يعكس تحوّلاً أوسع في مسار الذكاء الاصطناعي: من التركيز على ما يمكن أن تفعله الأنظمة، إلى التساؤل عن كيفية أدائها، ولصالح مَنْ.