منتقدو الذكاء الاصطناعي يخسرون جولة... هل يربحون معركة «إنقاذ البشرية»؟

خطاب «معهد مستقبل الحياة» (the Future of Life Institute) الذي وقعه إيلون ماسك وستيف وزنياك وأكثر من 1000 آخرين، دعا إلى التوقف عن استخدام الذكاء الاصطناعي المتقدم لمدة ستة أشهر (رويترز)
خطاب «معهد مستقبل الحياة» (the Future of Life Institute) الذي وقعه إيلون ماسك وستيف وزنياك وأكثر من 1000 آخرين، دعا إلى التوقف عن استخدام الذكاء الاصطناعي المتقدم لمدة ستة أشهر (رويترز)
TT

منتقدو الذكاء الاصطناعي يخسرون جولة... هل يربحون معركة «إنقاذ البشرية»؟

خطاب «معهد مستقبل الحياة» (the Future of Life Institute) الذي وقعه إيلون ماسك وستيف وزنياك وأكثر من 1000 آخرين، دعا إلى التوقف عن استخدام الذكاء الاصطناعي المتقدم لمدة ستة أشهر (رويترز)
خطاب «معهد مستقبل الحياة» (the Future of Life Institute) الذي وقعه إيلون ماسك وستيف وزنياك وأكثر من 1000 آخرين، دعا إلى التوقف عن استخدام الذكاء الاصطناعي المتقدم لمدة ستة أشهر (رويترز)

خسر منظمو رسالة مفتوحة رفيعة المستوى تقدموا بها في شهر مارس (آذار) الماضي دعت إلى «وقفة» في العمل على الذكاء الاصطناعي المتقدم، جولة، لكنهم قد يفوزون في معركة طويلة المدى لإقناع العالم بإبطاء الذكاء الاصطناعي، وفقاً لشبكة «أكسيوس».

وبعد مرور 6 أشهر تقريباً على خطاب «معهد مستقبل الحياة» (the Future of Life Institute) الذي وقّعه إيلون ماسك وستيف وزنياك وأكثر من 1000 آخرين، والذي دعا إلى التوقف عن استخدام الذكاء الاصطناعي المتقدم لمدة 6 أشهر، لا يزال العمل يمضي قدماً. لكن الجدل الضخم الذي أعقب ذلك أدى إلى تعميق القلق العام تجاه هذه التكنولوجيا.

ساعدت الرسالة في تطبيع التعبير عن مخاوف الذكاء الاصطناعي العميقة. وبدأ الناخبون في التعبير بشكل متكرر عن قلقهم لمنظمي استطلاعات الرأي، وقام البيت الأبيض بتعبئة المديرين التنفيذيين للتكنولوجيا لتقديم التزامات السلامة، وتسابق المنظمون الأجانب من أوروبا إلى الصين لإنهاء لوائح الذكاء الاصطناعي.

الروبوت تشارلي في مركز ابتكار الروبوتات التابع لمركز الأبحاث الألماني للذكاء الاصطناعي (DFKI) في بريمن، ألمانيا (أ.ف.ب)

ماذا بين السطور؟

في الأشهر الأخيرة، ركزت محادثة الذكاء الاصطناعي في جميع أنحاء العالم بشكل مكثف على المخاطر الاجتماعية والسياسية والاقتصادية المرتبطة بالذكاء الاصطناعي التوليدي، وكان الناخبون صريحين في إخبار منظمي الاستطلاعات عن مخاوفهم بشأن الذكاء الاصطناعي، وفقاً لـ«أكسيوس».

وتجمع الحكومة البريطانية نخبة من المفكرين العميقين في مجال سلامة الذكاء الاصطناعي في قمة عالمية يومي 1 و2 نوفمبر (تشرين الثاني). وقال نائب رئيس الوزراء البريطاني أوليفر دودن، في مؤتمر عقد بواشنطن بعد ظهر الخميس، إن الحدث «يهدف بشكل خاص إلى الذكاء الاصطناعي الحدودي».

وعادةً ما تستخدم «OpenAI» و«ميتا» والمنظمون مصطلح «الذكاء الاصطناعي الحدودي» للتمييز بين نماذج الذكاء الاصطناعي الأكبر والأكثر خطورة من التقنيات الأقل قدرةً.

وقال دودن: «لا يمكنك أبداً تغيير العالم في قمة واحدة، ولكن يمكنك اتخاذ خطوة إلى الأمام وإنشاء إطار مؤسسي لسلامة الذكاء الاصطناعي».

في هذا الإطار، أوضح أنتوني أغيري، المدير التنفيذي لمعهد «مستقبل الحياة»، الذي نظم رسالة «الإيقاف المؤقت»، لموقع «أكسيوس» أنه «متفائل جداً» بأن عملية المملكة المتحدة هي الآن أفضل رهان «لتباطؤ» تطوير الذكاء الاصطناعي وإعادة صياغة دقيقة لهدفه الأصلي في «التوقف لمدة 6 أشهر».

ويعتقد أغيري أنه من «المهم للغاية» أن تلعب الصين دوراً رائداً في قمة المملكة المتحدة.

ومع اعترافه بآثار المراقبة المترتبة على تنظيم الذكاء الاصطناعي من قبل بكين، أشار أغيري إلى أن عملية موافقة الصين على منتجات النماذج الأساسية مثل روبوتات الدردشة هي دليل على أن الحكومات يمكنها إبطاء إطلاق الذكاء الاصطناعي إذا أرادت ذلك.

وقال: «إن التسرع والاندفاع نحو الاضطراب الأساسي ليسا بالضرورة سباقاً تريد الفوز فيه. عامة الناس لا يريدون التقنيات الهاربة».

ورفض أغيري التزامات السلامة الطوعية التي ينظمها البيت الأبيض باعتبارها «لا ترقى إلى مستوى المهمة»، لكنه أعرب عن أمله في أن يتم إقرار التشريع الأميركي في عام 2024.

من جهته، رأى ريد هوفمان المؤسس المشارك لشركة «Inflection AI»، في حديث لـ«أكسيوس»، أنه مهما كان الاهتمام العام الذي قد أثارته الرسالة، فقد قوض المؤلفون مصداقيتهم مع مجتمع مطوري الذكاء الاصطناعي، وهو ما سيحتاجون إليه لتحقيق أهدافهم.

وقال هوفمان، إن مؤلفي الرسالة كانوا «يشيرون إلى الفضيلة ويزعمون أنهم وحدهم الذين يهتمون حقاً بالإنسانية. وهذا يضر بالقضية».

ووصفت الرسالة الأصلية «سباقاً خطيراً لنماذج الصندوق الأسود الأكبر حجماً، التي لا يمكن التنبؤ بها»، وحثت مختبرات الذكاء الاصطناعي على وضع حد لـ«جي بي تي 4» الذي تم إصداره مؤخراً، في إشارة إلى أن الذكاء الاصطناعي قد يدمر البشرية يوماً ما.


مقالات ذات صلة

محافظ بنك إنجلترا من العلا: الاقتصاد العالمي يتماسك رغم تصاعد المخاطر

الاقتصاد محافظ بنك إنجلترا أندرو بيلي متحدثاً في النسخة الثانية من «مؤتمر العلا للاقتصادات الناشئة» (الشرق الأوسط)

محافظ بنك إنجلترا من العلا: الاقتصاد العالمي يتماسك رغم تصاعد المخاطر

قال محافظ بنك إنجلترا، أندرو بيلي، إن الاقتصاد العالمي أظهر مرونة لافتة خلال العام الماضي رغم حالة عدم اليقين الكبيرة المحيطة بالسياسات.

«الشرق الأوسط» (العلا)
الاقتصاد وزير المالية الصيني متحدثاً في مؤتمر العلا (الشرق الأوسط)

وزير المالية الصيني يحذر من تباطؤ النمو واتساع فجوة التنمية عالمياً

قال وزير المالية الصيني، إن الاقتصادات الناشئة تواجه ثلاث تحديات رئيسية، تشمل ضعف زخم النمو، واتساع فجوات التنمية وتزايد أوجه القصور في الحوكمة العالمية.

«الشرق الأوسط» (العلا)
تكنولوجيا شخصية «باز لايت يير» (بيكساباي)

خبراء ينصحون بإبعاد الأطفال عن الدمى الناطقة بالذكاء الاصطناعي

ينصح الخبراء بعدم وجود أي طفل دون سن الخامسة بالقرب من لعبة ذكاء اصطناعي، وأن على الآباء توخي الحذر فيما يتعلق بالأطفال الذين تتراوح أعمارهم بين 6 و12عاماً.

«الشرق الأوسط» (نيويورك)
الاقتصاد متداولون يعملون في قاعة التداول ببورصة نيويورك بينما يتجاوز مؤشر «داو جونز» الصناعي حاجز 50 ألف نقطة (رويترز)

«داو جونز» يكسر حاجز 50 ألف نقطة للمرة الأولى... ما القوى المحركة وراء ذلك؟

نجح مؤشر «داو جونز» الصناعي يوم الجمعة في تجاوز عتبة 50 ألف نقطة للمرة الأولى منذ تأسيسه.

«الشرق الأوسط» (نيويورك)
صحتك النظام الجديد يعتمد على تقييم سلوكيات الإدمان الأساسية (جامعة سينسيناتي)

طريقة ذكية لتشخيص إدمان المخدرات بسرعة وكفاءة

نجح باحثون في جامعة سينسيناتي الأميركية في تطوير نظام ذكاء اصطناعي مبتكر يساعد على تشخيص اضطراب تعاطي المواد المخدرة بدقة تصل إلى 84 في المائة.

«الشرق الأوسط» (القاهرة )

خبراء ينصحون بإبعاد الأطفال عن الدمى الناطقة بالذكاء الاصطناعي

شخصية «باز لايت يير» (بيكساباي)
شخصية «باز لايت يير» (بيكساباي)
TT

خبراء ينصحون بإبعاد الأطفال عن الدمى الناطقة بالذكاء الاصطناعي

شخصية «باز لايت يير» (بيكساباي)
شخصية «باز لايت يير» (بيكساباي)

مع أفلام مغامرات «حكاية لعبة» الشيّقة، إلى حركات «تيد» الطفولية، أصبحت فكرة الدمى والدببة المحشوة، التي تدب فيها الحياة فكرةً سينمائيةً مبتذلة.

وبينما أتاحت التطورات الحديثة في مجال الذكاء الاصطناعي إمكانية صنع ألعاب تبدو واعية، فإنها تبدو أقرب إلى شخصيات شريرة مثل المهرج في فيلم «بولترجايست» وشخصية «تشاكي» في فيلم «لعبة طفل» منها إلى شخصيتَي «وودي» و«باز لايت يير».

ووفقاً لمنظمة «كومن سينس ميديا»، الأميركية غير الحكومية المعنية بمراقبة السلع الإلكترونية الاستهلاكية، فإن الدمى وألعاب الأطفال التي تعمل بالذكاء الاصطناعي تقول كلاماً غير لائق للأطفال، وتنتهك خصوصية المنزل من خلال جمع بيانات واسعة النطاق.

يقول روبي تورني، رئيس قسم التقييمات الرقمية في «كومن سينس»: «أظهر تقييمنا للمخاطر أن دمى الذكاء الاصطناعي تشترك في مشكلات جوهرية تجعلها غير مناسبة للأطفال الصغار».

ويقول تورني: «أكثر من رُبع المنتجات تتضمَّن محتوى غير لائق، مثل الإشارة إلى إيذاء النفس، والمخدرات، والسلوكيات الخطرة»، مشيراً إلى أن هذه الأجهزة تستلزم «جمع بيانات مكثف»، وتعتمد على «نماذج اشتراك تستغل الروابط العاطفية».

ووفقاً لمنظمة «كومن سينس»، تستخدم بعض هذه الألعاب «آليات ترابط لخلق علاقات شبيهة بالصداقة»، محذِّرة من أن هذه الأجهزة في الوقت نفسه «تجمع بيانات واسعة النطاق في المساحات الخاصة بالأطفال»، بما في ذلك التسجيلات الصوتية، والنصوص المكتوبة، و«البيانات السلوكية».

وتؤكد «كومن سينس» ضرورة عدم وجود أي طفل دون سن الخامسة بالقرب من لعبة ذكاء اصطناعي، وأنَّ على الآباء توخي الحذر فيما يتعلق بالأطفال الذين تتراوح أعمارهم بين 6 و12 عاماً.

ويقول جيمس ستاير، مؤسِّس ورئيس منظمة «كومن سينس»: «ما زلنا نفتقر إلى ضمانات فعّالة لحماية الأطفال من الذكاء الاصطناعي»، مقارِناً بين غياب هذه الحماية و«الاختبارات الصارمة» للسلامة والملاءمة التي تخضع لها الألعاب الأخرى قبل الموافقة على طرحها للبيع.


بالخطأ... منصة في كوريا الجنوبية توزع «بتكوين» بقيمة 44 مليار دولار

شعار منصة تداول العملات المشفرة الكورية الجنوبية «بيثامب» (رويترز)
شعار منصة تداول العملات المشفرة الكورية الجنوبية «بيثامب» (رويترز)
TT

بالخطأ... منصة في كوريا الجنوبية توزع «بتكوين» بقيمة 44 مليار دولار

شعار منصة تداول العملات المشفرة الكورية الجنوبية «بيثامب» (رويترز)
شعار منصة تداول العملات المشفرة الكورية الجنوبية «بيثامب» (رويترز)

كشفت منصة تداول العملات المشفرة الكورية الجنوبية «بيثامب»، اليوم السبت، عن أنها وزعت عملات «بتكوين» بقيمة تتجاوز 40 مليار دولار على عملاء بوصفها مكافآت ترويجية عن طريق الخطأ، ما أدى إلى موجة بيع حادة على المنصة.

واعتذرت «‌بيثامب» عن ‌الخطأ الذي ‌وقع ⁠أمس ​الجمعة، ‌وقالت إنها استعادت 99.7 في المائة من إجمالي 620 ألف «بتكوين» بقيمة تبلغ نحو 44 مليار دولار بالأسعار الحالية. وقيدت عمليات التداول والسحب ⁠على 695 عميلاً متأثراً بالواقعة في ‌غضون 35 دقيقة ‍من التوزيع ‍الخاطئ أمس.

وأفادت تقارير إعلامية بأن ‍المنصة كانت تعتزم توزيع مكافآت نقدية صغيرة في حدود 2000 وون كوري (1.40 دولار) ​أو أكثر لكل مستخدم في إطار حدث ترويجي، لكن ⁠الفائزين حصلوا بدلاً من ذلك على ألفي «بتكوين» على الأقل لكل منهم.

وقالت «‌بيثامب» في بيان: «نود أن نوضح أن هذا لا علاقة له بقرصنة خارجية أو انتهاكات أمنية، ولا توجد مشاكل في أمن النظام ‌أو إدارة أصول العملاء».


«مدمّر ستارلينك» المحتمل... خطوة تقنية صينية تفتح الباب أمام تعطيل الأقمار الاصطناعية

صورة مركبة لنموذج قمر اصطناعي مع خلفية لكوكب الأرض (رويترز)
صورة مركبة لنموذج قمر اصطناعي مع خلفية لكوكب الأرض (رويترز)
TT

«مدمّر ستارلينك» المحتمل... خطوة تقنية صينية تفتح الباب أمام تعطيل الأقمار الاصطناعية

صورة مركبة لنموذج قمر اصطناعي مع خلفية لكوكب الأرض (رويترز)
صورة مركبة لنموذج قمر اصطناعي مع خلفية لكوكب الأرض (رويترز)

طوّر علماء صينيون مولّد طاقة فائق القوة وصغير الحجم، في خطوة تمهّد الطريق لتطوير أسلحة من الجيل القادم قد تُستخدم يوماً ما ضد أسراب الأقمار الاصطناعية، مثل كوكبة «ستارلينك» التابعة لشركة «سبيس إكس»، وذلك وفقاً لما أوردته صحيفة «إندبندنت».

وخلال السنوات الأخيرة، اكتسبت أسلحة الموجات الدقيقة عالية الطاقة اهتماماً متزايداً بوصفها بديلاً منخفض التكلفة للصواريخ والبنادق التقليدية، نظراً لقدرتها شبه غير المحدودة على إطلاق النبضات.

وفي هذا السياق، يُجري باحثون في الولايات المتحدة، وروسيا، والصين على وجه الخصوص، دراسات مكثفة حول إمكانية تطوير هذه التقنية إلى أسلحة طاقة موجهة قادرة على تعطيل الأقمار الاصطناعية.

ويُعدّ تدمير قمر اصطناعي في الفضاء مهمة بالغة التعقيد، إذ من المرجح أن تُخلّف الأسلحة التقليدية كميات كبيرة من الحطام المداري، ما قد يؤدي إلى عواقب غير متوقعة، بما في ذلك تهديد الأقمار الاصطناعية التابعة للدولة المنفذة نفسها.

ومن الناحية النظرية، يمكن لأسلحة الموجات الدقيقة تعطيل الأقمار الاصطناعية مع توليد قدر محدود من الحطام، فضلاً عن إتاحة قدر من «الإنكار المعقول»، وهو ما يمنحها ميزة استراتيجية واضحة.

وتعتمد هذه الأسلحة على مبدأ تخزين الطاقة الكهربائية ثم إطلاقها دفعة واحدة على شكل نبضة قوية، على غرار آلية عمل ملف تسلا.

وتُستخدم هذه النبضة الهائلة من الطاقة في تشغيل مولدات الموجات الدقيقة، التي تعمل بدورها على تعطيل الأنظمة، والأجهزة الإلكترونية.

شاشة تظهر إيلون ماسك وشعار شركة «ستارلينك» (رويترز)

وحتى وقت قريب، كانت غالبية النماذج الأولية لهذه المولدات النبضية ضخمة الحجم، إذ بلغ طولها 10 أمتار على الأقل، ووزنها أكثر من 10 أطنان، ما جعل دمجها في أنظمة الأسلحة الصغيرة أو المتحركة أمراً بالغ الصعوبة.

غير أنّ دراسة حديثة أجراها علماء صينيون من معهد شمال غربي الصين للتكنولوجيا النووية (NINT) أظهرت تقدماً ملحوظاً في هذا المجال، حيث استخدم الباحثون مادة عازلة سائلة خاصة تُعرف باسم «ميدل 7131»، ما أتاح تحقيق كثافة أعلى لتخزين الطاقة، وعزلاً أكثر قوة، وتقليلاً لفقدان الطاقة، وأسهم في تصميم جهاز أصغر حجماً، وأكثر كفاءة.

وكتب العلماء في الدراسة المنشورة: «من خلال استخدام مادة عازلة سائلة عالية الكثافة للطاقة تُعرف باسم (ميدل 7131)، إلى جانب خط تشكيل نبضات مزدوج العرض، تمكنت الدراسة من تصغير حجم محول تسلا المتكامل، ونظام تشكيل النبضات».

وبحسب الدراسة، يبلغ طول الجهاز الجديد أربعة أمتار فقط (13 قدماً)، ويزن خمسة أطنان، ما يجعله أول جهاز تشغيل صغير الحجم في العالم لسلاح الميكروويف عالي الطاقة.

ويُعرف هذا الجهاز باسم TPG1000Cs، وهو صغير بما يكفي ليُثبت على الشاحنات، والطائرات، بل وحتى على أقمار اصطناعية أخرى، وفقاً لما أفاد به الباحثون.

وأشار الباحثون إلى أن «النظام أظهر استقراراً في التشغيل لمدة دقيقة واحدة متواصلة، حيث جُمعت نحو 200 ألف نبضة بأداء ثابت».

ويؤكد خبراء أن سلاح ميكروويف أرضياً بقدرة تتجاوز 1 غيغاواط (GW) سيكون قادراً على تعطيل وتدمير آلية عمل أقمار «ستارلينك» الاصطناعية في مدارها بشكل كبير.

وذكر الباحثون، بحسب ما نقلته صحيفة «ساوث تشاينا مورنينغ بوست»، أن جهاز TPG1000Cs قادر على توليد نبضات كهربائية فائقة القوة تصل إلى 20 غيغاواط.

وتأتي هذه التطورات في وقت نشرت فيه الصين عدداً من الدراسات التي تشدد على ضرورة إيجاد وسائل فعالة لتعطيل أقمار «ستارلينك» الاصطناعية التابعة لرجل الأعمال إيلون ماسك.