تقرير: 3 إنجازات مخيفة سيحققها الذكاء الاصطناعي عام 2024

تقرير: 3 إنجازات مخيفة سيحققها الذكاء الاصطناعي عام 2024
TT

تقرير: 3 إنجازات مخيفة سيحققها الذكاء الاصطناعي عام 2024

تقرير: 3 إنجازات مخيفة سيحققها الذكاء الاصطناعي عام 2024

على الرغم من أن عام 2023 كان عام تغيير قواعد اللعبة بالنسبة للذكاء الاصطناعي، إلا أنه مجرد بداية، حيث من المقرر أن يبدأ عام 2024 بمجموعة من التطورات المخيفة التي قد تشمل الذكاء العام الاصطناعي وحتى التزييف العميق الأكثر واقعية.

لقد كان الذكاء الاصطناعي (AI) موجودًا منذ عقود، ولكن هذا العام كان بمثابة انطلاقة للتكنولوجيا المخيفة، حيث أنشأ ChatGPT من OpenAI ذكاءً اصطناعيًا عمليًا يسهل الوصول إليه للجماهير. ومع ذلك، فإن الذكاء الاصطناعي له تاريخ متقلب، والتكنولوجيا اليوم سبقها سجل قصير من التجارب الفاشلة.

وفي أغلب الأحيان، يبدو أن الابتكارات في مجال الذكاء الاصطناعي مهيأة لتحسين أشياء مثل التشخيص الطبي والاكتشاف العلمي. حيث يمكن لأحد نماذج الذكاء الاصطناعي، على سبيل المثال، اكتشاف ما إذا كنت معرضًا لخطر كبير للإصابة بسرطان الرئة من خلال تحليل فحص الأشعة السينية.

وخلال فترة كوفيد-19، قام العلماء أيضًا ببناء خوارزمية يمكنها تشخيص الفيروس من خلال الاستماع إلى الاختلافات الدقيقة في صوت سعال الأشخاص.

كما تم استخدام الذكاء الاصطناعي لتصميم تجارب فيزياء الكم بما يتجاوز ما تصوره البشر.

لكن ليست كل الابتكارات حميدة إلى هذا الحد؛ فمن الطائرات بدون طيار القاتلة إلى الذكاء الاصطناعي الذي يهدد مستقبل البشرية، إليك بعض من أكثر اختراقات الذكاء الاصطناعي رعبًا والتي من المحتمل أن تحدث هذا العام 2024. وذلك وفق تقرير جديد نشره موقع «لايف ساينس» العلمي.

لا نعرف بالضبط سبب إقالة سام ألتمان الرئيس التنفيذي لشركة OpenAI، وإعادته إلى منصبه أواخر عام 2023. ولكن وسط الفوضى المؤسسية في OpenAI، انتشرت شائعات حول تقنية متقدمة يمكن أن تهدد مستقبل البشرية.

الذكاء الاصطناعي العام

وذكرت وكالة «رويترز» أن نظام OpenAI هذا، المسمى Q* (يلفظ Q-star)، قد يجسد الإدراك الرائد المحتمل للذكاء العام الاصطناعي (AGI). إذ لا يُعرف سوى القليل عن هذا النظام الغامض، ولكن إذا كانت التقارير صحيحة، فقد يؤدي ذلك إلى رفع قدرات الذكاء الاصطناعي عدة مرات. وهو نقطة تحول افتراضية، تُعرف أيضًا باسم «التفرد»، حيث يصبح الذكاء الاصطناعي أكثر ذكاءً من البشر.

ولا تزال الأجيال الحالية من الذكاء الاصطناعي متخلفة في المجالات التي يتفوق فيها البشر، مثل التفكير القائم على السياق والإبداع الحقيقي. فمعظم المحتوى الذي ينشئه الذكاء الاصطناعي، إن لم يكن كله، لا يؤدي إلا إلى اجترار، بطريقة ما، البيانات المستخدمة لتدريبه. لكن العلماء يقولون إن الذكاء الاصطناعي العام قد يؤدي وظائف معينة بشكل أفضل من معظم الناس. ويمكن أيضًا تسليحها واستخدامها، على سبيل المثال، لإنشاء مسببات الأمراض المحسنة، أو شنّ هجمات إلكترونية ضخمة، أو تنسيق التلاعب الجماعي.

لقد ظلت فكرة الذكاء الاصطناعي العام مقتصرة منذ فترة طويلة على الخيال العلمي، ويعتقد العديد من العلماء أننا لن نصل أبدًا إلى هذه النقطة. إلّا انه من المؤكد أن وصول OpenAI إلى نقطة التحول هذه سيكون بمثابة صدمة، لكن ليس خارج نطاق الاحتمالات.

نحن نعلم، على سبيل المثال، أن سام كان بالفعل يضع الأساس لـ AGI في فبراير (شباط) 2023، موضحًا نهج OpenAI تجاه AGI في منشور بالمدونة. كما نعلم أيضًا أن الخبراء بدأوا يتوقعون حدوث اختراق وشيك، بما في ذلك الرئيس التنفيذي لشركة «نيفيديا» جينسن هيونغ؛ الذي قال في نوفمبر (تشرين الثاني) إن الذكاء الاصطناعي العام (AGI) سيكون في متناول اليد خلال السنوات الخمس المقبلة. فهل يمكن أن يكون عام 2024 عام الاختراق للذكاء الاصطناعي العام؟ فقط الوقت كفيل بإثبات ذلك.

التزييف العميق

ان أحد التهديدات السيبرانية الأكثر إلحاحًا هو تهديد التزييف العميق (الصور أو مقاطع الفيديو الملفقة بالكامل لأشخاص لتجريمهم أو التنمر عليهم).

لم تكن تقنية التزييف العميق للذكاء الاصطناعي جيدة بما يكفي لتشكل تهديدًا كبيرًا، لكن هذا قد يكون على وشك التغيير. حيث يمكن للذكاء الاصطناعي الآن إنشاء صور مزيفة عميقة في الوقت الحقيقي (أي بث فيديو مباشر)؛ وبعبارة أخرى قد أصبح الآن جيدًا جدًا في إنشاء وجوه بشرية لدرجة أن الناس لم يعد بإمكانهم التمييز بين ما هو حقيقي وما هو مزيف.

وكشفت دراسة نشرت بمجلة «العلوم النفسية» في 13 نوفمبر، عن ظاهرة «الواقعية المفرطة»، حيث من المرجح أن يُنظر إلى المحتوى الناتج عن الذكاء الاصطناعي على أنه «حقيقي» أكثر من كونه محتوى حقيقيًا. وهذا من شأنه أن يجعل من المستحيل عمليا على الناس التمييز بين الحقيقة والخيال بالعين المجردة.

وعلى الرغم من أن الأدوات يمكن أن تساعد الأشخاص على اكتشاف التزييف العميق، إلا أنها ليست في الاتجاه السائد بعد؛ على سبيل المثال، قامت شركة «إنتل» ببناء كاشف عميق للتزييف العميق يعمل باستخدام الذكاء الاصطناعي لتحليل تدفق الدم. لكن برنامج FakeCatcher المعروف أدى إلى نتائج مختلطة، وفقا لهيئة الاذاعة البريطانية (بي بي سي).

ومع نضوج الذكاء الاصطناعي، فإن أحد الاحتمالات المخيفة هو أن يتمكن الناس من نشر التزييف العميق لمحاولة التأثير على الانتخابات.

وبينما تستعد الولايات المتحدة لإجراء انتخابات رئاسية في نوفمبر 2024، هناك احتمال أن يؤدي الذكاء الاصطناعي والتزييف العميق إلى تغيير نتيجة هذا التصويت الحاسم؛ على سبيل المثال، تراقب جامعة كاليفورنيا في بيركلي استخدام الذكاء الاصطناعي في الحملات الانتخابية،

وذكرت شبكة «إن بي سي نيوز» أيضًا أن العديد من الولايات تفتقر إلى القوانين أو الأدوات اللازمة للتعامل مع أي زيادة في المعلومات المضللة الناتجة عن الذكاء الاصطناعي.

الروبوتات القاتلة

تعمل الحكومات في جميع أنحاء العالم على دمج الذكاء الاصطناعي بشكل متزايد في أدوات الحرب. فقد أعلنت الحكومة الأميركية في 22 نوفمبر أن 47 ولاية قد أيدت إعلانًا بشأن الاستخدام المسؤول للذكاء الاصطناعي في الجيش، والذي تم إطلاقه لأول مرة في لاهاي بفبراير. وان الاستخدام «غير المسؤول» لهذه التقنيات هو احتمال حقيقي ومرعب. إذ يستطيع الذكاء الاصطناعي التعرف على الأنماط، والتعلم الذاتي، والتنبؤ أو إصدار توصيات في السياقات العسكرية، وقد بدأ بالفعل سباق تسلح للذكاء الاصطناعي. ففي عام 2024، من المحتمل أننا لن نرى استخدام الذكاء الاصطناعي في أنظمة الأسلحة فحسب، بل أيضًا في الأنظمة اللوجستية وأنظمة دعم القرار، فضلاً عن البحث والتطوير. ففي عام 2022، على سبيل المثال، أنتج الذكاء الاصطناعي 40 ألف سلاح كيميائي افتراضي جديد. وطلبت فروع مختلفة من الجيش الأميركي طائرات بدون طيار يمكنها التعرف على الأهداف وتتبع المعارك بشكل أفضل من البشر. .

لقد ابتكر العلماء ذكاءً اصطناعيًا يمكنه اكتشاف الحياة الفضائية، لكنهم ليسوا متأكدين تمامًا من كيفية عمله. إلّا ان أحد مجالات التطوير الأكثر إثارة للخوف هو مجال أنظمة الأسلحة الفتاكة المستقلة (LAWS) - أو الروبوتات القاتلة.

وقد حذر العديد من العلماء والتقنيين البارزين من الروبوتات القاتلة، بما في ذلك ستيفن هوكينغ عام 2015 وإيلون ماسك عام 2017، لكن التكنولوجيا لم تتحقق بعد على نطاق واسع. ومع ذلك، تشير بعض التطورات المثيرة للقلق إلى أن هذا العام قد يكون بمثابة انطلاقة للروبوتات القاتلة.

ويعد المبالغ التي تنفقها الدول حول العالم على الذكاء الاصطناعي مؤشرًا أيضًا، حيث رفعت الصين إنفاق الذكاء الاصطناعي من 11.6 مليون دولار في عام 2010 إلى 141 مليون دولار بحلول عام 2019، وفقًا لما ذكرته «رويترز». وأضاف المنشور أن السبب في ذلك هو أن الصين تخوض سباقًا مع الولايات المتحدة لنشر أنظمة الأسلحة الفتاكة ذاتية التشغيل.

وتشير هذه التطورات مجتمعة إلى أننا ندخل فجرًا جديدًا في حرب الذكاء الاصطناعي.


مقالات ذات صلة

محافظ بنك إنجلترا من العلا: الاقتصاد العالمي يتماسك رغم تصاعد المخاطر

الاقتصاد محافظ بنك إنجلترا أندرو بيلي متحدثاً في النسخة الثانية من «مؤتمر العلا للاقتصادات الناشئة» (الشرق الأوسط)

محافظ بنك إنجلترا من العلا: الاقتصاد العالمي يتماسك رغم تصاعد المخاطر

قال محافظ بنك إنجلترا، أندرو بيلي، إن الاقتصاد العالمي أظهر مرونة لافتة خلال العام الماضي رغم حالة عدم اليقين الكبيرة المحيطة بالسياسات.

«الشرق الأوسط» (العلا)
الاقتصاد وزير المالية الصيني متحدثاً في مؤتمر العلا (الشرق الأوسط)

وزير المالية الصيني يحذر من تباطؤ النمو واتساع فجوة التنمية عالمياً

قال وزير المالية الصيني، إن الاقتصادات الناشئة تواجه ثلاث تحديات رئيسية، تشمل ضعف زخم النمو، واتساع فجوات التنمية وتزايد أوجه القصور في الحوكمة العالمية.

«الشرق الأوسط» (العلا)
تكنولوجيا شخصية «باز لايت يير» (بيكساباي)

خبراء ينصحون بإبعاد الأطفال عن الدمى الناطقة بالذكاء الاصطناعي

ينصح الخبراء بعدم وجود أي طفل دون سن الخامسة بالقرب من لعبة ذكاء اصطناعي، وأن على الآباء توخي الحذر فيما يتعلق بالأطفال الذين تتراوح أعمارهم بين 6 و12عاماً.

«الشرق الأوسط» (نيويورك)
الاقتصاد متداولون يعملون في قاعة التداول ببورصة نيويورك بينما يتجاوز مؤشر «داو جونز» الصناعي حاجز 50 ألف نقطة (رويترز)

«داو جونز» يكسر حاجز 50 ألف نقطة للمرة الأولى... ما القوى المحركة وراء ذلك؟

نجح مؤشر «داو جونز» الصناعي يوم الجمعة في تجاوز عتبة 50 ألف نقطة للمرة الأولى منذ تأسيسه.

«الشرق الأوسط» (نيويورك)
صحتك النظام الجديد يعتمد على تقييم سلوكيات الإدمان الأساسية (جامعة سينسيناتي)

طريقة ذكية لتشخيص إدمان المخدرات بسرعة وكفاءة

نجح باحثون في جامعة سينسيناتي الأميركية في تطوير نظام ذكاء اصطناعي مبتكر يساعد على تشخيص اضطراب تعاطي المواد المخدرة بدقة تصل إلى 84 في المائة.

«الشرق الأوسط» (القاهرة )

خبراء ينصحون بإبعاد الأطفال عن الدمى الناطقة بالذكاء الاصطناعي

شخصية «باز لايت يير» (بيكساباي)
شخصية «باز لايت يير» (بيكساباي)
TT

خبراء ينصحون بإبعاد الأطفال عن الدمى الناطقة بالذكاء الاصطناعي

شخصية «باز لايت يير» (بيكساباي)
شخصية «باز لايت يير» (بيكساباي)

مع أفلام مغامرات «حكاية لعبة» الشيّقة، إلى حركات «تيد» الطفولية، أصبحت فكرة الدمى والدببة المحشوة، التي تدب فيها الحياة فكرةً سينمائيةً مبتذلة.

وبينما أتاحت التطورات الحديثة في مجال الذكاء الاصطناعي إمكانية صنع ألعاب تبدو واعية، فإنها تبدو أقرب إلى شخصيات شريرة مثل المهرج في فيلم «بولترجايست» وشخصية «تشاكي» في فيلم «لعبة طفل» منها إلى شخصيتَي «وودي» و«باز لايت يير».

ووفقاً لمنظمة «كومن سينس ميديا»، الأميركية غير الحكومية المعنية بمراقبة السلع الإلكترونية الاستهلاكية، فإن الدمى وألعاب الأطفال التي تعمل بالذكاء الاصطناعي تقول كلاماً غير لائق للأطفال، وتنتهك خصوصية المنزل من خلال جمع بيانات واسعة النطاق.

يقول روبي تورني، رئيس قسم التقييمات الرقمية في «كومن سينس»: «أظهر تقييمنا للمخاطر أن دمى الذكاء الاصطناعي تشترك في مشكلات جوهرية تجعلها غير مناسبة للأطفال الصغار».

ويقول تورني: «أكثر من رُبع المنتجات تتضمَّن محتوى غير لائق، مثل الإشارة إلى إيذاء النفس، والمخدرات، والسلوكيات الخطرة»، مشيراً إلى أن هذه الأجهزة تستلزم «جمع بيانات مكثف»، وتعتمد على «نماذج اشتراك تستغل الروابط العاطفية».

ووفقاً لمنظمة «كومن سينس»، تستخدم بعض هذه الألعاب «آليات ترابط لخلق علاقات شبيهة بالصداقة»، محذِّرة من أن هذه الأجهزة في الوقت نفسه «تجمع بيانات واسعة النطاق في المساحات الخاصة بالأطفال»، بما في ذلك التسجيلات الصوتية، والنصوص المكتوبة، و«البيانات السلوكية».

وتؤكد «كومن سينس» ضرورة عدم وجود أي طفل دون سن الخامسة بالقرب من لعبة ذكاء اصطناعي، وأنَّ على الآباء توخي الحذر فيما يتعلق بالأطفال الذين تتراوح أعمارهم بين 6 و12 عاماً.

ويقول جيمس ستاير، مؤسِّس ورئيس منظمة «كومن سينس»: «ما زلنا نفتقر إلى ضمانات فعّالة لحماية الأطفال من الذكاء الاصطناعي»، مقارِناً بين غياب هذه الحماية و«الاختبارات الصارمة» للسلامة والملاءمة التي تخضع لها الألعاب الأخرى قبل الموافقة على طرحها للبيع.


بالخطأ... منصة في كوريا الجنوبية توزع «بتكوين» بقيمة 44 مليار دولار

شعار منصة تداول العملات المشفرة الكورية الجنوبية «بيثامب» (رويترز)
شعار منصة تداول العملات المشفرة الكورية الجنوبية «بيثامب» (رويترز)
TT

بالخطأ... منصة في كوريا الجنوبية توزع «بتكوين» بقيمة 44 مليار دولار

شعار منصة تداول العملات المشفرة الكورية الجنوبية «بيثامب» (رويترز)
شعار منصة تداول العملات المشفرة الكورية الجنوبية «بيثامب» (رويترز)

كشفت منصة تداول العملات المشفرة الكورية الجنوبية «بيثامب»، اليوم السبت، عن أنها وزعت عملات «بتكوين» بقيمة تتجاوز 40 مليار دولار على عملاء بوصفها مكافآت ترويجية عن طريق الخطأ، ما أدى إلى موجة بيع حادة على المنصة.

واعتذرت «‌بيثامب» عن ‌الخطأ الذي ‌وقع ⁠أمس ​الجمعة، ‌وقالت إنها استعادت 99.7 في المائة من إجمالي 620 ألف «بتكوين» بقيمة تبلغ نحو 44 مليار دولار بالأسعار الحالية. وقيدت عمليات التداول والسحب ⁠على 695 عميلاً متأثراً بالواقعة في ‌غضون 35 دقيقة ‍من التوزيع ‍الخاطئ أمس.

وأفادت تقارير إعلامية بأن ‍المنصة كانت تعتزم توزيع مكافآت نقدية صغيرة في حدود 2000 وون كوري (1.40 دولار) ​أو أكثر لكل مستخدم في إطار حدث ترويجي، لكن ⁠الفائزين حصلوا بدلاً من ذلك على ألفي «بتكوين» على الأقل لكل منهم.

وقالت «‌بيثامب» في بيان: «نود أن نوضح أن هذا لا علاقة له بقرصنة خارجية أو انتهاكات أمنية، ولا توجد مشاكل في أمن النظام ‌أو إدارة أصول العملاء».


«مدمّر ستارلينك» المحتمل... خطوة تقنية صينية تفتح الباب أمام تعطيل الأقمار الاصطناعية

صورة مركبة لنموذج قمر اصطناعي مع خلفية لكوكب الأرض (رويترز)
صورة مركبة لنموذج قمر اصطناعي مع خلفية لكوكب الأرض (رويترز)
TT

«مدمّر ستارلينك» المحتمل... خطوة تقنية صينية تفتح الباب أمام تعطيل الأقمار الاصطناعية

صورة مركبة لنموذج قمر اصطناعي مع خلفية لكوكب الأرض (رويترز)
صورة مركبة لنموذج قمر اصطناعي مع خلفية لكوكب الأرض (رويترز)

طوّر علماء صينيون مولّد طاقة فائق القوة وصغير الحجم، في خطوة تمهّد الطريق لتطوير أسلحة من الجيل القادم قد تُستخدم يوماً ما ضد أسراب الأقمار الاصطناعية، مثل كوكبة «ستارلينك» التابعة لشركة «سبيس إكس»، وذلك وفقاً لما أوردته صحيفة «إندبندنت».

وخلال السنوات الأخيرة، اكتسبت أسلحة الموجات الدقيقة عالية الطاقة اهتماماً متزايداً بوصفها بديلاً منخفض التكلفة للصواريخ والبنادق التقليدية، نظراً لقدرتها شبه غير المحدودة على إطلاق النبضات.

وفي هذا السياق، يُجري باحثون في الولايات المتحدة، وروسيا، والصين على وجه الخصوص، دراسات مكثفة حول إمكانية تطوير هذه التقنية إلى أسلحة طاقة موجهة قادرة على تعطيل الأقمار الاصطناعية.

ويُعدّ تدمير قمر اصطناعي في الفضاء مهمة بالغة التعقيد، إذ من المرجح أن تُخلّف الأسلحة التقليدية كميات كبيرة من الحطام المداري، ما قد يؤدي إلى عواقب غير متوقعة، بما في ذلك تهديد الأقمار الاصطناعية التابعة للدولة المنفذة نفسها.

ومن الناحية النظرية، يمكن لأسلحة الموجات الدقيقة تعطيل الأقمار الاصطناعية مع توليد قدر محدود من الحطام، فضلاً عن إتاحة قدر من «الإنكار المعقول»، وهو ما يمنحها ميزة استراتيجية واضحة.

وتعتمد هذه الأسلحة على مبدأ تخزين الطاقة الكهربائية ثم إطلاقها دفعة واحدة على شكل نبضة قوية، على غرار آلية عمل ملف تسلا.

وتُستخدم هذه النبضة الهائلة من الطاقة في تشغيل مولدات الموجات الدقيقة، التي تعمل بدورها على تعطيل الأنظمة، والأجهزة الإلكترونية.

شاشة تظهر إيلون ماسك وشعار شركة «ستارلينك» (رويترز)

وحتى وقت قريب، كانت غالبية النماذج الأولية لهذه المولدات النبضية ضخمة الحجم، إذ بلغ طولها 10 أمتار على الأقل، ووزنها أكثر من 10 أطنان، ما جعل دمجها في أنظمة الأسلحة الصغيرة أو المتحركة أمراً بالغ الصعوبة.

غير أنّ دراسة حديثة أجراها علماء صينيون من معهد شمال غربي الصين للتكنولوجيا النووية (NINT) أظهرت تقدماً ملحوظاً في هذا المجال، حيث استخدم الباحثون مادة عازلة سائلة خاصة تُعرف باسم «ميدل 7131»، ما أتاح تحقيق كثافة أعلى لتخزين الطاقة، وعزلاً أكثر قوة، وتقليلاً لفقدان الطاقة، وأسهم في تصميم جهاز أصغر حجماً، وأكثر كفاءة.

وكتب العلماء في الدراسة المنشورة: «من خلال استخدام مادة عازلة سائلة عالية الكثافة للطاقة تُعرف باسم (ميدل 7131)، إلى جانب خط تشكيل نبضات مزدوج العرض، تمكنت الدراسة من تصغير حجم محول تسلا المتكامل، ونظام تشكيل النبضات».

وبحسب الدراسة، يبلغ طول الجهاز الجديد أربعة أمتار فقط (13 قدماً)، ويزن خمسة أطنان، ما يجعله أول جهاز تشغيل صغير الحجم في العالم لسلاح الميكروويف عالي الطاقة.

ويُعرف هذا الجهاز باسم TPG1000Cs، وهو صغير بما يكفي ليُثبت على الشاحنات، والطائرات، بل وحتى على أقمار اصطناعية أخرى، وفقاً لما أفاد به الباحثون.

وأشار الباحثون إلى أن «النظام أظهر استقراراً في التشغيل لمدة دقيقة واحدة متواصلة، حيث جُمعت نحو 200 ألف نبضة بأداء ثابت».

ويؤكد خبراء أن سلاح ميكروويف أرضياً بقدرة تتجاوز 1 غيغاواط (GW) سيكون قادراً على تعطيل وتدمير آلية عمل أقمار «ستارلينك» الاصطناعية في مدارها بشكل كبير.

وذكر الباحثون، بحسب ما نقلته صحيفة «ساوث تشاينا مورنينغ بوست»، أن جهاز TPG1000Cs قادر على توليد نبضات كهربائية فائقة القوة تصل إلى 20 غيغاواط.

وتأتي هذه التطورات في وقت نشرت فيه الصين عدداً من الدراسات التي تشدد على ضرورة إيجاد وسائل فعالة لتعطيل أقمار «ستارلينك» الاصطناعية التابعة لرجل الأعمال إيلون ماسك.