قال مسؤول بارز في وكالة الأبحاث العلمية التابعة للحكومة البريطانية إن العالم قد لا يملك الوقت الكافي للاستعداد لمخاطر السلامة التي تُشكلها أنظمة الذكاء الاصطناعي المتطورة.
وصرح ديفيد دالريمبل، مدير البرامج وخبير سلامة الذكاء الاصطناعي بالوكالة، لصحيفة «الغارديان» البريطانية، بأنه ينبغي على الناس أن يشعروا بالقلق إزاء القدرات المتنامية لهذه التقنية.
وقال: «أعتقد أنه ينبغي علينا أن نقلق بشأن الأنظمة التي تستطيع أداء جميع الوظائف التي يؤديها البشر لإنجاز الأمور في العالم، بل بشكل أفضل. سنُصبح أقل قدرة على المنافسة في جميع المجالات التي نحتاج إلى الهيمنة فيها، من أجل الحفاظ على سيطرتنا على حضارتنا ومجتمعنا وكوكبنا».
وأضاف: «أودّ أن أنبه إلى أن الأمور تتطور بسرعة فائقة، وقد لا يتوفر لدينا الوقت الكافي للاستعداد لها من منظور السلامة. وليس من الخيال العلمي أن نتوقع أنه في غضون خمس سنوات، ستؤدي الآلات معظم المهام ذات القيمة الاقتصادية بمستوى جودة أعلى وتكلفة أقل من البشر».
وقال دالريمبل إنه ينبغي للحكومات ألا تفترض أن هذه الأنظمة المتقدمة يمكن الوثوق بها، مشيراً إلى أنها «تُزعزع الاستقرار الأمني والاقتصادي».
وأكد أن هناك حاجة لمزيد من العمل التقني لفهم سلوكيات أنظمة الذكاء الاصطناعي المتقدمة والسيطرة عليها؛ لتخفيف آثارها السلبية.
وأعلن معهد أمن الذكاء الاصطناعي (AISI)، التابع للحكومة البريطانية، هذا الشهر، أن قدرات نماذج الذكاء الاصطناعي المتقدمة «تتحسن بسرعة» في جميع المجالات، وأن الأداء في بعض المجالات يتضاعف كل ثمانية أشهر.
ووفقاً للمعهد، تستطيع النماذج الرائدة، الآن، إنجاز مهامّ بمستوى المتدرب بنسبة 50 في المائة في المتوسط، بعد أن كانت النسبة نحو 10 في المائة، العام الماضي.
وسبق أن حذَّر مجموعة من العلماء البارزين من التطور السريع لأنظمة الذكاء الاصطناعي، قائلين إن الروبوتات فائقة الذكاء قد تؤدي إلى انقراض البشرية خلال فترة قصيرة.
وفي شهر أغسطس (آب) الماضي، حذر جيفري هينتون، المعروف بـ«عرّاب الذكاء الاصطناعي»، من أن التكنولوجيا التي أسهم في بنائها قد تُبيد البشرية، وأن «خبراء التكنولوجيا» يتبعون نهجاً خاطئاً لوقف ذلك.
وشهد أواخر يوليو (تموز) الماضي، تجمعاً احتجاجياً أمام مقر شركة «OpenAI» في سان فرنسيسكو، حيث تجمّع نحو 25 ناشطاً مرتدين قمصاناً حمراء كُتب عليها «أوقفوا الذكاء الاصطناعي»، مطالبين بوقف التصاعد السريع لهذه التكنولوجيا التي يعتقدون أنها تحمل خطراً وجودياً على البشر.




