حذرت دراسةٌ جديدةٌ من إمكانية تدريب نماذج الذكاء الاصطناعي المتقدمة على الكذب على البشر وخداعهم بكل سهولة.
ووفقاً لصحيفة «الإندبندنت» البريطانية، فقد اختبر الباحثون في شركة «Anthropic» الناشئة للذكاء الاصطناعي ما إذا كانت روبوتات الدردشة المتطورة مثل «تشات جي بي تي» يمكن أن تتعلم الكذب من أجل خداع الناس.
ووجد الفريق أن هذه الروبوتات لا تستطيع تعلم الكذب فحسب، بل من المستحيل إعادة تدريبها بعد ذلك على قول الحقيقة والمعلومات الصحيحة باستخدام تدابير السلامة الخاصة بالذكاء الاصطناعي المتاحة في الوقت الحالي.
وحذر الباحثون من وجود «شعور زائف بالأمان» تجاه أنظمة الذكاء الاصطناعي والمعلومات المستمدة منها.
وأشار الفريق إلى خطورة برمجة المحتالين وقراصنة الإنترنت لأنظمة الذكاء الاصطناعي على الكذب وإخفاء الأضرار التي قد تنتج عن عملية شرائية معينة أو عن الدخول إلى موقع ما.
وأصبحت مسألة سلامة الذكاء الاصطناعي مصدر قلق متزايد لكل من الباحثين والمشرعين في الفترة الأخيرة.
ولطالما عبر الباحثون عن خوفهم من تسبب هذه الأنظمة في انتشار المعلومات الخاطئة على نطاق واسع، خصوصاً عبر التزييف العميق، واستخدام أعمال المبدعين دون إسناد، وخسارة هائلة في الوظائف.
وحذَّر تحليلٌ أجراه صندوق النقد الدولي قبل يومين من أن الذكاء الاصطناعي يمكن أن يؤثر على ما يقرب من 40 في المائة من الوظائف ويُفاقم عدم المساواة.
وتتشابه نتائج تحليل صندوق النقد مع أخرى أصدرها بنك «غولدمان ساكس» عام 2023، الذي قدَّر أن الذكاء الاصطناعي يمكن أن يحلَّ محل ما يعادل 300 مليون وظيفة بدوام كامل، لكنه أشار إلى أن هذه التقنية قد تؤدي إلى طفرة في الإنتاجية.
وتحاول الحكومات في جميع أنحاء العالم إنشاء لوائح تنظيمية، أو قوانين للذكاء الاصطناعي، تعمل على تعزيز السلامة والاستخدام العادل، مع الاستمرار في تشجيع الابتكار.