تمكّن برنامجا ذكاء اصطناعي من مختبر «غوغل ديب مايند» للأبحاث التابع لمجموعة «غوغل» من حلّ عدد من مسائل الأولمبياد الدولي للرياضيات 2024، على ما أعلن المختبر، الخميس، مع أن الأنظمة المماثلة لم تثبت بعد فاعليتها فيما يتعلق بالتفكير المنطقي، حسب «وكالة الصحافة الفرنسية».
وتولى نموذجا «ألفا بروف (AlphaProof)» و«ألفا جيومتري 2 (AlphaGeometry 2)» حلّ 4 من المسائل الـ6 التي تضمنتها هذه السنة هذه المسابقة الدولية المخصصة لتلاميذ المدارس الثانوية، ووصلا إلى مستوى الفائز بالميدالية الفضية، محقِّقَين سابقة، بحسب «غوغل».
وفي التفاصيل أن «ألفا بروف» حلّ مسألتين جبريتين ومسألة حسابية واحدة، بينما تولى «ألفا جيومتري 2» حل مسألة هندسية واحدة.
وأقيمت الدورة الخامسة والستون من الأولمبياد الدولي للرياضيات في المملكة المتحدة في الفترة من 11 إلى 22 يوليو (تموز).
وتضم هذه المسابقة التي تقام منذ عام 1959 تلاميذ المدارس الثانوية (وأحياناً عدداً قليلاً من طلاب الجامعات) يجري اختيارهم من نحو مائة دولة.
وسبق أن نجحت النسخة الأولى من «ألفا جيومتري» في حل 25 مسألة هندسية في الدورات السابقة من الأولمبياد من إجمالي 30 مسألة، وفق ما ذكرت مجلة «نيتشر» العلمية في يناير (كانون الثاني).
ورأت «غوغل»، في بيان، أن «هذه النتائج تفتح آفاقاً جديدة في مجال التفكير الرياضي وتقترح مستقبلاً يتعاون فيه علماء الرياضيات والذكاء الاصطناعي لحل المسائل المعقدة».
وتواجه النماذج اللغوية الكبيرة، وهي المنتجات الرئيسية للذكاء الاصطناعي، صعوبة كبيرة في التفكير عند تقديم اختبارات منطق إليها، بحسب دراسة نُشرت في يونيو (حزيران) في مجلة «أوبن ساينس» التابعة لمؤسسة «رويال سوساييتي» البريطانية.
ولاحظت هذه الدراسة أن برنامجَي «تشات جي بي تي 3.5» و«تشات جي بي تي 4» من «أوبن إيه آي»، و«بارد» من «غوغل» و«كلود 2» من «أنثروبيك» وثلاث نسخ من برنامج «لاما» من «ميتا»، استجابت بطرق متفاوتة واستندت إلى تفكير غير منطقي في كثير من الأحيان.