«جي-أسيست»: ثورة الذكاء الاصطناعي في عالم الألعاب الإلكترونية

مساعد ذكي لكل لاعب يفهم سياق اللعب ويقدم النصائح

يقدم مساعد «جي-أسيست» الذكي نصائح حول كيفية التفاعل مع شخصيات عالم اللعبة حسب البيئة من حول اللاعب
يقدم مساعد «جي-أسيست» الذكي نصائح حول كيفية التفاعل مع شخصيات عالم اللعبة حسب البيئة من حول اللاعب
TT

«جي-أسيست»: ثورة الذكاء الاصطناعي في عالم الألعاب الإلكترونية

يقدم مساعد «جي-أسيست» الذكي نصائح حول كيفية التفاعل مع شخصيات عالم اللعبة حسب البيئة من حول اللاعب
يقدم مساعد «جي-أسيست» الذكي نصائح حول كيفية التفاعل مع شخصيات عالم اللعبة حسب البيئة من حول اللاعب

تطورت الألعاب الإلكترونية بشكل كبير، إذ أصبحت تقدم عوالم ضخمة مليئة بالشخصيات المختلفة، والبيئة الغنية، والعتاد المختلف الذي يمكن استخدامه بطرق متعددة. وجاء هذا التقدم نتيجة للتطوير الكبير في قدرات الحوسبة والرسومات، ولكنه أصبح يقدم عشرات الخيارات لمستويات الرسومات وسرعة عرضها، والمسافة البعيدة التي يتم عرضها في عالم اللعبة، وتتبع الأشعة الضوئية من مصدرها، وعرض الظلال بدقة، وغيرها من المسائل المرتبطة، وهي عوامل قد تشكّل تحدياً لمَن ليست لديه دراية تقنية حول هذه الخيارات.

يستطيع المساعد تقديم نصائح تقنية للحصول على أفضل مستويات الأداء الممكنة

الذكاء الاصطناعي لعالم الألعاب

ويأتي الحل باستخدام تقنيات الذكاء الاصطناعي التي تستطيع فهم ما يدور في عالم اللعبة، وتحليل مواصفات جهاز اللاعب وشاشته، وتقدم النصائح لتطوير تجربة اللعب وجعلها أكثر سلاسة.

هذه التقنية الجديدة اسمها «إنفيديا جي-أسيست (Nvidia G-Assist)»، وتهدف إلى تغيير الطريقة التي نلعب بها الألعاب بشكل جذري، وهي عبارة عن نافذة تظهر لدى الضغط على زر محدد أو قول جملة خاصة، ليقوم اللاعب بسؤالها حول أمر ما نصياً أو صوتياً، ومن ثم تعرض أمامه الإجابة مباشرة من داخل اللعبة، ودون الحاجة لتشغيل متصفح إنترنت والبحث عن المعلومة المطلوبة عبر ملايين الصفحات الموجودة في الإنترنت.

وتشكّل هذه التقنية قفزة تقنية نوعية ومميزة للاعبين لتطوير تجربة اللعبة، وزيادة مستويات الانغماس في عالم اللعبة، وكذلك رفع مستوى رسومات الصورة بكل سلاسة. كما يمكن استخدام هذه التقنية في برامج تحرير الصور وعروض الفيديو أو لتحليل تسجيلات اللعب لتقديم استراتيجيات من شأنها زيادة مستوى تنافسية اللاعب في المباريات الجماعية، وغيرها من التطويرات المفيدة.

وتعتمد هذه التقنية على شبكات عصبونية عميقة لتدريب النموذج على فهم سياق اللعبة، حيث تتم تغذية النموذج بالبيانات التي تشمل صور شاشة اللعبة وأوامر اللاعب وبيانات الأداء. وباستخدام تقنيات التعلم المعزز، يتعلم النموذج اتخاذ القرارات المثلى لتحقيق أهداف محددة. ويستخدم النموذج تقنيات معالجة اللغة الطبيعية لفهم الأوامر الصوتية والنصية التي يدخلها اللاعب.

وتتم هذه العملية بمجرد تقديم أمر نصي وصورة لما يدور في البيئة من حول اللاعب، لتقوم تقنيات الذكاء الاصطناعي بتحليل هذه العوامل وتقديم إجابة مفيدة بسرعة كبيرة. وتتصل تقنيات الذكاء الاصطناعي بنماذج اللغات الكبيرة Large Language Model LLM وقاعدة بيانات متخصصة بالألعاب الإلكترونية. وتعمل هذه التقنية عبر السحابة أو من خلال بطاقات الرسومات المتقدمة بتقنية «RTX» على الكومبيوترات المكتبية أو المحمولة.

ومن المتوقع أن تغير هذه التقنية دور مطوري الألعاب الإلكترونية، حيث يمكن أن يؤدي انتشارها إلى تغيير دورهم في صناعة الألعاب، والتركيز أكثر على الجانب الإبداعي وسرد قصص أكثر انغماساً. كما ستغير هذه التقنية من طريقة تفاعل اللاعبين مع الألعاب الإلكترونية، وقد تؤدي إلى ظهور أنواع جديدة من الألعاب لم تكن موجودة في السابق.

تحليل عالم الألعاب الإلكترونية

ومن الأمثلة على مساهمة هذه التقنية في تطوير تجربة اللعب، يمكن سؤالها عن كيفية هزم عدو صعب لتقدم آلية قتاله بشكل فعال، أو سؤالها عن أحد المخلوقات في كوكب غريب لتقول للاعب إنه يستطيع ترويض ذلك المخلوق والاستفادة منه في الهجوم على الأعداء أو الابتعاد عنه لأنه يشكل خطراً كبيراً في حال استفزازه.

مثال آخر هو سؤال اللعبة عن أفضل سلاح يمكن استخدامه في مرحلة ما أو في المراحل الأولى للعبة، لتنصحه بما يمكن استخدامه لتحقيق أفضل النتائج.

كما تستطيع هذه التقنية فهم العتاد الموجود بحوزة اللاعب وإخباره بأنه يستطيع دمج بعض العناصر مع بعضها بعضاً أو تحديد أماكن عناصر محددة لجمعها والحصول على سلاح أو درع أفضل. ونذكر كذلك قدرتها على إخبار اللاعب بأماكن العناصر المخفية في الكهوف أو الغرف السرية التي يمكن الاستفادة منها بشكل كبير ليتقدم اللاعب في المراحل الصعبة المقبلة بشكل أفضل.

يمكن اختيار عدد الرسومات في الثانية المستهدفة وطلب تعديل خصائص الصورة من المساعد بشكل آلي

ومن الفوائد الأخرى لهذه التقنية قدرتها على تقديم النصيحة للاعبين حول كيفية تطوير مهارات الشخصية في موقف معين في الألعاب التي تتطلب ذلك، أو اقتراح أفضل طريقة للبدء ببناء المدينة المثالية وتحديد المباني المناسبة والمواقع الأمثل، وجمع الموارد في الألعاب الاستراتيجية.

فهم عتاد الكومبيوتر وتطوير الكفاءة

وعلى صعيد آخر، تستطيع تقنية «جي-أسيست» تحليل قدرات جهاز المستخدم والإعدادات التي يستخدمها، وتقديم النصيحة حول ما الذي يمكن تعديله في الخصائص التقنية لتحقيق مستويات أداء أعلى، مثل قدرتها على تعديل دقة الشاشة، أو رفع عدد الألوان التي يمكن استخدامها، أو سرعة عرض الصورة بالتزامن مع قدرات الشاشة في سرعة العرض، أو حتى شرح معاني بعض الخيارات التقنية الموجودة في قوائم خيارات الرسومات في اللعبة. هذا، ويستطيع المساعد الذكي تطبيق الخيارات المقترحة بأمر صوتي أو نصي واحد بكل سهولة وسلاسة ودون الحاجة إلى الدخول في القوائم العديدة، التي قد تكون صعبة الفهم على اللاعبين غير التقنيين.

كما يمكن لهذه التقنية زيادة تردد معالج الرسومات «GPU Frequency» لرفع مستويات الأداء دون المخاطرة بزيادة حرارة بطاقة الرسومات بشكل قد يؤثر سلباً في مستويات الأداء أو قد يضر بمعالج الرسومات، أو يمكنها خفض الفولتية الخاصة ببطاقة الرسومات في الكومبيوترات المحمولة دون التضحية بسرعة عرض الصورة، وذلك بهدف زيادة مدة اللعب باستخدام بطارية الكومبيوتر المحمول.

ومن شأن هذا المساعد الذكي المتخصص بالألعاب الإلكترونية تحسين تجربة اللعب، والسماح للاعبين بالتركيز على الاستمتاع باللعبة عوضاً عن التفكير بالتفاصيل التقنية، وأيضاً مساعدة اللاعبين على تعلم مهارات جديدة، وتحسين أدائهم، واكتشاف أجزاء جديدة في عالم اللعبة. وتُعدّ تقنية «جي-أسيست» خطوة مهمة نحو مستقبل يتفاعل فيه اللاعبون مع الألعاب بطرق أكثر ذكاء وطبيعية يمكن فيه تحويل تجربة اللعب من مجرد تسلية إلى مغامرة تفاعلية ومخصصة لكل لاعب على حدة.

يستطيع المساعد فهم إعدادات الرسومات وتحليلها واقتراح إعدادات أفضل


مقالات ذات صلة

3 طرق أساسية تمكّن الذكاء الاصطناعي من تعزيز جهود الاستدامة في السعودية

الاقتصاد نموذج مصغر لروبوت ويد لعبة وتظهر في الخلف كلمة ذكاء اصطناعي (رويترز)

3 طرق أساسية تمكّن الذكاء الاصطناعي من تعزيز جهود الاستدامة في السعودية

تتوقع «مؤسسة مبادرة مستقبل الاستثمار» أن تعزّز تطبيقات الذكاء الاصطناعي في المملكة، مثل الصيانة التنبؤية في البنية التحتية للطاقة، استقرار الشبكة.

«الشرق الأوسط» (الرياض)
تكنولوجيا الدردشة مع الذكاء الاصطناعي قد تدفع المستخدمين إلى أن يضعوا ثقة في غير محلها بالبرامج الآلية (رويترز)

هل يمكن أن يقع الناس في حب الذكاء الاصطناعي؟

قالت شركة «أوبن إيه آي» إنها لاحظت أن المستخدمين يشكلون مع الذكاء الاصطناعي «علاقة عاطفية» قالت إنهم بدوا حزينين للتخلي عنها.

«الشرق الأوسط» (لندن)
يوميات الشرق الحرفان الأولان من كلمة "ذكاء اصطناعي" على اللوحة الأم للكمبيوتر في هذه الصورة الملتقطة في 23 يونيو 2023 (رويترز)

نقابة ممثلي هوليوود تقر اتفاقاً لاستنساخ أصوات الممثلين عبر الذكاء الاصطناعي

أعلنت نقابة ممثلي هوليوود التوصل إلى اتفاق مع منصة ناراتيف لتسويق المواهب عبر الإنترنت يسمح للممثلين ببيع حقوق استنساخ أصواتهم باستخدام الذكاء الاصطناعي.

«الشرق الأوسط» (هوليوود)
الاقتصاد شعار شركة «فوكسكون» يظهر خارج مبنى الشركة في تايبيه (رويترز)

مورّد «أبل» يرفع أرباحه 6% خلال الربع الثالث

قالت شركة «فوكسكون» التايوانية، مورد شركة «أبل»، يوم الأربعاء إنها تجاوزت التوقعات بزيادة صافي الربح بنسبة 6 في المائة خلال الربع الثالث.

«الشرق الأوسط» (تايبيه)
تكنولوجيا صانع المحتوى أنطونيو كاهون من المكسيك يحمل هاتف «Pixel 9 Pro XL» وهاتف «Nexus 5» الذكي من عام 2013 في حدث Made by Google في ماونتن فيو كاليفورنيا (رويترز)

«بيكسل 9» من «غوغل» يؤدي دور سكرتير المستخدم

عرضت «غوغل»، أمس الثلاثاء مميزات النسخة الجديدة من هواتفها الذكية «بيكسل» Pixel المدعومة بالذكاء الاصطناعي التوليدي، مواصلة بذلك سعَيها إلى إنشاء أدوات…

«الشرق الأوسط» (ماونتن فيو)

5 خيارات للسيطرة على تهديدات الذكاء الاصطناعي للحق في الخصوصية

الحرفان الأولان من عبارة «الذكاء الاصطناعي» مع يد روبوت مصغرة في هذا الرسم التوضيحي الملتقط في 23 يونيو 2023 (رويترز)
الحرفان الأولان من عبارة «الذكاء الاصطناعي» مع يد روبوت مصغرة في هذا الرسم التوضيحي الملتقط في 23 يونيو 2023 (رويترز)
TT

5 خيارات للسيطرة على تهديدات الذكاء الاصطناعي للحق في الخصوصية

الحرفان الأولان من عبارة «الذكاء الاصطناعي» مع يد روبوت مصغرة في هذا الرسم التوضيحي الملتقط في 23 يونيو 2023 (رويترز)
الحرفان الأولان من عبارة «الذكاء الاصطناعي» مع يد روبوت مصغرة في هذا الرسم التوضيحي الملتقط في 23 يونيو 2023 (رويترز)

قبل نحو عامين، فرضت تقنيات الذكاء الاصطناعي نفسها على جدول أولويات صناع القرار في عديد من المجالات على مستوى العالم، بعد أن اتضح أن الجيل الجديد من هذه التكنولوجيا الرقمية ينطوي على فوائد جمة وتحديات ومخاطر كثيرة في الوقت نفسه. وبسبب خطورة وأهمية ما تمثله تطورات تكنولوجيا الذكاء الاصطناعي، نشرت مؤسسة الأبحاث والتطوير الأميركية للدراسات الاستراتيجية «راند»، دراسة حول تأثيرات الذكاء الاصطناعي على قوانين حماية الخصوصية أعدّها 6 خبراء، هم: تيفاني صادق الأستاذة في كلية القانون بجامعة ميشيغان، وكارلين ستانلي كبير باحثين في السياسة بمؤسسة «راند»، والمحلل السياسي غريغوري سميث، والباحثة كريستينا مارسينك، والمحلل السياسي بول كورماري، وساليل جوناشيكار المدير المشارك في مركز أبحاث «راند أوروبا».

وتقول الدراسة، وفق تقرير لـ«وكالة الأنباء الألمانية»، إن الذكاء الاصطناعي يعد ببدء عصر من التطور التكنولوجي السريع الذي قد يؤثر في كل جوانب المجتمع تقريباً، سواء بشكل إيجابي أو سلبي. وتحتاج الاستفادة من مزايا الذكاء الاصطناعي جمع ومعالجة وتفسير كميات كبيرة من البيانات، بما في ذلك البيانات الشخصية والحساسة، لذلك، ظهرت الأسئلة المتعلقة بكيفية حماية البيانات، والحق في الخصوصية في النقاش العام.

وتلعب حماية الخصوصية دوراً محورياً في محافظة الأفراد على معلوماتهم الشخصية، وفي حماية المؤسسات للمعلومات الحساسة للأفراد، ومنع استخدامها في عمليات الاحتيال أو الوصول غير المسموح به لبيانات الأفراد. ورغم ذلك فإن الولايات المتحدة تفتقر لإطار تشريعي أو تنظيمي اتحادي شامل لتنظيم حقوق البيانات، والخصوصية وحمايتها.

وهناك عديد من المحاولات لصياغة قانون اتحادي شامل للخصوصية، بما في ذلك قانون حقوق الخصوصية الأميركي، الذي يستهدف تنظيم جمع ونقل واستخدام بيانات الأميركيين في أغلب الدوائر. ورغم أن بعض قضايا خصوصية البيانات يمكن معالجتها بالتشريعات، هناك فجوات في حماية البيانات؛ بسبب السمات الفريدة للذكاء الاصطناعي.

ومن أكثر الأمور المثيرة للقلق من منظور حماية البيانات في الذكاء الاصطناعي الغياب المحتمل لفهم كيفية قيام الخوارزميات باستخدام وجمع وتعديل البيانات، أو اتخاذ القرارات على أساس البيانات. هذا الغياب المحتمل للفهم يُعرف باسم «التعتيم الخوارزمي»، ويمكن أن ينتج عن الطبيعة المعقدة للخوارزميات أو الإخفاء المتعمد من خلال استخدام أي شركة لقانون حماية الأسرار التجارية لكي تحمي خوارزمياتها، أو استخدام تعليم الآلة لإنشاء خوارزمية، وفي هذه الحالة ربما لا يكون في مقدور مطوري الخوارزميات التنبؤ بكيفية أدائها. فالتعتيم الخوارزمي يمكن أن يجعل من الصعب أو المستحيل رؤية كيفية نقل البيانات المستخدمة في الوصول إلى بيانات جديدة أو القرارات الناتجة عن استخدام تلك البيانات، وهو ما يثير الأسئلة حول محدودية القدرة على فحص أو تنظيم تقنيات الذكاء الاصطناعي.

وبحسب دراسة مؤسسة «راند»، هناك مجموعة أخرى من الهواجس بشأن الخصوصية، التي تأخذ جوانب فريدة مرتبطة بالذكاء الصناعي أو تضخم هذه السمات الفريدة للذكاء الاصطناعي، ومنها إعادة استخدام البيانات، التي تشير إلى البيانات التي يتم استخدامها بعيداً عن الغرض المقصود أو المعلن لها، ودون علم ولا موافقة صاحبها. ففي سياق الذكاء الاصطناعي يمكن أن تحدث إعادة استخدام البيانات، عندما يتم جمع بيانات السيرة الذاتية من أحد الأشخاص لتغذية خوارزمية يمكن أن تتعلم من هذه البيانات الأنماط المرتبطة ببيانات الشخص. على سبيل المثال، تضمنت حزمة التحفيز الاقتصادي في الولايات المتحدة في أثناء الأزمة المالية التي تفجرت في خريف 2008، تمويل عملية رقمنة سجلات الرعاية الصحية بهدف تسهيل نقل بيانات المرضى بين موفري الرعاية الصحية لمصلحة المرضى. ورغم ذلك يمكن أن تستخدم المستشفيات وشركات التأمين الخوارزميات الطبية لتحديد المخاطر الصحية لكل شخص، ومدى جدارته بالحصول على الرعاية الطبية، وهو غرض لم يكن مقصوداً في البداية عند جمع ورقمنة هذه البيانات.

ويتعلق هاجس ثانٍ بانتشار البيانات، الذي يحدث عندما يتم جمع البيانات بشأن الأفراد الذين لم يكونوا مقصودين في أثناء جمع البيانات. على سبيل المثال يمكن استخدام الذكاء الاصطناعي لتحليل صورة تم التقاطها لشخص ما لكنها تضم أشخاصاً آخرين غير مقصودين. وهناك مثال آخر وهو أقارب أي شخص يقوم بتحميل بياناته الجينية إلى أحد مراكز تجميع البيانات الجينية مثل «23 آند مي».

الهاجس الثالث هو استمرارية البيانات، ويشير إلى بقاء البيانات لفترة أطول مما كان متوقعاً في أثناء جمعها، وربما بما يتجاوز حياة الأشخاص الذين جمعوا البيانات أو الذين وافقوا على استخدامها، خصوصاً إذا تم دمج البيانات في خوارزمية ذكاء اصطناعي أو أُعيد تجميعها أو أُعيد استخدامها.

ورغم ذلك فإن دراسة مؤسسة «راند» تقترح مجموعة من الخيارات المحتملة لمعالجة المخاطر الفريدة للذكاء الاصطناعي على الخصوصية، ومنها الحد من جمع البيانات والاكتفاء بالحد الأدنى منها، وهو ما يشير إلى ضرورة أن يقتصر جمع البيانات الشخصية على تلك المطلوبة أو اللازمة بشكل مباشر لتحقيق أهداف محددة بدقة. وهذا المبدأ يتعارض مع النهج الذي تستخدمه كثير من الشركات اليوم، التي تجمع أكبر قدر ممكن من المعلومات. وتحت مظلة تقليل جمع البيانات إلى أقصى درجة ممكنة، يجب فرض قيود قانونية على استخدام البيانات بالنسبة للهدف المحدد في أثناء جمعها.

الخيار الثاني هو تقييمات التأثير الخوارزمي على الاستخدام العام. حيث تهدف تقييمات التأثير الخوارزمي إلى إخضاع المؤسسات التي تستخدم أنظمة صناعة القرار الآلية للمحاسبة. وتواجه تقييمات التأثير الخوارزمي مشكلة التعتيم الخوارزمي من خلال كشفها عن الأضرار المحتملة الناتجة عن استخدام الذكاء الاصطناعي في صناعة القرار ودعوة المؤسسات لاتخاذ خطوات عملية للتخفيف من الأضرار المحددة. وسيفرض أي تقييم للتأثير الخوارزمي الكشف عن أنظمة صناعة القرار المعتمدة على الذكاء الاصطناعي سواء القائمة أو المقترحة، بما في ذلك أغراضها ونطاقها، والتأثيرات المحتملة على المجتمعات قبل بدء استخدام مثل هذه الخوارزميات.

الخيار الثالث لمواجهة مخاطر الذكاء الاصطناعي على الخصوصية يتمثل في التدقيق الخوارزمي، الذي يعدّ تقييماً منظماً لأي نظام ذكاء اصطناعي لضمان توافقه مع الأهداف والمعايير والاشتراطات القانونية المحددة سلفاً. وفي إطار مثل هذا التدقيق، يتم فحص تصميم ومدخلات ومخرجات أي نظام، وحالات الاستخدام والأداء بشكل عام وبصورة مستمرة لتحديد أي فجوات أو ثغرات أو مخاطر. ويتضمن التدقيق الخوارزمي المناسب، وضع أهداف محددة وواضحة للتدقيق مثل التحقق من الأداء والدقة، بالإضافة إلى وضع معايير موحدة لتقييم أداء النظام. وفي سياق الخصوصية، يمكن للتدقيق أن يؤكد أن البيانات تستخدَم في الإطار الذي وافق عليه الأشخاص، وتحت مظلة اللوائح المعمول بها.

الخيار الرابع لمعالجة هواجس الخصوصية هو «الإفصاح الإلزامي»، الذي يقضي بضرورة قيام المؤسسة التي تستخدم تكنولوجيا الذكاء الاصطناعي بإبلاغ العامة بذلك. على سبيل المثال يلزم قانون الذكاء الاصطناعي في الاتحاد الأوروبي الشركات بوضع علامة مميزة على أي محتوى منتج باستخدام الذكاء الاصطناعي. كما يشترط قانون الاتحاد الأوروبي الإفصاح عن استخدام أنظمة الذكاء الاصطناعي لتصنيف الأشخاص أو التعرف على مشاعرهم أو نواياهم باستخدام البيانات اليومترية الخاصة بهم. وفي العام الماضي تم طرح مشروع قانون مماثل في الولايات المتحدة.

وأخيراً، تتمثل الاعتبارات المتعلقة بصناع السياسة الخيار الخامس والأخير لمعالجة مخاطر الذكاء الاصطناعي على الخصوصية، حيث يجب عليهم تحقيق التوازن الصحيح بين التنظيم والابتكار. ولذلك فإن توسيع دائرة المشاركين في صياغة سياسات وقواعد استخدام الذكاء الاصطناعي يمكن أن يساعد على تهدئة المخاوف من أن تؤدي القواعد والنظم إلى خنق الابتكار والتطوير والاستفادة من المزايا التي توفرها تقنيات الذكاء الاصطناعي. وفي هذا الإطار تبنّى قانون الاتحاد الأوروبي للذكاء الاصطناعي دعوة كل الأطراف المعنية بهذه الصناعة، خصوصاً مطوري نماذج الذكاء الاصطناعي للمشاركة في وضع مدونة السلوك المنظمة لنماذج الذكاء الاصطناعي العامة. كما يتضمن قانون الاتحاد الأوروبي بنوداً لدعم الابتكار، خصوصاً بين الشركات الصغيرة والمتوسطة، ومنها الشركات الناشئة. على سبيل المثال، يوفر القانون ما تُسمى «صناديق الاختبار التنظيمية»، التي تعني إيجاد بيئة اختبار وتجربة خاضعة لرقابة صارمة من جانب الجهات التنظيمية. والهدف المحدد من «صندوق الاختبار التنظيمي» هو تعزيز ابتكارات الذكاء الاصطناعي من خلال توفير أطر لتطوير وتدريب وإثبات صحة واختبار أنظمة الذكاء الاصطناعي بطريقة تضمن الامتثال لقانون الذكاء الاصطناعي للاتحاد الأوروبي، وبالتالي تخفيف عدم اليقين القانوني بالنسبة لموفري هذه الأنظمة.