هل يستطيع الذكاء الاصطناعي أن يتعلم أشياء جديدة؟

يلجأ الكثير من الأشخاص في عالمنا اليوم إلى أدوات الذكاء الاصطناعي لتعلّم مهارات جديدة (أ.ف.ب)
يلجأ الكثير من الأشخاص في عالمنا اليوم إلى أدوات الذكاء الاصطناعي لتعلّم مهارات جديدة (أ.ف.ب)
TT

هل يستطيع الذكاء الاصطناعي أن يتعلم أشياء جديدة؟

يلجأ الكثير من الأشخاص في عالمنا اليوم إلى أدوات الذكاء الاصطناعي لتعلّم مهارات جديدة (أ.ف.ب)
يلجأ الكثير من الأشخاص في عالمنا اليوم إلى أدوات الذكاء الاصطناعي لتعلّم مهارات جديدة (أ.ف.ب)

يلجأ الكثير من الأشخاص في عالمنا اليوم إلى أدوات الذكاء الاصطناعي لتعلّم مهارات جديدة، وترجمة اللغات، وحل المسائل المعقّدة، وحتى الدردشة والأخذ بالنصائح حول مواضيع مختلفة. ويعتقد العديد من المستخدمين أن تطبيقات الذكاء الاصطناعي تعرف كل شيء بالفعل، ولا تُخطئ بأي معلومات، ولديها القدرة على التعلّم المستمر ومتابعة أبرز المستجدات والأحداث.

ومع تقدّم التطوّر العلمي والطبي والتكنولوجي، تبرز أسئلة متنوعة مثل ما إذا كان الذكاء الاصطناعي يتمتع بميزات كالبشر فيما يتعلق بتطوير الذات. ففي عالم أصبح يتكل بشكل قوي على التطبيقات والمنصات التي توفر أدق الأجوبة لمعظم الأسئلة، لا يزال هناك الكثير لنكتشفه عن قدرات وحدود الذكاء الاصطناعي.

في هذا المقال، نستعرض قدرات الذكاء الاصطناعي في التعلّم والتطوّر الذاتي، ونتناول أهم حدوده مقارنة بالإنسان.

يعتقد العديد من المستخدمين أن تطبيقات الذكاء الاصطناعي تعرف كل شيء بالفعل ولا تُخطئ بأي معلومات ولديها القدرة على التعلّم المستمر (أ.ف.ب)

هل يستطيع الذكاء الاصطناعي تطوير نفسه؟

تقنيات التحسين الذاتي والتعلم الآلي

يستطيع الذكاء الاصطناعي تحسين نفسه من خلال تقنيات التعلّم الآلي والتحسين الذاتي وفي حال تغذيته بالبيانات المطلوبة. وتشمل هذه العمليات تحسين الأداء، وتطوير العمليات الداخلية، بل وإمكانية تصميم وبناء نماذج أكثر تطوراً. ومع ذلك، تبقى إمكانية التحسين الذاتي المستقل محدودة، خصوصاً عندما يتطلب الأمر تجاوز البيانات التدريبية الأصلية.

حدود اكتساب المعرفة عند الذكاء الاصطناعي

تعتمد أنظمة الذكاء الاصطناعي مثل «شات جي بي تي» على مراحل تدريب محددة مسبقاً، ولا يمكنها التعلّم خلال التفاعل المباشر مع المستخدمين. ويستلزم إدخال بيانات جديدة إعادة تدريب النموذج من البداية، وهي عملية مكلفة زمنياً ومالياً. يشير الخبراء إلى أن هذه المحدودية مرتبطة ببنية النماذج، خصوصاً تلك المبنية على الشبكات العصبية الاصطناعية.

نموذج التطور الدارويني في الذكاء الاصطناعي

ابتكر باحثون تقنيات جديدة تحاكي نظرية التطور البيولوجي من خلال مفاهيم مثل «البقاء للأصلح»، لتطوير برامج ذكاء اصطناعي تتطوّر تلقائياً جيلاً بعد جيل دون تدخل بشري وفقاً لموقع «ساينس». هذا النهج يفتح الباب أمام إمكانية بناء نماذج تتعلم بمرونة وتتكيّف مع المتغيرات البيئية والبيانات الجديدة، ما يمثل نقلة نوعية في تطوير الذكاء الاصطناعي.

يرى العلماء أن هذا التوجّه قد يؤدي إلى اكتشاف مناهج جديدة ومبتكرة في تصميم أنظمة الذكاء الاصطناعي، ويُعدّ قفزة نحو الذكاء الاصطناعي القادر على التكيّف الذاتي المستمر.

ابتكر باحثون تقنيات جديدة تحاكي نظرية التطور البيولوجي من خلال مفاهيم مثل «البقاء للأصلح» لتطوير برامج ذكاء اصطناعي تتطوّر تلقائياً جيلاً بعد جيل (أ.ب)

ما هي حدود التعلم لدى الذكاء الاصطناعي مقارنة بالإنسان؟

يختلف تعلّم الإنسان عن تعلّم الآلة من حيث الآلية والتجربة. فالإنسان يتعلّم من خلال التفاعل الحي مع محيطه، مستفيداً من التجربة، والعاطفة، والوعي، والحدس، بينما تعتمد الآلة على تحليل البيانات وتنفيذ الأوامر وفقاً لخوارزميات محددة.

التعلم عبر الإنترنت مقابل التعلم البشري

بمجرد تدريب الذكاء الاصطناعي، لا يستمر في التعلم إلا إذا صُمم خصيصاً لذلك. على سبيل المثال، تستخدم بعض الأنظمة تقنية تُسمى التعلم عبر الإنترنت، حيث يمكنها تحديث نماذجها آنياً عند ورود بيانات جديدة. ومع ذلك، لا يزال هذا مختلفاً تماماً عن التعلم البشري، حيث يتطلب الذكاء الاصطناعي مدخلات منظمة ولا يتكيف بالطريقة التي يتكيف بها البشر من خلال الحدس أو التفكير أو العواطف.

بمجرد تدريب الذكاء الاصطناعي لا يستمر في التعلم إلا إذا صُمم خصيصاً لذلك (أ.ف.ب)

ما هي العقبات الكبرى أمام تعلم الذكاء الاصطناعي؟

وفيما يلي، نبرز أهم العقبات المرتبطة بالتعلم وإنشاء المحتوى الخاصة بالذكاء الإصطناعي، مقارنة بالبشر، وفقاً لموقع «ميديوم»:

نقص الفهم والحس السليم

يفتقر الذكاء الاصطناعي إلى الفهم الحقيقي والسياقي للعالم، حيث يعتمد على أنماط مستخرجة من البيانات بدلاً من الفهم العميق للمفاهيم والمعاني.

غياب الإبداع والأصالة

في حين أن الذكاء الاصطناعي قادر على توليد المحتوى، فإنه يعاني من نقص الإبداع الحقيقي والفكر الأصيل. فالآلات لا تستطيع الابتكار، أو تصور مفاهيم مجردة، أو إنتاج أفكار جديدة تتجاوز الأنماط الموجودة في بيانات التدريب. ويظل التفكير الإبداعي سمة إنسانية بامتياز.

يفتقر الذكاء الاصطناعي إلى الفهم الحقيقي والسياقي للعالم (أ.ف.ب)

اعتماد البيانات وجودتها

تعتمد فعالية الذكاء الاصطناعي بشكل كبير على جودة وكمية بيانات التدريب. يُمكن أن تُؤدي مجموعات البيانات المُتحيزة أو غير المُكتملة إلى نتائج مُشوّهة، مما يُعزز التحيزات القائمة أو يُنتج أجوبة غير دقيقة.

الذكاء العاطفي والتعاطف

لا يزال فهم المشاعر البشرية والاستجابة لها، وهو حجر الزاوية في التفاعل البشري، يُشكّل عقبة أمام الذكاء الاصطناعي. فرغم إحراز بعض التقدم في معالجة اللغة الطبيعية، فإن الذكاء العاطفي الحقيقي والتعاطف سمتان مُعقّدتان لم تُحاكيهما الآلات بشكل أصيل بعد.


مقالات ذات صلة

البرلمان الأوروبي يحظر أدوات ذكاء اصطناعي «تعرّي» أشخاصاً

تكنولوجيا شعار روبوت الدردشة «غروك» يظهر على شاشتين (أ.ف.ب)

البرلمان الأوروبي يحظر أدوات ذكاء اصطناعي «تعرّي» أشخاصاً

أقرّ البرلمان الأوروبي، الخميس، قانوناً يحظّر استخدام الذكاء الاصطناعي لـ«تعرية» الأشخاص من دون موافقتهم.

«الشرق الأوسط» (بروكسل)
الاقتصاد أشخاص يسيرون في شارع وول ستريت قرب بورصة نيويورك (رويترز)

رغم تقلبات الأسواق... مكافآت «وول ستريت» في 2025 تصل إلى مستويات قياسية

بلغت مكافآت «وول ستريت» لعام 2025 مستويات غير مسبوقة خلال عام شهد تقلبات حادة في الأسواق.

«الشرق الأوسط» (نيويورك)
الولايات المتحدة​ ميلانيا ترمب تصل برفقة الروبوت لحضور قمة «Fostering the Future Together» العالمية في البيت الأبيض بواشنطن اليوم (أ.ب) p-circle

ميلانيا ترمب تستقبل أول «روبوت» بشري في البيت الأبيض

خطفت السيدة الأولى الأميركية ميلانيا ترمب الأنظار مجدداً، بعدما رافقها «روبوت» بشري متطور خلال فعالية رسمية في البيت الأبيض.

«الشرق الأوسط» (واشنطن)
تكنولوجيا تلعب طريقة عرض المعلومات وسردها دوراً أساسياً في تشكيل الفهم وليس فقط مضمونها (شاترستوك)

دراسة تبحث: هل يغيّر الذكاء الاصطناعي طريقة تفكيرنا رغم صحة المعلومات؟

دراسة تظهر أن الذكاء الاصطناعي يؤثر في الآراء عبر طريقة عرض المعلومات حتى عندما تكون الحقائق صحيحة وغير مضللة.

نسيم رمضان (لندن)
علوم لماذا يفقد الجمهور ثقته في الذكاء الاصطناعي التوليدي؟

لماذا يفقد الجمهور ثقته في الذكاء الاصطناعي التوليدي؟

تراجع ثقة الأميركيين بعد انتشار القصص الوهمية في وسائل الاتصال الاجتماعي

«الشرق الأوسط» (واشنطن)

النمسا تعتزم حظر استخدام وسائل التواصل الاجتماعي للأطفال تحت سن 14 عاماً

استخدام وسائل التواصل الاجتماعي بكثرة قد يؤثر على الحياة اليومية (رويترز)
استخدام وسائل التواصل الاجتماعي بكثرة قد يؤثر على الحياة اليومية (رويترز)
TT

النمسا تعتزم حظر استخدام وسائل التواصل الاجتماعي للأطفال تحت سن 14 عاماً

استخدام وسائل التواصل الاجتماعي بكثرة قد يؤثر على الحياة اليومية (رويترز)
استخدام وسائل التواصل الاجتماعي بكثرة قد يؤثر على الحياة اليومية (رويترز)

أعلن الائتلاف الحاكم في النمسا، اليوم الجمعة، عن خطط لحظر استخدام وسائل التواصل الاجتماعي للأطفال تحت سن 14 عاماً، لتنضم إلى سلسلة من الدول الأخرى في فرض مثل هذه القيود على الصغار.

وقال ألكسندر برول، مسؤول شؤون الرقمنة في مكتب المستشار النمساوي كريستيان شتوكر، إنه سوف يتم طرح مشروع قانون بهذا الشأن بحلول نهاية يونيو (حزيران) المقبل.

وأضاف أن «الأساليب الحديثة تقنياً للتحقق من العمر سوف تطبق للسماح بالتحقق من أعمار المستخدمين مع احترام خصوصيتهم».

ولم يتضح على الفور الموعد الذي ربما تدخل فيه الخطة لتحديد الحد الأدنى للعمر حيز التنفيذ والتي ستحتاج إلى موافقة برلمانية.

العديد من الدول تعتزم حظر وصول الأطفال دون سن الـ16 لوسائل التواصل الاجتماعي (رويترز)

يشار إلى أن أستراليا أخذت بزمام المبادرة في هذا الصدد عام 2024، لتصبح أول دولة تحظر استخدام الأطفال تحت سن 16 عاماً وسائل التواصل الاجتماعي بغرض حمايتهم من المحتوى الضار والإفراط في استخدام الشاشات، ومن المقرر سريان حظر مماثل في إندونيسيا غداً السبت.


«أبل» تعتزم فتح «سيري» أمام خدمات الذكاء الاصطناعي المنافِسة

يظهر شعار شركة «أبل» على مبنى في حي مانهاتن بمدينة نيويورك الأميركية (د.ب.أ)
يظهر شعار شركة «أبل» على مبنى في حي مانهاتن بمدينة نيويورك الأميركية (د.ب.أ)
TT

«أبل» تعتزم فتح «سيري» أمام خدمات الذكاء الاصطناعي المنافِسة

يظهر شعار شركة «أبل» على مبنى في حي مانهاتن بمدينة نيويورك الأميركية (د.ب.أ)
يظهر شعار شركة «أبل» على مبنى في حي مانهاتن بمدينة نيويورك الأميركية (د.ب.أ)

ذكرت «بلومبيرغ نيوز»، اليوم الخميس، أن «أبل» تخطط لفتح مساعدها الصوتي «سيري» أمام خدمات ​الذكاء الاصطناعي المنافِسة، بما يتجاوز شراكتها الحالية مع «تشات جي بي تي».

وقالت الوكالة، في تقريرها الذي نقلته عن مصادر مطّلعة، إن هذه الخطوة، المتوقعة ضِمن تحديث نظام التشغيل «آي أو إس 27» من «أبل»، ستسمح لتطبيقات الذكاء الاصطناعي التابعة لجهات خارجية بالاندماج مباشرة مع «سيري»، مما يمكّن المستخدمين من توجيه الاستفسارات إلى خدمات مثل «جيميناي» التابعة لشركة «ألفابت»، أو «كلود» التابعة لشركة «أنثروبيك» من داخل المساعد.

وهذا التغيير تحول مهم في استراتيجية «أبل» للذكاء الاصطناعي، إذ تسعى الشركة إلى اللحاق بركب نظيراتها في وادي السيليكون، ووضع «آيفون» كمنصة أوسع للذكاء الاصطناعي.

و«سيري»، الذي أُطلق لأول مرة منذ أكثر من عقد، عنصر أساسي في هذا المسعى. وأفادت «بلومبيرغ نيوز» بأن «أبل» تُطور أدوات تسمح لتطبيقات روبوتات الدردشة المثبتة عبر متجر التطبيقات الخاص بها بالعمل مع «سيري» وميزات أخرى ضِمن منصة «أبل إنتليجنس». وسيتمكن المستخدمون من اختيار خدمة الذكاء الاصطناعي التي تتولى معالجة كل طلب.

وذكر التقرير أن هذا التحديث قد يساعد «أبل» أيضاً على تحقيق مزيد من الإيرادات من خلال الحصول على حصة من الاشتراكات المبيعة عبر خدمات الذكاء الاصطناعي التابعة لجهات خارجية.

ومن المتوقع أن تستعرض «أبل» ميزات البرنامج الجديدة في مؤتمر المطورين العالمي الذي تعقده في يونيو (حزيران) المقبل، غير أن الخطط قد تتغير.


البرلمان الأوروبي يحظر أدوات ذكاء اصطناعي «تعرّي» أشخاصاً

شعار روبوت الدردشة «غروك» يظهر على شاشتين (أ.ف.ب)
شعار روبوت الدردشة «غروك» يظهر على شاشتين (أ.ف.ب)
TT

البرلمان الأوروبي يحظر أدوات ذكاء اصطناعي «تعرّي» أشخاصاً

شعار روبوت الدردشة «غروك» يظهر على شاشتين (أ.ف.ب)
شعار روبوت الدردشة «غروك» يظهر على شاشتين (أ.ف.ب)

أقرّ البرلمان الأوروبي، الخميس، قانوناً يحظّر استخدام الذكاء الاصطناعي لـ«تعرية» الأشخاص من دون موافقتهم.

وتمّ تبني القرار في نصّ أُقرّ بأغلبية ساحقة (569 صوتاً مقابل 45 صوتاً معارضاً) خلال جلسة عامة للبرلمان في بروكسل، وفقاً لـ«وكالة الصحافة الفرنسية».

وأوضح بيان صادر عن البرلمان أن الأمر يتعلّق بحظر برامج «التعرية» التي «تستخدم الذكاء الاصطناعي لإنشاء أو التلاعب بصور ذات إيحاءات جنسية واضحة، أو صور في وضع حميم تشبه شخصاً حقيقياً يمكن التعرّف عليه، من دون موافقة هذا الشخص».

ولا يطبّق النص على أنظمة الذكاء الاصطناعي المزوّدة «بتدابير أمنية فعّالة» تحول دون هذه الممارسات.

وكانت دول الاتحاد الأوروبي أقرّت هذا الشهر إجراء مشابهاً. وسيتعيّن عليها الآن التفاوض مع البرلمان للتوصل إلى صياغة متقاربة، قبل أن يصبح من الممكن تطبيق الإجراء.

وتأتي هذه المبادرات خصوصاً بعد إدخال خاصية قبل بضعة أشهر في تطبيق «غروك» للذكاء الاصطناعي تتيح للمستخدمين أن يطلبوا منه تركيب صور مزيفة قريبة جداً من الواقعية (ديب فيك) لنساء وأطفال عراة، انطلاقاً من صور حقيقية.

وأثارت هذه القضية موجة استنكار في العديد من الدول ودفعت الاتحاد الأوروبي إلى فتح تحقيق.

كما وافق البرلمان في النص ذاته، على إرجاء دخول قوانين أوروبية جديدة حيّز التنفيذ بشأن أنظمة الذكاء الاصطناعي ذات المخاطر العالية، أي تلك العاملة في مجالات حساسة كالأمن أو الصحة أو الحقوق الأساسية.

وكان من المفترض أن تدخل هذه القواعد حيّز التنفيذ في أغسطس (آب) 2026. وعلى غرار الدول الأعضاء، اقترح النواب الأوروبيون تاريخين محدّدين لهذا التأجيل، في حين كانت المفوضية الأوروبية تريد منح الشركات جدولاً زمنياً أكثر مرونة.

والتاريخان هما: الثاني من ديسمبر (كانون الأول) 2027 للأنظمة المستقلة ذات المخاطر العالية، والثاني من أغسطس (آب) 2028 للأنظمة المدمجة في برامج أو منتجات أخرى.