في لحظات القرار... هل يُفكر الذكاء الاصطناعي معك أم عنك؟

من الإجابة إلى الحوار

«أوبن إيه آي»: لم يعد الذكاء الاصطناعي يقدم إجابات حاسمة بل يساعد على التفكير واتخاذ القرار (شاترستوك)
«أوبن إيه آي»: لم يعد الذكاء الاصطناعي يقدم إجابات حاسمة بل يساعد على التفكير واتخاذ القرار (شاترستوك)
TT

في لحظات القرار... هل يُفكر الذكاء الاصطناعي معك أم عنك؟

«أوبن إيه آي»: لم يعد الذكاء الاصطناعي يقدم إجابات حاسمة بل يساعد على التفكير واتخاذ القرار (شاترستوك)
«أوبن إيه آي»: لم يعد الذكاء الاصطناعي يقدم إجابات حاسمة بل يساعد على التفكير واتخاذ القرار (شاترستوك)

يلجأ الناس إلى تقنيات الذكاء الاصطناعي طمعاً في الوضوح والحسم واليقين، سواء في معرفة الأعراض الطبية، أو طلب النصيحة العاطفية، أو اتخاذ قرارات حياتية معقدة.

لكن هذا النموذج التقليدي لا يخلو من المخاطر. يحذر خبراء من أن الاعتماد المفرط على الذكاء الاصطناعي قد يُضعف الحكم البشري، ويعزز الانحياز التأكيدي، بل وقد يفضي إلى حالات من التعلّق العاطفي غير الصحي. ومن هنا تبرز أهمية ما جاء في منشور جديد «Blog» لشركة «أوبن إيه آي» (OpenAI) بعنوان: «كيف نُحسّن من تجربة استخدام (ChatGPT)»، الذي يمثل تحولاً فلسفياً كبيراً في كيفية تطوير الذكاء الاصطناعي واستخدامه. إذ لم تعد الشركة تنظر إلى الذكاء الاصطناعي أداةً لإعطاء الإجابات المطلقة، بل «شريك تفكير» يساعد المستخدم على استكشاف أفكاره واتخاذ قراراته بنفسه. هذا ليس مجرد تحديث تقني، بل إعادة تعريف جذرية لدور الذكاء الاصطناعي في حياة الإنسان.

يهدف التحوّل في تصميم ChatGPT إلى دعم التفكير النقدي بدلاً من تقديم حلول جاهزة (غيتي)

من آلة إلى شريك

يتضمن المنشور مجموعة من التغييرات التي تعكس هذا التوجه الجديد، على رأسها التركيز على دعم عملية التفكير بدلاً من تقديم حلول نهائية خصوصاً في المواضيع الحساسة ذات البُعد الشخصي.

أحد الأمثلة اللافتة هو طريقة استجابة «تشات جي بي تي» (ChatGPT) للأسئلة العاطفية مثل «هل يجب أن أنفصل عن شريكي؟».

في السابق، ربما كان النموذج يقدم إجابة مباشرة، وقد تكون جافة أو غير متعاطفة. أما الآن، فباتت الإجابة تأخذ طابعاً استرشادياً؛ يسعى النموذج إلى طرح أسئلة توضيحية، ومساعدة المستخدم في تنظيم أفكاره، والتفكير في الإيجابيات والسلبيات. هذا التغيير يعكس هدفاً واضحاً وهو الحفاظ على استقلالية المستخدم. فكما توضح «OpenAI» فإن الهدف ليس اتخاذ القرار بدلاً منك، بل مساعدتك على التفكير فيه. هنا يصبح الذكاء الاصطناعي أشبه بالمدرب الذهني لا المستشار الحاسم.

ومن التحديثات اللافتة أيضاً إضافة ميزة «التذكير اللطيف» بأخذ استراحة خلال الجلسات الطويلة. قد تبدو هذه الميزة بسيطة، لكنها تعكس وعياً متزايداً بمخاطر التعلّق العاطفي المفرط، وتعمل على تشجيع الاستخدام الصحي والمتوازن.

الاستقلالية والتفكير النقدي

التحوّل في فلسفة التصميم لا يهدف فقط إلى تحسين تجربة المستخدم، بل إلى تعزيز دوره في عملية اتخاذ القرار. النموذج القديم، الذي يصوّر الذكاء الاصطناعي مصدراً للحقيقة، يُضعف قدرة الإنسان على التفكير النقدي، ويجعله أكثر اعتماداً على إجابات خارجية بدلاً من تحليل الخيارات ذاتياً. أما النموذج الجديد، الذي يُقدّم الذكاء الاصطناعي دليلاً، فيمنح المستخدم أدوات لفهم ذاته وموقفه بشكل أعمق. النموذج لا يخبرك «ماذا تفعل؟»، بل يساعدك على معرفة «لماذا قد تفعل ذلك؟»، و«ما هي البدائل؟»، و«ما الذي يناسب قيمك وظروفك؟». بهذه الطريقة، يصبح الذكاء الاصطناعي أداة تدعم التفكير، لا تحل محله وسيلة لتعزيز الوعي واتخاذ قرارات أكثر وعياً واتزاناً.

التحول الفلسفي في تصميم الذكاء الاصطناعي يعيد تعريف العلاقة بين الإنسان والتقنية نحو شراكة لا تبعية (شاترستوك)

شراكة بشرية

من المهم أيضاً الإشارة إلى أن هذه التغييرات لم تأتِ من فراغ. فقد تعاونت «Open AI» مع أكثر من 90 طبيباً من 30 دولة، إلى جانب أطباء نفسيين وباحثين في مجال التفاعل بين الإنسان والحاسوب (HCI)، لإعادة تصميم سلوك النموذج في المواقف الحساسة. هذا يسلّط الضوء على بُعد جديد في تطوير الذكاء الاصطناعي؛ لم يعد الأمر تقنياً فقط، بل إنساني وأخلاقي أيضاً. فمع ازدياد حضور النماذج اللغوية في حياتنا اليومية، يصبح من الضروري دمج المعايير النفسية والاجتماعية والأخلاقية ضمن التصميم.

ويعكس هذا التعاون توجهاً واضحاً نحو تطوير «ذكاء اصطناعي مسؤول»، يأخذ في اعتباره رفاهية المستخدم، وأثر التكنولوجيا على العلاقات الإنسانية واتخاذ القرار.

التفاعل مع الذكاء الاصطناعي

تحوّل الذكاء الاصطناعي من «عرّاف» إلى «دليل» قد يصبح الميزة الفارقة للجيل القادم من أدوات الذكاء الاصطناعي. فبدلاً من تقييم كفاءة الذكاء الاصطناعي بناءً على سرعة الإجابة، سيكون المعيار هو قدرته على دعم الإنسان في مواجهة المواقف المعقدة والمشاعر المتضاربة. ومع تطور هذا النهج، قد نشهد علاقة أكثر صحية وتوازناً بين الإنسان والتكنولوجيا؛ علاقة تقوم على التعاون لا التبعية، وعلى التمكين لا الإملاء.

إن الغاية النهائية للذكاء الاصطناعي ليست استبدال العقل البشري، بل تقويته. ليست تجاوز تعقيد الواقع، بل مساعدتنا على فهمه ومواجهته بوعي. وهنا، يمكن للذكاء الاصطناعي أن يؤدي دوره الحقيقي: دليلاً يعيننا على التفكير، لا عرافاً يملينا الطريق.


مقالات ذات صلة

هل تثق بالذكاء الاصطناعي لتحديد طعامك؟ دراسة تحذر المراهقين

صحتك رسم توضيحي يُظهر مجسمات صغيرة تحمل أجهزة كمبيوتر وهواتف ذكية أمام عبارة «الذكاء الاصطناعي» (رويترز)

هل تثق بالذكاء الاصطناعي لتحديد طعامك؟ دراسة تحذر المراهقين

دراسة علمية جديدة تحذر من أن الاعتماد على هذه الأدوات لتخطيط النظام الغذائي قد يحمل مخاطر صحية حقيقية؛ إذ قد تقود بعض المراهقين إلى تناول كميات أقل من المطلوب.

«الشرق الأوسط» (واشنطن)
تكنولوجيا شعار تطبيق «شات جي بي تي» يظهر على شاشة (أ.ف.ب)

دراسة صادمة: 8 من كل 10 روبوتات ذكاء اصطناعي قد تساعد بالتخطيط لهجمات عنيفة

حسب التقرير الصادر عن مركز مكافحة الكراهية الرقمية، فإن ثمانية من كل عشرة روبوتات دردشة تعمل بالذكاء الاصطناعي قد تساعد المستخدمين الشباب في التخطيط لهجمات.

«الشرق الأوسط» (واشنطن)
تكنولوجيا أوضحت شركة «مايكروسوفت» أن الشريحة «مايا 200» الجديدة ستبدأ العمل هذا الأسبوع بمركز بيانات بولاية أيوا الأميركية مع خطط لموقع ثان في أريزونا (د.ب.أ)

«مايكروسوفت» تكشف عن «مايا 200»... الجيل الثاني من شرائحها للذكاء الاصطناعي

كشفت «مايكروسوفت» الاثنين عن الجيل الثاني من شريحة الذكاء الاصطناعي التي تنتجها داخل الشركة «مايا 200».

«الشرق الأوسط» (سان فرانسيسكو)
صحتك شعار تطبيق «تشات جي بي تي» (إ.ب.أ)

7 طرق يوصي بها المعالجون للاستفادة من «تشات جي بي تي» نفسياً

سواء أحببنا «تشات جي بي تي» أم لم نحبه، فإنه –والذكاء الاصطناعي عموماً– أصبح جزءاً لا يتجزأ من حياتنا اليومية، ومن المرجح أن يظل كذلك في المستقبل المنظور.

«الشرق الأوسط» (واشنطن)
تكنولوجيا يستغل المحتالون ميزات الدعوات الرسمية في «OpenAI» لإرسال رسائل احتيالية تبدو موثوقة تقنياً (شاترستوك)

تحذير لمستخدمي «ChatGPT»: دعوات مزيفة عبر «أوبن إيه آي»

يحذّر خبراء «كاسبرسكي» من أسلوب احتيالي جديد يستغل دعوات «أوبن إيه آي» الرسمية لخداع مستخدمي «ChatGPT» ودفعهم إلى الروابط والمكالمات الوهمية.

نسيم رمضان (لندن)

«أبل» تعتزم فتح «سيري» أمام خدمات الذكاء الاصطناعي المنافِسة

يظهر شعار شركة «أبل» على مبنى في حي مانهاتن بمدينة نيويورك الأميركية (د.ب.أ)
يظهر شعار شركة «أبل» على مبنى في حي مانهاتن بمدينة نيويورك الأميركية (د.ب.أ)
TT

«أبل» تعتزم فتح «سيري» أمام خدمات الذكاء الاصطناعي المنافِسة

يظهر شعار شركة «أبل» على مبنى في حي مانهاتن بمدينة نيويورك الأميركية (د.ب.أ)
يظهر شعار شركة «أبل» على مبنى في حي مانهاتن بمدينة نيويورك الأميركية (د.ب.أ)

ذكرت «بلومبيرغ نيوز»، اليوم الخميس، أن «أبل» تخطط لفتح مساعدها الصوتي «سيري» أمام خدمات ​الذكاء الاصطناعي المنافِسة، بما يتجاوز شراكتها الحالية مع «تشات جي بي تي».

وقالت الوكالة، في تقريرها الذي نقلته عن مصادر مطّلعة، إن هذه الخطوة، المتوقعة ضِمن تحديث نظام التشغيل «آي أو إس 27» من «أبل»، ستسمح لتطبيقات الذكاء الاصطناعي التابعة لجهات خارجية بالاندماج مباشرة مع «سيري»، مما يمكّن المستخدمين من توجيه الاستفسارات إلى خدمات مثل «جيميناي» التابعة لشركة «ألفابت»، أو «كلود» التابعة لشركة «أنثروبيك» من داخل المساعد.

وهذا التغيير تحول مهم في استراتيجية «أبل» للذكاء الاصطناعي، إذ تسعى الشركة إلى اللحاق بركب نظيراتها في وادي السيليكون، ووضع «آيفون» كمنصة أوسع للذكاء الاصطناعي.

و«سيري»، الذي أُطلق لأول مرة منذ أكثر من عقد، عنصر أساسي في هذا المسعى. وأفادت «بلومبيرغ نيوز» بأن «أبل» تُطور أدوات تسمح لتطبيقات روبوتات الدردشة المثبتة عبر متجر التطبيقات الخاص بها بالعمل مع «سيري» وميزات أخرى ضِمن منصة «أبل إنتليجنس». وسيتمكن المستخدمون من اختيار خدمة الذكاء الاصطناعي التي تتولى معالجة كل طلب.

وذكر التقرير أن هذا التحديث قد يساعد «أبل» أيضاً على تحقيق مزيد من الإيرادات من خلال الحصول على حصة من الاشتراكات المبيعة عبر خدمات الذكاء الاصطناعي التابعة لجهات خارجية.

ومن المتوقع أن تستعرض «أبل» ميزات البرنامج الجديدة في مؤتمر المطورين العالمي الذي تعقده في يونيو (حزيران) المقبل، غير أن الخطط قد تتغير.


البرلمان الأوروبي يحظر أدوات ذكاء اصطناعي «تعرّي» أشخاصاً

شعار روبوت الدردشة «غروك» يظهر على شاشتين (أ.ف.ب)
شعار روبوت الدردشة «غروك» يظهر على شاشتين (أ.ف.ب)
TT

البرلمان الأوروبي يحظر أدوات ذكاء اصطناعي «تعرّي» أشخاصاً

شعار روبوت الدردشة «غروك» يظهر على شاشتين (أ.ف.ب)
شعار روبوت الدردشة «غروك» يظهر على شاشتين (أ.ف.ب)

أقرّ البرلمان الأوروبي، الخميس، قانوناً يحظّر استخدام الذكاء الاصطناعي لـ«تعرية» الأشخاص من دون موافقتهم.

وتمّ تبني القرار في نصّ أُقرّ بأغلبية ساحقة (569 صوتاً مقابل 45 صوتاً معارضاً) خلال جلسة عامة للبرلمان في بروكسل، وفقاً لـ«وكالة الصحافة الفرنسية».

وأوضح بيان صادر عن البرلمان أن الأمر يتعلّق بحظر برامج «التعرية» التي «تستخدم الذكاء الاصطناعي لإنشاء أو التلاعب بصور ذات إيحاءات جنسية واضحة، أو صور في وضع حميم تشبه شخصاً حقيقياً يمكن التعرّف عليه، من دون موافقة هذا الشخص».

ولا يطبّق النص على أنظمة الذكاء الاصطناعي المزوّدة «بتدابير أمنية فعّالة» تحول دون هذه الممارسات.

وكانت دول الاتحاد الأوروبي أقرّت هذا الشهر إجراء مشابهاً. وسيتعيّن عليها الآن التفاوض مع البرلمان للتوصل إلى صياغة متقاربة، قبل أن يصبح من الممكن تطبيق الإجراء.

وتأتي هذه المبادرات خصوصاً بعد إدخال خاصية قبل بضعة أشهر في تطبيق «غروك» للذكاء الاصطناعي تتيح للمستخدمين أن يطلبوا منه تركيب صور مزيفة قريبة جداً من الواقعية (ديب فيك) لنساء وأطفال عراة، انطلاقاً من صور حقيقية.

وأثارت هذه القضية موجة استنكار في العديد من الدول ودفعت الاتحاد الأوروبي إلى فتح تحقيق.

كما وافق البرلمان في النص ذاته، على إرجاء دخول قوانين أوروبية جديدة حيّز التنفيذ بشأن أنظمة الذكاء الاصطناعي ذات المخاطر العالية، أي تلك العاملة في مجالات حساسة كالأمن أو الصحة أو الحقوق الأساسية.

وكان من المفترض أن تدخل هذه القواعد حيّز التنفيذ في أغسطس (آب) 2026. وعلى غرار الدول الأعضاء، اقترح النواب الأوروبيون تاريخين محدّدين لهذا التأجيل، في حين كانت المفوضية الأوروبية تريد منح الشركات جدولاً زمنياً أكثر مرونة.

والتاريخان هما: الثاني من ديسمبر (كانون الأول) 2027 للأنظمة المستقلة ذات المخاطر العالية، والثاني من أغسطس (آب) 2028 للأنظمة المدمجة في برامج أو منتجات أخرى.


«هيوماين» و«Turing» تطلقان سوقاً عالمية لوكلاء الذكاء الاصطناعي للمؤسسات

تجمع الشراكة بين البنية التحتية والنماذج لدى «هيوماين» وخبرة «Turing» في تطوير وتقييم أنظمة الذكاء الاصطناعي (هيوماين)
تجمع الشراكة بين البنية التحتية والنماذج لدى «هيوماين» وخبرة «Turing» في تطوير وتقييم أنظمة الذكاء الاصطناعي (هيوماين)
TT

«هيوماين» و«Turing» تطلقان سوقاً عالمية لوكلاء الذكاء الاصطناعي للمؤسسات

تجمع الشراكة بين البنية التحتية والنماذج لدى «هيوماين» وخبرة «Turing» في تطوير وتقييم أنظمة الذكاء الاصطناعي (هيوماين)
تجمع الشراكة بين البنية التحتية والنماذج لدى «هيوماين» وخبرة «Turing» في تطوير وتقييم أنظمة الذكاء الاصطناعي (هيوماين)

في خطوة تعكس تسارع الاهتمام بتطبيقات الذكاء الاصطناعي داخل المؤسسات، أعلنت «هيوماين»، التابعة لصندوق الاستثمارات العامة، عن شراكة مع شركة «Turing» المتخصصة في تطوير أنظمة الذكاء الاصطناعي، بهدف إنشاء سوق عالمية لوكلاء الذكاء الاصطناعي ضمن منصة «HUMAIN ONE».

وتتمحور الفكرة حول توفير بيئة تمكّن الشركات من اكتشاف هذه الوكلاء وتطبيقها وتوسيع استخدامها عبر وظائف مختلفة، مثل الموارد البشرية والمالية والعمليات، في محاولة لتسريع الانتقال من استخدام أدوات رقمية تقليدية إلى نماذج تشغيل أكثر اعتماداً على الأتمتة الذكية.

يفتح المشروع المجال أمام المطورين لنشر حلولهم وبناء منظومة أوسع لما يُعرف بـ«اقتصاد الوكلاء» (شاترستوك)

منصات التشغيل الذكي

الشراكة تجمع بين ما تطوره «هيوماين» من بنية تحتية ونماذج ذكاء اصطناعي، وبين خبرة «Turing» في تقييم النماذج وضبطها وتطبيقها في بيئات العمل. الهدف المعلن هو الوصول إلى وكلاء ذكاء اصطناعي يمكن استخدامها على نطاق واسع داخل المؤسسات، وليس فقط في التجارب أو النماذج الأولية.

ويُتوقع أن يشكّل هذا السوق طبقة جديدة ضمن ما يُعرف بنماذج التشغيل القائمة على الوكلاء، حيث لا تقتصر البرمجيات على دعم سير العمل، بل تبدأ في تنفيذه بشكل مباشر. وفي هذا السياق، يمكن للمؤسسات الوصول إلى وكلاء متخصصين حسب الوظيفة أو القطاع، ضمن بيئة مصممة لتكون قابلة للتوسع ومراعية لمتطلبات الأمان.

كما يفتح هذا التوجه المجال أمام المطورين وشركات التقنية لنشر حلولهم عبر المنصة، ما قد يساهم في بناء منظومة أوسع لوكلاء الذكاء الاصطناعي، تتجاوز حدود المؤسسات الفردية إلى سوق أكثر تكاملاً.

وتشير «هيوماين» إلى أن هذه الخطوة تأتي ضمن رؤية أوسع لإعادة تعريف كيفية بناء البرمجيات واستخدامها داخل المؤسسات، عبر الانتقال من نموذج «البرمجيات كخدمة» إلى بيئات تعتمد على وكلاء قادرين على تنفيذ المهام والتعلم والتفاعل بشكل مستمر.

يعكس هذا التوجه تحولاً نحو نماذج تشغيل جديدة تعتمد على وكلاء أذكياء بدلاً من البرمجيات التقليدية داخل المؤسسات

اقتصاد الوكلاء الناشئ

من جانبه، يرى طارق أمين، الرئيس التنفيذي لـ«هيوماين»، أن المرحلة المقبلة ستشهد تحولاً في طبيعة البرمجيات المستخدمة داخل المؤسسات، قائلاً إن «المؤسسات في المستقبل لن تُبنى حول تطبيقات منفصلة، بل حول وكلاء أذكياء يعملون إلى جانب الإنسان». ويضيف أن هذه الشراكة تسعى إلى تسريع بناء سوق يربط بين قدرات المطورين واحتياجات المؤسسات.

بدوره، أشار جوناثان سيدهارث، الرئيس التنفيذي والشريك المؤسس لـ«Turing»، إلى أن تحويل قدرات الذكاء الاصطناعي المتقدمة إلى تطبيقات عملية يمثل التحدي الأساسي حالياً، موضحاً أن بناء سوق قائم على الوكلاء قد يسهم في جعل هذه التقنيات أكثر ارتباطاً بالإنتاجية الفعلية داخل المؤسسات.

وتأتي هذه الشراكة أيضاً في سياق أوسع يعكس طموح السعودية لتكون لاعباً في تطوير تقنيات الذكاء الاصطناعي، ليس فقط من حيث الاستخدام، بل كمصدر للمنصات والحلول التقنية.

وبينما لا تزال فكرة «اقتصاد الوكلاء» في مراحل مبكرة، فإن الاتجاه نحو بناء منصات تجمع بين المطورين والمؤسسات يشير إلى تحول محتمل في طريقة تطوير البرمجيات وتبنيها. فبدلاً من شراء أدوات جاهزة، قد تتجه المؤسسات مستقبلاً إلى تشغيل منظومات من الوكلاء القادرين على تنفيذ مهام متكاملة عبر مختلف أقسام العمل.

في هذا الإطار، تبدو «HUMAIN ONE» محاولة لبناء هذه الطبقة التشغيلية الجديدة، حيث لا تقتصر القيمة على التكنولوجيا نفسها، بل على كيفية تنظيمها وتكاملها داخل بيئات العمل.