الذكاء الاصطناعي ليس غبياً... لكنه قد يكون أغبى مما تعتقد

تجارب مُخيّبة تجبر الشركات الكبرى على مراجعة تصاميمها المطوّرة

الذكاء الاصطناعي ليس غبياً... لكنه قد يكون أغبى مما تعتقد
TT

الذكاء الاصطناعي ليس غبياً... لكنه قد يكون أغبى مما تعتقد

الذكاء الاصطناعي ليس غبياً... لكنه قد يكون أغبى مما تعتقد

لقد حان الوقت لنكون واقعيين بشأن ما يمكن للذكاء الاصطناعي فعله وما لا يمكنه فعله، كما كتبت شيرا أوفيدي، المحللة التكنولوجية في واشنطن.

روعة التكنولوجيا

إنه شعور مبهج عندما تساعدك التكنولوجيا على القيام بشيء مفيد أو رائع. من الرائع توجيه كاميرا هاتفك نحو شجرة غير مألوفة، ورؤية أن لها براعم حمراء. وربما تتذكر المرة الأولى التي قمت فيها باستخدام خرائط «غوغل» لمعرفة الاتجاهات، أو عند استدعائك سيارة أوبر... وبدا الأمر كأنه سحر.

التكنولوجيا الأكثر سخونة الآن، وهي نوع من الذكاء الاصطناعي الذي يولِّد نصوصاً أو صوراً تُشبه البشر، يمكن أن تمنحك في بعض الأحيان هزة فورية، ولكن في كثير من الأحيان لا يحدث ذلك.

تجارب مُخيّبة للذكاء الاصطناعي

ولعلك مررت بتجربة الذكاء الاصطناعي، وربما تولّد لديك أيضاً شعور بالإحباط عندما طلبت المساعدة من «تشات جي بي تي» في التخطيط للعطلة، أو في توليد وصفة لنوع من المعجنات.

إلا أن خيبات الأمل مثل تلك لا تعني أن الذكاء الاصطناعي عديم الفائدة. ولكن غالباً ما يكون هناك عدم تطابق بين واقع الذكاء الاصطناعي وكيف تشجعك الشركات على التفكير في الذكاء الاصطناعي الخاص بها، بصفته أدمغة سحرية تعرف وتفعل كل شيء.

أخطاء الذكاء الاصطناعي

الحقيقة أن الذكاء الاصطناعي سيئ بشكل أساسي في كثير من المهام، إذ يتطلب الأمر منك أن تتعلّم الكلمات الصحيحة فقط لتحصل منه على أفضل النتائج. ومثل جميع أجهزة الكومبيوتر، سوف يرتكب الذكاء الاصطناعي أخطاء مختلفة عن تلك التي يرتكبها البشر، لكنه سوف يرتكب الأخطاء.

تراجع الشركات عن تطويراتها

ومن المفيد أن نرى نمط تراجع الشركات عندما لا يعمل الذكاء الاصطناعي بالقدر الذي وعدت به. إنها تعلم أن الذكاء الاصطناعي ليس سحراً، ويجب عليك أن تعلم ذلك أيضاً.

وهنا بعض الأمثلة:

* «أليكسا» من «أمازون». قبل 9 أشهر، قالت «أمازون» إنها قامت بإصلاح مساعدها الصوتي «أليكسا» باستخدام الذكاء الاصطناعي الجديد. لكن «Alexa» أخطأ بشكل متكرر في طرح الأسئلة في العروض التوضيحية، ولا يزال غير متوافر على أجهزة «أليكسا» المنزلية.

يشعر بعض الخبراء في «أمازون» بالقلق من أن «أليكسا» الجديد لن يكون جاهزاً للإطلاق المخطط له في سبتمبر (أيلول)، لأن المساعد الصوتي لا يزال يقدم استجابات غير متوقعة. وقالت «أمازون» إنها اختبرت «أليكسا» الجديد مع مجموعات صغيرة من العملاء، وتعمل جاهدة لتوسيع نطاقه ليشمل مزيداً من الأشخاص.

* «سيري» من «أبل». قالت شركة «أبل» هذا الشهر إن نظام «سيري» المُعزز بالذكاء الاصطناعي سيبدأ الظهور على بعض موديلات «آيفون» الأحدث هذا العام، وسنرى كيف ستسير الأمور.

تراجعات «مايكروسوفت» و«غوغل»

* «مايكروسوفت». أبرمت صفقة كبيرة الشهر الماضي بشأن خط جديد من أجهزة الكومبيوتر الشخصية التي تعمل بتقنية الذكاء الاصطناعي، بما في ذلك ميزة الزمن «time machine feature» لكل ما يقوم به المستخدم على جهاز الكومبيوتر الخاص به. ثم قامت الشركة بإيقاف تشغيل الميزة افتراضياً بعد أن قال بعض الباحثين إنها تمثل كابوساً أمنياً.

كما قامت «مايكروسوفت» أيضاً بتقليص زر لوحة المفاتيح الذكي «AI keyboard button»، الذي جرى الترويج له كثيراً. وتوقفت عن دمج برنامج الدردشة الآلي الخاص بها في أجهزة الكومبيوتر التي تعمل بنظام «ويندوز» للقيام بالأعمال المنزلية، مثل تغيير سطوع الشاشة.

وقالت «مايكروسوفت» إنها استجابت للتعليقات التي تفيد بأن الأشخاص لا يحبون الخلط بين برنامج الدردشة الآلي ومهام أخرى مثل الإعدادات.

* «غوغل». قامت في الشهر الماضي بتقليص الإجابات التي جرى إنشاؤها بواسطة الذكاء الاصطناعي في أعلى نتائج بحث الويب، بعد أن كانت بعض استجابات الذكاء الاصطناعي غير منطقية أو خطيرة. وكانت هذه هي المرة الثالثة على الأقل التي تعترف فيها «غوغل» بأن الذكاء الاصطناعي الخاص بها لا يعمل بشكل جيد، بما في ذلك ميزة الذكاء الاصطناعي المعلقة الآن، التي تولد صوراً تتحدى التاريخ، مثل صورة امرأة لبابا الفاتيكان.

المكاشفة والصراحة حول صدق المعلومات

إن نمط تراجعات الذكاء الاصطناعي وخيبات الأمل يستدعي إعادة النظر في كيفية عرض الشركات تقنياتها عليك، وفي توقعاتك.

* أولاً، يجب على الشركات أن تكون صريحة بأن الذكاء الاصطناعي يمكن أن يكون مفيداً لبعض الأشياء، ولكن ليس لكل شيء، خاصة فيما يتعلق بالمعلومات الواقعية.

على سبيل المثال، ينبغي عدم استخدام الذكاء الاصطناعي للبحث عن ارتفاع برج «إيفل»، أو من فاز في الانتخابات الرئاسية الأمريكية لعام 2020.

* ثانياً، عندما تعرض الشركات الذكاء الاصطناعي الخاص بها علناً، يجب عليها أن تخبرك بمعدلات الخطأ، أو تدعم التأكيدات التي تبدو مذهلة.

شكك باحثون مستقلون حديثاً في ادعاء شركة «أوبن إيه آي» بأن «ChatGPT» الخاص بها يمكنه اجتياز اختبار المحاماة القانوني بدرجة أعلى من جميع المتقدمين للاختبار تقريباً. كما تحدوا فكرة أن روبوتات الدردشة يمكنها كتابة تعليمات برمجية مثل الخبراء من البشر.

* وأخيراً، من المهم أن تدرك أن خيالك قد يفوق قدرات الذكاء الاصطناعي. إننا نعرف من خلال تجربتنا الحياتية أن التكنولوجيا يمكن أن تكون مذهلة، لكنها نادراً ما تكون حلاً سحرياً. والذكاء الاصطناعي ليس كذلك أيضاً.


مقالات ذات صلة

السعودية تسعى لتعزيز التعاون الدولي في الأمن السيبراني

الاقتصاد جانب من أعمال المنتدى الدولي للأمن السيبراني 2023 في الرياض (الهيئة)

السعودية تسعى لتعزيز التعاون الدولي في الأمن السيبراني

في ظل التطور المتسارع والتحديات المتصاعدة التي يشهدها قطاع الأمن السيبراني عالمياً، تقدم السعودية نموذجاً استثنائياً في هذا المجال.

«الشرق الأوسط» (الرياض)
الاقتصاد يقوم عدد من مقدمي طلبات التأشيرات في مركز التأشيرات بالرياض بإكمال إجراءات طلباتهم (الشرق الأوسط)

نمو طلبات تأشيرات «شنغن» في السعودية بنسبة 23 % هذا العام

كشفت شركة «في إف إس غلوبال» عن أن الطلب على تأشيرات «شنغن» في السعودية شهد نمواً ملحوظاً بنسبة 23 في المائة هذا العام.

فتح الرحمن يوسف (الرياض)
الاقتصاد خزان تعدين في أحد المؤتمرات بالولايات المتحدة (رويترز)

إنفوغراف: ما أكبر مراكز البيانات في العالم؟

في ظل دعوة شركات الذكاء الاصطناعي الكبرى البيت الأبيض إلى بناء مراكز بيانات ضخمة بقدرة 5 غيغاواط من شأنها أن توفر عشرات الآلاف من الوظائف وتعزز الناتج المحلي.

«الشرق الأوسط» (واشنطن)
علوم صور أنشأها «نموذج الطبيعة الكبير» للذكاء الاصطناعي

أول متحف فني للذكاء الاصطناعي في العالم يتحدى العقول

مَعْلَم يلتقي فيه الخيال البشري بإبداع الآلة

جيسوس دياز (واشنطن)
الاقتصاد شعاري «أوبن إيه آي» و«تشات جي بي تي» في هذه الصورة التوضيحية (رويترز)

العقل المدبر خلف «تشات جي بي تي» تغادر «أوبن إيه آي»

أعلنت المديرة الفنية لشركة «أوبن إيه آي»، ميرا موراتي، يوم الأربعاء، استقالتها من المجموعة المتخصصة في الذكاء الاصطناعي التوليدي، لتنضم بذلك إلى قائمة المغادرين

«الشرق الأوسط» (نيويورك)

هل ينبغي أن نقلق بشأن الذكاء الاصطناعي؟

هل ينبغي أن نقلق بشأن الذكاء الاصطناعي؟
TT

هل ينبغي أن نقلق بشأن الذكاء الاصطناعي؟

هل ينبغي أن نقلق بشأن الذكاء الاصطناعي؟

«لقد عملت في مجال الذكاء الاصطناعي لمدة 13 عاماً، وقابلت كثيراً من الأشخاص الذين يشعرون بالقلق بشأنه»، يقول جورج كايلاس (*) الرئيس التنفيذي لشركة «بروسبيرو إيه آي ProsperoAi». ويضيف: «وفي رأيي، إنهم قلقون بشأن الأمور والجوانب الخاطئة له».

المخاوف من الذكاء الاصطناعي

لكن مخاوفهم تنقسم عموماً إلى فئتين:

1. الروبوتات القاتلة: متى ستكون هنا بالقرب منا؟ وإلى أي مدى ستكون قاتلة؟ هل لدينا فرصة للوقوف ضدها؟

2. الذكاء الفائق: عقل يرى كل شيء، والكاميرات وأي جهاز متصل بالإنترنت من «عيونه وآذانه». ويمكنه إجراء اتصالات وتوقعات تتجاوز فهمنا حرفياً.

وهذا الذكاء الخارق يبدو ملاصقاً في توجهاته للروبوتات القاتلة. على سبيل المثال، كان «Terminator» روبوتاً قاتلاً جرى إرساله إلى الوراء، في الوقت المناسب لقتل شخص بواسطة «Skynet»، وهو برنامج مستقبلي بذكاء فائق. ومثال آخر على الذكاء الفائق في الثقافة الشعبية، يحتوي برنامج «Person of Interest» على كومبيوتر شامل العلم يرى كل شيء ويمكنه التنبؤ بالمستقبل بما يتجاوز فهمنا.

مخاوف غير مبرَّرة

لا أجد أياً من هذه المخاوف ذات أهمية خاصة؛ لأننا لا نملك سبباً لاعتقاد أن الآلات ستكون عدوانية. لماذا نطبق أسوأ سمات البشرية على الآلات؟ إنها بالتأكيد ليست مثلنا.

لكن بخلاف ذلك، لا يمكننا حقاً الاقتراب من فهم كيف يفكر الذكاء الفائق. ربما يكون أقرب إلى ما قد يفكر فيه كثيرون على أنه صنم أعلى (إله اصطناعي)، وليس إنساناً.

مخاوف الذكاء الاصطناعي في إنفاذ القانون

وفي حين أن الذكاء الفائق والروبوتات القاتلة لم يظهرا بعدُ، فإليك ما أعتقد أنه يجب أن تقلق بشأنه الآن.

* التنبؤ بالجرائم المستقبلية. تعتزم الأرجنتين، من بين أمور أخرى، التنبؤ بالجرائم المستقبلية باستخدام الذكاء الاصطناعي. وفي المظهر يبدو هذا رائعاً، إذ تساعدنا أجهزة الكومبيوتر في تحسين الموارد، طوال الوقت.

* نظام رصد إطلاق النار. وفي هذا المجال، استخدمت شركة «بالتيمور تكنولوجيا» نظام «ShotSpotter (راصد الإطلاقات)»، الذي يحدد، على الفور، الموقع الذي يجري إطلاق النار منه، بوصفه جزءاً من نهج حديث للحد من الجريمة.

وهذا تطور إيجابي، لكنني قلِق بشأن مستقبل قريب مظلم وأكثر قتامة.

* الإجرام الجنسي. لدينا سِجل للمجرمين الجنسيين لكي يعرفهم الآباء المعنيون. ماذا لو لم يرتكب شخص جريمة بعدُ، لكن برنامج الذكاء الاصطناعي وجد أنه من المرجح بنسبة 80 في المائة أن يكون مجرماً جنسياً؟ هل سيبدأ هذا الشخص فقدان بعض حقوقه الدستورية؟

لا شك في أننا نعيش في عالم مخيف، لكن هل نحن مستعدّون للتعامل مع عواقب المجرمين المحتملين للغاية؟ وقبل أن تجيب بسرعة كبيرة، هل تكون مستعداً لتغيير حياة أحد أحبائك إذا قرر الكومبيوتر أن هناك احتمالاً لقيامه بشيء خاطئ، حتى لو لم يفعل ذلك بعد؟ متى قد نتجه إلى هذا الطريق؟

درجة الأمانة الشخصية

كانت هناك حلقة من مسلسل «المرآة السوداء (Black Mirror)»، حيث كان على امرأة رفع درجتها الاجتماعية للعيش في أفضل الشقق، والحصول على امتيازات الطيران وتأجير السيارات. وجرى تقييم المرأة من قِبل أشخاص آخرين بعد كل تفاعل. تخيل مستقبلاً، حيث تحاول المرور عبر باب آلي إلى متجرك المفضل، ويجري مسحُ وجهك وتكتشف أنه لم يعد يُسمح لك بدخول هذا المتجر.

من المؤسف أن أبلِّغكم بأن هذه ليست مجرد حلقة من ذلك المسلسل، فهناك بالفعل برنامج مماثل في الصين أدانته جماعات حقوق الإنسان. وفي إحدى الحالات، لم يُسمح لمحام بشراء تذكرة طائرة، إذ كانت المحكمة قد قررت أن اعتذاره عن تصرفٍ ما كان «غير صادق».

التزييف العميق للفيديوهات

قد تُشكل مقاطع الفيديو المزيفة أيضاً مشاكل للمجتمع. ففي هونغ كونغ، هرب المحتالون بأكثر من 25 مليون دولار، بعد إنشاء اجتماع افتراضي مزيف بالكامل، حيث كان جميع المشاركين، باستثناء الضحية، عبارة عن صور وأصوات مُفَبركة لأشخاص حقيقيين. واستخدم المحتالون صوراً وصوتاً متاحة للجمهور لإنشاء مقاطع فيديو مزيَّفة للموظفين، بما في ذلك مقطع فيديو مزيف للمدير المالي للشركة.

في المستقبل، قد يصبح الأمر أكثر رعباً. ماذا يحدث إذا تلقيتَ مكالمة من «والدتك» تقول إن هناك حالة طوارئ تتطلب أموالاً، أو تعتقد أنك رأيت أحد الساسة يقول لك شيئاً ما، لكنه كان مقطع فيديو للذكاء الاصطناعي.

كما أن هناك التفاعلات المحتملة مع الروبوتات الحقيقية أو البشر الآليين الذين لم يصلوا إلى الذكاء الفائق، لكن من المؤكد أنهم قد يخدعونك.

قلق من كيفية تطبيق الذكاء الاصطناعي

إن الذكاء الاصطناعي يحوّل عالمنا، بالفعل، بطرق نحتاج إلى الانتباه إليها الآن. في حين أن الخوف من الروبوتات القاتلة والذكاء الفائق يجذب خيالنا، فهذه ليست التهديدات المباشرة التي نواجهها.

إن القلق الحقيقي هو كيف يجري تطبيق الذكاء الاصطناعي، اليوم - التنبؤ بالجرائم قبل حدوثها، وتحديد مَن «المستحق» في نظام الائتمان الاجتماعي، واختلاق واقع افتراضي كامل من خلال التزييف العميق.

أسئلة أخلاقية واجتماعية

تثير هذه التطورات أسئلة أخلاقية ومجتمعية خطيرة. هل نحن مستعدون للعيش في عالم حيث يمكن لدرجات احتمالية الآلة أن تحدد حريتنا، أو مكانتنا الاجتماعية، أو حتى ثقتنا في الواقع؟

مع تقدمنا ​​​​في مجال الذكاء الاصطناعي، من الأهمية بمكان التأكد من كوننا أناسا متأملين ومتمرسين في كيفية استخدامنا تلك التكنولوجيا، وموازنة الابتكار مع القيم والحقوق التي تحددنا بصفتنا مجتمعاً.

لا يتعلق مستقبل الذكاء الاصطناعي بـ«الديستوبيا (المدينة الفاسدة التي تسودها المظالم)» البعيدة، إنه هنا بالفعل، لذا فان اختياراتنا للتنقل فيه هي التي ستشكل العالم الذي نعيش فيه غداً.

* مجلة «فاست كومباني»، خدمات «تريبيون ميديا».