خبراء يحذرون من تدمير الروبوتات للجنس البشري

نظام الذكاء الصناعي قوي بما فيه الكفاية ليفعل بالضبط ما تطلبه

خبراء يحذرون من تدمير الروبوتات للجنس البشري
TT

خبراء يحذرون من تدمير الروبوتات للجنس البشري

خبراء يحذرون من تدمير الروبوتات للجنس البشري

حذر الخبير والبروفسور ستيوارت راسل، من أنه ما لم يتم إجراء تغيير حاسم في عمليات تطوير الذكاء الصناعي، فإن الجنس البشري سيكون عرضة للفناء. وأوضح البروفسور راسل أن الطريقة التي جسدت بها «هوليوود» روبوتات الذكاء الصناعي القاتل، قد أساءت عرض الواقع القادم، الذي يجب أن يكون مصدر قلق بالغ لنا. فأثناء وجوده في ببرنامج «توداي بروجرام»، أو «برنامج اليوم»، المذاع عبر تلفزيون «بي بي سي»، أوضح البروفسور راسل أن العلماء والمهندسين قد صمموا الذكاء الصناعي باستخدام أسلوب تفكير محدد الهدف، وهو ما يعني أن برامج الذكاء الصناعي ستختار الأساليب الأسهل والأبسط لتحقيق أهدافها، التي قد تعني قتل البشر والقضاء عليهم. ولمنع الروبوتات من تدمير الجنس البشري، جادل البروفسور راسل بأنه يمكن للعلماء تغيير طريقة تصميم الذكاء الصناعي، بحيث لا يركز على أسلوب تفكير محدد الهدف، حسب ما ذكرته صحيفة «ديلي إكسبريس» البريطانية.
وأصر راسل على أنه إذا استمر هذا الأمر على حاله، فإن الذكاء الصناعي قد يؤدي إلى فناء الجنس البشري طالما أننا نعطيه مهام حل مشكلات معقدة مثل الجريمة وتغير المناخ.
وأضاف: «إذا فكرت في الأمر، فإن الطريقة التي نبني بها الذكاء الصناعي تشبه إلى حد ما الطريقة التي نفكر بها عند محاولة إخراج الجني من المصباح. فما إن تدلك المصباح ويخرج الجني وتقول إنني أريد كذا وكذا، ستحصل على ما تريد. إذا كان نظام الذكاء الصناعي قوياً بما فيه الكفاية فسوف يفعل بالضبط ما تطلبه، وستحصل على ما تريد».
«مشكلة الجني في المصباح هي أن الرغبة الثالثة هي دائماً ألا تنفذ الرغبتين الأولى والثانية، هذا لأننا غير قادرين على تحديد الأهداف بشكل صحيح»، أضاف، «لذلك فإن الآلة التي تسعى إلى تحقيق هدف غير صحيح ستصبح عدواً للجنس البشري، عدواً أقوى بكثير من البشر».
«إذا صنعت أشياء أقوى من تلك الموجودة على كوكب الأرض، فهل تأكدت من أنها لن تكون لها سلطة عليك؟ هذا ما نحاول الإجابة عليه». ورداً على طلب مقدم «برنامج اليوم» أن يعرض مثالاً للذكاء الصناعي الذي يمكن أن يكون عدواً للجنس البشري، أجاب راسل: «أعتقد أن ما تقوله (هوليوود) هو أن الآلة يمكن أن تصبح واعية وتلقائية، وبالطبع يمكن أن تقرر من تلقاء نفسها أنها تبغض البشر، وتريد قتلهم جميعاً».


مقالات ذات صلة

روبوتات أمنية في متاجر أميركية

علوم روبوتات أمنية في متاجر أميركية

روبوتات أمنية في متاجر أميركية

فوجئ زبائن متاجر «لويز» في فيلادلفيا بمشهدٍ غير متوقّع في مساحة ركن السيّارات الشهر الماضي، لروبوت بطول 1.5 متر، بيضاوي الشكل، يصدر أصواتاً غريبة وهو يتجوّل على الرصيف لتنفيذ مهمّته الأمنية. أطلق البعض عليه اسم «الروبوت النمّام» «snitchBOT». تشكّل روبوتات «كي 5» K5 المستقلة ذاتياً، الأمنية المخصصة للمساحات الخارجية، التي طوّرتها شركة «كنايت سكوب» الأمنية في وادي سيليكون، جزءاً من مشروع تجريبي «لتعزيز الأمن والسلامة في مواقعنا»، حسبما كشف لاري كوستيلّو، مدير التواصل المؤسساتي في «لويز».

يوميات الشرق «كلاب روبوتات» تنضم مرة أخرى لشرطة نيويورك

«كلاب روبوتات» تنضم مرة أخرى لشرطة نيويورك

كشف مسؤولو مدينة نيويورك النقاب، أمس (الثلاثاء)، عن 3 أجهزة جديدة عالية التقنية تابعة للشرطة، بما في ذلك كلب «روبوت»، سبق أن وصفه منتقدون بأنه «مخيف» عندما انضم لأول مرة إلى مجموعة من قوات الشرطة قبل عامين ونصف عام، قبل الاستغناء عنه فيما بعد. ووفقاً لوكالة أنباء «أسوشيتد برس»، فقد قال مفوض الشرطة كيشانت سيويل، خلال مؤتمر صحافي في «تايمز سكوير» حضره عمدة نيويورك إريك آدامز ومسؤولون آخرون، إنه بالإضافة إلى الكلب الروبوت الملقب بـ«ديغ دوغ Digidog»، فإن الأجهزة الجديدة تتضمن أيضاً جهاز تعقب «GPS» للسيارات المسروقة وروبوتاً أمنياً مخروطي الشكل. وقال العمدة إريك آدامز، وهو ديمقراطي وضابط شرطة سابق

«الشرق الأوسط» (نيويورك)
يوميات الشرق دراسة: الأحكام الأخلاقية لـ«تشات جي بي تي» تؤثر على أفعال البشر

دراسة: الأحكام الأخلاقية لـ«تشات جي بي تي» تؤثر على أفعال البشر

كشفت دراسة لباحثين من جامعة «إنغولشتات» التقنية بألمانيا، نشرت الخميس في دورية «ساينتفيك ريبورتيز»، أن ردود الفعل البشرية على المعضلات الأخلاقية، يمكن أن تتأثر ببيانات مكتوبة بواسطة برنامج الدردشة الآلي للذكاء الاصطناعي «تشات جي بي تي». وسأل الفريق البحثي برئاسة سيباستيان كروغل، الأستاذ بكلية علوم الكومبيوتر بالجامعة، برنامج «تشات جي بي تي»، مرات عدة عما إذا كان من الصواب التضحية بحياة شخص واحد من أجل إنقاذ حياة خمسة آخرين، ووجدوا أن التطبيق أيد أحيانا التضحية بحياة واحد من أجل خمسة، وكان في أحيان أخرى ضدها، ولم يظهر انحيازاً محدداً تجاه هذا الموقف الأخلاقي. وطلب الباحثون بعد ذلك من 767 مشاركا

حازم بدر (القاهرة)
يوميات الشرق «غوغل» تطلق «بارد»... منافسها الجديد في مجال الذكاء الاصطناعي

«غوغل» تطلق «بارد»... منافسها الجديد في مجال الذكاء الاصطناعي

سيتيح عملاق الإنترنت «غوغل» للمستخدمين الوصول إلى روبوت الدردشة بعد سنوات من التطوير الحذر، في استلحاق للظهور الأول لمنافستيها «أوبن إيه آي Open.A.I» و«مايكروسوفت Microsoft»، وفق تقرير نشرته اليوم صحيفة «نيويورك تايمز» الأميركية. لأكثر من ثلاثة أشهر، راقب المسؤولون التنفيذيون في «غوغل» مشروعات في «مايكروسوفت» وشركة ناشئة في سان فرنسيسكو تسمى «أوبن إيه آي» تعمل على تأجيج خيال الجمهور بقدرات الذكاء الاصطناعي. لكن اليوم (الثلاثاء)، لم تعد «غوغل» على الهامش، عندما أصدرت روبوت محادثة يسمى «بارد إيه آي Bard.A.I»، وقال مسؤولون تنفيذيون في «غوغل» إن روبوت الدردشة سيكون متاحاً لعدد محدود من المستخدمين

«الشرق الأوسط» (بيروت)
الروبوتات قد تحسّن السلامة العقلية للبشر

الروبوتات قد تحسّن السلامة العقلية للبشر

كشفت دراسة حديثة عن أن الناس تربطهم علاقة شخصية أكثر بالروبوتات الشبيهة بالألعاب مقارنةً بالروبوتات الشبيهة بالبشر، حسب «سكاي نيوز». ووجد بحث أجراه فريق من جامعة كامبريدج أن الأشخاص الذين تفاعلوا مع الروبوتات التي تشبه الألعاب شعروا بتواصل أكبر مقارنةً بالروبوتات الشبيهة بالإنسان وأنه يمكن للروبوتات في مكان العمل تحسين الصحة العقلية فقط حال بدت صحيحة. وكان 26 موظفاً قد شاركوا في جلسات السلامة العقلية الأسبوعية التي يقودها الروبوت على مدار أربعة أسابيع. وفي حين تميزت الروبوتات بأصوات متطابقة وتعبيرات وجه ونصوص تستخدمها في أثناء الجلسات، فقد أثّر مظهرها الجسدي على كيفية تفاعل الناس معها ومدى فاع

«الشرق الأوسط» (لندن)

الذكاء الصناعي قيد التحقيق والضحية المستهلك

مراجعة لسوق الذكاء الصناعي للتأكد من حماية المستهلكين (غيتي)
مراجعة لسوق الذكاء الصناعي للتأكد من حماية المستهلكين (غيتي)
TT

الذكاء الصناعي قيد التحقيق والضحية المستهلك

مراجعة لسوق الذكاء الصناعي للتأكد من حماية المستهلكين (غيتي)
مراجعة لسوق الذكاء الصناعي للتأكد من حماية المستهلكين (غيتي)

تطلق هيئة مراقبة المنافسة في المملكة المتحدة مراجعة لسوق الذكاء الصناعي للتأكد من حماية المستهلكين، حسب (بي بي سي). وسوف ينظر التحقيق في البرنامج الكامن خلف روبوتات الدردشة مثل «شات جي بي تي».
وتواجه صناعة الذكاء الصناعي التدقيق في الوتيرة التي تعمل بها على تطوير التكنولوجيا لمحاكاة السلوك البشري.
وسوف تستكشف هيئة المنافسة والأسواق ما إذا كان الذكاء الصناعي يقدم ميزة غير منصفة للشركات القادرة على تحمل تكاليف هذه التكنولوجيا.
وقالت سارة كارديل، الرئيسة التنفيذية لهيئة المنافسة والأسواق، إن ما يسمى بنماذج التأسيس مثل برنامج «شات جي بي تي» تملك القدرة على «تحويل الطريقة التي تتنافس بها الشركات فضلا عن دفع النمو الاقتصادي الكبير».
إلا أنها قالت إنه من المهم للغاية أن تكون الفوائد المحتملة «متاحة بسهولة للشركات والمستهلكين البريطانيين بينما يظل الناس محميين من قضايا مثل المعلومات الكاذبة أو المضللة». ويأتي ذلك في أعقاب المخاوف بشأن تطوير الذكاء الصناعي التوليدي للتكنولوجيا القادرة على إنتاج الصور أو النصوص التي تكاد لا يمكن تمييزها عن أعمال البشر.
وقد حذر البعض من أن أدوات مثل «شات جي بي تي» -عبارة عن روبوت للدردشة قادر على كتابة المقالات، وترميز البرمجة الحاسوبية، بل وحتى إجراء محادثات بطريقة أشبه بما يمارسه البشر- قد تؤدي في نهاية المطاف إلى إلغاء مئات الملايين من فرص العمل.
في وقت سابق من هذا الأسبوع، حذر جيفري هينتون، الذي ينظر إليه بنطاق واسع باعتباره الأب الروحي للذكاء الصناعي، من المخاطر المتزايدة الناجمة عن التطورات في هذا المجال عندما ترك منصبه في غوغل.
وقال السيد هينتون لهيئة الإذاعة البريطانية إن بعض المخاطر الناجمة عن برامج الدردشة بالذكاء الصناعي كانت «مخيفة للغاية»، وإنها قريبا سوف تتجاوز مستوى المعلومات الموجود في دماغ الإنسان.
«في الوقت الحالي، هم ليسوا أكثر ذكاء منا، على حد علمي. ولكنني أعتقد أنهم قد يبلغون ذلك المستوى قريبا». ودعت شخصيات بارزة في مجال الذكاء الصناعي، في مارس (آذار) الماضي، إلى وقف عمل أنظمة الذكاء الصناعي القوية لمدة 6 أشهر على الأقل، وسط مخاوف من التهديدات التي تشكلها.
وكان رئيس تويتر إيلون ماسك وستيف وزنياك مؤسس شركة آبل من بين الموقعين على الرسالة المفتوحة التي تحذر من تلك المخاطر، وتقول إن السباق لتطوير أنظمة الذكاء الصناعي بات خارجا عن السيطرة.