متى يطوي العالم صفحة «كورونا»؟

مع دخول الجائحة سنتها الرابعة

فلسطيني في مخيم «الشاطئ» بغزة يمر أمام لوحة جدارية تحثّ على اتخاذ تدابير وقائية ضد «كوفيد - 19» (أ.ف.ب)
فلسطيني في مخيم «الشاطئ» بغزة يمر أمام لوحة جدارية تحثّ على اتخاذ تدابير وقائية ضد «كوفيد - 19» (أ.ف.ب)
TT

متى يطوي العالم صفحة «كورونا»؟

فلسطيني في مخيم «الشاطئ» بغزة يمر أمام لوحة جدارية تحثّ على اتخاذ تدابير وقائية ضد «كوفيد - 19» (أ.ف.ب)
فلسطيني في مخيم «الشاطئ» بغزة يمر أمام لوحة جدارية تحثّ على اتخاذ تدابير وقائية ضد «كوفيد - 19» (أ.ف.ب)

في رحلته اليومية من منزله بضاحية حلوان في جنوب القاهرة إلى مقر عمله بوسط العاصمة المصرية، مستخدماً مترو الأنفاق، يحرص المهندس خالد الدسوقي، صاحب الـ56 عاماً، على ألا تغادر الكمامة وجهه في رحلتَي الذهاب والعودة، على الرغم من تخلص بقية الركاب من هذا الإجراء الاحترازي ضد الفيروس الذي يدخل عامه الرابع.
الدسوقي، الذي يعمل مهندساً مدنياً وظل يؤجل لحظة الانتقال من العمل المنزلي الذي فرضه الوباء إلى الذهاب لمقر العمل، قال لـ«الشرق الأوسط»: «لم يعد بالإمكان الاستمرار في العمل عن بُعد، بعد أن أصدرت إدارة الشركة قراراً بالعودة إلى أوضاع ما قبل بداية الوباء، ولكنني بقدر الإمكان أحاول الالتزام بالإجراءات الاحترازية، حتى وإن شعرت بأنني صرت غريباً في مجتمع كان يخشى أفراده قبل شهور، عطسة شخص إلى جوارهم، خشية العدوى».

التخلي عن احتياطات «كورونا» يعطي انطباعاً خادعاً بنهاية الوباء (جامعة هارفارد)

وأصبحت غالبية شعوب العالم تتصرف مثل رفقاء الدسوقي في عربة المترو، وهو ما يثير تساؤلاً منطقياً: «هل طوى العالم صفحة (كورونا)؟».
بالنظر إلى عداد الإصابات والوفيات، الذي لا يتوقف عن إضافة المزيد كل يوم، لا يبدو أن العالم طوى تلك الصفحة، بل لا يستطيع أحد أن يتنبأ بموعد تلك الخطوة، ولكن ربما تعطي سلوكيات البشر «إحساساً خادعاً» بذلك، بعد أن انتقل العالم من مرحلة «الذعر الوبائي» إلى «التعايش مع الفيروس»، كما تكشف الأرقام.
وساعد الخوف من الفيروس والإغلاقات التي نفّذتها الدول في بدايات الوباء الذي أعلنته «منظمة الصحة العالمية» حالة «طوارئ» صحية في 31 يناير (كانون الثاني) 2020، إلى تقليل عدد الإصابات في البداية، ثم ما لبثت أن تخلّت الدول رويداً رويداً عن هذه الإغلاقات، مع تحقيق تقدم في حملات التطعيم، وهو ما أدى إلى إصابة عدد كبير من السكان من غير المطعمين، لتعمل هذه الإصابات، جنباً إلى جنب، مع المناعة المتشكلة عند البعض باللقاحات، على تشكيل مناعة مجتمعية، خفضت الإصابات مجدداً.
- مفارقة تكشفها الأرقام
ورغم شعور المهندس الدسوقي -غير المبنيّ بالضرورة على إحصاءات- بتراجع الإصابات والوفيات في محيطه العائلي والمهني؛ فإنه لا يزال على حذره في ارتداء الكمامة خوفاً من تداعيات الإصابة بالفيروس الذي لطالما شغل الدنيا وأرعب الناس.
لكن ثمة دلائل علمية، تتباين بدرجة ما مع مخاوف الدسوقي البالغة، إذ تُظهر الإحصاءات أن مؤشر الوفيات في بدايات الوباء كان مرتفعاً، ثم ما لبث أن انخفض بنسبة كبيرة رغم استمرار زيادة عدد المصابين.

سياسة «صفر كوفيد» حرمت الصينيين من تشكيل المناعة المجتمعية (غيتي)

غير أن معدل الوفيات عاد إلى الارتفاع مجدداً، وذلك «بسبب السياسات الصينية، التي تخلّت بشكل مفاجئ عن سياسة (صفر كوفيد) التي حرمت المجتمع الصيني من تشكيل مناعة مجتمعية، فأدى ذلك لزيادة عدد الوفيات، لا سيما بين كبار السن»، حسب تقديرات خبراء.
عالمياً تكشف إحصاءات جامعة «جونز هوبكنز» الأميركية عن هذه المفارقة، ففي يوم 21 يناير 2022، والذي شهد أعلى عدد من الإصابات منذ بداية الوباء وسجل (نحو 3 ملايين و851 ألفاً و174 إصابة)، كان عدد الوفيات (9 آلاف و494 حالة وفاة)، بمعدل أقل من نصف في المائة (0.246 في المائة)، وبالمقارنة مع يوم 21 يناير في العام الذي سبقه (2021)، كان عدد الإصابات (651 ألفاً و526 إصابة) توفي منهم (16 ألفاً و878 شخصاً) بمعدل (2.59 في المائة)، لكن في 21 يناير من عام 2023، عاد معدل الإصابات والوفيات إلى الارتفاع مجدداً بمعدل بسيط، بسبب الوضع الوبائي في الصين، حيث كان عدد الإصابات (153 ألفاً و257 إصابة) توفي منهم (ألفان و552 شخصاً)، بمعدل (1.665 في المائة).
وكان نمط الانخفاض الواضح في عدد الوفيات، رغم زيادة عدد الإصابات، سبباً في «انتقال العالم بعد ثلاث سنوات من مرحلة الذعر من الوباء إلى التعايش معه»، كما يوضح ماثيو وودروف، مدرس علم المناعة البشرية بجامعة «إيموري» الأميركية في تصريحات خاصة لـ«الشرق الأوسط». ويقول وودروف: «حققت حملات التطعيم نجاحاً كبيراً في منع عدد لا يحصى من الوفيات في جميع أنحاء العالم، وهو ما ساعد على إنهاء حالة الذعر من الفيروس». وأضاف: «أعتقد أن غالبية السكان لا يرون أنفسهم معرَّضين لخطر كبير، لكنّ هذا لا يعني طيّ صفحة الوباء، لأنه من غير المرجح أن يوقف الفيروس مساره دون ابتكار جديد».
- متحور «كراكن»
وكان آخر ابتكارات الفيروس هو المتحور «XBB.1.5»، والذي بات يُعرف بشكل غير رسمي باسم «المتحور كراكن»، وظهر في أميركا في أكتوبر (تشرين الأول) من العام الماضي، ثم انتقل إلى 38 دولة على الأقل، ووصفته ماريا فان كيركوف، الرئيسة الفنية لـ«كوفيد - 19» بمنظمة الصحة العالمية، في تصريحات صحافية، بأنه «الأكثر قابلية للانتقال حتى الآن، مع حدوث طفرات في البروتين الشوكي الفيروسي (سبايك) تسمح للفيروس بالارتباط بشكل أفضل بمستقبلاته في الخلايا البشرية (ACE - 2) وتسهل التهرب المناعي».
ورغم هذه المواصفات، لا يرى وودروف، أن هذا المتحور يمكن أن يتسبب في ضياع المكاسب التي تحققت خلال سنوات الوباء، وقال: «على الرغم مما يقال عن المتحور وقدراته، فإن معدلات الوفيات لم ترتفع بالطريقة التي كانت عليها في وقت مبكر من الجائحة».
ويعزو وودروف تفاؤله إلى أن «السكان طوّروا على الأقل خطاً أساسياً للمناعة العامة، ولا يعني هذا بالضرورة حماية الأشخاص من العدوى النشطة، ولكنّ هذا يعني أن نظام المناعة لديهم يتمتع بقدر قليل من الذاكرة المناعية عند مواجهة متغيّر جديد». ويرى أنه «من غير المحتمل أن ننزلق مرة أخرى إلى أيام الوباء المبكرة، دون حدوث طفرة كبيرة غير متوقعة بالفيروس، تتجاوز مجرد تطور سلالة جديدة».

وتبدو مسألة حدوث هذه الطفرة الكبيرة، التي تعيد الذعر الوبائي، أمراً مستبعداً، في رأي أحمد سالمان، مدرّس علم المناعة وتطوير اللقاحات في معهد «إدوارد جينز» بجامعة «أوكسفورد» البريطانية، والذي قال في تصريحات خاصة لـ«الشرق الأوسط»: «إذا حدث ذلك، سنكون أمام فيروس جديد نبحث له عن اسم آخر، ولكن منذ تم اكتشاف (أوميكرون) في نوفمبر (تشرين الثاني) 2021، ندور في إطار متحورات جديدة من نفس عائلة (أوميكرون)».
ويشرح سالمان: «حتى يتمكن الفيروس من إحداث عدوى الخلية البشرية، يجب أن يكون الشكل الفيزيائي لبروتين (سبايك) متوافقاً مع مستقبلاته في الخلية البشرية (ACE - 2)، لذلك فإنه رغم حدوث تحورات في هذا البروتين، يظل محافظاً على الشكل الذي يمكّنه من الارتباط بمستقبلاته، وإذا فقد هذه القدرة، وبحث عن مستقبلات أخرى غير (ACE - 2)، سنكون أمام فيروس جديد ومختلف، وهذا أمر مستبعد».

ويوضح أن «الصفات الجديدة التي يكتسبها الفيروس مع المتحورات الجديدة كمتحور (XBB.1.5)، مثل معدل التكاثر المرتفع وسرعة الانتشار، تعود إلى تحورات في بروتينات أخرى، لذلك كان من الحكمة بناء اللقاحات على تركيبة (بروتين سبايك)، لأنها الأكثر ثباتاً، وهذا يفسر فاعلية اللقاحات بنسبة كبيرة في منع الوفاة، رغم أنها لا توفر بالضرورة الحماية من الإصابة بالفيروس».
ويضيف: «لا شك أن اللقاحات، حتى القديمة منها، والتي تم إنتاجها بناءً على النسخة الأولى من الفيروس الذي اكتُشف للمرة الأولى في ديسمبر (كانون الأول) 2019 بمدينة ووهان بالصين، لا تزال فعالة في الوقاية من المرض الشديد والوفاة، وهذا له دور كبير في انتقال العالم من مرحلة الطوارئ والذعر، إلى التعايش مع الفيروس».
- الانتقال لمرحلة التوطن
ولا يتوقع سالمان نهايةً لهذا الفيروس، لكن «قد تكون هناك نهاية للحالة الوبائية، والانتقال لمرحلة التوطن»، وفي هذه الحالة، كما يقول سالمان، «سيتم التعامل مع فيروس (كورونا) المستجد مثل فيروس الإنفلونزا، حيث ستكون هناك جرعات سنوية منه تُخصص بشكل كبير للفئات الضعيفة من كبار السن وضعاف المناعة».
وبينما تدرس الولايات المتحدة حالياً تغيير تركيبة اللقاح بشكل سنوي، كما يحدث مع الإنفلونزا، بحيث تكون متوائمة مع المتغير السائد، لا يعتقد سالمان أن هناك حاجة لتغيير سنوي للتركيبة لأن «هناك اختلافاً كبيراً بين فيروس الإنفلونزا و(كورونا) المستجد، رغم أن الفيروسين مادتهما الوراثية من النوع (آر إن إيه)». ويشرح أن «المادة الوراثية في الإنفلونزا مكوّنة من عدة شرائط صغيرة (من 8 قطع إلى 11 قطعة)، حسب نوع الفيروس، وهذا يجعل تحوراتها كثيرة، لذلك لا بديل عن تغيير تركيبة اللقاح سنوياً، ولكنّ (كورونا) المستجد يتكون من قطعة واحدة، لذلك فإن تحوراته المؤثرة قليلة، ودليل ذلك أننا ما زلنا ندور في فلك متغير (أوميكرون)، منذ تم اكتشافه في نوفمبر 2021».
ويخلص سالمان من ذلك إلى أن «الاختلافات لا تكون كبيرة بين المتحورات المختلفة من (كورونا) المستجد، لذلك فإن المناعة المكتسبة سواء من اللقاح أو من الإصابة، ستوفّر حماية من أي متحور قادم، وهذا يفسر سبب الأزمة التي تعيشها الصين منذ قررت التخلي عن سياسة (صفر - كوفيد)». ويقول: «تنفيذ الصين هذه السياسة حرم الصينيين من التعرض الطبيعي لمتغير (أوميكرون) عند ظهوره، كما كان مستوى التلقيح لديهم ضعيفاً، فضلاً عن قلة جودته مقارنةً باللقاحات الأخرى. ولذلك عندما قرروا التخلي عن تلك السياسة، كانت المتحورات الفرعية من (أوميكرون) جديدة تماماً بالنسبة إلى أجهزة المناعة، وهو ما تسبب في زيادة عدد الوفيات بين الفئات الأقل مناعة من كبار السن والمرضى».
والمفارقة أن حالة الذعر الوبائي، حتى مع زيادة عدد الإصابات، وارتفاع معدل الوفيات بين كبار السن وضعاف المناعة، لا تبدو موجودة في الصين، بل إن تقريراً نشرته «بي بي سي» في 6 يناير الماضي، نقل عن شباب صينيين اتجاههم للبحث عن العدوى «حتى يتمكنوا من اكتساب مناعة بالإصابة»، وهو سلوك يرفضه تامر سالم، أستاذ الفيروسات بمدينة زويل، لكنه يُرجعه إلى «توافر الأدوية المضادة للفيروسات، والتي صارت أداة مهمة من أدوات المكافحة». ويقول سالم لـ«الشرق الأوسط»: «لم تكن هذه الأداة متوافرة في بداية الوباء، ولكن وجودها الآن أعطى طمأنينة خفّفت كثيراً من حالة الخوف عند الإصابة بالفيروس».
وأصبحت حبوب «باكسوفيلد»، التي طوّرتها شركة «فايزر» الأميركية لصناعات الأدوية، من أبرز أدوات المكافحة، كما طوّرت شركتا «غونشي بايو» و«فيجونفيت لايف ساينس» الصينيتان دواء (VV116)، والذي سيظهر في الأسواق قريباً، وأظهرت تجاربه السريرية التي نشرتها دورية «نيو إنغلاند» الطبية في ديسمبر الماضي، أنه يفوق «باكسوفيلد» في متوسط وقت الشفاء والأعراض الجانبية الأقل.
- انتظار وترقُّب
وإذا كان الوضع على ما يبدو مطمئناً، كما ذهب الخبراء، فلماذا أعلنت «منظمة الصحة العالمية» قبل أيام (في 30 يناير الماضي) الإبقاء على «وضع الطوارئ»، رغم أن المدير العام للمنظمة، تيدروس أدهانوم غيبريسوس قال في 17 سبتمبر (أيلول) من العام الماضي في مؤتمر صحافي، إن «نهاية الوباء أصبحت وشيكة»؟
دورية «لانسيت» الطبية الشهيرة، كانت قد استبقت الاجتماع الذي انتهى للإعلان عن استمرار «وضع الطوارئ» بمقال في افتتاحيتها يوم 14 يناير الماضي، قالت فيه إنها لا تعتقد أن الوضع مهيأ لإعلان نهاية الوباء، مشيرةً إلى أن «الوضع الوبائي في الصين، والمتحور (XBB.1.5) سريع الانتشار، لا يشجعان على هذا القرار».
و«يُتخذ قرار إعلان نهاية الوباء، عندما تكون هناك موسمية في تفشي المرض، بالإضافة إلى عدد أقل من الوفيات»، حسبما تُقدر لون سيمونسن، عالمة الأوبئة بجامعة «روسكيلد» في الدنمارك.
ويقول أمجد الخولي، رئيس فريق متابعة وتقييم اللوائح الصحية الدولية بالمكتب الإقليمي لشرق المتوسط بمنظمة الصحة العالمية في تصريحات لـ«الشرق الأوسط»: «ربما سيتعين علينا انتظار وترقب الشتاء القادم، فوقتها ستكون الصورة أكثر وضوحاً، لاتخاذ هذا القرار من عدمه». لكنه يرى، في الوقت ذاته، أنه «لا داعي للاهتمام بموعد إعلان المنظمة لنهاية الوباء، لأننا في كل الأحوال وصلنا إلى وضع مستقر مع دخول السنة الرابعة للجائحة».
ويقول الخولي: «تخطّينا بشكل كبير مرحلة الذعر، نظراً لأن مئات الملايين من الأشخاص قد أُصيبوا بالفعل بالفيروس، وهناك لقاحات وعلاجات يمكن أن تمنع المرض الشديد، وهناك انخفاض ملحوظ في عدد الوفيات، وهذا هو المهم».
و«إذا كان العالم قد تخطى مرحلة الذعر، فيجب ألا يكون ذلك مبرراً للاستهتار»، كما يؤكد الخولي، لأن السيناريو الأقرب هو أن «الفيروس سيتحول من الحالة الوبائية إلى المتوطنة مثل الإنفلونزا». ويوضح: «كما تتسبب الإنفلونزا في إصابات ووفيات سنوياً، لا سيما بين كبار السن والفئات الضعيفة مناعياً، سيفعل هذا الفيروس نفس الشيء، والمفترض أن نكون قد أصبحنا أكثر وعياً خلال السنوات الماضية بالإجراءات الاحترازية التي تساعدنا على تجنب الإصابة به وبغيره من الفيروسات التنفسية». ويضيف: «قد يكون من بين هذه الإجراءات جرعة سنوية من اللقاح، وهو مقترح تتم دراسته حالياً، كما يجب أن يكون ارتداء (الكمامة) في الأماكن عالية الخطورة، مثل السفر في ظروف مزدحمة أو أماكن داخلية مزدحمة أو في وسائل النقل العام، جزءاً من ثقافتا الصحية، لا سيما في فصل الشتاء، وأخيراً، تنفيذ العزل الذاتي، في حالة الأعراض التنفسية».


مقالات ذات صلة

وكالة الأدوية الأوروبية: «كوفيد» لا يزال يمثّل تهديداً

صحتك صورة من أمام مبنى وكالة الأدوية الأوروبية في أمستردام بهولندا في 18 ديسمبر 2020 (رويترز)

وكالة الأدوية الأوروبية: «كوفيد» لا يزال يمثّل تهديداً

 حذّرت وكالة الأدوية الأوروبية خلال آخر مؤتمر صحافي دوري لها عن وباء «كوفيد - 19»، أنه لا يزال يشكّل تهديداً، على الرغم من أنّه لم يعد حالة طوارئ صحية عالمية.

«الشرق الأوسط» (لندن)
صحتك الاستعداد لموجات جديدة «محتملة» من كورونا بعلاجات جديدة (شاترستوك)

جيل جديد من الأجسام المضادة لموجات «كورونا» المحتملة

توصلت دراسات أجرتها جامعة روكفلر في نيويورك، إلى أجسام مضادة بديلة للمستخدمة حاليا، بحيث يمكن توظيفها لمكافحة المتغيرات المحتملة من فيروس «كورونا».

حازم بدر (القاهرة)
صحتك المدير العام لمنظمة الصحة العالمية تيدروس أدهانوم غيبريسوس (رويترز)

«الصحة العالمية» تسعى لبطاقة عالمية مستوحاة من شهادة كوفيد الأوروبية

ستستخدم منظمة الصحة العالمية بطاقة كوفيد الرقمية الخاصة بالاتحاد الأوروبي كأساس لنظام إصدار شهادة صحية عالمية، وفقاً لاتفاق شراكة جديد.

«الشرق الأوسط» (جنيف)
أوروبا طبيب يعالج مريضاً بـ«كورونا» داخل وحدة رعاية مركزة في كولومبيا (أرشيفية- أ.ف.ب)

تحالف بحثي دولي يحذر من موجات جديدة لـ«كورونا»

قد تكون الحياة العادية استؤنفت بالنسبة إلى معظم الناس، ولكن فيروس «كورونا المستجد»، المسبب لمرض «كوفيد- 19»، لا يزال يدق الأبواب، ويجب أن يظل العلماء يقظين.

حازم بدر (القاهرة)
صحتك طاقم طبي يهتم بمريض مصاب بفيروس «كوفيد-19» في جاكرتا بإندونيسيا (رويترز - أرشيفية)

مراقبون ينتقدون مشروع معاهدة لمكافحة الجوائح

تحذر الانتقادات من أن التنقيحات التي أجريت على وثيقة تمكّن الدول من التعامل مع الجوائح، تغيب عنها الجهود الحثيثة لضمان الوصول إلى المنتجات الطبية اللازمة.

«الشرق الأوسط» (جنيف)

أخلاقيات الذكاء الاصطناعي... تغوُّل الآلة ومسؤولية الإنسان

أخلاقيات الذكاء الاصطناعي... تغوُّل الآلة ومسؤولية الإنسان
TT

أخلاقيات الذكاء الاصطناعي... تغوُّل الآلة ومسؤولية الإنسان

أخلاقيات الذكاء الاصطناعي... تغوُّل الآلة ومسؤولية الإنسان

على الرغم من أن العالم بدأ التعرف على مصطلح «الذكاء الاصطناعي» خلال مؤتمر لكلية دارتموث الأميركية في خمسينات القرن الماضي؛ فإن القضية الأخلاقية بشأن تطوراته احتاجت لعقود حتى تتبلور وتتطور، إذ تناسبت طردياً -ولا تزال- مع نمو تطبيقاته وانتشارها منذ المحاولات البسيطة الأولى حتى اللحظة التي يتفاعل فيها البشر راهناً «تشات جي بي تي» ونسخه المتلاحقة.

بالنسبة إلى العاملين في قطاع التكنولوجيا سواء على مستوى الصناعة أو الابتكار فإن ثمة وجهين لقضية «الأخلاقيات»؛ فمن جهة يدعو فريق لإخضاع التطورات المرتقبة للمسألة الأخلاقية قبل تطبيقها وعدّها معياراً حاكماً إلى حد المطالبة بـ«هدنة لحوكمة التطبيقات، لضمان عدم إضرارها بالبشر»، غير أن ذلك على الوجه الآخر «قد يعطّل أو يدفع المطورين للارتداد إلى الخلف»، وفق ما يقدر فريق آخر.

وأجمع «خبراء وأكاديميون» تحدثوا إلى «الشرق الأوسط» على «أهمية وحيوية تطبيقات الذكاء الاصطناعي، ومدى الرفاهية والفائدة التي أضافتها لحياة الكثيرين»، غير أنهم يدعون مع ذلك إلى ضرورة وضع ضوابط أخلاقية «تضبط جماح البرامج التي تتصرف آلياً، ولكن من دون أن تتحول تلك المعايير إلى سيف على رقبة الذكاء الاصطناعي».

وكان صناع تكنولوجيا ومختصون في الذكاء الاصطناعي، قد وقَّعوا في مارس (آذار) الماضي عريضة تطالب بـ«وقف أبحاث تطوير الذكاء الاصطناعي ستة أشهر لإتاحة الفرصة نحو مزيد من الحوكمة لهذا النشاط، لضمان عدم تضرر البشر منه».

وأثارت تلك العريضة التي أعدها معهد «فيوتشر أوف لايف» غير الربحي، واقترب عدد الموقعين عليها من 3 آلاف عالم ورائد أعمال، مخاوف من أن «السباق الذي تخوضه مختبرات الذكاء الاصطناعي لتطوير ونشر عقول رقمية أكثر قوة، قد يخرج عن سيطرتها، بحيث لا يمكن لأحد، ولا حتى لمنشئوها، فهمها أو التحكم فيها بشكل موثوق».

توصيات أممية

ورغم ما يحققه الذكاء الاصطناعي من مزايا للبشرية، في تشخيص الأمراض والتنبؤ بتغيرات المناخ وغيرها من الفوائد، فإن تحدياته الأخلاقية، المتمثلة في بعض الخوارزميات المتحيزة جنسياً وعرقياً، والتهديد المحتمل لبعض تطبيقاته للخصوصية، دفعت منظمة الأمم المتحدة للتربية والعلوم والثقافة (يونيسكو) إلى تبني «أول اتفاق عالمي بشأن توصيات حول أخلاقيات الذكاء الاصطناعي» في نوفمبر (تشرين الثاني) من عام 2021، وتتمثل في 4 توصيات، أولاها: «حماية البيانات» بحيث تكون هناك إجراءات لحماية بيانات الأفراد وحقهم في التحكم بها. والثانية: «حظر استخدام نظم الذكاء الاصطناعي لأغراض المراقبة الجماعية» ووجوب اقتصار المسؤولية النهائية في أي مهمة على البشر بحيث لا تصبح تقنيات الذكاء الاصطناعي بحد ذاتها شخصية معنوية. أما الثالثة فتتمثل في «دعم وسائل الذكاء الاصطناعي التي تتسم بالكفاءة في استخدام البيانات والطاقة والموارد» لكي تسهم هذه الوسائل في التصدي لمعالجة القضايا البيئية. وجاءت التوصية الرابعة لتنص على أن تكون هناك «آلية لتقييم العواقب الأخلاقية للذكاء الاصطناعي».

دعوات متواصلة

المخاوف من الذكاء الاصطناعي «قديمة قدم المفهوم نفسه، ولكن روبوت الدردشة (تشات جي بي تي)، قرّبها كثيراً من نطاق الخيال العلمي إلى الواقع العملي» وفق ما يقول خوسيه ديلغادو، المتخصص في علم النفس التجريبي بجامعة غرناطة بإسبانيا، في تصريحات لـ«الشرق الأوسط».

الأدباء والمفكرون والفلاسفة وكذلك العلماء المتخصصون استشرفوا أهمية وجود أخلاقيات للذكاء الاصطناعي، إذ تحدث الروائي الأميركي فيرنور فينغ عام 1983، عن أن «الوجود المستقبلي للبشرية قد يعتمد على تنفيذ معايير أخلاقية راسخة في نظم الذكاء الاصطناعي نظراً لأن هذه النظم، في مرحلة ما، قد تتطابق أو تحل محل القدرات البشرية».

وحذّر الفيلسوف السويدي نيك بوستروم في عام 2018 من المخاطر المحتملة للتميز التكنولوجي في حالة تحوُّل الآلات الذكية ضد مبدعيها، أي البشر، وشدد على بناء «ذكاء صناعي ودود».

وتوافق العلماء مع المفكرين في التحذير من المخاوف الأخلاقية، فتحدثت عالمة الحاسوب الأميركية البارزة، روزاليند بيكار ‏في عام 1997، عن أنه «كلما زادت حرية الآلة، احتاجت إلى معايير أخلاقية أكثر».

وبالعودة إلى ديلغادو، فإنه لا يُبدي شكاً في أن روبوت الدردشة «تشات جي بي تي» سينجح في تجاوز أخطائه، بل إنه يعتقد أن «التعلم الآلي قد يقوده إلى أن يكون أذكى من الإنسان، وهنا تكمن الخطورة عند توظيف الذكاء الاصطناعي في عمل مشترك مع الإنسان».

ولذلك فإن ديلغادو ينبه بشدة إلى ضرورة أن «يكون للإنسان السيطرة الكاملة والمسؤولية عن سلوك ونتائج نظم الذكاء الاصطناعي». مرجعاً ذلك إلى أنه «عند تحليل بعض الحوادث التي وقعت في السنوات الأخيرة، وجد الباحثون أن سببها تغول الذكاء الاصطناعي، ومنها (تحطم قطار ألفيا على الطريق من مدريد إلى سانتياغو دي كومبوستيلا في إسبانيا عام 2013، وتحطم رحلة الخطوط الجوية الفرنسية 447 عام 2009، وتحطم رحلة الخطوط الجوية آسيانا 214 عام 2013)».

ويضيف: «خلص الباحثون الذين درسوا هذه الحوادث إلى أن سببها الأساسي يكمن في أن استراتيجيات التحكم باستخدام الذكاء الاصطناعي لم تكن مماثلة أو مشابهة لتلك المستخدمة من المراقبين البشريين».

وهذا التحدي الذي حدده ديلغادو في التفاعل بين البشر والذكاء الاصطناعي، خلاصته أنه «لتعزيز علاقة أخلاقية وعادلة بين البشر ونظم الذكاء الاصطناعي، من الواجب أن تستند التفاعلات إلى المبدأ الأساسي لاحترام القدرات المعرفية للبشر».

الإنسان الاستثنائي

ولا يتعارض التحدي السابق مع تحدٍّ ثانٍ، حدده أوزليم غاريباي، الأستاذ المساعد في قسم الهندسة الاصطناعية ونظم الإدارة بجامعة كاليفورنيا الأميركية، وهو «الذكاء الاصطناعي المسؤول» الذي يعني برأيه أن «يكون داعماً لرفاهية الإنسان، ولكن بطريقة تتماشى مع القيم البشرية».

ويقول غاريباي لـ«الشرق الأوسط»: «في إطار هذا التحدي، يمكن أن تقدم الروبوتات الذكية حلولاً طبية لبعض أشكال الإعاقة، لكن لا ينبغي أن يتطور الأمر إلى (تأليه التقنية) واستخدامها لبناء (الإنسان الاستثنائي أو الفائق) عبر تحسين مواصفاته وتعزيز ذاكرته مثلاً باستخدام شرائح إلكترونية».

بعُد أو تحدٍّ آخر لفت إليه مارك أنطوان ديلاك، الأستاذ المساعد المتخصص في الأخلاقيات والفلسفة السياسية في جامعة مونتريال بكندا، في مقال نشره بمجلة «رسالة اليونيسكو» التابعة للمنظمة الأممية في مارس 2018، لافتاً إلى «البرمجيات التي يتمّ تطبيقها بالفعل في الكثير من البلدان لتحديد «السلوك الإرهابي» أو «الشخصيّة الإجرامية» لدى الأفراد، باستخدام تقنية التعرّف على ملامح الوجه. وقال إن باحثَين من جامعة «ستانفورد» بالولايات المتحدة تعرضا للذعر «من هذا الانبعاث الجديد لنظرية الفراسة التي تحلل شخصية الفرد اعتماداً على معالم وجهه وتعابيره».

لكنّ الفراسة المنحازة لم تكن أمنية وقائية فقط، بل إن تطبيقات التوظيف تمارس جانباً من هذا، إذ كشفت دراسة لدورية «إم آي تي تكنولوجي ريفيو» (يُصدرها معهد «ماساتشوستس للتكنولوجيا») في فبراير (شباط) 2022 أن مواقع مثل «لينكد إن» تسعى «لإزالة بعض برمجياتها الخاصة بمقابلات العمل، والتي كانت تتحيز ضد أصحاب الهمم، والنساء المرشحات للعمل».

استخدام الأسلحة

ويقول يوشوا بنجيو، وهو عالم كندي من أبرز متخصصي الحاسوب المعاصرين، وحاصل على جائزة «تورنغ» 2018 (يُنظر إليها بوصفها موازية لجائزة «نوبل» في علوم الحاسب) لـ«الشرق الأوسط»، إنه يجب العمل على «منع تصميم نظم الذكاء الاصطناعي التي تنطوي على مخاطر عالية للغاية مثل النظم التي يمكنها استخدام الأسلحة».

ويضيف بنجيو أن «نظم الذكاء الاصطناعي يمكن أن تحقق فوائد جمّة للبشرية، كما يمكن لتطبيقاتها أن تكون مفيدة في تحقيق الرعاية الصحية، لكن من جهة أخرى يمكن تطوير نظم تستخدم الأسلحة، وهذا ما يجب العمل على حظره».

ومن التحديات الأخرى التي يجب التعامل معها الحرص على «تأمين الخصوصية»، بحيث لا تنتهكها نظم الذكاء الاصطناعي، وهو أحد الأسباب التي دعت إيطاليا إلى حظر «تشات جي بي تي»، وانضمت إليها إسبانيا وفرنسا.

وأعلن «مجلس حماية البيانات الأوروبي»، عن إنشاء فريق لتعزيز تبادل المعلومات بشأن أي إجراءات يمكن اتخاذها تجاه «تشات جي بي تي»، وأفاد المجلس في 14 أبريل (نيسان) الماضي بأنه يؤيد «التقنيات المبتكرة في الذكاء الاصطناعي»، لكنه شدد على أنها «يجب أن تكون دائماً متوافقة مع حقوق الناس وحرياتهم».

و«يَجمع تطبيق (تشات جي بي تي) البيانات الشخصية ويعالجها لتدريب خوارزمياته، وهذا انتهاك واضح للخصوصية»، كما يقول دومينيكو تاليا، أستاذ هندسة الكومبيوتر بجامعة «كالابريا» الإيطالية، لـ«الشرق الأوسط».

ويضيف تاليا: «أنا مع هذا التطبيق وما يقدمه من مزايا لحياة البشر، لكن في الوقت نفسه لا أقبل أن يتم جمع بياناتي الشخصية عند تفاعلي معه».

معاهدات دولية

التحديات السابقة التي يفرضها الذكاء الاصطناعي، يرى بنجيو، أنه «يجب التعامل معها في إطار قوانين وتشريعات ملزمة، وليس عبر التنظيم الذاتي»، ويضيف: «الأمر أشبه بالقيادة، سواء كان ذلك على الجانب الأيسر أو الأيمن، حيث يجب على الجميع القيادة بنفس الطريقة، وإلا سنكون في ورطة».

كما يلفت إلى أن «هناك مشروع قانون (بشأن الذكاء الاصطناعي) قيد الإعداد في الاتحاد الأوروبي، كما سيتم إقرار قانون قريباً في كندا، ولكنّ ذلك لا يُغني عن إصدار معاهدات دولية مماثلة لما حدث مع (المخاطر النووية)، و(الاستنساخ البشري)».

وبينما أصدرت «يونيسكو» توصياتها بشان التحديات الأخلاقية للذكاء الاصطناعي قبل أقل من عامين، فإن هناك أكثر من 40 دولة تعمل مع المنظمة لتطوير «ضوابط وتوازنات الذكاء الاصطناعي على المستوى الوطني».

ودعت المنظمة الأممية جميع البلدان للانضمام إلى الحركة التي تقودها لبناء «ذكاء صناعي أخلاقي»، مشيرةً في بيان نشرته في 30 مارس الماضي، إلى أنه «سيتم تقديم تقرير مرحلي عمّا تحقق في هذا الإطار خلال (منتدى اليونيسكو العالمي) حول أخلاقيات الذكاء الاصطناعي بسلوفينيا في ديسمبر (كانون الأول) المقبل».

مركز «ليفرهيوم»... نداء ستيفن هوكينغ لأنسنة الذكاء الاصطناعي

أسسه الفيزيائي البارز عام 2016

الفيزيائي الراحل ستيفن هوكينغ خلال حفل افتتاح «ليفرهيوم» عام 2016 (جامعة كمبردج)

«من المرجح أن يكون الذكاء الاصطناعي أفضل أو أسوأ شيء يحدث للبشرية على الإطلاق، لذلك فهناك قيمة كبيرة في تصحيحه»، عبر هذه النداء، وقبل وفاته بعامين، حاول العالم البريطاني البارز ستيفن هوكينغ (1942: 2018) تلخيص دعوته إلى «أنسنه الذكاء الاصطناعي».
وإفادة هوكينغ التي جاءت خلال افتتاح «مركز ليفرهيوم لمستقبل الذكاء الاصطناعي» بجامعة كمبردج البريطانية (عام 2016) تعكس جانباً من عمل المركز الذي يتخصص في «مستقبل الذكاء الاصطناعي»، ومع ذلك فإنه يحرص على إظهار البعد الإنساني في اهتماماته وأوراقه البحثية الصادرة عنه.
وتجمع الأبحاث التي يصدرها «ليفرهيوم» بين أكاديميين من تخصصات متنوعة؛ مثل: «التعلم الآلي، والفلسفة، والتاريخ، والهندسة، وغيرها»، وذلك بهدف «استكشاف إمكانات الذكاء الاصطناعي على المدى القصير والطويل، وضمان استخدامه لصالح البشرية»، وهو الهدف الذي حدده البروفسور هوكينغ، عند افتتاح المركز الذي تم تمويل إنشائه بمنحة 10 ملايين جنيه إسترليني.
وكذلك قال ستيفن كيف، مدير المركز في حفل افتتاحه، إننا «بحاجة إلى ذكاء صناعي يساعدنا على اتخاذ قرارات أفضل، لا أن يحل محلنا»، مضيفاً أنه يجب العمل على «ضمان أن تكون للنظم الاصطناعية الذكية أهداف تتماشى مع القيم الإنسانية، والتأكد من أن أجهزة الكومبيوتر لا تتطور تلقائياً في اتجاهات جديدة غير مرحب بها».
وخلال الأبحاث الأحدث لـ«ليفرهيوم»، سعى المتخصصون إلى «رصد التحيز الجنسي للرجل عن طريق إنشاء صورة نمطية ثقافية حول سيطرة الرجال على مجال الذكاء الصناعي»، الأمر الذي قد يؤدي، وفق تقديرهم، إلى «مزيد من النقص في عدد النساء العاملات بالمجال، فضلاً عن تسرب التحيز إلى الخوارزميات الموضوعة مثلاً لاختيار العاملين الجدد في أي مؤسسة».
وخلال الدراسة المنشورة في 13 فبراير (شباط) الماضي بدورية «Public Understanding of Science»، حصر باحثو «ليفرهيوم» 142 عملاً سينمائياً خلال قرن (1920: 2020) تطرقت للذكاء الاصطناعي، وحددوا 116 شخصية ظهرت كمحترفة بالمجال، وكان من بينهم 92 في المائة من الرجال، بينما تقدر النسبة الفعلية للرجال في القطاع بـ78 في المائة. وأبدى الباحثون مخاوفهم من أن الخيال العلمي يشكل الواقع، وقد يساعد «ترسيخ هذا الوضع عبر السينما، إلى تهميش المرأة في منتجات الذكاء الاصطناعي».
كما تمكن مشروع بحثي آخر أطلقه المركز خلال الفترة من 2018 إلى 2022 تحت عنوان «السرديات العالمية الذكاء الاصطناعي»، من رصد الروايات الخيالية للذكاء الاصطناعي وتحديد القيم والمصالح التي توجهها، وتحليل تأثيرها على الخيال العام والقبول العام، وعلى صانعي السياسات والحكومات.


قوة الذكاء الاصطناعي في التنبؤ بالسرطان

TT

قوة الذكاء الاصطناعي في التنبؤ بالسرطان

قوة الذكاء الاصطناعي في التنبؤ بالسرطان

تخيل عالماً يمكن للأطباء فيه التنبؤ بتطور السرطان في أجساد المرضى، قبل فترة طويلة من ظهور أي أعراض أو مؤشرات واضحة؛ ما يمكّنهم من المسارعة لاتخاذ إجراءات وعلاجات وقائية.

لم يعد مثل هذا العالم اليوم حلماً بعيد المنال، وإنما نقترب بسرعة من أن نراه واقعاً؛ وذلك بفضل القوة الهائلة للذكاء الاصطناعي بمجال الرعاية الصحية. مع صعود «الذكاء الاصطناعي التوليدي»، نشهد اليوم إعادة صياغة مستقبل الطب، وفتح الباب أمام حلول مبتكرة قادرة على تغيير مسار الحياة. وعليك من اليوم الاستعداد للانبهار باحتمالات لا حصر لها يحملها الذكاء الاصطناعي معه، وذلك مع انغماسنا أكثر في عالم التكنولوجيا المتطورة مع التركيز على التطبيقات القادرة على التنبؤ بالسرطان، واستكشاف التأثيرات الكبرى التي سيتركها هذا الأمر على مجال الطب والمجتمع بوجه عام.

كما ينطوي هذا المقال على تحدٍ ودعوة للعمل موجهة للدول التي تشارك هذه الرؤية، والتي تستثمر في توفير مستوى جودة للحياة أعلى بكثير لمواطنيها.

الذكاء الاصطناعي

الذكاء الاصطناعي مصطلح واسع يشير إلى تطور أنظمة الكمبيوتر القادرة على أداء مهام تتطلب في العادة ذكاءً بشرياً. ويمكن أن تتضمن هذه المهام حل المشكلات، والتعرف على الصوت، والتعلم، والتخطيط والمزيد. ويمثل الذكاء الاصطناعي التوليدي تكنولوجيا ذكاء صناعي متقدمة بمقدورها توليد بيانات أو محتوى جديد، من خلال فهم وتعلم أنماط من البيانات القائمة، والتي كان من المتعذر الوصول إليه سابقاً. وقد أظهر الذكاء الاصطناعي التوليدي قدرات مبهرة في مجالات متنوعة، مثل إبداع فنون وموسيقى ونصوص. ومع ذلك، تبقى إمكاناته داخل مجال الرعاية الصحية الأكبر على الإطلاق.

يملك الذكاء الاصطناعي إمكانية المعاونة في إسراع وتيرة عملية اكتشاف الأدوية، من خلال تحليل قواعد بيانات ضخمة لتحديد العقاقير المحتملة المرشحة، والتنبؤ بفاعليتها، وتحسين تركيبها الكيميائي. ويمكن لهذا الأمر أن يحدّ بدرجة كبيرة من الوقت المطلوب لابتكار أدوية جديدة وتوفيرها للمرضى. ويمكن أن يؤدي هذا التوجه إلى المزيد من العلاجات وتقليص الآثار الجانبية. ويمكن للذكاء الاصطناعي كذلك المعاونة في معالجة كميات ضخمة من البيانات من سجلات صحية إلكترونية، وأجهزة يمكن ارتداؤها، ومصادر أخرى للتنبؤ بتفشي الأمراض، وتحديد المرضى الذين يواجهون مخاطرة مرتفعة، وتعزيز الاستفادة من الموارد المخصصة للمستشفيات.

وبمقدور اللوغاريتمات المرتبطة بالذكاء الاصطناعي تحليل الصور الطبية (مثل أشعة إكس، والتصوير بالرنين المغناطيسي وأشعة الفحص بالتصوير المقطعي المحوسب)؛ لرصد وتشخيص والوقاية من الأمراض بدقة كبيرة، على نحو يفوق في الغالب الأداء البشري. ويمكن لهذه الأدوات المعاونة في الرصد المبكر لأمراض، مثل السرطان أو ألزهايمر أو أمراض القلب؛ ما يثمر نتائج أفضل مع المرضى. وسيركز هذا المقال على وجه التحديد على استخدام الذكاء الاصطناعي وقواعد البيانات الضخمة لتوقع الإصابة بالسرطان.

التنبؤ بالسرطان

التنبؤ بالسرطان: تحول هائل بعالم الطب. يتحقق تشخيص الإصابة بالسرطان في العادة عندما تظهر على المريض أعراض المرض أو بعد إجراء مسح روتيني يكشف عن وجود خلايا غير طبيعية. للأسف، فإن الكثير من أنماط السرطان لا تظهر لها أعراض خلال المراحل الأولى لها، وربما يستمر بعضها دونما رصد حتى تتحرك نحو مستويات أكثر تقدماً. ومن شأن الرصد المبكر للسرطان التحسين بدرجة كبيرة من نتائج العلاج ومعدلات النجاة؛ ما يجعل منه جانباً محورياً من جهود رعاية مرضى السرطان.

في العادة، يحدث تشخيص السرطان عندما تظهر على مريض ما أعراض السرطان أو بعد رصد فحص روتيني خلايا غير طبيعية أو شاذة. وللأسف، فإن الكثير من أنماط السرطان لا أعراض لها خلال المراحل الأولى منها، وقد يستمر بعضها دونما رصد حتى تصل لمستويات أكثر تقدماً. ومن شأن الرصد المبكر للسرطان تحقيق تحسن كبير في نتائج العلاج ومعدلات النجاة؛ ما يجعل منه جانباً محورياً من رعاية مرضى السرطان.

هنا تحديداً، يمكن للذكاء الاصطناعي التدخل وتحويل بؤرة الاهتمام من التشخيص إلى التنبؤ. تخيل عالماً يمكن لأنظمة الذكاء الاصطناعي به التنبؤ باحتمالات تقدم السرطان قبل ظهور أي أعراض؛ ما يتيح التدخل المبكر، وقد ينقذ أعداداً لا تحصى من الأرواح. اليوم، لم يعد هذا حلماً بعيد المنال، وإنما بدأ في التحول إلى واقع.

لننظر، على سبيل المثال، في دراسة حديثة من معمل علوم الكومبيوتر والذكاء الاصطناعي التابع لمعهد ماساتشوستس للتكنولوجيا، والتي استخدمت الذكاء الاصطناعي في التنبؤ بتطور سرطان الثدي لفترة وصلت إلى خمس سنوات قبل تشخيص المرض. نشرت الدراسة عام 2019 في دورية «راديولوجي»، حيث استخدم الباحثون التعلم العميق في تدريب نموذجهم المرتبط بالذكاء الاصطناعي على صور التصوير الشعاعي للثدي وبيانات المريضة، مثل العمر وتاريخ الأسرة والعوامل الهرمونية، للتنبؤ باحتمالية الإصابة بسرطان الثدي. وجاءت نتائج النموذج مبهرة من حيث تحقيقه تحسناً كبيراً في التنبؤ بسرطان الثدي، لدى مقارنته بنماذج تقدير المخاطر القائمة حالياً.

وربما يكون ذلك مجرد قمة جبل الجليد، خاصة أن الذكاء الاصطناعي التوليدي يحمل إمكانات التنبؤ بأنماط متنوعة من السرطان من خلال تحليل مجموعة واسعة من البيانات، منها صور أشعة كبيرة، وسجلات صحية إلكترونية، والمعلومات الجينية، بل وحتى العوامل المرتبطة بأسلوب الحياة. ومن شأن امتلاك القدرة على التنبؤ بالسرطان في وقت مبكر، إحداث ثورة في أسلوب تعاملنا مع رعاية مرضى السرطان، والانتقال من استراتيجيات الوقائية إلى وضع خطط علاج ذات طابع شخصي؛ الأمر الذي يمكن أن ينقذ عدداً لا يحصى من الأرواح، وتحسين مجمل النتائج في صفوف المرضى.

وحول التأثير الاجتماعي للتنبؤ بالإصابة بالسرطان باستخدام الذكاء الاصطناعي، فإن دلالات التنبؤ بالسرطان بمعاونة الذكاء الاصطناعي تمتد لما وراء مجال الطب بكثير. والواضح أن هذا من شأن ترك تداعيات كبرى على المجتمع ككل، في وقت يعيد الذكاء الاصطناعي صياغة مجتمعنا بوجه عام.

من شأن اكتساب القدرة على التنبؤ بالسرطان وأمراض أخرى قبل ظهور الأعراض، تحقيق تدخلات وعلاجات مستهدفة في الوقت المناسب؛ الأمر الذي يؤدي بدوره إلى نتائج أفضل في صفوف المرضى، وتحسن عام في مستوى جودة الحياة على مستوى أعداد لا حصر لها من الأفراد. أيضاً، يمكن لاستراتيجيات الرصد المبكر والوقاية تقليص تكاليف الرعاية الصحية بدرجة بالغة، من خلال التقليل الحاجة إلى علاجات مكلفة على صلة بالمراحل المتقدمة من الأمراض. ومن شأن هذا بدوره المعاونة في تخفيف الأعباء المالية على كهل كل من المرضى ومنظومات الرعاية الصحية.

بجانب كذلك، ربما تظهر فئة جديدة من العلاجات بهدف إطالة أمد حياة المرضى.

اعتبارات أخلاقية

ومع ذلك، فإن تحقيق كامل إمكانية هذه الحالة اليوتوبية، ثمة اعتبارات عملية وأخلاقية ينبغي وضعها في الاعتبار.

من الممكن أن تسفر توقعات الذكاء الاصطناعي بعض الأحيان عن نتائج زائفة، خاصة في الأيام الأولى؛ ما يسفر عن علاجات لا داعي لها أو كرب نفسي للمرضى الذي ربما لم يصابوا أساساً السرطان.

علاوة على ذلك، فإن تطبيق الذكاء الاصطناعي في مجال الرعاية الصحية غالباً ما يستلزم جمع كميات هائلة من بيانات المرضى الحساسة وتحليلها؛ الأمر الذي يثير مخاوف بشأن خصوصية البيانات والأمان وإساءة الاستخدام المحتملة لمعلومات المريض. وأحد المخاوف المحتملة، أن التنبؤ بالسرطان قد لا يكون متاحاً بشكل متساوٍ للجميع؛ ما يؤدي إلى تفاقم التفاوتات الصحية القائمة بالفعل. وقد لا يتمكن السكان المحرومون من الوصول إلى هذه الأدوات التنبؤية أو قد يكون تمثيلهم ناقصاً في البيانات المستخدمة لتدريب نماذج الذكاء الاصطناعي؛ ما يؤدي إلى تنبؤات متحيزة أو أقل دقة. وأخيراً، فإن التنبؤ بالسرطان يثير تساؤلات أخلاقية، مثل إمكانية التمييز على أساس الاستعداد الجيني، والأثر النفسي على الأفراد المعرضين لمخاطر مرتفعة.

دعوة للعمل

إذن، إلى أين نتجه من هذه النقطة؟ من أجل أن يكتسب النظام الصحي القدرة على التحول وجعل التنبؤ بالسرطان حقيقة واقعة، يجب بناء نظام بيئي من الأنشطة المترابطة. وتعتمد هذه الأنشطة على بعضها بعضاً، ويجب أن تكون مترابطة عمداً، في إطار رحلة الابتكار الرائد للتنبؤ بالسرطان.

في هذا الصدد، يعدّ تثقيف صانعي السياسات حول الفوائد المحتملة لاستخدام الذكاء الاصطناعي في التنبؤ بالسرطان والوقاية منه، أمراً بالغ الأهمية بما في ذلك عرض كيف يمكن أن يؤدي إلى تقليل العبء الاقتصادي على نظام الرعاية الصحية. والمؤكد أن هذا سيساعد في تحديد مصادر التمويل وتأمينها. وربما يشمل ذلك التمويل الحكومي والاستثمارات الخاصة والشراكات مع شركات التكنولوجيا أو المؤسسات البحثية.

تكمن إحدى أهم الخطوات في التعاون مع أصحاب المصلحة الرئيسيين، بما في ذلك الوكالات الحكومية ومقدمو الرعاية الصحية والمؤسسات البحثية وشركاء الصناعة لتشكيل تحالف من المؤيدين الذين يمكنهم الدعوة للتبني. من المهم كذلك المشاركة في التعاون الدولي مع البلدان الأخرى والمنظمات الدولية لتبادل المعرفة والموارد وأفضل الممارسات. وأخيراً، فإن إطلاق حملة كبرى لتثقيف وتدريب القوى العاملة بشكل أفضل لتزويد المتخصصين في الرعاية الصحية والباحثين والتقنيين بالمهارات اللازمة للعمل مع الذكاء الاصطناعي في التنبؤ بالسرطان وعلاجه.

الذكاء الاصطناعي كقوة خير

الحقيقة التي لا مفر منها، أنه سيجري استغلال الذكاء الاصطناعي لأغراض مشينة أو لإحداث ضرر عن غير قصد، حتى عندما يجري تطويره بنيّة حسنة. من بين هذه الأمور إنشاء ملفات التزييف العميق للتلاعب بالإدراك العام ونشر المعلومات المضللة، أو وجود تحيزات متأصلة في بيانات التدريب والتي يمكن أن تؤدي إلى خوارزميات الذكاء الاصطناعي التمييزية؛ ما يطيل أمد التفاوتات الاجتماعية والظلم. وسيتعين على مطوري الذكاء الاصطناعي وواضعي السياسات العمل جنباً إلى جنب لمعالجة هذه العواقب السلبية، ووضع وتنفيذ إرشادات أخلاقية قوية، وإعطاء الأولوية للشفافية والمساءلة المرتبطة بأنظمة الذكاء الاصطناعي.

من جانبي، اخترت أن أنظر إلى الذكاء الاصطناعي كقوة تحقق الخير، وتقدم العون في مواجهة التحديات العالمية الملحة، وتعزز رفاهية الإنسان والصالح الاجتماعي العام، من خلال إضفاء الطابع الديمقراطي على الوصول إلى الموارد، وتحسين استهلاك الطاقة، وإحداث ثورة على صعيد القدرة على تشخيص في المجالات الطبية، من بين مجالات أخرى.

وهذا الأخير هو تخصص أعتقد أنه يعود لأكثر عن 20 عاماً من الخبرة التي أمتلكها في مجال التكنولوجيا الحيوية وصناعة الأدوية لاكتشاف العلاجات المنقذة للحياة وتطويرها وتقديمها للمرضى. ويسعدني التشارك مع قراء «الشرق الأوسط»، من خلال هذا المقال بخصوص هذا المستقبل المثير الذي يعد به الذكاء الاصطناعي فيما يتعلق بالتنبؤ بالسرطان.

لا أعرف متى ستصبح التنبؤات بالسرطان جزءاً من الطب والمجتمع. سيعتمد كل هذا على من سيكون جريئاً بما يكفي لإتباع هذه الرؤية، ومدى السرعة التي يمكنه بها الاستثمار في هذا المجال على المدى الطويل.

 

 


أندرو بريجز: أوروبا ستحظر أشكال الذكاء الاصطناعي الأكثر عدوانية وغير الأخلاقية

أندرو بريجز المتخصص في  الذكاء الصناعي بجامعة أكسفورد
أندرو بريجز المتخصص في الذكاء الصناعي بجامعة أكسفورد
TT

أندرو بريجز: أوروبا ستحظر أشكال الذكاء الاصطناعي الأكثر عدوانية وغير الأخلاقية

أندرو بريجز المتخصص في  الذكاء الصناعي بجامعة أكسفورد
أندرو بريجز المتخصص في الذكاء الصناعي بجامعة أكسفورد

رغم توقيعه على مسودة في مارس (آذار) الماضي مع عدد كبير من المختصين وصناع التكنولوجيا تحذر من تداعيات التسابق السريع في قطاع الذكاء الاصطناعي ودعوته لـ«هدنة» بشأن تطوير برامجه؛ فإن أندرو بريجز الأستاذ الفخري للمواد النانوية بجامعة أكسفورد البريطانية العريقة يرى أن «المطالبة بحظر كامل لاستخدام الذكاء الاصطناعي في الأغراض العسكرية قد يثير مخاوف من أن أوروبا تعطي الصين فرصة للهيمنة على الذكاء الاصطناعي المسلح».

وتحدث بريجز إلى «الشرق الأوسط» عن مسودة قانون «أخلاقيات الذكاء الاصطناعي» التي يجري إعدادها بواسطة الاتحاد الأوروبي، معتبراً أنها «محاولة للموازنة بين أن تقطع أوروبا خطوات متسارعة في مضمار الابتكار التنافسي بمجال الذكاء الاصطناعي، وأن تحافظ في نفس الوقت على الحقوق الأساسية للمواطن الأوروبي».

وقال بريجز، الذي يركز في جانب من أبحاثه على تخصص «الذكاء الاصطناعي»، إن «النصوص المقترحة للقانون الأوروبي، والتي تجري مراجعتها راهناً، ستحقق بعضاً من الراحة لأولئك الغاضبين من خوارزميات الذكاء الاصطناعي المتحيزة؛ مثل تلك التي تقلل من التصنيف المهني للمرأة بشكل منهجي، وتقنيات التعرف على الوجه المعيبة التي دفعت الشرطة إلى اعتقال السود بشكل خاطئ في الولايات المتحدة، وتقييم طلبات القروض بشكل متحيز تجاه فئات معينة».

ويضيف أن «نصوص مشروع القانون تتضمن حظراً لبعض أشكال الذكاء الاصطناعي التي تعتبرها جماعات حقوق الإنسان أكثر عدوانية وغير أخلاقية، مثل تلك التي تتلاعب بالسلوك، ومنها خوارزميات التعلم الآلي التي تستهدف المواطنين بالرسائل السياسية عبر الإنترنت».

وأوضح الخبير، الذي شارك في التوقيع على العريضة التي أعدها الشهر الماضي معهد «فيوتشر أوف لايف» غير الربحي الأميركي، والتي تطالب بوقف أنشطة الذكاء الاصطناعي ستة أشهر، أن «اللوائح (الأوروبية) المقترحة فريدة من نوعها على مستوى العالم، وهي بمثابة رسالة أوروبية واضحة بإعطاء أهمية لحقوق المواطنين الأساسية».

ومع ذلك لا يخفي بريجز مخاوفه من «إساءة استعمال هذه المواد القانونية حال إقرارها لـ(خنق ابتكارات الذكاء الاصطناعي)». مستدركاً: «لسنا ضد حماية حقوق المواطنين، ولكن يجب أن تكون المواد واضحة ومحددة، حتى لا تسمح بتأويلات تؤدي إلى خنق الابتكارات، وتُخرج أوروبا من مضمار التنافس مع الولايات المتحدة والصين».

وفي إطار التوازنات ذاتها، يرى الأكاديمي الأوروبي أن «المطالبة بحظر استخدام الذكاء الاصطناعي في الأغراض العسكرية قد تكون (غير دقيقة)، ولكن يمكن حظر استخدامات بعينها، لأن الحظر العام في هذا المجال قد يثير مخاوف من أن أوروبا تعطي الصين الفرصة للهيمنة على الذكاء الاصطناعي المسلح»، وفق رؤيته.

ولفت إلى أن «نصوص القانون المقترح، يكتنفها بعض الغموض في تعريف (الذكاء الاصطناعي)، والذي يركز بشكل خاص على التعلم الآلي، ولكنه قد لا ينطبق على الجيل التالي من تقنيات الحوسبة، مثل الحوسبة الكمومية أو الحوسبة المتطورة».

وأضاف بريجز أن «هناك أسئلة مفتوحة حول التمييز بين الذكاء الاصطناعي عالي الخطورة والمنخفض الخطورة، وبينما تنطبق اللوائح فقط على النوع الأول، فإن المشكلة قد تأتي من الفصل بين النوعين، ما قد يسبب تمييزا تعسفيا يؤدي لحدوث مشكلات في المستقبل».


جورج تيان: «تدقيق أخلاقي» للتطبيقات

جورج تيان، الأستاذ في كلية الحقوق بجامعة التكنولوجيا بسيدني
جورج تيان، الأستاذ في كلية الحقوق بجامعة التكنولوجيا بسيدني
TT

جورج تيان: «تدقيق أخلاقي» للتطبيقات

جورج تيان، الأستاذ في كلية الحقوق بجامعة التكنولوجيا بسيدني
جورج تيان، الأستاذ في كلية الحقوق بجامعة التكنولوجيا بسيدني

حذر جورج ييجون تيان، الأكاديمي المتخصص في القانون بجامعة التكنولوجيا في سيدني، من «خدعة» يتورط فيها المتفاعلون مع تطبيقات الذكاء الاصطناعي والمتعلقة بأن «الراحة التي توفرها، لا تجعلنا نهتم بالحذر منها»، داعياً في حوار مع «الشرق الأوسط» إلى إعطاء الأولوية لـ«سلامة البشر قبل رفاهيتهم» عند التعاطي المستقبلي مع القطاع.

وقدم تيان الذي تحدث إلى «الشرق الأوسط»، عبر البريد الإلكتروني، مساهمات عدة في مجالات «القانون الإلكتروني، والملكية الفكرية، والمعاملات التجارية عبر الحدود»، كما شارك في دراسة بحثية اهتمت بالتحقيق في «القضايا الأخلاقية المحيطة بالذكاء الاصطناعي»، نشرتها دورية «النظم القائمة على المعرفة»، في يونيو (حزيران) 2021. ويرى تيان أن «هناك ثلاث تحركات يجب تنفيذها لضمان أن تطبيقات الذكاء الاصطناعي ستعطي الأولوية لرفاهية الإنسان».

ويشرح أن «أول التحركات يتمثل في تطوير إطار عمل لتقييم المخاطر الأخلاقية للذكاء الاصطناعي ما من شأنه المساعدة في ترقية الوعي العام بالجوانب السلبية، أما التحرك الثاني فهو: الاستثمار ببرامج التعليم والتدريب لمساعدة الأفراد على اكتساب المهارات والمعرفة للتكيف مع أسواق العمل المتغيرة، وأخيراً، يأتي التأكد من أن صناع السياسات وقادة الأعمال والمنظمين يتبنون نهجاً مسؤولاً وأخلاقياً لنشر الذكاء الاصطناعي».

وأوضح تيان أن «الخوف والخطر يأتيان من أن الراحة التي يوفرها الذكاء الاصطناعي قد تخدعنا ولا تجعلنا نهتم بالحذر منه، وهذا من شأنه أن يحول دفة تطبيقات الذكاء الاصطناعي (...) وتقويض القيم والأولويات الإنسانية».

ويشدد الخبير القانوني على أن تطوير الذكاء الاصطناعي ونشره «يجب أن يعطيا الأولوية لسلامة الإنسان ورفاهيته، وأن يخضعا لتدقيق أخلاقي وقانوني»، مشيراً إلى «ضرورة حظر تطبيقات الذكاء الاصطناعي، المستخدمة في الأسلحة أو تلك التي تنتهك حقوق الإنسان وتديم التحيزات، عبر معاهدات دولية، على غرار معاهدات حظر الأسلحة النووية». وقال تيان إنه «قد لا تكون هناك حاجة عاجلة لقوانين جديدة للذكاء الاصطناعي، ولكن يجب على الجهات الحكومية المنظمة إصدار الإرشادات لتوضيح النصوص في التشريعات الحالية، التي قد تتضمن عقوبات على بعض الممارسات غير المنضبطة من الذكاء الاصطناعي، لكن هذا لا يمنع أن تكون هناك مرونة تسمح بتحديث القوانين حسب الحاجة».

وحول مخاوف أثارتها بعض أفلام الخيال العلمي، وتم خلالها الترويج لخطر سيطرة الآلات على البشر، قال إن «دراستنا كشفت عن أن هناك احتمالية لسيناريوهات واقعية مماثلة لتلك التي يتم تصويرها في أفلام الخيال العلمي». وأضاف: «نحن كبشر، يجب أن نركز على إدارة نقاط ضعفنا ورغباتنا، والامتناع عن تفضيل الراحة على الحذر».

وتطرق تيان إلى قضية «التشهير» التي أثارها مسؤول أسترالي قدم تطبيق «تشات جي بي تي» معلومات خاطئة عنه، وقال: «للأسف، يبدو أن التركيز الحالي للباحثين على استخدام الذكاء الاصطناعي، مثل (تشات جي بي تي) هو إنشاء محتوى جديد، بدلاً من تطوير أدوات قائمة على الذكاء لكشف المحتوى الذي يحتمل أن يكون تشهيرياً والإبلاغ عنه». وأضاف أنه «من المهم تثقيف الأفراد، وباحثي الذكاء الاصطناعي والمخترعين، حول مخاطر المعلومات الخاطئة، بالإضافة إلى مسؤولياتهم الاجتماعية والقانونية عند تطوير تكنولوجيا الذكاء الاصطناعي واستخدامها».


منذر دحلة يشرح «الوثبات المذهلة» في علوم التكنولوجيا

منذر دحلة يشرح «الوثبات المذهلة» في علوم التكنولوجيا
TT

منذر دحلة يشرح «الوثبات المذهلة» في علوم التكنولوجيا

منذر دحلة يشرح «الوثبات المذهلة» في علوم التكنولوجيا

أسدى مدير معهد البيانات والأنظمة والمجتمع لدى معهد ماساتشوستس للتكنولوجيا «أم آي تي»، البروفسور منذر دحلة، بعض النصح حيال كيفية كتابة هذا الحوار معه من خلال الاستعانة عمداً بنظام «تشات جي بي تي» الذي يعكس القدرات المذهلة التي وصل إليها الذكاء الاصطناعي، وآفاق استخداماته المستقبلية. وعلى غرار الصحافي، ساوره الفضول في النتيجة المحتملة. تضمنت نصائح هذا العالم الأميركي الفلسطيني الأصل -ضمن أمور أخرى- ألا أقْدم مثلاً على إعطاء المقابلة كاملة لكي يعيد «تشات جي بي تي» كتابتها. «لو فعلت ذلك، لأعطاك نصاً مختلفاً لا يشبه الحوار»، مضيفاً أن «الأفضل أن تعطيه مقاطع صغيرة لإعادة صوغها». هكذا كان. في أماكن محددة، جاءت نتيجة الذكاء الاصطناعي مثالية. وفي أماكن أخرى، كان يجب الإبقاء على العمل الصحافي الأصلي. لماذا جزئياً؟ لأن قدرات «تشات جي بي تي» والذكاء الاصطناعي لا تزال محدودة. نجح في أماكن وأخفق في أماكن أخرى.

هنا نص الحوار مع البروفسور دحلة، الذي وافق مسبقاً على استخدام «تشات جي بي تي» لإعادة صوغ أسئلة وبعض إجابات دحلة:

منذر دحلة

> حسناً، عاد ابني البالغ من العمر ست سنوات من المدرسة، طالباً مني تخمين ما حصل. دعته المعلمة مع بقية التلامذة لكي يسألوا «تشات جي بي تي» عمّا يشاءون. وكان رائعاً له أن الكومبيوتر أجاب عن كل الأسئلة. ونقل عن معلمته أن في الأمر غشاً، إذ كلّف الكومبيوتر بأداء الفروض المدرسية. السؤال نفسه طرحه باحث في معهد «ماساتشوستس للتكنولوجيا» على «تشات جي بي تي». وأتى الجواب مثالياً. هل يمكنك، أنت الذي يعمل في هذا المجال، أن تقدّم إجابة أفضل من جواب «تشات جي بي تي»؟

- لا أعرف ما إذا كانت إجابتي أفضل. ولكن لديّ إجابة مختلفة. في الماضي، واجهنا تحديات في استخدام الآلات الحاسبة في الصفوف الدراسية، وتساءلنا عن تأثيرها على قدرات الطلاب في الرياضيات ومهارات الحساب. ولكن، تكيّفنا معها ونجحنا في تحسين العملية التعليمية. واليوم، نواجه تحدياً مماثلاً مع «تشات جي بي تي»، الذي يمكنه كتابة مقالات ويتفاعل مع الطلاب بشكل لغوي. ومع ذلك، يجب علينا التكيف مع التغييرات التكنولوجية واستخدامها لصالح التعليم. بدلاً من منع استخدام «تشات جي بي تي»، يمكننا استخدامه كأداة لتحسين مهارات الكتابة والتعبير لدى الطلاب. وبالتالي، يمكن أن تساعد تقنية «تشات جي بي تي» الطلاب على تطوير مهاراتهم اللغوية والكتابية، بما في ذلك قدرتهم على كتابة مقالات جيدة. وعلينا أن نتأكد من أننا نستخدم هذه التقنية بشكل مناسب وفعال، ونعمل على توفير التوجيه والدعم اللازم للطلاب للتعلم من استخدام «تشات جي بي تي» بشكل أفضل.

> أعرف عن «تشات جي بي تي 4»، وأنت ربما تعمل على النموذج الخامس أو السادس. هل تحاول تبسيط الأمر على عامة الناس؟

- «تشات جي بي تي 4» نموذج لغوي متقدم يستخدم تعلّم الآلة لتوليف المفاهيم وتجميع الأفكار والتحدث بطريقة طبيعية مع الناس. والنماذج الحالية من «تشات جي بي تي» (مثل النموذجين الخامس والسادس) تمثل تطويرات على النموذج الرابع. رغم أن «تشات جي بي تي» يتطلب بحثاً متقدماً وتطويراً مستمرَّين، فإن استخدامه لكتابة رسائل التوصية وإصلاح الأخطاء النحوية واللغوية يعد استخداماً فعالاً للتقنية. ويمكن لهذا الاستخدام تبسيط الأمر على عامة الناس، إذ يمكن استخدام «تشات جي بي تي» لإنشاء رسائل أو مقالات بشكل أسرع وأكثر كفاءة. ومن المهم التأكد من استخدام «تشات جي بي تي» بشكل مسؤول وتفادي استخدامه لأغراض خاطئة أو غير أخلاقية، وذلك لتجنب الآثار السلبية المحتملة على المجتمع والأفراد.

«نصيحة للصحافيين»

> حسناً، وأنا أفكر في مقالتي (هذه) وأنا أكتب منذ نحو 30 عاماً في الصحافة، أردت أن أعطيها إلى «جي بي تي» وأن أسأله عما إذا كان ينبغي أن تكون أفضل...

- سأُسدي لك النصح. إذا أعطيت المستند بالكامل لـ«تشات جي بي تي»، سيغيّر المستند بطريقة لا تعكس من أنت. «تشات جي بي تي» سيلغيك. يعيد كتابة النص بشكل لا يشبهك. لا تعطه الوثيقة كاملة. بل أعطه فقرات صغيرة، واطلب منه إصلاحها. هذا أحسن، لأنه يدخل ويصلح الفقرة ويمنحك نسخة أجمل. تبقى أنت وتبقى الفقرات لك والتفكير لك.

> لنقلْ إني فعلت ذلك، ماذا ستكون النتيجة؟

- أنا أتعلم. أتعلم مثلك ومثل الجميع. لا أتوقف عن التعلم قط. لا أزال لا أعرف كيفية الاستفادة القصوى من هذه التكنولوجيا الجديدة. أنا ألعب بها، كما تفعل أنت، وكما يفعل الآخرون. هذه هي تجربتي اليوم. أما غداً فسيكون لديَّ شيء آخر لأني ألعب كل يوم بالتكنولوجيا، لأني أستاذ. أنا أعاني من هذا النقاش الذي يحصل (...) لأني أريد التأكد من أننا لا نفعل شيئاً سيئاً، وأننا نخلق جيلاً فاته القارب (...) أعتقد أن هذه هي معضلة الكتاب الآن، لأنهم يقولون: يا إلهي، «تشات جي بي تي» يأخذ وظيفتي. الحقيقة هي أنه لا يأخذ وظيفتك، لكنه يغيّر وظيفتك. سأكون فضولياً للغاية لمعرفة ما سيحدث. هل ستخبرني؟

استقلالية الآلة

> أسمع أن لديك بعض المخاوف كالتي لديَّ. أنا أعد نفسي ساذجاً للغاية حيال هذه التكنولوجيا، أما أنت ففي غمار عملية صنعها. لذلك أستنتج أن المخاوف حقيقية...

- بالطبع، أعتقد أن الخبراء هم أول من يهتمون. لذلك، هناك توتر. نحن نطوّر التكنولوجيا دائماً ونسعى وراء التكنولوجيا لنفهم ما تفعله. أعمل مع أشخاص على السيارات ذاتية القيادة. القيادة الذاتية تحصل الآن. لم تنجَز بعد، لكنها حاصلة. في يوم ما، ستكون السيارات ذاتية القيادة، وسينتج عنها تغيير اجتماعي بسبب الاستقلالية الذاتية (للآلة). ستضع ابنتك في سيارة كهذه لتأخذها إلى موعد اللعب مع الأطفال. هذا معقد للغاية. كيف تثق بذلك؟ هل تفعل ذلك حقاً؟ وكيف يغيّر ذلك حياتك وأسلوب حياتك؟ وكيف تتكيف مع ذلك؟ نحن دائماً نلتحق بالآثار الاجتماعية...

> والآثار القانونية؟

- وبالطبع الآثار القانونية. لذلك فإن التكنولوجيا تتحرك دائماً بسرعة. ويسألني الناس: هل يمكنك إبطاء التكنولوجيا؟ لا يمكن إبطاء التكنولوجيا.

> هذه مفارقة. هل تريد هنا الرد على إيلون ماسك والمئات من الرؤساء التنفيذيين الذين يدعون إلى تجميد أو وقف تطوير «تشات جي بي تي»؟

- لا أوافق. أنا لا أوافق. رأيي هو أنه لا يمكنك تحديد طريقة معقولة لوقف البحث. ماذا يعني ذلك؟ الأشخاص الذين يفكرون في وقف النموذج التوليدي الكبير الآن لفعل أمر آخر. لا يمكنك التحكم في هذه العملية، ولا ينبغي القيام بذلك.

الأبحاث تتواصل

> لماذا؟

- لأن هذه هي الطريقة التي نطوّر فيها التكنولوجيا الجديدة. وهذا هو العقل البشري المبدع. نحن نتكيف. بالطبع، لو كنت تطوِّر سلاح دمار شامل، فسأقول: توقف. ولكن نظراً لأنك تطوِّر تكنولوجيا تعمل على تغيير طريقة استخدامك للمعرفة وما إلى ذلك. فأنا أقول: لا تتوقف ولكن عليك الانتباه للآثار الأخرى. السيارات تقتل الكثير من الناس. تقتل السيارات بطريق الخطأ الكثير من الناس، ولكننا لا نتوقف عن البحث عن السيارات. نحاول أن نجعلها أفضل.

> في حديث لها مع «نيويورك تايمز»، قالت نائبة المدير السابقة لمكتب البيت الأبيض للعلوم والسياسة التكنولوجية ألوندرا نيلسون، إنها تشبّه مفعول «تشات جي بي تي» والذكاء الاصطناعي بالاختراق النووي وبتغير المناخ. هل توافق؟

- لا أعرف ما الادعاء تحديداً.

> الادعاء هو أن ثورة تحصل الآن على مستوى هاتين القضيتين...

- نعم، أوافق. كانت هناك ثورة في الطاقة النووية: مشروع مانهاتن. بعد عام ونصف العام منه، حصلنا على قنبلة. هذا رهان واضح وصحيح. أما المناخ، فإنه يتغير نحو الأسوأ. لم نكتشف الإجابة السحرية عن ذلك. لذلك لا يزال هذا في مجال البحث البدائي، في رأيي، لا نزال ننتج ثاني أكسيد الكربون وننتج غاز الميثان. تأثير تغير المناخ هائل. ولكنّ القنبلة النووية كانت تقدماً تكنولوجياً، كان له أيضاً تأثير ضار. الذكاء الاصطناعي تقدم تكنولوجي لم يكتمل بعد. يصير أكثر فأكثر، ولكننا لم نتجاوز التغير التكنولوجي حتى الآن. يريد كثيرون القول: نعم، نحن نتحدى الذكاء البشري. نحن نتداخل مع الذكاء البشري. نحن لسنا قريبين من هذا حتى الآن. لدينا وثبة قمنا بها في هذه النماذج اللغوية الكبيرة. نحن مندهشون بها، وبما يمكنها أن تفعله. لأننا رأيناها فجأة تفعل أشياء نقوم بها. ما مقدار الإبداع الذي تمتلكه؟ هذا النظام يمكنه أن يكتب رمزاً، رسالة... ونقول إن ذلك يقترب من مستوى ذكائنا. الطريقة التي أنظر بها إلى هذا هو أن الكثير مما نقوم به هو أيضاً روتينيٌّ وليس إبداعياً بشكل دائم. الآن نكتشف أن الكثير من الأمور روتينية: الشِّعر. كنا نفكر في الشِّعر، يا إلهي، إنه لأمر مدهش حقاً. الآن، اطلب من «تشات جي بي تي» أن يولّد شِعراً. تجلس هناك وتقول: كم هذا جميل! كما تعلم، ليس كل الشِّعر جيداً لأنه فقط مقفّى. هناك الكثير من الأمور الروتينية. نحن نوسِّع حدود ما نعتقد أنه روتيني. فوجئت بأن الكثير من الأمور التي نقوم بها روتينية.

الأكثر والأقل ذكاءً

> تمام. ما رأيك في سلبيات التكنولوجيا الجديدة التي تتحدث عنها؟

- هو أننا أصبحنا راضين، معتمدين عليها. أعتقد أنه كان الرئيس التنفيذي لشركة «أبل» الذي ألقى خطاب التخرج في معهد «ماساتشوستس للتكنولوجيا» عام 2017، فقال: «لا أخشى أن يصبح الذكاء الاصطناعي أكثر ذكاءً، بل أقلق من أن يصير الإنسان أقل ذكاءً». وذلك لأننا أصبحنا راضين عن أنفسنا وتابعين للآلة. > ماذا تسمي بعض الإيجابيات؟ - أعني، أعتقد أننا حصلنا على السرعة والكفاءة. يمكننا تجميع المعلومات بسرعة كبيرة جداً. أنا أستاذ منذ 36 عاماً. أتذكر عندما بدأت أنني كنت أذهب إلى المكتبة للحصول على ورقة، الآن أكتب كلمتين وتأتي الورقة بسرعة. كأداة مساعدة للطبيب، أعتقد أنه سيكون رائعاً، أليس كذلك؟ الذكاء الاصطناعي يدفع الحدود لجلب الكثير من الأشياء المختلفة إليك، ويضعها أمامك.

> هل تعمل تقنية الذكاء الاصطناعي من أجل الصالح العام للناس، بما في ذلك على سبيل المثال، إضفاء الطابع الديمقراطي على المعرفة والإنتاج والتعليم في المجتمعات؟

- نعم، يمكن استخدام الذكاء الاصطناعي لصالحنا وتحسين تجربة التعلم عبر الإنترنت وحتى الاستفادة من نظم الواقع المعزّز. لكن يجب الاعتراف بأن الذكاء البشري والذكاء الاصطناعي عالمان مختلفان، ولا يزال هناك الكثير لنفهمه. في معهد «ماساتشوستس للتكنولوجيا» نحن نسعى لتعميم التعليم عبر الإنترنت، ونؤمن بأن هناك فرصاً كبيرة لنظم الذكاء الاصطناعي لتحسين تجربة التعلم الفردية. ولكن يجب أن يتم تصميم هذه الأنظمة بشكل تكيفي مدفوع بالذكاء الاصطناعي لتتناسب مع احتياجات الفرد وتساعده على التعلم بشكل أفضل.

> أنا فضوليّ، كيف ترى أن وظيفتي كصحافي ستتأثر بالتكنولوجيا الجديدة؟

- رغم تأثر الصحافة بالذكاء الاصطناعي ووسائل التواصل الاجتماعي، فإنه يجب علينا الاهتمام بالمسؤولية المدنية للصحافة في تقديم الأحداث بشكل دقيق وعادل. ومع ذلك، تعد الصحافة اليوم مجرد وسيلة لكسب المال، وهذا يشكل خطراً كبيراً على دورها في المجتمع. ومع إضافة نماذج اللغة التي تُنتج نصوصاً غير متحقَّق منها، فإن الصحافيين يواجهون مزيداً من الصعوبات في تقديم الأحداث بشكل دقيق وعادل. يجب أن نتحلى بالحذر في التعامل مع هذه التطورات الجديدة لضمان عدم إضرارها بالمجتمع بأي شكل.


نظم الذكاء الاصطناعي تثير مخاوف قانونية

نظم الذكاء الاصطناعي تثير مخاوف قانونية
TT

نظم الذكاء الاصطناعي تثير مخاوف قانونية

نظم الذكاء الاصطناعي تثير مخاوف قانونية

بات التطور السريع لنظم الذكاء الاصطناعي واستخدامها المتزايد في مختلف الصناعات والتطبيقات، يتطلبان بحسب القانونيين والخبراء سد ثغرات قانونية كثيرة قد تحول دون ملاحقة منتهكي حقوق النشر والتأليف، ومن يعمدون لتلفيق المعلومات، والتشهير، وغيرها من التعديات التي تسهل التقنيات الحديثة القيام بها من دون رادع.

انتهاكات ومخاوف

وتدفع الكثير من الحكومات باتجاه تنظيم الذكاء الاصطناعي قانونيا لضمان تطويره واستخدامه بطريقة إيجابية، لما له من تأثيرات مهمّة في العالم الواقعي، خاصة أنه قادر على اتخاذ قرارات لها عواقب مهمة على الأفراد والمجتمع ككل.

ويتحدث رئيس مؤسسة «جوستيسيا» الحقوقية المحامي الدكتور بول مرقص لـ«الشرق الأوسط» عن مجموعة من المخاوف القانونية الرئيسية المتعلقة باستخدام نظم الذكاء الاصطناعي، وأبرزها على صعيد انتهاك حقوق النشر والتأليف، لافتا إلى أن «انتهاك هذه الحقوق يُعد إحدى الثغرات القانونية الأساسية المتعلقة بنظم الذكاء الاصطناعي ، حيث يمكن استخدام هذه النظم لإنشاء محتوى مثل المقالات والموسيقى ومقاطع الفيديو التي قد تنتهك قوانين حقوق النشر والتأليف، ويمكن أن يؤدي ذلك إلى تحديات قانونية لكل من أصحاب ومبتكري هذا المحتوى»، عادا أنه «لمعالجة هذه المشكلة، من المهم وجود قواعد قانونية وتعليمات واضحة تمنع هذه الانتهاكات».

وينبه مرقص إلى أنه «يمكن برمجة نظم الذكاء الاصطناعي لإنشاء معلومات خاطئة أو مضللة، ما يؤدي إلى عواقب قانونية»، مضيفا: «على سبيل المثال، يمكن اعتبار المقالات الإخبارية أو التقارير التي يتم إنشاؤها بواسطة الذكاء الاصطناعي والتي تكون مضللة أو غير دقيقة عن قصد تشهيراً أو احتيالاً».

ويرى أنه «يمكن لنظم الذكاء الاصطناعي أن ترفع من حدّة التحيز العنصري، وقد يتمّ ذلك سواء عن قصد أو عن غير قصد، حيث إنه في حالة تغذية نظم الذكاء الاصطناعي المُخطط استخدامها في المجال الحقوقي ببيانات تحوي تمييزاً عنصرياً فسيؤدي ذلك إلى إدانة الأشخاص ذوي البشرة السوداء بشكل تعسفي. على سبيل المثال، يمكن اعتبار نظم التعرف على الوجه المتحيزة ضد أعراق معينة تمييزية». ويضيف: «لمنع التحيز العنصري في نظم الذكاء الاصطناعي، من المهم وضع قواعد وأنظمة قانونية تضمن الشفافية وتخضع للمساءلة، كما يجب أن يتأكد المطورون من أن نظم الذكاء الاصطناعي مصممة لتكون عادلة وغير متحيزة، وأن يتم تدقيقها بانتظام لتحديد أي تحيزات عنصرية».

ومن غير المستبعد استخدام نظم الذكاء الاصطناعي، بحسب مرقص، «للتشهير ضدّ الأشخاص، فعلى سبيل المثال، يقوم الذكاء الاصطناعي بإنشاء منشور أو تعليق على وسائل التواصل الاجتماعي يحتوي على معلومات خاطئة تضرّ بسمعة شخص ما أو مؤسسة، وبعد ذلك يمكن توزيع هذه المقالات أو المنشورات من خلال وسائل التواصل الاجتماعي أو غيرها من المنصات عبر الإنترنت لنشر معلومات كاذبة والإضرار بسمعة الفرد أو المؤسسة المستهدفة. فضلاً عن ذلك، يمكن استخدام تقنية التزييف العميق القائمة على الذكاء الاصطناعي لإنشاء محتوى صوتي أو فيديو مزيف يبدو أنه يصور شخصاً يقول أو يفعل شيئاً لم يفعله في الواقع».

ويشير مرقص إلى أنه «لمنع إساءة استخدام الذكاء الاصطناعي للتشهير، من المهم وجود قواعد ومعايير أخلاقية تنظّم استخدام الذكاء الاصطناعي في إنشاء المحتوى ونشره. من المهم أيضاً تثقيف الأشخاص حول الأخطار المحتملة للتشهير المستند إلى الذكاء الاصطناعي وزيادة الوعي حول الاستخدام المسؤول للذكاء الاصطناعي».

حماية الابتكار

ويشدد مرقص على وجوب «امتثال المصممين والمطورين والناشرين للمعايير والتشريعات، سواء الدولية أو الوطنية، لضمان الأداء السليم للذكاء الاصطناعي»، عادا أنه «من الضروري أيضاً تعزيز تطوير نظم الذكاء الاصطناعي التي تتسم بالشفافية والمساءلة والمصممة لإفادة المجتمع ككل، ومن خلال معالجة المشاكل القانونية يمكن ضمان استخدام نظم الذكاء الاصطناعي بطريقة مسؤولة وأخلاقية لتعزيز التقدم البشري».

ولم يعد مستبعدا أن تلجأ المنظمة العالمية للملكية الفكرية (الويبو) لتعديل نظام الملكية الفكرية القائم حاليا. إذ تعد المنظمة أن نمو الذكاء الاصطناعي في طائفة من المجالات التقنية أثار عدداً من الأسئلة السياساتية فيما يخص الملكية الفكرية، عادة أن التركيز الرئيسي لهذه الأسئلة ينصب حول ما إذا كان نظام الملكية الفكرية القائم بحاجة إلى تعديل كي يتيح حماية متوازنة للأعمال والابتكارات المنشأة بواسطة الآلات، والذكاء الاصطناعي، والبيانات التي يعتمد عليها الذكاء الاصطناعي كي يعمل. وقد شرعت «الويبو» في عملية مفتوحة لريادة المحادثة المتعلقة بتداعيات ذلك على سياسات الملكية الفكرية.

وبحسب أودري أزولاي، وهي المديرة العامة لمنظمة الأمم المتحدة للتربية والعلم والثقافة (اليونيسكو)، فإن الذكاء الاصطناعي يمثل أصلاً مذهلاً للتنمية المسؤولة في مجتمعاتنا، إلا أنه يثير قضايا أخلاقية كبرى. وتسأل أزولاي: «كيف يمكننا التأكد من أن الخوارزميات لا تنتهك حقوق الإنسان الأساسية من الخصوصية وسرية البيانات إلى حرية الاختيار وحرية الضمير؟ هل يمكن ضمان حرية التصرف عندما تكون رغباتنا متوقعة وموجهة؟ كيف يمكننا ضمان عدم تكرار الصور النمطية الاجتماعية والثقافية في برامج الذكاء الاصطناعي، لا سيما عندما يتعلق الأمر بالتمييز بين الجنسين؟ هل يمكن تكرار هذه الدوائر؟ هل يمكن برمجة القيم، وبواسطة من؟ كيف يمكننا ضمان المساءلة عندما تكون القرارات والإجراءات مؤتمتة بالكامل؟ كيف نتأكد من عدم حرمان أي شخص، أينما كان في العالم، من فوائد هذه التقنيات؟ كيف يمكننا ضمان تطوير الذكاء الاصطناعي بطريقة شفافة بحيث يكون للمواطنين العالميين الذين تتأثر حياتهم به رأي في تطويره؟!».

وتجدر الإشارة إلى أن مكتب الحقوق الفكرية في الولايات المتحدة أصدر في فبراير (شباط) 2022، قرارا بمنع إعطاء شهادة الحق الفكري للذكاء الاصطناعي، إذ رأى القائمون عليه أن الإبداع غير البشري ليس مؤهلا لحماية حقوقه الفكرية. وميز المكتب بين إصدار شهادة حقوق فكرية لذكاء صناعي وإصدارها للشخص الذي تعاون مع الذكاء الاصطناعي في ابتكار العمل.


الذكاء الاصطناعي عربياً... دول واعدة وفرص كبيرة

TT

الذكاء الاصطناعي عربياً... دول واعدة وفرص كبيرة

جانب من القمة العالمية للذكاء الاصطناعي في الرياض العام الماضي (الشرق الأوسط)
جانب من القمة العالمية للذكاء الاصطناعي في الرياض العام الماضي (الشرق الأوسط)

وسط سباق عالمي متسارع في مجال الذكاء الصناعي، تُظهر محاولات عربية متنوعة رغبة واضحة في اللحاق بموقع متقدم ضمن تلك المنافسات، وهو ما تَوافق مع توقعات لمؤسسات عدة بإسهام القطاع بنحو 320 مليار دولار في الناتج المحلي لدول الشرق الأوسط بحلول عام 2030، فضلاً عن إشارة خبراء إلى فرص واعدة متمثلة في الطبيعة الديمغرافية لسكان المنطقة ذات الطابع الشاب، ما يعني أن هناك مزيداً من الفرص لجمهور أوسع من المستخدمين والمستفيدين من تطبيقات الذكاء الصناعي المتنوعة. وتبرز كل من المملكة العربية السعودية، ومصر، والإمارات العربية المتحدة، والمغرب كدول واعدة في المجال.

وتوقع تقرير لـ«المنتدى الاقتصادي الدولي» أُعلن في أبريل (نيسان) الماضي، أن «تحقق منطقة الشرق الأوسط مكاسب اقتصادية تصل إلى 320 مليار دولار بحلول عام 2030 من خلال الاعتماد على الذكاء الصناعي»، وهو الرقم نفسه الذي جاء سابقاً في تقرير توقعته شركة «برايس ووترهاوس كوبرز»، في عام 2018، وهي شبكة خدمات مهنية متعددة الجنسيات تتخذ من لندن مقراً لها.

ويمثل هذا الرقم، وفق تقرير «برايس ووترهاوس كوبرز»، 2 في المائة من إجمالي الفوائد العالمية للذكاء الصناعي في عام 2030، حيث من المتوقع أن يسهم القطاع بنحو 15.7 تريليون دولار في الاقتصاد العالمي بحلول ذلك العام.

استراتيجيات وطنية

ووفق تقرير المنتدى الاقتصادي الدولي، فإن «الكثير من بلدان الشرق الأوسط حققت قفزات في اتجاه حصد فوائد الذكاء الصناعي»، حيث أطلقت المملكة العربية السعودية «استراتيجية وطنية للبيانات والذكاء الصناعي» تتضمن خطة طموحة لتدريب ما يصل إلى 20 ألف متخصص بحلول عام 2030. فيما شكّلت إمارة دبي بدولة الإمارات لجنة مخصصة في يوليو (تموز) من عام 2022 للاستثمار في الذكاء الصناعي والاقتصاد الرقمي والميتافيرس. بينما تتولى البحرين تسخير الذكاء الصناعي لحساب أشجار النخيل فيها ولتحديد الإنتاج الزراعي بشكل أكثر كفاءة.

ومع هذه التطورات، يتوقع التقرير أن «يسهم الذكاء الصناعي بنحو 46 مليار دولار، أو 8.2 في المائة، في الناتج المحلي الإجمالي، في اقتصاديات البحرين والكويت وعمان وقطر بحلول نهاية العقد.

جانب من القمة العالمية للذكاء الاصطناعي في الرياض العام الماضي (الشرق الأوسط)

وتأتي تحركات الدول العربية في ملف الذكاء الصناعي معبِّرةً عن هذه الأرقام من خلال «استراتيجيات وطنية تم إعدادها، ووزارات متخصصة»، وهو ما يراه مصطفى العطار، الباحث في مجال الذكاء الصناعي بـ«جامعة النيل» الأهلية بمصر، كاشفاً عن «حقيقة إدراكها لضرورة التنويع الاقتصادي».

ويقول العطار لـ«الشرق الأوسط»: «في إطار استعداد الدول العربية المنتجة للنفط لمرحلة ما بعد النفط، فإنها عمدت منذ فترة إلى تنويع اقتصادياتها، وتراهن بشكل كبير على الذكاء الصناعي».

وحدد العطار 3 أسباب لانطلاقة الدول العربية نحو قطاع الذكاء الصناعي، أولها أن «البيانات هي نفط القرن الحادي والعشرين بما لها من قيمة في كل المجالات، وفي الدول ذات التعداد السكاني الكبير، مثل الدول العربية، تكون البيانات ذات قيمة أكبر؛ فمثلاً: في المجال الطبي قد تكون هناك حاجة لمعرفة لماذا يكون دواء فعالاً مع أشخاص وغير فعال مع آخرين، وهذه المعلومة لا تستطيع معرفتها من دون عدد كبير من البيانات».

والسبب الثاني، الذي يشير إليه العطار، هو أن «الصناعات ستسعى خلال السنوات المقبلة للطاقة المتجددة لكي تكون صديقة للمناخ، وبالتالي لا بد من البحث عن استثمارات أخرى تتماشى مع تحول الصناعات إلى اللون الأخضر».

ووفق العطار، فإن السبب الثالث لانطلاقة الدول العربية نحو القطاع هو «الطبيعة الديمغرافية لتلك الدول، والتي توصف بأنها (فتية ديمغرافياً)، حيث يمثل الأطفال والشباب نحو نصف السكان، وهذا يعني أنهم يستخدمون الهاتف المحمول بكثافة، وهو المصدر الرئيسي لجمع البيانات التي يعتمد عليها الذكاء الصناعي، هذا فضلاً عن سهولة تدريب الشباب على هذه التكنولوجيا».

ويلفت الباحث إلى بُعد آخر بشأن الفرص السانحة عربياً في المجال، ويقول: «بالنسبة إلى الدول العربية غير المنتجة للنفط، فإن بعضها أدرك فرصة استثمار طاقات الشباب لدفع النمو الاقتصادي، خصوصاً أن الذكاء الصناعي لا يحتاج إلى رؤوس أموال ضخمة، قدر احتياجه إلى العقول، وهو ما دفع بعض الدول إلى تأسيس كليات متخصصة في الذكاء الصناعي».

تتوقع دراسات «برايس ووترهاوس كوبرز» أن تحقق السعودية أكبر المكاسب في مجال الذكاء الصناعي في الشرق الأوسط، بمساهمة تتجاوز 135 مليار دولار في الناتج المحلي بحلول 2030

«السعودية 2030»

منذ إعلان المملكة العربية السعودية عن تنفيذ رؤيتها «السعودية 2030»، وهي خطة شاملة لتحويل الدولة إلى قوة استثمارية عالمية وتقليل اعتمادها على النفط كمحرك أساسي لاقتصادها، طوّرت المملكة «الاستراتيجية الوطنية للبيانات والذكاء الصناعي» التي تهدف إلى دمج تقنيات الذكاء الصناعي وتحليل البيانات في جميع القطاعات الاقتصادية.

وتماشياً مع ذلك، تم إنشاء «الهيئة السعودية للبيانات والذكاء الصناعي» للإشراف على تنفيذ الاستراتيجية والمبادرات ذات الصلة، كما تدير الهيئة أكاديمية «SADAIA» التي تهدف إلى تزويد موظفي القطاعين العام والخاص بالمهارات اللازمة لاستخدام الذكاء الصناعي ودمجه في مسؤولياتهم الوظيفية.

ووضعت الهيئة السعودية للبيانات والذكاء الصناعي أنظارها على «تطوير منصات البيانات الضخمة وأدوات التحليل، بالتعاون مع القطاع الخاص، لدمج تقنيات الذكاء الصناعي في مجالات رئيسية منها «الحكومة» من خلال ربط جميع بيانات المؤسسات العامة والإدارية، وتحسين الوصول إلى هذه البيانات، وإنشاء قطاع حكومي ذكي بهدف أتمتة المعاملات الرسمية، واعتمادها على تقنيات الذكاء الصناعي، لتحقيق أقصى قدر من الإنتاجية والفاعلية.

ومن المجالات الأخرى التي اعتمدت المملكة عليها لتعميق الذكاء الصناعي، التعليم، وذلك عبر «تحديث المناهج الأكاديمية لتشمل دراسة تقنيات الذكاء الصناعي ودورها في جميع القطاعات، وكذلك مجال الرعاية الصحية، عبر دمج الذكاء الصناعي في البحث الطبي وصناعة الأدوية، والطاقة. وفي مجال الطاقة تم استخدام البرامج والخوارزميات في إدارة سلاسل إمداد الطاقة لزيادة كفاءة هذا القطاع وإنتاجه واستيعابه.

ومن النماذج التطبيقية التي تنفّذها المملكة، تَبرز مساهمات باحثي «جامعة الملك عبد الله للعلوم والتكنولوجيا (كاوست)» التي وظّفت الذكاء الصناعي في مجالات: الزراعة، والصحة، والهندسة والإنتاج الحيواني؛ ففي جائحة «كوفيد - 19»، أعلنت «كاوست» على موقعها الإلكتروني عن استخدام الذكاء الصناعي لتطوير اختبارات تشخيصية للمصابين بالفيروس من خلال الأشعة المقطعية، وهي الأبحاث الذي قادها زين غاو، الأستاذ المشارك في علوم الحاسب الآلي والمدير المساعد المكلف لمركز أبحاث العلوم الحيوية الحاسوبية في «كاوست».

وأنشأ عالم النبات في «كاوست»، هيربرت هيرت، خوارزمية للذكاء الصناعي تم الإعلان عنها في 9 مارس (آذار) الماضي، تساعد على «التنبؤ بالميكروبات المفقودة من تربة معينة، بحيث يمكن إضافتها ومساعدة النبات على النمو».

كما دشنت الجامعة مبادرة «أكاديمية كاوست» التي تهدف إلى «التدريب على المهارات التقنية المطلوبة في سوق العمل، وإعداد قوة عاملة سعودية ماهرة في عالم متسارع تحرّكه التقنية، لتلبية متطلبات رؤية 2030».

وتتوقع دراسات «برايس ووترهاوس كوبرز»، أن تحقق السعودية أكبر المكاسب في مجال الذكاء الصناعي في الشرق الأوسط، حيث من المتوقع أن يسهم بأكثر من 135.2 مليار دولار أميركي في الناتج المحلي بحلول عام 2030.

خطوات مصرية

انعكس الاهتمام المصري بالذكاء الصناعي وتطبيقاته على تصنيفها في التقارير الدولية ذات الصلة، ففي التقرير الخاص بالجاهزية الحكومية لتطبيق تقنيات الذكاء الصناعي الذي تُصدره مؤسسة «أكسفورد إنسايت» ومركز أبحاث التنمية الدولية، احتلت مصر المرتبة الثانية في أفريقيا بعد موريشيوس والـ56 عالمياً في تقرير عام 2022، وهو تقدم كبير مقارنةً بتقرير عام 2019 الذي جاءت فيه مصر في المرتبة الثامنة أفريقياً، و111 عالمياً من أصل 194 دولة.

كما كشف تقرير التنمية البشرية لمصر لعام 2021 عن تقدمها بـ55 مرتبة في مؤشر «الجاهزية الحكومية للذكاء الصناعي». ووفقاً لمؤشر المعرفة العالمي، تقدمت مصر من المرتبة 72 من أصل 138 دولة في عام 2020، إلى المرتبة 53 من بين 154 دولة في عام 2021.

وعلى الصعيد الرسمي أطلقت مصر «الاستراتيجية الوطنية للذكاء الصناعي» في يوليو عام 2021، والتي تتركز على 3 محاور أساسية هي: التعليم، والتدريب، والاستفادة العملية من حجم البيانات ثم إتاحتها للقطاع الخاص للاستفادة منها وفق أهميتها لكل قطاع.

وانعكست تلك الاستراتيجية على كثير من التحركات المصرية مؤخراً، بهدف توفير موارد التقدم في مجال الذكاء الصناعي، وأساسها العقول البشرية، حيث تم إنشاء كليات متخصصة في الذكاء الصناعي، ووصل عدد هذه الكليات حالياً إلى 9 كليات في الجامعات المصرية.

كما أصبحت شركات الذكاء الصناعي الناشئة المصرية أو المملوكة لمصريين ضمن الأكثر تطوراً على مستوى العالم، ومنها شركة تحليل مقاطع الفيديو «أفيدبيم»، والتي فازت بجائزة أفضل شركة ناشئة في مجال الذكاء الصناعي في العالم خلال معرض ومؤتمر معرض الإلكترونيات الاستهلاكية (CES) الذي أُقيم في يناير (كانون الثاني) عام 2018 في لاس فيغاس بالولايات المتحدة الأميركية، وكان ذلك بعد نحو عام من الاعتراف بها ضمن أفضل 20 شركة ناشئة في العالم في مجال الذكاء الصناعي وفق تقييم المجلة الرقمية «CIOReview».

وتتوقع دراسات «برايس ووترهاوس كوبرز»، أن يسهم الذكاء الصناعي بأكثر من 42.7 مليار دولار أميركي عام 2030 في الاقتصاد المصري.

كشف تقرير التنمية البشرية لمصر لعام 2021 عن تقدمها بـ55 مرتبة في مؤشر «الجاهزية الحكومية للذكاء الصناعي»

استراتيجية الإمارات

وتمتلك دولة الإمارات استراتيجية وطنية للذكاء الصناعي تم التوقيع عليها في أكتوبر (تشرين الأول) 2017، وتحدد تلك الاستراتيجية مجموعة من المبادرات الحكومية التي سيتم الانتهاء منها بحلول عام 2031، وبالتزامن مع إطلاق تلك الاستراتيجية، تم تعيين وزير دولة للذكاء الصناعي لمواءمة أهداف الاستراتيجية مع الخطط الحكومية الأخرى.

وتهدف الاستراتيجية من بين ما تهدف إلى «الاستفادة من الذكاء الصناعي لإدارة شبكات المياه باستخدام البيانات الضخمة لدراسة طرق تحسين استخدام موارد المياه وتقليل الفاقد، واستخدام هذه التقنيات لإدارة قطاع المرور من خلال تطوير آليات وقائية للتنبؤ بالحوادث المحتملة والازدحام المروري بناءً على الإحصاءات اليومية في كل منطقة، وتعتمد أيضاً على الذكاء الصناعي لتطوير شبكات الكهرباء التي تعتمد على الطاقة المتجددة من خلال دراسة إنتاجيتها على مدار العام وتنظيم مشاريع جديدة وفقاً لذلك».

وفي القطاع العام، تعمل الإمارات على «دمج الذكاء الصناعي مع الخدمات الأمنية، لا سيما في مجال تحديد الهوية من خلال الكاميرات». بالإضافة إلى ذلك، تخطط الحكومة لأتمتة جميع الخدمات الحكومية للمقيمين مع تقليل الأعباء الإدارية من خلال تقنيات إدارة البيانات الذكية.

وتتوقع دراسات «برايس ووترهاوس كوبرز»، أن يسهم الذكاء الصناعي بأكثر من 96 مليار دولار أميركي في الاقتصاد الإماراتي، أي ما يعادل 14% من الناتج المحلي الإجمالي في عام 2030.

وزارة مغربية

قبل أقل من عامين، أظهر المغرب اهتماماً كبيراً بالذكاء الصناعي، عبر إنشاء وزارة جديدة متخصصة في الانتقال الرقمي، وتم إسناد مهمتها إلى الوزيرة غيثة مزور، وهي متخصصة في مجال الذكاء الصناعي.

وجاء في خطاب التكليف للوزيرة المغربية، التي بدأت عملها في أكتوبر من عام 2021، أنه «سيتعين عليها العمل على تسريع الانتقال الرقمي في المغرب».

وفي أغسطس (آب) 2022 أطلق المغرب استراتيجية جديدة للتحول الرقمي بحلول سنة 2030، وذلك حسبما جاء في مذكرة مشروع قانون موازنة عام 2023 التي وجهها رئيس الحكومة المغربية إلى القطاعات الوزارية.

وأوضحت المذكرة أن هذه الاستراتيجية تهدف بالأساس إلى «رقمنة الخدمات العمومية، ووضع أسس انبثاق اقتصاد رقمي يخلق فرص العمل، ويؤسس لوضع أفضل للمغرب في هذا المجال».

وقبل إطلاق الاستراتيجية كان المغرب قد افتتح في عام 2019 أول كلية متخصصة في المجال، وهي كلية للهندسة الرقمية والذكاء الصناعي بجامعة «أوروميد»، وليكون مجال اهتمامها علم الروبوتات والتعاون بين الإنسان والآلة، والذكاء الصناعي، والأمن السيبراني، وتقنيات الويب، والهاتف المحمول، والبيانات الضخمة.

ويمتلك المغرب قاعدة من المتخصصين في الذكاء الصناعي، وتم تضمين اثنين منهم في قائمة أبرز خبراء الذكاء الصناعي العرب لسنة 2022، والتي أصدرتها «إم آي تي تكنولوجي ريفيو العربية»، وهما: لبنى بوعرفة، المؤسسة والرئيسة التنفيذية لشركة «أوكرا»، المهتمة بحلول التعلم الآلي في مجال الرعاية الصحية، كما أنها عضو في فريق الخبراء رفيع المستوى التابع للمفوضية الأوروبية حول الذكاء الصناعي، وهاجر المصنف، أستاذة الذكاء الصناعي ومؤسِّسة برنامج ماجستير علوم البيانات في جامعة «القاضي عياض» المغربية.


ما هو الذكاء الاصطناعي وكيف يعمل؟

استخدامات متعددة لتقنيات الذكاء الصناعي في حياتنا اليومية
استخدامات متعددة لتقنيات الذكاء الصناعي في حياتنا اليومية
TT

ما هو الذكاء الاصطناعي وكيف يعمل؟

استخدامات متعددة لتقنيات الذكاء الصناعي في حياتنا اليومية
استخدامات متعددة لتقنيات الذكاء الصناعي في حياتنا اليومية

بدأت ثورة الذكاء الاصطناعي بالانتشار، وسمعنا عن الكثير من الشركات التي تضيف هذه التقنية إلى خدماتها وتقدم عناصر جديدة كان من الصعب تخيلها قبل بضع سنوات. ولكن ما الذكاء الاصطناعي؟ وما نظمه وما أحدث التطويرات في الأجهزة والبرامج الذكية؟

الذكاء الاصطناعي هو عملية محاكاة نظم الكومبيوترات لعمليات الذكاء البشري بهدف تحقيق أمر ما. وكثيراً ما تروّج الشركات لخدماتها على أنها ذكاء صناعي، ولكن حقيقة الأمر أن الكثير من تلك الخدمات تستخدم عنصراً من التقنية، مثل «تعلم الآلة». ويتطلب استخدام الذكاء الاصطناعي أساساً متقدماً من العتاد الصلب Hardware المتخصص، والبرمجيات المطورة خصيصاً لهذا الغرض. ولا توجد لغة برمجة متخصصة بهذه التقنية حتى الآن، ولكنّ عدداً من اللغات يقدم أدوات مفيدة لهذا الغرض، مثل Python وJava وR و«سي بلس بلس».

وتحتاج هذه النظم إلى تحليل كميات كبيرة جداً من بيانات التدريب وإيجاد روابط بين تلك البيانات واستخدامها لتوقع أمور مقبلة، مثل تحليل ملايين الصور لفهم ما الذي يميز الإنسان عن النبات عن الحيوان عن الجماد، وما الطبيعة؟ وما العائلة؟ وكيف يمكن تمييز الليل عن النهار والخيال عن الحقيقة؟ وأسلوب رسم فنان ما مقارنةً بآخر، وهكذا. وينطبق الأمر نفسه عند تحليل النصوص والموسيقى وعروض الفيديو، وغيرها، ليتكون لدينا نظم ذكاء صناعي مختلفة متخصصة في مجالات كثيرة، وفقاً للبيانات التي تم تحليلها.

ويتم التركيز في برمجة الذكاء الاصطناعي على 4 مهارات، هي: التعلم والإدراك والتصحيح الذاتي والابتكار.

يركز جانب التعلم على الحصول على البيانات وإيجاد القوانين والروابط بينها وتحويلها إلى بيانات مفيدة. ويتم تقديم قوانين مختلفة على شكل خوارزميات Algorithm كثيرة (الخوارزمية هي نهج عمل برنامج ما لتحقيق الهدف المرغوب) حول كيفية إكمال مهمة محددة، مثل التعرف على وجود إنسان في صورة (يجب تحديد ما يصف شكل معظم البشر: العينان والفم والأنف والحاجبان والرقبة، وهكذا).

وبالنسبة إلى مهارة الإدراك، فإنها تركز على اختيار الخوارزمية الصحيحة بقوانينها المرتبطة لتحقيق الهدف المرغوب. أما التصحيح الذاتي، فتركز هذه المهارة على تعديل الخوارزميات وقوانينها بناءً على صحة المخرجات لإيجاد قوانين أكثر دقة من السابق، الأمر الذي ستنجم عنه نتائج صحيحة بنسبة أعلى في المرات المقبلة التي يعمل فيها ذلك النظام.

وتبقى المهارة الرابعة وهي الابتكار، التي تستخدم الشبكات العصبونية Neural Networks الرقمية والنظم المبنية على القوانين والبيانات الإحصائية وتقنيات أخرى بهدف إيجاد صور ونصوص وموسيقى وأفكار جديدة.

ولعلكم قد سمعتم عن بعض المفردات التقنية المتقاربة، مثل الذكاء الاصطناعي Artificial Intelligence، وتعلم الآلة Machine Learning، والتعلم العميق Deep Learning.

تحتاج هذه النظم إلى تحليل كميات كبيرة جداً من بيانات التدريب وإيجاد روابط بين تلك البيانات واستخدامها لتوقع أمور مقبلة، مثل تحليل ملايين الصور لفهم ما الذي يميز الإنسان عن النبات عن الحيوان عن الجماد، وما الطبيعة؟ وما العائلة؟ وكيف يمكن تمييز الليل عن النهار والخيال عن الحقيقة؟

وبينما يعرَّف الذكاء الاصطناعي بأنه محاكاة الآلات للذكاء البشري لتحقيق هدف ما، فإن تعلم الآلة يعرَّف بأنه رفع دقة البرامج والتطبيقات في توقع النتائج بناءً على البيانات السابقة من دون برمجتها بشكل مباشر على كيفية القيام بذلك، حيث تتم هذه العملية من دون تدخل المبرمجين، ذلك أن النظام سيتعرف على الروابط بين البيانات ويستخدمها في التوقع. أما التعلم العميق، فهو جزء متخصص من تعلم الآلة مبنيٌّ على فهمنا لتركيبة الدماغ البشري. وبسبب استخدام التعلم العميق لبنية الشبكات العصبونية الرقمية أخيراً، تم إيجاد تقنيات حديثة مفيدة جداً للبشر، مثل القيادة الذاتية للسيارات وChatGPT.

ويمكن تقسيم الذكاء الاصطناعي إلى فئتين: الضعيف والقوي، بحيث يُعرّف الذكاء الاصطناعي الضعيف Weak AI، أو الذكاء الاصطناعي ضيق النطاق Narrow AI، على أنه نظام يتم تدريبه لإكمال مهمة محددة، كالروبوتات الاصطناعية والمساعدات الذكية الشخصية، مثل «سيري» من «أبل». أما الفئة الثانية فهي أكثر شمولاً ويطلق عليها مصطلح الذكاء العام الاصطناعي Artificial General Intelligence AGI، وهي عبارة عن نظام يستطيع محاكاة القدرات الإدراكية للدماغ البشري. ويستطيع هذا النظام تحليل البيانات الموجودة أمامه في مهمة جديدة كلياً عليه لم يسبق برمجته على كيفية إكمالها، وتطبيق معرفته السابقة في مجال ما على آخر لإيجاد حل صحيح ومن دون أي تدخل خارجي.

استخدامات الذكاء الاصطناعي

ولكن ما أهمية الذكاء الاصطناعي في حياتنا؟ في الواقع، استفدنا سابقاً من تقنيات الذكاء الاصطناعي المختلفة في الكثير من جوانب الحياة؛ من نظم الكشف عن التحايل المالي والضريبي، وأتمتة العمليات اليومية البسيطة، وفي مراكز خدمة العملاء، وزيادة المبيعات وضبط جودة المنتجات. وتستطيع هذه التقنيات في بعض المجالات التفوق على الإنسان، خصوصاً فيما يتعلق بالأمور المتكررة أو التي تحتاج إلى تفاصيل كثيرة، مثل تحليل كميات كبيرة من أوراق النماذج Form والتأكد من وجود بيانات صحيحة في حقول محددة.

ونظراً للقدرات الممتدة في إيجاد روابط بين البيانات الضخمة في أوقات قليلة، تستطيع هذه النظم تقديم معلومات غنية جداً لمديري الشركات لم يكن من الممكن لأي بشري إكمالها وإيجاد روابط بين الملايين من البيانات.

صورة تعبيرية صنعها الذكاء الاصطناعي من موقع www.picsart.com لدى استخدام كلمات مفتاحية حول الذكاء الاصطناعي والسعودية

كما يمكن استخدام تقنيات الذكاء الاصطناعي الحديثة في تطوير عملية التعليم والتسويق وتصميم المنتجات. وأصبحت هذه التقنية محوراً لتقدم الكثير من شركات التقنية الضخمة اليوم، مثل «ألفابيت Alphabet» المالكة لـ«غوغل» و«مايكروسوفت» و«ميتا» المالكة لـ«فيسبوك»، وغيرها.

ويمكن استخدام الذكاء الاصطناعي في أتمتة العمليات بهدف زيادة كمية وأنواع المهام المنوطة به، وتحليل الصور الطبية للمساعدة في التعرف على الأمراض المختلفة وفقاً لتاريخ مرضى سابقين وتطور مراحلهم، إلى جانب الاستخدامات العسكرية في المعارك الميدانية وتحليل نزعات تحرك المشاة والآليات وفقاً لعوامل البيئة والطقس والأعداد والوقت. كما يمكن استخدامه في برامج مكافحة الجرائم الرقمية والتعرف على الرسائل التصيّدية بناءً على نص الرسالة وعنوانها وعنوان الجهة المرسلة، أو ترجمة النصوص وتفريغ المحادثات الصوتية وتحويلها إلى نصوص، والتعرف على مشاعر الطرف الثاني في الرسائل الإلكترونية. ويتم استخدام هذه التقنيات حالياً في المجالات الاصطناعية ولتحريك عناصر ثقيلة جداً في مهمات المركبات الفضائية التي تستكشف الكواكب المختلفة، أو في المركبات ذاتية القيادة للتعرف على العقبات الموجودة أمام المركبة وتجاوزها من دون المخاطرة بحياة الركاب أو المشاة من حولها.

وأخيراً شهدنا انطلاق خدمات إيجاد المحتوى متعدد الوسائط بجودة عالية «الذكاء الاصطناعي التوليدي Generative AI»، مثل النصوص والصور والفيديوهات والموسيقى بشكل غير محدود وبقدرات إبداعية غير مسبوقة، وبتكلفة منخفضة جداً. ويمكن إيجاد نصوص مسرحية وصور واقعية وكتابة عدد كبير من رسائل بريد إلكتروني من دون ملاحظة الطرف الآخر أن المرسل ليس من البشر، والكثير غيرها من الخدمات الأخرى.

كما يمكن استخدام هذه التقنيات في القطاع المصرفي لتحليل ما إذا كان يمكن للبنك تقديم قرض لشخص ما أو تحديد السقف المالي لبطاقة ائتمانية أو الفرص الاستثمارية، أو للمساعدة في تداول الأسهم. وتستطيع هذه التقنيات المساهمة في التنبؤ بحدوث تأخير في الرحلات الدولية حسب الحالة الجوية، أو زيادة أمن الشحن البحري حسب حالة الطقس والتيارات المائية، والتنبؤ بنزعات الشراء والطلب بناءً على عوامل كثيرة جداً، إلى جانب تقديم المحامين للمشورة القانونية وفقاً لقضايا سابقة بعد تحليل تفاصيل ونتائج أحكام الكثير من القضايا والملفات السابقة.

تطويرات وآفاق واعدة

وتطورت استخدامات تقنيات الذكاء الاصطناعي بشكل كبير خلال الفترة السابقة، وتسارع ذلك التقدم بشكل ملحوظ. ويمكن العودة بالابتكارات النوعية لهذه التقنيات إلى عام 2012 خصوصاً شبكة «AlexNet» العصبونية التي رفعت من مستويات الأداء بشكل كبير بسبب اعتمادها على وحدات معالجة الرسومات فائقة الأداء لتحليل البيانات مقارنةً بالاعتماد على المعالجات التقليدية، وقدرة وحدات معالجة الرسومات على معالجة البيانات بالتوازي بكميات ضخمة وبسرعات كبيرة جداً.

وشكّل التعاون بين شركات البرمجة العملاقة، مثل «مايكروسوفت» و«غوغل» و«أوبين إيه آي OpenAI» من جهة، وشركات صناعة عتاد الكومبيوترات، مثل «إنفيديا Nvidia» المتخصصة في وحدات معالجة الرسومات فائقة الأداء، ومعالجات «إنتل» المتخصصة في الذكاء الاصطناعي، من جهة أخرى نواة لتشكيل قفزات متسارعة في خدمات تقنيات الذكاء الاصطناعي كان من آخرها «تشات جي بي تي ChatGPT». ومن أحدث الابتكارات في أدوات وخدمات الذكاء الاصطناعي تطوير «غوغل» ما تُعرف بـ«المحولات Transformers»، وهي آلية فائقة الأداء ترفع من سرعة تحليل البيانات الضخمة باستخدام مجموعات كبيرة من الكومبيوترات العادية التي تحتوي على وحدات معالجة الرسومات، الأمر الذي خفض من تكاليف تأسيس تقنيات الذكاء الاصطناعي المتخصصة بشكل كبير.

وطوّرت شركة «إنفيديا» كفاءة معالجة البيانات بالتوازي Parallel Processing عبر نوى وحدات معالجة الرسومات GPU الخاصة بها بشكل كبير على مستوى الدارات الإلكترونية والبرمجيات في آن واحد، مما شكّل قفزة كبيرة سرّعت من تبني تقنيات الذكاء الاصطناعي، إلى جانب سهولة تكامل تلك التطويرات في مراكز البيانات، والعمل مع مراكز الحوسبة السحابية لتقديم الأجهزة المتقدمة كخدمة لمن يريد، دون الحاجة لبناء مراكز متخصصة لكل شركة، وهو أمر من شأنه خفض تكاليف تبني هذه التقنية بشكل غير مسبوق.

واستطاعت هذه الشركات تطوير «محولات» توليدية مسبقة التدريب Generative Pre - trained Transformers GPT ومشاركتها مع الشركات الأخرى التي ترغب في تخصيص تقنيات الذكاء الاصطناعي دون الحاجة لتدريب الذكاء الاصطناعي على كميات هائلة من البيانات وما يصاحب ذلك من وقت وتكاليف كبيرة. وتستطيع الشركات المتوسطة أو الصغيرة استخدام تلك النماذج العامة وتخصيصها حسب الحاجة لقاء بضع آلاف من الدولارات، مقارنةً بـ5 إلى 10 ملايين دولار للتدريب من نقطة الصفر. ويشكّل هذا الأمر قفزة كبيرة للشركات المتخصصة نحو مباشرة العمل وتقديم خدمات ثورية بسرعات كبيرة ومخاطر منخفضة.

ومن الأمثلة على خدمات الحوسبة السحابية للذكاء الاصطناعي AWS AI Services وGoogle Cloud AI وMicrosoft Azure AI Platform وOracle Cloud Infrastructure AI Services، والتي تزيل عبء بناء مركز بيانات متخصص بالذكاء الاصطناعي، وتقدمه كخدمة لقاء اشتراك شهري أو سنوي منخفض التكلفة. هذا، وتقدم OpenAI وNVidia خدمات متخصصة لمستخدميها، مثل نماذج ذكاء صناعي متخصصة بالصور والدردشة النصية والطب وحتى البرمجة.

وتقدم OpenAI نظام ChatGPT للمحادثة أو الدردشة الذي انتشرت شعبيته بشكل كبير بين المستخدمين في آخر بضعة أشهر، وهي الشركة نفسها التي استثمرت بها «مايكروسوفت» بقيمة 10 مليارات دولار، والتي ستضيف تقنيات الذكاء الاصطناعي إلى متصفح «إيدج Edge» ومجموعة برامج «أوفيس» المكتبية وحتى نظام التشغيل «ويندوز» لتطوير تجربة الاستخدام بشكل مبهر جداً.

من جهتها كشفت «غوغل» عن نظام الذكاء الاصطناعي «بارد Bard» للدردشة المبنيّ على عائلة LaMDA للغات التطوير، والذي من المتوقع أن يساعد في أعمال ترجمة النصوص بين اللغات بدقة عالية جداً وكتابة المحتوى المبتكر والإجابة عن الأسئلة وكتابة النصوص البرمجية عبر أكثر من 20 لغة برمجة، وحتى إيجاد معادلات لجداول الحسابات لتحقيق هدف حسابي ما يريده المستخدم.

هذا، وكشفت «إنفيديا» عن نظام ذكاء صناعي يستطيع إيجاد فيديوهات واقعية للغاية بمجرد كتابة وصف لها، ليقوم النظام بتوليد تلك الفيديوهات بسرعة. ومن الممكن استخدام هذا النظام في شركات صناعة الفيديوهات أو حتى في استوديوهات المسلسلات والأفلام لإضافة العناصر الرقمية إلى المشاهد المختلفة، أو حتى استبدالها بأخرى بمجرد كتابة ذلك نصياً (مثل استبدال سيارة بأخرى أو وجه ممثل بآخر، وبسرعة ودقة كبيرتين).

أخلاقيات الاستخدام

مثلها مثل أي أداة في حياتنا، يمكن استخدام تقنيات الذكاء الاصطناعي للمنفعة أو لإلحاق الأذى، وينبغي إيجاد ضوابط لاستخدامها بشكل يعود بالخير على الجميع. وكما ذكرنا سابقاً، تعتمد هذه النظم على تحليل البيانات السابقة، أي إن نتائجها مرتبطة بتلك البيانات، الأمر الذي يعني أنه سيوجد تحيز إن كانت البيانات غير شاملة لجميع العوامل المرتبطة بالمسألة التي يتم استخدام تقنيات الذكاء الاصطناعي لحلها، وتجب مراقبة جودة تلك البيانات التأسيسية لضمان وجود مخرجات صحيحة ومفيدة. يضاف إلى ذلك أن هذه النظم تقدم النتيجة دون ذكر كيفية الوصول إليها، ذلك أنها توجِد ترابطاً بين أعداد كبيرة من العوامل المختلفة للبيانات التي تقوم بتحليلها.

هذا الأمر قد لا يكون مفيداً في الكثير من الاستخدامات اليومية، مثل عدم القدرة على توضيح أسباب اتهام شخص بتجاوز قانوني ما، إذ لا يكفي القول إن النظام قد توصل لتلك النتيجة دون ذكر أسباب مقنعة لذلك، أو رفض مصرف طلب حصول عميل ما على بطاقة ائتمانية، مثلاً. وشهدنا نظماً تستطيع إيجاد صور وفيديوهات ملفقة باستخدام أوجه وأصوات أشخاص حقيقيين DeepFake، الأمر الذي سيصعّب على المستخدمين التأكد من صحة تلك الصور والتسجيلات الصوتية والفيديوهات، وقد يوقِع الضحايا في مشكلات كبيرة.

ويوجد الكثير من القوانين التي تحدّ من نوعية البيانات التي يمكن للشركات استخدامها، مثل القانون العام لحماية البيانات General Data Protection Regulation (GDPR)، (لائحة الاتحاد الأوروبي التي تنص على كيفية التعامل مع البيانات الشخصية)، الأمر الذي سيشكل عقبة أمام القدرة على استخدام البيانات في تقنيات الذكاء الاصطناعي، وقد يشكّل في النهاية، إلى جانب قوانين دولية أخرى، عقبة أمام تطوير تقنيات الذكاء الاصطناعي وإيجاد بيانات تأسيسية شمولية وأكثر دقة للحصول على نتائج صحيحة. كما ستشكل مسائل حقوق الملكية الفكرية عقبة كبيرة أمام تقدم هذه التقنيات، حيث يمكن لتقنيات الذكاء الاصطناعي محاكاة أسلوب رسم أو كتابة شخص ما، أو يمكن إيجاد موسيقى مشابهة جداً لأسلوب فرقة أو مغنٍّ ما وبيع تلك النتائج وجني المال.

أمر آخر لافت للانتباه هو الاستخدامات الخبيثة لهذه التقنية، حيث يمكن لمجموعة من القراصنة استخدامها للتعرف على الثغرات الموجودة في موقع حكومي أو تابع لشركة ما واختراق ذلك الموقع والدخول إلى الأجهزة الخادمة وسرقة البيانات أو جعلها رهينة لقاء فدية مالية.

عقدت «مايكروسوفت» في 2019 شراكة مع «أوبن إيه آي» مطوّر «تشات جي بي تي» (أدوبي ستوك)

نظرة «مايكروسوفت» للذكاء الاصطناعي: نقلة نوعية... بضوابط

تحدثت «الشرق الأوسط» مع فريق عمل «مايكروسوفت» الذي أكد أن للذكاء الاصطناعي دوراً محورياً في حل التحديات الاقتصادية المعقدة، وإحداث نقلة نوعية للكثير من الأعمال، وتحسين أداء المؤسسات وتجربة العملاء، وتطوير إمكانات التنبؤ والتخطيط، وذلك للمساعدة في تحسين وتعزيز حياة فئات المجتمع كافة.
وأسهم الذكاء الاصطناعي في تمكين المؤسسات الصغيرة والمتوسطة والكبيرة في مختلف القطاعات على إيجاد حلول للتحديات الملحّة وابتكار طرق جديدة لتحسين سير أعمالها، ومنها الطاقة، حيث يرسم الذكاء الصناعي مستقبل هذا القطاع. وتسعى وزارة الطاقة في المملكة العربية السعودية إلى توظيف الذكاء الصناعي في إدارة استهلاك الطاقة والتنبؤ بها، لتلبية طلبات الاستهلاك، وكذلك لتحديد أنماط جمع مزيج الطاقة وإدارتها وتشغيلها بما يسهم في جعلها أكثر كفاءة وأماناً.وعقدت «مايكروسوفت» في عام 2019 شراكة مع «أوبين إيه آي OpenAI»، وهو مختبر الأبحاث الذي يقف خلف برامج الدردشة «تشات بوت» و«تشات جي بي تي ChatGPT»، وكذلك مُنشئ الصور «دال - إي 2 Dall - E2» الذي يُحول النصوص الوصفية إلى صور جديدة.
ونتج عن هذه الشراكة خدمة «أزور أوبن إيه آي سيرفيس Azure OpenAI Service» الجديدة التي توفر عدداً من نماذج الذكاء الاصطناعي، مثل إصدارات مطورة من متصفح «إيدج» ونظام البحث «بينغ» اللذين يعملان معاً مساعدين شخصيين مدعومين بالذكاء الاصطناعي. وتجاوز عدد المستخدمين لهذه التقنية 100 مليون مستخدم نشط يومياً على «بينغ» بحلول أوائل شهر مارس (آذار) الماضي. ونذكر كذلك أداة «بينغ إميج كرييتور Bing Image Creator» الجديدة التي تسمح لمستخدمي بحث «بينغ» الجديد المزوّد بتقنيات الذكاء الاصطناعي «Bing Chat» أو متصفح «إيدج» بإنشاء صور مبتكرة بمختلف أنواعها من خلال نصوص وصفية.وأطلقت الشركة المرشد المساعد «مايكروسوفت 365 كوبايلوت Microsoft 365 Copilot» الذكي لمستخدمي تطبيقات «مايكروسوفت 365» المكتبية بهدف مساعدة المستخدمين في إنتاج المحتوى، سواء كان رسائل بريد إلكتروني أم إنشاء الوثائق أم العروض التقديمية أم تلخيص المحتوى والرسائل وتحليل البيانات وجداول الحسابات، وغيرها. يضاف إلى ذلك «المرشد المساعد للنصوص البرمجية GitHub Copilot» الذي يتيح إمكانية كتابة النص البرمجي مباشرةً من خلال الأوامر الصوتية دون الحاجة إلى لوحة المفاتيح.
وأشار الفريق أيضاً إلى استفادة قطاع آخر من هذه التقنية هو الرعاية الصحية، حيث يمكن تشخيص الأمراض وفحص أعداد كبيرة من المرضى في وقت قصير بفضل الذكاء الاصطناعي. وأسهم الذكاء الاصطناعي في تحقيق تقدم ملحوظ على مستوى التشخيص المبكر واكتشاف الأمراض في أولى مراحلها، وربما قبل حدوثها أو انتشارها. ونذكر كذلك الخدمات المالية، حيث أحدث الذكاء الاصطناعي موجات تغيير واسعة في قطاع الخدمات المالية وتم استخدام روبوتات الدردشة «Chatbots» لخدمة العملاء.
كما أسهم الذكاء الاصطناعي في مساعدة المعلمين والمحاضرين من خلال تحريرهم من الأعمال المكتبية وتمكينهم من أتمتة العمليات اليدوية، مثل تصحيح الامتحانات وتقييم الواجبات. كما يضمن استخدام الذكاء الاصطناعي إمكانية الوصول إلى التعليم عالي الجودة لجميع الطلاب في أي وقت وفي أي مكان، ودون تكبد المزيد من النفقات.ويرى الفريق أن الحقبة التالية من الذكاء الاصطناعي (نماذج الذكاء الاصطناعي الكبيرة) ستساعد في مهام كثيرة، مثل تلخيص المحتوى وإدارة المستندات وتبسيط تدفقات المبيعات، ويمكن أن تمتد إلى مجالات كثيرة مثل تصميم جزيئات جديدة للأدوية أو إنشاء نصوص أو صور أو موسيقى أو محادثات أو رموز أو فيديوهات تحاكي إنتاج البشر. وتستخدم اليوم أكثر من 85% من شركات قائمة «Fortune 100» أدوات «مايكروسوفت» للذكاء الاصطناعي.
وترى «مايكروسوفت» أنه من المهم جداً أن يتم استخدام الذكاء الاصطناعي بطريقة أخلاقية ومسؤولة. ولذلك، فقد تم تصميم سياسات ولوائح «مايكروسوفت» في مجال الذكاء الاصطناعي بطريقة تراعي وتتماشى مع الأطر التنظيمية للاستخدام المسؤول والأخلاقي لتقنيات الذكاء الاصطناعي.
 

نظرة «غوغل» للذكاء الاصطناعي

يرى فريق «غوغل» أن مستقبل توظيف تقنيات الذكاء الاصطناعي في الاستخدامات اليومية كبير، لأنها تجعلها أكثر فائدة حول العالم، سواء كانت لمساعدة الأطباء في التعرف على الأمراض بشكل أسرع أو السماح للمستخدمين بالوصول إلى المعلومات بلغاتهم الأم لإطلاق العنان لإبداعاتهم، وفتح فرص جديدة من شأنها تغيير حياة الملايين.
وفي اتصال لـ«الشرق الأوسط» مع فريق «غوغل»، أشار إلى أن هذه التقنية ستعالج التحديات المجتمعية التي تشمل الأزمة المناخية والتنبيه إلى الكوارث الطبيعية (مثل الفيضانات) والمساهمة في الوصول إلى اكتشافات علمية جديدة، وحتى رفع المستويات الصحية للمستخدمين.
ومن الأمثلة على استخدام تقنيات الذكاء الاصطناعي في منتجات «غوغل» القدرة على البحث عن المعلومة باستخدام الصور أو صوت المستخدم، حيث تقوم النظم بتحليل الصوت والبحث عن أغنية مشابهة للحن الذي سجله المستخدم، أو تحليل صورة ما لإيجاد عناصر مشابهة لها. كما يمكن استخدام هذه الآليات إلى جانب كتابة النصوص إليها للبحث من خلال تطبيق «غوغل»، مثل كتابة «ملابس» وتصوير ورق الجدران أمام المستخدم، ليعثر محرك البحث على ملابس تحتوي على نمط مشابه لذلك الموجود في ورق الجدران الذي تم تصويره. كما تحلل تقنيات الذكاء الاصطناعي بيانات الخرائط وتقدم معلومات مفيدة للمستخدمين حول حالة الازدحام وساعات عمل المتاجر والسرعات المسموحة في الطرق المختلفة، وبشكل آلي. هذا، وتستطيع نظم الذكاء الاصطناعي تحليل محتوى الصور الموجودة في جهازه والسماح للمستخدم كتابة عبارة تصف عنصراً ما، لتعرض جميع الصور، التي تحتوي على ذلك العنصر.
إلا أن الفريق أشار إلى ضرورة استكشاف القدرات الكامنة لهذه التقنية ونتائجها الإيجابية والسلبية التي تتقاطع مع التجارب البشرية. ويجب التركيز على العوامل الأخلاقية للاستخدام، الأمر الذي كشفت عنه «غوغل» في مبادئ الذكاء الاصطناعي الخاصة بها، والاستخدامات المفصلة حول كيفية تطوير الذكاء الاصطناعي بمسؤولية، والعمليات الحكومية لتطبيقها، وهي جميعاً عوامل تُوَجِّه جهود «غوغل» في الذكاء الاصطناعي.
الجدير ذكره أن «غوغل» أطلقت نظام «بارد» Bard للذكاء الاصطناعي التوليدي Generative AI بشكل تجريبي للسماح للمستخدمين البحث عن المعلومات بطرق مبتكرة وغير تقليدية مقارنة بالبحث التقليدي. وترى الشركة أن الذكاء الاصطناعي هو تقنية أساسية وتحويلية ستقدم مزايا مساعدة عديدة للأفراد والمجتمعات من خلال قدرتها على تمكينهم وإلهامهم في جميع المجالات، ولديها القدرة في المساهمة لمعالجة أبرز التحديات التي تواجه البشرية. وتؤمن «غوغل» أنه يجب تقديم حلول صحيحة من خلال التعاون جماعياً بين الحكومات والباحثين والمطورين والأفراد والشركات والمنظمات والجهات المشرعة بهدف الحصول على ثقة العموم.


الذكاء الاصطناعي والإنسان... من يهزم من؟

الذكاء الاصطناعي والإنسان... من يهزم من؟
TT

الذكاء الاصطناعي والإنسان... من يهزم من؟

الذكاء الاصطناعي والإنسان... من يهزم من؟

تفتح «الشرق الأوسط»، بدءاً من اليوم، الأبواب المغلقة على عصر الذكاء الاصطناعي الذي يعد «وثبة تكنولوجية» مذهلة من خلال حوارات منفصلة مع كل من العالم المستقبلي مايك والش الذي ألف كتاب «القائد الخوارزمي، كيف تكون ذكياً عندما تصير الآلات أكثر ذكاءً» الأكثر مبيعاً في الولايات المتحدة والعالم، والمدير الإداري لشركة «سوميرو» العملاقة للاستثمار في التكنولوجيا الجديدة عبده جورج قديفة، ومؤلف كتاب «حقيقة الذكاء الاصطناعي ومستقبل البشرية» الشهير الدكتور ستيفن شوارتز، والعالم الأميركي - الفلسطيني الأصل البروفسور منذر دحلة، الذي يدير معهد البيانات والأنظمة والمجتمع في «إم آي تي»، المؤسسة الجامعية المصنفة أولى عالمياً في علوم التكنولوجيا والنائب الأول لرئيس شركة «جينماب» الدنماركية للتكنولوجيا البيولوجية، والمدير العالمي لعلوم البيانات والذكاء الصناعي الدكتور هشام حمادة، ومدير «مجتمع جميل» في «إم آي تي» جورج ريتشاردز، وعضو مجلس أمناء الجامعة الأميركية في بيروت الرئيس التنفيذي لشركة «مجرّة» عبد السلام هيكل.

وهناك إجماع بين هؤلاء على عدم منطقية الدعوة التي أطلقها مؤسس شركتي «تيسلا» و«سبايس أكس» ومالك «تويتر» إيلون ماسك، مع مئات آخرين، لكي تتوقف شركة «أوبن إيه آي» برئاسة سام آلتمان عن تطوير «تشات جي بي تي» والتقنيات المشابهة لستة أشهر.

ويتضمن الملف مقابلة إضافية مع مؤسس شركة «كل التكنولوجيا بشرية»، عضو المجلس الاستشاري للمحتوى في «تيك توك»، ديفيد راين بولغار، عن الشكوك الأخلاقية المحيطة باستخدامات التكنولوجيا الجديدة.

ويثير الفتح الجديد في عالم الذكاء الاصطناعي تساؤلات حول ما إذا كانت هذه التكنولوجيا ستهزم الإنسان أم العكس، وما إذا كانت ستؤدي إلى تحوّل ليس فقط في كل مجالات العمل، بل أيضاً في حياة الناس، كما نعرفها. كل هؤلاء أجابوا على أسئلة بعضها يمكن أن يبدو بسيطاً وساذجاً، مثل «الغش»، وبعضها الآخر مركب ومعقد، مثل احتمال تغلّب الذكاء الاصطناعي يوماً على صانعيه من البشر.


الخبير ديفيد بولغار لـ«الشرق الأوسط»: الذكاء الاصطناعي ليس سحراً ولا يمتلك رغبات خاصة

TT

الخبير ديفيد بولغار لـ«الشرق الأوسط»: الذكاء الاصطناعي ليس سحراً ولا يمتلك رغبات خاصة

يرى بولغار أن المبالغات في التخوف من الذكاء الاصطناعي سببها أننا نميل بشكل طبيعي إلى النظر إليه كبشر (أدوبي ستوك)
يرى بولغار أن المبالغات في التخوف من الذكاء الاصطناعي سببها أننا نميل بشكل طبيعي إلى النظر إليه كبشر (أدوبي ستوك)

في مقابلة أجرتها معه «الشرق الأوسط»، تحدث ديفيد راين بولغار، خبير أخلاقيات الذكاء الاصطناعي ومؤسس شركة «كل التكنولوجيا بشرية» All tech is human وعضو المجلس الاستشاري للمحتوى في «تيك توك»، عن نظم الذكاء الاصطناعي وعن تطوراتها، والشكوك المحيطة باستخداماتها.

>شكراً لوجودك معنا، نسمع كثيراً عن الذكاء الاصطناعي وعن انتشاره في الولايات المتحدة وحول العالم، بالتزامن مع تحذيرات بأنه يشكل خطراً على المجتمع، ما رأيك في هذا؟

- كل التكنولوجيا يمكن أن تكون لديها استعمالات جيدة وأخرى سيئة. الذكاء الاصطناعي كغيره من أنواع التكنولوجيا هو عرضة للانتهاكات من اللاعبين السيئين. وما يجب علينا أن نفكر به من خلال تصميم وتطوير ونشر هذه التقنيات هو كيف نقوم بكل هذا بطريقة مدروسة. نريد أن نتطرق إليها من منظارين: منظار الابتكار، ومنظار التأثير.

ديفيد راين بولغار (غيتي)

هناك أحاديث كثيرة حول الذكاء الاصطناعي خاصة عندما نتحدث عن تقنية مثل برنامج المحادثة الذكي (تشات جي بي تي)، وهذه الأحاديث انتشرت على المواقع الإخبارية بعد رسالة «التحذير» للخبراء التي حصلت على الكثير من الاهتمام الإعلامي. لكن إذا ما نظرنا إلى هذه الرسالة بعمق نرى تركيزاً كبيراً على جانب الابتكار: هل نحن بحاجة لإبطاء ما يحصل في الابتكار للنظر فيما خلقناه؟ هل سيؤثر هذا على مستقبل الديمقراطية والإنسانية؟

نعلم أن تقنيات كالذكاء الاصطناعي ووسائل التواصل الاجتماعي وغيرها تؤثر على الأسلوب الذي نعيش فيه ونتعلم من خلاله ونحب ونموت، صحيح؟ إنها تؤثر على طريقة رؤيتنا للعالم. نحن بتنا ندرك أننا لا نؤثر على تصميم التكنولوجيا فحسب، بل إن التكنولوجيا تؤثر على رؤيتنا للعالم وتصرفاتنا وتواصلنا مع بعضنا البعض.

> لماذا هذه التحذيرات من الذكاء الاصطناعي؟ ما هي مخاطره الفعلية؟

- يجب أن ننظر لهذه التحذيرات من زاوية تشكيكية: عندما يتحدث أحدهم عن مخاطر الذكاء الاصطناعي ما هي دوافعه الشخصية؟ المستغرب هنا هو أن الأشخاص الذين يصممون هذه التقنيات هم نفسهم من يحذرون من تهديدها الوجودي. وأعتقد أن هناك اختلافات كبيرة في مجتمع «الأخلاقيات» المرتبط بالذكاء الاصطناعي حول مخاطره. فهناك معسكران: الأول يركز على التأثير القصير الأمد ويقول إن هناك تمييزا في الذكاء الاصطناعي مشابها لذلك الذي نراه في المجتمع. ومن دون قيود لتأمين سلامته سيكون هناك انتشار للعنصرية مثلاً وغيرها من القضايا.

أما المعسكر الثاني فهو الذي ينتمي إليه إيلون ماسك، الذي يركز على التأثير الطويل الأمد. وسمعنا من أشخاص كإيلون ماسك وستيفين هوكينز أن الذكاء الاصطناعي قد يدمر العالم.

إذن، الفارق بين المعسكرين هو أن الأشخاص في الفئة «الطويلة الأمد» يركزون على نقطة «ماذا يفعل الذكاء الاصطناعي للسيطرة على العالم؟» أما المعسكر الذي يركز على الأخلاقيات فيقول إن تكنولوجيا من هذا النوع لا تسقط علينا من السماء وليس لديها عقل مستقل. إنها ليست شخصاً. بل صممها أشخاص مثلنا وهم منحازون وغير كاملين. إذن نحتاج إلى بيانات أفضل ونحتاج إلى المزيد من الرقابة على هذا الذكاء الاصطناعي.

يجب أن ننظر للتحذيرات من الذكاء الاصطناعي من زاوية تشكيكية... فالمستغرب هنا هو أن الأشخاص الذين يصممون هذه التقنيات هم أنفسهم من يحذرون من تهديدها الوجودي

ديفيد راين بولغار، الخبير في أخلاقيات الذكاء الاصطناعي

> الى أي معسكر تنتمي؟

- أنا أنتمي إلى المعسكر «القصير الأمد» لهذا فإن مؤسستي التي أديرها تحمل اسم: «كل التكنولوجيا بشرية». السبب الذي أدى إلى إطلاق هذا الاسم عليها هو أننا أحياناً نميل إلى التفكير في الذكاء الاصطناعي بتعابير سحرية. إنه ليس سحراً. ليست لديه رغباته الخاصة. لسوء الحظ نستعمل بعض التعابير للحديث عن الذكاء الاصطناعي مثل الـ«هلوسة» مثلاً أو «التعب». ليست هناك هلوسة. الأشخاص يهلوسون. الذكاء الاصطناعي لا يهلوس لأنه ليس إنساناً. نميل بشكل طبيعي إلى النظر إليه من عيون بشرية لأننا بشر ونريد أن نرى الأشياء كبشر. لهذا عندما ننظر إلى حيواناتنا الأليفة مثلاً نراها كشخصيات إنسانية. لهذا عندما ترى الثلج، تبني «رجل ثلج»، قد تقوم بالأمر نفسه مع شجرة مثلاً، صحيح؟ لهذا أنا أنظر إلى مشاكل الذكاء الاصطناعي على أنها تعود إلينا كأشخاص، فيجب أن نضع أطراً للحماية وأن ننوع من طبيعة الأشخاص الذين يشرفون عليها للحرص على أنها مصممة بشكل صحيح يتلاءم مع المصلحة العامة في المستقبل.

> ننتقل هنا إلى مسألة الضوابط. هناك دعوات كثيرة لفرض ضوابط من قبل الكونغرس. هل تعتقد أن هناك حاجة لتدخل الكونغرس في هذه القضية؟

- أعود دوماً لمبدأ الابتكار، إذن الجواب هو نعم. في الكثير من الأوقات ولسوء الحظ ننظر إلى أمر كالذكاء الاصطناعي ونتحدث عنه من منطلق طبيعة العمل أو القدرة الاصطناعية ودور الحكومة ودور الأفراد. إذن عندما تكون هناك مشكلة في (تشات جي بي تي) مثلاً نتحدث عما إذا يمكن للطلاب استعماله لكتابة امتحان مثلاً. هذا أمر متعلق بالشخص لكن هناك أيضاً ما تقوم به شركة «أوبن إيه أي - (Open AI) المنتجة له، ومسؤوليتها كلاعب في هذا المجال، ثم هناك دور الحكومة كالبيت الأبيض مثلاً، ورؤيتها لمستقبل الذكاء الاصطناعي.

إذن هناك ضرورة للنظر إلى الحكومة وضوابطها ومسؤولية الشركات والأفراد في تعرفهم على قوة التكنولوجيا، واتخاذ كل هذه المحاور على محمل الجد والعمل سويا. فهذا ما نفعله في كل أمر في الحياة. عندما أستقل سيارة، أضع حزام أمان لأنها مسؤوليتي الفردية. لكن صانع السيارة لديه مسؤولية تأمين سلامتها وإذا لم يلتزم بهذا ستتم محاسبته. ثم هناك الضوابط التي تضعها الحكومة لمعرفة ما هي معايير السلامة المطلوبة، كما أن الحكومة لديها مسؤولية تأمين سلامة الطرقات.

إذن الأمر مشابه في الذكاء الاصطناعي. وعندما نتساءل: هل هناك حاجة للضوابط، الجواب هو بالطبع هناك حاجة لضوابط ذكية تفهم طبيعة القضايا المطروحة هنا، للحرص على أننا لن ننجر في سياسة التخويف، لأنه من السهل جداً أن ننظر إلى الذكاء الاصطناعي وكأنه «الروبوت المدمرterminator» وهذا أمر بعيد كل البعد عن الذكاء الاصطناعي. أنا لست قلقاً من الروبوتات أنا قلق من التمييز في الذكاء الاصطناعي. وهذه قضية أهم بكثير، لكن لسوء الحظ من الصعب أن يشعر المرء بالحماس فيها لأنك تستطيع أن تتخيل أرنولد شوارزنيغر كالروبوت المدمر. لكنك لا تستطيع أن تتخيل طبيعة التمييز وكيف يمكنه أن يعمق من المشاكل الاجتماعية -كالتوظيف مثلاً- وغيرها من قضايا يؤثر فيها الذكاء الاصطناعي.

يرى بولغار أن المبالغات في التخوف من الذكاء الاصطناعي سببها أننا نميل بشكل طبيعي إلى النظر إليه كبشر (أدوبي ستوك)

> بالحديث عن الروبوتات، أريد أن أسالك عن المنافسة مع الصين في مجال الذكاء الاصطناعي أيضاً. هل يمكنك أن تشرح لنا طبيعة هذه المنافسة؟

- إحدى المسائل هنا هي أن الولايات المتحدة كلاعب أساسي عالمياً في مجال الذكاء الاصطناعي، تواجه نزاعاً بين الحاجة لأن تكون ذكية من حيث الضوابط المفروضة على الذكاء الاصطناعي، وبين المنافسة، على غرار تلك التي وجدت مع الاتحاد السوفياتي السابق. لهذا أعتقد أن هناك حاجة للتعاون، وضرورة وجود تعاون عالمي متعدد بين اللاعبين الأساسيين. ودور الأمم المتحدة مهم في هذا السيناريو. يجب أن نحرص على ألا نشعر بضغط يؤدي إلى إزالة كل الضوابط التي يجب أن تفرض.

بمعنى آخر السعي كي نكون في المقدمة يجب ألا يؤدي إلى خلق شيء غير جاهز للنشر… فيما يتعلق بالولايات المتحدة مقابل الصين، من الواضح أن هناك وضعا جيوسياسيا مضطربا للغاية. يجب ألا تتوقف أميركا عن الابتكار، فهذا ما جعلها ناجحة على مر العقود. أعتقد أن التوتر يكمن في السرعة من دون أن ننسى تأثير هذا على الأشخاص وأن نهمل القيود المطلوبة. إذا ما ركزنا على الابتكار الذي يميز أميركا سوف نتخطى المنافسة مع الصين.

> ذكرت في بداية إجاباتك أن هناك معسكرين، المعسكر الذي يقوده إيلون ماسك والذي يحظى بالكثير من الاهتمام، ويتضمن الكثير من التخويف، لماذا تعارضه الرأي؟

- لأن التخويف هو السيناريو الكلاسيكي للعرقلة، وهو فعال. والدليل الاهتمام الإعلامي به اليوم. لكن ما يفعله هو أنه يرسل رسالة إلى الأفراد العاديين ويقول لهم: «أنتم لا تفهمون هذه التكنولوجيا. إنها معقدة. وحدي أنا أستطيع أن أفهمها ولهذا يجب أن أكون مسؤولاً عن تصميمها». إذن عندما يتم التحذير من أن الذكاء الاصطناعي سوف يسيطر على العالم ويدمر البشرية هذا يجعل الشخص الذي يسمع هذا التحذير أو يرى التغريدة يقول: «لا يمكنني المشاركة في هذا الحوار لأنه يتخطى معرفتي»...

أقول لكل من يضع هذه الهالة حول الذكاء الاصطناعي، هل نواياكم جيدة؟ جوابي هو لا، هم يقومون بهذا لمساعدة موقفهم. لأن ما يقولونه فعلياً هو: «هذا سوف يدمر العالم لهذا يجب أن أسيطر عليه. وهذا أسلوب للقول لكل شخص يشاهد في المنزل ألا يكون جزءاً من الحوار. وأنا أرفض هذه المقاربة كلياً».

> هل تعتقد إذن بناء على ما تقوله بأن الإنسان سيتحكم دوماً بالذكاء الاصطناعي؟

- يجب أن ننظر إلى هذه المسألة بعين المنتقد، إذا كان الذكاء الاصطناعي فعلاً سيدمر العالم إذن لا يجب أن يكون الأشخاص الذين يروجون لذلك هم الأشخاص أنفسهم الذين يبيعونه للأفراد. هذا نوع من فرض للسلطة على هذا المجال. يجب أن نعود دوماً لنقطة أن الذكاء الاصطناعي لم يسقط علينا من السماء، إنه ليس سحرياً. كل التكنولوجيا بشرية. كل التقنيات أتت من عيوبنا الخاصة، إن الأشخاص الذين يصممونه هم الأشخاص الذين يخلقون الحماية من عدمها. من المهم أن نعلم أن كل التقنيات تخضع لنا نحن البشر، ولا يجب أن نقلق من أن الذكاء الاصطناعي سيحولنا إلى حيواناته الأليفة.

أنا أقلق أكثر من ألا يتمكن الشعب من المشاركة في هذا الحوار، وأقلق من ألا يتم دمج قيم الشعب في أنظمة التقنيات هذه. أعتقد أنني أقلق من واقع أن تكون هناك مجموعة صغيرة من المجتمع هي المسؤولة عن تصميم وتطوير ونشر التقنيات التي تؤثر على مجموعة كبيرة من الأشخاص. وألا يكون لهؤلاء الأشخاص رأي في كيفية خلق هذه التقنيات. لا يجب لأي تطبيق أن يكون من دون تمثيل، إن كان الأمر متعلقا بنا يجب أن يشملنا. وإذا كان الذكاء الاصطناعي يؤثر عليك، إذن لديك الحق في التأثير على صنعه. لأنني أرى أن مستقبل الذكاء الاصطناعي والتقنيات المستقبلية مرتبط بمستقبل الديمقراطية ووضع الإنسان. إذن يجب أن نكون كلنا معنيين بمساره.