الاختراقات المستقبلية ستتحقّق بفضل «التفكير المتعدد الذكاء»

بالقوة المشتركة للذكاء البشري والاصطناعي وذكاء الطبيعة

الاختراقات المستقبلية ستتحقّق بفضل «التفكير المتعدد الذكاء»
TT

الاختراقات المستقبلية ستتحقّق بفضل «التفكير المتعدد الذكاء»

الاختراقات المستقبلية ستتحقّق بفضل «التفكير المتعدد الذكاء»

تتزايد التعليقات المتداولة في قنوات الأخبار والمنشورات التجارية والمجلات العلمية حول القوة المشتركة للذكاء البشري والذكاء الاصطناعي. لا شك أن هذا التقارب يسفر بالفعل عن اكتشافات مثيرة في الكثير من المجالات، كما كتب نوبار أفييان (*).

ذكاء الطبيعة: التكيّف المستمر

ومع ذلك، هناك نوع ثالث من الذكاء، بالقدر نفسه من الأهمية، يتمّ استبعاده من المناقشة: ذكاء الطبيعة.

إن فكرة أن الطبيعة نفسها تعرض السمات المميزة لما نفهمه على أنه ذكاء؛ ليست فكرة جديدة، إذ إن للطبيعة القدرة على التعلم، وتشفير ذلك التعلّم في نماذج جديدة أكثر فاعلية، والتكيف المستمر.

الطبيعة كانت مصدر إلهام دافنشي

وقد فهم ليوناردو دافنشي هذا جيداً. كانت الطبيعة معلمه ومصدر إلهامه. لم يفلت أي شيء من مراقبته المكثفة: الماء، والتربة، والنباتات، والطيور. إذ كان إدراك الأنظمة الخفية -القوى والقوانين غير المرئية- التي تحكم كل شيء من عمل جسم الإنسان إلى حركة الأشياء عبر الهواء؛ جزءاً من عبقريته الشمولية.

واليوم، فإننا نبني على حكمة دافنشي عندما نحلل الاتصالات الكيميائية المعقدة للنباتات، وذكاء أسراب الحشرات، وأنماط النقر المعقدة لأغاني الحيتان. لقد أصبحنا ندرك، ببعض التواضع، أن الطبيعة أكثر ذكاءً مما فهمناه نحن البشر على الإطلاق.

ولكن ما بدا أنه أذهل دافنشي أكثر من أي شيء آخر كان الترابطات بين هذه الأنظمة، وعبر التخصصات. فعندما درس جسم الإنسان، أو صمّم الآلات، أو خلق روائع الفن، كان يفعل ذلك بشكل شامل، مستفيداً من نطاق فهمه المتزايد الاتساع، ومنتجاً عملاً أعظم من مجموع أجزائه.

اندماج الذكاء الطبيعي والبشري والآلي

ولم يكن هذا النهج في الابتكار أكثر أهمية أو أكثر إمكانية مما هو عليه اليوم. إن اندماج الذكاء الطبيعي والبشري والآلي -وهو التوليف الذي أسميه «الذكاء المتعدد» (polyintelligence)- يعد بحلول لبعض أكثر مشكلات العالم صعوبة.

والواقع أن هذا الإطار المتكامل قد بدأ بالفعل في إحداث ثورة بالتكنولوجيا الحيوية. فمن تطوير العقاقير إلى البيولوجيا الاصطناعية التوليدية، تمكّن الذكاء المتعدد من تحقيق اختراقات لا يمكن لأي شكل واحد من أشكال الذكاء -أو حتى التقارب بين اثنين- أن يحققها بمفرده.

أبحاث الجينوم والبروتينات

ولنتأمل على سبيل المثال مشروع الجينوم البشري، الذي أكمل رسم خريطة للمخطط الأولي للحمض النووي البشري في عام 2003. وبعد أكثر من عقدين من الزمان، لا يزال هذا الاتحاد بين الطبيعة والذكاء البشري والذكاء الاصطناعي يسفر -من بين أمور أخرى- عن تسلسلات جديدة من الحمض النووي وحمض الريبونووي النووي المرسال من شأنها أن تفتح الباب أمام أدوية جديدة رائدة.

أو لنتأمل كيف يستخدم العلماء الذكاء المتعدد لـ«تعلم لغة» البروتينات، مما يمكننا من صياغة بروتينات جديدة غير موجودة في الطبيعة ذات وظائف علاجية محددة.

وكما تحدّد الكلمات والقواعد النحوية لغة منطوقة، يحلّل الذكاء الاصطناعي كميات هائلة من بيانات البروتين لفهم «القواعد» التي تملي بنية البروتين ووظيفته. وتسمح هذه المعرفة للعلماء بتصميم بروتينات جديدة من خلال كتابة تسلسلات جديدة ضمن الإطار اللغوي للطبيعة، وتجاوز القيود التقليدية، وتطوير علاجات مبتكرة للأمراض المعقدة.

دراسات المناخ والمحاصيل الزراعية

وبعيداً عن الطب الحيوي، فإن التفكير متعدد الذكاء، والأنظمة متعددة الذكاء، والحلول متعددة الذكاء سوف تكون لها تطبيقات أوسع نطاقاً، وأعتقد أنها سوف تتمتع بقوة لا مثيل لها في التخفيف من آثار تغير المناخ، وزيادة المحاصيل الزراعية بطريقة مستدامة، ومعالجة تحديات عالمية معقدة أخرى.

ومرة ​​أخرى، هذا ليس نظرياً. فالذكاء الطبيعي الذي يعزّزه الذكاء الاصطناعي، يُطبق الآن لتسريع العملية التطورية للمحاصيل الأساسية؛ مثل: الذرة، والقمح، وفول الصويا، لتمكينها من النمو في بيئة أكثر حرارة وجفافاً.

الذكاء المتعدد لدعم تحديات الاستدامة

ومن الواضح أن الوعد الذي يحمله الذكاء المتعدد أعظم حتى من آمالنا في الذكاء الاصطناعي. ومن الأهمية بمكان، إذن، أن ندير هذا التحول بفاعلية وحكمة. وينبغي للمبادئ التي نضعها اليوم -والقرارات التي نتخذها فيما يتصل بالحوكمة والأخلاق والتحيز- لاستخدام الذكاء الاصطناعي أن تعزّز هدف تمكين الذكاء المتعدد.

ولتحقيق إمكاناته الكاملة، يتعيّن علينا إعطاء الأولوية للتعاون بين التخصصات المختلفة من خلال تعزيز البحوث متعددة التخصصات ودمج الخبرات المتنوعة عبر القطاعات. ومن خلال توحيد صناع السياسات والعلماء وقادة الصناعة والمدرسين، يمكننا تسخير نقاط القوة الجماعية اللازمة لفهم التحديات الأكثر إلحاحاً في العالم ومعالجتها.

ومن التخطيط للمرونة الحضرية والحفاظ على التنوع البيولوجي إلى تحسين إنتاج الطاقة وتوزيعها، يمكن للذكاء المتعدد أن يحفّز الحلول المستدامة ذات التأثير الواسع النطاق.

الحكم النهائي هو للذكاء المتعدد

وأخيراً وربما الأهم من ذلك، سوف يتطلّب الذكاء المتعدد أيضاً تحولًا في الذكاء البشري. وعلى وجه الخصوص، يتعيّن علينا أن نتوقف عن النظر إلى أنفسنا باعتبارنا الحكم النهائي على ما هو جيد أو صحيح أو ذكي. سواء كنا نتحدث عن الطرق المعقدة والمتغيرة التي يستخدمها الجسم لمقاومة الأمراض، أو دراسة حديثة تظهر أن الخيول قادرة على التفكير بشكل استراتيجي والتخطيط لأفعالها، فيتعيّن علينا أن نتحلى بالتواضع -كما فعل دافنشي، العبقري الحقيقي- لندرك أن قدراً كبيراً من العالم الطبيعي يعمل بما يتجاوز قدرتنا على استيعابه.

إن معرفتنا كانت وستظل دوماً غير مكتملة. ولكنها تتوسع بشكل كبير، بطرق مثيرة، فتعيد تشكيل طبيعة الاكتشاف ذاتها.

* مجلة «فاست كومباني» - خدمات «تريبيون ميديا».


مقالات ذات صلة

بسبب الذكاء الاصطناعي... غيتس يرى أنه لن تكون هناك حاجة للبشر في «معظم الأشياء» بعد عقد

يوميات الشرق الملياردير الأميركي بيل غيتس (أ.ف.ب)

بسبب الذكاء الاصطناعي... غيتس يرى أنه لن تكون هناك حاجة للبشر في «معظم الأشياء» بعد عقد

كشف الملياردير الأميركي بيل غيتس إنه خلال العقد المقبل، ستعني التطورات في مجال الذكاء الاصطناعي أنه لن تكون هناك حاجة للبشر في «معظم الأمور» في العالم.

«الشرق الأوسط» (واشنطن)
خاص تؤدي استراتيجية المدينة الآمنة الشاملة إلى انخفاض ملحوظ في الخسائر البشرية والمادية وتحسين استخدام الموارد وتعزيز جودة الحياة (شاترستوك)

خاص كيف يعيد الذكاء الاصطناعي صياغة مفهوم السلامة الحضرية للمدن؟

يعزز الذكاء الاصطناعي السلامة الحضرية في المدن من خلال تحسين إدارة المرور وتعزيز الأمن العام والاستجابة للطوارئ.

نسيم رمضان (لندن)
علوم لضمان الهيمنة الأميركية: شركات الذكاء الاصطناعي تتراجع عن تعهدات السلامة

لضمان الهيمنة الأميركية: شركات الذكاء الاصطناعي تتراجع عن تعهدات السلامة

توجيهات حكومية جديدة للعلماء حذفت فيها عبارة «سلامة الذكاء الاصطناعي»، ومسؤوليته، وعدالة الذكاء الاصطناعي.

«الشرق الأوسط» (واشنطن)
علوم التنافس بين الصين وأميركا في مجال الذكاء الاصطناعي... متعدد الأوجه

التنافس بين الصين وأميركا في مجال الذكاء الاصطناعي... متعدد الأوجه

الريادة التكنولوجية لا يمكن تحديدها فقط من خلال التفوق الحالي لأي بنية معمارية واحدة للذكاء الاصطناعي، وتعاون الصين وأميركا يسهم في تشكيل مشهد مسؤول ومبتكر.

«الشرق الأوسط» (واشنطن)
علوم أكثر 10 وظائف مقاومة للذكاء الاصطناعي

أكثر 10 وظائف مقاومة للذكاء الاصطناعي

المحامون والأطباء ثم المديرون في الصدارة

«الشرق الأوسط» (واشنطن)

لضمان الهيمنة الأميركية: شركات الذكاء الاصطناعي تتراجع عن تعهدات السلامة

لضمان الهيمنة الأميركية: شركات الذكاء الاصطناعي تتراجع عن تعهدات السلامة
TT

لضمان الهيمنة الأميركية: شركات الذكاء الاصطناعي تتراجع عن تعهدات السلامة

لضمان الهيمنة الأميركية: شركات الذكاء الاصطناعي تتراجع عن تعهدات السلامة

«بنت الشركات التي تتسابق للسيطرة على مستقبل الذكاء الاصطناعي تقنياتها وأعمالها من خلال تتبعك، وبياناتك، بعناية. لكنها لا تفضل أن تتابعها أنت، وتحديداً لا تفضل أن يتابع المستخدمون الطرق التي تُعدّل بها التزاماتها الأخلاقية والخصوصية الطوعية - وهي بعض الضمانات القليلة التي تهدف إلى الحفاظ على مستقبل الذكاء الاصطناعي آمناً»، كما كتبت جاكي سنو(*).

الهيمنة الأميركية تفكك حواجز السلامة

مع سعي إدارة الرئيس ترمب الدؤوب لتفكيك حواجز السلامة لتعزيز «الهيمنة الأميركية» في مجال الذكاء الاصطناعي، وتفكيك الشركات لفرق السلامة التابعة لها، وقع على عاتق منظمة غير ربحية صغيرة ذات موارد محدودة مسؤولية تتبع كيفية تعديل هذه الشركات التي تبلغ قيمتها تريليونات الدولارات لسياساتها والوفاء بالتزاماتها الأخلاقية.

مشروع يراقب 16 شركة رائدة

أصبح تايلر جونستون ومجموعته، مشروع ميداس Midas Project، بمثابة «إدارة إطفاء» رقمية تعمل بمفردها، في محاولة لرصد «غابة من الحرائق المحتملة». وأُطلق مشروع «برج مراقبة سلامة الذكاء الاصطناعي» AI Safety Watchtower التابع للمنظمة غير الربحية في منتصف عام 2024، وهو يتتبع الآن 16 شركة - بما في ذلك «أوبن إيه آي غوغل» و«أنثروبيك» - لمراقبة مئات من وثائق السياسات وصفحات الويب بحثاً عن أي تغييرات في عملها.

يقول جونستون: «لو كان لدى كل شركة ذكاء اصطناعي، سجل بالتغييرات، لما كان هذا العمل ضرورياً. بل كان سيمثل أقصى درجات الشفافية. ولكن بدلاً من ذلك، يقع على عاتق المنظمات غير الربحية والصحافيين مسؤولية مراقبة هذا الأمر، ولا أحد يمتلك المعدات الكافية لالتقاط كل شيء».

إزالة معايير سلامة ومسؤولية الذكاء الاصطناعي

تأتي مخاوف جونستون بشأن التزامات السلامة المتخلى عنها في الوقت الذي تعمل فيه إدارة ترمب بنشاط على تفكيك حواجز سلامة الذكاء الاصطناعي. في يومه الثاني في منصبه هذه الفترة، وقّع ترمب أمراً تنفيذياً يلغي أمر الرئيس السابق بايدن بشأن سلامة الذكاء الاصطناعي لعام 2023، ويستبدل به أمراً يركز على «الهيمنة الأميركية» في مجال الذكاء الاصطناعي. وفي مارس (آذار)، أصدر المعهد الوطني للمعايير والتكنولوجيا توجيهات جديدة للعلماء في معهد سلامة الذكاء الاصطناعي، حذفت فيها عبارة «سلامة الذكاء الاصطناعي، ومسؤوليته، وعدالة الذكاء الاصطناعي».

في حين اتخذت ولايات مختلفة خطوات لإقرار لوائح تنظيمية للذكاء الاصطناعي، وقُدّمت مشاريع قوانين في الكونغرس الأميركي، لا توجد حتى الآن قواعد اتحادية تُنظّم استخدام هذه التقنية تحديداً. وفي الأسابيع الأخيرة، طلب مكتب الرئيس ترمب لسياسة العلوم والتكنولوجيا تعليقات عامة من الشركات والأكاديميين وغيرهم بشأن «خطة عمل الذكاء الاصطناعي» المُرتقبة؛ ومن غير المُستغرب أن يُطالب وادي السيليكون بلمسة تنظيمية مُبسّطة.

ومع نحو 1500 مُتابع عبر حسابين على موقع «إكس»، يُدير جونستون مشروع ميداس بدوام كامل. وتُدار المجموعة بميزانية محدودة، لذا فهو يُجري الكثير من الأعمال بنفسه حالياً، بمساعدة بعض المتطوعين.

لا يُدعم جونستون بمليارات الدولارات من رأس المال الاستثماري أو التمويل الحكومي، ويعتمد فقط على العزيمة وأداة بسيطة لاستخراج بيانات الإنترنت تكتشف متى تُلغي الشركات بهدوء وعودها بعدم بناء روبوتات قاتلة أو تمكين تطوير أسلحة بيولوجية.

رصد 30 تغييراً في المعايير

حتى الآن، وثّقت منظمة «برج المراقبة» نحو 30 تغييراً مهماً، مُصنّفةً إياها حسب الوسوم: رئيس، طفيف، وغير مُعلن. أولها هو التعديل «الطفيف» الذي أجرته شركة «أوبن إيه آي» على «قيمها الأساسية» في أكتوبر (تشرين الأول) 2023 ـ إذ أزالت مبدأ مثل «التوجهات المستخلصة من التأثيرات» impact - driven الخاصة بالذكاء الاصطناعي، والتي كانت تُؤكد على أن الموظفين «يهتمون بشدة بالآثار الواقعية» (للأدوات الذكية)، واستبدلت بها قيماً مثل «التركيز على الذكاء الاصطناعي العام» AGI focus.

ورصدت منظمة برج مراقبة الذكاء الاصطناعي تغييراً «طفيفاً» آخر في السياسة من شركة «ميتا» في يونيو (حزيران) 2024، عندما أوضحت صراحةً أنها تستطيع استخدام بيانات من «فيسبوك» و«واتساب» و«إنستغرام» لتغيير نموذجها.

كما أشارت منظمة برج المراقبة إلى تغيير «كبير» أجرته «غوغل» الشهر الماضي عندما أصدرت الشركة نسخة جديدة من إطار عمل السلامة الجبهوية Frontier Safety Framework. وكشف تحليل جونستون عن تعديلات مثيرة للقلق: فقد أُزيلت مخاطر استقلالية النموذج واستُبدل بها «مخاطر التوافق» غير المحددة بوضوح، والجدير بالذكر أن الشركة أضافت صياغةً تُشير إلى أنها لن تتبع إطار عملها، إلا إذا اعتمد المنافسون تدابير مماثلة.

في بعض الأحيان، استجابت الشركات لتنبيهات جونستون. لا يزال وضع هذه الالتزامات في ظل إدارة ترمب غير واضح. كانت هذه الالتزامات وعوداً مستقلة قدمتها الشركات للبيت الأبيض في عهد بايدن وللجمهور بشأن إدارة مخاطر الذكاء الاصطناعي، مما يعني أنها لا ينبغي أن تتأثر بالأمر التنفيذي لترمب الذي يلغي سياسات بايدن المتعلقة بالذكاء الاصطناعي.

أكد العديد من الشركات، بما في ذلك «نيفيديا» وغيرها، أنها لا تزال ملتزمة بالالتزامات بعد الانتخابات، ووفقاً لموقع «FedScoop» أعادت «أنثروبيك» الإشارة إلى موقعها الإلكتروني في النهاية، لكنها أضافت إخلاء مسؤولية مثير للاهتمام: «ورغم أن هذه الالتزامات المحددة لم تعد سارية رسمياً في ظل إدارة الرئيس ترمب، فإن مؤسستنا لا تزال ملتزمة بجميع هذه المبادئ».

تراجع الشركات: الدخول إلى الميدان العسكري

إنّ التحول الأهم الذي وثّقه جونستون هو تراجع شركات الذكاء الاصطناعي عن مواقفها السابقة تجاه الدخول إلى الميدان العسكري. ووفقاً لجونستون، كان تراجع «أوبن إيه آي» محسوباً بشكل خاص -فقد صُمّم في البداية على أنه توجه للمساعدة في منع انتحار المحاربين القدامى ودعم الأمن السيبراني للبنتاغون. ووصفت الشركة النقاد بقسوة القلب لتشكيكهم في هذا العمل، ولكن بحلول نوفمبر (تشرين الثاني) 2024، كانت لشركة «OpenAI» طائرات من دون طيار ذاتية القيادة، فيما وصفه جونستون باستراتيجية تقليدية للدخول في هذا الميدان. وحذت «غوغل» حذوها في وقت سابق من هذا العام، حيث ألغت قيودها على العمل في الميدان العسكري.

يقول جونستون: «بدأ الكثير منهم يشعرون حقاً بديناميكية سباق الذكاء الاصطناعي العالمي. إنهم يقولون: حسناً، علينا القيام بذلك لأنه إذا لم نعمل مع الجيوش، فإن الجهات الفاعلة الأقل دقة (منا) ستفعل ذلك».

مواقف أخلاقية تُعاد صياغتها

يُعدّ التحوّل العسكري مثالاً واحداً فقط على كيفية إعادة شركات الذكاء الاصطناعي صياغة مواقفها الأخلاقية. نشرت شركة «أوبن إيه آي» أخيراً وثيقةً تُحدد فلسفتها بشأن سلامة الذكاء الاصطناعي، مُدّعيةً أنها تجاوزت نهج «النشر التدريجي» الأكثر حذراً الذي اتبعته مع GPT - 2 في عام 2019، عندما امتنعت في البداية عن إصداره مُتعللةً بمخاوف تتعلق بالسلامة.

نقض التعهدات

يتجاوز نمط التغييرات قواعد وسياسات الشركات نفسها. في فبراير (شباط) الماضي، أطلق فريق جونستون «متتبع سيول» «Seoul Tracker» لتقييم مدى التزام الشركات بالوعود التي قطعتها في قمة سلامة الذكاء الاصطناعي لعام 2024 في مدينة سيول. كانت النتائج مُخيبة للآمال: تجاهل الكثيرون ببساطة الموعد النهائي المحدد في فبراير لاعتماد سياسات التوسع المسؤولة، بينما طبق آخرون سياسات جوفاء بالكاد تُشبه ما وعدوا به.

باستخدام نظام تقييم قائم على الدرجات، استناداً إلى الأدلة العامة على التنفيذ في خمسة مجالات التزام رئيسة، منح «متتبع سيول» شركة «أنثروبيك» أعلى درجة، وهي B -، بينما حصلت شركات، بما في ذلك «Iآي بي إم» و«Inflection AI» و«Mistral AI»، على درجات رسوب F لعدم تقديمها أي دليل عام على وفائها بالتزاماتها.

يقول جونستون: «إنه لأمرٌ غريبٌ بالنسبة لي. كانت هذه وعوداً قطعوها ليس فقط على بعض صفحات الويب، بل لحكومتي المملكة المتحدة وكوريا الجنوبية».

اهتمامات المؤيدين والمعادين

لعل أكثر ما يُظهر تأثير عمل جونستون هو من هم الأشخاص الذين يُولون اهتماماً له. فبينما يُكافح مشروع ميداس للحصول على 500 توقيع على عرائض تُطالب شركات الذكاء الاصطناعي بأخذ الأمن على محمل الجد، ولا يزال عدد مُتابعيه مُتواضعاً نسبياً، فإن هؤلاء المُتابعين يشملون العديد من مشاهير الذكاء الاصطناعي، والجهات الرقابية، والمُبلغين عن المخالفات.

حتى أن أحد مُستشاري ترمب في البيت الأبيض لشؤون الذكاء الاصطناعي تابع الحساب أخيراً. وهذا ما دفع جونستون إلى التساؤل عمّا إذا كان المسؤولون الحكوميون ينظرون إلى هذه الانتكاسات الأخلاقية على أنها تقدّمٌ، وليست مشكلات. ويقول: «أنا قلقٌ للغاية من أنه يُتابع الأمر كما لو كان يُشجعه، ويرى التغييرات انتصاراتٍ بينما تتخلى هذه الشركات عن التزاماتها».

* مجلة «فاست كومباني» خدمات «تريبيون ميديا»