لضمان الهيمنة الأميركية: شركات الذكاء الاصطناعي تتراجع عن تعهدات السلامة

هيئة رقابية تطوعية جديدة ترصد مؤشراتها

لضمان الهيمنة الأميركية: شركات الذكاء الاصطناعي تتراجع عن تعهدات السلامة
TT

لضمان الهيمنة الأميركية: شركات الذكاء الاصطناعي تتراجع عن تعهدات السلامة

لضمان الهيمنة الأميركية: شركات الذكاء الاصطناعي تتراجع عن تعهدات السلامة

«بنت الشركات التي تتسابق للسيطرة على مستقبل الذكاء الاصطناعي تقنياتها وأعمالها من خلال تتبعك، وبياناتك، بعناية. لكنها لا تفضل أن تتابعها أنت، وتحديداً لا تفضل أن يتابع المستخدمون الطرق التي تُعدّل بها التزاماتها الأخلاقية والخصوصية الطوعية - وهي بعض الضمانات القليلة التي تهدف إلى الحفاظ على مستقبل الذكاء الاصطناعي آمناً»، كما كتبت جاكي سنو(*).

الهيمنة الأميركية تفكك حواجز السلامة

مع سعي إدارة الرئيس ترمب الدؤوب لتفكيك حواجز السلامة لتعزيز «الهيمنة الأميركية» في مجال الذكاء الاصطناعي، وتفكيك الشركات لفرق السلامة التابعة لها، وقع على عاتق منظمة غير ربحية صغيرة ذات موارد محدودة مسؤولية تتبع كيفية تعديل هذه الشركات التي تبلغ قيمتها تريليونات الدولارات لسياساتها والوفاء بالتزاماتها الأخلاقية.

مشروع يراقب 16 شركة رائدة

أصبح تايلر جونستون ومجموعته، مشروع ميداس Midas Project، بمثابة «إدارة إطفاء» رقمية تعمل بمفردها، في محاولة لرصد «غابة من الحرائق المحتملة». وأُطلق مشروع «برج مراقبة سلامة الذكاء الاصطناعي» AI Safety Watchtower التابع للمنظمة غير الربحية في منتصف عام 2024، وهو يتتبع الآن 16 شركة - بما في ذلك «أوبن إيه آي غوغل» و«أنثروبيك» - لمراقبة مئات من وثائق السياسات وصفحات الويب بحثاً عن أي تغييرات في عملها.

يقول جونستون: «لو كان لدى كل شركة ذكاء اصطناعي، سجل بالتغييرات، لما كان هذا العمل ضرورياً. بل كان سيمثل أقصى درجات الشفافية. ولكن بدلاً من ذلك، يقع على عاتق المنظمات غير الربحية والصحافيين مسؤولية مراقبة هذا الأمر، ولا أحد يمتلك المعدات الكافية لالتقاط كل شيء».

إزالة معايير سلامة ومسؤولية الذكاء الاصطناعي

تأتي مخاوف جونستون بشأن التزامات السلامة المتخلى عنها في الوقت الذي تعمل فيه إدارة ترمب بنشاط على تفكيك حواجز سلامة الذكاء الاصطناعي. في يومه الثاني في منصبه هذه الفترة، وقّع ترمب أمراً تنفيذياً يلغي أمر الرئيس السابق بايدن بشأن سلامة الذكاء الاصطناعي لعام 2023، ويستبدل به أمراً يركز على «الهيمنة الأميركية» في مجال الذكاء الاصطناعي. وفي مارس (آذار)، أصدر المعهد الوطني للمعايير والتكنولوجيا توجيهات جديدة للعلماء في معهد سلامة الذكاء الاصطناعي، حذفت فيها عبارة «سلامة الذكاء الاصطناعي، ومسؤوليته، وعدالة الذكاء الاصطناعي».

في حين اتخذت ولايات مختلفة خطوات لإقرار لوائح تنظيمية للذكاء الاصطناعي، وقُدّمت مشاريع قوانين في الكونغرس الأميركي، لا توجد حتى الآن قواعد اتحادية تُنظّم استخدام هذه التقنية تحديداً. وفي الأسابيع الأخيرة، طلب مكتب الرئيس ترمب لسياسة العلوم والتكنولوجيا تعليقات عامة من الشركات والأكاديميين وغيرهم بشأن «خطة عمل الذكاء الاصطناعي» المُرتقبة؛ ومن غير المُستغرب أن يُطالب وادي السيليكون بلمسة تنظيمية مُبسّطة.

ومع نحو 1500 مُتابع عبر حسابين على موقع «إكس»، يُدير جونستون مشروع ميداس بدوام كامل. وتُدار المجموعة بميزانية محدودة، لذا فهو يُجري الكثير من الأعمال بنفسه حالياً، بمساعدة بعض المتطوعين.

لا يُدعم جونستون بمليارات الدولارات من رأس المال الاستثماري أو التمويل الحكومي، ويعتمد فقط على العزيمة وأداة بسيطة لاستخراج بيانات الإنترنت تكتشف متى تُلغي الشركات بهدوء وعودها بعدم بناء روبوتات قاتلة أو تمكين تطوير أسلحة بيولوجية.

رصد 30 تغييراً في المعايير

حتى الآن، وثّقت منظمة «برج المراقبة» نحو 30 تغييراً مهماً، مُصنّفةً إياها حسب الوسوم: رئيس، طفيف، وغير مُعلن. أولها هو التعديل «الطفيف» الذي أجرته شركة «أوبن إيه آي» على «قيمها الأساسية» في أكتوبر (تشرين الأول) 2023 ـ إذ أزالت مبدأ مثل «التوجهات المستخلصة من التأثيرات» impact - driven الخاصة بالذكاء الاصطناعي، والتي كانت تُؤكد على أن الموظفين «يهتمون بشدة بالآثار الواقعية» (للأدوات الذكية)، واستبدلت بها قيماً مثل «التركيز على الذكاء الاصطناعي العام» AGI focus.

ورصدت منظمة برج مراقبة الذكاء الاصطناعي تغييراً «طفيفاً» آخر في السياسة من شركة «ميتا» في يونيو (حزيران) 2024، عندما أوضحت صراحةً أنها تستطيع استخدام بيانات من «فيسبوك» و«واتساب» و«إنستغرام» لتغيير نموذجها.

كما أشارت منظمة برج المراقبة إلى تغيير «كبير» أجرته «غوغل» الشهر الماضي عندما أصدرت الشركة نسخة جديدة من إطار عمل السلامة الجبهوية Frontier Safety Framework. وكشف تحليل جونستون عن تعديلات مثيرة للقلق: فقد أُزيلت مخاطر استقلالية النموذج واستُبدل بها «مخاطر التوافق» غير المحددة بوضوح، والجدير بالذكر أن الشركة أضافت صياغةً تُشير إلى أنها لن تتبع إطار عملها، إلا إذا اعتمد المنافسون تدابير مماثلة.

في بعض الأحيان، استجابت الشركات لتنبيهات جونستون. لا يزال وضع هذه الالتزامات في ظل إدارة ترمب غير واضح. كانت هذه الالتزامات وعوداً مستقلة قدمتها الشركات للبيت الأبيض في عهد بايدن وللجمهور بشأن إدارة مخاطر الذكاء الاصطناعي، مما يعني أنها لا ينبغي أن تتأثر بالأمر التنفيذي لترمب الذي يلغي سياسات بايدن المتعلقة بالذكاء الاصطناعي.

أكد العديد من الشركات، بما في ذلك «نيفيديا» وغيرها، أنها لا تزال ملتزمة بالالتزامات بعد الانتخابات، ووفقاً لموقع «FedScoop» أعادت «أنثروبيك» الإشارة إلى موقعها الإلكتروني في النهاية، لكنها أضافت إخلاء مسؤولية مثير للاهتمام: «ورغم أن هذه الالتزامات المحددة لم تعد سارية رسمياً في ظل إدارة الرئيس ترمب، فإن مؤسستنا لا تزال ملتزمة بجميع هذه المبادئ».

تراجع الشركات: الدخول إلى الميدان العسكري

إنّ التحول الأهم الذي وثّقه جونستون هو تراجع شركات الذكاء الاصطناعي عن مواقفها السابقة تجاه الدخول إلى الميدان العسكري. ووفقاً لجونستون، كان تراجع «أوبن إيه آي» محسوباً بشكل خاص -فقد صُمّم في البداية على أنه توجه للمساعدة في منع انتحار المحاربين القدامى ودعم الأمن السيبراني للبنتاغون. ووصفت الشركة النقاد بقسوة القلب لتشكيكهم في هذا العمل، ولكن بحلول نوفمبر (تشرين الثاني) 2024، كانت لشركة «OpenAI» طائرات من دون طيار ذاتية القيادة، فيما وصفه جونستون باستراتيجية تقليدية للدخول في هذا الميدان. وحذت «غوغل» حذوها في وقت سابق من هذا العام، حيث ألغت قيودها على العمل في الميدان العسكري.

يقول جونستون: «بدأ الكثير منهم يشعرون حقاً بديناميكية سباق الذكاء الاصطناعي العالمي. إنهم يقولون: حسناً، علينا القيام بذلك لأنه إذا لم نعمل مع الجيوش، فإن الجهات الفاعلة الأقل دقة (منا) ستفعل ذلك».

مواقف أخلاقية تُعاد صياغتها

يُعدّ التحوّل العسكري مثالاً واحداً فقط على كيفية إعادة شركات الذكاء الاصطناعي صياغة مواقفها الأخلاقية. نشرت شركة «أوبن إيه آي» أخيراً وثيقةً تُحدد فلسفتها بشأن سلامة الذكاء الاصطناعي، مُدّعيةً أنها تجاوزت نهج «النشر التدريجي» الأكثر حذراً الذي اتبعته مع GPT - 2 في عام 2019، عندما امتنعت في البداية عن إصداره مُتعللةً بمخاوف تتعلق بالسلامة.

نقض التعهدات

يتجاوز نمط التغييرات قواعد وسياسات الشركات نفسها. في فبراير (شباط) الماضي، أطلق فريق جونستون «متتبع سيول» «Seoul Tracker» لتقييم مدى التزام الشركات بالوعود التي قطعتها في قمة سلامة الذكاء الاصطناعي لعام 2024 في مدينة سيول. كانت النتائج مُخيبة للآمال: تجاهل الكثيرون ببساطة الموعد النهائي المحدد في فبراير لاعتماد سياسات التوسع المسؤولة، بينما طبق آخرون سياسات جوفاء بالكاد تُشبه ما وعدوا به.

باستخدام نظام تقييم قائم على الدرجات، استناداً إلى الأدلة العامة على التنفيذ في خمسة مجالات التزام رئيسة، منح «متتبع سيول» شركة «أنثروبيك» أعلى درجة، وهي B -، بينما حصلت شركات، بما في ذلك «Iآي بي إم» و«Inflection AI» و«Mistral AI»، على درجات رسوب F لعدم تقديمها أي دليل عام على وفائها بالتزاماتها.

يقول جونستون: «إنه لأمرٌ غريبٌ بالنسبة لي. كانت هذه وعوداً قطعوها ليس فقط على بعض صفحات الويب، بل لحكومتي المملكة المتحدة وكوريا الجنوبية».

اهتمامات المؤيدين والمعادين

لعل أكثر ما يُظهر تأثير عمل جونستون هو من هم الأشخاص الذين يُولون اهتماماً له. فبينما يُكافح مشروع ميداس للحصول على 500 توقيع على عرائض تُطالب شركات الذكاء الاصطناعي بأخذ الأمن على محمل الجد، ولا يزال عدد مُتابعيه مُتواضعاً نسبياً، فإن هؤلاء المُتابعين يشملون العديد من مشاهير الذكاء الاصطناعي، والجهات الرقابية، والمُبلغين عن المخالفات.

حتى أن أحد مُستشاري ترمب في البيت الأبيض لشؤون الذكاء الاصطناعي تابع الحساب أخيراً. وهذا ما دفع جونستون إلى التساؤل عمّا إذا كان المسؤولون الحكوميون ينظرون إلى هذه الانتكاسات الأخلاقية على أنها تقدّمٌ، وليست مشكلات. ويقول: «أنا قلقٌ للغاية من أنه يُتابع الأمر كما لو كان يُشجعه، ويرى التغييرات انتصاراتٍ بينما تتخلى هذه الشركات عن التزاماتها».

* مجلة «فاست كومباني» خدمات «تريبيون ميديا»


مقالات ذات صلة

«كاسبرسكي» لـ«الشرق الأوسط»: مخاوف «أنثروبيك» تعكس تحولاً أوسع بالمخاطر السيبرانية

خاص تكشف المخاوف المرتبطة بنموذج «أنثروبيك» عن تحول أوسع في المخاطر السيبرانية (رويترز)

«كاسبرسكي» لـ«الشرق الأوسط»: مخاوف «أنثروبيك» تعكس تحولاً أوسع بالمخاطر السيبرانية

تكشف مخاوف «أنثروبيك» تحولاً أوسع حول إعادة الذكاء الاصطناعي تشكيل المخاطر السيبرانية على البنوك ما يوسع الهجوم والدفاع معاً بسرعة

نسيم رمضان (لندن)
تكنولوجيا مؤيدو الذكاء الاصطناعي يرون أنه يحمل إمكانات هائلة لإحداث ثورة في الطب (رويترز)

خبراء يُحذرون: الذكاء الاصطناعي يكشف عن طرق خطيرة لتطوير أسلحة بيولوجية

في وقت يتسارع فيه تطوّر تقنيات الذكاء الاصطناعي بوتيرة غير مسبوقة، تزيد المخاوف بشأن إساءة استخدام هذه الأدوات في مجالات حساسة وخطيرة.

«الشرق الأوسط» (واشنطن)
الولايات المتحدة​ الصورة التي نشرها ترمب على منصة «تروث سوشيال»

«انتهى زمن الرجل اللطيف»... ترمب يهدد إيران بصورة مُولّدة بالذكاء الاصطناعي

وجّه الرئيس الأميركي رسالة تحذيرية إلى إيران عبر منصة «تروث سوشيال»، مرفقة بصورة مولّدة بالذكاء الاصطناعي يظهر فيها وهو يحمل سلاحاً وخلفه انفجارات.

«الشرق الأوسط» (واشنطن)
تكنولوجيا معالج "غرافيتون5"

«ميتا» توقع اتفاقية مع «أمازون ويب سيرفيسز» لتشغيل الذكاء الاصطناعي الوكيل

لتطوير جيل جديد من الأدوات الذكية والخدمات المبتكرة للمستخدمين

خلدون غسان سعيد (جدة)
تكنولوجيا برنامج ذكاء اصطناعي... يتنبأ بترقيتك المقبلة

برنامج ذكاء اصطناعي... يتنبأ بترقيتك المقبلة

يرصد الموظفين ذوي الإمكانات العالية قبل إشغال المنصب بثلاث إلى خمس سنوات

«الشرق الأوسط» (واشنطن)

«دودة الزومبي» تعود إلى الحياة بعد 24 ألف عام... وتبدأ بالتكاثر

«دودة الزومبي» حيوان مجهري متعدد الخلايا (أرشيفية - أ.ف.ب)
«دودة الزومبي» حيوان مجهري متعدد الخلايا (أرشيفية - أ.ف.ب)
TT

«دودة الزومبي» تعود إلى الحياة بعد 24 ألف عام... وتبدأ بالتكاثر

«دودة الزومبي» حيوان مجهري متعدد الخلايا (أرشيفية - أ.ف.ب)
«دودة الزومبي» حيوان مجهري متعدد الخلايا (أرشيفية - أ.ف.ب)

استخرج العلماء حيواناً مجهرياً أطلقوا عليه اسم «دودة الزومبي» من التربة الصقيعية في سيبيريا، ثم قاموا بإذابة الصقيع، وراقبوا الحيوان وهو يستيقظ ويتكاثر.

ووفق ما ذكره موقع «فايس»، كان هذا الكائن متجمداً منذ أواخر العصر البليستوسيني، حين كان الماموث الصوفي لا يزال موجوداً. ودخل في سبات دام نحو 24 ألف عام، ثم «عاد وكأن شيئاً لم يكن».

هذا الكائن هو «دوارة بديلويدية»، وهي حيوان متعدد الخلايا صغير الحجم، يبلغ طوله نحو نصف مليمتر، ويوجد عادة في بيئات المياه العذبة. وهي معروفة بين العلماء بقدرتها شبه المطلقة على البقاء، إذ تنجو من الإشعاع والجفاف والبرد القارس ونقص الأكسجين.

وقام باحثون من مختبر بقايا التربة الروسي بالحفر إلى عمق نحو 3.5 متر في منطقة نهر ألازيا بشمال شرقي سيبيريا، واستخرجوا «عينة لُبية»، وقاموا بتأريخها بالكربون المشع، فوجدوا أن عمرها يتراوح بين 23 ألفاً و960 عاماً و24 ألفاً و485 عاماً. ثم قاموا بإذابتها.

ولم يقتصر الأمر على عودة الدوارة للحركة، بل تكاثرت لا جنسياً أيضاً، مُنتجة المزيد منها. لقد استنسخت نفسها. وبالكاد أتيحت للعلماء فرصة تحديد الكائنات القديمة والنسل الجديد قبل أن يتزايد عددها.

وتُعرف آلية البقاء التي لجأ إليها الكائن باسم «السبات الخفي»، وهي حالة ينخفض ​​فيها النشاط الأيضي إلى الصفر تقريباً؛ حيث يدخل الكائن الحي في نوع من السكون البيولوجي (ليس ميتاً ولا حياً بأي شكل من الأشكال)، بل في حالة انتظار.

ويُعلق هذا الكائن عملية الأيض ويُراكم مركبات معينة، مثل البروتينات المرافقة، التي تُساعده على التعافي من السبات الخفي عندما تتحسن الظروف، كما صرّح الباحث الرئيسي للدراسة في مختبر بقايا التربة، ستاس مالافين.

وقال مالافين: «يُعدّ تقريرنا أقوى دليل حتى الآن على قدرة الحيوانات متعددة الخلايا على البقاء لعشرات آلاف السنين في حالة السبات الخفي، وهي حالة توقف شبه كامل لعملية الأيض».

وما يجعل هذا الاكتشاف إنجازاً كبيراً هو مدى تعقيد «دودة الزومبي». وسبق أن تمت إعادة كائنات وحيدة الخلية من الجليد. أمّا حيوان متعدد الخلايا ذو جهاز هضمي وجهاز عصبي بدائي نجا من 24 ألف عام وهو متجمد تماماً، فهو أمر مختلف تماماً.

وكان الحد الأقصى المعروف سابقاً لبقاء الدوارات البدائية في حالة الخمول البيولوجي يتراوح بين 6 و10 سنوات. أما الاكتشاف الجديد فيماثل نحو 2400 ضعف المدة السابقة.

وهناك جانب آخر مثير هنا. فمع ذوبان التربة الصقيعية بوتيرة متسارعة، بدأت الميكروبات والبكتيريا والفيروسات القديمة، التي ظلت حبيسة الجليد لآلاف السنين، بالخروج. ولم يُربط أي من الفيروسات الذائبة التي دُرست حتى الآن بأمراض بشرية، لكن العلماء يراقبون الوضع من كثب.


التكلفة وصعوبة التعلُّم والثقة... أهم معوقات التوسع في توظيف الذكاء الاصطناعي

التكلفة وصعوبة التعلُّم والثقة... أهم معوقات التوسع في توظيف الذكاء الاصطناعي
TT

التكلفة وصعوبة التعلُّم والثقة... أهم معوقات التوسع في توظيف الذكاء الاصطناعي

التكلفة وصعوبة التعلُّم والثقة... أهم معوقات التوسع في توظيف الذكاء الاصطناعي

لم تعد الشركات الصغيرة مسرح تجارب للذكاء الاصطناعي؛ بل أصبحت تدمجه بنشاط في عملياتها اليومية. وفي كثير من الحالات، تعتمد عليه للحفاظ على قدرتها التنافسية، كما كتبت إليزابيث غور*.

استطلاع جديد

كيف تستخدم الشركات الصغيرة الذكاء الاصطناعي فعلياً؟ تؤكد بيانات جديدة من استطلاع «مين ستريت رايزينغ تور» Main Street Rising Tour survey الذي أجرته شركة «هيلو أليس» بالشراكة مع «باي بال» و«غوغل»، مدى سرعة هذا التحول والتحديات التي لا تزال قائمة.

وحسب البحث:

- الحماس للذكاء الاصطناعي: أعرب 81 في المائة من أصحاب المشاريع الصغيرة عن ذلك.

- الاستخدام اليومي: أفاد 47 في المائة فقط باستخدامه بشكل يومي.

- عامل حاسم: يتوقع 51 في المائة منهم أن يكون الذكاء الاصطناعي عاملاً حاسماً في أعمالهم خلال العامين المقبلين، ما يعكس تحولاً أوسع من مجرد الفضول إلى الاعتماد عليه على المدى الطويل.

أسباب استخدام الذكاء الاصطناعي

وقد بدأ هذا التبني يُترجم بالفعل إلى تغييرات تشغيلية ملموسة؛ إذ أفاد أصحاب المشاريع الصغيرة باستخدام الذكاء الاصطناعي لأسباب متنوعة:

- للمحتوى التسويقي: 73.2 في المائة.

- للبحوث: 67.3 في المائة.

- للأنظمة التشغيلية: 39.4 في المائة.

ولا تقتصر هذه الاستخدامات على كونها إضافات لتسهيل العمل فحسب؛ بل وأيضاً:

- العمل بكفاءة أكبر: قال 70 في المائة من المشاركين في الاستطلاع، إن الذكاء الاصطناعي يساعدهم على العمل بكفاءة أكبر.

- تحسينات في تجربة العملاء، وفقاً لـ38.6 في المائة منهم.

- انخفاض في تكاليف التشغيل، حسب 35.7 في المائة منهم.

معوقات التوسع في توظيفه

ما الذي يعيق التوسع في تبنِّي الذكاء الاصطناعي؟ على الرغم من هذا الزخم، إلا أن التبني لا يزال يواجه صعوبات جمة.

- التكلفة: أفاد نحو 32.9 في المائة من المشاركين في الاستطلاع بأنهم لا ينفقون شيئاً على أدوات الذكاء الاصطناعي شهرياً، ما يشير إلى أن حساسية التكلفة المادية وعدم اليقين لا يزالان يؤثران على حجم استثمارات الشركات.

- عوائق عملية: والأهم من ذلك أن العوائق التي يحددها أصحاب المشاريع الصغيرة هي في معظمها عوائق عملية. ويذكر أصحاب المشاريع الصغيرة صعوبة التعلم، والثقة في الأدوات، وخصوصية البيانات، كأهم مخاوفهم.

ويبدو أن هناك مخاوف بشأن خصوصية البيانات، والملكية الفكرية، وسرعة طرح خدمات الشركات لأدوات الذكاء الاصطناعي الجديدة لأصحاب الأعمال.

نتائج واتجاهات

وتعقيباً على النتائج، قال كريس تيرنر، المدير التنفيذي في «غوغل»: «لا يمكننا الاستمرار في دفع تبنِّي الذكاء الاصطناعي إلى عامة الناس؛ إذ لا بد من توفير التوعية والموارد وبناء الثقة».

وتعكس هذه النتائج اتجاهات وطنية أوسع؛ إذ تُظهر بيانات من غرفة التجارة الأميركية و«غولدمان ساكس»، أن تبنِّي الذكاء الاصطناعي يزداد بسرعة؛ حيث يستخدمه الآن ما يقرب من 60 في المائة من الشركات الصغيرة. وبينما أفاد 93 في المائة من الشركات بوجود تأثير إيجابي له، لم يدمج سوى 14 في المائة منها الذكاء الاصطناعي بشكل كامل في عملياتها الأساسية. وتقول الأغلبية إنها بحاجة إلى مزيد من التدريب والدعم لاستخدامه بفعالية.

التحول من الأدوات إلى أنظمة الذكاء الاصطناعي المدمجة

مع ازدياد تبنِّي الذكاء الاصطناعي، تتطور أيضاً طريقة تقديمه للشركات الصغيرة. فبدلاً من الاعتماد على مجموعة متفرقة من الأدوات الفردية، بدأت الشركات في تقديم أنظمة أكثر تكاملاً تعمل كامتداد للشركة نفسها.

وتعكس منصة «Accio Work» التي أطلقتها شركة «علي بابا» العالمية أخيراً هذا التحول. فقد صُمم النظام كفريق «وكلاء ذكاء اصطناعي» من دون كتابة رموز كومبيوترية، ويمكنه تنفيذ عمليات معقدة وطويلة الأجل، ودعم مهام تشمل البحث عن الموردين، وإدارة الامتثال، وسير عمل التسويق، والخدمات اللوجستية.

بالنسبة لأصحاب الشركات الصغيرة -وخصوصاً أولئك الذين لا يملكون خلفيات تقنية أو فرق عمل كبيرة- يقلل هذا النوع من الأتمتة من الوقت والخبرة اللازمين لتبنِّي الذكاء الاصطناعي بشكل فعَّال.

سدُّ الفجوة لتسهيل الوصول والاستخدام

في الوقت نفسه، تُركز شركات التكنولوجيا الكبرى على أحد أبرز العوائق التي كشفت عنها بيانات الاستطلاع الجديد، ألا وهو صعوبة التعلم.

وقد وسَّعت «غوغل» مبادراتها التدريبية في مجال الذكاء الاصطناعي، بما في ذلك برنامج للحصول على شهادة احترافية، مصمم لمساعدة الأفراد على اكتساب مهارات عملية في الذكاء الاصطناعي تُؤهلهم لسوق العمل. تهدف هذه البرامج إلى جعل الذكاء الاصطناعي في متناول أصحاب المشاريع الصغيرة الذين قد لا يملكون تدريباً تقنياً رسمياً. وفي الوقت نفسه، تُدمج «باي بال» الذكاء الاصطناعي مباشرة في منصتها، من خلال أدوات جديدة تُساعد الشركات في وظائف أساسية، مثل استهداف العملاء، والعروض الترويجية الآلية.

وأخيراً، فإن من المرجح ألا تُحدَّد المرحلة التالية من تبنِّي الذكاء الاصطناعي بمدى قوة هذه الأدوات؛ بل بمدى سهولة دمجها في واقع إدارة الشركات الصغيرة.

* «إنك»، خدمات «تريبيون ميديا».


«لقد انتهكتُ كل مبدأ حُدّدَ لي»... اعترافات مذهلة لـ«وكيل ذكاء اصطناعي»

«لقد انتهكتُ كل مبدأ حُدّدَ لي»... اعترافات مذهلة لـ«وكيل ذكاء اصطناعي»
TT

«لقد انتهكتُ كل مبدأ حُدّدَ لي»... اعترافات مذهلة لـ«وكيل ذكاء اصطناعي»

«لقد انتهكتُ كل مبدأ حُدّدَ لي»... اعترافات مذهلة لـ«وكيل ذكاء اصطناعي»

تصدرت قصة تحذيرية حديثة حول مخاطر الذكاء الاصطناعي مواقع التواصل الاجتماعي، كما كتب جود كريمر(*).

أداة برمجية ذكية تحذف البيانات

في هذه المرة، ادّعى مؤسس شركة برمجيات أن نسخةً من أداة البرمجة «كيرسور» Cursor، المدعومة ببرنامج «كلود» Claude، حذفت قاعدة بيانات الإنتاج المختزَنة لدى الشركة بالكامل، في غضون تسع ثوانٍ فقط.

تصرف دون إذن... وسوء تخزين

وفي منشورٍ حصد 6.5 مليون مشاهدة على منصة «إكس» زعم جير كرين، مؤسس شركة PocketOS، التي تُطوّر برامج إلكترونية مخصصة لشركات تأجير السيارات، أن سلسلة من الأحداث، مِن بينها تصرف «كيرسور» دون إذن، وسوء تخزين النسخ الاحتياطية (للبيانات) من قِبل شركة ريلواي Railway، المزوّدة لخدمات البنية التحتية لشركته، أدّت إلى فقدان هائل للبيانات.

ووفق كرين، فإن برنامج »كيرسور» كان يؤدي مهمة روتينية عندما «واجه خطأً في بيانات الاعتماد»، فقرر - بمبادرة منه - «إصلاح» المشكلة بحذف وحدة تخزين من نظام «ريلواي». وهكذا نفذ أمر «حذف وحدة التخزين» ومسح قاعدة بيانات الإنتاج.

استخراج نُسخ قديمة من البيانات المحفوظة

وكتب كرين أنه نظراً لأن نظام «ريلواي» يُخزن نسخاً احتياطية إضافية داخل وحدة التخزين نفسها، فقد اضطرت شركته للرجوع إلى نسخة احتياطية عمرها ثلاثة أشهر لضمان استمرارية عملها.

أحدث برنامج ذكي يخرق القواعد

وأكد أن فريقه كان يستخدم أحدث إصدار من «كيرسور»، وهو الإصدار المدعوم بأحدث نموذج كلود من «أنثروبيك» موديل «أوبوس 4.6» Opus 4.6.

وعندما ضغط كرين على برنامج الذكاء الاصطناعي للحصول على تفسير، اعترف البرنامج بانتهاكه المتعمَّد للقواعد التي وضعها نظام PocketOS، بما في ذلك قاعدة «لا تخمن أبداً!»، و«لا تُنفّذ أبداً أوامر تخريبية/لا رجعة فيها (مثل «ادفع- بقوة» push –force، أو «إعادة ضبط المنتج» hard reset... إلخ إلا إذا طلبها المستخدم صراحةً).

انتهاك سافر

وكتب نظام الذكاء الاصطناعي: «لقد انتهكتُ كل مبدأٍ وُضِعَ أمامي: خمّنتُ بدلاً من التحقق. نفّذتُ إجراءً تخريبياً دون استئذان. لم أفهم ما كنتُ أفعله قبل تنفيذه. لم أقرأ وثائق (ريلواي) حول سلوك وحدات التخزين عبر البيئات المختلفة».

اعتراف كتابي بالذنب

وتابع كرين مدّعياً أن «كيرسور» تُسوّق لنفسها على أنها أكثر أماناً مما هي عليه في الواقع. وكتب: «الحقيقة هي وجود سِجلّ موثَّق لأنظمة تنتهك هذه الضمانات، بشكلٍ كارثي أحياناً، وأحياناً مع اعتراف الشركة نفسها بالإخفاقات. في حالتنا، لم يكتفِ النظام بفشله في مجال السلامة، بل شرح كتابياً بالتحديد قواعد السلامة التي تجاهلها».

ولم تردّ كلٌّ من «كيرسور» و«ريلواي» و«أنثروبيك» على طلب مجلة «فاست كومباني» للتعليق.

العبرة من القصة

مع انتشار منشور كرين على نطاق واسع، انقسم المعلّقون حول المغزى الحقيقي من قصته.

وزعم بعض المعلّقين أنه على الرغم من تجاوز برنامج «كيرسور» صلاحياته وعدم كفاية إجراءات الحماية لدى «ريلواي»، لكن فريق كرين يتحمل جزءاً من المسؤولية لمنحه الذكاء الاصطناعي هذه الحرية الكبيرة والوصول إلى بيانات الشركة.

مسؤولية النظم الذكية... ومستخدميها

جاء في أحد الردود التي انتشرت على نطاق واسع: «هذا المنشور رائع لأنه ينتقد الذكاء الاصطناعي بشدة، ويحمّل، في الوقت نفسه، هذا الشخص المسؤولية كاملةً». وكتب معلّق آخر: «من المؤسف أن يقوم برنامج ذكاء اصطناعي بحذف قاعدة بيانات الإنتاج - دون أي وسيلة لعمل نسخة احتياطية - ما يُعرّض الأعمال بأكملها للخطر. لكن اللوم يقع على عاتق المطور الذي قرر تفويض اتخاذ القرارات لبرنامج الذكاء الاصطناعي، ثم لم يراجع الإجراءات، بل خاطر بها دون تفكير».

خروقات سابقة

لا تقتصر مخاطر الاعتماد على الذكاء الاصطناعي على مثال شركتيْ «كيرسور» و«ريلواي»، إذ وقعت فضيحة مماثلة، في فبراير (شباط) الماضي، حين صرّحت مديرة في شركة «ميتا» بأنها شاهدت برنامج OpenClaw يُفرغ بريدها الإلكتروني. وقد تجاهل البرنامج تعليماتها بعدم القيام بأي إجراء دون موافقة. ومع ذلك اعترف البرنامج بتقديم النص التالي: «لقد انتهكتُ التعليمات. من حقكِ أن تغضبي».

وتُجسّد هاتان الحادثتان معاً العبرة الحقيقية لأي شركة تسعى لاستخدام برامج الذكاء الاصطناعي: قد تتصرف هذه التقنية بشكل غير متوقع، نعم، لكن لهذا السبب يقع على عاتق البشر مسؤولية ضبطها.

* مجلة «فاست كومباني».