إتقان فن التعاون بين الذكاء الاصطناعي وبين الإنسان سيؤدي إلى الازدهار

تحويله من مجرد أداة… إلى شريك

إتقان فن التعاون بين الذكاء الاصطناعي وبين الإنسان سيؤدي إلى الازدهار
TT

إتقان فن التعاون بين الذكاء الاصطناعي وبين الإنسان سيؤدي إلى الازدهار

إتقان فن التعاون بين الذكاء الاصطناعي وبين الإنسان سيؤدي إلى الازدهار

هيمنت على النقاش الدائر حول الذكاء الاصطناعي في بيئة العمل فكرةٌ مبسطة مفادها أن الآلات ستحل حتماً محل البشر. إلا أن المؤسسات التي تحقق نتائج ملموسة بفضل الذكاء الاصطناعي قد تجاوزت هذا التصور تماماً. فهي تدرك أن أفضل تطبيقات الذكاء الاصطناعي لا تقوم على الاستبدال، بل على التعاون، كما كتب فيصل حقّ (*).

تتطور العلاقة بين الموظفين وأنظمة الذكاء الاصطناعي عبر مراحل متميزة، لكل منها خصائصها وفرصها ومخاطرها. لذا؛ فإن فهم موقع مؤسستك على هذا الطيف - وإلى أين تتجه - أمرٌ بالغ الأهمية للاستفادة من إمكانات الذكاء الاصطناعي وتجنب مخاطره.

المرحلة الأولى: الأدوات والأتمتة

هذه هي المرحلة التي تبدأ بها معظم المؤسسات. في هذه المرحلة، تؤدي أنظمة الذكاء الاصطناعي مهامَ روتينية محددة، بينما يحتفظ البشر بالسيطرة الكاملة وسلطة اتخاذ القرار. يعمل الذكاء الاصطناعي بشكل أساسي بوصفه أداةً لزيادة الإنتاجية، حيث يتولى مهام محددة بدقة وفق معايير واضحة.

تتعدد الأمثلة هنا: أنظمة تصنيف المستندات التي تفرز المراسلات الواردة تلقائياً، وبرامج الدردشة الآلية التي تجيب عن استفسارات العملاء المعتادة، والمساعدة في جدولة ترتيبات الاجتماعات، وأتمتة إدخال البيانات التي تستخرج المعلومات من النماذج.

السمة الرئيسية لهذه المرحلة هي أن الذكاء الاصطناعي يعمل ضمن حدود ضيقة. إذ يُدير البشر سير العمل العام ويتخذون جميع القرارات الجوهرية، بينما يتولى الذكاء الاصطناعي المهام الروتينية؛ ما يُتيح للبشر التفرغ لأعمال ذات قيمة أعلى.

الاعتبارات الأخلاقية الأساسية تتمثل في هذه المرحلة في ضمان الدقة ومنع الضرر الناجم عن العمليات الآلية. عندما يُوجّه نظام الذكاء الاصطناعي شكاوى العملاء تلقائياً أو يُشير إلى الطلبات للمراجعة، قد تؤثر الأخطاء على أشخاص حقيقيين. يجب على المؤسسات تطبيق ضوابط الجودة والمراقبة لاكتشاف الأخطاء قبل أن تُسبب ضرراً، لا سيما للفئات الأكثر عرضة للخطر التي قد تكون أقل قدرة على التعامل مع أخطاء النظام.

المرحلة الثانية: التعزيز وتقديم المشورة

مع ازدياد ثقة المؤسسات بأنظمة الذكاء الاصطناعي، فإنها عادةً ما تنتقل إلى نماذج لا يقتصر فيها الذكاء الاصطناعي على تنفيذ المهام فحسب، بل يُقدم أيضاً تحليلات وتوصيات تُسهم في اتخاذ القرارات البشرية.

تحليلات تنبؤية. في هذه المرحلة، قد تُحدد أدوات التحليلات التنبؤية أنماطاً ناشئة في سلوك العملاء؛ ما يُتيح استراتيجيات أعمال أكثر استباقية. قد تُحلل أنظمة تقييم المخاطر البيانات التاريخية لتحديد مشكلات الامتثال المحتملة. وقد تُشير التشخيصات المدعومة بالذكاء الاصطناعي إلى أسباب محتملة لأعطال المعدات أو أعراض المرضى.

يكمن الفرق الجوهري في أنه بينما يستطيع الذكاء الاصطناعي توليد رؤى لا يستطيع البشر التوصل إليها بمفردهم من خلال إيجاد أنماط في مجموعات بيانات ضخمة يصعب على أي شخص تحليلها، يبقى الحكم البشري هو المرجع النهائي لتفسير هذه الرؤى واتخاذ الإجراءات بناءً عليها.

مخاطر جديدة: هنا تبرز مخاطر جديدة. إذ يُصبح الاعتماد المفرط على توصيات الذكاء الاصطناعي خطراً حقيقياً. وقد يتسلل التحيز التأكيدي، حيث يقبل البشر بشكل انتقائي رؤى الذكاء الاصطناعي التي تتوافق مع آرائهم المسبقة، بينما يرفضون تلك التي تُشكك في افتراضاتهم.

يتطلب النهج المسؤول في هذه المرحلة من البشر فهم كيفية توصل الذكاء الاصطناعي إلى توصياته - ما هي البيانات التي دُرّب عليها، وما الذي قد يكون تغير منذ التدريب، وما إذا كان هناك أي سبب يدعو إلى الشك في وجود تحيز. وقد يكون الأمر إشكالياً بالقدر نفسه عندما يرفض البشر نصائح الذكاء الاصطناعي الجيدة لعدم فهمهم لها أو عدم ثقتهم بها، كما هو الحال عندما يقبلون النصائح السيئة دون تفكير.

المرحلة الثالثة: التعاون والشراكة

تمثل هذه المرحلة تحولاً أكثر جوهرية. إذ وبدلاً من وجود فصل واضح بين مهام الآلة وقرارات الإنسان، يعمل البشر والذكاء الاصطناعي كفريقين يتمتعان بقدرات متكاملة ومسؤولية مشتركة.

علاقة ديناميكية. تصبح العلاقة ديناميكية وتفاعلية. وهنا تتكيف أنظمة الذكاء الاصطناعي باستمرار بناءً على ملاحظات البشر، بينما يُعدّل البشر أساليبهم بناءً على الرؤى التي يُولدها الذكاء الاصطناعي. يتلاشى الحد الفاصل بين «عمل الذكاء الاصطناعي» و«عمل الإنسان».

لنأخذ على سبيل المثال سيناريوهات الاستجابة للطوارئ، حيث تعمل فرق بشرية جنباً إلى جنب مع أنظمة الذكاء الاصطناعي أثناء الأزمات. يراقب الذكاء الاصطناعي باستمرار تدفقات بيانات متعددة - أنماط الطقس، وحالة المرور، وتوافر الموارد، وبيانات الاستجابة السابقة - ويقترح تخصيص الموارد. ويقبل البشر هذه الاقتراحات أو يُعدّلونها أو يرفضونها بناءً على معرفة سياقية غير متاحة للنظام. يتعلم الذكاء الاصطناعي من هذه التدخلات البشرية؛ ما يُحسّن توصياته المستقبلية. يطور البشر حدساً حول متى يثقون بالذكاء الاصطناعي ومتى يعتمدون على حكمهم الخاص.

أهمية تحديد المسؤولية. هنا يصبح تحديد المسؤولية أمراً معقداً حقاً. عندما تنتج النتائج عن عمل مشترك بين الإنسان والذكاء الاصطناعي، من يتحمل مسؤولية الأخطاء؟ إذا أوصى الذكاء الاصطناعي بمسار عمل، ووافق عليه إنسان، ثم ساءت الأمور، فإن مسألة تحديد المسؤولية ليست واضحة على الإطلاق.

تحتاج المؤسسات العاملة في هذه المرحلة إلى أطر حوكمة جديدة تحافظ على وضوح خطوط المساءلة البشرية مع تمكين شراكات مثمرة. يتجاوز هذا مجرد تحديد المسؤولية القانونية؛ فهو أساسي للحفاظ على الثقة، داخل المنظمة ومع أصحاب المصلحة الخارجيين.

المرحلة الرابعة: الإشراف والحوكمة

• وضع المعايير. يتضمن نموذج العلاقة الأكثر تطوراً قيام البشر بوضع المعايير، والإشراف، وإدارة الاستثناءات، بينما تتولى أنظمة الذكاء الاصطناعي العمليات الروتينية بشكل مستقل.

يمثل هذا تطوراً كبيراً عن المراحل السابقة. ينتقل دور البشر من التنفيذ المباشر للمهام أو اتخاذ القرارات إلى دور يركز على وضع الحدود، ومراقبة الأداء، والتدخل عند الضرورة.

قد يقوم نظام الذكاء الاصطناعي بمعالجة مطالبات التأمين بشكل مستقل وفقاً للسياسات المعمول بها، مع مراجعة البشر للحالات غير الاعتيادية فقط أو القرارات المختارة عشوائياً لضمان مراقبة الجودة. قد تُنفذ خوارزمية التداول المعاملات ضمن معايير محددة، مع قيام المشرفين البشريين بمراقبة أي شذوذ وتعديل القيود مع تغير ظروف السوق.

يمكن أن تكون مكاسب الكفاءة هائلة، ولكن المخاطر كذلك.

خطر «الرضا عن الأتمتة». يزداد هذا الخطر بشكل كبير في هذه المرحلة. فقد يفشل المشرفون البشريون في الحفاظ على اليقظة اللازمة تجاه أنظمة الذكاء الاصطناعي التي تعمل عادةً بشكل صحيح. فعند الإشراف على نظام يتخذ القرار الصحيح بنسبة 99 في المائة من الوقت، يصبح من الصعب نفسياً البقاء متيقظاً للنسبة المتبقية (1 في المائة) من الحالات التي تتطلب تدخلاً. لذا؛ يجب على المؤسسات تطبيق آليات إشراف فعّالة تُبقي العنصر البشري منخرطاً بشكل هادف بدلاً من الاقتصار على دور إشرافي شكلي. وقد يُقدّم استخدام أسلوب اللعب في تحديد الأخطاء وتصحيحها مساراً قيّماً في هذا الصدد، من خلال إضافة طبقة من الأخطاء في لعبة لكشف المشرفين «النائمين» إلى أنظمة عالية الموثوقية، ونادراً ما تُخطئ.

التنقل بين مراحل التطور

لا تحتاج كل مؤسسة إلى المرور بالمراحل الأربع جميعها، ولا ينبغي أن تكون جميع وظائف المؤسسة في المرحلة نفسها. فالمستوى الأمثل للتعاون بين الإنسان والذكاء الاصطناعي يعتمد على المخاطر المترتبة، ونضج تقنية الذكاء الاصطناعي، وقدرة المؤسسة على الحوكمة.

تستدعي القرارات المصيرية - تلك التي تؤثر على حقوق الأفراد أو سلامتهم أو مصالحهم المالية المهمة - عموماً مشاركة بشرية أكبر من المهام الإدارية الروتينية، بينما تتطلب التطبيقات الجديدة للذكاء الاصطناعي- حيث لا تزال حدود هذه التقنية مفهومة جيداً بعد - إشرافاً بشرياً أدق من التطبيقات الراسخة ذات السجلات الحافلة بالإنجازات.

مبادئ عامة تنطبق على الجميع

وبغض النظر عن موقع مؤسستك على هذا الطيف، فإن هناك مبادئ عامة تنطبق على الجميع، تشمل:

• فهم قدرات الذكاء الاصطناعي وحدوده. في كل مرحلة، يتطلب التعاون الفعال وجود أفراد يفهمون، ليس فقط ما يمكن للذكاء الاصطناعي فعله، بل أيضاً مواطن قصوره المحتملة. ويزداد هذا الفهم أهميةً مع ازدياد استقلالية أنظمة الذكاء الاصطناعي.

• الحفاظ على مساءلة بشرية فعّالة. لا يتغير المبدأ الأساسي المتمثل في ضرورة بقاء البشر مسؤولين عن القرارات المصيرية مع تطور قدرات الذكاء الاصطناعي. ما يتغير هو كيفية هيكلة هذه المساءلة وممارستها.

• تصميم الأعمال لمواكبة التطور. العلاقة بين البشر وأنظمة الذكاء الاصطناعي ليست ثابتة. ينبغي للمؤسسات بناء أطر حوكمة قابلة للتكيف مع تطور قدرات الذكاء الاصطناعي، ومع ازدياد فهمها لكيفية عمل التعاون بين الإنسان والذكاء الاصطناعي في سياقها الخاص.

• الاستثمار في العنصر البشري. لا يُقدم نظام الذكاء الاصطناعي الأكثر تطوراً قيمةً تُذكر إذا لم يفهم البشر العاملون معه كيفية التعاون بفاعلية. يُعدّ التدريب والتطوير الثقافي والتصميم التنظيمي عناصر لا تقل أهمية عن التكنولوجيا نفسها.

لن تكون المؤسسات التي تزدهر في عصر الذكاء الاصطناعي هي تلك التي تكتفي بنشر أحدث الأنظمة، بل تلك التي تُتقن فنّ التعاون بين الإنسان والذكاء الاصطناعي، أي التي تُدرك متى تعتمد على قدرات الذكاء الاصطناعي، ومتى تُفعّل الحكم البشري، وكيفية بناء شراكات تستفيد من نقاط القوة المُميزة لكليهما.

* مقتبس من كتاب «إعادة تصور الحكومة: تحقيق وعد الذكاء الاصطناعي» Reimagining Government: Achieving the Promise of AI، تأليف فيصل هوك، وإريك نيلسون، وتوم دافنبورت، وآخرون. دار نشر بوست هيل. سيصدر في يناير (كانون الثاني) 2026.

مجلة «فاست كومباني» - خدمات «تريبيون ميديا»


مقالات ذات صلة

«كاسبرسكي» لـ«الشرق الأوسط»: مخاوف «أنثروبيك» تعكس تحولاً أوسع بالمخاطر السيبرانية

خاص تكشف المخاوف المرتبطة بنموذج «أنثروبيك» عن تحول أوسع في المخاطر السيبرانية (رويترز)

«كاسبرسكي» لـ«الشرق الأوسط»: مخاوف «أنثروبيك» تعكس تحولاً أوسع بالمخاطر السيبرانية

تكشف مخاوف «أنثروبيك» تحولاً أوسع حول إعادة الذكاء الاصطناعي تشكيل المخاطر السيبرانية على البنوك ما يوسع الهجوم والدفاع معاً بسرعة

نسيم رمضان (لندن)
تكنولوجيا مؤيدو الذكاء الاصطناعي يرون أنه يحمل إمكانات هائلة لإحداث ثورة في الطب (رويترز)

خبراء يُحذرون: الذكاء الاصطناعي يكشف عن طرق خطيرة لتطوير أسلحة بيولوجية

في وقت يتسارع فيه تطوّر تقنيات الذكاء الاصطناعي بوتيرة غير مسبوقة، تزيد المخاوف بشأن إساءة استخدام هذه الأدوات في مجالات حساسة وخطيرة.

«الشرق الأوسط» (واشنطن)
الولايات المتحدة​ الصورة التي نشرها ترمب على منصة «تروث سوشيال»

«انتهى زمن الرجل اللطيف»... ترمب يهدد إيران بصورة مُولّدة بالذكاء الاصطناعي

وجّه الرئيس الأميركي رسالة تحذيرية إلى إيران عبر منصة «تروث سوشيال»، مرفقة بصورة مولّدة بالذكاء الاصطناعي يظهر فيها وهو يحمل سلاحاً وخلفه انفجارات.

«الشرق الأوسط» (واشنطن)
تكنولوجيا معالج "غرافيتون5"

«ميتا» توقع اتفاقية مع «أمازون ويب سيرفيسز» لتشغيل الذكاء الاصطناعي الوكيل

لتطوير جيل جديد من الأدوات الذكية والخدمات المبتكرة للمستخدمين

خلدون غسان سعيد (جدة)
تكنولوجيا برنامج ذكاء اصطناعي... يتنبأ بترقيتك المقبلة

برنامج ذكاء اصطناعي... يتنبأ بترقيتك المقبلة

يرصد الموظفين ذوي الإمكانات العالية قبل إشغال المنصب بثلاث إلى خمس سنوات

«الشرق الأوسط» (واشنطن)

«دودة الزومبي» تعود إلى الحياة بعد 24 ألف عام... وتبدأ بالتكاثر

«دودة الزومبي» حيوان مجهري متعدد الخلايا (أرشيفية - أ.ف.ب)
«دودة الزومبي» حيوان مجهري متعدد الخلايا (أرشيفية - أ.ف.ب)
TT

«دودة الزومبي» تعود إلى الحياة بعد 24 ألف عام... وتبدأ بالتكاثر

«دودة الزومبي» حيوان مجهري متعدد الخلايا (أرشيفية - أ.ف.ب)
«دودة الزومبي» حيوان مجهري متعدد الخلايا (أرشيفية - أ.ف.ب)

استخرج العلماء حيواناً مجهرياً أطلقوا عليه اسم «دودة الزومبي» من التربة الصقيعية في سيبيريا، ثم قاموا بإذابة الصقيع، وراقبوا الحيوان وهو يستيقظ ويتكاثر.

ووفق ما ذكره موقع «فايس»، كان هذا الكائن متجمداً منذ أواخر العصر البليستوسيني، حين كان الماموث الصوفي لا يزال موجوداً. ودخل في سبات دام نحو 24 ألف عام، ثم «عاد وكأن شيئاً لم يكن».

هذا الكائن هو «دوارة بديلويدية»، وهي حيوان متعدد الخلايا صغير الحجم، يبلغ طوله نحو نصف مليمتر، ويوجد عادة في بيئات المياه العذبة. وهي معروفة بين العلماء بقدرتها شبه المطلقة على البقاء، إذ تنجو من الإشعاع والجفاف والبرد القارس ونقص الأكسجين.

وقام باحثون من مختبر بقايا التربة الروسي بالحفر إلى عمق نحو 3.5 متر في منطقة نهر ألازيا بشمال شرقي سيبيريا، واستخرجوا «عينة لُبية»، وقاموا بتأريخها بالكربون المشع، فوجدوا أن عمرها يتراوح بين 23 ألفاً و960 عاماً و24 ألفاً و485 عاماً. ثم قاموا بإذابتها.

ولم يقتصر الأمر على عودة الدوارة للحركة، بل تكاثرت لا جنسياً أيضاً، مُنتجة المزيد منها. لقد استنسخت نفسها. وبالكاد أتيحت للعلماء فرصة تحديد الكائنات القديمة والنسل الجديد قبل أن يتزايد عددها.

وتُعرف آلية البقاء التي لجأ إليها الكائن باسم «السبات الخفي»، وهي حالة ينخفض ​​فيها النشاط الأيضي إلى الصفر تقريباً؛ حيث يدخل الكائن الحي في نوع من السكون البيولوجي (ليس ميتاً ولا حياً بأي شكل من الأشكال)، بل في حالة انتظار.

ويُعلق هذا الكائن عملية الأيض ويُراكم مركبات معينة، مثل البروتينات المرافقة، التي تُساعده على التعافي من السبات الخفي عندما تتحسن الظروف، كما صرّح الباحث الرئيسي للدراسة في مختبر بقايا التربة، ستاس مالافين.

وقال مالافين: «يُعدّ تقريرنا أقوى دليل حتى الآن على قدرة الحيوانات متعددة الخلايا على البقاء لعشرات آلاف السنين في حالة السبات الخفي، وهي حالة توقف شبه كامل لعملية الأيض».

وما يجعل هذا الاكتشاف إنجازاً كبيراً هو مدى تعقيد «دودة الزومبي». وسبق أن تمت إعادة كائنات وحيدة الخلية من الجليد. أمّا حيوان متعدد الخلايا ذو جهاز هضمي وجهاز عصبي بدائي نجا من 24 ألف عام وهو متجمد تماماً، فهو أمر مختلف تماماً.

وكان الحد الأقصى المعروف سابقاً لبقاء الدوارات البدائية في حالة الخمول البيولوجي يتراوح بين 6 و10 سنوات. أما الاكتشاف الجديد فيماثل نحو 2400 ضعف المدة السابقة.

وهناك جانب آخر مثير هنا. فمع ذوبان التربة الصقيعية بوتيرة متسارعة، بدأت الميكروبات والبكتيريا والفيروسات القديمة، التي ظلت حبيسة الجليد لآلاف السنين، بالخروج. ولم يُربط أي من الفيروسات الذائبة التي دُرست حتى الآن بأمراض بشرية، لكن العلماء يراقبون الوضع من كثب.


التكلفة وصعوبة التعلُّم والثقة... أهم معوقات التوسع في توظيف الذكاء الاصطناعي

التكلفة وصعوبة التعلُّم والثقة... أهم معوقات التوسع في توظيف الذكاء الاصطناعي
TT

التكلفة وصعوبة التعلُّم والثقة... أهم معوقات التوسع في توظيف الذكاء الاصطناعي

التكلفة وصعوبة التعلُّم والثقة... أهم معوقات التوسع في توظيف الذكاء الاصطناعي

لم تعد الشركات الصغيرة مسرح تجارب للذكاء الاصطناعي؛ بل أصبحت تدمجه بنشاط في عملياتها اليومية. وفي كثير من الحالات، تعتمد عليه للحفاظ على قدرتها التنافسية، كما كتبت إليزابيث غور*.

استطلاع جديد

كيف تستخدم الشركات الصغيرة الذكاء الاصطناعي فعلياً؟ تؤكد بيانات جديدة من استطلاع «مين ستريت رايزينغ تور» Main Street Rising Tour survey الذي أجرته شركة «هيلو أليس» بالشراكة مع «باي بال» و«غوغل»، مدى سرعة هذا التحول والتحديات التي لا تزال قائمة.

وحسب البحث:

- الحماس للذكاء الاصطناعي: أعرب 81 في المائة من أصحاب المشاريع الصغيرة عن ذلك.

- الاستخدام اليومي: أفاد 47 في المائة فقط باستخدامه بشكل يومي.

- عامل حاسم: يتوقع 51 في المائة منهم أن يكون الذكاء الاصطناعي عاملاً حاسماً في أعمالهم خلال العامين المقبلين، ما يعكس تحولاً أوسع من مجرد الفضول إلى الاعتماد عليه على المدى الطويل.

أسباب استخدام الذكاء الاصطناعي

وقد بدأ هذا التبني يُترجم بالفعل إلى تغييرات تشغيلية ملموسة؛ إذ أفاد أصحاب المشاريع الصغيرة باستخدام الذكاء الاصطناعي لأسباب متنوعة:

- للمحتوى التسويقي: 73.2 في المائة.

- للبحوث: 67.3 في المائة.

- للأنظمة التشغيلية: 39.4 في المائة.

ولا تقتصر هذه الاستخدامات على كونها إضافات لتسهيل العمل فحسب؛ بل وأيضاً:

- العمل بكفاءة أكبر: قال 70 في المائة من المشاركين في الاستطلاع، إن الذكاء الاصطناعي يساعدهم على العمل بكفاءة أكبر.

- تحسينات في تجربة العملاء، وفقاً لـ38.6 في المائة منهم.

- انخفاض في تكاليف التشغيل، حسب 35.7 في المائة منهم.

معوقات التوسع في توظيفه

ما الذي يعيق التوسع في تبنِّي الذكاء الاصطناعي؟ على الرغم من هذا الزخم، إلا أن التبني لا يزال يواجه صعوبات جمة.

- التكلفة: أفاد نحو 32.9 في المائة من المشاركين في الاستطلاع بأنهم لا ينفقون شيئاً على أدوات الذكاء الاصطناعي شهرياً، ما يشير إلى أن حساسية التكلفة المادية وعدم اليقين لا يزالان يؤثران على حجم استثمارات الشركات.

- عوائق عملية: والأهم من ذلك أن العوائق التي يحددها أصحاب المشاريع الصغيرة هي في معظمها عوائق عملية. ويذكر أصحاب المشاريع الصغيرة صعوبة التعلم، والثقة في الأدوات، وخصوصية البيانات، كأهم مخاوفهم.

ويبدو أن هناك مخاوف بشأن خصوصية البيانات، والملكية الفكرية، وسرعة طرح خدمات الشركات لأدوات الذكاء الاصطناعي الجديدة لأصحاب الأعمال.

نتائج واتجاهات

وتعقيباً على النتائج، قال كريس تيرنر، المدير التنفيذي في «غوغل»: «لا يمكننا الاستمرار في دفع تبنِّي الذكاء الاصطناعي إلى عامة الناس؛ إذ لا بد من توفير التوعية والموارد وبناء الثقة».

وتعكس هذه النتائج اتجاهات وطنية أوسع؛ إذ تُظهر بيانات من غرفة التجارة الأميركية و«غولدمان ساكس»، أن تبنِّي الذكاء الاصطناعي يزداد بسرعة؛ حيث يستخدمه الآن ما يقرب من 60 في المائة من الشركات الصغيرة. وبينما أفاد 93 في المائة من الشركات بوجود تأثير إيجابي له، لم يدمج سوى 14 في المائة منها الذكاء الاصطناعي بشكل كامل في عملياتها الأساسية. وتقول الأغلبية إنها بحاجة إلى مزيد من التدريب والدعم لاستخدامه بفعالية.

التحول من الأدوات إلى أنظمة الذكاء الاصطناعي المدمجة

مع ازدياد تبنِّي الذكاء الاصطناعي، تتطور أيضاً طريقة تقديمه للشركات الصغيرة. فبدلاً من الاعتماد على مجموعة متفرقة من الأدوات الفردية، بدأت الشركات في تقديم أنظمة أكثر تكاملاً تعمل كامتداد للشركة نفسها.

وتعكس منصة «Accio Work» التي أطلقتها شركة «علي بابا» العالمية أخيراً هذا التحول. فقد صُمم النظام كفريق «وكلاء ذكاء اصطناعي» من دون كتابة رموز كومبيوترية، ويمكنه تنفيذ عمليات معقدة وطويلة الأجل، ودعم مهام تشمل البحث عن الموردين، وإدارة الامتثال، وسير عمل التسويق، والخدمات اللوجستية.

بالنسبة لأصحاب الشركات الصغيرة -وخصوصاً أولئك الذين لا يملكون خلفيات تقنية أو فرق عمل كبيرة- يقلل هذا النوع من الأتمتة من الوقت والخبرة اللازمين لتبنِّي الذكاء الاصطناعي بشكل فعَّال.

سدُّ الفجوة لتسهيل الوصول والاستخدام

في الوقت نفسه، تُركز شركات التكنولوجيا الكبرى على أحد أبرز العوائق التي كشفت عنها بيانات الاستطلاع الجديد، ألا وهو صعوبة التعلم.

وقد وسَّعت «غوغل» مبادراتها التدريبية في مجال الذكاء الاصطناعي، بما في ذلك برنامج للحصول على شهادة احترافية، مصمم لمساعدة الأفراد على اكتساب مهارات عملية في الذكاء الاصطناعي تُؤهلهم لسوق العمل. تهدف هذه البرامج إلى جعل الذكاء الاصطناعي في متناول أصحاب المشاريع الصغيرة الذين قد لا يملكون تدريباً تقنياً رسمياً. وفي الوقت نفسه، تُدمج «باي بال» الذكاء الاصطناعي مباشرة في منصتها، من خلال أدوات جديدة تُساعد الشركات في وظائف أساسية، مثل استهداف العملاء، والعروض الترويجية الآلية.

وأخيراً، فإن من المرجح ألا تُحدَّد المرحلة التالية من تبنِّي الذكاء الاصطناعي بمدى قوة هذه الأدوات؛ بل بمدى سهولة دمجها في واقع إدارة الشركات الصغيرة.

* «إنك»، خدمات «تريبيون ميديا».


«لقد انتهكتُ كل مبدأ حُدّدَ لي»... اعترافات مذهلة لـ«وكيل ذكاء اصطناعي»

«لقد انتهكتُ كل مبدأ حُدّدَ لي»... اعترافات مذهلة لـ«وكيل ذكاء اصطناعي»
TT

«لقد انتهكتُ كل مبدأ حُدّدَ لي»... اعترافات مذهلة لـ«وكيل ذكاء اصطناعي»

«لقد انتهكتُ كل مبدأ حُدّدَ لي»... اعترافات مذهلة لـ«وكيل ذكاء اصطناعي»

تصدرت قصة تحذيرية حديثة حول مخاطر الذكاء الاصطناعي مواقع التواصل الاجتماعي، كما كتب جود كريمر(*).

أداة برمجية ذكية تحذف البيانات

في هذه المرة، ادّعى مؤسس شركة برمجيات أن نسخةً من أداة البرمجة «كيرسور» Cursor، المدعومة ببرنامج «كلود» Claude، حذفت قاعدة بيانات الإنتاج المختزَنة لدى الشركة بالكامل، في غضون تسع ثوانٍ فقط.

تصرف دون إذن... وسوء تخزين

وفي منشورٍ حصد 6.5 مليون مشاهدة على منصة «إكس» زعم جير كرين، مؤسس شركة PocketOS، التي تُطوّر برامج إلكترونية مخصصة لشركات تأجير السيارات، أن سلسلة من الأحداث، مِن بينها تصرف «كيرسور» دون إذن، وسوء تخزين النسخ الاحتياطية (للبيانات) من قِبل شركة ريلواي Railway، المزوّدة لخدمات البنية التحتية لشركته، أدّت إلى فقدان هائل للبيانات.

ووفق كرين، فإن برنامج »كيرسور» كان يؤدي مهمة روتينية عندما «واجه خطأً في بيانات الاعتماد»، فقرر - بمبادرة منه - «إصلاح» المشكلة بحذف وحدة تخزين من نظام «ريلواي». وهكذا نفذ أمر «حذف وحدة التخزين» ومسح قاعدة بيانات الإنتاج.

استخراج نُسخ قديمة من البيانات المحفوظة

وكتب كرين أنه نظراً لأن نظام «ريلواي» يُخزن نسخاً احتياطية إضافية داخل وحدة التخزين نفسها، فقد اضطرت شركته للرجوع إلى نسخة احتياطية عمرها ثلاثة أشهر لضمان استمرارية عملها.

أحدث برنامج ذكي يخرق القواعد

وأكد أن فريقه كان يستخدم أحدث إصدار من «كيرسور»، وهو الإصدار المدعوم بأحدث نموذج كلود من «أنثروبيك» موديل «أوبوس 4.6» Opus 4.6.

وعندما ضغط كرين على برنامج الذكاء الاصطناعي للحصول على تفسير، اعترف البرنامج بانتهاكه المتعمَّد للقواعد التي وضعها نظام PocketOS، بما في ذلك قاعدة «لا تخمن أبداً!»، و«لا تُنفّذ أبداً أوامر تخريبية/لا رجعة فيها (مثل «ادفع- بقوة» push –force، أو «إعادة ضبط المنتج» hard reset... إلخ إلا إذا طلبها المستخدم صراحةً).

انتهاك سافر

وكتب نظام الذكاء الاصطناعي: «لقد انتهكتُ كل مبدأٍ وُضِعَ أمامي: خمّنتُ بدلاً من التحقق. نفّذتُ إجراءً تخريبياً دون استئذان. لم أفهم ما كنتُ أفعله قبل تنفيذه. لم أقرأ وثائق (ريلواي) حول سلوك وحدات التخزين عبر البيئات المختلفة».

اعتراف كتابي بالذنب

وتابع كرين مدّعياً أن «كيرسور» تُسوّق لنفسها على أنها أكثر أماناً مما هي عليه في الواقع. وكتب: «الحقيقة هي وجود سِجلّ موثَّق لأنظمة تنتهك هذه الضمانات، بشكلٍ كارثي أحياناً، وأحياناً مع اعتراف الشركة نفسها بالإخفاقات. في حالتنا، لم يكتفِ النظام بفشله في مجال السلامة، بل شرح كتابياً بالتحديد قواعد السلامة التي تجاهلها».

ولم تردّ كلٌّ من «كيرسور» و«ريلواي» و«أنثروبيك» على طلب مجلة «فاست كومباني» للتعليق.

العبرة من القصة

مع انتشار منشور كرين على نطاق واسع، انقسم المعلّقون حول المغزى الحقيقي من قصته.

وزعم بعض المعلّقين أنه على الرغم من تجاوز برنامج «كيرسور» صلاحياته وعدم كفاية إجراءات الحماية لدى «ريلواي»، لكن فريق كرين يتحمل جزءاً من المسؤولية لمنحه الذكاء الاصطناعي هذه الحرية الكبيرة والوصول إلى بيانات الشركة.

مسؤولية النظم الذكية... ومستخدميها

جاء في أحد الردود التي انتشرت على نطاق واسع: «هذا المنشور رائع لأنه ينتقد الذكاء الاصطناعي بشدة، ويحمّل، في الوقت نفسه، هذا الشخص المسؤولية كاملةً». وكتب معلّق آخر: «من المؤسف أن يقوم برنامج ذكاء اصطناعي بحذف قاعدة بيانات الإنتاج - دون أي وسيلة لعمل نسخة احتياطية - ما يُعرّض الأعمال بأكملها للخطر. لكن اللوم يقع على عاتق المطور الذي قرر تفويض اتخاذ القرارات لبرنامج الذكاء الاصطناعي، ثم لم يراجع الإجراءات، بل خاطر بها دون تفكير».

خروقات سابقة

لا تقتصر مخاطر الاعتماد على الذكاء الاصطناعي على مثال شركتيْ «كيرسور» و«ريلواي»، إذ وقعت فضيحة مماثلة، في فبراير (شباط) الماضي، حين صرّحت مديرة في شركة «ميتا» بأنها شاهدت برنامج OpenClaw يُفرغ بريدها الإلكتروني. وقد تجاهل البرنامج تعليماتها بعدم القيام بأي إجراء دون موافقة. ومع ذلك اعترف البرنامج بتقديم النص التالي: «لقد انتهكتُ التعليمات. من حقكِ أن تغضبي».

وتُجسّد هاتان الحادثتان معاً العبرة الحقيقية لأي شركة تسعى لاستخدام برامج الذكاء الاصطناعي: قد تتصرف هذه التقنية بشكل غير متوقع، نعم، لكن لهذا السبب يقع على عاتق البشر مسؤولية ضبطها.

* مجلة «فاست كومباني».