إتقان فن التعاون بين الذكاء الاصطناعي وبين الإنسان سيؤدي إلى الازدهار

تحويله من مجرد أداة… إلى شريك

إتقان فن التعاون بين الذكاء الاصطناعي وبين الإنسان سيؤدي إلى الازدهار
TT

إتقان فن التعاون بين الذكاء الاصطناعي وبين الإنسان سيؤدي إلى الازدهار

إتقان فن التعاون بين الذكاء الاصطناعي وبين الإنسان سيؤدي إلى الازدهار

هيمنت على النقاش الدائر حول الذكاء الاصطناعي في بيئة العمل فكرةٌ مبسطة مفادها أن الآلات ستحل حتماً محل البشر. إلا أن المؤسسات التي تحقق نتائج ملموسة بفضل الذكاء الاصطناعي قد تجاوزت هذا التصور تماماً. فهي تدرك أن أفضل تطبيقات الذكاء الاصطناعي لا تقوم على الاستبدال، بل على التعاون، كما كتب فيصل حقّ (*).

تتطور العلاقة بين الموظفين وأنظمة الذكاء الاصطناعي عبر مراحل متميزة، لكل منها خصائصها وفرصها ومخاطرها. لذا؛ فإن فهم موقع مؤسستك على هذا الطيف - وإلى أين تتجه - أمرٌ بالغ الأهمية للاستفادة من إمكانات الذكاء الاصطناعي وتجنب مخاطره.

المرحلة الأولى: الأدوات والأتمتة

هذه هي المرحلة التي تبدأ بها معظم المؤسسات. في هذه المرحلة، تؤدي أنظمة الذكاء الاصطناعي مهامَ روتينية محددة، بينما يحتفظ البشر بالسيطرة الكاملة وسلطة اتخاذ القرار. يعمل الذكاء الاصطناعي بشكل أساسي بوصفه أداةً لزيادة الإنتاجية، حيث يتولى مهام محددة بدقة وفق معايير واضحة.

تتعدد الأمثلة هنا: أنظمة تصنيف المستندات التي تفرز المراسلات الواردة تلقائياً، وبرامج الدردشة الآلية التي تجيب عن استفسارات العملاء المعتادة، والمساعدة في جدولة ترتيبات الاجتماعات، وأتمتة إدخال البيانات التي تستخرج المعلومات من النماذج.

السمة الرئيسية لهذه المرحلة هي أن الذكاء الاصطناعي يعمل ضمن حدود ضيقة. إذ يُدير البشر سير العمل العام ويتخذون جميع القرارات الجوهرية، بينما يتولى الذكاء الاصطناعي المهام الروتينية؛ ما يُتيح للبشر التفرغ لأعمال ذات قيمة أعلى.

الاعتبارات الأخلاقية الأساسية تتمثل في هذه المرحلة في ضمان الدقة ومنع الضرر الناجم عن العمليات الآلية. عندما يُوجّه نظام الذكاء الاصطناعي شكاوى العملاء تلقائياً أو يُشير إلى الطلبات للمراجعة، قد تؤثر الأخطاء على أشخاص حقيقيين. يجب على المؤسسات تطبيق ضوابط الجودة والمراقبة لاكتشاف الأخطاء قبل أن تُسبب ضرراً، لا سيما للفئات الأكثر عرضة للخطر التي قد تكون أقل قدرة على التعامل مع أخطاء النظام.

المرحلة الثانية: التعزيز وتقديم المشورة

مع ازدياد ثقة المؤسسات بأنظمة الذكاء الاصطناعي، فإنها عادةً ما تنتقل إلى نماذج لا يقتصر فيها الذكاء الاصطناعي على تنفيذ المهام فحسب، بل يُقدم أيضاً تحليلات وتوصيات تُسهم في اتخاذ القرارات البشرية.

تحليلات تنبؤية. في هذه المرحلة، قد تُحدد أدوات التحليلات التنبؤية أنماطاً ناشئة في سلوك العملاء؛ ما يُتيح استراتيجيات أعمال أكثر استباقية. قد تُحلل أنظمة تقييم المخاطر البيانات التاريخية لتحديد مشكلات الامتثال المحتملة. وقد تُشير التشخيصات المدعومة بالذكاء الاصطناعي إلى أسباب محتملة لأعطال المعدات أو أعراض المرضى.

يكمن الفرق الجوهري في أنه بينما يستطيع الذكاء الاصطناعي توليد رؤى لا يستطيع البشر التوصل إليها بمفردهم من خلال إيجاد أنماط في مجموعات بيانات ضخمة يصعب على أي شخص تحليلها، يبقى الحكم البشري هو المرجع النهائي لتفسير هذه الرؤى واتخاذ الإجراءات بناءً عليها.

مخاطر جديدة: هنا تبرز مخاطر جديدة. إذ يُصبح الاعتماد المفرط على توصيات الذكاء الاصطناعي خطراً حقيقياً. وقد يتسلل التحيز التأكيدي، حيث يقبل البشر بشكل انتقائي رؤى الذكاء الاصطناعي التي تتوافق مع آرائهم المسبقة، بينما يرفضون تلك التي تُشكك في افتراضاتهم.

يتطلب النهج المسؤول في هذه المرحلة من البشر فهم كيفية توصل الذكاء الاصطناعي إلى توصياته - ما هي البيانات التي دُرّب عليها، وما الذي قد يكون تغير منذ التدريب، وما إذا كان هناك أي سبب يدعو إلى الشك في وجود تحيز. وقد يكون الأمر إشكالياً بالقدر نفسه عندما يرفض البشر نصائح الذكاء الاصطناعي الجيدة لعدم فهمهم لها أو عدم ثقتهم بها، كما هو الحال عندما يقبلون النصائح السيئة دون تفكير.

المرحلة الثالثة: التعاون والشراكة

تمثل هذه المرحلة تحولاً أكثر جوهرية. إذ وبدلاً من وجود فصل واضح بين مهام الآلة وقرارات الإنسان، يعمل البشر والذكاء الاصطناعي كفريقين يتمتعان بقدرات متكاملة ومسؤولية مشتركة.

علاقة ديناميكية. تصبح العلاقة ديناميكية وتفاعلية. وهنا تتكيف أنظمة الذكاء الاصطناعي باستمرار بناءً على ملاحظات البشر، بينما يُعدّل البشر أساليبهم بناءً على الرؤى التي يُولدها الذكاء الاصطناعي. يتلاشى الحد الفاصل بين «عمل الذكاء الاصطناعي» و«عمل الإنسان».

لنأخذ على سبيل المثال سيناريوهات الاستجابة للطوارئ، حيث تعمل فرق بشرية جنباً إلى جنب مع أنظمة الذكاء الاصطناعي أثناء الأزمات. يراقب الذكاء الاصطناعي باستمرار تدفقات بيانات متعددة - أنماط الطقس، وحالة المرور، وتوافر الموارد، وبيانات الاستجابة السابقة - ويقترح تخصيص الموارد. ويقبل البشر هذه الاقتراحات أو يُعدّلونها أو يرفضونها بناءً على معرفة سياقية غير متاحة للنظام. يتعلم الذكاء الاصطناعي من هذه التدخلات البشرية؛ ما يُحسّن توصياته المستقبلية. يطور البشر حدساً حول متى يثقون بالذكاء الاصطناعي ومتى يعتمدون على حكمهم الخاص.

أهمية تحديد المسؤولية. هنا يصبح تحديد المسؤولية أمراً معقداً حقاً. عندما تنتج النتائج عن عمل مشترك بين الإنسان والذكاء الاصطناعي، من يتحمل مسؤولية الأخطاء؟ إذا أوصى الذكاء الاصطناعي بمسار عمل، ووافق عليه إنسان، ثم ساءت الأمور، فإن مسألة تحديد المسؤولية ليست واضحة على الإطلاق.

تحتاج المؤسسات العاملة في هذه المرحلة إلى أطر حوكمة جديدة تحافظ على وضوح خطوط المساءلة البشرية مع تمكين شراكات مثمرة. يتجاوز هذا مجرد تحديد المسؤولية القانونية؛ فهو أساسي للحفاظ على الثقة، داخل المنظمة ومع أصحاب المصلحة الخارجيين.

المرحلة الرابعة: الإشراف والحوكمة

• وضع المعايير. يتضمن نموذج العلاقة الأكثر تطوراً قيام البشر بوضع المعايير، والإشراف، وإدارة الاستثناءات، بينما تتولى أنظمة الذكاء الاصطناعي العمليات الروتينية بشكل مستقل.

يمثل هذا تطوراً كبيراً عن المراحل السابقة. ينتقل دور البشر من التنفيذ المباشر للمهام أو اتخاذ القرارات إلى دور يركز على وضع الحدود، ومراقبة الأداء، والتدخل عند الضرورة.

قد يقوم نظام الذكاء الاصطناعي بمعالجة مطالبات التأمين بشكل مستقل وفقاً للسياسات المعمول بها، مع مراجعة البشر للحالات غير الاعتيادية فقط أو القرارات المختارة عشوائياً لضمان مراقبة الجودة. قد تُنفذ خوارزمية التداول المعاملات ضمن معايير محددة، مع قيام المشرفين البشريين بمراقبة أي شذوذ وتعديل القيود مع تغير ظروف السوق.

يمكن أن تكون مكاسب الكفاءة هائلة، ولكن المخاطر كذلك.

خطر «الرضا عن الأتمتة». يزداد هذا الخطر بشكل كبير في هذه المرحلة. فقد يفشل المشرفون البشريون في الحفاظ على اليقظة اللازمة تجاه أنظمة الذكاء الاصطناعي التي تعمل عادةً بشكل صحيح. فعند الإشراف على نظام يتخذ القرار الصحيح بنسبة 99 في المائة من الوقت، يصبح من الصعب نفسياً البقاء متيقظاً للنسبة المتبقية (1 في المائة) من الحالات التي تتطلب تدخلاً. لذا؛ يجب على المؤسسات تطبيق آليات إشراف فعّالة تُبقي العنصر البشري منخرطاً بشكل هادف بدلاً من الاقتصار على دور إشرافي شكلي. وقد يُقدّم استخدام أسلوب اللعب في تحديد الأخطاء وتصحيحها مساراً قيّماً في هذا الصدد، من خلال إضافة طبقة من الأخطاء في لعبة لكشف المشرفين «النائمين» إلى أنظمة عالية الموثوقية، ونادراً ما تُخطئ.

التنقل بين مراحل التطور

لا تحتاج كل مؤسسة إلى المرور بالمراحل الأربع جميعها، ولا ينبغي أن تكون جميع وظائف المؤسسة في المرحلة نفسها. فالمستوى الأمثل للتعاون بين الإنسان والذكاء الاصطناعي يعتمد على المخاطر المترتبة، ونضج تقنية الذكاء الاصطناعي، وقدرة المؤسسة على الحوكمة.

تستدعي القرارات المصيرية - تلك التي تؤثر على حقوق الأفراد أو سلامتهم أو مصالحهم المالية المهمة - عموماً مشاركة بشرية أكبر من المهام الإدارية الروتينية، بينما تتطلب التطبيقات الجديدة للذكاء الاصطناعي- حيث لا تزال حدود هذه التقنية مفهومة جيداً بعد - إشرافاً بشرياً أدق من التطبيقات الراسخة ذات السجلات الحافلة بالإنجازات.

مبادئ عامة تنطبق على الجميع

وبغض النظر عن موقع مؤسستك على هذا الطيف، فإن هناك مبادئ عامة تنطبق على الجميع، تشمل:

• فهم قدرات الذكاء الاصطناعي وحدوده. في كل مرحلة، يتطلب التعاون الفعال وجود أفراد يفهمون، ليس فقط ما يمكن للذكاء الاصطناعي فعله، بل أيضاً مواطن قصوره المحتملة. ويزداد هذا الفهم أهميةً مع ازدياد استقلالية أنظمة الذكاء الاصطناعي.

• الحفاظ على مساءلة بشرية فعّالة. لا يتغير المبدأ الأساسي المتمثل في ضرورة بقاء البشر مسؤولين عن القرارات المصيرية مع تطور قدرات الذكاء الاصطناعي. ما يتغير هو كيفية هيكلة هذه المساءلة وممارستها.

• تصميم الأعمال لمواكبة التطور. العلاقة بين البشر وأنظمة الذكاء الاصطناعي ليست ثابتة. ينبغي للمؤسسات بناء أطر حوكمة قابلة للتكيف مع تطور قدرات الذكاء الاصطناعي، ومع ازدياد فهمها لكيفية عمل التعاون بين الإنسان والذكاء الاصطناعي في سياقها الخاص.

• الاستثمار في العنصر البشري. لا يُقدم نظام الذكاء الاصطناعي الأكثر تطوراً قيمةً تُذكر إذا لم يفهم البشر العاملون معه كيفية التعاون بفاعلية. يُعدّ التدريب والتطوير الثقافي والتصميم التنظيمي عناصر لا تقل أهمية عن التكنولوجيا نفسها.

لن تكون المؤسسات التي تزدهر في عصر الذكاء الاصطناعي هي تلك التي تكتفي بنشر أحدث الأنظمة، بل تلك التي تُتقن فنّ التعاون بين الإنسان والذكاء الاصطناعي، أي التي تُدرك متى تعتمد على قدرات الذكاء الاصطناعي، ومتى تُفعّل الحكم البشري، وكيفية بناء شراكات تستفيد من نقاط القوة المُميزة لكليهما.

* مقتبس من كتاب «إعادة تصور الحكومة: تحقيق وعد الذكاء الاصطناعي» Reimagining Government: Achieving the Promise of AI، تأليف فيصل هوك، وإريك نيلسون، وتوم دافنبورت، وآخرون. دار نشر بوست هيل. سيصدر في يناير (كانون الثاني) 2026.

مجلة «فاست كومباني» - خدمات «تريبيون ميديا»


مقالات ذات صلة

هل أنهى الذكاء الاصطناعي عصر أنظمة كشف الاحتيال الرقمية التقليدية؟

خاص الاحتيال تحوّل من استهداف الأنظمة التقنية إلى التلاعب بالسلوك البشري ما يغيّر طبيعة التهديد بشكل جذري (رويترز)

هل أنهى الذكاء الاصطناعي عصر أنظمة كشف الاحتيال الرقمية التقليدية؟

يُضعف تحول الاحتيال إلى استهداف السلوك البشري الأنظمة التقليدية، ويفرض اعتماد تحليلات سلوكية، ومقاربات جديدة لحماية الثقة الرقمية، والهوية.

نسيم رمضان (لندن)
تكنولوجيا أداة «غوغل» للذكاء الاصطناعي تفتقر إلى الدقة

أداة «غوغل» للذكاء الاصطناعي تفتقر إلى الدقة

أكثر من نصف الإجابات الصحيحة كانت «غير مدعومة بأدلة»

كيد ميتز (نيويورك)
علوم مع الذكاء الاصطناعي: طلاب الجامعات يعيدون النظر في تخصصاتهم

مع الذكاء الاصطناعي: طلاب الجامعات يعيدون النظر في تخصصاتهم

70 % مع تغيير الاختصاص في التكنولوجيا مقابل 54 % في العلوم الإنسانية

«الشرق الأوسط» (واشنطن)
تكنولوجيا «غوغل» تحدّث أنظمة الذكاء الاصطناعي لتحسين التعامل مع استفسارات الصحة النفسية بشكل أكثر مسؤولية (شاترستوك)

تحديثات جديدة من «غوغل» لتعزيز تعامل الذكاء الاصطناعي مع الصحة النفسية

«غوغل» تحدّث استجابات الذكاء الاصطناعي للصحة النفسية لتوجيه المستخدمين نحو الدعم المناسب مع الحفاظ على السلامة وعدم استبدال المختصين.

نسيم رمضان (لندن)
علوم في عصر الذكاء الاصطناعي… الاحتيال والنصب يصبحان أمراً سهلاً للغاية

في عصر الذكاء الاصطناعي… الاحتيال والنصب يصبحان أمراً سهلاً للغاية

باستخدام الذكاء الاصطناعي التوليدي، يستطيع أي شخص الحصول على وجبة تعويضية أو منتج بديل مجاناً.

جيسوس دياز (واشنطن)

اكتشاف ثقبين أسودين على وشك الاندماج

تصور فني يظهر مركز مجرة «ماركاريان 501» حيث ينبعث منها نفاثتان قويتان (مرصد هون - رين كونكولي)
تصور فني يظهر مركز مجرة «ماركاريان 501» حيث ينبعث منها نفاثتان قويتان (مرصد هون - رين كونكولي)
TT

اكتشاف ثقبين أسودين على وشك الاندماج

تصور فني يظهر مركز مجرة «ماركاريان 501» حيث ينبعث منها نفاثتان قويتان (مرصد هون - رين كونكولي)
تصور فني يظهر مركز مجرة «ماركاريان 501» حيث ينبعث منها نفاثتان قويتان (مرصد هون - رين كونكولي)

رصد فريق بحثي من معهد ماكس بلانك لعلم الفلك الراديوي في ألمانيا، دليلاً مباشراً على وجود ثقبين أسودين فائقَي الكتلة في مجرة ​​«ماركاريان 501»، يدوران حول بعضهما في مدارات متقاربة جداً. وقد تكون هذه هي المرة الأولى التي يُكتشف فيها زوجٌ من الثقوب السوداء على وشك الاندماج، مما يتيح فرصة فريدة لفهم عملية محورية في تطور المجرات.

وتشير النتائج المنشورة في «مجلة الإشعارات الشهرية للجمعية الفلكية الملكية»، تحت قيادة العالم الفلكي، سيلكه بريتزن، إلى وجود ثقب أسود فائق الكتلة في مركز كل مجرة كبيرة تقريباً، بكتلة تفوق كتلة شمسنا بملايين أو حتى مليارات المرات. ولا يزال من غير الواضح تماماً كيف يمكنها الوصول إلى هذه الكتل الهائلة. لذا، من المرجح أن تندمج الثقوب السوداء فائقة الكتلة الموجودة في مراكز هذه المجرات المتصادمة؛ حيث تدور حول بعضها متقاربة أكثر فأكثر، ثم تندمج في النهاية لتشكل مجرة ​​واحدة.

وتُعدّ الثقوب السوداء فائقة الكتلة في مراكز المجرات من أكثر مجالات البحث نشاطاً في علم الفلك؛ إذ لا تستطيع النماذج النظرية وصف هذه المرحلة النهائية بدقة حتى الآن.

رصد عالي الدقة

ومما يزيد الأمر تعقيداً أنه لم يتم رصد أي زوج متقارب من الثقوب السوداء الضخمة بشكل موثوق، على الرغم من شيوع تصادمات المجرات على نطاق زمني كوني. وقد غيرت الدراسة الجديدة لـ«مجرة ماركاريان 501 (Mrk 501)» في كوكبة هرقل هذا الواقع.

ويقذف الثقب الأسود في مركز «مجرة ​​ماركاريان 501»، نفثات (دفعات) قوية من الجسيمات تتحرك بسرعة تقارب سرعة الضوء إلى الفضاء. ولإجراء هذه الدراسة، حلل الفريق عمليات رصد عالية الدقة. وكشفت بيانات رصدية طويلة الأمد عن أول صورة مباشرة لمثل هذا النظام في مركز مجرة، وعلى الدليل القاطع على وجود ثقب أسود فائق الكتلة ثانٍ مجاور. يقول بريتزن في بيان الثلاثاء: «بحثنا عن هذا النظام طويلاً، والآن نستطيع تتبع حركته أيضاً».

رقصة الثقوب السوداء

ووفق نتائج الدراسة، تتجه نفاثة الثقب الأول نحو الأرض، ولهذا تبدو ساطعة بشكل خاص لنا، وهي معروفة منذ زمن طويل. أما النفاثة الثانية، فهي موجهة بشكل مختلف، ولذلك كان رصدها أكثر صعوبة.

ويوضح بريتزن: «كان نظام النفاثات بأكمله في حركة دائمة، وهو ما يفسر بوجود نظام من ثقبين أسودين، حيث يتأرجح مستوى المدار».

ويضيف: «في أحد أيام الرصد في يونيو (حزيران) 2022، وصل إلينا الإشعاع المنبعث من النظام عبر مسار متعرج للغاية؛ حيث ظهر على شكل حلقة - وهو ما يُعرف بحلقة أينشتاين».

ومن خلال تحليل تطور سطوع النفاثات بمرور الوقت وأنماطه المتكررة، استنتج الباحثون أن الثقبين الأسودين يدوران حول بعضهما، وتبلغ المسافة بينهما ما بين 250 و540 ضعف المسافة بين الأرض والشمس - وهي مسافة ضئيلة جداً بالنسبة لأجسام بالغة الضخامة كهذه، بكتل تتراوح بين 100 مليون ومليار ضعف كتلة الشمس. وبناءً على كتلتيهما الفعليتين، قد تتقلص المسافة بينهما بسرعة كبيرة لدرجة أنهما قد يندمجان في غضون 100 عام فقط.

ويشير المؤلف المشارك بالدراسة هيكتور أوليفاريس إلى أنه «عندما يتم رصد موجات الجاذبية، فقد نشهد ارتفاعاً مطرداً في ترددها مع اقتراب هذين العملاقين من الاصطدام، مما يتيح فرصة نادرة لمشاهدة اندماج ثقبين أسودين فائقَي الكتلة».


مع الذكاء الاصطناعي: طلاب الجامعات يعيدون النظر في تخصصاتهم

مع الذكاء الاصطناعي: طلاب الجامعات يعيدون النظر في تخصصاتهم
TT

مع الذكاء الاصطناعي: طلاب الجامعات يعيدون النظر في تخصصاتهم

مع الذكاء الاصطناعي: طلاب الجامعات يعيدون النظر في تخصصاتهم

تُظهر بيانات جديدة أن طلاب الجامعات يُغيِّرون تخصصاتهم ومساراتهم المهنية، خوفاً من استبدال الذكاء الاصطناعي بهم. ومع تذبذب سوق العمل، ولا سيما في قطاع التكنولوجيا، يأمل طلاب الجيل الجديد ألا يتأثر مسارهم المهني القادم بالنمو المتزايد للذكاء الاصطناعي.

ويؤدي التطور السريع لسوق العمل إلى انعدام الأمن الوظيفي لدى أفراد هذا الجيل، كما كتب موسى جان فرانسوا*.

لقطة مصورة لنتائج الاستطلاع على موقع مؤسسة «لومينا»

استطلاع جديد

يُشير استطلاع رأي جديد أجرته مؤسسة «لومينا» بالتعاون مع مؤسسة «غالوب»، ونُشرت نتائجه مطلع شهر أبريل (نيسان) الحالي، إلى أن ما يقرب من نصف طلاب الجامعات الأميركية فكروا جدياً في تغيير تخصصاتهم أو مسار دراستهم، استجابة لتأثير الذكاء الاصطناعي المتزايد على سوق العمل.

واستناداً إلى نتائج استطلاع أُجري في أكتوبر (تشرين الأول) 2025 وشمل ما يقرب من 4 آلاف طالب، غيَّر 16 في المائة منهم فعلاً تخصصاتهم بسبب الذكاء الاصطناعي.

مخاوف الطلاب

وعلى الرغم من الاعتقاد السائد بأن طلاب الجامعات الحاليين قد اعتادوا على الذكاء الاصطناعي نتيجة استخدامهم له في قاعات الدراسة، فإن البيانات تُظهر مخاوف لدى هذه الفئة العمرية.

ويُبين الاستطلاع مدى سرعة تأثير الذكاء الاصطناعي على التخطيط المهني. فقد ذكر 14 في المائة من طلاب الجامعات أنهم فكَّروا «كثيراً» في تغيير مجال دراستهم بسبب تأثير الذكاء الاصطناعي على سوق العمل، بينما قال 33 في المائة آخرون إنهم فكروا «بشكل معقول».

تغيير الاختصاصات

وأفاد 60 في المائة من الطلاب الذكور بأنهم يفكرون في تغيير تخصصهم، مقارنة بـ38 في المائة من الطالبات. وترتفع هذه النسب بين دارسي التكنولوجيا (70 في المائة) والمجالات المهنية (71 في المائة)، متجاوزة طلاب إدارة الأعمال والعلوم الإنسانية (54 في المائة لكل منهما) والهندسة (52 في المائة).

استخدام الطلاب للذكاء الاصطناعي

كما أشار الاستطلاع إلى أن طلاب الجامعات الحاليين ما زالوا يستخدمون الذكاء الاصطناعي رغم معارضة مؤسساتهم التعليمية؛ إذ أظهرت الدراسة أن 42 في المائة من الطلاب أفادوا بأن جامعاتهم تثبط توجهات استخدام الذكاء الاصطناعي في المقررات الدراسية، ومع ذلك لا يزال عدد كبير منهم يعتمد عليه: 15 في المائة يستخدمونه يومياً، و33 في المائة أسبوعياً، و12 في المائة شهرياً. حتى في الجامعات التي تحظر الذكاء الاصطناعي بشكل قاطع، أفاد 10 في المائة من الطلاب باستخدامه يومياً، و17 في المائة أسبوعياً.

مخاوف مستقبلية بشأن السوق

وصرحت كورتني براون، نائبة رئيس قسم التأثير والتخطيط في مؤسسة «لومينا»، لموقع «أكسيوس» في مقابلة، بأنها تخشى من تقصير المؤسسات التعليمية في تعليم الطلاب عن الذكاء الاصطناعي وتحيزاته. وقالت: «إنها (أي المؤسسات) لا تفهم من الذي قد يتضرر أو ينتفع (من تحولات الذكاء الاصطناعي)... وهذا هو الجانب الذي سيتضرر (الطلاب) منه أكثر من غيره».

التسريح بسبب الذكاء الاصطناعي

هذا وقد شهد قطاعا التكنولوجيا والأعمال موجة تسريح واسعة النطاق في السنوات الأخيرة. ووفقاً لموقع «تيك إنسايدر»، فإن نحو 20 في المائة من عمليات التسريح في عام 2026 كانت بسبب عمليات دمج أو استبدال أنظمة الذكاء الاصطناعي.

وفي مارس (آذار) الماضي، سرَّحت شركة «ميتا» مئات الموظفين، مُعللة ذلك بإعادة الهيكلة، على الرغم من أن الشركة ستضيف أيضاً بنية تحتية جديدة للذكاء الاصطناعي.

دوافع الالتحاق بالجامعات

وحسب بيانات مؤسسة «غالوب»، يبدو أن الذكاء الاصطناعي يؤثر على معدلات الالتحاق بالجامعات أيضاً؛ إذ أفاد نحو 14 في المائة من طلاب البكالوريوس و13 في المائة من طلاب الدبلوم، بأن الاستعداد للذكاء الاصطناعي والتقنيات ذات الصلة، كان سبباً رئيسياً لالتحاقهم بالجامعات، بينما أشارت نسبة 12 في المائة منهم إلى مخاوف بشأن تأثير الذكاء الاصطناعي على فرص العمل المستقبلية.

* «إنك»، خدمات «تريبيون ميديا».


في عصر الذكاء الاصطناعي… الاحتيال والنصب يصبحان أمراً سهلاً للغاية

في عصر الذكاء الاصطناعي… الاحتيال والنصب يصبحان أمراً سهلاً للغاية
TT

في عصر الذكاء الاصطناعي… الاحتيال والنصب يصبحان أمراً سهلاً للغاية

في عصر الذكاء الاصطناعي… الاحتيال والنصب يصبحان أمراً سهلاً للغاية

أصبح الغش سهلاً للغاية الآن. فباستخدام الذكاء الاصطناعي التوليدي، يستطيع أي شخص الحصول على وجبة تعويضية أو منتج بديل مجاناً. بل يمكنه حتى الحصول على أموال مجانية عن طريق الاحتيال على الحكومة نفسها. وكما اكتشف اختصاصيو الأشعة حديثاً، فإنه يمكن أيضاً خداع الأطباء وشركات التأمين باستخدام صور الأشعة السينية المولّدة بالذكاء الاصطناعي.

صعوبة تمييز أشعة «اكس» مزيفة

ووفقاً لدراسة جديدة نشرتها الجمعية الإشعاعية لأميركا الشمالية، فإن معظم الخبراء لا يستطيعون التمييز بين الكسور المزيفة والكسور الحقيقية. أصبح الاحتيال التأميني الذي لا يمكن كشفه على بُعد نقرة واحدة. هذه ليست سوى أحدث حلقة في سلسلة متزايدة من عمليات الاحتيال السهلة والمجانية التي أصبحت ممكنة بفضل قوة الذكاء الاصطناعي.

دراسة علمية

أخضعت دراسة أجرتها الجمعية 17 طبيباً متخصصاً من ست دول مختلفة، بعضهم يمتلك خبرة ميدانية تصل إلى 40 عاماً، لاختبار بصري شمل 264 صورة أشعة سينية - نصفها صور حقيقية، والنصف الآخر صور اصطناعية تم إنشاؤها بواسطة أدوات الذكاء الاصطناعي مثل «تشات جي بي تي» ونموذج «رونت جين» RoentGen مفتوح المصدر من جامعة ستانفورد. وعندما لم يكن الأطباء على علم بوجود هذه الصور الاصطناعية، لم يتمكنوا من تحديد صور الأشعة السينية الاصطناعية بشكل صحيح إلا في 41 في المائة من الحالات.

نجاح محدود في كشف التزييف

وحتى بعد تلقيهم تحذيرات صريحة بوجود صور مزيفة ضمن المجموعة، ازداد متوسط ​​نسبة نجاحهم إلى 75 في المائة؛ إذ تراوحت النسبة بين 58 في المائة المتدنية و92 في المائة المقبولة. ولكنها نتيجة غير مثالية. وتشير الدراسة إلى أن عقوداً من سنوات الخبرة العملية للأطباء لم تُسهم بشكل كبير في كشف التزييف، على الرغم من أن أداء خبراء الجهاز العضلي الهيكلي كان أفضل قليلاً من زملائهم.

حتى النظم الذكية أخفقت في كشف التزييف

وما يزيد الأمر سوءاً، أن نماذج اللغة الضخمة المسؤولة عن ظهور هذه الخدعة الرقمية - بما في ذلك «جي بي تي 40» و«جي بي تي 5» و«جيمناي برو 2.5» و«مافريك» Maverick و«لاما 4» من «ميتا» - لم تكن أفضل حالاً كأدوات كشف آلية؛ إذ تراوحت معدلات دقتها بين 57 في المائة و85 في المائة.

ثغرة أمنية وطبية خطيرة

وأشار الدكتور ميكائيل توردجمان، المؤلف الرئيسي للدراسة، إلى أن «دراستنا تُظهر أن صور الأشعة السينية المزيفة بتقنية التزييف العميق واقعية لدرجة كافية لخداع اختصاصيي الأشعة، وهم أكثر المتخصصين تدريباً في مجال التصوير الطبي، حتى عندما كانوا على دراية بوجود صور مُولّدة بواسطة الذكاء الاصطناعي». وأضاف: «يُشكّل هذا ثغرة أمنية خطيرة للغاية للتقاضي الاحتيالي، على سبيل المثال، إذا كان من الصعب التمييز بين كسر مُختلق وكسر حقيقي. كما يُوجد خطر كبير على الأمن السيبراني إذا تمكن المتسللون من الوصول إلى شبكة المستشفى وحقن صور اصطناعية للتلاعب بتشخيصات المرضى أو إحداث فوضى سريرية واسعة النطاق من خلال تقويض الموثوقية الأساسية للسجل الطبي الرقمي».

صور دقيقة بشكل مفرط

حسب توردجمان، غالباً ما تبدو الصور الطبية المُولّدة بالذكاء الاصطناعي مثاليةً للغاية، حيث تظهر العظام «ناعمةً بشكلٍ مفرط، والعمود الفقري مستقيماً بشكلٍ غير طبيعي، والرئتان متناظرتين بشكلٍ مفرط، وأنماط الأوعية الدموية متجانسةً بشكلٍ مفرط، والكسور تبدو نظيفةً ومتناسقةً بشكلٍ غير عادي، وغالباً ما تقتصر على جانب واحد من العظم».

لكن هذه مجرد مجموعة أدوات قديمة. فمثل مقاطع الفيديو المُولّدة بالذكاء الاصطناعي، سيجعل الذكاء الاصطناعي هذه الأشعة السينية مثاليةً تماماً وغير قابلةٍ للكشف قريباً. هذه هي طبيعة الذكاء الاصطناعي المتطور باستمرار.

ولمكافحة ذلك؛ يطالب الخبراء بعلامات مائية غير مرئية وتوقيعات تشفيرية مرتبطة مباشرةً بالفني الذي التقط الصورة، تعمل فعلياً كختم رياضي للمصداقية يُثبت وجود جسم بشري بالفعل في الغرفة.

التزييف السطحي والصفقات المشبوهة

تُعدّ صور الأشعة السينية الاحتيالية مثالاً خطيراً على التلاعب بالحقائق الذي يحدث بالفعل. خذ على سبيل المثال انتشار التزييف السطحي، وهو عبارة عن أوهام رقمية سطحية مختلقة لا تتطلب سوى جهد ضئيل لتحقيق أقصى مقدار من الخداع المالي.

يستغل المستهلكون العاديون تقنيات الذكاء الاصطناعي التوليدي لتغيير مظهر صور طلبات أطباق الطعام مثلاً وتحويلها أطباقاً «كارثية» غير شهية. بنقرة واحدة فقط؛ إذ مكّن التلاعب رقمياً بمظهر شطيرة البرغر أو قطعة الدجاج ليظهر وكأنه نيء؛ ما يخدع الخوارزميات وممثلي خدمة الزبائن للموافقة على استرداد الزبون أمواله فوراً.

خداع وتلاعب في كل المستويات

«هذا التوجه حقيقي ومتزايد»، كما صرّح ألبرتو بالومار، المتخصص في مكافحة الاحتيال باستخدام الذكاء الاصطناعي التوليدي، لصحيفة «إل كونفيدينسيال» الإسبانية. «يُتيح الذكاء الاصطناعي لأي شخص، حتى من لا يملك أي فكرة عن التكنولوجيا، إمكانية استغلال هذه الخدعة على جميع المستويات».

خدعة رقمية وأضرار بشرية

تقع الخسائر البشرية الجانبية في هذه الخدعة الرقمية على عاتق عمال توصيل الطعام. فعندما ينجح أحد الزبائن في تزييف وجبة تالفة أو غير مطهوة جيداً، يُعاقب السائق بمنحه تقييمات سيئة أو بتعطيل حسابه نهائياً.

من جهة أخرى، يستخدم بعض السائقين هذه التقنية أيضاً لتزييف عمليات توصيل يسرقونها ببساطة.

آثارٌ ورقيةٌ مزيفة لتسلّم التأمين... بملايين الدولارات

في غضون ذلك، يتحول وباء الاحتيال الصغير كارثةً اقتصادية كلية لقطاع التأمين العالمي، مُحوّلاً خدوش السيارات البسيطة وأعطال الهواتف الذكية التزاماتٍ مالية ضخمة على الشركات.

في الولايات المتحدة، «قد تتضمن 20 -30 في المائة من مطالبات التأمين الآن صوراً مُعدّلة، أو وثائق مُزوّرة، أو تقارير طبية مُزيّفة»، وفقاً لشركة «شيفت تكنولوجي»، وهي شركة تقنية تُقدّم وكلاء ذكاء اصطناعي لأتمتة المطالبات.

في المملكة المتحدة، أفادت شركة التأمين «أليانز» بزيادة نسبتها 300 في المائة في استخدام الذكاء الاصطناعي لتعديل الوثائق والصور ومقاطع الفيديو في مطالبات العملاء بين عامي 2022 و2023. وتتوقع شركة «فيريسك» العالمية لتحليلات بيانات التأمين أن يزداد الوضع سوءاً: «واحد من كل ثلاثة مستهلكين قد يُفكّر في تعديل صورة أو وثيقة مطالبة تأمين رقمياً لتعزيز موقفه، وترتفع هذه النسبة إلى 55 في المائة بين جيل الشباب».

في إسبانيا، تُفيد شركة التأمين «أكسا» بأنها تُعالج ما يصل إلى 30 ألف وثيقة متعلقة بالمطالبات يومياً؛ ما يُصعّب اكتشاف التلاعب المُصطنع على نطاق واسع.

وأوضح أرتورو لوبيز ليناريس، مدير قسم المطالبات في «أكسا» إسبانيا، أن «المشكلة الآن تكمن في سهولة القيام بذلك، وفي أن هذه الأدوات في متناول الجميع. يُمكنك أن تطلب من الذكاء الاصطناعي وضع خدش على سيارتك أو تعديل فاتورة إصلاح. من المستحيل اكتشاف ذلك بالعين المجردة؛ لذا أنت في حاجة أيضاً إلى استخدام التكنولوجيا لتحديده».

2 % من السكان يمارسون الغش

مع التسليم بأن نسبة مرتكبي الغش الرقمي لا تتجاوز 2 في المائة من السكان، إلا أن الأرقام لا ترحم. تكمن المشكلة في استحالة كشف هذه الجرائم. صحيح أنه يُمكن تحليل البيانات الوصفية للصور الرقمية - وهي عبارة عن سلاسل برمجية مخفية تعمل كبصمات رقمية تُسجّل الموقع الجغرافي ومواصفات الجهاز والوقت - ولكن نظراً لسهولة تزييف هذه البيانات؛ فقد زال هذا الحاجز.

التحقق من صحة البيانات

يرى البعض أن الدفاع الأمثل يعتمد على برامج تحليل الصور المتقدمة، ولكن كما أظهرت دراسة الأشعة السينية، فإن ذلك صعب أيضاً، وسيصبح مستحيلاً قريباً. ستتفوق أجيال الذكاء الاصطناعي القادمة على أي إجراءات مضادة في مجال الطب الشرعي الرقمي نطورها. إضافةً إلى ذلك، فإن تكلفة هذه الإجراءات، التي ستكون باهظة التنفيذ والتشغيل في مراكز البيانات، تُهدد فعلياً بقاء الشركات الصغيرة والمتوسطة.

ولعل الآن، ومع بدء تأثير الذكاء الاصطناعي على الاقتصاد، وعلى أرباح الشركات والحكومات، سيزداد الضغط بما يكفي للمطالبة بحلول إلزامية للتحقق من صحة البيانات، بما يعود بالنفع على الجميع.

* مجلة «فاست كومباني»