كيف يخدعنا الذكاء الاصطناعي الوهمي... وكيف نحمي أنفسنا؟

من دواءٍ ملوَّن في الأسواق إلى تطبيقٍ لامع في الهاتف... الوهم نفسه بثوبٍ رقمي جديد

بعض تطبيقات الذكاء الاصطناعي تقدم نفسها كمستشار طبي أو قانوني أو حسابي أو حتى كـ«لرفيق عاطفي»
بعض تطبيقات الذكاء الاصطناعي تقدم نفسها كمستشار طبي أو قانوني أو حسابي أو حتى كـ«لرفيق عاطفي»
TT

كيف يخدعنا الذكاء الاصطناعي الوهمي... وكيف نحمي أنفسنا؟

بعض تطبيقات الذكاء الاصطناعي تقدم نفسها كمستشار طبي أو قانوني أو حسابي أو حتى كـ«لرفيق عاطفي»
بعض تطبيقات الذكاء الاصطناعي تقدم نفسها كمستشار طبي أو قانوني أو حسابي أو حتى كـ«لرفيق عاطفي»

في سوقٍ شعبية قديمة، كنت ترى بائعاً جوَّالاً يرفع قارورة صغيرة ويصيح بثقة: «هذا الدواء يشفي كل داء!». ويتجمّع الناس حوله بدافع الأمل، يدفعون نقودهم، ويعودون إلى بيوتهم وهم يعلّقون رجاءهم على ماءٍ ملوّن ووعودٍ جوفاء.

بائع القناني الملونة في الأسواق القديمة كدواء مزيف ضد الأمراض

حيلة قديمة... ترتدي ثوباً رقمياً

تلك الحيلة القديمة لم تَمُت، بل ارتدت ثوباً رقمياً جديداً. فاليوم، لا تحتاج إلى الوقوف في السوق لتُخدع؛ يكفي أن تفتح هاتفك لتجد بائعاً رقمياً يعرض «ذكاءً اصطناعياً خارقاً» في قنينة تطبيق... أسماء براقة مثل «الطبيب الذكي» و«الرفيق العاطفي» و«المستشار القانوني الآلي» تتنافس على كسب ثقتك، مستخدمة كلماتٍ تشبه السحر، لكنها تخفي وراء لمعانها خوارزميات سطحية تكرّر ما تعلّمته دون فهم، وأحياناً بنوايا خبيثة تسعى لسرقة بياناتك أو التلاعب بك نفسياً.

لماذا ينجح هذا الخداع؟

الذكاء الاصطناعي الحقيقي أشبه بمختبر ضخم يعمل فيه علماء بيانات ومهندسون على خوارزميات تتطلب سنوات من التطوير وكمّاً هائلاً من البيانات والتجارب. إنه مجال معقّد ومكلف لا يُبنى في ليلة. لكن باعة الوهم الجدد اكتشفوا طريقاً أسهل: يكفي أن يضيفوا حرفين لامعين - «AI» - إلى اسم أي تطبيق عادي، ليغمرهم المستخدمون بالاهتمام والتحميلات والثقة. (ـ«A» و«I» هما حرفان فقط من الأبجدية اللاتينية، اختصاراً لـArtificial Intelligence الذكاء الاصطناعي).

إنهم يستغلون نقطتين إنسانيتين فينا: الفضول والرغبة في الحل السريع. فمن منا لا يريد طبيباً يجيب فوراً عن ألمه؟ أو محامياً يحسم قضيته دون انتظار؟ أو مستشاراً مالياً يضاعف أرباحه دون جهد؟ لكن النتيجة كثيراً ما تكون خسارة مزدوجة: للمال وللخصوصية، وأحياناً للعقل الذي ينخدع بوهم الذكاء فيتّخذ قرارات خاطئة قد تضر بصحته أو استقراره المالي.

والمشكلة لا تقتصر على الطب أو القانون، بل تمتد إلى كل زاوية من حياتنا الرقمية. فهناك «المستشار التسويقي الذكي» الذي يعدك بحملة مثالية، و«المحاسب الافتراضي» الذي يدّعي إدارة ميزانيتك بلا أخطاء، بل حتى «الرفيق العاطفي» الذي يتظاهر بفهمك أكثر من البشر. غير أن أغلب هذه التطبيقات لا تقدّم سوى ردودٍ آلية أو تحليلاتٍ سطحية تُخفي خلفها غاية واحدة: جمع بياناتك، وتغذية خوارزمياتهم التجارية، لا تحسين حياتك.

طفرة الذكاء... وطفرة الادعاء

في عام 2024، شهد العالم انفجاراً غير مسبوق في عدد التطبيقات التي ترفع شعار «الذكاء الاصطناعي». ووفقاً لتقارير منصة تحليل السوق الرقمية «سنسور تاور» (Sensor Tower) ومنصة البيانات «ستارت دوت آي أو» (Start.io)، بلغ عدد مرات تحميل التطبيقات التي تتضمن كلمة «الذكاء الاصطناعي» (AI) في اسمها أو وصفها أكثر من 17 مليار تحميل خلال عام واحد فقط، بينما أضاف أكثر من 3 آلاف تطبيق جديد هذا المصطلح إلى أسمائها أو حملاتها التسويقية لأول مرة.

وتشير البيانات إلى أن عائدات هذه التطبيقات تجاوزت 3.3 مليار دولار، وهو رقم يعكس ليس فقط الإقبال على الذكاء الاصطناعي الحقيقي، بل أيضاً الإغراء التجاري لاستخدام المصطلح نفسه كأداة جذب وتسويق.

كما أظهرت دراسة أكاديمية نُشرت في موقع الأبحاث العلمية «أركايف» (arXiv) أنه خلال خمسة أشهر فقط من عام 2024، تم رصد أكثر من 786 ألف تطبيق يُصنَّف ضمن فئة «تطبيقات النماذج اللغوية الكبيرة» (LLM Apps)، مما يكشف حجم الزخم العالمي حول هذا المجال. لكن المقلق أن نسبة غير قليلة من هذه التطبيقات لا تعتمد على ذكاء حقيقي بقدر ما تستغل الاسم لتحقيق الانتشار أو جمع البيانات. إنها طفرة مزدوجة: ازدهار للابتكار... وازدهار للوهم.

ينبغي تمييز التطبيقات الحقيقية عن الزائفة

كيف تميّز الزائف من الأصيل؟

لست بحاجة إلى أن تكون خبيراً في البرمجة لتكشف الخداع؛ فالتطبيقات الزائفة تترك دائماً آثاراً تدلّ عليها، كما يترك البائع المتجول آثار ألوانه على يديه.

وإليك أبرز العلامات التي ينبغي أن تثير شكّك قبل أن تضغط على «تحميل»:

* المطوّر المجهول: اسأل نفسك: من يقف وراء التطبيق؟ هل هو مشروع تابع لجامعة أو معهد بحثي أو شركة تقنية معروفة؟ أم حساب غامض بلا موقع رسمي أو معلومات تواصل؟ الشفافية أول اختبار للثقة.

* الوعود المطلقة والمبالغ بها: حين تقرأ عبارات مثل «تشخيص طبي دقيق 100 في المائة»، أو «نجاح مضمون»، أو «تحليل شخصيتك في دقيقة»، فاعلم أنك أمام بائع وهم لا مطوّر علم. الذكاء الاصطناعي الحقيقي متواضع بطبعه، يعترف بحدوده، ويقدّم نسب نجاح قابلة للقياس.

* غياب التفاصيل التقنية: التطبيقات الأصيلة تشرح، ولو بأسلوب مبسط، كيف تعمل خوارزمياتها أو من أين تتعلم بياناتها. أما الزائفة فتعتمد على العبارات الغامضة مثل «مدعوم بأحدث تقنيات الذكاء الاصطناعي»، دون أي توضيح.

* الخصوصية المفقودة: احذر من التطبيقات التي تطلب الوصول إلى الكاميرا أو الميكروفون أو الموقع أو ملفاتك المالية دون سبب واضح. فالنية الخفية غالباً ليست تقديم خدمة، بل جمع بيانات لتسويقها أو استغلالها.

* غياب التقييمات الحقيقية: افحص المراجعات في متاجر التطبيقات. هل التعليقات حقيقية ومتنوعة؟ أم متكررة ومكتوبة بنفس الأسلوب؟ التقييمات المزيفة تُصاغ أحياناً تلقائياً لإيهام المستخدمين بالمصداقية.

* الإعلانات المبالغ بها: إن رأيت وعوداً لامعة من مؤثرين أو حملات تسويقية تروّج «لذكاء خارق»، بينما لا تجد أثراً علمياً واحداً يثبت ذلك - فأنت أمام فخ تسويقي لا أكثر.

* غياب أي إشراف أو ترخيص: التطبيقات الأصيلة، خصوصاً الطبية أو القانونية، تخضع لمراجعات أو تراخيص من هيئات مختصة. أما «باعة الذكاء» فلا يذكرون جهة إشراف واحدة.

* علامة الكلفة المنخفضة: حين يُعرض تطبيق يدّعي قدرات خارقة بسعر زهيد أو اشتراك مجاني بالكامل، فاسأل نفسك: إذا لم تكن أنت الزبون... فربما تكون أنت المنتج.

تقييمات مشبوهة: تعليقات متكررة بنفس الأسلوب، أو تقييمات خمس نجوم من دون تفاصيل حقيقية، غالباً ما تكون مزيفة أو مدفوعة الأجر.

كيف تحمي نفسك وتختار الأدوات الموثوقة؟

الحماية الرقمية ليست معقدة إذا كنت واعياً. كل ما تحتاجه هو قليل من الحذر وكثير من الأسئلة قبل أن تضغط على «تحميل». إليك دليلاً عملياً لتجنّب الوقوع في فخ «باعة الذكاء» الجدد:

* ابحث عن المطوّر: تحقق من هوية الجهة المنتجة للتطبيق. هل لديها موقع رسمي، فريق معروف، أو شراكة مع جامعة أو مؤسسة بحثية موثوقة؟ كلما زادت الشفافية، زادت الموثوقية.

* اقرأ المراجعات بعناية: لا تكتفِ بعدد النجوم، بل اقرأ التعليقات الفعلية. ابحث عن تجارب مفصّلة توضّح المزايا والعيوب. المراجعات المتشابهة أو المبالغ فيها قد تكون آلية ومزيّفة.

* التحميل من المتاجر الرسمية فقط: التزم بـGoogle Play أو App Store، وابتعد عن الروابط العشوائية أو الإعلانات المغرية على وسائل التواصل. فالبرامج الوهمية كثيراً ما تختبئ وراء واجهات براقة ومواقع مزيفة.

* راقب الأذونات: افحص ما يطلبه التطبيق من صلاحيات. إذا طلب مثلاً الوصول إلى الميكروفون لتطبيق كتابة، أو إلى الصور لتطبيق حاسبة، فهذه إشارة خطر. لا تمنح إذناً بلا داعٍ.

* استخدم بريداً إلكترونياً ثانوياً: عند تجربة تطبيق جديد وغير موثوق، استعمل بريداً تجريبياً منفصلاً عن حساباتك الرسمية أو البنكية لحماية خصوصيتك من التسريب.

* احذف التطبيقات الراكدة: كل تطبيق مهجور على هاتفك قد يكون باباً خلفياً لجمع البيانات أو للاختراق. نظّف جهازك دورياً مما لا تحتاجه.

* ابحث عن التوثيق العلمي: التطبيق الجاد يذكر مصادره أو نتائج اختباراته. قد يشير إلى دراسة منشورة أو تعاون مع جهة أكاديمية. غياب هذه الأدلة يعني غالباً غياب المصداقية.

* احذر من «الذكاء المجاني»: إذا كان التطبيق يعدك بخدمات خارقة دون مقابل، فتذكّر القاعدة الذهبية: حين لا تدفع بالمال، فربما تدفع ببياناتك.

* استعن بالعقل لا بالعاطفة: لا تنخدع بالإبهار البصري أو اللغة التسويقية. اسأل دائماً: هل هذا التطبيق يحل مشكلة حقيقية... أم يخلقها ليبيعني الحل؟

الخسارة تلاحق الواقعين في الفخاخ الرقمية

الذكاء الاصطناعي: أداة أم خدعة؟

الذكاء الاصطناعي ليس خيراً أو شراً بذاته؛ إنه مرآة تعكس نوايا من يستخدمه. فإذا صُمم بمسؤولية، يمكن أن يكون أداة ثورية تُسهم في تحسين حياة الإنسان: من مساعدة الأطباء في تشخيص الأمراض بدقة أكبر، إلى تطوير التعليم، وإدارة الموارد بكفاءة، وتقليل الفاقد في قطاعات الطاقة والزراعة. لكن حين يُستخدم بلا ضمير أو يُسوّق بوهم، يتحول إلى قنينة رقمية جديدة تُباع على الشاشات، تعد بالكمال ولا تقدم سوى الخداع.

في منطقتنا العربية، حيث تنتشر التكنولوجيا بسرعة تفوق أحياناً قدرتنا على استيعابها، يتضاعف خطر الوقوع في هذه الفخاخ الرقمية، خصوصاً مع محدودية الوعي التقني لدى بعض المستخدمين.

هنا يبرز دورنا الجماعي: الإعلام العربي، والمدارس، والجامعات، ومراكز البحث، كلّها تتحمل مسؤولية بناء «المناعة الرقمية» للمجتمع. لقد أصبحت المعرفة التكنولوجية شكلاً جديداً من الحصانة ضد التضليل. علينا أن نُعلّم أبناءنا كيف يسألون قبل أن يصدقوا، وكيف يتحققون قبل أن يشاركوا، وكيف يميزون بين الأداة الحقيقية والخدعة المغلفة بشعار «الذكاء الاصطناعي». ويمكن أن تبدأ هذه الجهود بورش عمل في المدارس أو حملات توعية إعلامية تشرح للناس بلغة مبسطة كيفية قراءة سياسات الخصوصية، أو التحقق من موثوقية التطبيقات قبل استخدامها.

الذكاء الحقيقي في السؤال

الذكاء الاصطناعي يشبه نهراً جارفاً: لا يمكن إيقافه، لكن يمكن توجيهه. إما أن يروي عطشنا للمعرفة... أو أن يُغرقنا في طوفان من التضليل. الفرق لا يصنعه النهر، بل الوعي الذي يختار مجراه. وكما قال الفيلسوف ابن رشد: «من اتخذ التقليد عادة في فكره، أغلق على نفسه باب النظر». فلا تدع الـ«AI» يصبح تقليداً جديداً نمارسه دون تفكير.

إن الذكاء الحقيقي ليس في قدرة الخوارزميات على الإجابة، بل في قدرتنا نحن على طرح الأسئلة الصحيحة - الأسئلة التي تفتح باب الفهم لا باب التكرار، والتي تجعل التقنية خادمة للعقل لا بديلة عنه. فالخطر ليس في أن تُخدع بخوارزمية، بل في أن تتوقف عن السؤال أمامها.

شاركنا رأيك وتجربتك: هل واجهت تطبيقاً ادّعى أنه يعمل بالذكاء الاصطناعي وتبيّن أنه وهم؟ كيف اكتشفت الخداع؟ دعونا نبني معاً مجتمعاً رقمياً أكثر وعياً، يرى في التكنولوجيا وسيلة للارتقاء لا مرآة للوهم، ويجعل من السؤال أول أشكال الذكاء... لا آخرها.

حقائق

3.3

مليار دولار عائدات التطبيقات الذكية عام 2024

حقائق

786

ألف تطبيق يُصنَّف ضمن فئة “تطبيقات النماذج اللغوية الكبيرة” رصد خلال خمسة أشهر فقط من عام 2024


مقالات ذات صلة

العين «مرآة الدماغ الصامتة» تكشف عن الأمراض مبكراً

علوم حين يصبح التشخيص رفيقك الدائم

العين «مرآة الدماغ الصامتة» تكشف عن الأمراض مبكراً

أصبحت مصدراً غنياً بالبيانات قد يكشف المستقبل الصحي للإنسان

د. عميد خالد عبد الحميد (الرياض)
تكنولوجيا العديد من الأشخاص عانوا من أوهام بعد استخدام الذكاء الاصطناعي (رويترز) p-circle

من علاج السرطان إلى تهديدات القتل... قصص أشخاص عانوا «الوهم» بعد محادثات مع الذكاء الاصطناعي

كانت الساعة تقارب الثالثة فجراً، وكان آدم هوريكان جالساً على طاولة مطبخه، وأمامه سكين ومطرقة وهاتف. وكان ينتظر سيارة مليئة بأشخاص ظنّ أنهم قادمون لأخذه.

«الشرق الأوسط» (لندن)
الاقتصاد مدينة «أوكساغون» شمال السعودية (نيوم)

السعودية الثانية عالمياً في جاذبية مراكز البيانات بعد الولايات المتحدة

حلَّت السعودية في المرتبة الثانية عالمياً بعد الولايات المتحدة، ضمن أكثر الأسواق جذباً لمراكز البيانات، في إشارة إلى تسارع مكانتها في مجالات الذكاء الاصطناعي.

«الشرق الأوسط» (الرياض)
صحتك يؤدي ضيق الصمام الأورطي إلى الوفاة إذا ترك دون علاج (بيكساباي)

الذكاء الاصطناعي يحسن فرص ذوي البشرة الداكنة في اكتشاف مرض بالقلب

خلص باحثون إلى أن جهازاً يثبت على الأصابع مزودا بخوارزمية ذكاء اصطناعي يمكنه الكشف بدقة عن حالات ضيق الصمام الأورطي من المستوى المتوسط إلى الشديد.

«الشرق الأوسط» (نيويورك)
الولايات المتحدة​ الرئيس الأميركي دونالد ترمب (رويترز)

صور الذكاء الاصطناعي وسيلة ترمب لإيصال رسائله

يعمد الرئيس الأميركي دونالد ترمب إلى استخدام الصور المُولَّدة بالذكاء الاصطناعي أداةً لإيصال رسائل تتصل بالقوة والسياسة.

لينا صالح (بيروت)

العين «مرآة الدماغ الصامتة» تكشف عن الأمراض مبكراً

حين يصبح التشخيص رفيقك الدائم
حين يصبح التشخيص رفيقك الدائم
TT

العين «مرآة الدماغ الصامتة» تكشف عن الأمراض مبكراً

حين يصبح التشخيص رفيقك الدائم
حين يصبح التشخيص رفيقك الدائم

في الطب القديم، لم يكن السؤال هو البداية بل النظرة الأولى. كان المطبّبون يتأملون العين قبل أن يستمعوا إلى الشكوى، لا بوصفها أداة للإبصار فقط، بل نافذة دقيقة تعكس ما يجري في أعماق الجسد. لم تكن تلك الملاحظة ضرباً من الحدس وحده، بل ممارسة تشخيصية قائمة على خبرة تراكمت عبر قرون.

اليوم، وبعد مسار طويل من التقدم العلمي، يعود هذا المفهوم بصيغة جديدة أدق وأكثر تعقيداً. لكن هذه المرة، لا يقوم به حدس الطبيب وحده، بل خوارزميات الذكاء الاصطناعي القادرة على تحليل صور العين واستخراج أنماط خفية تتجاوز قدرة النظر البشري.

بين حدس الطبيب وعيون الخوارزمية

لم تعد الإشارات مقتصرة على ملامح الوجه أو نبرة الصوت، بل تمتد إلى أعماق العين نفسها.

فهل يمكن حقاً أن تكشف العين عن أمراض لم تظهر أعراضها بعد؟

وهل يستطيع الذكاء الاصطناعي أن يرى في شبكية العين ما لا نستطيع نحن إدراكه؟

مرآة الدماغ الصامتة

تُعد شبكية العين امتداداً مباشراً للجهاز العصبي المركزي، وهي الجزء الوحيد من الدماغ الذي يمكن رؤيته بشكل غير جراحي. لهذا السبب، فإن أي تغيير دقيق في الأوعية الدموية داخل العين قد يعكس اضطرابات أعمق في الدماغ، أو القلب، أو التمثيل الغذائي.

خلال السنوات الأخيرة، أظهرت دراسات متقدمة أن تحليل صور قاع العين يمكن أن يكشف مؤشرات مبكرة لأمراض مثل السكري، وارتفاع ضغط الدم، وأمراض القلب. ومن أبرز هذه الجهود، أبحاث طورتها شركة «ديب مايند» بالتعاون مع مستشفى «مورفيلدز للعيون» في لندن، حيث أُنتج نموذج قادر على تحليل صور الشبكية بدقة تضاهي كفاءة كبار أطباء العيون، بل وتتجاوزها في حالات معينة.

وفي دراسة حديثة نُشرت عام 2026 في مجلة نيتشر ميديسن (Nature Medicine)، قاد الباحث جوزيف لِدسام (Joseph Ledsam) من شركة ديب هيلث (Deep Health) – لندن، المملكة المتحدة – فريقاً طوّر نموذجاً ذكياً لتحليل صور الشبكية بهدف التنبؤ بالمخاطر القلبية الوعائية. ولم تقتصر النتائج على تحسين الدقة التشخيصية، بل أظهرت قدرة النظام على تقدير العمر البيولوجي، ومستويات ضغط الدم، وحتى خطر الإصابة بالسكتة الدماغية، اعتماداً على تفاصيل دقيقة في شكل الأوعية الدموية يعجز الإنسان عن تفسيرها بسهولة.

كما أظهرت أبحاث أخرى من جامعة ستانفورد الأميركية أن الدمج بين الصور الطبية والبيانات الحيوية يفتح الباب أمام تشخيص الأمراض المزمنة قبل ظهور أعراضها بسنوات.

هنا لا تتحدث الخوارزمية بلغة التشخيص التقليدي، وإنما بلغة الأنماط الخفية، أنماط لا نبحث عنها عادة، لكنها كانت موجودة طوال الوقت.

العين التي تقرأ الجسد قبل أن ينطق المرض

من العيادة إلى الهاتف

لم تعد هذه التقنيات حبيسة المختبرات أو المراكز المتخصصة. فقد بدأت أدوات تحليل صور العين تنتقل إلى أجهزة أبسط، بل وحتى إلى الهواتف الذكية. في هذا النموذج الجديد، قد يتحول فحص العين من إجراء يُجرى خلال زيارة طبية إلى عملية مستمرة تعمل في الخلفية، ترصد التغيرات الدقيقة قبل أن يشعر بها الإنسان.

وهنا يتغير مفهوم التشخيص ذاته. لم يعد حدثاً مرتبطاً بموعد، بل عملية ديناميكية تراقب الإشارات الصامتة للجسد بصورة متواصلة.

في العالم العربي، حيث ترتفع معدلات السكري وأمراض القلب بشكل ملحوظ، قد تمثل هذه التقنيات فرصة حقيقية لإعادة تعريف الوقاية قبل أن تتحول إلى علاج.

ورغم هذا التقدم، يظل السؤال الجوهري قائماً: هل يمكن الوثوق بما «تراه» الخوارزميات؟ فالذكاء الاصطناعي لا يرى الإنسان بوصفه كائناً متكاملاً، بل يرى بيانات. وهذه البيانات قد تكون ناقصة، أو متحيزة، أو غير ممثلة لجميع الفئات. كما أن كثيراً من هذه الأنظمة، رغم دقتها العالية، تفتقر إلى القدرة على تفسير قراراتها، فتخبرنا بما قد يحدث، دون أن تشرح لماذا.

هنا تظهر فجوة جديدة في الطب الحديث: فجوة بين الرؤية والفهم، بين الدقة والمعنى.

ربما لم يكن الأطباء القدماء مخطئين حين جعلوا العين مدخلاً أساسياً للتشخيص، لكنهم كانوا يعتمدون على الخبرة والحدس والارتباط المباشر بالمريض. أما اليوم، فيقدم الذكاء الاصطناعي دقة أعلى، لكنه يظل محدود الفهم خارج إطار البيانات.

وفي هذا التوازن الدقيق، لا يصبح دور الطبيب قراءة الصورة فحسب، بل تفسير ما وراء الصورة، وربط النتائج بسياق إنساني لا تستطيع الخوارزميات إدراكه. فالخطر ليس أن ترى الآلة أكثر منا، بل أن نثق بما تراه دون أن نفهمه.

في عصر الذكاء الاصطناعي، لم تعد العين مجرد وسيلة للرؤية، بل أصبحت مصدراً غنياً بالبيانات قد يكشف المستقبل الصحي للإنسان.

لكن التحدي الحقيقي لا يكمن فيما يمكن رؤيته، بل في ما قد لا ننتبه إليه؛ في الإشارات التي تلتقطها الأنظمة دون أن نفهم معناها الكامل.

ولهذا، لم يعد السؤال: هل نرى المرض؟ بل أصبح: ما الذي تراه الخوارزميات فينا... ولم نتعلم بعد كيف نراه نحن؟


العالم يجاهد لمواكبة تطور الذكاء الاصطناعي

العالم يجاهد لمواكبة تطور الذكاء الاصطناعي
TT

العالم يجاهد لمواكبة تطور الذكاء الاصطناعي

العالم يجاهد لمواكبة تطور الذكاء الاصطناعي

في ظروف الوضع العام المحيط بالذكاء الاصطناعي، الأشبه بحمى البحث عن الذهب أو فقاعة، صدر حديثاً، مؤشر الذكاء الاصطناعي لعام 2026 من The 2026 AI Index «معهد الذكاء الاصطناعي المتمحور حول الإنسان»، التابع لجامعة ستانفورد. وهو التقرير السنوي للذكاء الاصطناعي، الذي جاء ليقضي على بعض من هذا الضجيج المحيط بتطويراته وآفاقه.

تحسن مطرد

رغم توقعات البعض بأن تطور الذكاء الاصطناعي قد يصل إلى طريق مسدود، يُشير التقرير إلى أن أفضل النماذج مستمرة في التحسن. فاليوم يتبنى الناس الذكاء الاصطناعي بوتيرة أسرع من تبنيهم للحاسوب الشخصي أو الإنترنت. وتجني شركات الذكاء الاصطناعي إيرادات أسرع من الشركات في أي طفرة تكنولوجية سابقة. غير أنها في الوقت ذاته تُنفق مئات المليارات من الدولارات على مراكز البيانات والرقائق الإلكترونية.

وفي المقابل، تكافح المعايير المصممة لقياس الذكاء الاصطناعي، والسياسات المنظمة له، وسوق العمل لمواكبة هذا التطور. ومن المؤكد أن الذكاء الاصطناعي ينطلق بسرعة فائقة، ونحن نحاول جاهدين التكيف معه. وبطبيعة الحال، لكل هذه السرعة ثمن، ففي الوقت الحاضر، تستهلك مراكز بيانات الذكاء الاصطناعي حول العالم 29.6 غيغاواط من الطاقة، أي قدرة تكفي لتزويد ولاية نيويورك بأكملها بالكهرباء في أوقات الذروة. وقد يتجاوز استهلاك المياه السنوي لتشغيل نموذج GPT-40 من «أوبن إيه آي» وحده، احتياجات 12 مليون شخص من مياه الشرب. في الوقت نفسه، تتسم سلسلة توريد الرقائق الإلكترونية بهشاشة مثيرة للقلق.

وبينما تستضيف الولايات المتحدة معظم مراكز بيانات الذكاء الاصطناعي في العالم، تصنع شركة «تي إس إم سي» التايوانية جميع رقائق الذكاء الاصطناعي الرائدة تقريباً.

تنافس أميركي ـــ صينيوتكشف البيانات عن تكنولوجيا تتطور بوتيرة أسرع من قدرتنا على مواكبتها. وإليكم نظرة على بعض النقاط الرئيسة الواردة بالتقرير الصادر هذا العام.

في خضم سباق طويل ومحتدم يحمل بطياته رهانات جيوسياسية هائلة، تتنافس الولايات المتحدة والصين بشدة على صعيد أداء نماذج الذكاء الاصطناعي، بحسب منصة «أرينا»، منصة تصنيف مجتمعية تتيح للمستخدمين مقارنة مخرجات نماذج اللغة الكبيرة، بناءً على نصوص متطابقة.

* أداء النماذج. أوائل عام 2023، كانت «أوبن إيه آي» متقدمةً بفضل «تشات جي بي تي»، لكن هذه الفجوة تقلصت عام 2024 مع إطلاق «غوغل» و«أنثروبيك» نماذجهما الخاصة.

وفي فبراير (شباط) 2025، قدم «آر وان»، نموذج ذكاء اصطناعي طوره مختبر «ديب سيك» الصيني، لفترة وجيزة، أداءً مماثلاً لأفضل نموذج أميركي، وهو «تشات جي بي تي». وبحلول مارس (آذار) 2026، تصدرت «أنثروبيك» القائمة، تليها «إكس إيه آي» و«غوغل» و«أوبن إيه آي» بفارق ضئيل. أما النماذج الصينية، مثل «ديب سيك» و«علي بابا»، فكانت متأخرة بعض الشيء.

* التكلفة ورؤوس الأموال والأبحاث. ومع تقارب أفضل نماذج الذكاء الاصطناعي في التصنيفات، أصبح التنافس متركزاً الآن حول التكلفة والموثوقية والجدوى العملية.

وكشف المؤشر أن الولايات المتحدة والصين تتمتعان بمزايا مختلفة في مجال الذكاء الاصطناعي؛ ففي الوقت الذي تمتلك الولايات المتحدة نماذج ذكاء اصطناعي أكثر قوة، ورأس مال أكبر، وما يُقدّر بنحو 5427 مركز بيانات (أكثر من عشرة أضعاف ما لدى أي دولة أخرى)، تتصدر الصين بمجال منشورات أبحاث الذكاء الاصطناعي، وبراءات الاختراع، والروبوتات.

ومع اشتداد المنافسة، بدأت شركات مثل «أوبن إيه آي» و«أنثروبيك» و«غوغل» بالامتناع عن الإفصاح عن شفرة التدريب، أو عدد المعاملات في نماذجها، أو أحجام مجموعات البيانات. في هذا الصدد، نقلت مجلة «تكنولوجي ريفيو» عن يولاندا جيل، عالمة الحاسوب في جامعة جنوب كاليفورنيا، التي شاركت في تأليف التقرير: «لا نعرف الكثير عن التنبؤ بسلوكيات النماذج»، مضيفة أن هذا النقص في الشفافية يُصعّب على الباحثين المستقلين دراسة كيفية جعل نماذج الذكاء الاصطناعي أكثر أماناً.

خريطة عالمية تظهر توزيع مراكز البيانات لعام 2025

تطور فائق السرعة

* أداء عال و«ذكاء متذبذب». ورغم التوقعات بأن تطور الذكاء الاصطناعي سيتوقف عند حد معين، فإن نماذج الذكاء الاصطناعي ماضية في التحسن. وبحسب بعض المقاييس، فإنها الآن تُضاهي أو تتجاوز أداء الخبراء البشريين في الاختبارات الهادفة إلى قياس مستوى فهم العلوم والرياضيات رواللغة عند مستوى الدكتوراه. شهد اختبار SWE-bench Verified، معيار هندسي لهندسة البرمجيات خاص بنماذج الذكاء الاصطناعي، قفزة نوعية في أعلى الدرجات، من نحو 60 في المائة عام 2024 إلى ما يقارب 100 في المائة عام 2025، أنتج نظام ذكاء اصطناعي توقعات جوية بشكل مستقل

وعبرت جيل عن اندهاشها من «استمرار تطور هذه التكنولوجيا، فهي لا تتوقف عند حد معين» بيد أن هذا لا يعني بأي حال أن الذكاء الاصطناعي، لم يعد يواجه صعوبات على كثير من الأصعدة الأخرى. ونظراً لأن النماذج تتعلم من خلال معالجة كميات هائلة من النصوص والصور، بدلاً من تجربة العالم المادي، فإن الذكاء الاصطناعي يُظهر «ذكاءً غير منتظم» (متذبذب).

* نجاح الروبوتات. اليوم، لا تزال الروبوتات في مراحلها الأولى، ولا تنجح إلا في 12 في المائة فقط من المهام المنزلية. أما السيارات ذاتية القيادة، فقد قطعت شوطاً أطول: تجوب سيارات «وايمو» الآن خمس مدن أميركية، وتنقل مركبات «أبولو غو»، التابعة لشركة «بايدو»، الركاب في أنحاء الصين. كما يتوسع الذكاء الاصطناعي ليضم مجالات مهنية مثل القانون والتمويل، لكن لا يوجد نموذج يهيمن بهذه المجالات حتى الآن.

اختبارات الذكاء الاصطناعي وتأثيراته* طرق اختبار الذكاء الاصطناعي. ينبغي التعامل بحذر مع التقارير التي تتحدث عن إحراز تقدم بمجال الذكاء الاصطناعي؛ فالمعايير المصممة لتتبع مستوى تقدم الذكاء الاصطناعي، تكافح لمواكبة تطور النماذج، التي تتجاوز حدودها بسرعة، حسبما ورد بتقرير جامعة ستانفورد.

والملاحظ أن بعضاً من نماذج الاختبار هذه مصمم بشكل رديء، فقد ظهر أحد المعايير الشائعة التي تختبر القدرات الرياضية للنموذج لديه معدل خطأ يبلغ 42 في المائة. كما يمكن التلاعب ببعضها الآخر: فعندما يجري تدريب النماذج على بيانات اختبار معيارية، على سبيل المثال، يمكنها أن تتعلم تحقيق نتائج جيدة، دون أن تصبح أكثر ذكاءً.

ونظراً لأن الذكاء الاصطناعي نادراً ما يُستخدم بنفس طريقة اختباره، فإن الأداء المتميز في الاختبارات المعيارية لا يُترجم دوماً إلى أداء فعلي في العالم الحقيقي. وفيما يخص التقنيات التفاعلية المعقدة، مثل وكلاء الذكاء الاصطناعي والروبوتات، فإن المعايير المرجعية تكاد تكون معدومة.

علاوة على ذلك، تشارك شركات الذكاء الاصطناعي معلومات أقل حول كيفية تدريب نماذجها، وفي بعض الأحيان تكشف الاختبارات المستقلة نتائج مختلفة عما تُعلنه. وعن ذلك، قالت جيل: «لا تُفصح الكثير من الشركات عن أداء نماذجها فيما يخص معايير مرجعية معينة، خاصة معايير الذكاء الاصطناعي المسؤول».

* تأثير الذكاء الاصطناعي على الوظائف. في غضون ثلاث سنوات من انتشاره على نطاق واسع، أصبح الذكاء الاصطناعي يُستخدم الآن من جانب أكثر من نصف سكان العالم، بمعدل انتشار أسرع من الحاسوب الشخصي أو الإنترنت. وتشير التقديرات إلى أن 88 في المائة من المؤسسات تستخدم الذكاء الاصطناعي بالوقت الراهن، ويستخدمه أربعة من كل خمسة طلاب جامعيين.

لا يزال تطبيق الذكاء الاصطناعي في مراحله الأولى، ويصعب قياس تأثيره على الوظائف. ومع ذلك، تُشير بعض الدراسات إلى أن الذكاء الاصطناعي بدأ يُؤثر بالفعل على العاملين الشباب في بعض المهن. وبحسب دراسة أجراها اقتصاديون من جامعة ستانفورد عام 2025، انحسرت فرص العمل لمطوري البرمجيات، الذين تتراوح أعمارهم بين 22 و25 عاماً، بنسبة تقارب 20 في المائة منذ عام 2022. غير أنه ينبغي الانتباه إلى أن هذا التراجع قد لا يعزى إلى الذكاء الاصطناعي وحده، إذ قد تكون الظروف الاقتصادية الكلية الأوسع نطاقاً السبب الرئيس، لكن يبدو أن للذكاء الاصطناعي دوراً في ذلك.من جهتهم، يرى أصحاب العمل إن التوظيف قد يستمر في الانكماش. وبحسب استطلاع أجرته شركة «ماكينزي» عام 2025، يتوقع ثلث المؤسسات أن يُقلّص الذكاء الاصطناعي عدد موظفيها العام المقبل، خاصة في عمليات الخدمات وسلاسل التوريد وهندسة البرمجيات.

* تعزيز الإنتاجية. يُعزز الذكاء الاصطناعي الإنتاجية بنسبة 14 في المائة في خدمة العملاء، و26 في المائة في تطوير البرمجيات، تبعاً لبحث استشهد به المؤشر. غير أن هذه المكاسب لا تُلاحظ في المهام التي تتطلب قدراً أكبر من التقييم وبوجه عام، لا يزال من المبكر للغاية فهم حقيقة التأثير الاقتصادي الأوسع للذكاء الاصطناعي.

مشاعر متضاربة... وأمية الإشراف التنظيمي* الذكاء الاصطناعي يثير مشاعر متضاربة. في مختلف أرجاء العالم، ينتاب الناس مزيج من مشاعر التفاؤل والقلق في آنٍ واحد حيال الذكاء الاصطناعي: إذ يعتقد 59 في المائة منهم أن فوائده ستفوق أضراره، بينما اعترف 52 في المائة إنه يثير قلقهم، طبقاً لاستطلاع أجرته مؤسسة «إيبسوس» ورد ذكره في المؤشر.

ومن اللافت للنظر أن ثمة اختلافاً كبيراً بين نظرة الخبراء وعامة الناس تجاه مستقبل الذكاء الاصطناعي، وفقاً لاستطلاع أجرته مؤسسة «بيو». وتكمن الفجوة الأكبر في مستقبل العمل: في الوقت الذي يعتقد 73 في المائة من الخبراء أن الذكاء الاصطناعي سيكون له تأثير إيجابي على كيفية أداء الناس لوظائفهم، بينما لا يشاركهم هذا الاعتقاد سوى 23 في المائة من عامة الشعب الأميركي.

كما يبدي الخبراء تفاؤلاً أكبر من الجمهور الناس بشأن تأثير الذكاء الاصطناعي على التعليم والرعاية الصحية، لكنهم يتفقون على أن الذكاء الاصطناعي سيضر بعملية الانتخابات والعلاقات الشخصية.

ومن بين جميع الدول التي شملها الاستطلاع، يثق الأميركيون بحكومتهم أقل من غيرها في تنظيم الذكاء الاصطناعي بشكل مناسب، وذلك وفقاً لاستطلاع آخر أجرته مؤسسة «إيبسوس». ويساور القلق عدد أكبر من الأميركيين، من أن التنظيم الفيدرالي للذكاء الاصطناعي لن يكون كافياً، مقارنةً بمن يشعرون بالقلق من أنه سيكون تنظيماً مفرطاً.

* صعوبة تنظيم الحكومات الذكاء الاصطناعي. تجابه الحكومات حول العالم صعوبة في تنظيم الذكاء الاصطناعي. ومع ذلك، شهد العام الماضي بعض النجاحات الطفيفة؛ فقد دخلت حيز التنفيذ أولى بنود قانون الاتحاد الأوروبي للذكاء الاصطناعي، التي تحظر استخدام الذكاء الاصطناعي في أعمال الشرطة التنبؤية، والتعرف على المشاعر. كما أصدرت اليابان وكوريا الجنوبية وإيطاليا قوانين وطنية خاصة بالذكاء الاصطناعي. في الوقت نفسه، اتجهت الحكومة الفيدرالية الأميركية نحو تخفيف القيود، مع إصدار الرئيس ترمب أمراً تنفيذياً يهدف إلى تقييد صلاحيات الولايات في تنظيم الذكاء الاصطناعي.

ورغم هذا الإجراء الفيدرالي، أقرت المجالس التشريعية للولايات في الولايات المتحدة رقماً قياسياً بلغ 150 مشروع قانون على صلة بالذكاء الاصطناعي. من ناحيتها، سنّت كاليفورنيا تشريعات تاريخية، بينها مشروع قانون مجلس الشيوخ رقم 53، الذي يُلزم مطوري نماذج الذكاء الاصطناعي بالإفصاح عن معلومات السلامة، وتوفير الحماية للمبلغين عن المخالفات. كما أقرَّت نيويورك قانون RAISE، الذي يُلزم شركات الذكاء الاصطناعي بنشر بروتوكولات السلامة، والإبلاغ عن حوادث السلامة الحرجة.

رغم كل هذا النشاط التشريعي، قالت جيل إن التنظيم لا يزال متأخراً عن التكنولوجيا، لأننا لا نفهم حقاً كيفية عملها. وأوضحت أنه: «تتوخى الحكومات الحذر في تنظيم الذكاء الاصطناعي، لأننا لا نفهم الكثير من الأمور على نحو كامل»، مضيفة: «ليس لدينا سيطرة جيدة على هذه الأنظمة».


أداة رقمية تنقذ حياة عائلات مرضى السرطان

أداة رقمية تنقذ حياة عائلات مرضى السرطان
TT

أداة رقمية تنقذ حياة عائلات مرضى السرطان

أداة رقمية تنقذ حياة عائلات مرضى السرطان

تُسهم أداة صحية رقمية جديدة في سد فجوة حرجة في رعاية مرضى السرطان من خلال ضمان وصول معلومات وراثية مهمة قد تنقذ الأرواح، إلى أفراد العائلة الذين قد يكونون بحاجة إليها.

عندما يخضع مريض السرطان لاختبار جيني لا تقتصر أهمية النتائج على توجيه علاجه فقط بل قد تكشف عن طفرات جينية موروثة تزيد بشكل كبير من خطر الإصابة بالسرطان. ويمكن أن تكون هذه المعلومات حاسمة لأقارب المريض. لكنها في كثير من الأحيان لا تصل إليهم.

يقول الباحث ستيفن جيه كاتز من قسم إدارة السياسات الصحية في كلية الصحة العامة وقسم الطب الباطني بمركز روجيل للسرطان بجامعة ميشيغان بالولايات المتحدة: «قليل من الفحوصات الطبية تمتد آثارها إلى ما هو أبعد من المريض نفسه، لكن الاختبارات الجينية قد تحمل تداعيات خطيرة على أفراد العائلة».

حلول رقمية

* منصة «جينية» عائلية. لا شك أن مشاركة المخاطر الجينية داخل العائلة ليست مهمة سهلة، فقد يشعر المرضى بالتردد في بدء هذا النوع من الحديث أو يخشون إثارة القلق أو يفتقرون إلى الإرشادات الواضحة من مقدمي الرعاية الصحية.

ولمواجهة هذا التحدي طوّر كاتز وفريقه منصة إلكترونية تُعرف باسم «معلومات جينية واختبار العائلة» (GIFT) Genetic Information and Family Testing تهدف هذه الأداة إلى مساعدة المرضى على فهم تأثير نتائجهم الجينية على أقاربهم وتسهيل عملية مشاركة هذه المعلومات.

وتوفر المنصة مواد تعليمية وأدوات لاتخاذ القرار، كما تتيح للمرضى دعوة أفراد العائلة من إخوة وأبناء وحتى الأقارب من الدرجة الثانية للاطلاع على معلومات حول مخاطرهم المحتملة. وبمجرد انضمامهم إليها يحصل أفراد العائلة على معلومات مخصصة حول مخاطر السرطان الوراثية مع إمكانية اتخاذ قرار بشأن إجراء الاختبارات الجينية إضافة إلى الوصول المباشر لخدمات الفحص.

* نتائج واعدة من تجربة سريرية. تم اختبار فعالية هذه الأداة في تجربة سريرية شملت 414 ناجياً من السرطان يحملون طفرات جينية مرتبطة بزيادة خطر الإصابة بالمرض. ونُشرت نتائج الدراسة في مجلة علم الأورام السريري «Journal of Clinical Oncology» في 24 مارس (آذار) 2026.

وأظهرت النتائج أن نحو 20 في المائة من المرضى قاموا بدعوة أفراد من عائلاتهم ونحو ثلث الأقارب المدعوين انضموا إلى المنصة و90 في المائة من المشاركين من أفراد العائلة قرروا إجراء الفحص الجيني. ومن اللافت أن إضافة مرشد بشري لم تُحدث فرقاً كبيراً في معدلات المشاركة، ما يشير إلى أن الأداة الرقمية وحدها قد تكون كافية في كثير من الحالات. ومع ذلك ظل العامل المالي عائقاً، إذ كان الأقارب الذين أُتيح لهم الفحص مجاناً أكثر ميلاً لإجرائه مرتين مقارنة بمن طُلب منهم دفع رسوم رغم أن الأرقام الإجمالية ظلت محدودة.

رعاية عائلية بالذكاء الاصطناعي* نهج عائلي في الرعاية. تأتي هذه الدراسة في وقت يشهد فيه استخدام الاختبارات الجينية توسعاً كبيراً في رعاية السرطان. فمن المتوقع أن يخضع أكثر من 250 ألف مريض لهذا النوع من الفحوصات هذا العام مع اكتشاف أكثر من 40 جيناً مرتبطاً بخطر الإصابة بالسرطان.

ورغم ذلك لا تزال عملية نقل النتائج إلى أفراد العائلة المعروفة باسم «الاختبار المتسلسل» cascade testing تواجه تحديات كبيرة.

وأظهرت دراسة أخرى لمجموعة الباحثين نفسها نُشرت في مجلة علم الأورام السريري «Journal of Clinical Oncology» في 13 يناير (كانون الثاني) 2026 أن معظم المرضى يدركون أهمية مشاركة نتائجهم مع عائلاتهم لكنهم يفتقرون إلى الدعم الكافي للقيام بذلك بشكل فعّال.

وفي استطلاع شمل نحو 1800 امرأة مصابة بسرطان الثدي أو المبيض أو الرحم تبين أن 80 في المائة منهن استشرن مستشاراً وراثياً. ورغم أن 71 في المائة منهن شُجِّعن على إبلاغ أفراد أسرهن بالنتائج لم تتلقَّ سوى 57 في المائة إرشادات واضحة حول كيفية القيام بذلك في حين أفادت 38 في المائة فقط بأن المستشار الوراثي تواصل مباشرة مع أحد الأقارب.

وتقول الباحثة أليسون كوريان من قسم علم الأوبئة وصحة السكان في كلية الطب بجامعة ستانفورد بكاليفورنيا: «هذه فجوة كبيرة في الرعاية. فرغم أن المرضى يحصلون على الدعم أثناء الفحص فإنهم لا يتلقون التوجيه الكافي لمشاركة النتائج مع عائلاتهم».

* توظيف الذكاء الاصطناعي. يعمل الباحثون حالياً على تطوير نسخة جديدة من منصة معلومات جينية واختبار العائلة GIFT تتضمن تقنيات الذكاء الاصطناعي لتخصيص المعلومات وتحسين التواصل بين المرضى وأفراد عائلاتهم. وأظهرت آراء المشاركين أن المنصة سهلة الاستخدام، وأن كثيرين تمكنوا من الاستفادة منها دون الحاجة إلى دعم إضافي.

وقال أحد الباحثين المشاركين: «هذه الأداة تُظهر كيف يمكن للتكنولوجيا الحديثة أن تسد فجوات مهمة في الرعاية الصحية من خلال تبسيط المعلومات المعقدة ومساعدة العائلات على اتخاذ قرارات واعية». وفي نهاية المطاف يمكن لمثل هذه الأدوات أن تُسهم في تحويل رعاية السرطان من مجرد علاج إلى وقاية.

فمن خلال تحديد الأشخاص الأكثر عرضة للخطر في وقت مبكر يمكن للعائلات اتخاذ قرارات مدروسة بشأن الفحوصات الدورية أو التدخلات الوقائية. وتؤكد هذه النتائج حقيقة مهمة هي أن المعلومات الجينية لا تخص المريض وحده بل هي شأن عائلي، ومشاركتها قد تنقذ حياة الآخرين.