الذكاء الاصطناعي: تقنية غامضة ذات محتوى متغير وقد تكون متحيّزة

تساؤلات كبرى حول خدمته للمجتمع والصالح العام

الذكاء الاصطناعي: تقنية غامضة ذات محتوى متغير وقد تكون متحيّزة
TT

الذكاء الاصطناعي: تقنية غامضة ذات محتوى متغير وقد تكون متحيّزة

الذكاء الاصطناعي: تقنية غامضة ذات محتوى متغير وقد تكون متحيّزة

تعمل أدوات الذكاء الاصطناعي على تغيير كثير من الجوانب التي لا تُعَد ولا تُحصى من الحياة الحديثة بسرعة مذهلة، بدءاً من الرؤى الاقتصادية والسلامة العامة، وحتى وسائل التواصل الاجتماعي والمجتمع بشكل عام. ونحن نعلم أنه على الرغم من كل التغيرات التي أحدثتها تقنية الذكاء الاصطناعي حتى الآن، فإنه ما زال هناك مزيد من التغييرات التي ستطرأ في المستقبل.

تساؤلات كبرى

ولذلك، فإن هذه هي اللحظة المناسبة للرد على بعض الأسئلة الكبيرة، مثل: ما هو الذكاء الاصطناعي المسؤول؟ وماذا يعني تصميم خوارزميات أخلاقية؟ وكيف يمكننا تصميم أدوات ذكاء اصطناعي من أجل تحقيق الصالح العام اليوم، لضمان غدٍ أكثر أماناً؟

صحيح أن الإجابة عن هذه الأسئلة ليست بسيطة؛ لكنها ضرورية، فهذا هو ما اتفق عليه فريق من الخبراء خلال جلسة شهدت حلقة نقاشية أجرتها شركة «موتورولا سولوشنز» في قمة الشركات الأكثر ابتكاراً التي نظمتها مجلة «فاست كومباني» في شهر مايو (أيار) الماضي.

مسؤولية أخلاقية وثقة وأمان

وفيما يلي 3 نقاط رئيسية تمت مناقشتها خلال هذه الجلسة:

1- مفاهيم الثقة تعتمد بشكل كبير على السياق. ماذا يعني أن يكون الذكاء الاصطناعي أخلاقياً ومسؤولاً وآمناً وجديراً بالثقة؟ يقول مايكل كيرنز، الباحث في شركة «أمازون»، وأستاذ علوم الحاسب الآلي وتكنولوجيا المعلومات في جامعة بنسلفانيا الأميركية، إن الإجابة عن هذا السؤال معقدة للغاية، ما يجعل من الصعب مناقشة الأمر على مستوى مفاهيمي خالٍ من وجود سياق محدد.

وأضاف كيرنز: «لقد أدى عصر الذكاء الاصطناعي التوليدي إلى إدخال المجتمع في حلقة مفرغة بعدة طرق، وذلك بسبب مدى انفتاح المخرجات الناتجة عنه، فمن الصعب جداً تحديد هذه الأمور في غياب أي حالات استخدام محددة؛ حيث إن الأمر يعتمد بشكل كبير على الغرض الذي استُخدمت هذه التقنية من أجله».

استخدام الألفاظ والأفكار السامة

وقدم كيرنز مثالاً بسيطاً يتعلق باستخدام الألفاظ والأفكار السامة، قائلاً إنه في حال استخدم شخص ما الذكاء الاصطناعي كوسيلة مساعدة في كتابة كتاب للأطفال، فإن مدى تسامح التكنولوجيا مع استخدام الألفاظ والأفكار السامة سيكون صفراً، ولكن إذا كان يتم استخدامه من أجل كتابة رواية تاريخية، فإنه ستكون هناك مرونة (تدخل) أكبر.

دور الحالة العاطفية للبشر

ومع ذلك، فإن مسألة السياق هذه ليست مرتبطة بالظروف والمواقف المحددة فحسب؛ بل إن الأمر ينطبق أيضاً على الحالة العاطفية الحالية للبشر الذين يسعون إلى الاستفادة من أداة الذكاء الاصطناعي، حسبما أضاف ماهيش سابثاريشي، وهو نائب الرئيس التنفيذي ورئيس قسم التكنولوجيا في «موتورولا سولوشنز».

وتابع سابثاريشي: «يقول العاملون في مجال تأمين السلامة العامة، إن وظائفهم عبارة عن ساعات من الملل تتخللها لحظات من الرعب، ولذا فإنه يجب أن تخدم نفس مجموعة الأدوات الخاصة بالسلامة قاعدة الزبائن، لكي تحمي مجتمعاتنا عندما نكون في حالة استرخاء، أو عندما نشعر بالملل، أو عندما نكون في حالة توتر كبير».

ويجب على شركة «موتورولا سولوشنز» أن تأخذ هذه الحقيقة بعين الاعتبار، عند تطوير أدوات الذكاء الاصطناعي الخاصة بها، لاستخدامات السلامة العامة، مثل الترجمة الآلية بين مشغلي رقم الطوارئ في الولايات المتحدة «911» والمتصلين الذين لا يتحدثون اللغة نفسها، ويتم إطلاق اسم «العوامل البشرية عالية السرعة» على هذا المبدأ التصميمي، وهو ما يعني الحاجة إلى إنشاء أدوات تظل بسيطة وفعَّالة عندما يكون المستخدمون تحت ضغط شديد.

النظم الذكية فريدة في مخاطرها

2- المخاطر من الناحية التشغيلية. يمثل الذكاء الاصطناعي فئة فريدة من نوعها، من حيث إدارة المخاطر التقليدية.

وقال باتريك هيوستن (وهو جنرال متقاعد بالجيش الأميركي، وعضو فريق عمل الذكاء الاصطناعي التابع لمكتب التحقيقات الفيدرالي «إف بي آي»): «بالنسبة لي، فإن الذكاء الاصطناعي المسؤول، هو مجموعة فرعية أو جزء من إدارة المخاطر التقليدية. فنحن نطلق عليه اسماً خاصاً به، وذلك ليس لأن الذكاء الاصطناعي هو أمر حديث فحسب؛ بل لأنه يحمل بعض المخاطر الفريدة الخاصة به».

وفي رأي هيوستن، فإن الذكاء الاصطناعي يشكل 5 مخاطر فريدة:

أولاً- لأنه يعد تقنية غامضة؛ حيث إن القوى الدافعة لعملية صنع القرارات والعمليات الأخرى في الذكاء الاصطناعي لا تكون شفافة، في كثير من الأحيان.

ثانياً- لأنه متغير باستمرار، وذلك لأن الذكاء الاصطناعي يتعلم ويتطور بشكل مستمر، بناءً على البيانات.

ثالثاً- يمكن أن يكون متحيزاً؛ لأنه يتم تصميمه وتدريبه من قبل البشر الذين قد يقدمون هذا التحيز بطريقة غير مقصودة.

رابعاً- يمكن أن يتسبب في نشوء معلومات غير دقيقة، لأسباب غالباً ما تكون غير واضحة.

خامساً- يمكن أن يحل محل بعض أنواع الوظائف، ما يجعل بعض الفئات من الأشخاص تشعر بعدم الثقة إزاءه بطبيعة الحال.

ابتكار بشري يتطلب تصميماً إنسانياً

واتفق الخبراء المشاركون في المناقشة على أن هذه التحديات صعبة، ولكن يجب أخذها في الاعتبار والتصدي لها، وتخفيف حدتها قدر الإمكان، في حال أراد الناس أن يضعوا ثقتهم في أدوات الذكاء الاصطناعي.

وقال كيرنز: «هناك كثير مما نعرفه علمياً، ولكن علينا أن نتذكر أن هذه الأدوات الموجودة في هذه الأنظمة هي عبارة عن ابتكارات تكنولوجية صنعناها بأنفسنا، ولذا فإن الحل الأول الذي يجب النظر فيه هو تصميم تلك التكنولوجيا بشكل يساعد على تخفيف حدة هذه المشكلات أو تجنبها. فمن الأفضل بكثير أن نعمل على حل المشكلة في المقام الأول، بدلاً من أن نلجأ للتسوية أو تنظيم العمل بهذه الأدوات، بعد وقوع الأضرار بالفعل».

شراكة الذكاء الاصطناعي مع الإنسان

3- أقوى الإمكانات تكمن في شراكة الذكاء الاصطناعي مع الإنسان. عند سؤاله عن أهم استخدامات أدوات الذكاء الاصطناعي في مجال السلامة العامة، رأى سابثاريشي أن هناك فئتين رئيسيتين: الأولى هي عندما يتمكن الذكاء الاصطناعي من إزالة الاحتكاك الذي يتم خلال تواصل الناس بعضهم مع بعض، مثل الترجمة التلقائية للغات خلال مكالمات خدمة الطوارئ «911».

أما الفئة الثانية، فهي توصيل الأشخاص المناسبين بالمعلومات الصحيحة اللازمة في أوقات الحاجة. وضرب سابثاريشي مثالاً من العالم الحقيقي على ذلك، قائلاً إنه عندما فُقد طفل من ذوي الاحتياجات الخاصة في إحدى المدن الواقعة شمال شرقي الولايات المتحدة، كان لدى رجال الشرطة لقطات من مئات كاميرات الفيديو المزودة بتحليلات أدوات الذكاء الاصطناعي.

وأضاف سابثاريشي: «تستخدم هذه المدينة تقنيات (موتورولا سولوشنز) على نطاق واسع، ولذلك فإنه كان بإمكانهم البحث في هذه اللقطات من خلال أوصاف الطفل، وفي غضون دقائق قليلة، كان نظامنا قادراً على أن يخبرهم بالأماكن التي لم يوجد فيها الطفل، وبهذه الطريقة، ساعدت هذه الأدوات الآلية على تركيز انتباه الإنسان على المكان الذي يمكن أن يوجد فيه الطفل، وعلى نحو فعَّال، أزال الذكاء الاصطناعي كومة القش، وسمح للبشر بالعثور على الإبرة التي كانت ضائعة داخلها».

وبالفعل تم العثور على الطفل بسرعة، وتمت إعادته إلى والديه بأمان، وهو ما كان ناتجاً عن جهد مشترك بين الذكاء الاصطناعي والقوى البشرية.

من جهته، قال هيوستن: «السر هو الجمع بين البشر والآلات بطرق تستفيد من نقاط القوة الموجودة لدى كل منهما، إلا أن الناس يقدمون الأمر في بعض الأحيان كما لو كان خياراً بين إما هذا وإما ذاك، قائلين: يجب أن تختار إما الإنسان وإما آلة الذكاء الاصطناعي، أيهما ستختار؟ لكني أرى أن هذا يشير إلى عملية فصل زائفة؛ إذ يمكننا الحصول على كليهما، كما يمكننا الحصول على أفضل ما فيهما».

* مجلة «فاست كومباني»، خدمات «تريبيون ميديا»



لماذا يفقد الجمهور ثقته في الذكاء الاصطناعي التوليدي؟

لماذا يفقد الجمهور ثقته في الذكاء الاصطناعي التوليدي؟
TT

لماذا يفقد الجمهور ثقته في الذكاء الاصطناعي التوليدي؟

لماذا يفقد الجمهور ثقته في الذكاء الاصطناعي التوليدي؟

انطلق عصر الذكاء الاصطناعي بوعودٍ واسعة النطاق ونقاشاتٍ حول إمكانياتٍ لا حدود لها، كما تكتب لويز ك. ألين(*).

تفاؤل وخيبة

والآن، وبعد سنواتٍ من الخبرة العملية، لا يزال الخبراء متفائلين بشأن التأثير طويل الأمد للذكاء الاصطناعي. وفي الوقت نفسه، يتفق معظم الناس على أن مساهماته في الحياة اليومية كانت مخيِّبة للآمال، إن لم تكن أسوأ من ذلك.

وحتى بصفتي واحدة من العاملات في القيادة التقنية بهذا المجال، لا بد لي من الاعتراف بأن استياء المستهلكين من الذكاء الاصطناعي له ما يبرره إلى حد كبير، فقد اتسمت تجربة المواطن الأميركي العادي مع الذكاء الاصطناعي التوليدي، حتى الآن، بتراجع الجودة وازدياد انعدام الثقة.

قصص وهمية في وسائل الاتصال الاجتماعي

تعجّ وسائل التواصل الاجتماعي بأشخاصٍ وقصصٍ وهمية، وتمتلئ الأسواق الإلكترونية بشكلٍ متزايد بعمليات الاحتيال المدعومة بالذكاء الاصطناعي. وغالباً ما تفشل مبادرات الشركات في تحقيق التوقعات المالية، بل إن عدداً منها زاد من صعوبة حياة العاملين.

لقد بات فشل أدوات الذكاء الاصطناعي العام في تحقيق الضجة الإعلامية الكبيرة التي أثيرت حولها، أمراً مُسلَّماً به عالمياً، حتى إن قاموس ميريام-ويبستر نفسه أعلن اختياره كلمة «هراء» ككلمة عام 2025.

«التحديد الدقيق والموجّه»

ومع ذلك، تتاح للجمهور، الآن، فرصة لتغيير هذا الواقع في عام 2026. ويبدأ ذلك بتوظيف مفهوم «التحديد الدقيق (specificity)» ككلمة تُعرِّف ما هو مقبل.

وفي حقيقة الأمر، فإن شركات التكنولوجيا وباحثي الذكاء الاصطناعي بالغوا في تقدير القدرات الفعلية لهذه التقنية منذ البداية، فقد ركّز هؤلاء الرواد على الإمكانات الكامنة، بدلاً من النتائج العملية. لقد صوّروا الذكاء الاصطناعي على أنه ضرورة يجب على الشركات اتباعها لمواكبة التطورات، بدلاً من كونه أداةً يمكن للمؤسسات والأفراد استخدامها لتحقيق أهداف محددة.

التكنولوجيا وسيلة وليست غاية

لتطوير هذه التقنية وتحقيق رؤيتهم لمستقبل مُحسَّن بالذكاء الاصطناعي، سيتعيّن على القادة التوقف عن مناشدة الجمهور لتغيير الخطاب حول الذكاء الاصطناعي.

إن الطريق إلى الأمام بسيط للغاية، إذ يحتاج قادة التكنولوجيا إلى العودة إلى أساسيات المنتج. عليهم أن يتقبلوا فكرة أن التكنولوجيا وسيلة لتحقيق غاية، وليست غاية في حد ذاتها، وهذا يعني إعادة تركيز استراتيجيات التطوير والتواصل على حلول للمشاكل الحقيقية.

خطوات التحديد الدقيق «الموجّه»

1. التصميم الموجَّه للأفراد لا «المستخدمين»

إن إغراء بناء أدوات عامة الأغراض مفهوم، لكن القيام بذلك باستخدام التكنولوجيا الحالية يُضعف فائدتها. وستكون أدوات الذكاء الاصطناعي، اليوم، أكثر فاعلية عندما تُصمم خصوصاً لأفراد محددين في أدوار محددة. يجب أن تُوجه هذه المعرفة عملية ابتكار المنتج، والتدريب، والتسويق، وتكتيكات المبيعات.

2. التركيز على النتائج بدلاً من القدرات

الذكاء الاصطناعي ليس مختلفاً عن أي منتج آخر. لن يستخدمه الناس إلا إذا حل مشكلة موجودة لديهم بالفعل. ويفشل كثير من أدوات الذكاء الاصطناعي في تحقيق هذا الهدف، فهي تركز على ما يمكن للنموذج فعله، بدلاً من التمعن في فهم أسباب أهمية ما يفعله.

3. التوقف عن تقديم وعود خيالية

قد يُمثل الذكاء الاصطناعي، اليوم، مستقبلاً يمكن فيه تحقيق التحسين الشامل، لكن هذا ليس صحيحاً. يجب أن تعكس خطط تطوير المنتجات هذه الحقيقة. إنّ الوضوح والمباشرة بشأن ما هو متاح الآن وما سيكون متاحاً في المستقبل يُساعدان على تخفيف الإرهاق الناتج عن الضجة الإعلامية واستعادة الثقة.

حان وقت إعادة النظر

بصفتي مديرة للمنتجات، شاهدتُ عدداً من الأمثلة على الاستخدام الأمثل للذكاء الاصطناعي، خلال السنوات القليلة الماضية.

ومع ذلك، أُدرك أن أسباب انعدام ثقة الجمهور أو عدم اهتمامه الواسع النطاق تقع في معظمها على عاتق قطاع التكنولوجيا، ذلك أن رغبة هذا القطاع في إنجاز كل شيء دفعة واحدة، خلقت بيئةً لا يثق فيها الناس بقدرة التكنولوجيا على القيام بأي شيء مفيد.

إنها حقيقةٌ يصعب تقبّلها، لكن أي قائد تقني يُنكر ذلك يُخدع نفسه. ومع ذلك، لم يفت الأوان بعدُ لتصحيح الوضع. إذا كان القادة على استعداد لتقبُّل هذه الحقيقة وإعادة توجيه استراتيجياتهم نحو «التحديد»، فسيكون هناك متسع من الوقت لإعادة النظر، وإعادة التقييم، وتحقيق رؤية مستقبلٍ مُحسَّن. يجب أن يحدث هذا قريباً، وإلا فسيضيع مستقبل الذكاء الاصطناعي هباءً.

*مجلة «إنك»، خدمات «تريبيون ميديا»


مجتمعات كاملة وتجارب إنسانية... لا تزال خارج نطاق الذكاء الاصطناعي

نافذة على عالمين_ أحدهما لا يفهم الآخر
نافذة على عالمين_ أحدهما لا يفهم الآخر
TT

مجتمعات كاملة وتجارب إنسانية... لا تزال خارج نطاق الذكاء الاصطناعي

نافذة على عالمين_ أحدهما لا يفهم الآخر
نافذة على عالمين_ أحدهما لا يفهم الآخر

في القاعات الكبرى، حيث تُصاغ البيانات وتُعلن المبادئ بلغة تبدو مكتملة، يظهر الذكاء الاصطناعي كأنه يسير بثقة نحو مستقبل أكثر عدلاً وإنصافاً. تُرفع شعارات الشفافية، وتُكرَّر مفاهيم الحوكمة، وتُقدَّم العدالة الخوارزمية كأنها حقيقة قريبة لا جدال فيها.

لكن خلف هذا الانسجام الظاهري، يبقى سؤال أكثر إزعاجاً، وأقل حضوراً:

هل ما يُقال في هذه القاعات يعكس فعلاً ما يحدث خارجها، أم أنه يكتفي بصياغة عالمٍ مثالي لا وجود له في الواقع؟

أخلاقيات داخل حدود البيانات

تركّز معظم النقاشات العالمية حول أخلاقيات الذكاء الاصطناعي على قضايا تبدو مكتملة: التحيّز، والخصوصية، والشفافية، والمسؤولية. وهي دون شك قضايا حقيقية، لكنها تنطلق من افتراض خفيّ نادراً ما يُناقش: أن المشكلة تكمن في كيفية استخدام البيانات، لا في حدودها.

لكن السؤال الأكثر عمقاً، والأقل طرحاً، هو: ماذا عن أولئك الذين لا تُمثّلهم البيانات أصلاً؟ فالذكاء الاصطناعي، مهما بلغ من تعقيد، لا يرى العالم كما هو، بل كما يُقدَّم له. وما لا يدخل في بياناته، لا يدخل في حساباته... ولا في قراراته. وهنا لا يكون الخطأ في الخوارزمية، بل في العالم الذي اختُصر داخلها.

ما لا تراه الخوارزميات

عالم خارج الرؤية الخوارزمية

في مساحات واسعة من هذا العالم، لا تُقاس المعاناة ولا تُسجَّل، ولا تتحول إلى بيانات يمكن للآلة أن تفهمها. هناك أمراض لا تصل إلى مرحلة التشخيص، وصدمات لا تُوثَّق، وواقع صحي كامل يظل خارج أي نموذج تنبؤي.

في مثل هذه البيئات، لا يكون التحيّز نتيجة خلل تقني في الخوارزمية، بل نتيجة غياب الصورة من الأساس. فالمشكلة ليست في طريقة التحليل... بل فيما لم يُحلَّل أصلاً.

وهنا يتبدّل معنى العدالة نفسها. فكيف يمكن الحديث عن «عدالة خوارزمية» في عالمٍ لم يُمثَّل رقمياً بعد؟ وهل يمكن للذكاء الاصطناعي أن يكون منصفاً... إذا كان لا يرى الجميع؟

عندما لا تكفي الأخلاقيات

في القمم العالمية، يُقدَّم الذكاء الاصطناعي كأداة يمكن تهذيبها أخلاقياً، وكأن المشكلة تكمن فقط في ضبط سلوك الخوارزمية من داخل النظام الذي أنشأها. تُناقش المبادئ، وتُصاغ الأطر، ويبدو وكأن الحل يكمن في تحسين ما هو قائم. لكن هذا التصور يخفي افتراضاً أعمق: أن جميع المشكلات قابلة للحل من داخل النظام نفسه. بينما يهمس الواقع بشيء مختلف تماماً.

فهناك معاناة لا تنتظر «حوكمة» الخوارزمية... بل تنتظر أن تُرى. وهناك بشر لا يحتاجون إلى خوارزميات أكثر عدلاً، بل إلى أن يدخلوا أصلاً في مجال رؤيتها.

ما بين الخطاب والواقع: درس من قمة الهند

كما ظهر في نقاشات القمة العالمية للذكاء الاصطناعي في الهند، التي رفعت شعار «الذكاء الاصطناعي المسؤول»، بدا أن التركيز ينصب على مبادئ الحوكمة، والشفافية، وتقليل التحيّز داخل الأنظمة. لكن ما تكشفه هذه النقاشات، رغم أهميتها، هو فجوة أعمق: أن الخطاب الأخلاقي العالمي يفترض وجود عالم ممثَّل بالكامل داخل البيانات... بينما الواقع مختلف تماماً. فما لا يُقال في هذه القاعات، ليس فقط حدود التقنية، بل حدود الرؤية نفسها... إذ توجد مجتمعات كاملة خارج نطاق النماذج، وتجارب إنسانية لا تصل إلى أنظمة الذكاء الاصطناعي، وبالتالي لا تدخل في أي إطار أخلاقي يُناقش.

* عدم الاستقرار البيئي أو الضغوط النفسية من العوامل التي لا يمكن قياسها ولا تدخل إلى الأدوات الذكية *

حدود ما يمكن قياسه

في دراسة حديثة نُشرت عام 2026 في مجلة «نيتشر ميديسن» (Nature Medicine)، أظهرت نماذج تنبؤية طوّرها باحثون في جامعة ستانفورد قدرة متقدمة على تحليل البيانات الصحية، واستباق المخاطر قبل حدوثها. ومع ذلك، توقفت هذه النماذج عند حدود واضحة عندما يتعلق الأمر بعوامل لا تُقاس بسهولة، مثل عدم الاستقرار البيئي أو الضغوط النفسية التي لا تجد طريقها إلى السجلات الطبية.

وهنا لا تنكشف حدود التقنية فحسب، بل حدود الفكرة التي تقوم عليها.

فالمشكلة ليست في دقة ما نقيس، بل في افتراضٍ أعمق: أن كل ما هو مهم... يمكن قياسه.

لكن الواقع أكثر تعقيداً من ذلك. فبعض أهم محددات الصحة لا تُكتب في البيانات، ولا تُترجم إلى أرقام، ومع ذلك تظل الأكثر تأثيراً في حياة الإنسان.

ما بعد الأخلاقيات

قد تنجح القمم في صياغة مبادئ أخلاقية للذكاء الاصطناعي، وتبدو هذه المبادئ مكتملة في نصوصها ومنطقها. لكن التحدي الحقيقي لا يبدأ داخل هذه الأطر، بل خارجها.

في تلك المساحات التي لا تصلها البيانات، ولا تلامسها النماذج، ولا تختزلها الأرقام، هناك يتغيّر السؤال نفسه. فلا يعود السؤال:

هل الذكاء الاصطناعي أخلاقي؟ بل يصبح أكثر عمقاً وإلحاحاً: هل يستطيع أن يرى ما يجب أن يكون أخلاقياً تجاهه؟


أول مهمة مأهولة إلى القمر منذ 50 عاماً

شكل تصويري لمركبة «أوريون» قرب القمر
شكل تصويري لمركبة «أوريون» قرب القمر
TT

أول مهمة مأهولة إلى القمر منذ 50 عاماً

شكل تصويري لمركبة «أوريون» قرب القمر
شكل تصويري لمركبة «أوريون» قرب القمر

سترسل وكالة الطيران والفضاء الاميركية ناسا، أربعة رواد فضاء في مهمة أرتميس 2 في رحلة تستغرق 10 أيام حول القمر للتمهيد لهبوط على سطحه في المستقبل وإقامة قواعد دائمة عليه.