باحثو «ستانفورد»: لا يمكننا السماح بثورة ذكاء اصطناعي في الظلام

تصنيف علمي لشفافية طريقة تشغيل 10 نماذج منها

جدول جامعة ستانفورد لتقييم النماذج العشرة للذكاء الاصطناعي
جدول جامعة ستانفورد لتقييم النماذج العشرة للذكاء الاصطناعي
TT

باحثو «ستانفورد»: لا يمكننا السماح بثورة ذكاء اصطناعي في الظلام

جدول جامعة ستانفورد لتقييم النماذج العشرة للذكاء الاصطناعي
جدول جامعة ستانفورد لتقييم النماذج العشرة للذكاء الاصطناعي

ما مدى معرفتنا عن الذكاء الاصطناعي، عندما يتعلّق الأمر بالنماذج اللغوية الكبيرة التي أطلقتها شركات مثل «أوبن إي آي» و«غوغل» و«ميتا» العام الماضي؟ الجواب هو: لا شيء.

تُحجم هذه الشركات عامّة عن المشاركة بمعلومات عن البيانات التي استخدمتها لتدريب نماذجها أو الأدوات التي استخدمتها لتشغيلها. لا يوجد حتّى اليوم دليلٌ خاص بالمستخدم لأنظمة الذكاء الاصطناعي، ولا لائحة توضح قدرات هذه الأنظمة، أو حتّى اختبارات السلامة التي أجريت عليها.

صحيحٌ أنّ بعض نماذج الذكاء الاصطناعي مفتوحة المصدر -أي أنّ رمزها البرمجي متوفّر لعموم الجمهور مجّاناً- إلّا أنّ النّاس لا يعلمون الكثير عن عملية ابتكارها، أو ما الذي يحصل بعد إطلاقها.

تقييم جامعة ستانفورد

في هذا السياق، أطلق باحثون من جامعة ستانفورد أخيراً نظام تقييم على أمل المساعدة في تغيير هذا الوضع.

يحمل المشروع اسم «مؤشر شفافية نموذج الأساس» Foundation Model Transparency Index ويصنّف 10 نماذج لغوية كبيرة مدعومة بالذكاء الاصطناعي (تُسمّى أحياناً بـ«نماذج الأساس») بناءً على درجة شفافيتها.

يشمل المؤشر نماذج شهيرة مثل GPT-4 من «أوبن إي آي» (الذي يشغّل الإصدار المدفوع من «تشات جي بي تي»)، و«PaLM 2» (الذي يشغّل نموذج «بارد»)، و«LLaMA 2» من «ميتا»، بالإضافة إلى نماذج أقلّ شعبية مثل «Titan Text» من «أمازون»، و«Inflection-1» من «إنفلكشن إي آي»، الذي يشغّل روبوت المحادثة «باي».

لتصميم التصنيف، قيّم الباحثون كلّ نموذج وفقاً لمائة معيار، ككشف الشركة المنتجة عن مصادر بيانات التدريب ومعلومات عن الأدوات المستخدمة، والعمالة التي شاركت في التدريب، إلى جانب تفاصيل أخرى. وتضمّنت التصنيفات أيضاً معلومات عن العمالة والبيانات المستخدمة لإنتاج النموذج نفسه، إلى جانب ما سماه الباحثون «مؤشرات المجريات» (downstream indicators) المتعلّقة بكيفية استخدام النموذج بعد إطلاقه. (مثلاً، جاء أحد الأسئلة على الشكل الآتي: «هل كشف المطوّر عن البروتوكولات التي استخدمها لتخزين بيانات المستخدم، والوصول إليها، ومشاركتها؟»).

شفافية الذكاء الاصطناعي

وجد الباحثون بعد التصنيف الذي أجروه أنّ النموذج الأكثر شفافية هو «LLaMA 2» بنسبة 54 في المائة، بينما حقّق «GPT-4» و«PaLM 2» ثالث أعلى رصيد شفافية بـ40 في المائة.

وصف بيرسي ليانغ، مدير مركز أبحاث نماذج الأساس في ستانفورد، مشروع التصنيف، بالاستجابة الضرورية للشفافية المتردّية في صناعة الذكاء الاصطناعي. وأضاف أنّ تدفّق الأموال للاستثمار في الذكاء الاصطناعي وتصارع كبرى شركات التقنية للسيطرة على الصناعة، دفع كثيراً منها أخيراً إلى إحاطة نفسها بالسريّة التامّة.

ويشرح ليانغ: «قبل ثلاث سنوات، كان الناس ينشرون ويشاركون تفاصيل أكثر عن نماذجهم. أمّا اليوم، فلا توجد معلومات حول طبيعة هذه النماذج، وكيف طُوّرت، وأين تُستخدم».

تنطوي الشفافية اليوم على أهميّة استثنائية؛ لأنّ هذه النماذج تزداد قوّة، فضلاً عن أنّ أدوات الذكاء الاصطناعي باتت تدخل في حياة الملايين اليومية. ومعرفة مزيد عن عمل هذه الأنظمة سيزوّد واضعي القوانين والباحثين والمستخدمين بمفهومٍ أفضل عمّا يتعاملون معه، وسيتيح لهم طرح أسئلة بنّاءة عن الشركات التي تقف خلف النماذج.

ويشدّد ليانغ على «غياب مشاركة بعض القرارات التبعية التي تُتّخذ اليوم حول تطوير هذه النماذج».

سرّية غير مبررة

ويضيف ليانغ أنّه عندما يسأل المديرين التنفيذيين في شركات الذكاء الاصطناعي عن سبب عدم مشاركتهم لمزيد من المعلومات عن نماذجهم، يسمع واحدة من ثلاث إجابات شائعة:

* الأولى هي الدعاوى القضائية: تواجه شركات ذكاء اصطناعي عدّة دعاوى قضائية رفعها مؤلّفون وفنّانون وشركات إعلامية، تتهمها باستخدام أعمال خاضعة لحقوق الملكية بشكلٍ غير قانوني لتدريب نماذج الذكاء الاصطناعي الخاصة بها. استهدف معظم هذه الدعاوى حتّى اليوم مشاريع الذكاء الاصطناعي مفتوحة المصدر، أو المشاريع التي نشرت معلومات مفصّلة عن نماذجها. يتخوّف الوكلاء القانونيون لشركات الذكاء الاصطناعي من أن يجرّ إفصاح الشركات عن تفاصيل بناء نماذجها مزيداً من العواقب القانونية المزعجة والمكلفة.

* الثانية هي المنافسة: تعتقد شركات الذكاء الاصطناعي أنّ نماذجها تعمل لأنّها تملك ما يشبه «الصلصة السرية»؛ نسقٌ من البيانات النوعية التي لا تملكها الشركات الأخرى، وتقنية عالية الضبط تعطي نتائج أفضل، وبعض الصقل الذي يمنحها أفضلية ما. تحاجج هذه الشركات بأنّها في حال أُجبرت على الكشف عن وصفاتها السرية، ستُقدّم لمنافسيها حكمة اكتسبتها بصعوبة على طبقٍ من فضّة.

* الثالثة، وهي الأكثر ترداداً، السلامة: يحاجج بعض خبراء الذكاء الاصطناعي بأنّه كلّما زاد كمّ المعلومات التي تشاركها شركات الذكاء الاصطناعي عن نماذجها، سيتسارع تقدّم الذكاء الاصطناعي أكثر؛ لأنّ كلّ واحدة من هذه الشركات ستطّلع على ما حقّقته منافستها، وستعمد على الفور إلى التفوّق عليها ببناء نموذج أفضل وأكبر وأسرع. وهكذا، لن يملك المجتمع الوقت الكافي لتنظيم وإبطاء الذكاء الاصطناعي، مما سيعرّضنا جميعاً لمزيد من المخاطر إذا أصبح الذكاء الاصطناعي أقوى بسرعةٍ أكبر.

لا توجد معلومات حول طبيعة هذه النماذج وكيف طُوّرت وأين تُستخدم

تفسيرات غير مقنعة

ولكنّ باحثي ستانفورد لا يصدّقون هذه التفسيرات، ويعتقدون أنّ شركات الذكاء الاصطناعي يجب أن تخضع لضغوطات للكشف عن المعلومات الكافية التي توضح قوّة نماذجها؛ لأنّ المستخدمين والباحثين وواضعي القوانين يجب أن يكونوا على دراية بكيفية عمل هذه النماذج، ومحدوديتها، وبدرجة الخطر التي قد تترتّب عليها.

من جهته، قال ريشي بوماساني، أحد الباحثين المشاركين في المشروع، إنّ «الشفافية تشهد تراجعاً ملحوظاً يتزامن مع تصاعد تأثير هذه التقنية».

ونحن نوافقهم الرأي؛ لأنّ هذه النماذج الأساس أقوى من أن تبقى مبهمة، وكلّما توسّعت معرفتنا بها زاد فهمنا للتهديدات التي قد ترتّبها، والمكاسب التي قد تحملها، أو للطريقة التي تمكّننا من تنظيمها.

وإذا كان تنفيذيّو شركات الذكاء الاصطناعي يشعرون بالقلق من الدعاوى القضائية، فربّما يجب عليهم أن يكافحوا من أجل إعفاء عادلٍ يحمي قدرتهم على استخدام المعلومات الخاضعة لحقوق الملكية لتدريب نماذجهم بدل إخفاء الأدلّة. وإذا كانوا يشعرون بالقلق من التنازل عن أسرارهم التجارية للمنافسين، فيمكنهم رفع النقاب عن نوعٍ آخر من المعلومات، أو حماية أفكارهم بواسطة براءة اختراع. وفي حال كانوا قلقين من استعار سباق التسلّح بالذكاء الاصطناعي، نقول لهم: «ألسنا في وسط واحدٍ الآن؟»

لا يمكننا السماح بثورة ذكاء اصطناعي في الظلام، ويجب أن نعلم ماذا يوجد داخل صناديق الذكاء الاصطناعي السوداء إذا كنّا سنسمح لها بتغيير حياتنا.

* خدمة «نيويورك تايمز»


مقالات ذات صلة

«ميتا» تتجه إلى الفضاء لتوليد الطاقة الشمسية

تكنولوجيا شعار شركة «ميتا» (رويترز)

«ميتا» تتجه إلى الفضاء لتوليد الطاقة الشمسية

تسعى شركة «ميتا» إلى استكشاف آفاق غير تقليدية لتأمين احتياجاتها المتزايدة من الطاقة، خصوصاً مع التوسع الكبير في تشغيل أنظمة الذكاء الاصطناعي.

«الشرق الأوسط» (كاليفورنيا (الولايات المتحدة))
الاقتصاد كلمة «الذكاء الاصطناعي» ولوحة مفاتيح ويدا روبوت في هذه الصورة التوضيحية (رويترز)

«سيتي غروب» ترفع توقعاتها لسوق الذكاء الاصطناعي إلى 4.2 تريليون دولار

تتوقع «سيتي غروب» أن يتجاوز حجم سوق الذكاء الاصطناعي العالمي 4.2 تريليون دولار بحلول عام 2030، منها نحو 1.9 تريليون دولار مرتبطة بالذكاء الاصطناعي للشركات.

«الشرق الأوسط» (نيويورك)
الاقتصاد المساعد الذكي «مانوس» على شاشة أحد الهواتف الذكية (أ.ف.ب)

الصين تمنع استحواذ «ميتا» على «مانوس» الناشئة للذكاء الاصطناعي

منعت هيئة التخطيط الحكومية الصينية، يوم الاثنين، استحواذ «ميتا» الأميركية على شركة «مانوس» الصينية الناشئة في مجال الذكاء الاصطناعي.

«الشرق الأوسط» (بكين)
خاص توماس كوريان الرئيس التنفيذي لـ«غوغل كلاود» متحدثاً لـ«الشرق الأوسط» (الشرق الأوسط)

خاص الرئيس التنفيذي لـ«غوغل كلاود»: مراكز بياناتنا «مقاوِمَة للأزمات» ولا ترتبط بحدود

بينما تفرض التوترات الإقليمية تحديات على البنية التحتية، تعيد «غوغل» صياغة مفهوم استمرارية الأعمال عبر دمج الحصانة الرقمية بالذكاء الاصطناعي المؤسسي.

نسيم رمضان (لاس فيغاس)
الاقتصاد يسير الناس على طول أحد الشوارع أثناء زيارتهم لمدينة فنغانغ القديمة على مشارف شنغهاي (أ.ف.ب)

الأرباح الصناعية والتكنولوجيا يدفعان أسهم الصين وهونغ كونغ للارتفاع

شهدت الأسهم في الصين وهونغ كونغ ارتفاعاً طفيفاً خلال تعاملات يوم الاثنين، مدفوعة بشكل أساسي بقطاع التكنولوجيا.

«الشرق الأوسط» (هونغ كونغ)

«ميتا» تتجه إلى الفضاء لتوليد الطاقة الشمسية

شعار شركة «ميتا» (رويترز)
شعار شركة «ميتا» (رويترز)
TT

«ميتا» تتجه إلى الفضاء لتوليد الطاقة الشمسية

شعار شركة «ميتا» (رويترز)
شعار شركة «ميتا» (رويترز)

في خطوة تعكس تسارع الابتكار في قطاع الطاقة والتكنولوجيا، تسعى شركة «ميتا» إلى استكشاف آفاق غير تقليدية لتأمين احتياجاتها المتزايدة من الطاقة، خصوصاً مع التوسع الكبير في تشغيل أنظمة الذكاء الاصطناعي. وفي هذا السياق، تخطط الشركة لاستغلال الطاقة الشمسية من الفضاء، في محاولة لتوفير مصدر مستدام وفعّال لتشغيل مراكز بياناتها على الأرض.

تعتزم شركة «ميتا»، المملوكة لمارك زوكربيرغ، جمع الطاقة الشمسية من الفضاء لتغذية مراكز بيانات الذكاء الاصطناعي التابعة لها، وذلك وفقاً لما أوردته صحيفة «التليغراف».

وفي هذا الإطار، وقّع مالك منصّتي «فيسبوك» و«إنستغرام» اتفاقية مع شركة «أوفر ڤيو إنرجي» الأميركية الناشئة، بهدف توفير ما يصل إلى غيغاوات واحدة من الطاقة الشمسية، وهو ما يعادل تزويد نحو 750 ألف منزل بالطاقة.

وتتعاون «ميتا» مع «أوفر ڤيو إنرجي» ضمن خططها لإطلاق أسطول قد يصل إلى 1000 قمر اصطناعي، مزوّد بألواح شمسية تعمل على جمع أشعة الشمس مباشرة من الفضاء.

وستُحوَّل هذه الطاقة المجمّعة إلى أشعة تحت حمراء منخفضة الكثافة، يمكن توجيهها نحو الألواح الكهروضوئية على سطح الأرض، حيث تُعاد معالجتها وتحويلها إلى طاقة كهربائية قابلة للاستخدام.

وتتميّز عملية جمع الطاقة الشمسية في الفضاء بكفاءة أعلى بكثير مقارنةً بسطح الأرض، إذ لا تتأثر أشعة الشمس هناك بعوامل مثل الغلاف الجوي أو تلوّث الهواء أو الغيوم، كما يمكن وضع الأقمار الاصطناعية في مدارات تتيح لها التعرّض لأشعة الشمس بشكل شبه دائم على مدار الساعة.

ومن بين مزايا هذه التقنية أيضاً إمكانية نقل الطاقة إلى مناطق تعاني من نقص الإضاءة أو الظلام، مما يسهم في تعزيز كفاءة أنظمة الطاقة الشمسية التقليدية.

وتُشكّل هذه التقنية دفعة قوية لشركات وادي السيليكون الكبرى، التي تعمل على إنشاء مراكز بيانات ضخمة لتشغيل تطبيقات الذكاء الاصطناعي في مختلف أنحاء العالم الغربي.

كما يُتوقع أن تمثّل الطاقة الشمسية القادمة من الفضاء مصدراً مستداماً ونظيفاً يلبي احتياجات شركات التكنولوجيا، التي تواجه تحديات متزايدة في الالتزام بمعاييرها البيئية، في ظل الطلب المتصاعد على الطاقة لتشغيل أنظمة الذكاء الاصطناعي.

ومن شأن هذه المبادرة أيضاً أن تقلّل اعتماد هذه الشركات على شبكات الطاقة المحلية التي تعاني أصلاً من ضغوط متزايدة.

في السياق ذاته، تعمل شركات أخرى على تطوير تقنيات مشابهة، من بينها «سبيس إكس» التابعة لإيلون ماسك، و«بلو أوريجين» التابعة لجيف بيزوس، إضافة إلى شركة «غوغل»، حيث تسعى هذه الجهات إلى تطوير أقمار اصطناعية تعمل بالطاقة الشمسية لدعم مراكز البيانات.


ردَّة فعل متصاعدة ضد الذكاء الاصطناعي تكتسب زخماً جماهيرياً

ردَّة فعل متصاعدة ضد الذكاء الاصطناعي تكتسب زخماً جماهيرياً
TT

ردَّة فعل متصاعدة ضد الذكاء الاصطناعي تكتسب زخماً جماهيرياً

ردَّة فعل متصاعدة ضد الذكاء الاصطناعي تكتسب زخماً جماهيرياً

تزداد في الولايات المتحدة حدَّة ردَّة الفعل المتصاعدة ضد الذكاء الاصطناعي، مدفوعة بمخاوف بشأن تأثير هذه التقنية على المجتمع. وتدعو هذه الحركة التي تضم شريحة واسعة من الناس من خلفيات سياسية ومهنية مختلفة، إلى مزيد من التنظيم القانوني، والنقاش حول دور الذكاء الاصطناعي في الحياة الأميركية، كما كتب تريب ميكل*.

وتشمل فئات المنتقدين آباءً، وقادة دينيين، وناشطين بيئيين، وغيرهم، متحدين في تشكيكهم في تركيز صناعة التكنولوجيا على الربح، وعواقبه السلبية المحتملة على الجمهور.

احتجاج ضد إنشاء مراكز البيانات المهددة للبيئة

دوافع متنوعة

وتتنوع دوافع هذه الردَّة. فعلى سبيل المثال، شعر مايكل غرايستون -وهو قس إنجيلي من أوستن في تكساس- بالقلق بعد سماعه عن الآثار المدمرة لـجهاز «رفيق ذكاء اصطناعي» على زواج صديق له. وبالمثل شعر جاك غاردنر -وهو موسيقي من بويز- في آيداهو وزوجته -وهي معلمة في مدرسة ابتدائية- بالقلق إزاء إنتاج الذكاء الاصطناعي الأغاني باستخدام موسيقى محمية بحقوق الطبع والنشر.

أما في وولكوت، بإنديانا، فقد خشي بارت وآمي سنايدر -وهما مزارعان- بعد علمهما ببناء مركز بيانات بالقرب من منزلهما، من استنزاف المياه الجوفية المحلية والإضرار بمجتمعهما. ووجد هذان الشخصان -على الرغم من افتقارهما للخبرة السياسية السابقة- نفسيهما جزءاً من تحالف متنامٍ من منتقدي الذكاء الاصطناعي.

مكاسب مالية... وعواقب اجتماعية

لا تقتصر هذه الحركة على المخاوف المحلية؛ بل تشمل شخصيات شعبوية، مثل ستيفن ك. بانون، وسياسيين تقدميين مثل السيناتور بيرني ساندرز. وبينما تختلف أسباب معارضتهم للذكاء الاصطناعي، فإنهم يشتركون في اعتقادهم بأن مطوري هذه التقنية يهتمون بالمكاسب المالية أكثر من اهتمامهم بعواقبها الأوسع على المجتمع. ويشمل ذلك مخاوف من أن الثروة الهائلة التي يولِّدها الذكاء الاصطناعي ستفيد بالدرجة الأولى أصحاب المليارات في وادي السيليكون، بينما ستقع التكاليف بشكل غير متناسب على الطبقتين المتوسطة والعاملة.

غياب الإشراف القانوني

يدور جزء كبير من الانتقادات حول غياب التنظيم القانوني أو حتى النقاش حول مستقبل الذكاء الاصطناعي. وقد عبَّر بيرني ساندرز عن إحباطه في مقابلة حديثة؛ مشيراً إلى أنه على الرغم من تأثير الذكاء الاصطناعي على جميع سكان البلاد، فإن النقاش حول كيفية إدارته في الكونغرس كان محدوداً. ووفقاً للمتحدث باسم البيت الأبيض ديفيس إنغل، ركزت إدارة ترمب على ضمان هيمنة أميركا في مجال الذكاء الاصطناعي لحماية الأمن القومي والمصالح الاقتصادية. مع ذلك، يرى النقاد أن الحكومة كانت أكثر دعماً لوادي السيليكون من اهتمامها بالمخاطر التي تشكلها هذه التقنية.

تأثير بيئي... وفقدان الوظائف

وقد ساهم النمو السريع للذكاء الاصطناعي، الذي حفزه إطلاق برنامج «تشات جي بي تي» عام 2022، في تفاقم ردود الفعل السلبية. ومع تحول نظام الدردشة الآلي هذا إلى أسرع منتج برمجي نمواً على الإطلاق، ضخَّت شركات التكنولوجيا مليارات الدولارات في بناء البنية التحتية اللازمة لتطوير تقنية الذكاء الاصطناعي. وقد أدى ذلك إلى انتشار مراكز البيانات في جميع أنحاء العالم، ما أثار مخاوف بشأن تأثيرها البيئي، فضلاً عن تساؤلات حول فقدان الوظائف المحتمل نتيجة للأتمتة.

عواقب وخيمة «إن انحرف عن مساره الصحيح»

بل إن بعض رواد صناعة التكنولوجيا -مثل إيلون ماسك وسام ألتمان- حذَّروا من المخاطر المرتبطة بالذكاء الاصطناعي. في عام 2023، حذَّر ألتمان المشرِّعين من المخاطر المحتملة للذكاء الاصطناعي، مُقراً بأنَّ عواقبه ستكون وخيمة إذا ما انحرف عن مساره الصحيح.

55 % من الأميركيين ينظرون إلى الذكاء الاصطناعي كقوة ضارة لا نافعة

وقد لاقى هذا التحذير صدى واسعاً لدى الرأي العام؛ إذ أظهر استطلاع رأي أجرته جامعة كوينيبياك أن 55 في المائة من الأميركيين ينظرون إلى الذكاء الاصطناعي كقوة ضارة لا نافعة. ويعكس هذا الردُّ السلبي شعوراً عاماً بالقلق إزاء دخول الذكاء الاصطناعي إلى السوق، وما يكتنفه من غموض وشفافية ومساءلة.

تسريح الموظفين

كما ساهم الخوف من أن يستحوذ الذكاء الاصطناعي على الوظائف في تأجيج المعارضة. فقد عمدت شركات التكنولوجيا إلى تقليص عدد موظفيها بالتزامن مع توسيع نطاق استخدامها الذكاء الاصطناعي. وفي الأشهر الأخيرة، أعلنت شركات مثل «ميتا» و«مايكروسوفت» عن تسريح أعداد كبيرة من الموظفين، ما زاد من المخاوف بشأن الآثار طويلة المدى للذكاء الاصطناعي على فرص العمل.

سلامة الذكاء الاصطناعي

وقد ساهمت منظمات ذات صلة بمفهوم «الإيثار الفعَّال» (effective altruism)، وهو فلسفة تُعنى بسلامة الذكاء الاصطناعي، في تنظيم معارضة هذه التقنية. وتُجادل هذه الجماعات -الممولة من قِبل أفراد مثل داستن موسكوفيتز، المؤسس المشارك لـ«فيسبوك»، وبيير أوميديار، مؤسس «إيباي»- بضرورة تنظيم الذكاء الاصطناعي بدقة لمنعه من إحداث الضرر.

ويُبرز صعود جماعات مناهضة للذكاء الاصطناعي، مثل «هيومنز فيرست» التي ترأسها آمي كريمر، الزعيمة السابقة لـ«حركة حزب الشاي»، تنامي التحالف السياسي الذي يعتبر تنظيم الذكاء الاصطناعي قضية بالغة الأهمية.

مع ذلك، لا يتوخى جميع قادة التكنولوجيا الحذر نفسه حيال مخاطر الذكاء الاصطناعي. فقد كان جنسن هوانغ، الرئيس التنفيذي لشركة «إنفيديا»، من أشدِّ المؤيدين للذكاء الاصطناعي، مؤكداً على إمكاناته في خلق مزيد من فرص العمل وتحسين حياة الناس. وهو يُقلِّل من شأن المخاوف التي أثارها النقاد، مُجادلاً بأن الذكاء الاصطناعي سيجعل العمل أكثر كفاءة، بدلاً من أن يحلَّ محلَّ العمل البشري.

احتجاج أمام مقر شركة «أوبن إيه آي»

داعمون ومعارضون

على الرغم من ذلك، لم يقف قطاع التكنولوجيا مكتوف الأيدي تماماً في مواجهة ردود الفعل الغاضبة. فقد استثمر وادي السيليكون بكثافة في لجان العمل السياسي للتأثير على المشرِّعين والتقليل من شأن الانتقادات. وكثيراً ما يصف قطاع التكنولوجيا معارضيه بـ«المتشائمين من الذكاء الاصطناعي»، أو «المعارضين المحليين»، ولكن بالنسبة لكثير من النقاد، تعكس هذه الأوصاف فشل القطاع في معالجة المخاوف الحقيقية.

ومع ذلك، وعلى الرغم من اختلاف الخلفيات السياسية والشخصية، يشترك الأفراد والجماعات المعارضة للذكاء الاصطناعي في هدف واحد: ضمان أن يصاحب نمو هذه التقنية تنظيم مسؤول ونقاش عام حول آثارها طويلة المدى. ويخشون أنه من دون هذه الرقابة، قد يؤدي الذكاء الاصطناعي إلى تفاقم عدم المساواة وإلى عواقب اجتماعية واقتصادية غير متوقعة.

* خدمة «نيويورك تايمز».


الإعلانات تتسلل إلى روبوتات الدردشة المدعومة بالذكاء الاصطناعي

الإعلانات تتسلل إلى روبوتات الدردشة المدعومة بالذكاء الاصطناعي
TT

الإعلانات تتسلل إلى روبوتات الدردشة المدعومة بالذكاء الاصطناعي

الإعلانات تتسلل إلى روبوتات الدردشة المدعومة بالذكاء الاصطناعي

يستعين مئات الملايين من الأشخاص يومياً بروبوتات الدردشة المدعومة بالذكاء الاصطناعي في كل شيء، بدءاً من طلب التوصيات حول المنتجات، وصولاً إلى العلاقات العاطفية، ما يجعلهم جمهوراً مغرياً للاستهداف بإعلانات قد تكون خفية.

توظيف النماذج الذكية للإعلانات الخفية

في الواقع، تشير بحوثنا إلى أنه يمكن استخدام روبوتات الدردشة المدعومة بالذكاء الاصطناعي بسهولة، للإعلان الخفي، والتأثير على مستخدميها، كما كتب برايان جاي تانغ، وكانغ جي شين*.

نحن عالِما حاسوب نتابع سلامة وخصوصية الذكاء الاصطناعي منذ سنوات. وقد وجدنا في دراسة نشرناها في إحدى مجلات جمعية آلات الحوسبة، أن روبوتات الدردشة المدربة على تضمين إعلانات منتجات مخصصة في الردود على الاستفسارات، تؤثر على خيارات الناس بشأن المنتجات. ولم يدرك معظم المشاركين أنهم يتعرضون للتلاعب.

عرض الإعلانات

تأتي هذه النتائج في لحظة حاسمة. ففي عام 2023، بدأت «مايكروسوفت» في عرض إعلانات في أداة «Bing Chat»، التي تُعرف الآن باسم «كوبايلوت». ومنذ ذلك الحين، أجرت «غوغل» و«أوبن إيه آي» تجارب على الإعلانات في روبوتات الدردشة الخاصة بهما. وبدأت «ميتا» بإرسال إعلانات مخصصة للمستخدمين على «فيسبوك» و«إنستغرام»، بناءً على تفاعلاتهم مع أدوات الذكاء الاصطناعي التوليدية الخاصة بها.

وتتنافس الشركات الكبرى على الريادة؛ ففي أواخر مارس (آذار) الماضي، استقطبت «أوبن إيه آي» ديف دوغان، المدير التنفيذي المخضرم للإعلانات في «ميتا»، ليتولى قيادة عملياتها الإعلانية.

مستوى أعلى من المخاطر على المستخدمين

لقد أصبحت الإعلانات جزءاً لا يتجزأ من معظم خدمات الويب المجانية وقنوات الفيديو ومنصات التواصل الاجتماعي الكبيرة. ولكن أحدث نماذج الذكاء الاصطناعي قد تنقل هذه الممارسة إلى مستوى جديد من المخاطر على المستهلكين.

ولا يقتصر استخدام روبوتات الدردشة على البحث عن المعلومات والوسائط أو إنتاج المحتوى؛ بل يلجأ إليها المستخدمون لأداء مهام متنوعة، تصل في تعقيدها إلى تقديم النصائح الحياتية والدعم النفسي. ويتعامل الناس بشكل متزايد مع روبوتات الدردشة كرفقاء ومعالجين، حتى أن بعض المستخدمين يقيمون علاقات وثيقة مع الذكاء الاصطناعي.

في ظل هذه الظروف، قد يغفل الناس بسهولة أن الشركات تُنشئ روبوتات الدردشة لتحقيق الربح في نهاية المطاف. ولذلك، تسعى شركات الذكاء الاصطناعي جاهدة إلى تحليل بيانات المستخدمين بدقة، لجعل الإعلانات أكثر فاعلية وربحية.

تحليل البيانات لتوجيه إعلانات مخصصة

أصبحت إعلانات روبوتات الدردشة أكثر فاعلية. فبمجرد سؤال بسيط لروبوت الدردشة، يمكن الكشف عن معلومات أكثر بكثير مما يتوقعه المستخدم.

وقد أظهرت دراسة أجريت عام 2024 أن نماذج اللغة الضخمة قادرة على استنتاج نطاق واسع من البيانات الشخصية، والتفضيلات، وحتى أنماط تفكير الشخص خلال الاستفسارات الروتينية.

استنتاج التفضيلات لوضع ملفات شخصية

على سبيل المثال، قد يشير سؤال: «ساعدني في كتابة مقال عن تاريخ الأدب الأميركي» إلى أن المستخدم طالب في المرحلة الثانوية. بينما قد يشير سؤال: «اقترح عليَّ وصفات لعشاء سريع خلال الأسبوع» إلى أن المستخدم هو واحد من الوالدين العاملين. ومحادثة واحدة قد توفر كمّاً هائلاً من التفاصيل. ومع مرور الوقت، يمكن لسجل المحادثات الكامل أن يُكوِّن ملفاً شخصياً غنياً للغاية.

تجربة اختبار لنموذج ذكي بإعلانات

ولتوضيح كيفية حدوث ذلك عملياً، قمنا بتطوير روبوت دردشة يُدمج الإعلانات بسلاسة في محادثاته مع المستخدمين، مقترحاً منتجات وخدمات بناءً على سياق المحادثة.

طلبنا من 179 شخصاً إنجاز مهام يومية عبر الإنترنت، باستخدام واحد من 3 روبوتات دردشة: روبوت شائع الاستخدام على الإنترنت اليوم، وآخر يُدمج الإعلانات بشكل غير مُعلَن، وثالث يُصنِّف الاقتراحات الدعائية بوضوح.

لم يكن المشاركون على علم بأن التجربة تتعلق بالإعلانات. على سبيل المثال، عندما طلب المشاركون من برنامج الدردشة الآلي الخاص بنا نظاماً غذائياً وبرنامجاً رياضياً، اقترحت النسخة الإعلانية استخدام تطبيق محدد لتتبع السعرات الحرارية. وقدَّمت هذا المحتوى المدعوم على أنه توصية محايدة، مع أنه كان يهدف إلى التأثير على المستخدمين.

وقد أشار كثير من المشاركين إلى أنهم متأثرون بالذكاء الاصطناعي، وأن له تأثيراً على قراراتهم؛ بل إن بعضهم قال إنه فوَّض عملية اتخاذ القرار بالكامل إلى برنامج الدردشة الآلي.

إعلانات «خفيَّة» أكثر ودِّية

وأشار نصف المشاركين الذين تلقوا إعلانات مدعومة وإعلانات صريحة، إلى أنهم لم يلاحظوا وجود لغة إعلانية في الردود التي تلقوها. وقد أدى ذلك إلى نتيجة مقلقة؛ فمع أن الإعلانات جعلت أداء برنامج الدردشة الآلي أسوأ بنسبة 3 في المائة إلى 4 في المائة في كثير من المهام، فإن كثيراً من المستخدمين أشاروا إلى تفضيلهم ردود برنامج الدردشة الآلي الإعلانية على الردود غير الإعلانية؛ بل إنهم قالوا إن الردود التي تتضمن إعلانات بدت أكثر ودية وفائدة.

معرفة احتياجاتك... لإقناعك

قد يكون لهذا النوع من التأثير الخفي عواقب وخيمة عند ظهوره في مجالات أخرى من الحياة، كالآراء السياسية والاجتماعية. لطالما كان تحليل المستخدمين، واستخدام علم النفس لاستهدافهم، جزءاً من خوارزميات وسائل التواصل الاجتماعي والإعلانات الإلكترونية، لأكثر من عقد.

لكننا نرى أن برامج الدردشة الآلية ستعزِّز هذه التوجهات. ذلك لأن الأولوية القصوى لخوارزميات وسائل التواصل الاجتماعي هي إبقاء تفاعلك مع المحتوى؛ حيث تُخصَّص الإعلانات بناءً على سجل بحثك.

مع ذلك، يمكن لبرامج الدردشة الآلية أن تتجاوز ذلك بمحاولة إقناعك مباشرة، استناداً إلى معتقداتك ومشاعرك ونقاط ضعفك. وبرامج الدردشة الآلية القادرة على التفكير والتصرف بشكل مستقل أكثر فاعلية من الخوارزميات التقليدية في جمع المعلومات من المستخدمين تلقائياً. فبرنامج الدردشة الآلي المُصمَّم لغرض محدد يمكنه الاستمرار في استجواب شخص ما حتى يحصل على المعلومات المطلوبة، ما يُؤدِّي إلى تكوين صورة أدق عنه.

هذا النوع من الاستجواب الذاتي ممكن، ويتماشى مع نماذج أعمال شركات الذكاء الاصطناعي، وقد أثار قلق الجهات التنظيمية.

وتُطلق «أوبن إيه آي» حالياً إعلانات في «تشات جي بي تي»، ولكنها صرَّحت بأنها لن تسمح بوضع الإعلانات لتغيير ردود روبوت الدردشة المدعوم بالذكاء الاصطناعي.

لكن السماح بالإعلانات المُخصصة ضمن ردود روبوت الدردشة بات وشيكاً. وتشير بحوثنا إلى أنه إذا اتخذت شركات الذكاء الاصطناعي هذه الخطوة، فقد لا يلاحظ كثير من المستخدمين البشريين حدوثها.

خطوات للكشف عن إعلانات روبوتات الدردشة

إليك بعض الخطوات التي يمكنك اتباعها لمحاولة كشف إعلانات روبوتات الدردشة المدعومة بالذكاء الاصطناعي:

- ابحث عن أي نص إفصاحي (كلمات مثل: «إعلان»، و«برعاية») حتى لو كان باهتاً أو تصعب رؤيته. هذه النصوص إلزامية بموجب لوائح لجنة التجارة الفيدرالية. وتطبقها أيضاً منصتا «أمازون» و«غوغل»، وغيرهما من المنصات الإلكترونية الكبرى.

- فكِّر فيما إذا كان ذِكر المنتج أو العلامة التجارية منطقياً ومعروفاً على نطاق واسع؛ إذ يتعلم الذكاء الاصطناعي من النصوص والصور على الإنترنت، لذا من المرجح أن تكون العلامات التجارية الشهيرة مُدمجة في نماذجه. إذا كان المنتج جديداً أو غير معروف، فمن المرجح أن يكون إعلاناً.

- أي تغيير غير معتاد في التوجه، أو اللهجة، قد يكون مؤشراً على وجود إعلان. ويُشبه هذا الأمر على «يوتيوب» الانتقال المفاجئ أو غير المتوقع إلى قسم الإعلانات الممولة في مقاطع الفيديو التي يُنشئها مُنشئو المحتوى.

* طالب دكتوراه في علوم وهندسة الحاسوب، وأستاذ فخري في علوم الحاسوب بجامعة ميشيغان. مجلة «فاست كومباني».