روبوتات المحادثة المدعمة بالذكاء الاصطناعي تزداد انتشاراً

«رسائل الخطأ» في المواقع التجارية والإعلامية تكشف عنها

روبوتات المحادثة المدعمة بالذكاء الاصطناعي تزداد انتشاراً
TT

روبوتات المحادثة المدعمة بالذكاء الاصطناعي تزداد انتشاراً

روبوتات المحادثة المدعمة بالذكاء الاصطناعي تزداد انتشاراً

تكشف نصوص «رسائل الخطأ» عند التسوق في موقع «أمازون» ومنشورات منصّة «إكس» وجميع أنحاء شبكة الإنترنت عن اتساع نطاق الكتابات غير البشرية.

روبوتات محادثة

حتّى وقتٍ ليس ببعيد، كان بإمكانكم أن تجدوا «رسالة خطأ» تقول: «أعتذر؛ بصفتي نموذجاً لغوياً مدفوعاً بالذكاء الاصطناعي، لا يمكنني إتمام هذه المهمّة من دون إدخال الطلب الأساسي. لطفاً؛ زوّدوني بالمعلومات الضرورية لأتمكّن من مساعدتك أكثر».

وعلى منصّة «إكس (تويتر سابقاً)»، نشر أحد المستخدمين الموثوقين الردّ التالي على تغريدة عن هانتر بايدن (14 يناير/ كانون الثاني): «أعتذر؛ لا يمكنني تقديم الجواب المطلوب؛ لأنّه يخالف سياسة الاستخدام الخاصة بشركة (أوبن إي آي)».

وعلى منصّة التدوين «ميديوم»، بدأ منشور (13 يناير) يقدّم نصائح لصانعي المحتوى، بالجملة التالية: «أعتذر؛ ولكنّني لا أستطيع تحقيق هذا الطلب؛ لأنّه ينطوي على ابتكار محتوى ترويجي يستخدم روابط تابعة لجهات أخرى»

ظهر هذا النوع من الرسائل في أنحاء كثيرة من شبكة الإنترنت وشكّل إشارة واضحة إلى أنّ كاتب المحتوى ليس إنساناً. صحيحٌ أنّ «رسائل الخطأ»؛ هذه اللغة التي تولّدها روبوتات المحادثة المدفوعة بالذكاء الاصطناعي مثل «تشات جي بي تي» عند تلقّيها طلباً يخالف سياسات الشركة، مضحكة، ولكنّها أيضاً نذير شؤم من عالم إلكتروني يتوسّع بفعل الرسائل الإلكترونية المزعجة التي يبتكرها الذكاء الاصطناعي.

يرى مايك كولفيلد، الباحث المختص في التضليل والقرائية الرقمية بجامعة واشنطن، أنّه «من الجيّد أن يضحك النّاس من هذه الرسائل؛ لأنّها تشكّل تجربة تعليمية لما يحصل». وأضاف الباحث أنّ أحدث الأدوات اللغوية المدفوعة بالذكاء الاصطناعي تغذّي جيلاً جديداً من المحتوى المزعج والرديء الذي يهدّد بإغراق الإنترنت؛ إلا في حال وجدت المنصات الإلكترونية وأجهزة التنظيم القانونية طرائق للسيطرة عليه.

عملياً؛ لا أحد سينشر تقييماً لمنتج، أو منشور تواصل اجتماعي، أو لائحة منتجات على «إي باي» تتضمّن «رسالة خطأ» من صناعة روبوت محادثة مدفوع بالذكاء الاصطناعي، ولكن مع توفير الأدوات اللغوية المدفوعة بالذكاء الاصطناعي بدائل أسرع وأقلّ تكلفة من الكتّاب البشريين، فإن المستخدمين والشركات يعكفون على التحوّل إليها لصناعة أي نوعٍ من المحتوى؛ بما في ذلك المحتوى الذي يخدم أغراضاً تتعارض مع سياسات «أوبن إي آي»، مثل السرقة الأدبية أو المشاركة المزيفة عبر الإنترنت.

في المحصّلة، أصبحت هذه الجمل الكاشفة مثل «بصفتي نموذجاً لغوياً مدفوعاً بالذكاء الاصطناعي» و«أعتذر؛ لا يمكنني تحقيق هذا الطلب» شائعة وواضحة إلى درجة أنّ الهواة باتوا يعتمدون عليها بوصفها طريقة سريعة لرصد زيف الكتابة المولدة من الذكاء الاصطناعي.

من جهتها؛ عدّت ماكينزي ساديغي، المحلّلة من شركة «نيوز غارد» المختصة في تتبع التضليل، أنّ «عمل كثير من هذه المواقع تحت إشراف بشري طفيف أو من دونه يؤدّي إلى نشر هذه الرسائل مباشرةً على الموقع قبل أيّ رصدٍ بشري».

تغريدات أوتوماتيكية

في أبريل (نيسان) الماضي، لاحظت ساديغي وأحد زملائها لأول مرة وجود كثير من المنشورات التي تحتوي «رسائل خطأ» من «تشات جي بي تي» على منصّة «إكس»، مما يرجّح أنّ الحسابات كانت تستخدم الروبوت لصناعة التغريدات أوتوماتيكياً. بعدها، بدآ البحث عن هذه الجمل في أماكن أخرى على الشبكة، كنتائج بحث «غوغل»، ووجدا مئات المواقع الإلكترونية التي تدّعي أنّها مواقع إخبارية، وقد نشرت الرسائل العائبة نفسها.

عدّت ساديغي أنّ المواقع التي لا ترصد «رسائل الخطأ» ليست إلا رأس جبل الجليد. وأضافت أنّه «يوجد على الأرجح كثير من محتوى الذكاء الاصطناعي الذي لا يضمّ (رسائل خطأ)، مما يصعّب عملية رصده».

ولفتت إلى أنّ «حقيقة ازدياد استخدام المواقع الإلكترونية الذكاء الاصطناعي تعكس أهميّة اليقظة عند تقييم المستخدمين شفافية ما يقرأونه».

يُلحظ انتشار استخدام الذكاء الاصطناعي على منصّة «إكس» أكثر من غيرها، حتّى في الحسابات التي تحمل علامة التوثيق.

في سياق متصل، كشف موقع «فيوتشرزم» أخيراً عن أنّ مجموعة كبيرة من منتجات «أمازون» تحمل رسائل ذكاء اصطناعي خطأ في اسمها، كالتالية: «أعتذر؛ ولكنّني لا أستطيع تلبية هذا الطلب؛ لأنه يتعارض مع سياسة الاستخدام في (أوبن إي آي). هدفي هو تزويد المستخدمين بمعلومات مفيدة ومحترمة».

أزالت شركة «أمازون» اللوائح التي ذكرها الموقع وغيره من المدوّنات التقنية، إلا أنّ بحثاً أجرته مؤسسة إعلامية أميركية عثر على المزيد... على سبيل المثال؛ حملت لائحة تستعرض إكسسوارات لرفع الأثقال العنوان التالي: «أعتذر؛ ولكنّني غير قادر على تحليل أو توليد اسم منتج جديد من دون معلومات إضافية. لطفاً؛ هل يمكنكم تزويدي بمنتجٍ أو سياقٍ محدّدٍ تحتاجون عنواناً له؟».

لا ينحصر نشاط روبوتات الذكاء الاصطناعي المسعور في منصّة «إكس» وموقع «أمازون» فقط؛ فقد أظهرت أبحاث «غوغل» عن «رسائل الخطأ» للذكاء الاصطناعي أنّ لوائح «إي باي»، ومنشورات المدوّنات، والخلفيات الرقمية، تعجّ به أيضاً. فقد وردت خلفية تعرض امرأة ترتدي ملابس ضيقة على أحد المواقع، تحت العنوان التالي: «أعتذر؛ لا يمكنني تلبية هذا الطلب؛ لأنّ المحتوى غير ملائم ومسيء».

محتوى آلي وإشراف بشري

من جهته، كشف المتحدّث باسم «أوبن إي آي»، نيكو فيلكس، عن أنّ الشركة تحسّن سياسات الاستخدام الخاصة بـ«تشات جي بي تي» والأدوات اللغوية الأخرى المدفوعة بالذكاء الاصطناعي بشكلٍ دوري؛ لأنّها تعلم كيف يستخدمها النّاس بشكلٍ سلبي.

وقال فيلكس في رسالة إلكترونية: «لا نريد لنماذجنا أن تُستخدم لتضليل وسوء تمثيل وخداع الآخرين. وهذا الأمر يشمل وفقاً لسياستنا: توليد أو ترويج المعلومات الخاطئة والمعلومات المضللة، والمشاركة الإلكترونية المزيفة (كالتعليقات، والتقييمات...). تستخدم شركتنا مزيجاً من الأنظمة الآلية، والمراجعات البشرية، وتقارير المستخدمين، لرصد وتقييم الاستخدامات التي تنتهك سياساتنا، وهذا الأمر قد يؤدي إلى اتخاذ إجراءات بحقّ حساب المستخدم».

ورأت كوري دوكتورو، الناشطة في جمعية «إلكترونيك فرونتيير فاونديشن»، أنّه يوجد ميلٌ للوم الناس والشركات الصغيرة على هذا المحتوى المزعج. ولكنّها تعتقد أنّ هؤلاء هم في الحقيقة ضحايا لعملية احتيال أكبر؛ تلك التي تروّج للذكاء الاصطناعي بوصفه مساراً لصناعة الأموال السهلة لمحبّي المغامرة، بينما يجني عمالقة الذكاء الاصطناعي أموالاً طائلة.

وعدّ كولفيلد، من جامعة واشنطن، أنّ الوضع ليس ميؤوساً منه، لافتاً إلى أنّ منصات التقنية وجدت وسائل لإضعاف فاعلية الجيل السابق من عمليات التضليل، مثل توفير مرشحات للرسائل الإلكترونية المزعجة.

أمّا عن «رسائل الخطأ» من الذكاء الاصطناعي، فقال إنّه يأمل أن «توعّي هذه الرسائل الناس بهذا الوضع السخيف، ولربّما يؤدي هذا الأمر إلى ظهور منصات تأخذ المحتوى المزعج على محمل الجدّ».


مقالات ذات صلة

«أوبن إيه آي» تطلق واجهة جديدة باسم «كانفاس» لمنصة «شات جي بي تي»

تكنولوجيا شعار شركة الذكاء الاصطناعي الأميركية «أوبن إيه آي» (رويترز)

«أوبن إيه آي» تطلق واجهة جديدة باسم «كانفاس» لمنصة «شات جي بي تي»

أطلقت شركة الذكاء الاصطناعي الأميركية «أوبن إيه آي» طريقة جديدة للتفاعل مع منصة محادثة الذكاء الاصطناعي «شات جي بي تي» بواجهة مستخدم تسمى «كانفاس»

«الشرق الأوسط» (واشنطن )
تكنولوجيا شعار شركة «ميتا» (أ.ف.ب)

«ميتا» تكشف عن أداة ذكاء اصطناعي تنتج مقاطع صوت وصورة

أعلنت شركة «ميتا» المالكة لـ«فيسبوك»، الجمعة، أنها أنشأت نموذج ذكاء اصطناعي جديداً أطلقت عليه اسم «موفي جين» يمكنه إنشاء مقاطع مصورة مصحوبة بالصوت لتبدو واقعية.

«الشرق الأوسط» (نيويورك)
تكنولوجيا تطرح «أوبن أيه آي» برنامج «كانفاس» كمساعد رقمي يفهم سياق مشروعك بالكامل (شاترستوك)

تعرف على «كانفاس»... الواجهة التعاونية الجديدة لـ«تشات جي بي تي»

يوفر «كانفاس» أدوات لصقل القواعد النحوية، وتعزيز الوضوح، وضمان الاتساق.

نسيم رمضان (لندن)
علوم نظّم يومك لتحقيق كفاءة الدماغ

نظّم يومك لتحقيق كفاءة الدماغ

مدى نجاح اليوم ليس بعدد الساعات؛ بل بجودة الإنتاج العقلي من حلول وأفكار.

«الشرق الأوسط» (واشنطن)
تكنولوجيا يتشارك المستخدمون محادثات عميقة وتأملية مع نسخة من أنفسهم تم إنشاؤها بواسطة الذكاء الاصطناعي في سن الستين (MIT)

نظام ذكاء اصطناعي يجعلك تتكلم مع «ذاتك المستقبلية»!

يجري ذلك عبر محادثات عميقة وتأملية مع نفسك وأنت في عمر الستين.

نسيم رمضان (لندن)

إعلان الجوائز الأسبوع المقبل... 4 اكتشافات «مذهلة» كانت تستحق «نوبل» ولم تفز بها

سيتم الإعلان عن جوائز «نوبل» في الفيزياء والكيمياء والطب الأسبوع المقبل (رويترز)
سيتم الإعلان عن جوائز «نوبل» في الفيزياء والكيمياء والطب الأسبوع المقبل (رويترز)
TT

إعلان الجوائز الأسبوع المقبل... 4 اكتشافات «مذهلة» كانت تستحق «نوبل» ولم تفز بها

سيتم الإعلان عن جوائز «نوبل» في الفيزياء والكيمياء والطب الأسبوع المقبل (رويترز)
سيتم الإعلان عن جوائز «نوبل» في الفيزياء والكيمياء والطب الأسبوع المقبل (رويترز)

سيتم تسليط الضوء على أفضل العقول في مجال العلوم الأسبوع المقبل عندما يتم الإعلان عن جوائز «نوبل» في الفيزياء والكيمياء والطب.

وتحتفي الجوائز، التي أسس لها رجل الصناعة السويدي ألفريد نوبل منذ أكثر من قرن من الزمان، بالأعمال الرائدة التي قد يستغرق إكمالها عقوداً.

ومن الصعب للغاية التنبؤ بمن سيفوز بأعلى مراتب الشرف في العلوم. وتظل القائمة المختصرة والمرشحين سراً، ويتم إخفاء الوثائق التي تكشف عن تفاصيل عملية الاختيار عن الرأي العام لمدة 50 عاماً.

ومع ذلك، هناك بعض الاكتشافات «المذهلة» التي كانت تستحق جائزة «نوبل» ولم تحصل عليها، وفق ما ذكرته شبكة «سي إن إن» الأميركية.

أول جينوم بشري

أحد أبرز الاكتشافات التي كانت مرشحة للحصول على جائزة «نوبل» هو رسم خريطة الجينوم البشري، وهو مشروع جريء بدأ في عام 1990 واكتمل في عام 2003.

أول خريطة كاملة للجينوم البشري (أ.ب)

وشارك في فك الشفرة الوراثية للحياة البشرية اتحاد دولي يضم آلاف الباحثين في الولايات المتحدة وبريطانيا وفرنسا وألمانيا واليابان والصين.

وكان لهذا المسعى تأثير بعيد المدى على علم الأحياء والطب والعديد من المجالات الأخرى. لكن أحد أسباب عدم حصول المشروع على جائزة «نوبل» هو العدد الهائل من الأشخاص المشاركين في هذا العمل الفذ.

ووفقاً للقواعد التي وضعها نوبل في وصيته عام 1895، لا يمكن للجوائز أن تكرم إلا ما يصل إلى ثلاثة أشخاص لكل جائزة، وهو تحدٍ متزايد نظراً للطبيعة التعاونية لكثير من الأبحاث العلمية الحديثة.

الذكاء الاصطناعي

يعمل الذكاء الاصطناعي على تغيير حياة الناس بوتيرة غير مسبوقة. وهو «مجال مزدحم»، لكن يبرز فيه اسمان، وفقاً لـ«ديفيد بندلبيري»، رئيس تحليل الأبحاث في معهد «كلاريفيت» للمعلومات العلمية.

ويحدد بندلبيري الأفراد «الجديرين بالحصول على جائزة نوبل» من خلال تحليل عدد المرات التي يستشهد فيها زملاؤهم العلماء بأوراقهم العلمية على مر السنين.

والشخصيتان البارزتان هنا هما ديميس هاسابيس وجون جامبر، مؤسسا شركة «ديب مايند» التابعة لـ«غوغل» اللذان أنشآ «AlphaFold» وهو نموذج ذكاء اصطناعي للتنبؤ بهياكل البروتين من تسلسل الأحماض الأمينية بدقة عالية، والذي استخدمه ما لا يقل عن مليوني باحث حول العالم، وفق «سي إن إن».

ديميس هاسابيس (يسار) وجون جامبر يتسلمان أحد الجوائز في لوس أنجليس (سي إن إن)

ويساعد «AlphaFold» في تسريع التقدم في علم الأحياء الأساسي والمجالات الأخرى ذات الصلة. ومنذ نشر العالمان بحثهما الرئيسي حول هذه القضية في عام 2021، تم الاستشهاد به أكثر من 13 ألف مرة، وهو ما يصفه بندلبيري بـ«الرقم الاستثنائي»، لأنه من بين إجمالي 61 مليون ورقة علمية، تم الاستشهاد بنحو 500 ورقة فقط أكثر من 10 آلاف مرة.

فهم ميكروبيوم الأمعاء

تعيش تريليونات من الميكروبات (البكتيريا والفيروسات والفطريات) في جسم الإنسان، وتُعرف مجتمعة باسم «الميكروبيوم البشري». ومع التقدم في التسلسل الجيني خلال العقدين الماضيين، أصبح العلماء أكثر قدرة على فهم ما تفعله هذه الميكروبات، وكيف تتفاعل مع بعضها أو مع الخلايا البشرية، وخاصة في القناة الهضمية.

ويقول بندلبيري إن هذا «مجال طال انتظار» أن يحصل عالم فيه على جائزة «نوبل». ويعد عالم الأحياء الأميركي، الدكتور جيفري آي. غوردون، رائداً في هذا المجال.

عالم الأحياء الأميركي الدكتور جيفري آي. غوردون (أرشيفية)

وسعى غوردون إلى فهم الميكروبيوم المعوي البشري وكيفية تشكيله لصحة الإنسان، بدءا من الأبحاث المعملية على الفئران. وقاد بحثاً توصّل إلى أن ميكروبيوم الأمعاء يلعب دوراً في التأثيرات الصحية لنقص التغذية، الذي يؤثر على ما يقرب من 200 مليون طفل على مستوى العالم. ويعمل غوردون على تطوير "تدخلات غذائية" تستهدف تحسين صحة الأمعاء.

الجينات المسببة للسرطان

في السبعينيات، كان من المفهوم أن السرطان ينتقل في بعض الأحيان بين العائلات، لكن التفكير السائد حول سرطان الثدي لم يأخذ في الاعتبار أي قابلية وراثية للإصابة بهذا المرض. ومع خلفيتها في البحث عن الاختلافات الجينية بين البشر والشمبانزي، اتبّعت ماري كلير كينغ، عالمة الوراثة الأميركية وأستاذة الطب وعلوم الجينوم، نهجاً جديداً.

ماري كلير كينغ تظهر مع الرئيس الأميركي حينذاك باراك أوباما بعد حصولها على الميدالية الوطنية للعلوم في حفل بالبيت الأبيض في مايو 2016 (سي إن إن)

وعملت كينغ قبل فترة طويلة من حصول العلماء على رسم خريطة الجينوم البشري، وأمضت 17 عاماً في اكتشاف وتحديد الدور الذي تلعبه طفرة «جين BRCA1» في سرطاني الثدي والمبيض.

وقد أتاح اكتشافها إجراء اختبارات جينية يمكنها تحديد النساء المعرضات بشكل متزايد لخطر الإصابة بسرطان الثدي، بالإضافة إلى الخطوات التي يجب اتخاذها لتقليل المخاطر، مثل الفحص الإضافي والعمليات الجراحية الوقائية.