وسائل للتفوّق على دهاء روبوتات التواصل الاجتماعي

وسائل للتفوّق على دهاء روبوتات التواصل الاجتماعي

الثلاثاء - 22 جمادى الأولى 1440 هـ - 29 يناير 2019 مـ رقم العدد [ 14672]
لندن - نيويورك: «الشرق الأوسط»
قبل أكثر من عامين، وفي الصيف الذي سبق انتخابات 2016 الرئاسية في الولايات المتحدة، كشف جون سيمور وفيليب تولاي، الباحثان في شركة «زيرو فوكس» المتخصصة بالأمن في بالتيمور، النقاب عن نوع جديد من بوتات الإنترنت (روبوتات الويب) العاملة بنشاط في شبكة «تويتر». ومن خلال تحليل أنماط النشاط على شبكات التواصل الاجتماعي، تعلّمت هذه البوتات كيف تخدع المستخدمين وتدفعهم إلى النقر على روابط تنقلهم إلى مواقع خطرة.



تصيد إلكتروني آلي

بوت «سناب - آر» (SNAP_R)، هو عبارة عن نظام تصيّد إلكتروني قادر على توجيه أهواء أفراد معينين وإرشادهم لتحميل برامج تجسس على آلاتهم دون أن يعرفوا. كتب هذا البوت على حساب أحد مستخدمي «تويتر»، التغريدة التالية مرفقة برابط: «يعتقد خبراء الآثار أنّهم عثروا على تابوت الإسكندر الأكبر للمرة الأولى في الولايات المتحدة: «goo.gl-KjdQYT».

ورغم الأخطاء النحوية الواردة في تغريدته، نجح «سناب - آر» في الحصول على النقرة التي يريدها في 66 في المائة من الحالات، أي نسبة النجاح نفسها لدى القراصنة الإلكترونيين البشر الذين يكتبون رسائل التصيد بأنفسهم.

لقد كان هذا البوت غير مجهز، وبالكاد يشكّل إثباتاً على فاعلية الفكرة التي صُمم لأجلها. ولكنّ في أعقاب موجة المخاوف من القرصنة السياسية، والأخبار الكاذبة، والجانب المظلم من التواصل الاجتماعي، قدّم هذا البوت صورة عن التزييف المتزايد الذي سنعيشه في المستقبل.

بنى هذان الباحثان ما يعرف بالشبكة العصبية، وهي نظام رياضي مركّب يمكنه تعلّم مهام معينة من خلال تحليل كمية هائلة من البيانات. وتستطيع هذه الشبكة العصبية أن تتعلّم التعرّف إلى كلب مثلا، عبر رصد الأنماط من آلاف صور الكلاب. كما يمكنها أن تتعلّم تعريف الكلمات المنطوقة من خلال غربلة الاتصالات القديمة المدعومة بالتقنية.

وأثبت هذان الباحثان أنّ الشبكة العصبية تستطيع أيضاً كتابة رسائل التصيّد الإلكتروني من خلال تصفّح التغريدات، ومنشورات «ريديت» إلى جانب الاستفادة من حيل إلكترونية قديمة.



خداع الجموع

اليوم، تجتاح التقنية الإلكترونية الرياضية نفسها الآلات مع مجموعة واسعة من القوى الشبيهة بالطاقات البشرية، ابتداء من التعرف إلى الكلام إلى ترجمة اللغات. وفي كثير من الحالات، يعتبر هذا الجيل الجديد من الذكاء الصناعي أيضاً وسيلة مثالية لخداع مجموعة من الأشخاص عبر الإنترنت، حيث أصبح التلاعب بالجموع اليوم أسهل من أي وقت مضى.

قال شاهار آفين، باحث من مركز «دراسات المخاطر الوجودية» في جامعة كمبريدج، إن «عدم سير الأمور في هذا الاتجاه سيكون مفاجئاً جداً. جميع النزعات التقنية ذاهبة في هذا الاتجاه».

وعبّر كثير من المراقبين التقنيين عن مخاوفهم من توسع الذكاء الصناعي الذي يبتكر ما يعرف بـ«الديب فيكس»، أي الصور المزيفة التي تبدو كالحقيقة. فما بدا كوسيلة لوضع رأس أي كان على جسد نجم إباحي تطوّر ليصبح أداة تتيح وضع أي صورة أو تسجيل صوتي في أي مقطع فيديو ودون أن يلاحظ أحد.

في أبريل (نيسان)، أطلق الكوميدي جوردان بيل بالتعاون مع «بازفيد» مقطع فيديو وضع كلمات كـ«يجب أن نكون حذرين مما نثق به على الإنترنت» على فم الرئيس الأميركي السابق باراك أوباما.

يتّجه هذا الخطر إلى التوسّع مع تطوير الباحثين لأنظمة قادرة على المعالجة والتعلّم عبر رصد مجموعات كبيرة من البيانات. وهذه الشبكات العصبية قادرة على إنتاج أصوات وصور قابلة للتصديق، أي يمكنها أن تضفي سمة البشرية على المساعدين الرقميين كـ«سيري» أكثر من أي وقت مضى.

بنت «غوغل» نظاماً يسمّى «دوبليكس» يستطيع الاتصال بمطعم محلّي، وتثبيت الحجوزات، وخداع الطرف الآخر أثناء الاتصال بإقناعه أنّ من يخاطبه إنسان حقيقي. ومن المتوقع أن تصل هذه الخدمة إلى الهواتف الذكية قريبا.

امتلك الخبراء قوة معالجة التسجيلات الصوتية ومقاطع الفيديو منذ زمن طويل، ولكن مع تحسّن أنظمة الذكاء الصناعي هذه، ستصبح صناعة المحتوى الرقمي من صور ومقاطع فيديو وتفاعلات اجتماعية أقرب للحقيقية، أكثر سهولة وأقلّ كلفة لأي شخص.

وفي إطار مفهوم الثقافة الأكاديمية، تحرص مختبرات الذكاء الصناعي الكبرى والشركات العملاقة كـ«غوغل» على نشر أبحاثها مع رمزها البرمجي لتصبح متاحة للجميع.





مهارات الآلات

تتيح هذه التقنيات للآلات تعلّم القراءة والكتابة أيضاً. لسنوات، بحث الخبراء فيما إذا كان يمكن للشبكات العصبية أن تفكّك رمز اللغة الطبيعية. ولكنّ هذه الفرصة تغيّرت في الأشهر الأخيرة.

بنت منظمات كـ«غوغل» ومختبر «أوبن إيه آي». (OpenAI) المستقل في سان فرانسيسكو، أنظمة تتعلّم التغيّرات اللغوية على أوسع نطاق، بتحليل كلّ شيء من مقالات ويكيبيديا والروايات الرومانسية الشخصية، قبل تطبيق هذه المعرفة في مهام محددة. يتمتع هذا النظام بالقدرة على قراءة مقطع والإجابة عن الأسئلة حوله، ويمكنه أيضاً تحديد ما إذا كانت النبرة المعتمدة في تحليل فيلم ما إيجابية أم سلبية.

يمكن لهذه التقنية أن تطوّر مهارات بوتات الصيد الإلكتروني كـ«سناب -آر». اليوم، تبدو معظم بوتات «تويتر» كالبوتات، وخاصة عندما تبدؤون بالردّ عليها. ولكنّها في المستقبل، ستصبح قادرة على إجابتكم بالمثل.

قد تساهم هذه التقنية أيضاً في ابتكار روبوتات صوتية قادرة على المشاركة في حديث حقيقي، لتدفعكم وتقنعكم في يوم من الأيام بالبوح ببيانات بطاقتكم المصرفية.

تعمل هذه الأنظمة اللغوية اليوم بفعل موجة جديدة من القوة الحاسوبية. صمم مهندسو «غوغل» رقائق كومبيوتر خاصة لتدريب الشبكات العصبية. وتعمل شركات أخرى على بناء رقائق مماثلة، ستؤدي مع نضجها إلى تسريع بحث الذكاء الصناعي.

يرى جاك كلارك، رئيس قسم السياسة في «أوبن إيه آي». أن المستقبل الذي ستطور فيه الحكومات أنظمة تعلّم آلي تسعى من خلاله إلى تعبئة شعوب دول أخرى أو إجبار شعوبها على تبني آراء معينة، أصبح قريباً.

وقال كلارك في حديث إلى وسائل الإعلام الأميركية، إنه «نوع جديد من التحكّم الاجتماعي أو البروباغندا. يمكن للحكومات أن تبدأ بابتكار حملات تستهدف أفراداً، ولكن تعمل في الوقت نفسه على استهداف عدّة أشخاص خدمة لهدف أكبر».

يستطيع الذكاء الصناعي أيضاً أن يوفّر وسائل لرصد وإيقاف هذا النوع من التلاعب الجماعي. يعشق مارك زوكربيرغ مؤسس «فيسبوك» الحديث عن الاحتمالات، ولكن بالنسبة للمستقبل، نحن دون شكّ أمام سباق تسلّح في مجال التعلّم الآلي.

لنأخذ مثلاً نظام «الشبكات الزوجية التوليدية» أو ما يعرف بالـ«GANs»، الذي يتألف من شبكتين عصبيتين تفبركان صوراً مقنعة أو تتلاعبان بالصور المتوفرة.

تؤدي هذه الشبكات مهمتها عبر ما يشبه لعبة القطّ والفأر: تجري الشبكة الأولى ملايين التغييرات الصغيرة في الصورة، فيضاف الثلج مثلاً إلى الشوارع الصيفية، ويتحول الدب الرمادي إلى باندا، وتبدو الوجوه المزيفة مقنعة جداً إلى درجة عدم التمييز بين الأشخاص الموجودين فيها والمشاهير، سعياً منها لخداع الشبكة الأخرى.

أمّا الشبكة الأخرى، فتقدّم أفضل ما لديها كي لا تتعرض للخداع. وفي المعركة الدائرة بين الشبكتين، تصبح الصورة أكثر إقناعاً، ويكون الذكاء الصناعي الذي يحاول رصد التزييف هو الخاسر.

ولكنّ رصد الأخبار الكاذبة أصعب، إذ بالكاد يستطيع الناس التوافق على ما يمكن تعريفه بالخبر الكاذب؛ فكيف يمكننا أن نتوقع من آلة أن تفعل ذلك؟ وفي حال استطاعت، هل نريدها فعلاً أن تحدّد هذا الخبر؟

لعلّ الطريقة الوحيدة لوقف انتشار المعلومات الخاطئة هي تعليم الناس التشكيك فيما يقرؤونه أو يرونه على الإنترنت. ولكنّ هذا الحلّ قد يكون الأصعب من بين جميع الحلول المتوفرة. وختم آفين قائلاً: «يمكننا أن نوظّف تقنية تصلح أنظمة حواسيبنا، ولكن لا يمكننا أن نستعين بتقنية تصلح عقول البشر».
Technology

اختيارات المحرر

الوسائط المتعددة