وسائل للتفوّق على دهاء روبوتات التواصل الاجتماعي

وسائل للتفوّق على دهاء روبوتات التواصل الاجتماعي
TT

وسائل للتفوّق على دهاء روبوتات التواصل الاجتماعي

وسائل للتفوّق على دهاء روبوتات التواصل الاجتماعي

قبل أكثر من عامين، وفي الصيف الذي سبق انتخابات 2016 الرئاسية في الولايات المتحدة، كشف جون سيمور وفيليب تولاي، الباحثان في شركة «زيرو فوكس» المتخصصة بالأمن في بالتيمور، النقاب عن نوع جديد من بوتات الإنترنت (روبوتات الويب) العاملة بنشاط في شبكة «تويتر». ومن خلال تحليل أنماط النشاط على شبكات التواصل الاجتماعي، تعلّمت هذه البوتات كيف تخدع المستخدمين وتدفعهم إلى النقر على روابط تنقلهم إلى مواقع خطرة.

تصيد إلكتروني آلي
بوت «سناب - آر» (SNAP_R)، هو عبارة عن نظام تصيّد إلكتروني قادر على توجيه أهواء أفراد معينين وإرشادهم لتحميل برامج تجسس على آلاتهم دون أن يعرفوا. كتب هذا البوت على حساب أحد مستخدمي «تويتر»، التغريدة التالية مرفقة برابط: «يعتقد خبراء الآثار أنّهم عثروا على تابوت الإسكندر الأكبر للمرة الأولى في الولايات المتحدة: «goo.gl-KjdQYT».
ورغم الأخطاء النحوية الواردة في تغريدته، نجح «سناب - آر» في الحصول على النقرة التي يريدها في 66 في المائة من الحالات، أي نسبة النجاح نفسها لدى القراصنة الإلكترونيين البشر الذين يكتبون رسائل التصيد بأنفسهم.
لقد كان هذا البوت غير مجهز، وبالكاد يشكّل إثباتاً على فاعلية الفكرة التي صُمم لأجلها. ولكنّ في أعقاب موجة المخاوف من القرصنة السياسية، والأخبار الكاذبة، والجانب المظلم من التواصل الاجتماعي، قدّم هذا البوت صورة عن التزييف المتزايد الذي سنعيشه في المستقبل.
بنى هذان الباحثان ما يعرف بالشبكة العصبية، وهي نظام رياضي مركّب يمكنه تعلّم مهام معينة من خلال تحليل كمية هائلة من البيانات. وتستطيع هذه الشبكة العصبية أن تتعلّم التعرّف إلى كلب مثلا، عبر رصد الأنماط من آلاف صور الكلاب. كما يمكنها أن تتعلّم تعريف الكلمات المنطوقة من خلال غربلة الاتصالات القديمة المدعومة بالتقنية.
وأثبت هذان الباحثان أنّ الشبكة العصبية تستطيع أيضاً كتابة رسائل التصيّد الإلكتروني من خلال تصفّح التغريدات، ومنشورات «ريديت» إلى جانب الاستفادة من حيل إلكترونية قديمة.

خداع الجموع
اليوم، تجتاح التقنية الإلكترونية الرياضية نفسها الآلات مع مجموعة واسعة من القوى الشبيهة بالطاقات البشرية، ابتداء من التعرف إلى الكلام إلى ترجمة اللغات. وفي كثير من الحالات، يعتبر هذا الجيل الجديد من الذكاء الصناعي أيضاً وسيلة مثالية لخداع مجموعة من الأشخاص عبر الإنترنت، حيث أصبح التلاعب بالجموع اليوم أسهل من أي وقت مضى.
قال شاهار آفين، باحث من مركز «دراسات المخاطر الوجودية» في جامعة كمبريدج، إن «عدم سير الأمور في هذا الاتجاه سيكون مفاجئاً جداً. جميع النزعات التقنية ذاهبة في هذا الاتجاه».
وعبّر كثير من المراقبين التقنيين عن مخاوفهم من توسع الذكاء الصناعي الذي يبتكر ما يعرف بـ«الديب فيكس»، أي الصور المزيفة التي تبدو كالحقيقة. فما بدا كوسيلة لوضع رأس أي كان على جسد نجم إباحي تطوّر ليصبح أداة تتيح وضع أي صورة أو تسجيل صوتي في أي مقطع فيديو ودون أن يلاحظ أحد.
في أبريل (نيسان)، أطلق الكوميدي جوردان بيل بالتعاون مع «بازفيد» مقطع فيديو وضع كلمات كـ«يجب أن نكون حذرين مما نثق به على الإنترنت» على فم الرئيس الأميركي السابق باراك أوباما.
يتّجه هذا الخطر إلى التوسّع مع تطوير الباحثين لأنظمة قادرة على المعالجة والتعلّم عبر رصد مجموعات كبيرة من البيانات. وهذه الشبكات العصبية قادرة على إنتاج أصوات وصور قابلة للتصديق، أي يمكنها أن تضفي سمة البشرية على المساعدين الرقميين كـ«سيري» أكثر من أي وقت مضى.
بنت «غوغل» نظاماً يسمّى «دوبليكس» يستطيع الاتصال بمطعم محلّي، وتثبيت الحجوزات، وخداع الطرف الآخر أثناء الاتصال بإقناعه أنّ من يخاطبه إنسان حقيقي. ومن المتوقع أن تصل هذه الخدمة إلى الهواتف الذكية قريبا.
امتلك الخبراء قوة معالجة التسجيلات الصوتية ومقاطع الفيديو منذ زمن طويل، ولكن مع تحسّن أنظمة الذكاء الصناعي هذه، ستصبح صناعة المحتوى الرقمي من صور ومقاطع فيديو وتفاعلات اجتماعية أقرب للحقيقية، أكثر سهولة وأقلّ كلفة لأي شخص.
وفي إطار مفهوم الثقافة الأكاديمية، تحرص مختبرات الذكاء الصناعي الكبرى والشركات العملاقة كـ«غوغل» على نشر أبحاثها مع رمزها البرمجي لتصبح متاحة للجميع.

مهارات الآلات
تتيح هذه التقنيات للآلات تعلّم القراءة والكتابة أيضاً. لسنوات، بحث الخبراء فيما إذا كان يمكن للشبكات العصبية أن تفكّك رمز اللغة الطبيعية. ولكنّ هذه الفرصة تغيّرت في الأشهر الأخيرة.
بنت منظمات كـ«غوغل» ومختبر «أوبن إيه آي». (OpenAI) المستقل في سان فرانسيسكو، أنظمة تتعلّم التغيّرات اللغوية على أوسع نطاق، بتحليل كلّ شيء من مقالات ويكيبيديا والروايات الرومانسية الشخصية، قبل تطبيق هذه المعرفة في مهام محددة. يتمتع هذا النظام بالقدرة على قراءة مقطع والإجابة عن الأسئلة حوله، ويمكنه أيضاً تحديد ما إذا كانت النبرة المعتمدة في تحليل فيلم ما إيجابية أم سلبية.
يمكن لهذه التقنية أن تطوّر مهارات بوتات الصيد الإلكتروني كـ«سناب -آر». اليوم، تبدو معظم بوتات «تويتر» كالبوتات، وخاصة عندما تبدؤون بالردّ عليها. ولكنّها في المستقبل، ستصبح قادرة على إجابتكم بالمثل.
قد تساهم هذه التقنية أيضاً في ابتكار روبوتات صوتية قادرة على المشاركة في حديث حقيقي، لتدفعكم وتقنعكم في يوم من الأيام بالبوح ببيانات بطاقتكم المصرفية.
تعمل هذه الأنظمة اللغوية اليوم بفعل موجة جديدة من القوة الحاسوبية. صمم مهندسو «غوغل» رقائق كومبيوتر خاصة لتدريب الشبكات العصبية. وتعمل شركات أخرى على بناء رقائق مماثلة، ستؤدي مع نضجها إلى تسريع بحث الذكاء الصناعي.
يرى جاك كلارك، رئيس قسم السياسة في «أوبن إيه آي». أن المستقبل الذي ستطور فيه الحكومات أنظمة تعلّم آلي تسعى من خلاله إلى تعبئة شعوب دول أخرى أو إجبار شعوبها على تبني آراء معينة، أصبح قريباً.
وقال كلارك في حديث إلى وسائل الإعلام الأميركية، إنه «نوع جديد من التحكّم الاجتماعي أو البروباغندا. يمكن للحكومات أن تبدأ بابتكار حملات تستهدف أفراداً، ولكن تعمل في الوقت نفسه على استهداف عدّة أشخاص خدمة لهدف أكبر».
يستطيع الذكاء الصناعي أيضاً أن يوفّر وسائل لرصد وإيقاف هذا النوع من التلاعب الجماعي. يعشق مارك زوكربيرغ مؤسس «فيسبوك» الحديث عن الاحتمالات، ولكن بالنسبة للمستقبل، نحن دون شكّ أمام سباق تسلّح في مجال التعلّم الآلي.
لنأخذ مثلاً نظام «الشبكات الزوجية التوليدية» أو ما يعرف بالـ«GANs»، الذي يتألف من شبكتين عصبيتين تفبركان صوراً مقنعة أو تتلاعبان بالصور المتوفرة.
تؤدي هذه الشبكات مهمتها عبر ما يشبه لعبة القطّ والفأر: تجري الشبكة الأولى ملايين التغييرات الصغيرة في الصورة، فيضاف الثلج مثلاً إلى الشوارع الصيفية، ويتحول الدب الرمادي إلى باندا، وتبدو الوجوه المزيفة مقنعة جداً إلى درجة عدم التمييز بين الأشخاص الموجودين فيها والمشاهير، سعياً منها لخداع الشبكة الأخرى.
أمّا الشبكة الأخرى، فتقدّم أفضل ما لديها كي لا تتعرض للخداع. وفي المعركة الدائرة بين الشبكتين، تصبح الصورة أكثر إقناعاً، ويكون الذكاء الصناعي الذي يحاول رصد التزييف هو الخاسر.
ولكنّ رصد الأخبار الكاذبة أصعب، إذ بالكاد يستطيع الناس التوافق على ما يمكن تعريفه بالخبر الكاذب؛ فكيف يمكننا أن نتوقع من آلة أن تفعل ذلك؟ وفي حال استطاعت، هل نريدها فعلاً أن تحدّد هذا الخبر؟
لعلّ الطريقة الوحيدة لوقف انتشار المعلومات الخاطئة هي تعليم الناس التشكيك فيما يقرؤونه أو يرونه على الإنترنت. ولكنّ هذا الحلّ قد يكون الأصعب من بين جميع الحلول المتوفرة. وختم آفين قائلاً: «يمكننا أن نوظّف تقنية تصلح أنظمة حواسيبنا، ولكن لا يمكننا أن نستعين بتقنية تصلح عقول البشر».


مقالات ذات صلة

«تيك توك» تركز على «دعم الاقتصاد الإبداعي» في المنطقة

إعلام "تيك توك" تأمل في أن تكون منصة اقتصاد إبداعي في منطقة الشرق الأوسط. (الشرق الأوسط)

«تيك توك» تركز على «دعم الاقتصاد الإبداعي» في المنطقة

قالت المديرة العامة الإقليمية لشؤون العمليات لدى «تيك توك» في الشرق الأوسط إن استراتيجية المنصة في المنطقة ترتكز على دعم بناء «اقتصاد إبداعي مستدام».

مساعد الزياني (الرياض)
علوم «الحياة والعقل»... مبنى بيئي حديث في جامعة أكسفورد

«الحياة والعقل»... مبنى بيئي حديث في جامعة أكسفورد

يُعدّ مبنى الحياة والعقل الجديد بجامعة أكسفورد Life and Mind Building (LaMB)، الذي افتُتح في أكتوبر (تشرين الأول) 2025، مثالاً بارزاً على التصميم المبتكر

«الشرق الأوسط» (لندن)
خاص يتحوّل النقاش في عصر الذكاء الاصطناعي من التطبيقات إلى البنية التحتية ومن يملكها وكيف تُدار (أدوبي)

خاص الذكاء الاصطناعي السيادي… نهاية السحابة أم بداية نموذج مزدوج؟

يرى باحثون أن صعود الذكاء الاصطناعي السيادي يعيد تشكيل خريطة الحوسبة العالمية في ظل تحوّلٍ من نموذج السحابة المشتركة إلى سيطرة معمارية على البيانات والموارد.

نسيم رمضان (لندن)
تكنولوجيا تطبيقات استوديو «أبل» للمبدعين (أبل)

لماذا يختار بعض صُنّاع المحتوى «أبل»… ويتمسّك المحترفون بـ«أدوبي»؟

«أبل» تراهن على التكامل بين الأجهزة والسرعة والبساطة لصانع المحتوى اليومي، بينما ترتكز «أدوبي» على العمق والمرونة والأدوات الاحترافية للمشاريع المعقّدة.

عبد العزيز الرشيد (الرياض)
تكنولوجيا «نوت بوك إل إم» أداة ذكاء اصطناعي مجانية عظيمة الفائدة

«نوت بوك إل إم» أداة ذكاء اصطناعي مجانية عظيمة الفائدة

يشكل «نوت بوك إل إم» NotebookLM أداة الذكاء الاصطناعي المجانية الأكثر فائدة خلال عام 2025؛ إذ يتميّز بقدرتين رائعتين: أولاً- يمكنك استخدامه للعثور على مجموعة.

جيرمي كابلان (واشنطن)

خبراء ينصحون بإبعاد الأطفال عن الدمى الناطقة بالذكاء الاصطناعي

شخصية «باز لايت يير» (بيكساباي)
شخصية «باز لايت يير» (بيكساباي)
TT

خبراء ينصحون بإبعاد الأطفال عن الدمى الناطقة بالذكاء الاصطناعي

شخصية «باز لايت يير» (بيكساباي)
شخصية «باز لايت يير» (بيكساباي)

مع أفلام مغامرات «حكاية لعبة» الشيّقة، إلى حركات «تيد» الطفولية، أصبحت فكرة الدمى والدببة المحشوة، التي تدب فيها الحياة فكرةً سينمائيةً مبتذلة.

وبينما أتاحت التطورات الحديثة في مجال الذكاء الاصطناعي إمكانية صنع ألعاب تبدو واعية، فإنها تبدو أقرب إلى شخصيات شريرة مثل المهرج في فيلم «بولترجايست» وشخصية «تشاكي» في فيلم «لعبة طفل» منها إلى شخصيتَي «وودي» و«باز لايت يير».

ووفقاً لمنظمة «كومن سينس ميديا»، الأميركية غير الحكومية المعنية بمراقبة السلع الإلكترونية الاستهلاكية، فإن الدمى وألعاب الأطفال التي تعمل بالذكاء الاصطناعي تقول كلاماً غير لائق للأطفال، وتنتهك خصوصية المنزل من خلال جمع بيانات واسعة النطاق.

يقول روبي تورني، رئيس قسم التقييمات الرقمية في «كومن سينس»: «أظهر تقييمنا للمخاطر أن دمى الذكاء الاصطناعي تشترك في مشكلات جوهرية تجعلها غير مناسبة للأطفال الصغار».

ويقول تورني: «أكثر من رُبع المنتجات تتضمَّن محتوى غير لائق، مثل الإشارة إلى إيذاء النفس، والمخدرات، والسلوكيات الخطرة»، مشيراً إلى أن هذه الأجهزة تستلزم «جمع بيانات مكثف»، وتعتمد على «نماذج اشتراك تستغل الروابط العاطفية».

ووفقاً لمنظمة «كومن سينس»، تستخدم بعض هذه الألعاب «آليات ترابط لخلق علاقات شبيهة بالصداقة»، محذِّرة من أن هذه الأجهزة في الوقت نفسه «تجمع بيانات واسعة النطاق في المساحات الخاصة بالأطفال»، بما في ذلك التسجيلات الصوتية، والنصوص المكتوبة، و«البيانات السلوكية».

وتؤكد «كومن سينس» ضرورة عدم وجود أي طفل دون سن الخامسة بالقرب من لعبة ذكاء اصطناعي، وأنَّ على الآباء توخي الحذر فيما يتعلق بالأطفال الذين تتراوح أعمارهم بين 6 و12 عاماً.

ويقول جيمس ستاير، مؤسِّس ورئيس منظمة «كومن سينس»: «ما زلنا نفتقر إلى ضمانات فعّالة لحماية الأطفال من الذكاء الاصطناعي»، مقارِناً بين غياب هذه الحماية و«الاختبارات الصارمة» للسلامة والملاءمة التي تخضع لها الألعاب الأخرى قبل الموافقة على طرحها للبيع.


بالخطأ... منصة في كوريا الجنوبية توزع «بتكوين» بقيمة 44 مليار دولار

شعار منصة تداول العملات المشفرة الكورية الجنوبية «بيثامب» (رويترز)
شعار منصة تداول العملات المشفرة الكورية الجنوبية «بيثامب» (رويترز)
TT

بالخطأ... منصة في كوريا الجنوبية توزع «بتكوين» بقيمة 44 مليار دولار

شعار منصة تداول العملات المشفرة الكورية الجنوبية «بيثامب» (رويترز)
شعار منصة تداول العملات المشفرة الكورية الجنوبية «بيثامب» (رويترز)

كشفت منصة تداول العملات المشفرة الكورية الجنوبية «بيثامب»، اليوم السبت، عن أنها وزعت عملات «بتكوين» بقيمة تتجاوز 40 مليار دولار على عملاء بوصفها مكافآت ترويجية عن طريق الخطأ، ما أدى إلى موجة بيع حادة على المنصة.

واعتذرت «‌بيثامب» عن ‌الخطأ الذي ‌وقع ⁠أمس ​الجمعة، ‌وقالت إنها استعادت 99.7 في المائة من إجمالي 620 ألف «بتكوين» بقيمة تبلغ نحو 44 مليار دولار بالأسعار الحالية. وقيدت عمليات التداول والسحب ⁠على 695 عميلاً متأثراً بالواقعة في ‌غضون 35 دقيقة ‍من التوزيع ‍الخاطئ أمس.

وأفادت تقارير إعلامية بأن ‍المنصة كانت تعتزم توزيع مكافآت نقدية صغيرة في حدود 2000 وون كوري (1.40 دولار) ​أو أكثر لكل مستخدم في إطار حدث ترويجي، لكن ⁠الفائزين حصلوا بدلاً من ذلك على ألفي «بتكوين» على الأقل لكل منهم.

وقالت «‌بيثامب» في بيان: «نود أن نوضح أن هذا لا علاقة له بقرصنة خارجية أو انتهاكات أمنية، ولا توجد مشاكل في أمن النظام ‌أو إدارة أصول العملاء».


«مدمّر ستارلينك» المحتمل... خطوة تقنية صينية تفتح الباب أمام تعطيل الأقمار الاصطناعية

صورة مركبة لنموذج قمر اصطناعي مع خلفية لكوكب الأرض (رويترز)
صورة مركبة لنموذج قمر اصطناعي مع خلفية لكوكب الأرض (رويترز)
TT

«مدمّر ستارلينك» المحتمل... خطوة تقنية صينية تفتح الباب أمام تعطيل الأقمار الاصطناعية

صورة مركبة لنموذج قمر اصطناعي مع خلفية لكوكب الأرض (رويترز)
صورة مركبة لنموذج قمر اصطناعي مع خلفية لكوكب الأرض (رويترز)

طوّر علماء صينيون مولّد طاقة فائق القوة وصغير الحجم، في خطوة تمهّد الطريق لتطوير أسلحة من الجيل القادم قد تُستخدم يوماً ما ضد أسراب الأقمار الاصطناعية، مثل كوكبة «ستارلينك» التابعة لشركة «سبيس إكس»، وذلك وفقاً لما أوردته صحيفة «إندبندنت».

وخلال السنوات الأخيرة، اكتسبت أسلحة الموجات الدقيقة عالية الطاقة اهتماماً متزايداً بوصفها بديلاً منخفض التكلفة للصواريخ والبنادق التقليدية، نظراً لقدرتها شبه غير المحدودة على إطلاق النبضات.

وفي هذا السياق، يُجري باحثون في الولايات المتحدة، وروسيا، والصين على وجه الخصوص، دراسات مكثفة حول إمكانية تطوير هذه التقنية إلى أسلحة طاقة موجهة قادرة على تعطيل الأقمار الاصطناعية.

ويُعدّ تدمير قمر اصطناعي في الفضاء مهمة بالغة التعقيد، إذ من المرجح أن تُخلّف الأسلحة التقليدية كميات كبيرة من الحطام المداري، ما قد يؤدي إلى عواقب غير متوقعة، بما في ذلك تهديد الأقمار الاصطناعية التابعة للدولة المنفذة نفسها.

ومن الناحية النظرية، يمكن لأسلحة الموجات الدقيقة تعطيل الأقمار الاصطناعية مع توليد قدر محدود من الحطام، فضلاً عن إتاحة قدر من «الإنكار المعقول»، وهو ما يمنحها ميزة استراتيجية واضحة.

وتعتمد هذه الأسلحة على مبدأ تخزين الطاقة الكهربائية ثم إطلاقها دفعة واحدة على شكل نبضة قوية، على غرار آلية عمل ملف تسلا.

وتُستخدم هذه النبضة الهائلة من الطاقة في تشغيل مولدات الموجات الدقيقة، التي تعمل بدورها على تعطيل الأنظمة، والأجهزة الإلكترونية.

شاشة تظهر إيلون ماسك وشعار شركة «ستارلينك» (رويترز)

وحتى وقت قريب، كانت غالبية النماذج الأولية لهذه المولدات النبضية ضخمة الحجم، إذ بلغ طولها 10 أمتار على الأقل، ووزنها أكثر من 10 أطنان، ما جعل دمجها في أنظمة الأسلحة الصغيرة أو المتحركة أمراً بالغ الصعوبة.

غير أنّ دراسة حديثة أجراها علماء صينيون من معهد شمال غربي الصين للتكنولوجيا النووية (NINT) أظهرت تقدماً ملحوظاً في هذا المجال، حيث استخدم الباحثون مادة عازلة سائلة خاصة تُعرف باسم «ميدل 7131»، ما أتاح تحقيق كثافة أعلى لتخزين الطاقة، وعزلاً أكثر قوة، وتقليلاً لفقدان الطاقة، وأسهم في تصميم جهاز أصغر حجماً، وأكثر كفاءة.

وكتب العلماء في الدراسة المنشورة: «من خلال استخدام مادة عازلة سائلة عالية الكثافة للطاقة تُعرف باسم (ميدل 7131)، إلى جانب خط تشكيل نبضات مزدوج العرض، تمكنت الدراسة من تصغير حجم محول تسلا المتكامل، ونظام تشكيل النبضات».

وبحسب الدراسة، يبلغ طول الجهاز الجديد أربعة أمتار فقط (13 قدماً)، ويزن خمسة أطنان، ما يجعله أول جهاز تشغيل صغير الحجم في العالم لسلاح الميكروويف عالي الطاقة.

ويُعرف هذا الجهاز باسم TPG1000Cs، وهو صغير بما يكفي ليُثبت على الشاحنات، والطائرات، بل وحتى على أقمار اصطناعية أخرى، وفقاً لما أفاد به الباحثون.

وأشار الباحثون إلى أن «النظام أظهر استقراراً في التشغيل لمدة دقيقة واحدة متواصلة، حيث جُمعت نحو 200 ألف نبضة بأداء ثابت».

ويؤكد خبراء أن سلاح ميكروويف أرضياً بقدرة تتجاوز 1 غيغاواط (GW) سيكون قادراً على تعطيل وتدمير آلية عمل أقمار «ستارلينك» الاصطناعية في مدارها بشكل كبير.

وذكر الباحثون، بحسب ما نقلته صحيفة «ساوث تشاينا مورنينغ بوست»، أن جهاز TPG1000Cs قادر على توليد نبضات كهربائية فائقة القوة تصل إلى 20 غيغاواط.

وتأتي هذه التطورات في وقت نشرت فيه الصين عدداً من الدراسات التي تشدد على ضرورة إيجاد وسائل فعالة لتعطيل أقمار «ستارلينك» الاصطناعية التابعة لرجل الأعمال إيلون ماسك.