وسائل للتفوّق على دهاء روبوتات التواصل الاجتماعي

وسائل للتفوّق على دهاء روبوتات التواصل الاجتماعي
TT

وسائل للتفوّق على دهاء روبوتات التواصل الاجتماعي

وسائل للتفوّق على دهاء روبوتات التواصل الاجتماعي

قبل أكثر من عامين، وفي الصيف الذي سبق انتخابات 2016 الرئاسية في الولايات المتحدة، كشف جون سيمور وفيليب تولاي، الباحثان في شركة «زيرو فوكس» المتخصصة بالأمن في بالتيمور، النقاب عن نوع جديد من بوتات الإنترنت (روبوتات الويب) العاملة بنشاط في شبكة «تويتر». ومن خلال تحليل أنماط النشاط على شبكات التواصل الاجتماعي، تعلّمت هذه البوتات كيف تخدع المستخدمين وتدفعهم إلى النقر على روابط تنقلهم إلى مواقع خطرة.

تصيد إلكتروني آلي
بوت «سناب - آر» (SNAP_R)، هو عبارة عن نظام تصيّد إلكتروني قادر على توجيه أهواء أفراد معينين وإرشادهم لتحميل برامج تجسس على آلاتهم دون أن يعرفوا. كتب هذا البوت على حساب أحد مستخدمي «تويتر»، التغريدة التالية مرفقة برابط: «يعتقد خبراء الآثار أنّهم عثروا على تابوت الإسكندر الأكبر للمرة الأولى في الولايات المتحدة: «goo.gl-KjdQYT».
ورغم الأخطاء النحوية الواردة في تغريدته، نجح «سناب - آر» في الحصول على النقرة التي يريدها في 66 في المائة من الحالات، أي نسبة النجاح نفسها لدى القراصنة الإلكترونيين البشر الذين يكتبون رسائل التصيد بأنفسهم.
لقد كان هذا البوت غير مجهز، وبالكاد يشكّل إثباتاً على فاعلية الفكرة التي صُمم لأجلها. ولكنّ في أعقاب موجة المخاوف من القرصنة السياسية، والأخبار الكاذبة، والجانب المظلم من التواصل الاجتماعي، قدّم هذا البوت صورة عن التزييف المتزايد الذي سنعيشه في المستقبل.
بنى هذان الباحثان ما يعرف بالشبكة العصبية، وهي نظام رياضي مركّب يمكنه تعلّم مهام معينة من خلال تحليل كمية هائلة من البيانات. وتستطيع هذه الشبكة العصبية أن تتعلّم التعرّف إلى كلب مثلا، عبر رصد الأنماط من آلاف صور الكلاب. كما يمكنها أن تتعلّم تعريف الكلمات المنطوقة من خلال غربلة الاتصالات القديمة المدعومة بالتقنية.
وأثبت هذان الباحثان أنّ الشبكة العصبية تستطيع أيضاً كتابة رسائل التصيّد الإلكتروني من خلال تصفّح التغريدات، ومنشورات «ريديت» إلى جانب الاستفادة من حيل إلكترونية قديمة.

خداع الجموع
اليوم، تجتاح التقنية الإلكترونية الرياضية نفسها الآلات مع مجموعة واسعة من القوى الشبيهة بالطاقات البشرية، ابتداء من التعرف إلى الكلام إلى ترجمة اللغات. وفي كثير من الحالات، يعتبر هذا الجيل الجديد من الذكاء الصناعي أيضاً وسيلة مثالية لخداع مجموعة من الأشخاص عبر الإنترنت، حيث أصبح التلاعب بالجموع اليوم أسهل من أي وقت مضى.
قال شاهار آفين، باحث من مركز «دراسات المخاطر الوجودية» في جامعة كمبريدج، إن «عدم سير الأمور في هذا الاتجاه سيكون مفاجئاً جداً. جميع النزعات التقنية ذاهبة في هذا الاتجاه».
وعبّر كثير من المراقبين التقنيين عن مخاوفهم من توسع الذكاء الصناعي الذي يبتكر ما يعرف بـ«الديب فيكس»، أي الصور المزيفة التي تبدو كالحقيقة. فما بدا كوسيلة لوضع رأس أي كان على جسد نجم إباحي تطوّر ليصبح أداة تتيح وضع أي صورة أو تسجيل صوتي في أي مقطع فيديو ودون أن يلاحظ أحد.
في أبريل (نيسان)، أطلق الكوميدي جوردان بيل بالتعاون مع «بازفيد» مقطع فيديو وضع كلمات كـ«يجب أن نكون حذرين مما نثق به على الإنترنت» على فم الرئيس الأميركي السابق باراك أوباما.
يتّجه هذا الخطر إلى التوسّع مع تطوير الباحثين لأنظمة قادرة على المعالجة والتعلّم عبر رصد مجموعات كبيرة من البيانات. وهذه الشبكات العصبية قادرة على إنتاج أصوات وصور قابلة للتصديق، أي يمكنها أن تضفي سمة البشرية على المساعدين الرقميين كـ«سيري» أكثر من أي وقت مضى.
بنت «غوغل» نظاماً يسمّى «دوبليكس» يستطيع الاتصال بمطعم محلّي، وتثبيت الحجوزات، وخداع الطرف الآخر أثناء الاتصال بإقناعه أنّ من يخاطبه إنسان حقيقي. ومن المتوقع أن تصل هذه الخدمة إلى الهواتف الذكية قريبا.
امتلك الخبراء قوة معالجة التسجيلات الصوتية ومقاطع الفيديو منذ زمن طويل، ولكن مع تحسّن أنظمة الذكاء الصناعي هذه، ستصبح صناعة المحتوى الرقمي من صور ومقاطع فيديو وتفاعلات اجتماعية أقرب للحقيقية، أكثر سهولة وأقلّ كلفة لأي شخص.
وفي إطار مفهوم الثقافة الأكاديمية، تحرص مختبرات الذكاء الصناعي الكبرى والشركات العملاقة كـ«غوغل» على نشر أبحاثها مع رمزها البرمجي لتصبح متاحة للجميع.

مهارات الآلات
تتيح هذه التقنيات للآلات تعلّم القراءة والكتابة أيضاً. لسنوات، بحث الخبراء فيما إذا كان يمكن للشبكات العصبية أن تفكّك رمز اللغة الطبيعية. ولكنّ هذه الفرصة تغيّرت في الأشهر الأخيرة.
بنت منظمات كـ«غوغل» ومختبر «أوبن إيه آي». (OpenAI) المستقل في سان فرانسيسكو، أنظمة تتعلّم التغيّرات اللغوية على أوسع نطاق، بتحليل كلّ شيء من مقالات ويكيبيديا والروايات الرومانسية الشخصية، قبل تطبيق هذه المعرفة في مهام محددة. يتمتع هذا النظام بالقدرة على قراءة مقطع والإجابة عن الأسئلة حوله، ويمكنه أيضاً تحديد ما إذا كانت النبرة المعتمدة في تحليل فيلم ما إيجابية أم سلبية.
يمكن لهذه التقنية أن تطوّر مهارات بوتات الصيد الإلكتروني كـ«سناب -آر». اليوم، تبدو معظم بوتات «تويتر» كالبوتات، وخاصة عندما تبدؤون بالردّ عليها. ولكنّها في المستقبل، ستصبح قادرة على إجابتكم بالمثل.
قد تساهم هذه التقنية أيضاً في ابتكار روبوتات صوتية قادرة على المشاركة في حديث حقيقي، لتدفعكم وتقنعكم في يوم من الأيام بالبوح ببيانات بطاقتكم المصرفية.
تعمل هذه الأنظمة اللغوية اليوم بفعل موجة جديدة من القوة الحاسوبية. صمم مهندسو «غوغل» رقائق كومبيوتر خاصة لتدريب الشبكات العصبية. وتعمل شركات أخرى على بناء رقائق مماثلة، ستؤدي مع نضجها إلى تسريع بحث الذكاء الصناعي.
يرى جاك كلارك، رئيس قسم السياسة في «أوبن إيه آي». أن المستقبل الذي ستطور فيه الحكومات أنظمة تعلّم آلي تسعى من خلاله إلى تعبئة شعوب دول أخرى أو إجبار شعوبها على تبني آراء معينة، أصبح قريباً.
وقال كلارك في حديث إلى وسائل الإعلام الأميركية، إنه «نوع جديد من التحكّم الاجتماعي أو البروباغندا. يمكن للحكومات أن تبدأ بابتكار حملات تستهدف أفراداً، ولكن تعمل في الوقت نفسه على استهداف عدّة أشخاص خدمة لهدف أكبر».
يستطيع الذكاء الصناعي أيضاً أن يوفّر وسائل لرصد وإيقاف هذا النوع من التلاعب الجماعي. يعشق مارك زوكربيرغ مؤسس «فيسبوك» الحديث عن الاحتمالات، ولكن بالنسبة للمستقبل، نحن دون شكّ أمام سباق تسلّح في مجال التعلّم الآلي.
لنأخذ مثلاً نظام «الشبكات الزوجية التوليدية» أو ما يعرف بالـ«GANs»، الذي يتألف من شبكتين عصبيتين تفبركان صوراً مقنعة أو تتلاعبان بالصور المتوفرة.
تؤدي هذه الشبكات مهمتها عبر ما يشبه لعبة القطّ والفأر: تجري الشبكة الأولى ملايين التغييرات الصغيرة في الصورة، فيضاف الثلج مثلاً إلى الشوارع الصيفية، ويتحول الدب الرمادي إلى باندا، وتبدو الوجوه المزيفة مقنعة جداً إلى درجة عدم التمييز بين الأشخاص الموجودين فيها والمشاهير، سعياً منها لخداع الشبكة الأخرى.
أمّا الشبكة الأخرى، فتقدّم أفضل ما لديها كي لا تتعرض للخداع. وفي المعركة الدائرة بين الشبكتين، تصبح الصورة أكثر إقناعاً، ويكون الذكاء الصناعي الذي يحاول رصد التزييف هو الخاسر.
ولكنّ رصد الأخبار الكاذبة أصعب، إذ بالكاد يستطيع الناس التوافق على ما يمكن تعريفه بالخبر الكاذب؛ فكيف يمكننا أن نتوقع من آلة أن تفعل ذلك؟ وفي حال استطاعت، هل نريدها فعلاً أن تحدّد هذا الخبر؟
لعلّ الطريقة الوحيدة لوقف انتشار المعلومات الخاطئة هي تعليم الناس التشكيك فيما يقرؤونه أو يرونه على الإنترنت. ولكنّ هذا الحلّ قد يكون الأصعب من بين جميع الحلول المتوفرة. وختم آفين قائلاً: «يمكننا أن نوظّف تقنية تصلح أنظمة حواسيبنا، ولكن لا يمكننا أن نستعين بتقنية تصلح عقول البشر».


مقالات ذات صلة

تكنولوجيا نُشرت البرمجية عبر ملفات صور «DNG» خبيثة ويُرجّح أنها اعتمدت أسلوب الهجمات «دون نقرة» (شاترستوك)

برمجية تجسس جديدة تستهدف أجهزة «سامسونغ» عبر ثغرة «يوم صفر»

كشف باحثون عن برمجية تجسس جديدة تستهدف سامسونغ عبر ثغرة «يوم صفر»، انتشرت منذ 2024 بقدرات مراقبة واسعة وهجمات بلا نقرة، قبل إغلاقها بتحديثات 2025.

نسيم رمضان (لندن)
تكنولوجيا دليلك لرصد الفيديوهات المزيفة بالذكاء الاصطناعي

دليلك لرصد الفيديوهات المزيفة بالذكاء الاصطناعي

عليك توخي الحذر تجاه أي فيديو ينتشر عبر منصات التواصل الاجتماعي هذه الأيام. وفيما يلي بعض النصائح لرصد الفيديوهات الزائفة.

«الشرق الأوسط» (واشنطن)
تكنولوجيا  مصباح "ويز ليد" الذكي

أفضل المصابيح الذكية

لا يوجد جهاز ذكي في بساطة المصباح الذكي؛ خاصة أن باستطاعة مصباح «ليد» هذا وأشرطة الإضاءة بمصابيحه أن تدوم لسنوات،

«الشرق الأوسط» ( واشنطن)
تكنولوجيا تطبيق احترافي يجمع تصميم الفيكتور وتحرير الصور ونشر الصفحات في منصة واحدة متوفّر الآن لنظامي «ويندوز» و«macOS » (أفينيتي)

«أفينيتي» يتحدى «أدوبي» ويكسر قيود الاشتراكات

التطبيق يجمع تحت مظلته أدوات تصميم الإفيكتور وتحرير الصور والنشر المكتبي في منصة واحدة متكاملة

عبد العزيز الرشيد (الرياض)

«غوغل» تطلق برنامجاً إلزامياً للتحقق من مطوّري تطبيقات «أندرويد» خارج متجرها الرسمي

البرنامج الجديد يسعى للتحقق من هوية مطوّري التطبيقات خارج متجر «بلاي» بهدف الحد من التطبيقات مجهولة المصدر والاحتيال (أدوبي)
البرنامج الجديد يسعى للتحقق من هوية مطوّري التطبيقات خارج متجر «بلاي» بهدف الحد من التطبيقات مجهولة المصدر والاحتيال (أدوبي)
TT

«غوغل» تطلق برنامجاً إلزامياً للتحقق من مطوّري تطبيقات «أندرويد» خارج متجرها الرسمي

البرنامج الجديد يسعى للتحقق من هوية مطوّري التطبيقات خارج متجر «بلاي» بهدف الحد من التطبيقات مجهولة المصدر والاحتيال (أدوبي)
البرنامج الجديد يسعى للتحقق من هوية مطوّري التطبيقات خارج متجر «بلاي» بهدف الحد من التطبيقات مجهولة المصدر والاحتيال (أدوبي)

تُصعّد «غوغل» جهودها لتعزيز الأمان داخل منظومة «أندرويد»، عبر إطلاق برنامج جديد للتحقق من هوية المطوّرين الذين يوزّعون تطبيقاتهم خارج متجر «غوغل بلاي»، مع الإبقاء على خيار تثبيت التطبيقات غير الموثّقة للمستخدمين المتقدمين تقنياً. ويمثل هذا التوجّه تحولاً مهماً في طريقة تعامل «أندرويد» مع التطبيقات المُحمّلة من خارج المتجر، ويضيف طبقة جديدة من الثقة في هوية المطوّرين.

نهج متعدد الطبقات

في مدونة نُشرت، هذا الأسبوع، أوضحت «غوغل» أنها بدأت مرحلة الوصول المبكر لنظام «التحقق من المطوّر»، مؤكدة أن جهودها المستمرة لمكافحة الاحتيال والبرمجيات الخبيثة عبر أدوات مثل «Google Play Protect» وأنظمة التحذير داخل «أندرويد»، لا تزال تواجه تحديات مؤذية، خصوصاً في المناطق التي تشهد دخول أعداد كبيرة من المستخدمين الجدد إلى الإنترنت لأول مرة.

وتذكر الشركة مثالاً على عملية احتيال في جنوب شرقي آسيا، حيث تلقّى المستخدمون مكالمات هاتفية تُخدعهم لتثبيت تطبيق «تحقق» مزيف، كان قادراً على قراءة الرسائل والتنبيهات، بما فيها أكواد التحقق الثنائية. وترى «غوغل» أن القدرة على توزيع التطبيقات دون الكشف عن الهوية تسمح للمهاجمين بتكرار عملياتهم دون رقيب، بينما يفرض التحقق من الهوية حاجزاً إضافياً ويزيد تكلفة الهجوم على الأطراف الخبيثة.

البرنامج يتضمن حسابات مختلفة منها حساب مخصّص للطلاب والهواة يسمح لهم بالتوزيع على نطاق محدود دون متطلبات تحقق معقدة (شاترستوك)

الوصول المبكر وأنواع حسابات المطوّرين

تتيح «غوغل» أولاً للمطوّرين الذين يوزّعون تطبيقاتهم خارج متجر «بلاي» فرصة الانضمام المُبكر إلى برنامج التحقق الجديد. أما مطوّرو متجر «بلاي»، فسيحصلون على دعوتهم بدءاً من 25 نوفمبر (تشرين الثاني) 2025. وتقرّ الشركة بأن فئات مثل الطلاب والهواة تحتاج إلى مسار أبسط، لذلك تعمل على تقديم نوع حساب خاص يسمح بالتوزيع لعدد محدود من الأجهزة دون الحاجة لإجراءات تحقق معقّدة.

وبالتوازي مع ذلك، تعمل الشركة على تطوير مسار مخصّص للمستخدمين المتقدمين أو «الخبراء التقنيين» يتيح لهم تثبيت التطبيقات غير الموثّقة مع تقديم تحذيرات واضحة وإجراءات تمنع استغلالهم عبر الإكراه أو الخداع. هذا المسار يشير إلى تغيير في سياسة المنع الكامل نحو نموذج أكثر مرونة، يعترف بحق المستخدم المتمكن في الاختيار، دون التفريط بسلامة المستخدمين الأقل خبرة.

أهمية التغيير

لطالما كان «أندرويد» منصة مفتوحة تتيح للمستخدمين تثبيت التطبيقات من خارج متجر «بلاي»، وهذه ميزة قوية. لكنها في الوقت نفسه تفتح الباب أمام هجمات تعتمد على الهندسة الاجتماعية؛ حيث يُخدع المستخدم لتخطي التحذيرات وتفعيل أذونات حساسة.

من خلال التحقق من هوية المطوّر، تريد «غوغل» التأكد من وجود شخص أو جهة حقيقية تقف خلف التطبيق، مما يجعل توزيع البرمجيات الخبيثة أكثر صعوبة وأعلى تكلفة. وهو أمر مهم، خصوصاً في الأسواق الناشئة، حيث لا تزال الثقافة الرقمية قيد التكوين. أما المسار المتقدم للمستخدمين يضمن بقاء خاصية «التحميل الجانبي» (sideloading) متاحة، لكن بطريقة واضحة وشفافة تمنع استغلال المستخدمين عبر الضغط أو التلاعب.

تعمل «غوغل» على مسار خاص للمستخدمين المتقدمين يتيح لهم تثبيت التطبيقات غير الموثّقة ولكن عبر خطوات تحذيرية واضحة لمنع الاستغلال (غيتي)

ردود الفعل والحسابات المعقدة

هذا التوجه لم يأتِ من فراغ؛ فقد أثار إعلان سابق لـ«غوغل» في أغسطس (آب) 2025، الذي كان سيقيد تثبيت التطبيقات غير الموثّقة بشكل كبير ردود فعل غاضبة من مجتمع مطوّري «أندرويد»، والمستخدمين المتقدمين ومحبي تعديل النظام (modders). التعديل الحالي يبدو خطوة وسطية: ليس إلغاءً للحرية، بل تنظيم لها.

بالنسبة للمطورين الذين يعملون خارج متجر «بلاي»، يعني ذلك ضرورة الانضمام إلى برنامج التحقق الجديد للحصول على انتشار أوسع. أما المستخدمون، فيحتفظون بخيار تثبيت التطبيقات غير الموثّقة، لكن بعد المرور بخطوات تحذيرية واضحة.

ماذا بعد؟

تقول «غوغل» إنها في مرحلة جمع الملاحظات حول البرنامج الجديد ومسار المستخدمين المتقدمين، وإن تفاصيل إضافية ستُكشف خلال الأشهر المقبلة. وقد بدأت بالفعل دعوات الانضمام إلى البرنامج تصل إلى المطوّرين عبر وحدة التحكم الخاصة بـ«أندرويد».

الرسالة الأساسية هي أن «أندرويد» سيبقى مفتوحاً، لكن مع حواجز أمان إضافية. يمكن للمستخدم المتقدم أن يثبت التطبيقات غير الموثّقة، لكن ضمن إطار مسؤول، ومع معرفة واضحة بالمخاطر. ويمكن للمطورين الاستمرار في الإبداع خارج المتجر، لكن مع إثبات الهوية عند الرغبة في الوصول لمستخدمين أكثر.

تأثيرات على المنظومة

بالنسبة للمستخدم العادي، هذا التطور يعني حماية أكبر أي تطبيقات أقل مجهولة المصدر وهوية أكثر وضوحاً للمطورين، وانخفاضاً في عمليات الاحتيال. أما المستخدمون المحترفون، فسيظلون قادرين على الوصول لما يريدون، لكن عبر خطوات واعية. وبالنسبة للمطورين، قد يضيف هذا التغيير خطوة إدارية إضافية وربما كلفة لكنّه يمنحهم أيضاً مصداقية أكبر. فوجود هوية موثّقة قد يصبح معياراً جديداً للجودة والثقة، خصوصاً مع تزايد القلق حول أمان التطبيقات.

تتجه «غوغل» نحو صيغة جديدة، وهي أن التحميل الجانبي لا يزال متاحاً، لكنه لن يكون مفتوحاً بلا حدود. الهوية أصبحت جزءاً أساسياً من معادلة الأمان، وخيار المستخدم محفوظ، لكن بشكل أكثر وعياً ومسؤولية.


برمجية تجسس جديدة تستهدف أجهزة «سامسونغ» عبر ثغرة «يوم صفر»

نُشرت البرمجية عبر ملفات صور «DNG» خبيثة ويُرجّح أنها اعتمدت أسلوب الهجمات «دون نقرة» (شاترستوك)
نُشرت البرمجية عبر ملفات صور «DNG» خبيثة ويُرجّح أنها اعتمدت أسلوب الهجمات «دون نقرة» (شاترستوك)
TT

برمجية تجسس جديدة تستهدف أجهزة «سامسونغ» عبر ثغرة «يوم صفر»

نُشرت البرمجية عبر ملفات صور «DNG» خبيثة ويُرجّح أنها اعتمدت أسلوب الهجمات «دون نقرة» (شاترستوك)
نُشرت البرمجية عبر ملفات صور «DNG» خبيثة ويُرجّح أنها اعتمدت أسلوب الهجمات «دون نقرة» (شاترستوك)

كشف فريق أبحاث «بالو ألتو نتوركس» عن عائلة جديدة من برمجيات التجسس الموجهة لنظام «أندرويد» تحمل اسم «لاند فول» (LANDFALL)، استُخدمت في حملات اختراق استهدفت أجهزة «سامسونغ غالاكسي» في منطقة الشرق الأوسط. وتعتمد البرمجية على استغلال ثغرة «يوم صفر» في مكتبة سامسونغ لمعالجة الصور، وهي جزء من سلسلة ثغرات مشابهة رُصدت خلال العامين الماضيين عبر منصات مختلفة.

ووفقاً للباحثين، جرى استغلال الثغرة بشكل نشط قبل أن تصدر «سامسونغ» تحديثاً لمعالجتها في أبريل 2025، وذلك بعد تقارير أولية أشارت إلى استخدامها عملياً. ولم تُنشر حينها تحليلات تقنية موسعة حول طبيعة الثغرة أو البرمجية المرتبطة بها.

وأظهر تحليل الشركة أن برمجية «LANDFALL» كانت مدمجة داخل ملفات صور خبيثة بصيغة «DNG» يبدو أنها أُرسلت عبر تطبيق واتساب. وتتشابه آلية الإرسال مع سلاسل هجمات «دون نقرة» رُصدت سابقاً ضد منصتي «أبل» و«واتساب» في أغسطس (آب) 2025، إضافة إلى استغلال آخر محتمل أعلن عنه في سبتمبر. وأكد التقرير أنه لا توجد ثغرات «واتساب» جديدة مرتبطة بهذه الحملة حتى الآن.

وأشار الباحثون إلى أن حملة «LANDFALL» بدأت فعلياً في منتصف عام 2024، مستغلة الثغرة قبل أشهر من إصدار «سامسونغ» للتصحيح. وفي سبتمبر (أيلول) 2025، عالجت الشركة ثغرة جديدة من النوع نفسه في مكتبة الصور، ما رفع مستوى الحماية ضد هذا النمط من الهجمات.

توفر «LANDFALL» قدرات تجسس واسعة تشمل تسجيل الصوت وتتبع الموقع وسحب البيانات والصور وسجلات الاتصال (شاترستوك)

أظهرت نتائج تحليل فريق «بالو ألتو نتوركس» أن برمجية «LANDFALL» صُممت خصيصاً لاستهداف أجهزة «سامسونغ غالاكسي» ضمن هجمات موجهة في الشرق الأوسط، وتمتلك قدرات مراقبة واسعة تشمل تسجيل الصوت وتتبع الموقع الجغرافي وسحب الصور والوسائط وبيانات الاتصال. وتعتمد البرمجية في عملها على استغلال ثغرة «CVE-2025-21042» في مكتبة معالجة الصور، من خلال ملفات «DNG» خبيثة يُعتقد أنها نُقلت للمستخدمين عبر قنوات تواصل شائعة.

وتشير الأدلة إلى احتمال استخدام أسلوب «الاستهداف دون نقرة»، وهو نمط مشابه لهجمات حديثة استهدفت منصتي «iOS» و«سامسونغ». كما رصد الباحثون تشابهاً في البنية التحتية للحملة مع عمليات تجسس تجارية ظهرت سابقاً في المنطقة، ما قد يعزز فرضية ارتباطها بجهات خاصة. وظلت البرمجية تعمل بصمت لعدة أشهر قبل اكتشافها، في حين تؤكد الشركة أن الأجهزة التي تلقت تحديثات سامسونغ الأمنية منذ أبريل (نيسان) 2025 لم تعد عرضة لهذا الخطر.


أنظمة الذكاء الاصطناعي تولّد معلومات كاذبة... للتشهير بالأفراد والشركات

«جيمناي» ساهم في التشهير ضد شركة «وولف ريفر إلكتريك«
«جيمناي» ساهم في التشهير ضد شركة «وولف ريفر إلكتريك«
TT

أنظمة الذكاء الاصطناعي تولّد معلومات كاذبة... للتشهير بالأفراد والشركات

«جيمناي» ساهم في التشهير ضد شركة «وولف ريفر إلكتريك«
«جيمناي» ساهم في التشهير ضد شركة «وولف ريفر إلكتريك«

تُمثل موجة متزايدة من الدعاوى القضائية في الولايات المتحدة وخارجها، اختباراً لحدود قانونية جديدة: من يتحمل المسؤولية عندما تنشر أنظمة الذكاء الاصطناعي معلومات كاذبة وتشهيرية.

دعاوى ضد «التشهير الاصطناعي»

وقد رُفعت ست دعاوى تشهير على الأقل في السنوات الأخيرة، تستهدف شركات تقنية كبرى مثل: «غوغل»، و«مايكروسوفت»، و«ميتا»، و«أوبن إيه آي»؛ حيث يدعي عدد من الأفراد والشركات أن الأكاذيب التي ولّدها الذكاء الاصطناعي أضرَّت بسمعتهم وسبل عيشهم.

تأتي إحدى أهم القضايا من شركة «وولف ريفر إلكتريك»، ومقرها مينيسوتا، وهي أكبر شركة مقاولات للطاقة الشمسية في الولاية. ففي أواخر عام 2024، لاحظت الشركة زيادة مفاجئة في العقود الملغاة. وأوضح العملاء أن عمليات البحث التي أجروها على محرك «غوغل» عن «وولف ريفر» أظهرت أن الشركة توصلت إلى تسوية دعوى قضائية مع المدعي العام في مينيسوتا بشأن ممارسات بيع خادعة.

«وولف ريفر إلكتريك» متخصصة بمقاولات الالواح الشمسية

تشهير «جيمناي»

في الواقع، لم تكن هناك أي قضية من هذا القبيل؛ فقد ولّد نظام «جيميناي» للذكاء الاصطناعي من «غوغل» هذا الادعاء الكاذب، وعرضه بشكل بارز، حتى إنه كان يعرض هذا الادعاء المضلل تلقائياً عند كتابة المستخدمين لاسم الشركة. وبعد أن فشلت جهود تصحيح السجل باستخدام أدوات «غوغل»، اضطرت «وولف ريفر» إلى رفع دعوى قضائية بتهمة التشهير، مطالبة بتعويضات تزيد على 110 ملايين دولار.

صرح قادة «وولف ريفر»، بمن فيهم المؤسس جاستن نيلسن والرئيس التنفيذي فلاديمير مارشينكو، بأن المعلومات الكاذبة دمرت سمعتهم، وكلفتهم ملايين الدولارات من المبيعات. وقد استخدم المنافسون الادعاءات الزائفة لتشويه سمعتهم، كما كررت المنتديات الإلكترونية المعلومات المضللة. وتجادل الشركة بأن «غوغل» تصرفت بإهمال من خلال السماح لذكائها الاصطناعي بمواصلة نشر الخطأ بعد تنبيهها إليه.

من يتحمل المسؤولية القانونية؟

تنضم قضية «وولف ريفر» إلى سلسلة من الدعاوى القضائية المماثلة التي تستكشف ما إذا كان المحتوى الذي يُنتجه الذكاء الاصطناعي يمكن أن يكون تشهيرياً. وإذا كان الأمر كذلك، فمن يتحمل المسؤولية القانونية؟!

في ولاية جورجيا، رفع مارك والترز، مقدم البرامج الإذاعية والمدافع عن حقوق حمل السلاح، دعوى قضائية ضد شركة «أوبن إيه آي» عام 2023، بعد أن زعم «تشات جي بي» زوراً أنه متهم بالاختلاس.

ومع ذلك، رُفضت القضية. وقضت المحكمة بأنه بما أن الصحافي الذي تلقى الادعاء الكاذب لم يُصدقه، وتحقق سريعاً من عدم صحته، فلا يوجد تشهير. وأكد القاضي أن البيان لا يمكن أن يكون تشهيرياً، إذا لم يعتقد القارئ أنه واقعي.

تسوية خارج المحكمة

في حين لم تصل أي قضية تشهير بالذكاء الاصطناعي في الولايات المتحدة إلى هيئة محلفين حتى الآن؛ فقد أسفرت إحدى الدعاوى عن تسوية هادئة. في أبريل (نيسان) 2025، رفع المؤثر اليميني روبي ستارباك دعوى قضائية ضد شركة «ميتا»، بعد أن أنشأ «لاما» Llama أحد روبوتات الدردشة التابعة لها، صورة تزعم زوراً أنه كان حاضراً في أعمال شغب مبنى الكابيتول. واتهم ستارباك، الذي قال إنه كان في منزله في تينيسي في ذلك اليوم، شركة «ميتا» بالإضرار بسمعته. وتوصلت «ميتا» إلى تسوية معه، وأعلنت لاحقاً أن ستارباك أصبح مستشاراً في تحسين دقة ونزاهة أنظمة الذكاء الاصطناعي الخاصة بها، على الرغم من أنها لم تكشف عن شروط الاتفاقية.

تشهير بمذيع آيرلندي

ولا تقتصر نزاعات التشهير المتعلقة بالذكاء الاصطناعي على الولايات المتحدة؛ فقد رفع المذيع الآيرلندي، ديف فانينغ، دعوى قضائية ضد «مايكروسوفت» وموقع إخباري هندي، بعد اكتشافه مقالاً مزيفاً على موقع «إم إس إن» استخدم صورته بعنوان «مذيع آيرلندي بارز يواجه محاكمة بتهمة سوء السلوك الجنسي المزعوم». وقد أوحى المقال، الذي أنتجه الذكاء الاصطناعي ونُشر على بوابة مايكروسوفت الإلكترونية للناس بالاعتقاد بأنه يواجه اتهامات جنائية. ووصف فانينغ، الذي ينفي أي سوء سلوك، التجربة بأنها صادمة، وقال إنه يرغب في إحالة القضية إلى المحكمة. ورفضت «مايكروسوفت» التعليق.

مسؤولية الذكاء الاصطناعي ام المطورين؟

يقول خبراء قانونيون إن هذه القضايا الناشئة تطرح أسئلة معقدة. ويشير يوجين فولوك، باحث القانون الدستوري في جامعة كاليفورنيا، لوس أنجليس، إلى أن أنظمة الذكاء الاصطناعي يمكنها بالفعل تقديم ونشر ادعاءات ضارة، لكنه يتساءل: مَن يتحمل المسؤولية - النموذج، أم مطوره، أم مستخدمه؟ يُعد إثبات النية حجر الزاوية في قانون التشهير، ومع ذلك، يكاد يكون من المستحيل نسب النية إلى خوارزمية.

وتعتقد نينا براون، أستاذة قانون الإعلام في جامعة سيراكيوز، أن معظم هذه القضايا ستُسوى بدلاً من محاكمتها. قد يُؤدي حكم واحد يُحمّل شركة ذكاء اصطناعي المسؤولية القانونية إلى سيل من الدعاوى القضائية. وتعتبر براون قضية وولف ريفر من أقوى هذه القضايا؛ إذ تُوثّق أضراراً مالية واضحة مرتبطة مباشرة بالمعلومات المضللة المُولّدة من قِبل الذكاء الاصطناعي.

على الرغم من إقرار «غوغل» بأن «الأخطاء قد تحدث مع التكنولوجيا الجديدة»، إلا أن النتائج المضللة حول «وولف ريفر» ظلت ظاهرة حتى نوفمبر (تشرين الثاني) 2025.

يبقى السؤال مطروحاً: من سيدفع الثمن عندما تُدمّر اختراعات النظم الذكية الثقة أو سبل العيش أو السمعة؟

* باختصار خدمة «نيويورك تايمز»