فيديوهات الذكاء الاصطناعي المُضللة تغمر مواقع التواصل الاجتماعي

لنشر سيل من المعلومات والأخبار الكاذبة

فيديوهات الذكاء الاصطناعي المُضللة تغمر مواقع التواصل الاجتماعي
TT

فيديوهات الذكاء الاصطناعي المُضللة تغمر مواقع التواصل الاجتماعي

فيديوهات الذكاء الاصطناعي المُضللة تغمر مواقع التواصل الاجتماعي

انتشر، في أكتوبر (تشرين الأول) الماضي، مقطع فيديو على تطبيق «تيك توك» يُظهر امرأة تُجري مقابلة مع مراسلة تلفزيونية حول بيع قسائم الطعام (التي تمنح في أميركا لضعيفي الدخل)، كما كتب ستيفن لي مايرز وستيوارت إيه طومسون(*).

لم تكن المرأة حقيقية، ولم يحدث هذا الحوار أصلاً؛ فقد تم توليد الفيديو بواسطة الذكاء الاصطناعي. ومع ذلك، بدا أن الناس يعتقدون أن هذا حوار حقيقي حول بيع قسائم الطعام مقابل المال، وهو ما يُعد جريمة.

وقد انخدعت قناة «فوكس نيوز» بفيديو مزيف مماثل، معتبرة إياه مثالاً على الغضب الشعبي إزاء إساءة استخدام قسائم الطعام، وذلك في مقال تم حذفه لاحقاً من موقعها الإلكتروني.

تُظهر مقاطع الفيديو، مثل المقابلة المُفبركة التي تم إنشاؤها باستخدام تطبيق «سورا» الجديد من «أوبن إيه آي»، مدى سهولة التلاعب بالرأي العام، بواسطة أدوات قادرة على خلق واقع بديل، من خلال سلسلة من التوجيهات البسيطة.

وفي الشهرين الماضيين منذ إطلاق «سورا»، انتشرت مقاطع الفيديو المُضللة بشكل كبير على منصات «تيك توك»، و«إكس»، و«يوتيوب»، و«فيسبوك»، و«إنستغرام»، وفقاً لخبراء مُختصين في رصدها. وقد أثار هذا الانتشار الواسع مخاوف بشأن جيل جديد من المعلومات المُضللة والأخبار الكاذبة.

عدم كفاية وسائل ضبط التضليل

تتبنى معظم شركات التواصل الاجتماعي الكبرى سياسات تُلزم بالإفصاح عن استخدام الذكاء الاصطناعي، وتحظر بشكل عام المحتوى الذي يهدف إلى التضليل. إلا أن هذه الضوابط أثبتت عدم كفايتها بشكل كبير، لمواكبة التطورات التكنولوجية الهائلة التي تُمثلها أدوات «أوبن إيه آي».

وبينما يُقدم العديد من مقاطع الفيديو صوراً ساخرة أو صوراً مُفبركة لأطفال وحيوانات أليفة؛ فإن بعضها الآخر يهدف إلى تأجيج الكراهية التي غالباً ما تُهيمن على النقاشات السياسية على الإنترنت. وقد استخدمت هذه المقاطع بالفعل في عمليات التأثير الأجنبي.

مسؤوليات الشركات

وقال باحثون تتبعوا الاستخدامات الخادعة إن المسؤولية تقع الآن على عاتق الشركات لبذل المزيد من الجهد لضمان معرفة الناس بالحقيقي والمزيف.

وتساءل سام غريغوري، المدير التنفيذي لمنظمة «ويتنس Witness» (الشاهد) المعنية بحقوق الإنسان التي تركز على مخاطر التكنولوجيا: «هل بإمكانهم تحسين إدارة المحتوى ومكافحة المعلومات المضللة والمغلوطة؟ من الواضح أنهم لا يفعلون ذلك. هل بإمكانهم بذل المزيد من الجهد في البحث الاستباقي عن المعلومات المولدة بواسطة الذكاء الاصطناعي وتصنيفها بأنفسهم؟ الإجابة هي: (نعم) أيضاً - أي أنهم لا يفعلون ذلك».

ولم تستخدم الفيديوهات المُفبركة للسخرية من الفقراء فقط، بل من الرئيس ترمب أيضاً.

وحتى الآن، اعتمدت هذه المنصات بشكل كبير على مُنشئي المحتوى للكشف عن أن المحتوى الذي ينشرونه غير حقيقي، لكن هؤلاء لا يفعلون ذلك دائماً. ورغم وجود طرق تُمكّن منصات، مثل «يوتيوب» و«تيك توك» وغيرهما، من اكتشاف أن الفيديو مُفبرك باستخدام الذكاء الاصطناعي، إلا أنها لا تُنبّه المشاهدين دائماً على الفور.

وقالت نبيهة سيد، المديرة التنفيذية لمؤسسة «موزيلا»، وهي مؤسسة غير ربحية تُعنى بسلامة التكنولوجيا وتدعم متصفح «فايرفوكس»، مُعلقة على شركات التواصل الاجتماعي: «كان ينبغي عليهم أن يكونوا مُستعدين».

علامات رصد التزييف

تؤكد الشركات المطورة لأدوات الذكاء الاصطناعي أنها تسعى لتوضيح طبيعة المحتوى المُنشأ بواسطة الكومبيوترات، للمستخدمين. وتقوم كل من «سورا» والأداة المنافسة «فيو» التي تقدمها «غوغل»، بوضع علامة مائية مرئية على مقاطع الفيديو التي تنتجها. فعلى سبيل المثال، تضع «سورا» علامة «سورا» على كل فيديو. كما تُضيف الشركتان بيانات وصفية غير مرئية، يمكن قراءتها بواسطة الحاسوب، لتحديد مصدر كل فيديو مزيف.

وتتمثل الفكرة في إعلام المستخدمين بأن ما يشاهدونه ليس حقيقياً، وتزويد المنصات التي تعرض هذه الفيديوهات بالإشارات الرقمية اللازمة لكشفها تلقائياً.

تستخدم بعض المنصات هذه التقنية؛ فقد أعلنت منصة «تيك توك»، استجابة على ما يبدو للمخاوف بشأن مدى إقناع الفيديوهات المزيفة، الأسبوع الماضي، أنها ستشدد قواعدها المتعلقة بالإفصاح عن استخدام الذكاء الاصطناعي. كما وعدت بأدوات جديدة تُمكّن المستخدمين من تحديد مقدار المحتوى المُصطنع - مقارنة بالمحتوى الحقيقي - الذي يرغبون بمشاهدته.

ويستخدم «يوتيوب» العلامة المائية غير المرئية لتقنية «سورا» لإضافة ملصق صغير يُشير إلى أن فيديوهات الذكاء الاصطناعي «مُعدّلة أو مُصطنعة».

وقال جاك مالون، المتحدث باسم «يوتيوب»: «يرغب المشاهدون بشكل متزايد في مزيد من الشفافية حول ما إذا كان المحتوى الذي يشاهدونه مُعدّلاً أم مُصطنعاً».

سهولة التحايل

مع ذلك، قد تظهر الملصقات أحياناً بعد أن يشاهد الفيديوهات آلاف أو حتى ملايين الأشخاص. وفي بعض الأحيان، لا تظهر على الإطلاق.

وقد اكتشف أصحاب النيات الخبيثة سهولة التحايل على قواعد الإفصاح. فبعضهم يتجاهلها ببساطة، بينما يقوم آخرون بالتلاعب بالفيديوهات لإزالة العلامات المائية التعريفية. ووجدت صحيفة «نيويورك تايمز» عشرات الأمثلة على فيديوهات «سورا» التي تظهر على «يوتيوب» من دون العلامة الآلية.

وقد ظهرت عدة شركات تقدم خدمات إزالة الشعارات والعلامات المائية. كما أن تعديل الفيديوهات أو مشاركتها قد يؤديان إلى إزالة البيانات الوصفية المضمنة في الفيديو الأصلي، التي تشير إلى أنه تم إنشاؤه باستخدام الذكاء الاصطناعي.

وحتى عندما تبقى الشعارات ظاهرة، قد لا يلاحظها المستخدمون أثناء التصفح السريع على هواتفهم.

انخداع المشاهدين

ووفقاً لتحليل التعليقات الذي أجرته صحيفة «نيويورك تايمز»، الذي استخدم أدوات الذكاء الاصطناعي للمساعدة في تصنيف محتوى التعليقات، فإن ما يقرب من الثلثين، من ضمن أكثر من 3000 مستخدم علّقوا على فيديو «تيك توك» حول قسائم الطعام، تعاملوا معه كما لو كان حقيقياً.

وفي بيان لها، قالت «أوبن إيه آي» إنها تحظر الاستخدامات الخادعة أو المضللة لـ«سورا»، وتتخذ إجراءات ضد منتهكي سياساتها. وأضافت الشركة أن تطبيقها ليس سوى واحد من بين عشرات الأدوات المماثلة القادرة على إنشاء فيديوهات واقعية بشكل متزايد لا يطبق العديد منها أي ضمانات أو قيود على الاستخدام.

وأضافت الشركة: «تُنشأ مقاطع الفيديو المُولّدة بواسطة الذكاء الاصطناعي، وتُشارك عبر العديد من الأدوات المختلفة، لذا فإنّ معالجة المحتوى المُضلّل تتطلّب جهداً شاملاً من جميع الأطراف المعنية».

من جهته قال متحدث باسم شركة «ميتا»، المالكة لـ«فيسبوك» و«إنستغرام»، إنّه ليس من الممكن دائماً تصنيف جميع مقاطع الفيديو المُولّدة بواسطة الذكاء الاصطناعي، لا سيما مع التطور السريع لهذه التقنية. وأضاف أنّ الشركة تعمل على تحسين أنظمة تصنيف المحتوى.

ولم تستجب منصتا «إكس» و«تيك توك» لطلبات التعليق على انتشار مقاطع الفيديو المُزيّفة المُولّدة بواسطة الذكاء الاصطناعي.

لا يوجد حافز مالي لتقييد نشر الفيديوهات

وقال ألون يامين، الرئيس التنفيذي لشركة «Copyleaks»، وهي شركة تُعنى بكشف محتوى الذكاء الاصطناعي، إنّ منصات التواصل الاجتماعي لا تملك أي حافز مالي لتقييد انتشار مقاطع الفيديو طالما استمرّ المستخدمون في النقر عليها.

وأضاف: «على المدى البعيد، عندما يُصبح 90 في المائة من حركة المرور على المحتوى في منصّتك مُولّداً بواسطة الذكاء الاصطناعي، فإنّ ذلك يُثير تساؤلات حول جودة المنصّة والمحتوى.. لذا ربما على المدى الطويل، قد تكون هناك حوافز مالية أكبر لضبط محتوى الذكاء الاصطناعي فعلياً. لكن على المدى القصير، لا يمثل ذلك أولوية رئيسية».

* خدمة «نيويورك تايمز»


مقالات ذات صلة

ماسك ينفي علمه بتوليد «غروك» صوراً إباحية لأطفال

العالم موقع الذكاء الاصطناعي «غروك» على هاتف محمول وحاسوب محمول (إ.ب.أ)

ماسك ينفي علمه بتوليد «غروك» صوراً إباحية لأطفال

قال إيلون ماسك، اليوم الأربعاء، إنه غير مطّلع على أي «صور عارية لقاصرين» تم توليدها بواسطة أداة الذكاء الاصطناعي «غروك» التابعة لشركة «إكس».

«الشرق الأوسط» (واشنطن)
تكنولوجيا يسهم في تسريع إنجاز المهام اليومية وتقليل الأعمال الروتينية وتعزيز كفاءة الإنتاجية داخل بيئات العمل «كلود»

«كلود كوورك»... أداة جديدة تعتمد الذكاء الاصطناعي لتنفيذ المهام المكتبية

تقوم الأداة بتحليل المحتوى والتخطيط للتنفيذ ثم إتمام المهمة ورفع المخرجات في نفس المكان دون الحاجة لسلسلة من التعليمات التفصيلية.

عبد العزيز الرشيد (الرياض)
تكنولوجيا يرى البعض أن الذكاء الاصطناعي يهدد ملايين الوظائف التقليدية (رويترز)

كيف يمكن أن يؤثر الذكاء الاصطناعي على البطالة والتوظيف في 2026؟

مع التسارع غير المسبوق في تطور تقنيات الذكاء الاصطناعي، تتزايد التساؤلات حول تأثير هذه الثورة التكنولوجية على سوق العمل العالمي.

«الشرق الأوسط» (لندن)
علوم حين يُصاغ القرار بين الإنسان والخوارزمية

حين يتعلّم الذكاء الاصطناعي توقّع مسار المرض قبل حدوثه

لا يكتفي التحليل بل يبني تمثيلاً داخلياً يحاكي السلوك البيولوجي للجسد

د. عميد خالد عبد الحميد (لندن)
الاقتصاد قفز الذكاء الاصطناعي من المركز العاشر إلى المركز الثاني بعد الجرائم الإلكترونية خلال العام الحالي بحسب المقياس السنوي للشركات (رويترز)

الذكاء الاصطناعي ثاني أكبر تهديد للشركات في العالم

ذكرت شركة التأمين الألمانية العملاقة «آليانز»، أن الذكاء الاصطناعي أصبح أكبر التهديدات التي تواجهها الشركات في العالم.

«الشرق الأوسط» (برلين)

«كلود كوورك»... أداة جديدة تعتمد الذكاء الاصطناعي لتنفيذ المهام المكتبية

يسهم في تسريع إنجاز المهام اليومية وتقليل الأعمال الروتينية وتعزيز كفاءة الإنتاجية داخل بيئات العمل «كلود»
يسهم في تسريع إنجاز المهام اليومية وتقليل الأعمال الروتينية وتعزيز كفاءة الإنتاجية داخل بيئات العمل «كلود»
TT

«كلود كوورك»... أداة جديدة تعتمد الذكاء الاصطناعي لتنفيذ المهام المكتبية

يسهم في تسريع إنجاز المهام اليومية وتقليل الأعمال الروتينية وتعزيز كفاءة الإنتاجية داخل بيئات العمل «كلود»
يسهم في تسريع إنجاز المهام اليومية وتقليل الأعمال الروتينية وتعزيز كفاءة الإنتاجية داخل بيئات العمل «كلود»

أطلقت شركة «أنثروبيك» الأميركية، المطوّرة لنظام الذكاء الاصطناعي «Claude» (كلود)، ميزة جديدة تحمل اسم «Claude Cowork» (كلود كُوورك: زميل العمل)، في خطوة تعزز من التحول نحو ذكاء اصطناعي قادر على أداء مهام مهنية متكاملة دون الحاجة لتدخل مستمر من المستخدم، وبما يتجاوز المفهوم التقليدي للدردشة النصية مع الأنظمة الذكية.

تأتي الميزة في صورة «AI Coworker» (زميل عمل بالذكاء الاصطناعي) يمكنه التعامل مع ملفات المستخدم وتنفيذ مهام إنتاجية كاملة، مثل كتابة الوثائق وإعداد الاستراتيجيات وصياغة رسائل البريد الإلكتروني وتنظيم الملفات وإتمام مشاريع مكتبية بأكملها، وهو ما يمثل تغييراً واضحاً في طريقة توظيف الذكاء الاصطناعي داخل بيئات العمل.

وبخلاف الأدوات التقليدية التي تعتمد على تفاعل (مستخدم – أمر – استجابة)، يعمل «كلود كُوورك» بشكل شبه مستقل، حيث يمكن للمستخدم منح النظام وصولاً إلى مجلدات محددة على جهازه، ثم إسناد مهمة أو مشروع كامل، ليقوم «Claude» بتحليل المحتوى والتخطيط للتنفيذ ثم إتمام المهمة ورفع المخرجات في نفس المكان دون الحاجة لسلسلة من التعليمات التفصيلية.

تصف «Anthropic» هذه الميزة بأنها «تجربة محادثة تنفيذية»، حيث لا يكتفي «كلود» بتوليد النصوص وتقديم الاستشارات، بل ينتقل إلى مرحلة التنفيذ العملي للمهام المرتبطة بالمحتوى، بدءاً من إعداد وثائق الاستراتيجيات التسويقية وصياغة المواد التعريفية للشركات، مروراً بتحرير نصوص المواقع الإلكترونية وتنظيم مراسلات البريد الإلكتروني، وصولاً إلى إعداد الأدلة وأطر العمل الداخلية وتحليل الملفات والمستندات الموجودة مسبقاً، وهو ما يجعل الذكاء الاصطناعي جزءاً مباشراً من دورة العمل المهنية وليس مجرد أداة للكتابة أو الاقتراح. وبالتالي، يصبح الذكاء الاصطناعي هنا جزءاً من دورة العمل وليس مجرد أداة للمساعدة اللغوية.

«معاينة بحثية»

تتوفر الميزة حالياً في مرحلة «معاينة بحثية» داخل «نظام الماك»، ومحصورة باشتراك «كلود ماكس – الباقة العليا»، وهو ما يعني أنها موجّهة في الوقت الحالي للمستخدمين المحترفين والمؤسسات التقنية ذات الاستخدام المتقدم، كما أن مشاركة الملفات تتم بشكل اختياري وتحت سيطرة المستخدم لمعالجة المخاوف المرتبطة بالخصوصية والأمان.

يمثل «كلود كُوورك» نموذجاً متطوراً لمنصات الذكاء الاصطناعي التي من المتوقع أن تعيد تشكيل طبيعة العمل الإداري والمكتبي خلال السنوات المقبلة، إذ تشير التجربة الأولية للميزة إلى أنها قد تختصر أسابيع من العمل إلى ساعات، وتسمح بإعادة توزيع الجهد نحو المهام الإبداعية والاستراتيجية بدلاً من الأعمال الروتينية المتكررة.


كيف يمكن أن يؤثر الذكاء الاصطناعي على البطالة والتوظيف في 2026؟

يرى البعض أن الذكاء الاصطناعي يهدد ملايين الوظائف التقليدية (رويترز)
يرى البعض أن الذكاء الاصطناعي يهدد ملايين الوظائف التقليدية (رويترز)
TT

كيف يمكن أن يؤثر الذكاء الاصطناعي على البطالة والتوظيف في 2026؟

يرى البعض أن الذكاء الاصطناعي يهدد ملايين الوظائف التقليدية (رويترز)
يرى البعض أن الذكاء الاصطناعي يهدد ملايين الوظائف التقليدية (رويترز)

مع التسارع غير المسبوق في تطور تقنيات الذكاء الاصطناعي، تتزايد التساؤلات حول تأثير هذه الثورة التكنولوجية على سوق العمل العالمي.

فبينما يرى البعض أن الذكاء الاصطناعي يهدد ملايين الوظائف التقليدية، يؤكد آخرون أنه سيفتح الباب أمام فرص عمل جديدة لم تكن موجودة من قبل.

ومع دخول عام 2026، يقف العالم أمام مرحلة حاسمة لإعادة تشكيل مفهوم التوظيف، حيث لم يعد السؤال يدور حول ما إذا كان الذكاء الاصطناعي سيؤثر على الوظائف، بل حول كيف وبأي حجم سيعيد رسم خريطة البطالة والعمل في السنوات القليلة المقبلة.

وفي هذا السياق، تحدثت ستيفاني روث، كبيرة الاقتصاديين في مؤسسة وولف للأبحاث، إلى شبكة «فوكس نيوز» الأميركية عن توقعاتها بشأن تأثير الذكاء الاصطناعي على البطالة والتوظيف في 2026.

وترى روث أن المخاوف من تسبب الذكاء الاصطناعي في موجة بطالة واسعة لا تزال مبالغاً فيها حتى الآن، مؤكدة أن هذه التقنيات تُستخدم حالياً لتعزيز الكفاءة والإنتاجية أكثر من كونها أداة لاستبدال العمالة البشرية بشكل واسع.

وأوضحت روث أن التأثير الفعلي لهذه التكنولوجيا على سوق العمل ما زال محدوداً، مشيرة إلى أن نصف التباطؤ في التوظيف يعود للذكاء الاصطناعي في حين يعود النصف الآخر لعوامل اقتصادية أوسع، مثل حالة عدم اليقين الاقتصادي حول العالم.

وتابعت قائلة: «ومع توقعنا لحدوث بعض الانتعاش في الاقتصاد هذا العام، فإن هذا يعني حدوث تحسن طفيف في التوظيف وانخفاض في معدلات البطالة».

وسبق أن ذكر تقرير وُضع بمساعدة «تشات جي بي تي»، ونُشر في أكتوبر (تشرين الأول) الماضي، بأن الذكاء الاصطناعي قد يقضي على ما يقرب من 100 مليون وظيفة خلال العقد المقبل.

ومن جهة أخرى، أعلنت شركة التأمين الألمانية العملاقة «آليانز»، في تقرير صدر اليوم، أن الذكاء الاصطناعي أصبح أكبر التهديدات التي تواجهها الشركات في العالم.

وحسب التقرير، فقد قفز الذكاء الاصطناعي من المركز العاشر إلى المركز الثاني بعد الجرائم الإلكترونية التي تسبب فيها خلال العام الحالي.


وسط الانتقادات بسبب الصور الجنسية... أميركا تعلن دمج «غروك» في شبكات البنتاغون

وزير الحرب الأميركي بيت هيغسيث (أ.ب)
وزير الحرب الأميركي بيت هيغسيث (أ.ب)
TT

وسط الانتقادات بسبب الصور الجنسية... أميركا تعلن دمج «غروك» في شبكات البنتاغون

وزير الحرب الأميركي بيت هيغسيث (أ.ب)
وزير الحرب الأميركي بيت هيغسيث (أ.ب)

أعلن وزير الحرب الأميركي بيت هيغسيث أن الجيش سيبدأ دمج أداة الذكاء الاصطناعي «غروك»، التابعة لإيلون ماسك، في شبكات البنتاغون، خلال وقت لاحق من هذا الشهر، في ظل تعرضها لانتقادات بسبب صور جنسية.

ووفقاً لصحيفة «غارديان» البريطانية، قال هيغسيث، خلال زيارة لمقر شركة «سبيس إكس» في تكساس، مساء الاثنين، إن دمج «غروك» في الأنظمة العسكرية سيبدأ العمل به في وقت لاحق من هذا الشهر. وأضاف: «قريباً جداً، سيكون لدينا نماذج الذكاء الاصطناعي الرائدة في العالم على جميع الشبكات في وزارتنا».

وكشف أيضاً عن «استراتيجية تسريع الذكاء الاصطناعي» جديدة في الوزارة، والتي قال إنها «ستُطلق العنان للتجارب، وتُزيل الحواجز البيروقراطية، وتركز على الاستثمارات، وتوضح نهج التنفيذ اللازم لضمان ريادتنا في مجال الذكاء الاصطناعي العسكري، وأن يصبح أكثر هيمنة في المستقبل».

أداة الذكاء الاصطناعي غروك (إ.ب.أ)

ولفتت «غارديان» إلى أن «البنتاغون» أعلنت، في ديسمبر (كانون الثاني) الماضي، اختيار «جيميناي» من «غوغل»، وهو نموذج آخر للذكاء الاصطناعي، لتشغيل منصة الذكاء الاصطناعي الداخلية الجديدة للجيش، والمعروفة باسم «GenAI.mil».

وكجزء من إعلان يوم الاثنين، قال هيغسيث أيضاً إنه بتوجيهاته، سيقوم مكتب كبير مسؤولي الشؤون الرقمية والذكاء الاصطناعي في الوزارة «بممارسة سلطته الكاملة لإتاحة جميع البيانات المناسبة عبر أنظمة تكنولوجيا المعلومات الموحدة لاستخدامها في تطبيقات الذكاء الاصطناعي».

وقال: «الذكاء الاصطناعي لا يكون جيداً إلا بقدر جودة البيانات التي يتلقاها، وسنتأكد من توفرها».

يأتي دمج الجيش «غروك» بعد إعلان، العام الماضي، منح الوزارة عقوداً تصل إلى 200 مليون دولار لشركات «غوغل» و«أوبن إيه آي» و«إكس إيه آي»، «لتطوير سير عمل الذكاء الاصطناعي عبر مجموعة متنوعة من مجالات المهام».

وتعرضت «غروك»، المُدمجة في منصة «إكس»، لانتقادات لاذعة، في الأسابيع الأخيرة، بسبب السماح للمستخدمين بإنشاء صور ذات محتوى جنسي وعنيف، وقام، منذ ذلك الحين، بتقييد بعض وظائف إنشاء الصور لتقتصر على المشتركين مدفوعي الأجر، لكن ردود الفعل السلبية لا تزال مستمرة، فقد حظرت إندونيسيا مؤقتاً الوصول إلى «غروك»، يوم السبت، وسرعان ما حَذَت ماليزيا حذوها.

وفي بريطانيا، فتحت هيئة تنظيم الإعلام «أوفكوم» تحقيقاً رسمياً بشأن استخدام «غروك» للتلاعب بصور النساء والأطفال.

ولا تُعدّ الصور الجنسية المنتشرة على نطاق واسع هي المشكلة الوحيدة التي تواجه «غروك». فقبل الإعلان عن عقد «البنتاغون»، البالغة قيمته 200 مليون دولار، وصفت الأداة نفسها بأنها «نازية متطرفة»، ونشرت منشورات مُعادية للسامية وعنصرية.