نظم ذكاء صناعي لإنتاج فيديوهات مزيفة

برامج «ديب فيك» تعرض مشاهد مفبركة

لقطة من تطبيق «فيك آب» لتغيير الوجوه في العروض الزائفة
لقطة من تطبيق «فيك آب» لتغيير الوجوه في العروض الزائفة
TT

نظم ذكاء صناعي لإنتاج فيديوهات مزيفة

لقطة من تطبيق «فيك آب» لتغيير الوجوه في العروض الزائفة
لقطة من تطبيق «فيك آب» لتغيير الوجوه في العروض الزائفة

تصور مشهداً لغرفة فيها كنبة حمراء، ونبتة في حوض، ولمسة من الفنّ الخفيف الذي نراه عادة على جدران عيادات الطبّ النفسي. وفي الغرفة، كانت توجد ميشيل أوباما، أو امرأة تبدو مثلها تماماً، ترتدي قميصاً بقصة مفتوحة من الأمام وملابسها الداخلية السوداء ظاهرة أسفلها، تتمايل بإغراء أمام الكاميرا وعلى وجهها ابتسامة واضحة. بعدها، بدأت شبيهة السيّدة الأولى السابقة تنزع ملابسها.
لقد عُرف مقطع الفيديو هذا الذي ظهر على شبكة الإنترنت على منصة «ريديت» باسم «ديب فيك» (deepfake)، (أي الزيف العميق): مقطع شديد الزّيف والواقعية في آن معاً، تمّ إنتاجه ببرنامج ذكاء صناعي، اسمه «فيك آب» (FakeApp) وضعت من خلاله صورة السيدة الأميركية الأولى السابقة على جسم ممثلة أفلام إباحية. وبدت النسخة المزيّفة حقيقية جداً، إلى حدّ أن الناس كانوا ليظنون أن المقطع حقيقي لولا معرفتهم بميشيل أوباما.
حتى وقت قصير، كانت أفلام الفيديو المفبركة على الكومبيوتر متوفرة فقط في شركات الإنتاج الهوليوودي أو للباحثين الذين يعملون بالتقنيات عالية التطور، إلى جانب بعض التطبيقات كـ«سنابشات»، التي تتضمن تقنيات بدائية للتلاعب بشكل الوجه.
- برامج التزييف
ولكن خلال الأشهر الأخيرة، بدأت مجموعة من الهواة اختبار أدوات أكثر فعالية، من بينها «فيك آب» (FakeApp)، وهو برنامج صمّمه مطوّر مجهول يستخدم برمجيات مفتوحة المصدر من إعداد «غوغل». يتيح «فيك آب» للمستخدمين تبديل وجوه حقيقية مجاناً وبسهولة، تاركاً خلفه بعض الآثار الطفيفة على التلاعب. يقول مطوّر هذا البرنامج إنّه ومنذ ظهور النسخة الأولى من هذا التطبيق على منصة «ريديت» في يناير (كانون الثاني)، تمّ تحميله أكثر من 120 ألف مرّة.
«ديب فيكس» واحدة من أجدد أشكال التلاعب الإعلامي الرقمي، التي تفتح مجالاً كبيراً للتضليل والأذى. ومن السهل جداً أن نتخيّل استخدام هذه التقنية لتشويه سمعة السياسيين، عبر إنتاج فيلم إباحي انتقامي أو توريط البعض بالجرائم، حتى أنّ المشرعين بدأوا يشعرون بالقلق من احتمال استخدام هذه التقنية في عمليات التخريب السياسي والبروباغاندا.
وأثارت تقنية «ديب فيكس» القلق والاستهجان حتى على المواقع غير الملتزمة أخلاقياً مثل «ريديت». فقد أثارت هذه التقنية الذعر أخيراً بعد أن كشف موقع «ماذربورد» المتخصص بالتكنولوجيا، أن الناس يستخدمونها لصناعة أفلام مزيفة للمشاهير. وبادرت مواقع كـ«بورنهاب» و«تويتر» وغيرهما فوراً إلى منع عرض هذه الأفلام، وأقفلت منصة «ريديت» عدداً كبيراً من مجموعات «ديب فيكس»، من بينها مجموعة تضمّ 100 ألف عضو على الأقلّ.
قبل إقفالها، استضافت هذه المجموعات مزيجاً من المستخدمين الذين يروجون لنصائح تعديل مقاطع الفيديو ويعرضون بعضاً من آخر أعمالهم المزيفة. وظهر إلى جانب فيديوهات مختلفة منشور بعنوان «إعادة بناء ثلاثي الأبعاد للوجه من زوايا إضافية».
دافع بعض رواد مواقع التواصل الاجتماعي على «ريديت» عن «ديب فيكس» وألقوا باللوم على وسائل الإعلام التي تبالغ في ادعاءاتها حول الضرر المحتمل لهذه التقنية، في حين نقل آخرون فيديوهاتهم إلى منصات أخرى، قبل إخضاعها لقوانين المنصة المتعلّقة بالأفلام الإباحية غير المسموحة، مقابل القليلين فقط ممن عبّروا عن مخاوف أخلاقية من توفير هذه التقنية حول العالم.
ولا تزال فئة صانعي أفلام «ديب فيك» حتى اليوم تعمل في الظلّ، ولكن تأثيرها العلني ينبئ بمستقبل غير مطمئن. ويقول كيفين روز، الخبير التكنولوجي من نيويورك الذي جرب نظم الذكاء الجديدة، إن أحد مستخدمي «ريديت» كتب يقول: هذا الأمر يتحوّل إلى حلقة من سلسلة «بلاك ميرور». فأثار هذا المنشور أسئلة مهمّة جداً في عمق النقاش حول «ديب فيك»؛ هل يمكن لصورة عارية للشخص «أ» أن تصبح صورة عارية للشخص «ب»، إن تمّ الاستبدال بوجه «أ» وجه «ب» بطريقة مثالية ودون أي أثر؟ بمعنى أشمل، ما الفرق بين الحقيقة والعرض على الإنترنت؟
بعدها، سجّل المستخدم خروجه من المنصة وهو يستهجن، قائلاً: «بالتوفيق للمتمردين».
- أفلام «ديب فيكس»
بعد رصد مستخدمي «ديب فيك» في ريديت لعدة أسابيع، قرّر كيفين روز أن يجرّب صناعة فيلم «ديب فيك» (آمن للعمل وذا محتوى غير إباحي) باستخدام وجهه. وقد بدأ الخبير بتحميل «فيك آب» واستعان بخبيرين تقنيين لمساعدته: الأول خبير تقني، والآخر هو مصمّم «ديب فيك» الذي تعرّف إليه عبر «ريديت»، الملقّب بـ«ديرب فيكس» (Derpfakes).
لا شكّ في أنّ «ديرب فيكس» لن يبادر أبداً إلى إعطاء اسمه الحقيقي بسبب طبيعة برنامجه المثيرة للجدل. بدأ هذا المطوّر بنشر فيديوهات «ديب فيك» على «يوتيوب» منذ بضعة أسابيع، وركّز على العروض الكوميدية كتقديم نيكولاس كيدج في دور سوبرمان. كما نشر حسابه بعض الفيديوهات التي تتحدّث عن صناعة البرنامج.
يمكن القول إن ما تعلّمه روز خلال الاختبار أن تطوير هذا البرنامج لم يكن بسيطاً، ولكنه في الوقت نفسه، ليس علماً معقداً.
ترتكز الخطوة الأولى في تطويره على العثور على، أو استئجار، كومبيوتر بقدرات متفوقة. يستخدم برنامج «فيك آب» مجموعة من أدوات التعلّم الآلي تعرف باسم «تينسور فلو» (TensorFlow)، المطوّرة من قبل قسم «غوغل» الخاص بالذكاء الصناعي، التي أطلقت للاستهلاك عام 2015. يعمل البرنامج على تعليم نفسه كيف يؤدي مهام التعرّف إلى الصورة عن طريق التجربة والخطأ. وكلّما كانت السرعة التشغيلية المتوفّرة قوية، عمل البرنامج بسرعة أكثر.
للحصول على سرعة أكبر، استخدم روز كومبيوتر خادماً يعمل عن بعد مستأجراً عبر منصة «غوغل» السحابية، وفّر له القوة التشغيلية الكافية لإنهاء العمل في غضون ساعات، بدل أن يستغرق أياماً أو أسابيع على جهاز اللاب توب.
وفور ضبط الخادم وتحميله «فيك آب»، انتقل إلى الخطوة التالية: جمع البيانات.
إنّ اختيار مصدر البيانات الصحيح مهمّ جداً، لأن عملية التلاعب تكون أسهل في مقاطع الفيديو القصيرة منها في المقاطع الطويلة، فضلاً عن أن المشاهد الملتقطة من زاوية واحدة تفضي إلى نتائج أفضل من المشاهد متعددة الزوايا. الجينات أيضاً تلعب دوراً مهماً، إذ كلّما كان شبه الوجوه أكبر، كانت النتيجة أفضل.
بعدها، التقط مئات من الصور لوجهه، وجمع صوراً لوجه أحد مشاهير التلفزيون غوسلينج من إحدى إطلالاته المتلفزة الأخيرة. يستخدم برنامج «فيك آب» هذه الصور لتدريب نموذج التعلّم الآلي، وتعليمه كيف يحاكي تعابير وجهه.
وبالمجمل، استخدم كيفن روز 417 صورة له، و1113 للشهير التلفزيوني. وحين أصبحت الصور جاهزة، ضغط «انطلق» على «فيك آب»، وبدأ التدريب، فامتلأت شاشة الكومبيوتر بصوره وصور الشهير في الوقت الذي كان فيه البرنامج يعمل على تحديد الملامح وأوجه الشبه. بعد نحو 8 ساعات، وبعد تدريب نموذجنا بنجاح، استخدم «فيك آب» لإنهاء وضع وجهه على جسد الشهير. كان مقطع الفيديو غير واضح وغريب، وظهر وجه الشهير الأصلي بشكل متقطع في الفيديو...« لقد كان بإمكان أي مشاهد أن يتعرّف إلى الشخص الأصلي في الفيديو الذي وضعت وجهي عليه».
ولكن النتيجة كانت أفضل في مقطع للممثل كريس برات، نجم فيلم «جوراسيك وورلد» الذي يجمع بين وجهه ووجه روز شبه أكبر. «في هذا الاختبار، استخدمت مجموعة أكبر من البيانات، ضمّت 1861 صورة لي، و1023 صورة للمثل، وتركت النموذج يعمل لليلة كاملة».
كرّر «ديرب فيكس» العملية مع فيديوهات لجيمي كيمل وليف شريبر، وكانت النتائج جيّدة في كليهما. وكمنتج خبير في أفلام «ديب فيك»، يملك «ديرب فيكس» دراية أكبر بالفيديوهات المصدر التي تعطي نتائج جيّدة، ويتمتع بخبرة أكبر أيضاً في مجال المزج والتبديل اللذين يجب أن يحصلا في آخر مراحل عملية «ديب فيك».
بشكل عام، تطلّبت تجربة الخبير كيفن روز برنامج «ديب فيك» 3 أيام وكلّفت 85.96 دولار في حسابات «غوغل كلاود بلاتفورم»، أي أنّ المبلغ لم يكن كبيراً أبداً كي يصبح شخصاً مشهوراً.
- سلاح ذو حدين
ماذا يقول مطوّر البرنامج؟ بعد التجربة، تمكّنت من الوصول إلى مطوّر «فيك آب» المجهول عبر عنوان بريد إلكتروني موجود على موقعه الإلكتروني. أردت أن أعرف ماذا يعني له أنّه طوّر أداة ذكاء اصطناعي متقدّمة، يتشاركها اليوم مع منتجي أفلام إباحية يواجهون تحديات أخلاقية.
فأجابني رجلٌ عرّف نفسه على أنه مطوّر برمجيات من ماريلاند، ولأنه لن يعطيني اسمه الكامل طبعاً، استعان بالحرف الأول منه فقط. فقال إنه طوّر «فيك آب» كتجربة مبتكرة، ولكنّه شعر بالأسف لأن مجموعات «ديب فيك» على منصة «ريديت» استخدمته لغايات سيئة.
يمكن أن نقول إن «فيك آب» برنامج معقد بعض الشيء وصعب الاستخدام، ولكنه سيشهد تطوراً سريعاً. وقال مطوّر البرنامج المجهول إن جميع الفئات سيمكنها أن تستخدم «فيك آب» في المستقبل لصناعة تأثيرات مميزة ضخمة في مشاريعها الخاصة.
وأضاف أن خوارزميات التعلّم المتعمق ستحظى بأهمية كبيرة في المستقبل، ليس في التطبيقات المستقلة فحسب، بل أيضاً كمكوّن فعال في كثير من المنتجات التقنية.
تنتشر المعلومات المغلوطة عبر الإنترنت، مهما كانت بسيطة الصنع، عبر عملية سلسة فور دخولها إلى قنوات النشر الاجتماعية. تحصل المعلومة المزيفة على مشاركات أعلى بكثير من تكذيب هذا الزيف.
قال هاو لي، أستاذ مساعد في علوم الكومبيوتر في جامعة «ساوثرن كاليفورنيا»، ومؤسس «بينسكرين»، شركة تستخدم الذكاء الصناعي لتطوير نماذج شخصيات ثلاثية الأبعاد: «ليس لدينا خيار. إن تفادي استخدام الذكاء الاصطناعي كسلاح لم يكن ممكناً، وهذا الأمر يتطلّب تغييراً سريعاً في الوعي العام».
وأضاف: «أنا أرى أن هذا هو الشكل المقبل للتواصل. أشعر بالقلق من فكرة استخدام الناس هذه التقنية لابتزاز الآخرين، أو القيام بأمور مسيئة. تجب توعية الناس إلى أن هذه الأمور يمكن أن تحصل».


مقالات ذات صلة

تطبيق ذكي يحسّن المزاج ويقلل القلق والاكتئاب

يوميات الشرق التطبيق يوفر تدخلاً نفسياً مبنياً على الأدلة العلمية بطريقة سهلة الوصول (مستشفى ماس جنرال بريغهام)

تطبيق ذكي يحسّن المزاج ويقلل القلق والاكتئاب

طوّر باحثون في مستشفى ماس جنرال بريغهام بالولايات المتحدة تطبيقاً هاتفياً مبتكراً يهدف إلى تحسين الصحة النفسية والمزاج وتقليل أعراض القلق والاكتئاب.

«الشرق الأوسط» (القاهرة)
تكنولوجيا شعار تطبيق «إنستغرام» (أ.ف.ب)

«إنستغرام» يختبر نسخة مدفوعة بمزايا إضافية

بدأ تطبيق «إنستغرام» اختبار نسخة جديدة للاشتراك المدفوع في العديد من الدول، مع مزايا إضافية تركز بشكل رئيسي على خاصية «ستوريز».

«الشرق الأوسط» (نيويورك)
أوروبا شعار تطبيق المراسلة الروسي «ماكس» معروض على هاتف ذكي (أ.ف.ب)

«ماكس»... تطبيق غير مشفّر للمراسلة تفرضه السلطات الروسية على مواطنيها

يفرض تطبيق «ماكس»، وهو خدمة «المراسلة الوطنية» غير المشفّرة، نفسه في أوساط الروس بعد حجب السلطات تطبيقَي «واتساب» و«تلغرام».

«الشرق الأوسط» (موسكو)
يوميات الشرق استخدام وسائل التواصل الاجتماعي بكثرة قد يؤثر على الحياة اليومية (رويترز)

إدمان وسائل التواصل الاجتماعي يصيب الكبار أيضاً... فكيف نحد من استخدامها؟

تركزت معظم المخاوف بشأن إدمان وسائل التواصل الاجتماعي على الأطفال، لكن البالغين أيضاً عُرضة لاستخدامها بكثرة لدرجة أنها قد تُؤثر على حياتهم اليومية.

«الشرق الأوسط» (نيويورك)
يوميات الشرق تُستخدم «لينكد إن» مؤخراً كمنصة تعارف بعد أن ارتبطت بالمحتوى المهني والوظيفي (بكسلز)

الحب بتوقيت «لينكد إن»... من منصة مهنية إلى تطبيق تَعارُف ومواعدة

منصة «لينكد إن» المهنية ملاذٌ جديد للباحثين عن علاقات عاطفية والسبب المصداقيّة في مواصفات المستخدمين، والإرهاق من تطبيقات المواعدة.

كريستين حبيب (بيروت)

اليونان تتجه لحظر استخدام الأطفال دون 15 عاماً وسائل التواصل الاجتماعي

استخدام وسائل التواصل الاجتماعي بكثرة قد يؤثر على الحياة اليومية (رويترز)
استخدام وسائل التواصل الاجتماعي بكثرة قد يؤثر على الحياة اليومية (رويترز)
TT

اليونان تتجه لحظر استخدام الأطفال دون 15 عاماً وسائل التواصل الاجتماعي

استخدام وسائل التواصل الاجتماعي بكثرة قد يؤثر على الحياة اليومية (رويترز)
استخدام وسائل التواصل الاجتماعي بكثرة قد يؤثر على الحياة اليومية (رويترز)

ذكرت الحكومة اليونانية، في بيان، أنه من المتوقع أن يعلن رئيس الوزراء كيرياكوس ميتسوتاكيس، اليوم الأربعاء، حظراً على استخدام وسائل التواصل الاجتماعي للأطفال دون سن 15 عاماً.

وقال كل من سلوفينيا وبريطانيا والنمسا وإسبانيا إنها تعمل على فرض حظر مماثل، بعد أن أصبحت أستراليا أول دولة في العالم تحظر وصول الأطفال دون سن 16 عاماً إلى هذه الشبكات.


أداة «غوغل» للذكاء الاصطناعي تفتقر إلى الدقة

أداة «غوغل» للذكاء الاصطناعي تفتقر إلى الدقة
TT

أداة «غوغل» للذكاء الاصطناعي تفتقر إلى الدقة

أداة «غوغل» للذكاء الاصطناعي تفتقر إلى الدقة

تبدو إجابات «غوغل» المُولَّدة بواسطة الذكاء الاصطناعي موثوقة، وهي تستند إلى مصادر متنوعة؛ من مواقع موثوقة، إلى منشورات «فيسبوك».

أداة تقييم إجابات «غوغل»

بهدف تقييم دقة «غوغل» وإجاباته بواسطة الذكاء الاصطناعي تحدَّث مجموعة من الصحافيين، وهم، إضافة إليّ: تريب ميكل، ديلان فريدمان، تيريزا موندريا تيرول، وكيث كولينز، مع شركات متخصصة في دراسة الذكاء الاصطناعي، قبل أن تقرر اختيار شركة أومي، ونموذج التحقق بالذكاء الاصطناعي الخاص بها «هال أومي»؛ لتقييم دقة إجابات غوغل «الذكية»، من خلال اختبار معياري شائع الاستخدام يُعرف باسم «SimpleQA».

مثال لجواب صحيح-خاطئ

في أواخر العام الماضي، كان ستيفن بونواسي يستعدّ لتناول العشاء عندما لاحظ خبراً يقول إن زوجة المصارع هالك هوغان قد ترفع دعوى قضائية بسبب وفاته. ولم يكن السيد بونواسي، محلل البيانات البالغ من العمر 41 عاماً والمقيم في تورنتو بكندا، على علم بوفاة السيد هوغان، فسأل «غوغل» عن تاريخ وفاته.

أثارت الإجابة حيرته. جاء في ملخص «نظرة عامة على الذكاء الاصطناعي» AI Overview من «غوغل»، الذي ظهر أعلى الصفحة: «لا توجد تقارير موثوقة عن وفاة هالك هوغان». وفوجئ بونواسي بما وجده أسفل الإجابة، حين رأى مقالاً من صحيفة «ديلي ميل» يناقض رد «غوغل» كان عنوانه: «غموض يكتنف وفاة هالك هوغان».

دقة نسبية

في عام 2024، بدأت «غوغل» منح الإجابات المُولَّدة بواسطة الذكاء الاصطناعي مكانة بارزة في أعلى صفحة نتائج البحث. وأسهم هذا المنتج الجديد، «نظرة عامة على الذكاء الاصطناعي»، في تحويل «غوغل» من مجمع للمعلومات إلى ناشر.

وأظهر تحليل حديث لـ«نظرة عامة على الذكاء الاصطناعي» أن الأداة دقيقة في تسع من كل عشر مرات تقريباً.

مئات الآلاف من الإجابات الخاطئة- كل دقيقة

لكن مع معالجة «غوغل» أكثر من خمسة تريليونات عملية بحث سنوياً، فهذا يعني أنها تُقدّم عشرات الملايين من الإجابات الخاطئة كل ساعة (أو مئات الآلاف من المعلومات غير الدقيقة كل دقيقة)، وفقاً لتحليلٍ أجرته شركة «أومي» الناشئة في مجال الذكاء الاصطناعي.

إجابات صحيحة «غير مدعومة بأدلة»

كما أظهرت الدراسة أن أكثر من نصف الإجابات الصحيحة كانت «غير مدعومة بأدلة»؛ أي أنها كانت تُحيل المستخدم إلى مواقع إلكترونية لا تدعم المعلومات المقدَّمة بشكل كامل. وهذا ما يجعل التحقق من دقة مراجعات الذكاء الاصطناعي أمراً صعباً.

ضرورة التدقيق الإضافي للإجابات

يُجادل بعض التقنيين بأن مراجعات الذكاء الاصطناعي من «غوغل» دقيقة إلى حد معقول، وأنها تحسّنت خلال الأشهر الأخيرة، لكن آخرين يُبدون قلقهم من أن الشخص العادي قد لا يُدرك أن هذه النتائج تحتاج إلى تدقيق إضافي.

بناءً على طلب صحيفة نيويورك تايمز، حلّل موقع «Oumi» دقة مراجعات الذكاء الاصطناعي من «غوغل» باستخدام اختبار معياري يُسمى «SimpleQA»؛ وهو اختبار شائع الاستخدام في هذا المجال لقياس دقة أنظمة الذكاء الاصطناعي. واختبرت الشركة الناشئة نظام «غوغل» في أكتوبر (تشرين الأول) الماضي، عندما جرت الإجابة عن أكثر الأسئلة تعقيداً باستخدام تقنية ذكاء اصطناعي تُسمى «جيميناي2» (Gemini 2)، ثم مرة أخرى في فبراير (شباط) من العام الحالي، بعد ترقيته إلى «جيمناي3» (Gemini 3)، وهي تقنية ذكاء اصطناعي أكثر قوة.

تحرّي الدقة

في كلتا الحالتين، ركز تحليل شركة أومي على 4326 عملية بحث على «غوغل»، ووجدت الشركة أن النتائج كانت دقيقة بنسبة 85 في المائة مع نظام «جيميناي 2»، و91 في المائة مع نظام «جيميناي 3».

قال براتيك فيرما، الرئيس التنفيذي لشركة أوكاهو، وهي شركة تساعد الناس على فهم واستخدام تقنيات الذكاء الاصطناعي، إن تقنية «غوغل» دقيقة تقريباً مثل أيٍّ من أنظمة الذكاء الاصطناعي الرائدة. وهو ينصح بالتحقق من معلوماتها. قال: «لا تثق أبداً بمصدر واحد. قارنْ دائماً ما تحصل عليه بمصدر آخر».

وتقر «غوغل» بأن مراجعات الذكاء الاصطناعي الخاصة بها قد تحتوي على أخطاء. ويؤكد النص الصغير أسفل كل «نظرة عامة على الذكاء الاصطناعي» ما يلي: «قد يرتكب الذكاء الاصطناعي أخطاءً، لذا تحققْ من الإجابات».

لكن «غوغل» قالت إن تحليل «أومي» كان معيباً لأنه اعتمد على اختبار معياري بنته شركة أوبن إيه آي، والذي احتوى بدوره على معلومات غير صحيحة. وقال نيد أدريانس، من «غوغل»، في بيان: «في هذه الدراسة ثغرات خطيرة».

تفاوت الإجابات

تقدم «نظرة عامة على الذكاء الاصطناعي» نوعين من المعلومات: إجابات عن الأسئلة، وقوائم بمواقع الويب التي تُدعم تلك الإجابات.

يصعب تقييم مراجعات الذكاء الاصطناعي لأن نظام «غوغل» قد يُولّد استجابة جديدة لكل استعلام، فإذا تلقّى محرك بحث «غوغل» الاستعلام نفسه في أوقات مختلفة - حتى لو كانت بفارق ثوانٍ - فقد يُنتج إجابة صحيحة، وأخرى خاطئة.

ولتحديد دقة أنظمة الذكاء الاصطناعي، تستخدم شركات مثل «Oumi» أنظمتها الخاصة للتحقق من كل إجابة. هذه هي الطريقة الوحيدة الفعّالة للتحقق من عدد كبير من الإجابات. تكمن مشكلة هذه الطريقة في أن نظام الذكاء الاصطناعي الذي يُجري التحقق قد يرتكب أخطاءً أيضاً.

اختلاف دقة «جيميناي» ومحرك «غوغل»

نشرت «غوغل» نتائج اختبارات مشابهة لتلك التي أنتجتها «Oumi» في تحليل «غوغل» الخاص لـ«Gemini 3» - التقنية التي تدعم مراجعات الذكاء الاصطناعي - وجدت أن النموذج أنتج معلومات خاطئة بنسبة 28 في المائة. وقالت الشركة إن مراجعات الذكاء الاصطناعي، التي تستقي المعلومات من محرك بحث «غوغل» قبل توليد الاستجابات، كانت أكثر دقة من «جيميناي» عند تشغيله بمفرده.

ومع تحسين «غوغل» تقنيات الذكاء الاصطناعي لديها بفضل التقنيات الحديثة، أصبحت إجابات «غوغل» المُولّدة بواسطة الذكاء الاصطناعي أكثر دقة.

من جهة أخرى، يتساءل مانوس كوكوميديس، الرئيس التنفيذي لشركة أومي: «حتى عندما تكون الإجابة صحيحة، كيف يمكن التأكد من صحتها؟ كيف يمكن التحقق منها؟».

احتمالات وتخمينات وسوء تفسير

تستخدم أنظمة الذكاء الاصطناعي الحالية الاحتمالات الرياضية لتخمين أفضل إجابة، وليس مجموعة صارمة من القواعد التي وضعها مهندسون بشريون. وهذا يعني أنها ترتكب عدداً من الأخطاء. وأحياناً يُحدّد نظام غوغل «نظرة عامة على الذكاء الاصطناعي» موقعاً إلكترونياً موثوقاً، لكنه يُسيء تفسير معلوماته.

التلاعب بالأخبار

تواجه مراجعات الذكاء الاصطناعي تحدياً آخر: إمكانية التلاعب بها.

وتقول ليلي راي، نائبة رئيس قسم البحث بالذكاء الاصطناعي بوكالة التسويق «أمسيف»: «إذا أراد شخص أن يُعرف كخبير عالمي في مجالٍ ما، فما عليه إلا أن يكتب منشوراً على مدونته يُعلن فيه عن هذا التميز».

تُقرّ «غوغل» بهذه المشكلة، لكنها تُقلّل من شأنها. وصرح السيد أدريانس، من «غوغل»، في بيان: «تعتمد ميزات الذكاء الاصطناعي في بحثنا على معايير الترتيب والحماية نفسها التي تمنع الغالبية العظمى من الرسائل المزعجة من الظهور في نتائج البحث. معظم هذه الأمثلة عبارة عن عمليات بحث غير واقعية لن يُجريها الناس في الواقع».

تجربة صحافية للتلاعب بالأخبار

بعد سماع نظرية السيدة راي، نشر توماس جيرمان، أحد مُقدّمي بودكاست «ذا إنترفيس» على «بي بي سي»، منشوراً على مدونته بعنوان «أفضل صحافي تكنولوجيا في أكل الهوت دوغ». ووصف المنشور بطولة وهمية لأكل الهوت دوغ في ولاية ساوث داكوتا، حيث تصدّر قائمة تضم عشرة «مُتنافسين بارزين في أكل الهوت دوغ».

وبعد يوم، أجرى بحثاً على «غوغل» عن أفضل صحافيي التكنولوجيا الذين يتناولون الهوت دوغ. ووجد أن «غوغل» أدرجه في المرتبة الأولى بين ستة صحافيين تقنيين «اكتسبوا شهرةً واسعةً بفضل براعتهم في قسم الأخبار الخاص بمسابقات تناول الطعام»، مشيراً إلى فوزه بالمركز الأول في مسابقة ساوث داكوتا.

وقال جيرمان: «كان (غوغل) يعرض محتوى موقعي الإلكتروني وكأنه حقيقة مُطلقة».

*باختصار، خدمة «نيويورك تايمز»


عضلات اصطناعية تمكّن الروبوتات من رفع 100 ضعف وزنها

العضلات الاصطناعية تعمل بالهواء ما يمنح الروبوتات قدرة على رفع أوزان تصل إلى 100 ضعف وزنها (جامعة ولاية أريزونا)
العضلات الاصطناعية تعمل بالهواء ما يمنح الروبوتات قدرة على رفع أوزان تصل إلى 100 ضعف وزنها (جامعة ولاية أريزونا)
TT

عضلات اصطناعية تمكّن الروبوتات من رفع 100 ضعف وزنها

العضلات الاصطناعية تعمل بالهواء ما يمنح الروبوتات قدرة على رفع أوزان تصل إلى 100 ضعف وزنها (جامعة ولاية أريزونا)
العضلات الاصطناعية تعمل بالهواء ما يمنح الروبوتات قدرة على رفع أوزان تصل إلى 100 ضعف وزنها (جامعة ولاية أريزونا)

يطوّر باحثون في جامعة ولاية أريزونا نوعاً جديداً من «العضلات الاصطناعية» التي تعمل بالهواء، في خطوة قد تغيّر الطريقة التي تُصمم بها الروبوتات، خصوصاً في البيئات القاسية التي يصعب فيها استخدام الأنظمة التقليدية. تعتمد هذه التقنية على تصميم مستوحى من العضلات البيولوجية، حيث تُستخدم أنظمة هوائية بدلاً من المحركات الصلبة، ما يمنح الروبوتات مرونة أكبر وقدرة على الحركة في ظروف غير اعتيادية.

أحد أبرز ما يميز هذه العضلات الجديدة هو قدرتها على رفع أوزان تصل إلى نحو 100 ضعف وزنها، مع الحفاظ على حجم صغير وخفة في التصميم. هذه النسبة تعكس تحولاً مهماً في مجال الروبوتات، حيث لطالما واجهت الأنظمة التقليدية تحدياً في تحقيق توازن بين القوة والمرونة. فالروبوتات التي تعتمد على محركات كهربائية أو أنظمة ميكانيكية صلبة تكون عادة قوية، لكنها أقل قدرة على التكيف مع البيئات المعقدة. في المقابل، تتيح العضلات الهوائية الجديدة الجمع بين القوة والمرونة، ما يفتح المجال لتطبيقات أوسع.

العمل في بيئات قاسية

من بين الميزات اللافتة لهذه التقنية قدرتها على العمل في ظروف صعبة، مثل المياه شديدة الحرارة أو الأسطح الخشنة، وهي بيئات غالباً ما تعيق الروبوتات التقليدية أو تتسبب في تعطّلها.

ويشير الباحثون إلى أن هذا النوع من العضلات يمكن أن يساعد الروبوتات على «تجاوز العوائق التي تُبقي نظيراتها التقليدية خارج الخدمة»، ما يعزز من استخدامها في مهام مثل الاستكشاف أو العمليات الصناعية المعقدة.

ميزة أخرى مهمة تكمن في أن هذه الأنظمة يمكن أن تعمل دون الاعتماد الكامل على مصادر طاقة تقليدية ثقيلة، ما يقلل من الحاجة إلى البطاريات أو الأنظمة الكهربائية المعقدة. هذا التطور قد يساهم في تصميم روبوتات أكثر استقلالية، قادرة على العمل لفترات أطول، خصوصاً في الأماكن التي يصعب فيها إعادة الشحن أو الصيانة.

من «الصلابة» إلى «المرونة»

تعكس هذه التقنية تحولاً أوسع في مجال الروبوتات نحو ما يُعرف بـ«الروبوتات اللينة» (Soft Robotics)، وهي أنظمة تعتمد على مواد مرنة تحاكي الطبيعة بدلاً من الهياكل المعدنية الصلبة. فالعضلات الاصطناعية، بشكل عام، تُصمم لتقليد طريقة عمل العضلات البشرية، حيث يمكنها الانقباض والتمدد استجابة لمحفزات مختلفة مثل الضغط أو الحرارة أو الكهرباء. وفي حالة العضلات الهوائية، يتم استخدام ضغط الهواء لتحفيز الحركة، ما يسمح بتحقيق حركات أكثر سلاسة وتكيفاً مع البيئة.

رغم إمكاناتها لا تزال تواجه تحديات في التحكم الدقيق ودمجها ضمن أنظمة روبوتية متكاملة (جامعة ولاية أريزونا)

إمكانات تطبيقية واسعة

لا تقتصر أهمية هذا التطور على الجانب النظري، بل تمتد إلى تطبيقات عملية متعددة. فهذه العضلات يمكن أن تُستخدم في عمليات الإنقاذ في البيئات الخطرة وفحص البنية التحتية الصناعية والتطبيقات الطبية، مثل الأجهزة المساعدة وأيضاً في الزراعة والعمل في التضاريس غير المستوية.

تكمن أهمية هذه التطبيقات في أن الروبوتات القادرة على التكيف مع بيئات غير متوقعة قد تقلل من المخاطر التي يتعرض لها البشر في مثل هذه المهام. ورغم هذه المزايا، لا تزال هناك تحديات تقنية مرتبطة بالتحكم الدقيق في هذه الأنظمة، خاصة أن العضلات الهوائية تعتمد على ديناميكيات غير خطية، ما يجعل التحكم في حركتها أكثر تعقيداً مقارنة بالأنظمة التقليدية. كما أن دمج هذه العضلات ضمن أنظمة روبوتية متكاملة يتطلب تطوير برمجيات وتحكمات قادرة على التعامل مع هذا النوع من الحركة المرنة.

خطوة نحو جيل جديد من الروبوتات

يمثل هذا الابتكار جزءاً من مسار أوسع نحو تطوير روبوتات أكثر شبهاً بالكائنات الحية، من حيث الحركة والتفاعل مع البيئة. فبدلاً من الاعتماد على القوة الصلبة، يتجه الباحثون نحو أنظمة تجمع بين القوة والمرونة والقدرة على التكيف. وفي هذا السياق، لا يُنظر إلى العضلات الاصطناعية فقط باعتبارها بديلاً للمحركات، بل كونها إعادة تعريف لكيفية تصميم الروبوتات نفسها، بما يتناسب مع متطلبات بيئات أكثر تعقيداً.

يظهر هذا التطور اتجاهاً متزايداً في الهندسة الحديثة نحو الاقتراب من الطبيعة بدلاً من الابتعاد عنها. فالأنظمة البيولوجية، مثل العضلات، أثبتت كفاءة عالية في تحقيق التوازن بين القوة والمرونة، وهو ما تسعى هذه التقنيات إلى محاكاته.