موجة من الصور ومقاطع الفيديو الزائفة تجتاح «طوفان الأقصى»

ألعاب فيديو تزعم أنها من ساحة الحرب

يرى مراقبون أنه لا يمكن اعتبار وسائل التواصل الاجتماعي مصدراً للأخبار بل هي وسيلة لنشر المصادر فقط (شاترستوك)
يرى مراقبون أنه لا يمكن اعتبار وسائل التواصل الاجتماعي مصدراً للأخبار بل هي وسيلة لنشر المصادر فقط (شاترستوك)
TT

موجة من الصور ومقاطع الفيديو الزائفة تجتاح «طوفان الأقصى»

يرى مراقبون أنه لا يمكن اعتبار وسائل التواصل الاجتماعي مصدراً للأخبار بل هي وسيلة لنشر المصادر فقط (شاترستوك)
يرى مراقبون أنه لا يمكن اعتبار وسائل التواصل الاجتماعي مصدراً للأخبار بل هي وسيلة لنشر المصادر فقط (شاترستوك)

في العصر الرقمي الذي نعيشه اليوم، لا يمكن الاستهانة بقوة العناصر المرئية في تشكيل وسرد القصص والأخبار. ومنذ بدء عملية «طوفان الأقصى» التي تشهد تصعيداً كبيراً، يستمر طوفان الصور ومقاطع الفيديو على منصات التواصل الاجتماعي، التي توثقها كاميرات المراسلين في الغالب، وأخرى يوثقها المدنيون بكاميرات هواتفهم الشخصية.

لكن ليس كل ما يتدفق من مواد هو حقيقي؛ بل قد تظهر صور ومقاطع فيديو مزيفة تؤدي إلى تضليل المشاهد، حتى وسائل الإعلام أحياناً.

من حسابات زائفة قد تنتحل شخصية صحافيين، إلى مشاهد من ألعاب فيديو حربية تُنشر على أنها حقيقية، كلها تضع منصات التواصل الاجتماعي أمام صعوبات لاحتواء موجة من المعلومات المضللة حول الحرب الدائرة بين إسرائيل وغزة.

الأخبار الكاذبة يمكن أن تؤدي إلى تضخيم الأحداث على الأرض أو تحريفها تماماً وتغيير الرأي العام ( شاترستوك)

سيل من الخداع

يقول باحثون في مجال التحقق من المعلومات المضللة: إن مستخدمي وسائل التواصل الاجتماعي يشاهدون كماً كبيراً من صور الحرب الزائفة، ومقاطع فيديو قديمة من سوريا أعيد نشرها لتبدو كأنها مصورة في غزة، ولقطات من ألعاب فيديو يتم تمريرها على أنها مشاهد من هجوم حركة «حماس».

على سبيل المثال، انتشرت صورة على الإنترنت يُزعم أنها تظهر جنوداً إسرائيليين أَسَرتهم حركة «حماس»، إلا أن صحافيي خدمة تقصّي صحّة الأخبار في وكالة «الصحافة الفرنسية» وجدوا أن الصورة التُقطت عام 2022 خلال تدريب عسكري في غزة.

هذه الصورة ملتقطة عام 2022 خلال مناورة في غزة وليست لجنود إسرائيليين أَسَرتهم «حماس» خلال عملية «طوفان الأقصى» (أ.ف.ب)

وفي مثال آخر، انتشر مقطع فيديو على نطاق واسع، ولأكثر من مليون مرة على وسائل التواصل الاجتماعي، يظهر فيه رجل فلسطيني ملثم يطلق النار على طائرة مروحية إسرائيلية، والتي تسقط بعد ذلك. تم الكشف عن أن الفيديو مزيف، وقد تم إنشاؤه باستخدام تقنية «التلاعب» بعد أن دمجت لقطات من لعبة الفيديو «أرما 3» مع لقطات من الحرب في غزة، بعد ملاحظة وجود عدد من العلامات تشمل أشياء غير منطقية فيه، مثل عدم حدوث تفاعل بين الطيار وإطلاق النار، واختلافات في جودة الفيديو.

فيديو مزيف آخر تم اكتشافه من قبل موقع «FactCheck.org» يزعم أن مجموعة من الناس يهاجمون امرأة إسرائيلية، وأن تصويره تم في غزة. لكن تبيَّن من خلال التحقيق أن التصوير حصل في غواتيمالا لحملة إعلانية عام 2015. وبعد تداوله على نطاق واسع على وسائل التواصل الاجتماعي، لاحظ موقع «FactCheck.org» وجود عدد من العلامات التي تشير إلى إنشائه باستخدام تقنية التلاعب بالفيديو، وعدم وجود رد فعل من المرأة التي تعرضت للهجوم، واختلافات في جودة الفيديو أيضاً.

وسائل التواصل والمعلومات الحقيقية

يلجأ الناس في أوقات الأزمات والحروب والكوارث الطبيعية إلى منصات التواصل الاجتماعي؛ للحصول على المعلومات؛ حيث يعد الحصول عليها أمراً سهلاً وسريعاً ومجانياً. قد يفتح ذلك شهية المخادعين الذين ينشرون الأكاذيب والكراهية بحثاً عن التفاعل والمتابعين، إضافة إلى الخوارزميات التي تنشر هذا المحتوى المثير للقلق، ما يطرح سؤالاً عن كون وسائل التواصل الاجتماعي مكاناً موثوقاً للحصول على المعلومات.

يقول أحمد الشيخ، خبير الدور السياسي لمنصات التواصل الاجتماعي، في حديث لـ«الشرق الأوسط» من لندن: «إنه لا يمكن اعتبار وسائل التواصل الاجتماعي مصدراً للأخبار؛ بل هي وسيلة لنشر المصادر» التي قد تكون موثوقة أو غير موثوقة. ويعتبر أن دور المستخدم يكمن في اختيار المصادر الموثوق بها. أما بالنسبة لنقل الأحداث المباشرة عبر وسائل التواصل الاجتماعي، يقول أحمد الشيخ: إن ذلك قد يجعل المصدر موثوقاً «للمدة التي يتم فيها نقل الحدث»، لكن لا يجعله مصدراً للحدث بشكل عام. وهنا يظهر جانب آخر من مشاكل التواصل الاجتماعي؛ حيث إنها تركز على جزء من الحدث وليس على الحدث كله، بحكم توجهات الناقل السياسية أو الاجتماعية، أو إمكاناته المادية واللوجستية، ما يعني عدم اعتداده مصدراً لنقل الأخبار.

التحقق من المعلومات

ما يزيد الطين بلة، هو أن منصات التواصل الاجتماعي تبدو كأنها تتخلى عن جهودها الرامية إلى إبراز المعلومات الجيّدة أو الحقيقية، وخصوصاً مع عمليات تسريح موظفين، وخفض التكاليف التي طالت فرق الأمن والسلامة، ما يعيق قدرتها على التعامل مع هذه الفوضى، وخصوصاً وقت الأزمات. وما يفاقم المشكلة -حسب مراقبين- أنه مثلاً في منصة «إكس» المملوكة لإيلون ماسك، يوجد عدد كبير من الإجراءات المثيرة للجدل، كإعادة تفعيل حسابات تروج لمؤامرات زائفة، ووضع برنامج لمشاركة عائدات الإعلانات مع صانعي المحتوى، ما يحفّز البحث عن التفاعل بدلاً من توخي الدقة.

يعتبر أحمد الشيخ، خبير الدور السياسي لمنصات التواصل الاجتماعي، في حديثه لـ«الشرق الأوسط»، أن «إكس» كغيرها من وسائل التواصل الاجتماعي تعيش فوضى توثيق الحسابات بالعلامة الزرقاء؛ حيث كانت في السابق تعتبر الحسابات الموثقة -نوعاً ما- مصدراً للخبر. لكن الآن يمكن لأي شخص توثيق حسابه مقابل مبلغ مالي قليل (8 دولارات) ما أدى إلى سيل من الأخبار الزائفة التي تؤثر على المستخدمين الذين لا يمكن أن يثقوا غالباً في تلك العلامات الزرقاء، واعتبارها تمثل جهات رسمية أو شخصيات حقيقية.

الملياردير الأميركي إيلون ماسك صاحب منصة «إكس» (أ.ف.ب)

آثار التزييف والتضليل

في الوقت الذي يكون من الصعب فيه إحصاء الآثار السلبية الناجمة عن المعلومات المضللة في أثناء الحروب والكوارث، يمكن أن تؤدي إلى تضخيم الأحداث على الأرض أو تحريفها تماماً. كما قد ينتج عنها تحريف الرأي العام، وصعوبة فهم الأطراف المحايدة للوضع الفعلي، واستنتاج تحليلات أو تدخلات خاطئة. ويعتبر البعض أنه من خلال الأدوات الرقمية المتاحة لها، يمكن للأحزاب استخدام المحتوى المزيف سلاحاً للدعاية، وتعميق الانقسامات، وإعاقة عمليات السلام. والأخطر من ذلك هو ما قد يتحمله المدنيون الذين غالباً ما يقعون في مرمى النيران.

هذا بالإضافة إلى أن وطأة ردود الفعل على التقارير الكاذبة، وما قد تثيره الصور ومقاطع الفيديو من مشاعر، يمكن أن يدفعا الأفراد نحو آراء أو أفعال متطرفة. وغالباً ما يقع هؤلاء ضحية للتحيز؛ حيث يعتقدون بالمعلومات التي تتوافق مع وجهات نظرهم. ويمكن للمحتوى المزيف أن يعزز هذه التحيزات، ما يزيد من ترسيخ الانقسامات.

يتم إنتاج فيديوهات مزيفة باستخدام تقنية «التلاعب» ودمج لقطات من أحداث سابقة أو ألعاب إلكترونية ( شاترستوك)

ما الحل؟

ليس هناك جواب واضح لذلك، أو عملية حسابية متوفرة تساعد مستخدمي وسائل التواصل الاجتماعي. لكن خبير الدور السياسي لمنصات التواصل الاجتماعي، أحمد الشيخ، يقول لـ«الشرق الأوسط»: إن أبسط ما يمكن أن يقوم به المستخدم هو «اللجوء إلى المصادر الموثوقة، مثل حسابات تمثل وزارات الصحة، أو منظمات رسمية، أو وزارات الخارجية، وبالطبع وسائل الإعلام الكبرى ووكالات الأنباء».

كما يمكن تطوير أدوات للتحقق من صحة المعلومات، تمكّن الذكاء الاصطناعي من التعرف على المضللة منها، وتحديد مقاطع الفيديو المزيفة، أو استخدام خاصية البحث العكسي التي توفرها «غوغل»؛ لإيجاد مصدر صورة أو فيديو ما. كما يساعد إنشاء وحدات متخصصة في التحقق من صحة المعلومات على وسائل التواصل الاجتماعي، أو المؤسسات الإخبارية التي تستطيع العمل على إزالة المعلومات المضللة ونشر تلك الصحيحة.

إضافة إلى ذلك، يعدّ تثقيف المستخدمين حول كيفية التحقق من صحة المعلومات على وسائل التواصل الاجتماعي أمراً لا يقل أهمية، عبر نشر مقاطع الفيديو التعليمية والمقالات التعريفية. والأهم أيضاً أن يكون المستخدمون أنفسهم على دراية بالمخاطر المرتبطة بمشاركتهم للمعلومات المضللة؛ حيث يمكن أن يؤدي ذلك إلى تفاقم التوترات ونشر الكراهيَة.


مقالات ذات صلة

فصائل غزة تتوقع هجمات كثيفة بعد طلبها تعديل خطة «نزع السلاح»

خاص فلسطينية مسيحية تحضر صلاة بكنيسة القديس برفيريوس في غزة الأحد (د.ب.أ)

فصائل غزة تتوقع هجمات كثيفة بعد طلبها تعديل خطة «نزع السلاح»

توقعت مصادر عدة من فصائل فلسطينية كبيرة في غزة تكثيف إسرائيل لهجماتها داخل القطاع بعد طلبها عبر «حماس» تعديل خطة «مجلس السلام» لنزع السلاح.

«الشرق الأوسط» (غزة)
المشرق العربي منظر عام لكتلة خرسانية تمثل «الخط الأصفر» الذي رسمه الجيش الإسرائيلي في البريج وسط قطاع غزة (أ.ف.ب)

إسرائيل تنشئ مزيداً من المواقع العسكرية في منطقة الخط الأصفر

توسع القوات الإسرائيلية سيطرتها داخل قطاع غزة، منذ دخول وقف إطلاق النار حيز التنفيذ في العاشر من أكتوبر (تشرين الأول) 2025.

«الشرق الأوسط» (غزة)
المشرق العربي مسلّحون من «كتائب عز الدين القسام» التابعة لحركة «حماس» في مخيم النصيرات للاجئين وسط غزة - فبراير 2025 (إ.ب.أ)

«حماس» تأمل نجاح ضغوطها في تعديل خطة نزع سلاحها

تتطلع حركة «حماس» إلى نجاح الضغوط التي تمارسها، عبر الوسطاء، في إحداث تعديلات على الخطة التي قدمها المندوب السامي لـ«مجلس السلام»، نيكولاي ميلادينوف، إلى قيادة…

«الشرق الأوسط» (غزة)
المشرق العربي امرأة فلسطينية تشد دعائم خيمتها وسط يوم عاصف في خان يونس جنوب غزة الخميس (رويترز) p-circle

«حماس» في القاهرة بعد أنقرة بحثاً عن تفاهمات «نزع السلاح»

بدأ وفد من حركة «حماس» محادثات في القاهرة، الخميس، قادماً من جولة أخرى في أنقرة، لمناقشة تنفيذ بنود اتفاق وقف إطلاق النار مع إسرائيل في غزة.

محمد محمود (القاهرة)
خاص مسلحون من «كتائب عز الدين القسام» التابعة لحركة «حماس» في مخيم النصيرات للاجئين وسط غزة فبراير 2025 (إ.ب.أ) p-circle

خاص مصادر من «حماس» تُقر بـ«تباين» مع الوسطاء حول خطة نزع السلاح

كشفت مصادر فلسطينية أن مصر وقطر وتركيا شاركت في صياغة خطة «مجلس السلام» لنزع السلاح من غزة، بينما أقرت مصادر من «حماس» بوجود «تباين» مع الوسطاء بشأنها.

«الشرق الأوسط» (غزة)

اليونان تتجه لحظر استخدام الأطفال دون 15 عاماً وسائل التواصل الاجتماعي

استخدام وسائل التواصل الاجتماعي بكثرة قد يؤثر على الحياة اليومية (رويترز)
استخدام وسائل التواصل الاجتماعي بكثرة قد يؤثر على الحياة اليومية (رويترز)
TT

اليونان تتجه لحظر استخدام الأطفال دون 15 عاماً وسائل التواصل الاجتماعي

استخدام وسائل التواصل الاجتماعي بكثرة قد يؤثر على الحياة اليومية (رويترز)
استخدام وسائل التواصل الاجتماعي بكثرة قد يؤثر على الحياة اليومية (رويترز)

قال رئيس الوزراء اليوناني كيرياكوس ميتسوتاكيس، اليوم الأربعاء، إن بلاده ستحظر استخدام وسائل التواصل ​الاجتماعي لمن تقل أعمارهم عن 15 عاماً من الأول من يناير (كانون الثاني) 2027.

وعزا رئيس الوزراء القرار إلى زيادة معدلات القلق ومشكلات النوم إضافة إلى تصميم المنصات على الإنترنت بأسلوب يؤدي إلى إدمان استخدامها.

وأضاف في رسالة موجهة لصغار السن أن قضاء ‌الأطفال لساعات طويلة أمام ‌الشاشات لا يسمح لعقولهم ​بالراحة ‌ويعرضهم ⁠لضغط ​متزايد من المقارنة ⁠المستمرة والتعليقات عبر الإنترنت.

وقال إنه تحدث إلى الكثير من أولياء الأمور الذين أشاروا إلى اضطراب النوم لدى أطفالهم وشعورهم بالقلق وقضائهم لساعات طويلة على هواتفهم.

رئيس الوزراء اليوناني كيرياكوس ميتسوتاكيس (أ.ب)

وحظرت الحكومة اليونانية بالفعل استخدام الجوالات في المدارس وأنشأت منصات تمكن أولياء ⁠الأمور من الرقابة على أبنائهم والحد ‌من الوقت الذي يقضونه ‌أمام الشاشات.

وقال ميتسوتاكيس: «اليونان ستصبح ​من أولى الدول التي ‌تتخذ مثل تلك المبادرة... وأنا واثق في أنها ‌لن تكون الأخيرة. هدفنا أن نحث الاتحاد الأوروبي على اتخاذ هذا المسار أيضاً».

وصارت أستراليا أول دولة في العالم تحظر وسائل التواصل الاجتماعي للمستخدمين الأقل من ‌16 عاماً في ديسمبر (كانون الأول).

وأعلنت شركات «ميتا» و«سناب شات» و«تيك ⁠توك» أنها ⁠لا تزال تعتقد أن الحظر الأسترالي لن يحمي صغار السن، لكنها التزمت بالامتثال له.

وتُشدد دول أخرى أيضاً القيود المتعلقة بوسائل التواصل الاجتماعي، إذ تدرس المملكة المتحدة وماليزيا وفرنسا والدنمارك وبولندا حظرها أو توشك على سن تشريعات لحظرها.

وفي رسالة منفصلة إلى رئيسة المفوضية الأوروبية أورسولا فون دير لاين دعا ميتسوتاكيس إلى اتخاذ إجراءات منسقة على مستوى الاتحاد الأوروبي، مؤكداً ​أن التدابير في ​كل دولة على حدة لن تكون كافية لحماية القصر من إدمان الإنترنت.


أداة «غوغل» للذكاء الاصطناعي تفتقر إلى الدقة

أداة «غوغل» للذكاء الاصطناعي تفتقر إلى الدقة
TT

أداة «غوغل» للذكاء الاصطناعي تفتقر إلى الدقة

أداة «غوغل» للذكاء الاصطناعي تفتقر إلى الدقة

تبدو إجابات «غوغل» المُولَّدة بواسطة الذكاء الاصطناعي موثوقة، وهي تستند إلى مصادر متنوعة؛ من مواقع موثوقة، إلى منشورات «فيسبوك».

أداة تقييم إجابات «غوغل»

بهدف تقييم دقة «غوغل» وإجاباته بواسطة الذكاء الاصطناعي تحدَّث مجموعة من الصحافيين، وهم، إضافة إليّ: تريب ميكل، ديلان فريدمان، تيريزا موندريا تيرول، وكيث كولينز، مع شركات متخصصة في دراسة الذكاء الاصطناعي، قبل أن تقرر اختيار شركة أومي، ونموذج التحقق بالذكاء الاصطناعي الخاص بها «هال أومي»؛ لتقييم دقة إجابات غوغل «الذكية»، من خلال اختبار معياري شائع الاستخدام يُعرف باسم «SimpleQA».

مثال لجواب صحيح-خاطئ

في أواخر العام الماضي، كان ستيفن بونواسي يستعدّ لتناول العشاء عندما لاحظ خبراً يقول إن زوجة المصارع هالك هوغان قد ترفع دعوى قضائية بسبب وفاته. ولم يكن السيد بونواسي، محلل البيانات البالغ من العمر 41 عاماً والمقيم في تورنتو بكندا، على علم بوفاة السيد هوغان، فسأل «غوغل» عن تاريخ وفاته.

أثارت الإجابة حيرته. جاء في ملخص «نظرة عامة على الذكاء الاصطناعي» AI Overview من «غوغل»، الذي ظهر أعلى الصفحة: «لا توجد تقارير موثوقة عن وفاة هالك هوغان». وفوجئ بونواسي بما وجده أسفل الإجابة، حين رأى مقالاً من صحيفة «ديلي ميل» يناقض رد «غوغل» كان عنوانه: «غموض يكتنف وفاة هالك هوغان».

دقة نسبية

في عام 2024، بدأت «غوغل» منح الإجابات المُولَّدة بواسطة الذكاء الاصطناعي مكانة بارزة في أعلى صفحة نتائج البحث. وأسهم هذا المنتج الجديد، «نظرة عامة على الذكاء الاصطناعي»، في تحويل «غوغل» من مجمع للمعلومات إلى ناشر.

وأظهر تحليل حديث لـ«نظرة عامة على الذكاء الاصطناعي» أن الأداة دقيقة في تسع من كل عشر مرات تقريباً.

مئات الآلاف من الإجابات الخاطئة- كل دقيقة

لكن مع معالجة «غوغل» أكثر من خمسة تريليونات عملية بحث سنوياً، فهذا يعني أنها تُقدّم عشرات الملايين من الإجابات الخاطئة كل ساعة (أو مئات الآلاف من المعلومات غير الدقيقة كل دقيقة)، وفقاً لتحليلٍ أجرته شركة «أومي» الناشئة في مجال الذكاء الاصطناعي.

إجابات صحيحة «غير مدعومة بأدلة»

كما أظهرت الدراسة أن أكثر من نصف الإجابات الصحيحة كانت «غير مدعومة بأدلة»؛ أي أنها كانت تُحيل المستخدم إلى مواقع إلكترونية لا تدعم المعلومات المقدَّمة بشكل كامل. وهذا ما يجعل التحقق من دقة مراجعات الذكاء الاصطناعي أمراً صعباً.

ضرورة التدقيق الإضافي للإجابات

يُجادل بعض التقنيين بأن مراجعات الذكاء الاصطناعي من «غوغل» دقيقة إلى حد معقول، وأنها تحسّنت خلال الأشهر الأخيرة، لكن آخرين يُبدون قلقهم من أن الشخص العادي قد لا يُدرك أن هذه النتائج تحتاج إلى تدقيق إضافي.

بناءً على طلب صحيفة نيويورك تايمز، حلّل موقع «Oumi» دقة مراجعات الذكاء الاصطناعي من «غوغل» باستخدام اختبار معياري يُسمى «SimpleQA»؛ وهو اختبار شائع الاستخدام في هذا المجال لقياس دقة أنظمة الذكاء الاصطناعي. واختبرت الشركة الناشئة نظام «غوغل» في أكتوبر (تشرين الأول) الماضي، عندما جرت الإجابة عن أكثر الأسئلة تعقيداً باستخدام تقنية ذكاء اصطناعي تُسمى «جيميناي2» (Gemini 2)، ثم مرة أخرى في فبراير (شباط) من العام الحالي، بعد ترقيته إلى «جيمناي3» (Gemini 3)، وهي تقنية ذكاء اصطناعي أكثر قوة.

تحرّي الدقة

في كلتا الحالتين، ركز تحليل شركة أومي على 4326 عملية بحث على «غوغل»، ووجدت الشركة أن النتائج كانت دقيقة بنسبة 85 في المائة مع نظام «جيميناي 2»، و91 في المائة مع نظام «جيميناي 3».

قال براتيك فيرما، الرئيس التنفيذي لشركة أوكاهو، وهي شركة تساعد الناس على فهم واستخدام تقنيات الذكاء الاصطناعي، إن تقنية «غوغل» دقيقة تقريباً مثل أيٍّ من أنظمة الذكاء الاصطناعي الرائدة. وهو ينصح بالتحقق من معلوماتها. قال: «لا تثق أبداً بمصدر واحد. قارنْ دائماً ما تحصل عليه بمصدر آخر».

وتقر «غوغل» بأن مراجعات الذكاء الاصطناعي الخاصة بها قد تحتوي على أخطاء. ويؤكد النص الصغير أسفل كل «نظرة عامة على الذكاء الاصطناعي» ما يلي: «قد يرتكب الذكاء الاصطناعي أخطاءً، لذا تحققْ من الإجابات».

لكن «غوغل» قالت إن تحليل «أومي» كان معيباً لأنه اعتمد على اختبار معياري بنته شركة أوبن إيه آي، والذي احتوى بدوره على معلومات غير صحيحة. وقال نيد أدريانس، من «غوغل»، في بيان: «في هذه الدراسة ثغرات خطيرة».

تفاوت الإجابات

تقدم «نظرة عامة على الذكاء الاصطناعي» نوعين من المعلومات: إجابات عن الأسئلة، وقوائم بمواقع الويب التي تُدعم تلك الإجابات.

يصعب تقييم مراجعات الذكاء الاصطناعي لأن نظام «غوغل» قد يُولّد استجابة جديدة لكل استعلام، فإذا تلقّى محرك بحث «غوغل» الاستعلام نفسه في أوقات مختلفة - حتى لو كانت بفارق ثوانٍ - فقد يُنتج إجابة صحيحة، وأخرى خاطئة.

ولتحديد دقة أنظمة الذكاء الاصطناعي، تستخدم شركات مثل «Oumi» أنظمتها الخاصة للتحقق من كل إجابة. هذه هي الطريقة الوحيدة الفعّالة للتحقق من عدد كبير من الإجابات. تكمن مشكلة هذه الطريقة في أن نظام الذكاء الاصطناعي الذي يُجري التحقق قد يرتكب أخطاءً أيضاً.

اختلاف دقة «جيميناي» ومحرك «غوغل»

نشرت «غوغل» نتائج اختبارات مشابهة لتلك التي أنتجتها «Oumi» في تحليل «غوغل» الخاص لـ«Gemini 3» - التقنية التي تدعم مراجعات الذكاء الاصطناعي - وجدت أن النموذج أنتج معلومات خاطئة بنسبة 28 في المائة. وقالت الشركة إن مراجعات الذكاء الاصطناعي، التي تستقي المعلومات من محرك بحث «غوغل» قبل توليد الاستجابات، كانت أكثر دقة من «جيميناي» عند تشغيله بمفرده.

ومع تحسين «غوغل» تقنيات الذكاء الاصطناعي لديها بفضل التقنيات الحديثة، أصبحت إجابات «غوغل» المُولّدة بواسطة الذكاء الاصطناعي أكثر دقة.

من جهة أخرى، يتساءل مانوس كوكوميديس، الرئيس التنفيذي لشركة أومي: «حتى عندما تكون الإجابة صحيحة، كيف يمكن التأكد من صحتها؟ كيف يمكن التحقق منها؟».

احتمالات وتخمينات وسوء تفسير

تستخدم أنظمة الذكاء الاصطناعي الحالية الاحتمالات الرياضية لتخمين أفضل إجابة، وليس مجموعة صارمة من القواعد التي وضعها مهندسون بشريون. وهذا يعني أنها ترتكب عدداً من الأخطاء. وأحياناً يُحدّد نظام غوغل «نظرة عامة على الذكاء الاصطناعي» موقعاً إلكترونياً موثوقاً، لكنه يُسيء تفسير معلوماته.

التلاعب بالأخبار

تواجه مراجعات الذكاء الاصطناعي تحدياً آخر: إمكانية التلاعب بها.

وتقول ليلي راي، نائبة رئيس قسم البحث بالذكاء الاصطناعي بوكالة التسويق «أمسيف»: «إذا أراد شخص أن يُعرف كخبير عالمي في مجالٍ ما، فما عليه إلا أن يكتب منشوراً على مدونته يُعلن فيه عن هذا التميز».

تُقرّ «غوغل» بهذه المشكلة، لكنها تُقلّل من شأنها. وصرح السيد أدريانس، من «غوغل»، في بيان: «تعتمد ميزات الذكاء الاصطناعي في بحثنا على معايير الترتيب والحماية نفسها التي تمنع الغالبية العظمى من الرسائل المزعجة من الظهور في نتائج البحث. معظم هذه الأمثلة عبارة عن عمليات بحث غير واقعية لن يُجريها الناس في الواقع».

تجربة صحافية للتلاعب بالأخبار

بعد سماع نظرية السيدة راي، نشر توماس جيرمان، أحد مُقدّمي بودكاست «ذا إنترفيس» على «بي بي سي»، منشوراً على مدونته بعنوان «أفضل صحافي تكنولوجيا في أكل الهوت دوغ». ووصف المنشور بطولة وهمية لأكل الهوت دوغ في ولاية ساوث داكوتا، حيث تصدّر قائمة تضم عشرة «مُتنافسين بارزين في أكل الهوت دوغ».

وبعد يوم، أجرى بحثاً على «غوغل» عن أفضل صحافيي التكنولوجيا الذين يتناولون الهوت دوغ. ووجد أن «غوغل» أدرجه في المرتبة الأولى بين ستة صحافيين تقنيين «اكتسبوا شهرةً واسعةً بفضل براعتهم في قسم الأخبار الخاص بمسابقات تناول الطعام»، مشيراً إلى فوزه بالمركز الأول في مسابقة ساوث داكوتا.

وقال جيرمان: «كان (غوغل) يعرض محتوى موقعي الإلكتروني وكأنه حقيقة مُطلقة».

*باختصار، خدمة «نيويورك تايمز»


عضلات اصطناعية تمكّن الروبوتات من رفع 100 ضعف وزنها

العضلات الاصطناعية تعمل بالهواء ما يمنح الروبوتات قدرة على رفع أوزان تصل إلى 100 ضعف وزنها (جامعة ولاية أريزونا)
العضلات الاصطناعية تعمل بالهواء ما يمنح الروبوتات قدرة على رفع أوزان تصل إلى 100 ضعف وزنها (جامعة ولاية أريزونا)
TT

عضلات اصطناعية تمكّن الروبوتات من رفع 100 ضعف وزنها

العضلات الاصطناعية تعمل بالهواء ما يمنح الروبوتات قدرة على رفع أوزان تصل إلى 100 ضعف وزنها (جامعة ولاية أريزونا)
العضلات الاصطناعية تعمل بالهواء ما يمنح الروبوتات قدرة على رفع أوزان تصل إلى 100 ضعف وزنها (جامعة ولاية أريزونا)

يطوّر باحثون في جامعة ولاية أريزونا نوعاً جديداً من «العضلات الاصطناعية» التي تعمل بالهواء، في خطوة قد تغيّر الطريقة التي تُصمم بها الروبوتات، خصوصاً في البيئات القاسية التي يصعب فيها استخدام الأنظمة التقليدية. تعتمد هذه التقنية على تصميم مستوحى من العضلات البيولوجية، حيث تُستخدم أنظمة هوائية بدلاً من المحركات الصلبة، ما يمنح الروبوتات مرونة أكبر وقدرة على الحركة في ظروف غير اعتيادية.

أحد أبرز ما يميز هذه العضلات الجديدة هو قدرتها على رفع أوزان تصل إلى نحو 100 ضعف وزنها، مع الحفاظ على حجم صغير وخفة في التصميم. هذه النسبة تعكس تحولاً مهماً في مجال الروبوتات، حيث لطالما واجهت الأنظمة التقليدية تحدياً في تحقيق توازن بين القوة والمرونة. فالروبوتات التي تعتمد على محركات كهربائية أو أنظمة ميكانيكية صلبة تكون عادة قوية، لكنها أقل قدرة على التكيف مع البيئات المعقدة. في المقابل، تتيح العضلات الهوائية الجديدة الجمع بين القوة والمرونة، ما يفتح المجال لتطبيقات أوسع.

العمل في بيئات قاسية

من بين الميزات اللافتة لهذه التقنية قدرتها على العمل في ظروف صعبة، مثل المياه شديدة الحرارة أو الأسطح الخشنة، وهي بيئات غالباً ما تعيق الروبوتات التقليدية أو تتسبب في تعطّلها.

ويشير الباحثون إلى أن هذا النوع من العضلات يمكن أن يساعد الروبوتات على «تجاوز العوائق التي تُبقي نظيراتها التقليدية خارج الخدمة»، ما يعزز من استخدامها في مهام مثل الاستكشاف أو العمليات الصناعية المعقدة.

ميزة أخرى مهمة تكمن في أن هذه الأنظمة يمكن أن تعمل دون الاعتماد الكامل على مصادر طاقة تقليدية ثقيلة، ما يقلل من الحاجة إلى البطاريات أو الأنظمة الكهربائية المعقدة. هذا التطور قد يساهم في تصميم روبوتات أكثر استقلالية، قادرة على العمل لفترات أطول، خصوصاً في الأماكن التي يصعب فيها إعادة الشحن أو الصيانة.

من «الصلابة» إلى «المرونة»

تعكس هذه التقنية تحولاً أوسع في مجال الروبوتات نحو ما يُعرف بـ«الروبوتات اللينة» (Soft Robotics)، وهي أنظمة تعتمد على مواد مرنة تحاكي الطبيعة بدلاً من الهياكل المعدنية الصلبة. فالعضلات الاصطناعية، بشكل عام، تُصمم لتقليد طريقة عمل العضلات البشرية، حيث يمكنها الانقباض والتمدد استجابة لمحفزات مختلفة مثل الضغط أو الحرارة أو الكهرباء. وفي حالة العضلات الهوائية، يتم استخدام ضغط الهواء لتحفيز الحركة، ما يسمح بتحقيق حركات أكثر سلاسة وتكيفاً مع البيئة.

رغم إمكاناتها لا تزال تواجه تحديات في التحكم الدقيق ودمجها ضمن أنظمة روبوتية متكاملة (جامعة ولاية أريزونا)

إمكانات تطبيقية واسعة

لا تقتصر أهمية هذا التطور على الجانب النظري، بل تمتد إلى تطبيقات عملية متعددة. فهذه العضلات يمكن أن تُستخدم في عمليات الإنقاذ في البيئات الخطرة وفحص البنية التحتية الصناعية والتطبيقات الطبية، مثل الأجهزة المساعدة وأيضاً في الزراعة والعمل في التضاريس غير المستوية.

تكمن أهمية هذه التطبيقات في أن الروبوتات القادرة على التكيف مع بيئات غير متوقعة قد تقلل من المخاطر التي يتعرض لها البشر في مثل هذه المهام. ورغم هذه المزايا، لا تزال هناك تحديات تقنية مرتبطة بالتحكم الدقيق في هذه الأنظمة، خاصة أن العضلات الهوائية تعتمد على ديناميكيات غير خطية، ما يجعل التحكم في حركتها أكثر تعقيداً مقارنة بالأنظمة التقليدية. كما أن دمج هذه العضلات ضمن أنظمة روبوتية متكاملة يتطلب تطوير برمجيات وتحكمات قادرة على التعامل مع هذا النوع من الحركة المرنة.

خطوة نحو جيل جديد من الروبوتات

يمثل هذا الابتكار جزءاً من مسار أوسع نحو تطوير روبوتات أكثر شبهاً بالكائنات الحية، من حيث الحركة والتفاعل مع البيئة. فبدلاً من الاعتماد على القوة الصلبة، يتجه الباحثون نحو أنظمة تجمع بين القوة والمرونة والقدرة على التكيف. وفي هذا السياق، لا يُنظر إلى العضلات الاصطناعية فقط باعتبارها بديلاً للمحركات، بل كونها إعادة تعريف لكيفية تصميم الروبوتات نفسها، بما يتناسب مع متطلبات بيئات أكثر تعقيداً.

يظهر هذا التطور اتجاهاً متزايداً في الهندسة الحديثة نحو الاقتراب من الطبيعة بدلاً من الابتعاد عنها. فالأنظمة البيولوجية، مثل العضلات، أثبتت كفاءة عالية في تحقيق التوازن بين القوة والمرونة، وهو ما تسعى هذه التقنيات إلى محاكاته.