برامج ذكاء صناعي منفلتة تزوّر الوجوه والأصوات

تقنية «التزوير العميق» تزدهر مع انعدام التشريعات القانونية

يغطى الوجه بإطار من الأسلاك بهدف إجراء التغييرات بتقنية «التزوير العميق»
يغطى الوجه بإطار من الأسلاك بهدف إجراء التغييرات بتقنية «التزوير العميق»
TT

برامج ذكاء صناعي منفلتة تزوّر الوجوه والأصوات

يغطى الوجه بإطار من الأسلاك بهدف إجراء التغييرات بتقنية «التزوير العميق»
يغطى الوجه بإطار من الأسلاك بهدف إجراء التغييرات بتقنية «التزوير العميق»

تُستخدم تقنية «ديب فيك» (برنامج إلكتروني يتيح للنّاس تبديل الوجوه، والأصوات، وغيرها من السمات لابتكار محتوى رقمي مزوّر) منذ بضع سنوات لصناعة بديلٍ لإيلون ماسك وهو يروّج لعملية احتيال بواسطة العملات المشفّرة، أو «لتعرية» أكثر من 100 ألف امرأة رقمياً على منصّة تليغرام، أو لسرقة ملايين الدولارات من شركات عبر تقليد أصوات تنفيذيّيها على الهاتف.

تقنية منفلتة

تعجز السلطات في معظم أنحاء العالم عن التعامل مع هذه التقنية، حتّى إنّ القوانين التي تضبط انتشارها لا تزال قليلة جداً، على الرغم من نموّ هذا البرنامج وزيادة تطوّره ووصوله للمستخدمين.
وتأمل الصين أن تكون استثناءً في هذا المجال بعد أن أقرّت الشهر الماضي قوانين جديدة تفرض الحصول على موافقة الشخص أو صاحب موضوع المادّة التي أخضعت للتلاعب، وأن تحمل دمغات بتواقيع رقمية أو علامات مائية، وإجبار مزوّدي خدمات «ديب فيك» على توفير وسائل لـ«دحض الشائعات».
لكنّ الصين تواجه العقبات نفسها التي أدت إلى إحباط جهود سابقة لتنظيم المواد المزيّفة التي تنتجها هذه التقنية. ذلك لأنّ أسوأ مستخدميها يكونون غالباً الأصعب ضبطاً لأنّهم يعملون دون هوية، ويتأقلمون بسرعة، ويتشاركون بابتكاراتهم الصناعية من خلال منصّات إلكترونية مفتوحة. سلّطت خطوة الصين الضوء أيضاً على سببٍ آخر لتبنّي عددٍ قليلٍ من الدول قوانين ضابطة في هذا المجال، وهو شعور كثيرين بالقلق من استخدام الحكومات هذه القوانين لخنق حريّة التعبير.
ويرى خبراء التقنية أنّ مجرّد مضيّ الصين بتطبيقها لقوانينها الجديدة سيؤثّر على كيفية تعاطي حكومات أخرى مع التعلّم الآلي والذكاء الصناعي اللذين يشغّلان تقنية «ديب فيك». وبسبب السوابق القليلة في هذا المجال، يبحث المشرّعون اليوم حول العالم عن حالات اختبار للّحاق بالصين أو رفض خطوتها.
يعتبر رافيت دوتان، باحثٌ في مرحلة ما بعد الدكتوراه ومدير مختبر «كولابوريتف إي آي ريسبونسبليتي» في جامعة بيتسبرغ، أنّ «مشهد الذكاء الصناعي مثير لاهتمام السياسات العالمية، لأنّ الدول تتنافس لفرض طريقة التعامل مع هذه المسألة. نعلم أنّ القوانين آتية، لكنّنا لا نعرف ما هي بعد، إذ يوجد كثير من الاحتمالات».

تطبيقات واعدة ومخيفة

تحمل تقنيات «ديب فيك» آمالاً واعدة في قطاعات كثيرة. فقد أحيت الشرطة الهولندية العام الفائت قضية مجمّدة من عام 2003 بابتكار شخصية رقمية لضحية جريمة قتل (13 عاماً) ونشرت صوراً له يسير بين مجموعة من أصدقائه وأفراد عائلته في الزمن الحاضر. تُستخدم التقنية أيضاً للسخرية والتهكّم، وتخدم المتبضّعين الإلكترونيين في تجربة الملابس في غرف تبديل افتراضية، وفي محاكاة المتاحف، ومن قبل الممثلين الذين يأملون التحدّث بلغات عدّة في إطلاقات الأفلام الدولية. علاوةً على ذلك، استخدم باحثون من مختبر الإعلام في معهد ماساتشوستس للتقنية، وفي منظّمة اليونيسف، تقنيات مشابهة لدراسة حالات التعاطف، من خلال وضع مشاهد الحرب والدمار، التي سبّبتها الحرب السورية، على صور مدن في أميركا الشمالية وأوروبا.
في المقابل، يساهم برنامج «ديب فيك» في تطبيقاتٍ مخيفة كثيرة أيضاً، إذ يتخوّف خبراء القانون من أن سوء استخدام تقنيات «ديب فيك» يهشم ثقة الناس بشرائط المراقبة الأمنية، والكاميرات الجسدية، وغيرها من الأدلّة، «ففي قضية حضانة في إحدى المحاكم البريطانية عام 2019، قدّم وكيل أحد الأبوين مقطعاً معدّلاً يظهر الطرف الآخر وهو يهدّد الطفل بعنف».
قد يساهم المحتوى الرقمي المزوّر أيضاً بتشويه سمعة رجال الشرطة والتحريض عليهم، أو في إرسالهم في مهام كاذبة. وكانت وزارة الأمن الداخلي في الولايات المتحدة قد حذّرت من مخاطر أخرى للـ«ديب فيك»، أبرزها التنمّر الإلكتروني، والابتزاز، والتلاعب بالبورصة، والاضطرابات السياسية.
ويتوقّع بعض الخبراء أن يصبح 90 في المائة من المحتوى الإلكتروني مفبركاً خلال سنواتٍ قليلة.
وأشار تقرير لليوروبول (وكالة تطبيق القانون الأوروبية) العام الماضي إلى أنّ العدد المتزايد لمواد «ديب فيك» يمكن أن يؤدّي إلى وضعٍ يفتقر فيه النّاس إلى واقعٍ مشترك، أو يؤسس لارتباك اجتماعي حول أيّ من مصادر المعلومات يتمتّع بالموثوقية، أي ما يُعرف بـ«نهاية عالم المعلومات» أو «لا مبالاة الواقع».

فشل قانوني

تحدّث مسؤولون بريطانيون العام الفائت أيضاً عن تهديدات عدّة، أبرزها موقع إلكتروني «يعرّي النساء افتراضياً» حصد 38 مليون زيارة في الأشهر الثمانية الأولى من 2021. لكنّ الاقتراحات القاضية بوضع ضوابط لهذه التقنية في المملكة المتحدة ودول الاتحاد الأوروبي لا تزال بانتظار تحويلها إلى قوانين.
وفي الولايات المتّحدة، باءت محاولات تشكيل قوّة خاصّة لمعاينة تقنية «ديب فيك» بالفشل. ففي عامي 2019 و2021 تقدّمت عضو الكونغرس إيفيت د. كلارك، بمشروع قانون، عنوانه «الدفاع عن كلّ شخص من الإطلالات المزيفة من خلال شمل فعل الاستغلال بقانون المحاسبة»، لكنّه لا يزال بانتظار التصويت عليه. وتحدّثت كلارك عن نيّتها تقديم مشروع القانون نفسه هذا العام أيضاً.
واعتبرت كلارك أنّ قانونها، الذي سيفرض على محتوى «ديب فيك» عرض علامات مائية أو أسماء تعريفية، كان «إجراءً للحماية» على عكس القوانين الصينية التي وصفتها بأنّها «تميل إلى آليات للسيطرة».
وتستهدف القوانين المطبّقة في الولايات المتّحدة بمعظمها المقاطع المزيّفة السياسية والإباحية. من جهته، قال مارك بيرمن، عضو الحزب الديمقراطي في جمعية ولاية كاليفورنيا، الذي يمثّل أجزاء من وادي سيليكون، ويرعى هذا النوع من التشريعات، إنّه ليس على علمٍ بأيّ جهود تُبذل لإنفاذ قوانينه عبر الدعاوى القانونية أو الغرامات.
وتحظر ولايات قليلة أخرى، كنيويورك، المحتوى المزيّف الإباحي. وخلال ترشّحه لدورة أخرى في انتخابات عام 2019، قال حاكم ولاية هيوستن إنّ إعلاناً حساساً تابعاً لمرشّح آخر خرق أحد قوانين تكساس التي تحظر المحتوى السياسي المضلّل المصمّم بتقنيات «ديب فيك».
لكنّ القوانين وقرارات الحظر قد تواجه صعوبة في احتواء تقنية صُمّمت للتأقلم والتحسّن المستمر. فقد أثبت باحثون من مؤسسة راند للأبحاث والتطوير مدى صعوبة تحديد محتوى «ديب فيك»، بعرض مجموعة مقاطع فيديو على أكثر من 3 آلاف شخص، طلبوا منهم تحديد المقاطع المزوّرة (كمقطع «ديب فيك» الذي أظهر الناشطة في مجال المناخ غريتا تونبرغ وهي تتنصّل من نظرية وجود التغير المناخي).
أخطأت المجموعة المشاركة في ثلث الحالات، حتّى إنّ عشرات الطلّاب الذين يدرسون التعلّم الآلي في جامعة كارنيغي ميلون أخطأوا في أكثر من 20 في المائة من المرّات.
وتحاول مبادرات من شركات كـ«مايكروسوفت» و«أدوبي» اليوم إثبات أصالة المواد الإعلامية وتدريب تقنيات الاعتدال للتعرّف على التناقضات التي تكشف المحتوى المفبرك. لكنّ المعاناة في التفوق على صانعي محتوى «ديب فيك» حقيقية ومتواصلة، لأنّهم يكتشفون غالباً وسائل جديدة لتصحيح العيوب، وإزالة العلامات المائية المعرّفة، وتعديل البيانات الوصفية لتغطية آثارهم.
وأخيراً، يقول جاريد موندشين، عالم في مؤسسة راند: «يوجد سباق تسلّح تقني بين صانعي مقاطع (ديب فيك) وراصديها، وحتّى يحين وقت البدء بابتكار وسائل تحسّن رصد المحتوى المزوّر، سيكون من الصعب على أيّ تشريعات، مهما كثرت، أن تضع حداً لهذا الموضوع».

* خدمة «نيويورك تايمز»


مقالات ذات صلة

«وول ستريت» ترتفع بعد تقرير التضخم الأميركي المشجع

الاقتصاد متداولون يعملون في بورصة نيويورك (أ.ب)

«وول ستريت» ترتفع بعد تقرير التضخم الأميركي المشجع

ارتفعت الأسهم الأميركية يوم الخميس بعد صدور تقرير مُشجع بشأن التضخم، ما قد يتيح لمجلس الاحتياطي الفيدرالي مزيداً من المرونة في خفض أسعار الفائدة العام المقبل.

«الشرق الأوسط» (نيويورك)
العالم البابا ليو الرابع عشر يخاطب الناس في ساحة القديس بطرس بمدينة الفاتيكان يوم 17 ديسمبر 2025 (إ.ب.أ)

بابا الفاتيكان ينتقد توظيف الدين لتبرير العنف والنزعة القومية

انتقد البابا ليو الرابع عشر، بابا الفاتيكان، اليوم الخميس، الزعماء السياسيين الذين يستغلون المعتقدات الدينية لتبرير الصراعات أو السياسات القومية.

«الشرق الأوسط» (الفاتيكان)
الاقتصاد الوتيد رئيس «إس تي سي» وطارق أمين رئيس «هيومان» خلال توقيع الاتفاقية بحضور الأمير محمد بن خالد الفيصل رئيس مجلس «إس تي سي» ويزيد الحميد نائب محافظ الاستثمارات العامة (الشرق الأوسط)

«سنتر3» و«هيوماين» تعلنان عن مراكز بيانات للذكاء الاصطناعي بسعة 1 غيغاواط في السعودية

أعلنت شركة «سنتر3» التابعة لمجموعة «إس تي سي» وشركة «هيوماين» إطلاق مشروع مشترك استراتيجي لبناء مراكز بيانات مخصصة للذكاء الاصطناعي في السعودية

«الشرق الأوسط» (الرياض)
علوم الذكاء الاصطناعي يتسوّق لك... و«فيزا» تضمن عدم تعرضك للاحتيال

الذكاء الاصطناعي يتسوّق لك... و«فيزا» تضمن عدم تعرضك للاحتيال

ضرورة وضع أُطر أمنية جديدة تتحقق من هوية كل من الإنسان ووكيل الذكاء الاصطناعي

تكنولوجيا رودني بروكس

أبحاث الروبوتات… «ضلَّت طريقها»

شكوك في قدرة الروبوتات وفي سلامة استخدام الإنسان لها

تيم فيرنهولز (نيويورك)

أبحاث الروبوتات… «ضلَّت طريقها»

رودني بروكس
رودني بروكس
TT

أبحاث الروبوتات… «ضلَّت طريقها»

رودني بروكس
رودني بروكس

يقول رودني بروكس: «أحب أن أنظر إلى ما يفعله الجميع، وأحاول أن أجد قاسماً مشتركاً يفترضونه جميعاً ضمنياً... لكنني أنكر وجوده».

رائد في علم الروبوتات

كان بروكس، رائد علم الروبوتات، يتحدث مباشرةً إلى الكاميرا في فيلم إيرول موريس «سريع، رخيص، وخارج عن السيطرة» عام 1997، الذي يجمع بين مقابلات مع بروكس، ومرّوض أسود، وبستاني متخصص في تقليم الأشجار، وباحث يدرس فئران الخلد العارية. قال بروكس حديثاً عن الفيلم: «أربعة رجال، كان كل منهم يحاول السيطرة على الطبيعة بطريقته الخاصة، وكنا جميعاً نفشل».

في الفيلم، كان بروكس يصف إنجازاً مبكراً. ففي ثمانينيات القرن الماضي، قيّدت قيود الحوسبة التقنية تطوير الروبوتات. لكنه وأثناء مراقبته للحشرات، أدرك أنها تمتلك قدرات عقلية محدودة، لكنها أكثر كفاءة بكثير من روبوتاته، وأن محاكاة بيولوجيا الحيوانات أذكى من محاولة التحكم في كل جانب من جوانب سلوك الروبوت عبر البرمجة. وقادته نجاحاته إلى التنبؤ بانتشار الروبوتات «في كل مكان حولنا».

بروكس مدير مختبر معهد ماساتشوستس للتكنولوجيا السابق، الذي كرّس حياته المهنية لجعل الآلات الذكية جزءاً من حياتنا اليومية والمشارك في ابتكار مكنسة «رومبا» الروبوتية الشهيرة، وهو في سن السبعين، يجد نفسه الآن متشككاً.

شكوك بقدرة الروبوتات... وأموال مهدورة

يعد رواد الأعمال اليوم بروبوتات لا تبدو بشرية فحسب، بل قادرة أيضاً على القيام بكل ما يستطيع الإنسان فعله.

يضخ مستثمرو التكنولوجيا مليارات الدولارات في هذا المسعى، لكن بروكس يرى أن الروبوتات البشرية متعددة الأغراض لن تعود إلى منازلنا قريباً، وأنها ليست آمنة بما يكفي للوجود حول البشر. وفي سبتمبر (أيلول) الماضي، نشر مقالاً نقدياً لاذعاً خلص فيه إلى أنه خلال الخمسة عشر عاماً المقبلة، «ستُهدر أموال طائلة في محاولة استخلاص أي تحسينات ممكنة من الروبوتات الشبيهة بالبشر الحالية. لكن هذه الروبوتات ستكون قد ولَّت منذ زمن بعيد، وسيتم نسيانها في الغالب».

أثار منشوره على مدونته ضجة كبيرة في عالم الروبوتات الصغير. كان هذا الشخص أسطورة في هذا المجال، وقد ساهمت رؤاه في انتشار موضة الروبوتات الشبيهة بالبشر.

وكتب كريس باكستون، الباحث في مجال الذكاء الاصطناعي والروبوتات، معلقاً: «سألني ما لا يقل عن اثني عشر شخصاً عما إذا كنت أوافق على ما قاله بعد وقت قصير من نشره (وأنا لا أوافق)» على ما قاله.

أمثلة تاريخية

ويتذكر بروكس سيارة إرنست ديكمانز ذاتية القيادة، التي انطلقت في رحلاتها عبر أوروبا عام 1987. كان حاضراً عندما هزم حاسوب «آي بي إم» العملاق «ديب بلو» بطل العالم في الشطرنج غاري كاسباروف عام 1997، وعندما تنبأ باحث الذكاء الاصطناعي جيف هينتون عام 2016 بأن علم الأشعة سيصبح من الماضي خلال خمس سنوات لأن برامج التعلم الآلي ستؤدي أعماله بشكل أفضل.

كانت كل هذه تطورات مهمة، لكن السائقين ولاعبي الشطرنج واختصاصيي الأشعة ما زالوا بيننا.

يصر بروكس على أنه يتصرف بواقعية. قال في مقابلة: «سنمر بفترة من الحماس الشديد، ثم ستأتي فترة من خيبة الأمل».

سباق تسلح نحو الروبوتات الشبيهة بالبشر

يقول بروكس، الذي يعمل الآن في مؤسسة «روبست»، إن المظهر الخارجي للروبوت يُوحي بقدراته. فالروبوتات المستخدمة على نطاق واسع اليوم مصممة لمهام محددة في ظروف معينة، وتبدو كذلك - كذراع تؤدي نفس الحركة المتكررة على خط الإنتاج، أو رافعات المنصات الآلية في مستودعات «أمازون». إنها ليست مبهرة. ويضيف: «يرى الناس الشكل الشبيه بالبشر، فيعتقدون أنه قادر على فعل كل ما يفعله الإنسان».

بعبارة أخرى، تُعد الروبوتات الشبيهة بالبشر فكرة مثالية لوادي السيليكون، حيث يُمثل النمو المحتمل كل شيء بالنسبة للشركات المدعومة برأس المال المغامر.

طموحات أم أوهام؟

لهذا السبب يبدو أن شركة تسلا، المملوكة لإيلون ماسك، تُراهن بكل شيء على روبوتها «أوبتيموس». في أكتوبر (تشرين الأول) الماضي، صرّح ماسك بأن بناء مثل هذه الروبوتات على نطاق واسع يُمثّل «معضلة مالية لا نهائية»، وتوقّع أن روبوت شركته «قد يُحقق إنتاجية تفوق إنتاجية الإنسان بخمسة أضعاف سنوياً لقدرته على العمل على مدار الساعة». ويعتقد، من بين أمور أخرى، أن أوبتيموس سيكون جراحاً بارعاً، وهو ادعاء جريء، إذ تُعدّ البراعة البشرية من أصعب التحديات في مجال الروبوتات.

ليس ماسك الوحيد الذي يطمح إلى تحقيق أهداف كبيرة. فمن بين شركات أخرى، جمعت شركة Figure AI الناشئة ما يقارب ملياري دولار منذ عام 2022 لتطوير خط إنتاجها من الروبوتات الشبيهة بـ C-3PO، التي تُستخدم في مجالات متنوعة من التصنيع إلى رعاية المسنين. كما يمكنك إنفاق 20 ألف دولار للحصول على روبوت من إنتاج شركة 1X Technologies في بالو ألتو، ووضعه في منزلك العام المقبل، ولكن سيتم دعم استقلاليته المحدودة من قِبل موظفي الشركة، الذين سيتحكمون به عن بُعد ضمن خطة لتعليمه مهامَ جديدة.

صعوبة محاكاة البشر

هذه ليست سوى أحدث محاولة لتحقيق ما وصفه بروكس وزملاؤه في حينه في ورقة بحثية نُشرت عام 1999 بتطوير «الكأس المقدسة». وقد تعثرت المحاولات السابقة لبناء روبوتات بشرية متعددة الأغراض بسبب صعوبة المشي على قدمين، وغيرها من الصعوبات المتعلقة بمحاكاة الشكل البشري باستخدام الإلكترونيات.

ثم هناك العدد الهائل من المواقف التي قد يجد الإنسان نفسه فيها. كيف يُمكن كتابة برنامج يُساعد الروبوت، لحل إحدى المهام الروتينية الشائعة التي يُمكن الاستعانة بمصادر خارجية لتنفيذها، على التنقل في كل منزل، وجمع الغسيل، وفرزه؟

الذكاء الاصطناعي التوليدي

يُقدم الذكاء الاصطناعي التوليدي إجابة جديدة: تعليم الروبوت القيام بذلك بنفس الطريقة التي نُعلم بها أجهزة الكمبيوتر التعرف على الأشخاص، أو نسخ التسجيلات الصوتية، أو الاستجابة لطلبات مثل «اكتب أغنية راب من التسعينيات».

يُعدّ تدريب الشبكات العصبية باستخدام كميات هائلة من البيانات تقنيةً مُثبتة، وهناك كمّ هائل من البيانات التي تُظهر البشر وهم يتحركون في بيئتهم - عقود من اللقطات المصورة لأشخاص يقومون بأعمال مختلفة تُغذّي مراكز البيانات.

قد تبدو النتائج مُبهرة، على الأقل في مقاطع الفيديو، حيث يُمكن رؤية روبوتات بشرية من شركة Figure وغيرها من الشركات وهي تطوي الملابس، أو تُرتّب الألعاب، أو تُصنّف قطع الغيار في مصنع BMW بولاية كارولاينا الجنوبية.

الإنسان وأخطار الروبوت

لكن ما لا يُرى في معظم مقاطع الفيديو هو وجود أشخاص بالقرب من الروبوتات. يقول بروكس إنه لن يقترب من أي روبوت بشري لمسافة تقل عن متر واحد. ويضيف أنه إذا - وعندما - فقدت هذه الروبوتات توازنها، فإن الآليات القوية التي تجعلها مفيدة، تُحوّلها إلى أداة خطرة.

تُلزم لوائح السلامة عموماً الأفراد بالابتعاد عن الروبوتات في البيئات الصناعية. ويقول آرون براذر، مدير قسم الروبوتات والأنظمة المستقلة في ASTM International، وهي منظمة معنية بوضع المعايير، إن الروبوتات البشرية ليست غير آمنة بطبيعتها، ولكنها تتطلب إرشادات واضحة، خاصةً عند خروجها من البيئات التي تدرب فيها البشر على العمل جنباً إلى جنب معها.

ويضيف براذر: «بالنسبة للروبوتات التي تدخل المنازل، وخاصة الروبوتات الشبيهة بالبشر التي يتم التحكم بها عن بُعد، فنحن في منطقة جديدة».

في نوفمبر (تشرين الثاني) الماضي، رفع رئيس قسم سلامة المنتجات السابق في شركة «فيغر» Figure دعوى قضائية ضد الشركة بتهمة الفصل التعسفي، مدعياً أنه طُرد بعد محاولته تطبيق إرشادات سلامة صارمة. رفضت الشركة التعليق على تقنيتها، لكن أحد ممثليها نفى الادعاءات الواردة في الدعوى، قائلاً إن الموظف فُصل بسبب ضعف أدائه. من جهته، قال ممثل عن شركة 1X إن روبوتها المنزلي يعتمد على آليات جديدة «تجعله آمناً ومتوافقاً بشكل فريد مع البشر».

قدرة الأصابع الحسّية المذهلة... يصعب ترجمتها للآلات

يشكّك بروكس بشدة في قدرة الشبكات العصبية على حلّ مشكلة البراعة. لا يمتلك البشر لغةً لجمع وتخزين ونقل البيانات المتعلقة باللمس، كما هو الحال بالنسبة للغة والصور. تجمع قدرة أصابعنا الحسية المذهلة أنواعاً شتى من المعلومات التي يصعب علينا ترجمتها للآلات. ويرى بروكس أن البيانات المرئية التي يفضلها الجيل الجديد من الشركات الناشئة في مجال الروبوتات لن تتمكن ببساطة من محاكاة ما نستطيع فعله بأصابعنا.

ويقول بروكس: «لقد صنع طلابي العديد من الأيدي والأذرع، وشحنوا عشرات الآلاف من أذرع الروبوت. أنا على يقين تام بأن الروبوتات الشبيهة بالبشر لن تصل إلى مستوى قدرات التلاعب (الحركي) البشري».

يجادل الباحثون بأنه إذا لم تكن البيانات المرئية وحدها كافية، فيمكنهم إضافة مستشعرات لمسية إلى روبوتاتهم، أو استخدام البيانات الداخلية التي يجمعها الروبوت عند تشغيله عن بُعد بواسطة مستخدم بشري. ولا يزال من غير الواضح ما إذا كانت هذه التقنيات ستكون رخيصة بما يكفي لجعل هذه الشركات مستدامة.

لكن هناك أيضاً احتمالات عديدة بين براعة الإنسان وفشل الروبوت. يقول براس فيلاغابودي، كبير مسؤولي التكنولوجيا في شركة أجيليتي روبوتيكس: «يطرح بروكس العديد من النقاط المهمة، لكنني أختلف معه في نقطة واحدة، وهي أننا بحاجة إلى بلوغ مستوى براعة الإنسان لنستفيد من الروبوتات متعددة الأغراض».

واقعي... لا متشائم

يصف بروكس نفسه بأنه واقعي، لا متشائم. ويكمن قلقه الرئيسي في أن التركيز المفرط على أحدث أساليب التدريب سيؤدي إلى إهمال أفكار واعدة أخرى. ويتوقع أن تعمل الروبوتات يوماً ما جنباً إلى جنب مع البشر، وأننا قد نطلق عليها اسم «الروبوتات الشبيهة بالبشر»، لكنها ستكون، كما يقول، مزودة بعجلات وأذرع متعددة، وربما لن تكون متعددة الأغراض.

وهو يعمل حالياً فوق مستودع النماذج الأولية في سان كارلوس، كاليفورنيا، حيث تتعلم روبوتات شركة روبست عملها، لكنه يتوقع الابتعاد عن العمل في الشركات خلال السنوات القليلة المقبلة. ليس للتقاعد، بل لكتابة كتاب عن طبيعة الذكاء، ولماذا لن يتمكن البشر من ابتكاره اصطناعياً قبل 300 عام أخرى.

يقول عن حلمه المتنامي بالذكاء الاصطناعي: «لقد كان هذا حلمي طوال حياتي». ويضيف: «ما أكرهه الآن هو الذكاء الاصطناعي العام. لطالما سعينا نحو الذكاء الاصطناعي العام! وقريباً سيُطلقون عليه اسم الذكاء الاصطناعي الفائق».

«لا أعرف ما سيأتي بعد ذلك، لكنه سيكون الذكاء الاصطناعي الخارق».

* باختصار، خدمة «نيويورك تايمز».


خبراء يحذرون: الذكاء الاصطناعي قد ينفذ هجمات إلكترونية بمفرده

صورة مركبة عن الذكاء الاصطناعي (رويترز)
صورة مركبة عن الذكاء الاصطناعي (رويترز)
TT

خبراء يحذرون: الذكاء الاصطناعي قد ينفذ هجمات إلكترونية بمفرده

صورة مركبة عن الذكاء الاصطناعي (رويترز)
صورة مركبة عن الذكاء الاصطناعي (رويترز)

حذرت مجموعة من الخبراء من قيام نماذج الذكاء الاصطناعي بتحسين مهاراتها في الاختراق، مشيرين إلى أن قيامها بتنفيذ هجمات إلكترونية بشكل كامل بمفردها يبدو أنه «أمر لا مفر منه».

وبحسب موقع «أكسيوس»، سيُدلي قادة من شركتي «أنثروبيك» و«غوغل» بشهادتهم اليوم أمام لجنتين فرعيتين تابعتين للجنة الأمن الداخلي بمجلس النواب الأميركي، حول كيفية إعادة تشكيل الذكاء الاصطناعي والتقنيات الناشئة الأخرى لمشهد التهديدات الإلكترونية.

وكتب لوغان غراهام، رئيس فريق اختبار الذكاء الاصطناعي في «أنثروبيك»، في شهادته الافتتاحية التي نُشرت حصرياً على موقع «أكسيوس»: «نعتقد أن هذا هو المؤشر الأول لمستقبل قد تُمكّن فيه نماذج الذكاء الاصطناعي، على الرغم من وجود ضمانات قوية، الجهات المُهدِّدة من شنّ هجمات إلكترونية على نطاق غير مسبوق».

وأضاف: «قد تصبح هذه الهجمات الإلكترونية أكثر تعقيداً من حيث طبيعتها وحجمها».

وحذرت شركة «أوبن إيه آي»، الأسبوع الماضي، من أن نماذج الذكاء الاصطناعي المستقبلية ستمتلك على الأرجح قدرات سيبرانية عالية الخطورة، مما يقلل بشكل كبير من المهارة والوقت اللازمين لتنفيذ أنواع معينة من الهجمات السيبرانية.

بالإضافة إلى ذلك، نشر فريق من الباحثين في جامعة ستانفورد ورقة بحثية توضح كيف اكتشف برنامج ذكاء اصطناعي يُدعى أرتميس ثغرات في إحدى الشبكات التابعة لقسم الهندسة بالجامعة، متفوقاً على 9 من أصل 10 باحثين بشريين شاركوا في التجربة.

كما أفاد باحثون في مختبرات Irregular Labs، المتخصصة في اختبارات الضغط الأمني ​​على نماذج الذكاء الاصطناعي الرائدة، أنهم لاحظوا «أدلة متزايدة» على تحسن نماذج الذكاء الاصطناعي في مهام الهجوم السيبراني.

ويشمل ذلك تحسينات في الهندسة العكسية، وبناء الثغرات، وتسلسل الثغرات، وتحليل الشفرات.

وقبل ثمانية عشر شهراً فقط، كانت تلك النماذج تعاني من «قدرات برمجية محدودة، ونقص في عمق الاستدلال ومشكلات أخرى»، كما أشارت شركة Irregular Labs.

وأضافت الشركة: «تخيلوا ما ستكون قادرة عليه بعد ثمانية عشر شهراً من الآن».

لكن، على الرغم من ذلك، لا تزال الهجمات الإلكترونية التي تعتمد كلياً على الذكاء الاصطناعي بعيدة المنال. ففي الوقت الراهن، تتطلب هذه الهجمات أدوات متخصصة، أو تدخلاً بشرياً، أو اختراقاً لأنظمة المؤسسات.

وقد تجلى ذلك بوضوح في تقرير «أنثروبيك» الصادم الشهر الماضي، إذ اضطر قراصنة الحكومة الصينية إلى خداع برنامج كلود للذكاء الاصطناعي والتابع للشركة ليقنعوه بأنه يُجري اختبار اختراق عادي قبل أن يبدأ باختراق المؤسسات.

وسيُخصص المشرعون جلسة الاستماع اليوم (الأربعاء) للبحث في الطرق التي يستخدم بها قراصنة الدول ومجرمو الإنترنت الذكاء الاصطناعي، وما إذا كانت هناك حاجة إلى أي تغييرات في السياسات واللوائح التنظيمية لتحسين التصدي لهذه الهجمات.


5 توقعات لدور الذكاء الاصطناعي المتنامي في الإعلام عام 2026

5 توقعات لدور الذكاء الاصطناعي المتنامي في الإعلام عام 2026
TT

5 توقعات لدور الذكاء الاصطناعي المتنامي في الإعلام عام 2026

5 توقعات لدور الذكاء الاصطناعي المتنامي في الإعلام عام 2026

يدخل قطاع الإعلام مرحلة محورية في علاقته بالذكاء الاصطناعي، تتسم بتسارع تبنيه وازدياد التحديات. وفيما يلي خمسة توقعات رئيسية لعام 2026، تسلط الضوء على كيفية إعادة تشكيل الذكاء الاصطناعي للصحافة والنشر والعلاقات العامة، كما كتب بيت باشال (*):

حقوق النشر

1.تفاقم نزاعات حقوق النشر

من المتوقع أن يتفاقم الجدل العالق حول حقوق النشر بين الناشرين وشركات الذكاء الاصطناعي قبل أن يتحسن. ورغم وجود اتفاقيات ترخيص، فإن التوتر الأساسي لا يزال قائماً: إذ يطالب الناشرون بتعويضات مقابل استخدام المحتوى، بينما تدافع شركات الذكاء الاصطناعي عن مبدأ الاستخدام العادل.

يلجأ كثير من الناشرين حالياً إلى حظر برامج زحف الذكاء الاصطناعي، ما يحد من الوصول إلى البيانات الحديثة، ويجعل أدوات الذكاء الاصطناعي أقل تنافسية. ومع ذلك، تتمتع «غوغل» بميزة فريدة نظراً لتوحيد محرك البحث وبرامج زحف الذكاء الاصطناعي لديها، فلا يمكن لأي ناشر حظر محرك بحث «غوغل».

ويضع هذا الوضع المنافسين، مثل «أوبن إيه آي» و«بيربليكسيتي»، في موقف غير مواتٍ، ويتوقع باشال أن تُعطي شركات الذكاء الاصطناعي الأولوية للتنافسية على حساب الامتثال لأوامر الآخرين.

غرفة الأخبار

2. تحوّل غرف الأخبار نحو منتجات الذكاء الاصطناعي لجني الإيرادات

يتطور دور الذكاء الاصطناعي في غرف الأخبار من مجرد أدوات لرفع الكفاءة إلى منتجات مُدرّة للدخل.

ويعكس تبني صحيفة «نيويورك تايمز» للذكاء الاصطناعي في مجال النسخ وإدارة وسائل التواصل الاجتماعي ازدياد الثقة بهذه التقنية. والأهم من ذلك، أن مبادرات مثل «Times AI Agent»، التي تُحوّل الأرشيفات إلى مجموعات بيانات جاهزة للذكاء الاصطناعي، تُشير إلى توجه نحو منتجات الذكاء الاصطناعي القابلة للاستثمار.

وبينما لا تزال الربحية غير مؤكدة، فإن الناشرين يُبدون استعداداً كبيراً للتجربة، على الرغم من الجدل الدائر، مثل ردة فعل نقابة «بوليتيكو» (Politico) على أداة ذكاء اصطناعي لقسمها المتميز. ويُشير هذا التوجه إلى أن الذكاء الاصطناعي سيُصبح جزءاً لا يتجزأ من استراتيجيات المنتجات التي تهدف إلى تحسين الأرباح.

انتعاش قطاع العلاقات العامة

3. نهضة العلاقات العامة «الرشيقة»

على عكس التوقعات بتراجعها، تشهد العلاقات العامة انتعاشاً مدفوعاً بالذكاء الاصطناعي. يُولي الذكاء الاصطناعي التوليدي أهميةً بالغةً للمصداقية عبر منصات متعددة، ما يجعل الاستشهاد الواسع النطاق أكثر أهمية من أي وقت مضى. تُعزز هذه الديناميكية أهمية العلاقات العامة، حيث يُسهم تأمين التغطية - حتى على المواقع الصغيرة - في تعزيز الظهور في الأنظمة البيئية القائمة على الذكاء الاصطناعي.

مع ذلك، يواجه القطاع ضغوطاً لتبني الذكاء الاصطناعي في توليد المحتوى لخفض التكاليف، ما يُجبر شركات العلاقات العامة على أن تُصبح أكثر رشاقةً وذكاءً. والنتيجة هي قطاع علاقات عامة مُعزز ولكنه مُتحول، يتكيف مع تأثير الذكاء الاصطناعي على المحتوى والمصداقية.

أصالة الكتابة البشرية

4. الأصالة تُعيد تأكيد ذاتها

على الرغم من المخاوف من هيمنة الذكاء الاصطناعي على الصحافة، فإن الكتابة البشرية تظل أساسية. فبينما يُمكن للذكاء الاصطناعي البحث والكتابة، فإن استخدامه يُغير ثقة الجمهور وعلاقاته.

استعادت الأصالة أهميتها، حيث يُنظر إلى سرد القصص الذي يقوده الإنسان كأنه عامل تمييز. لا يزال الذكاء الاصطناعي يلعب دوراً داعماً، ما يُتيح التوسع الفعّال من حيث التكلفة في صيغ، مثل مقاطع الفيديو التوضيحية القصيرة. وفي نهاية المطاف يعمل الذكاء الاصطناعي بوصفه مُسرِّعاً وليس بديلاً، ما يُساعد وسائل الإعلام على التنويع دون التضحية بالأصالة.

التوجه المباشر إلى الجمهور

5. التركيز على الجماهير مباشرة

يستعد الناشرون لعالم يسمى «غوغل الأصغر»، حيث يُعد الاعتماد على ما تقدمه محركات البحث المحسنة أمراً محفوفاً بالمخاطر؛ لذا تتجه الأولوية نحو بناء علاقات مباشرة مع الجمهور من خلال التطبيقات الخاصة والنشرات الإخبارية والفعاليات المباشرة، وهي قنوات تتميز بتفاعل وولاء أكبر.

ومع ذلك، مع تبني مزيد من الناشرين لهذه الاستراتيجيات، ستشتد المنافسة على جذب الانتباه.

الصورة الأكبر

لم يعد تبني الذكاء الاصطناعي في وسائل الإعلام خياراً. مع استخدام 34 في المائة من الأشخاص للذكاء الاصطناعي في البحث عن المعلومات - أي بارتفاع من 18 في المائة قبل عام - وإدراج أكثر من نصف الصحافيين للذكاء الاصطناعي في سير عملهم أسبوعياً، يتكيف القطاع الإعلامي بسرعة. وبينما لا تزال مسائل حقوق النشر وتحقيق الربح عالقة، يُتوقع أن يكون عام 2026 هو العام الذي تُعدّ فيه شركات الإعلام دليلها الخاص للبقاء في عصر الذكاء الاصطناعي.

*مجلة «فاست كومباني»، خدمات «تريبيون ميديا»