دليلك للكشف عن الصور الزائفة

نصائح لرصد أنواع التلاعب ونمط «الهندسة الغريبة»

رجل بستة اصابع يكشف زيف الصورة
رجل بستة اصابع يكشف زيف الصورة
TT

دليلك للكشف عن الصور الزائفة

رجل بستة اصابع يكشف زيف الصورة
رجل بستة اصابع يكشف زيف الصورة

تمتلك الصور قدرة عميقة على تشكيل فهمنا للعالم. واليوم، تكتسب مسألة قدرتنا على التمييز بين الصور الحقيقية والأخرى التي جرى التلاعب فيها بهدف الترويج لأفكار معينة، أهمية أكبر من أي وقت مضى، خصوصاً في أعقاب الأحداث الدرامية أو المثيرة للجدل.

وفي الوقت نفسه، فإن اكتشاف الصور المزيفة أو حتى الصور التي جرى إنشاؤها بالكامل بواسطة الذكاء الاصطناعي، يزداد صعوبة نتيجة التقدم التكنولوجي!

على سبيل المثال، نجد أن مؤسسات إخبارية تراجعت عن نشر صورة كاثرين، أميرة ويلز، التي أصدرها «قصر كنسينغتون» في مارس (آذار)، بعد أن لاحظ خبراء بعض التلاعب الواضح بها. وبالمثل، شكّك البعض في مصداقية الصور الملتقطة في أثناء محاولة اغتيال الرئيس الأميركي السابق دونالد ترمب.

التحقق من صدق الصور

وفيما يلي بعض الخطوات التي يقترحها خبراء تقنيون مثل كريس فيلازكو، ومونيك وو من واشنطن، عندما تصادفك في المرة المقبلة صورة تثير الشكوك في نفسك.

• تكبير الصورة. قد يبدو الأمر بديهياً، لكن دراسة أجرتها الباحثة صوفي نايتنغيل في جامعة لانكستر البريطانية، خلصت إلى أنه في الفئات العمرية جميعها، كان الأشخاص الذين كرسوا وقتاً لتكبير الصور والتدقيق بعناية في أجزاء مختلفة منها، متمتعين بقدرة أفضل على اكتشاف الصور المُعدَّلة.

جرّب هذا الأمر في المرة المقبلة التي يخالجك فسها شعور غريب تجاه صورة ما. فقط تأكد من أنك لا تركز على الأشياء الخاطئة. للمساعدة، قمنا بإنشاء صورة العينة (المبالغ فيها قليلاً) هذه لتسليط الضوء على بعض العلامات الشائعة للتلاعب بالصور.

وبدلاً عن التركيز على أشياء مثل الظلال والإضاءة، اقترحت نايتنغيل النظر إلى أدلة «قياسية ضوئية»، مثل التمويه حول حواف الأشياء، الذي قد يشير إلى أنها أُضيفت لاحقاً، والتمويه المشوه على نحو لافت ببعض أجزاء الصورة، لكن ليس في أجزاء أخرى، علاوة على التباينات في التلوين.

فكر في هذا الببغاء: أولاً، مَن الذي أحضر ببغاءً إلى موقع الاقتراع الانتخابي؟

بعد ذلك، ألقِ نظرة فاحصة على أجنحته؛ تتباين الحواف الضبابية لريشه الأمامي مع الفتحات الدائرية الأقرب إلى جسمه. من الواضح أن هذا عمل فوتوشوب غير احترافي.

«هندسة غريبة»

• ابحث عن هندسة غريبة. التفاصيل الدقيقة من بين أصعب الأشياء التي يمكن تحريرها بسلاسة في الصورة، لذلك تكثر فيها الأخطاء. وغالباً ما يكون من السهل اكتشاف التلاعب عندما تتعطل الأنماط المنتظمة المتكررة أو تتعرض للتشويه.

والآن، أمعن النظر في الصورة الشهيرة للأميرة كاثرين.

ظهرت الأميرة في الصورة، بينما تلتف ذراعاها حول طفليها. وسرعان ما التقط المحققون وجود عدد من التناقضات، منها بلاط الأرضية الذي يبدو متداخلاً، وبعض القوالب التي تبدو غير محاذية.

وفي المثال المرتبط بمكان الاقتراع، هل لاحظت أن هذا الشخص لديه إصبع إضافي؟ بالتأكيد، من الممكن أن تكون لديه حالة مثل تعدد الأصابع، التي تشير إلى ولادة الأشخاص بأصابع إضافية. ومع ذلك، يبقى هذا أمراً غير محتمل، لذا إذا لاحظت أشياء مثل الأرقام الإضافية، فقد يكون ذلك علامة على استخدام الذكاء الاصطناعي لتغيير الصورة.

إن إفساد اللمسات الدقيقة بالصورة لا يصدر عن التعديل الرديء بالفوتوشوب فحسب، وإنما يظهر أن الذكاء الاصطناعي ربما يكون من المشتبه فيه بشكل كبير عندما يتعلق الأمر بالتلاعب بالصور التفصيلية.

«ما حول الصورة» ومصدرها

• ضع السياق في الاعتبار. تتمثل إحدى الطرق لتحديد صحة الصورة، في التراجع خطوة إلى الوراء والتفكير فيما حولها. يمكن أن يخبرك السياق الذي توضع فيه الصورة كثيراً عن النية وراء مشاركتها.

اسأل نفسك: هل تعرف أي شيء عن الشخص الذي شارك الصورة؟ هل هي مرفقة بمنشور يبدو أنه يهدف إلى إثارة رد فعل عاطفي؟ ماذا يقول التعليق المرفق بالصورة، إن وُجد؟

ويقول بيتر آدامز، نائب الرئيس لشؤون الأبحاث والتصميم في «مشروع محو الأمية الإخبارية»، وهي منظمة غير ربحية تعمل على تعزيز التقييم النقدي للإعلام، إن بعض الصور التي جرى التلاعب فيها، أو حتى الصور الحقيقية الموضوعة في سياق يختلف عن الواقع، تهدف إلى جذب «تفكيرنا البديهي». ويمكن لهذه التعديلات أن تولد الدعم أو تثير التعاطف مع قضايا معينة بشكل مصطنع.

أما نايتنغيل، فتوصي بأن تطرح بعض الأسئلة على نفسك عندما تلاحظ صورة تثيرك: لماذا نشر شخص ما هذا؟ هل هناك أي دافع خفي قد يشير إلى أن هذه الصورة ربما تكون زائفة؟

ويضيف آدامز أنه في كثير من الحالات، يمكن للتعليقات أو الردود المرفقة بالصورة أن تكشف عن الزيف.

• توجه إلى المصدر. بعض الحالات، تظهر الصور الحقيقية من العدم بطريقة تجعلنا نتساءل عمّا إذا كانت قد حدثت بالفعل. ويمكن أن يسهم العثور على مصدر هذه الصور في إلقاء الضوء على حقيقتها.

وفيما يخص الصور التي تدعي أنها جاءت من حدث إخباري حقيقي، فمن الجدير كذلك التحقق من أنها جاءت من خدمات الأخبار مثل «أسوشييتد برس» و«رويترز»، وشركات مثل «غيتي إميدجيز»، التي تتيح إلقاء نظرة على الصور التحريرية التي التقطتها.

وإذا صادفت الصورة الأصلية، فهذا يعني أنك تبحث عن صورة أصلية.

• جرب البحث العكسي. إذا بدت الصورة غير منسجمة مع شخصية الشخص الذي يظهر بها، أو بدت متحيزة بشكل واضح أو لم تَجْتَزْ اختبار الأجواء بشكل عام، فيمكن لأدوات البحث العكسي عن الصور ، مثل «تين آي (TinEye)» أو «غوغل إيميدج سيرش (Google Image Search)»، معاونتك على العثور على الصور الأصلية. وحتى إذا لم تتمكن من ذلك، لا تزال هذه الأدوات قادرة على إظهار سياق قيم يرتبط بالصورة محل البحث.

كما يمكن للأشخاص الاستعانة بالبحث العكسي عن الصور عبر «غوغل» للتحقق من أصل الصورة محل البحث، والتحقق مما إذا كان قد جرى التلاعب بها أو تغييرها.



فتح الهاتف بالوجه أو البصمة… راحة أم مخاطرة؟

فتح أجهزتك باستخدام وجهك أو بصمة إصبعك فقط قد يعرّضك لمخاطر غير متوقعة (رويترز)
فتح أجهزتك باستخدام وجهك أو بصمة إصبعك فقط قد يعرّضك لمخاطر غير متوقعة (رويترز)
TT

فتح الهاتف بالوجه أو البصمة… راحة أم مخاطرة؟

فتح أجهزتك باستخدام وجهك أو بصمة إصبعك فقط قد يعرّضك لمخاطر غير متوقعة (رويترز)
فتح أجهزتك باستخدام وجهك أو بصمة إصبعك فقط قد يعرّضك لمخاطر غير متوقعة (رويترز)

رغم أن المصادقة البيومترية - القدرة على فتح أجهزتك باستخدام وجهك أو بصمة إصبعك فقط - تُعد من أكثر ميزات الهواتف الذكية راحة وحداثة، فإن خبراء الخصوصية يحذرون من أنها قد تُعرّض المستخدمين لمخاطر غير متوقعة، حيث إنها قد تجعلهم أكثر عرضة للاختراق.

وبحسب مجلة «فاست كومباني» المتخصصة في التكنولوجيا والأعمال والتصميم، تشير سوابق قانونية في بعض الدول إلى أن السلطات قد تتمكن، في ظروف معينة، من إجبار الأفراد على فتح أجهزتهم باستخدام البصمة أو الوجه، بخلاف كلمات المرور التي تحظى بحماية قانونية أكبر.

لكن القلق لا يقتصر على الجوانب القانونية فقط.

فقد سُجلت حوادث واقعية لأشخاص تمكن آخرون من فتح هواتفهم أثناء النوم عبر توجيه الجهاز نحو وجوههم أو استخدام بصماتهم.

كما أُبلغ عن جرائم أُجبر فيها ضحايا على فتح هواتفهم بيومترياً لسرقة أموال أو أصول رقمية.

وحتى داخل المنزل، يشتكي بعض الآباء من تمكن أطفالهم من تجاوز القيود بهذه الطريقة.

أين تكمن المشكلة؟

البيانات البيومترية - بخلاف كلمات المرور - لا يمكن تغييرها بسهولة. فإذا توفر لشخص ما وصول مادي إلى وجهك أو إصبعك، فقد يتمكن من فتح جهازك دون علمك.

كيف يمكن تقليل المخاطر؟

تعطيل المصادقة البيومترية على هاتفك الذكي

إن تعطيل المصادقة البيومترية والاعتماد على رمز مرور فقط يزيدان مستوى الحماية.

هذا يعني أنك ستحتاج إلى إدخال رمز المرور في كل مرة تفتح فيها هاتفك. صحيح أن هذا الأمر قد يستغرق بضع ثوانٍ إضافية، ولكنه يعني أيضاً أنه لا يمكن لأحد سرقة وجهك أو بصمة إصبعك وفتح هاتفك أثناء نومك.

عند الشك... أعد تشغيل الجهاز

بعد إعادة التشغيل، لن تتمكن من فتح الجهاز باستخدام بياناتك البيومترية إلا بعد إدخال رمز المرور، وهي حيلة يستخدمها بعض المسافرين أو المشاركين في فعاليات حساسة.

الموازنة بين الراحة والأمان

على الرغم من أن المصادقة البيومترية تُعدّ من أكثر ميزات الهواتف الذكية سهولةً، فإن السيناريوهات المذكورة أعلاه تُبيّن كيف يمكن لهذه التقنية أن تُعرّضنا للخطر. فالراحة التي توفرها البيومترية مغرية، لكن في مواقف معينة قد يكون التخلي عنها خياراً أكثر أماناً.


لماذا أثار تطبيق صيني للذكاء الاصطناعي ذعراً في هوليوود؟

شعار شركة «بايت دانس» المالكة لتطبيق «تيك توك» وأعلام الصين والولايات المتحدة (رويترز)
شعار شركة «بايت دانس» المالكة لتطبيق «تيك توك» وأعلام الصين والولايات المتحدة (رويترز)
TT

لماذا أثار تطبيق صيني للذكاء الاصطناعي ذعراً في هوليوود؟

شعار شركة «بايت دانس» المالكة لتطبيق «تيك توك» وأعلام الصين والولايات المتحدة (رويترز)
شعار شركة «بايت دانس» المالكة لتطبيق «تيك توك» وأعلام الصين والولايات المتحدة (رويترز)

أحدث نموذج جديد للذكاء الاصطناعي، طوّرته «بايت دانس» الشركة الصينية المطورة لتطبيق «تيك توك»، ضجةً في هوليوود هذا الأسبوع، ليس فقط بسبب قدراته، بل لما قد يُحدثه من تغيير في الصناعات الإبداعية.

ووفقاً لهيئة الإذاعة البريطانية (بي بي سي)، يستطيع تطبيق «سيدانس» إنتاج فيديوهات بجودة سينمائية، مع مؤثرات صوتية وحوارات، بمجرد إدخال بعض النصوص.

وكانت انتشرت على نطاق واسع مقاطع فيديو يُزعم أنها صُنعت باستخدام «سيدانس»، وتضم شخصيات شهيرة مثل «سبايدرمان» و«ديبول».

وسارعت استوديوهات كبرى مثل «ديزني» و«باراماونت» إلى اتهام «بايت دانس» بانتهاك حقوق الملكية الفكرية، لكن المخاوف بشأن هذه التقنية تتجاوز المسائل القانونية.

شعار شركة «بايت دانس» الصينية للتكنولوجيا (رويترز)

ما هو «سيدانس»؟ ولماذا كل هذه الضجة؟

أُطلق «سيدانس» في يونيو (حزيران) 2025 دون ضجة كبيرة، لكن النسخة الثانية التي صدرت بعد ثمانية أشهر هي التي أثارت ضجة كبيرة.

يقول يان ويليم بلوم، من استوديو «فيديو ستيت» الإبداعي: ​​«للمرة الأولى، لا أظن أن هذا يبدو جيداً للذكاء الاصطناعي، بل أظن أنه من عملية إنتاج حقيقية».

ويضيف أن نماذج الفيديو الغربية التي تعتمد على الذكاء الاصطناعي قد أحرزت تقدماً في معالجة تعليمات المستخدم لإنتاج صور مذهلة، لكن يبدو أن «سيدانس» قد جمع كل شيء معاً.

ومثل أدوات الذكاء الاصطناعي الأخرى يستطيع «سيدانس» إنشاء مقاطع فيديو من نصوص قصيرة، وفي بعض الحالات يبدو أن مجرد إدخال نص واحد ينتج مقاطع فيديو عالية الجودة.

وتقول مارغريت ميتشل، الباحثة في أخلاقيات الذكاء الاصطناعي، إن الأمر مثير للإعجاب بشكل خاص؛ لأنه يجمع بين النص والصورة والصوت في نظام واحد.

ويُقاس تأثير «سيدانس» بمعيار غير متوقع: مدى جودة إنتاجه لمقطع فيديو لويل سميث وهو يأكل معكرونة، حيث لا يقتصر دور «سيدانس» على ابتكار نسخة واقعية بشكل مذهل للنجم وهو يتناول طبقاً من المعكرونة، بل أنتج أيضاً مقاطع فيديو انتشرت كالنار في الهشيم لسميث وهو يقاتل وحشاً من المعكرونة، ويبدو كل ذلك وكأنه فيلم ضخم الإنتاج.

ويعتقد العديد من خبراء الصناعة وصنّاع الأفلام أن «سيدانس» يمثل فصلاً جديداً في تطوير تقنية توليد الفيديو.

ويقول ديفيد كوك، مدير استوديو للرسوم المتحركة في سنغافورة، إن مشاهد الحركة المعقدة التي ينتجها تبدو أكثر واقعية من منافسيه، ويضيف: «يكاد المرء يشعر وكأنه يستعين بمدير تصوير أو مصور سينمائي متخصص في أفلام الحركة».

الوعد والتحدي

واجه «سيدانس» مشاكل تتعلق بحقوق النشر، وهو تحدٍّ متزايد في عصر الذكاء الاصطناعي، ويحذر الخبراء من أن شركات الذكاء الاصطناعي تُعطي الأولوية للتكنولوجيا على حساب البشر؛ إذ تُطوّر أدوات أكثر قوة وتستخدم البيانات دون مقابل.

واشتكت كبرى شركات هوليوود من استخدام شركة «سيدانس» شخصيات محمية بحقوق الطبع والنشر مثل «سبايدرمان» و«دارث فيدر».

وأصدرت «ديزني» و«باراماونت» خطابات إنذار تطالب «سيدانس» بالتوقف عن استخدام محتواهما، كما تُجري اليابان تحقيقاً مع «بايت دانس» بتهمة انتهاكات حقوق الطبع والنشر، بعد انتشار مقاطع فيديو بتقنية الذكاء الاصطناعي لشخصيات «أنمي» شهيرة.

وقالت «بايت دانس» إنها تتخذ خطوات لـ«تعزيز الضمانات الحالية».

ولفتت «بي بي سي» إلى أن هذا ليس حكراً على الشركة الصينية. ففي عام 2023، رفعت صحيفة «نيويورك تايمز» دعوى قضائية ضد شركتَي «أوبن إيه آي» و«مايكروسوفت»، مدعيةً أنهما استخدمتا مقالاتها دون إذن لتدريب نماذج الذكاء الاصطناعي الخاصة بهما. كما رفعت «ريديت» دعوى قضائية ضد شركة «بيربلكسيتي» العام الماضي، مدعيةً أن شركة الذكاء الاصطناعي قامت بجمع منشورات المستخدمين بشكل غير قانوني. وأثارت «ديزني» مخاوف مماثلة مع «غوغل».

وتقول ميتشل إنّ وضع علامات واضحة على المحتوى لمنع التضليل وبناء ثقة الجمهور في الذكاء الاصطناعي أهم بكثير من مقاطع الفيديو «الأكثر جاذبية».

وتضيف أنّه لهذا السبب يجب على المطورين بناء أنظمة لإدارة التراخيص والمدفوعات، وتوفير آليات واضحة للأفراد للاعتراض على إساءة الاستخدام. فعلى سبيل المثال، وقّعت «ديزني» صفقة بقيمة مليار دولار (730 مليون جنيه إسترليني) مع برنامج «سورا» من «أوبن إيه آي» ليتمكن من استخدام شخصيات من أفلامها.

ويقول شانان كوهني، الباحث في مجال الحوسبة بجامعة ملبورن، إنّ مطوري «سيدانس» كانوا على الأرجح على دراية بمشاكل حقوق النشر المحتملة المتعلقة باستخدام الملكية الفكرية الغربية، ومع ذلك خاطروا.

ويضيف: «هناك مجال واسع لتجاوز القواعد استراتيجياً، وتجاهلها لفترة من الوقت، واكتساب نفوذ تسويقي».

وفي الوقت نفسه، بالنسبة للشركات الصغيرة، يُعدّ «سيدانس» أداة بالغة الأهمية لا يمكن تجاهلها.

«بايت دانس»... الشركة الأم لـ«تيك توك» (أ.ف.ب)

ويقول كوك إن الذكاء الاصطناعي بهذه الجودة سيمكّن شركات مثل شركته من إنتاج أفلام كانت تكلفتها تفوق بكثير إمكاناتها الحالية.

وأعطى مثالاً بازدهار مقاطع الفيديو القصيرة والمسلسلات الدرامية القصيرة في آسيا، والتي تُنتج عادةً بميزانيات متواضعة - نحو 140 ألف دولار أميركي لما يصل إلى 80 حلقة، لا تتجاوز مدة كل منها دقيقتين.

وقد اقتصرت هذه الإنتاجات على الأعمال الرومانسية أو الدراما العائلية لخفض التكاليف؛ نظراً لقلة حاجتها إلى المؤثرات البصرية، لكن الذكاء الاصطناعي الآن قادر على «الارتقاء بالإنتاجات منخفضة الميزانية إلى أنواع أكثر طموحاً مثل الخيال العلمي، والدراما التاريخية، والآن الحركة».


البيت الأبيض: أميركا ترفض «بشكل قاطع» حوكمة الذكاء الاصطناعي

مدير مكتب سياسات العلوم والتكنولوجيا بالبيت الأبيض مايكل كراتسيوس يحضر جلسة خلال قمة «تأثير الذكاء الاصطناعي» في نيودلهي يوم 20 فبراير 2026 (إ.ب.أ)
مدير مكتب سياسات العلوم والتكنولوجيا بالبيت الأبيض مايكل كراتسيوس يحضر جلسة خلال قمة «تأثير الذكاء الاصطناعي» في نيودلهي يوم 20 فبراير 2026 (إ.ب.أ)
TT

البيت الأبيض: أميركا ترفض «بشكل قاطع» حوكمة الذكاء الاصطناعي

مدير مكتب سياسات العلوم والتكنولوجيا بالبيت الأبيض مايكل كراتسيوس يحضر جلسة خلال قمة «تأثير الذكاء الاصطناعي» في نيودلهي يوم 20 فبراير 2026 (إ.ب.أ)
مدير مكتب سياسات العلوم والتكنولوجيا بالبيت الأبيض مايكل كراتسيوس يحضر جلسة خلال قمة «تأثير الذكاء الاصطناعي» في نيودلهي يوم 20 فبراير 2026 (إ.ب.أ)

صرَّح مستشار البيت الأبيض لشؤون التكنولوجيا مايكل كراتسيوس، الجمعة، بأن الولايات المتحدة ترفض «رفضاً قاطعاً» الحوكمة العالمية للذكاء الاصطناعي.

وجاءت تصريحات كراتسيوس، رئيس وفد بلاده إلى «مؤتمر الذكاء الاصطناعي» في نيودلهي، قبل بيان مرتقب للقادة يحدِّد رؤيةً مشتركةً لكيفية التعامل مع هذه التقنية المثيرة للجدل.

وقال في القمة التي تختتم أعمالها الجمعة: «كما صرَّحت إدارة (الرئيس الأميركي دونالد) ترمب مراراً: نرفض رفضاً قاطعاً الحوكمة العالمية للذكاء الاصطناعي».

وأضاف: «لا يمكن لاعتماد الذكاء الاصطناعي أن يُفضي إلى مستقبل أفضل إذا كان خاضعاً للبيروقراطية والسيطرة المركزية»، وفق ما نقلته «وكالة الصحافة الفرنسية».

وكان الأمين العام للأمم المتحدة أنطونيو غوتيريش قد صرَّح، صباح الجمعة، بأن لجنة خبراء جديدة شكَّلتها المنظمة الدولية تسعى إلى «جعل التحكم البشري واقعاً تقنياً».

وأعلن غوتيريش تشكيل المجموعة الاستشارية في أغسطس (آب)، والتي تسعى إلى أن تكون على غرار الهيئة الحكومية الدولية المعنية بتغيّر المناخ في مجال الاحتباس الحراري، وقد تمّ تأكيد أعضائها الأربعين.

و«مؤتمر الذكاء الاصطناعي» رابع تجمع دولي سنوي يُركّز على المخاطر والفرص التي تُتيحها قوة الحوسبة المتقدمة.

سوندار بيتشاي الرئيس التنفيذي لشركة «غوغل» يتحدث خلال قمة «تأثير الذكاء الاصطناعي» في نيودلهي يوم 20 فبراير 2026 (أ.ب)

وفي النسخة التي عُقدت العام الماضي في باريس، حذَّر نائب الرئيس الأميركي، جي دي فانس، من «الإفراط في التنظيم» الذي «قد يقضي على قطاع قادر على إحداث تحوّل».

وفي نيودلهي، قال كراتسيوس: «إن النقاش الدولي حول الذكاء الاصطناعي قد تطوّر، كما تؤكده هذه القمة نفسها»، مُشيراً إلى تغيير اسم الاجتماع من «أمان الذكاء الاصطناعي» (AI Safety) إلى «تأثير الذكاء الاصطناعي» (AI Impact).

وأضاف: «هذا تطور إيجابي دون شك... لكن كثيراً من المنتديات الدولية، مثل الحوار العالمي للأمم المتحدة حول حوكمة الذكاء الاصطناعي، لا تزال تتسم بأجواء من الخوف».

وأضاف كراتسيوس: «علينا أن نستبدل الأمل بهذا الخوف»، مؤكداً أن الذكاء الاصطناعي قادر على «الارتقاء بمستوى معيشة البشرية وتحقيق ازدهار غير مسبوق».

ورأى أن «الهوس الآيديولوجي وتركيز الاهتمام على المخاطر، مثل قضايا المناخ أو العدالة، يتحوَّل إلى مُبرِّر للبيروقراطية وزيادة المركزية».

وتابع: «باسم الأمن، تزيد هذه الهواجس من خطر استخدام هذه الأدوات لأغراض استبدادية».

وقال كراتسيوس: «إن تركيز سياسة الذكاء الاصطناعي على الأمن والمخاطر التخمينية... يُعيق بيئة تنافسية، ويُرسخ هيمنة الشركات القائمة، ويعزل الدول النامية عن المشارَكة الكاملة في اقتصاد الذكاء الاصطناعي».