نظم التعرف على الوجه تستخدم ملايين الصور الشخصية

أداة إلكترونية ذكية لكشف الشركات السارقة لها

عرض فيديو لعمل نظام الذكاء الصناعي للتعرف على الوجوه في شركة «ميغفي» الصينية
عرض فيديو لعمل نظام الذكاء الصناعي للتعرف على الوجوه في شركة «ميغفي» الصينية
TT

نظم التعرف على الوجه تستخدم ملايين الصور الشخصية

عرض فيديو لعمل نظام الذكاء الصناعي للتعرف على الوجوه في شركة «ميغفي» الصينية
عرض فيديو لعمل نظام الذكاء الصناعي للتعرف على الوجوه في شركة «ميغفي» الصينية

عندما صنعت شركات التقنية نظم التعرف على الوجه التي تعيد اليوم بسرعة رسم شكل المراقبة الحكومية، وتشوه خصوصية الناس، تلقت المساعدة من مصدر غير متوقع... هو وجوهكم.

كشف إلكتروني

استخدمت الشركات والجامعات والمختبرات الحكومية ملايين الصور التي جمعتها من عدة مصادر إلكترونية لتطوير هذه التقنية. أما اليوم، فيعمل الباحثون على تطوير أداة إلكترونية جديدة، اسمها «إكسبوزينغ إيه آي» (Exposing.AI) (نظام الذكاء الصناعي: «الفضح»)، تتيح للناس البحث عن مجموعات الصور التي تشكلت من صورهم القديمة.
وتفتح هذه الأداة التي تطابق الصور مع محتوى خدمة «فليكر» نافذة على كم البيانات الهائل الذي يتطلبه بناء مجموعة متنوعة من تقنيات الذكاء الصناعي، من نظم التعرف على الوجه إلى روبوتات المحادثة أو ما يعرف بــ«التشات بوت».
تقول ليز أوسوليفان، أحد معدي هذه الأداة مديرة التقنية في مجموعة «مشروع مراقبة تقنيات المراقبة» المدافعة عن الحقوق المدنية والخصوصية: «على الناس أن يدركوا أن لحظاتهم الحميمة باتت تستخدم سلاحاً».
شاركت أوسوليفان في تطوير «إكسبوزينغ إيه آي» مع باحث فنان من برلين يُدعى آدم هارفي.
ولا تصبح النظم التي تستخدم الذكاء الصناعي ذكية بشكلٍ سحري، بل تتعلم من خلال التحديد الدقيق للأنماط المطلوبة في البيانات الصادرة عن البشر، كالصور والتسجيلات الصوتية والكتب ومقالات موسوعة «ويكيبيديا» الإلكترونية وجميع أنواع المواد. وتزداد هذه التقنية تحسناً مع الوقت، ولكنها تتعلم أيضاً التمييز ضد النساء والأقليات.
قد لا يعي الناس أنهم يساهمون في تعليم الذكاء الصناعي. يشكل هذا الأمر نوعاً من الفضول لبعضهم، بينما يشعر آخرون بالريبة منه، لا سيما أنه قد يكون أحياناً منافياً للقانون. وكانت ولاية إلينوي الأميركية قد أقرت عام 2008 قانون خصوصية المعلومات البيومترية (القياسات البيولوجية) الذي يفرض غرامات مالية على من يستخدم مسوحات وجوه سكانها دون الحصول على موافقتهم.
وفي 2006، حمل بريت غايلور، صانع أفلام وثائقية من فيكتوريا (كولومبيا البريطانية)، صور شهر عسله على منصة «فليكر» التي كانت شعبية في ذلك الوقت. وبعد مرور 15 عاماً تقريباً، وباستخدامه لنسخة أولية من أداة «إكسبوزينغ إيه آي»، اكتشف هارفي أن مئات من هذه الصور قد وجدت طريقها إلى عدد من القواعد البيانية التي تُستخدم لتدريب نظم التعرف على الوجه حول العالم.
لقد سمحت منصة «فليكر» التي باعتها واشترتها شركات كثيرة خلال السنوات الماضية، آخرها خدمة «سماغ ماغ» لمشاركة الصور، لمستخدميها بمشاركة صورهم، بموجب ما يُعرف برخصة «كرييتف كومونز» الشائعة على المواقع الإلكترونية التي تسمح للآخرين باستخدام الصور بضوابط محددة، غالباً ما يتم تجاهلها. وفي عام 2014، استغل موقع «ياهو» الذي كانت تملكه «فليكر» في ذلك الوقت كثيراً من هذه الصور في قواعد بيانات مصممة للمساعدة في مشاريع الرؤية الكومبيوترية.
وتساءل غايلور (43 عاماً): كيف انتقلت هذه الصور من مكانٍ إلى آخر، فقيل له إنها استخدمت ربما في نظم المراقبة في الولايات المتحدة ودولٍ أخرى، وإن أحد هذه النظم صُمم لتعقب بعض الأقليات في دول أخرى، مثل الصين.

نظم مراقبة

كيف يمكن لصور التقطت في شهر عسل أن تساعد في بناء نظم مراقبة في الصين، وتتحول بطريقة ما إلى قصة ذات عواقب غير مقصودة أو محمودة.
قبل سنوات، بدأ باحثون في مجال الذكاء الصناعي في جامعات وشركات تقنية بارزة بجمع صور رقمية من مجموعة واسعة متنوعة من المصادر، بينها خدمات مشاركة الصور وشبكات اجتماعية ومواقع مواعدة كـ«أوك كيوبيد»، وحتى كاميرات منتشرة في باحات الجامعات، وشاركوا هذه الصور مع منظمات أخرى.
كان هذا الأمر يعد طبيعياً جداً بالنسبة للباحثين لأنهم يحتاجون إلى بيانات يغذون بها نظم الذكاء الصناعي الجديدة التي صمموها، فشاركوا كل ما بحوزتهم من بيانات، لا سيما أن الأمر كان قانونياً.
وتعد قاعدة بيانات «ميغا فيس» (MegaFace) التي طورها باحثون من جامعة واشنطن عام 2015 واحداً من هذه الأمثلة؛ حصل هذا التطوير دون علم أو موافقة الأشخاص الذين غذت صورهم هذه القاعدة التي نشرها الباحثون عبر الإنترنت ليتمكن الآخرون من تحميلها.
وكشفت صحيفة «نيويورك تايمز» أن «ميغا سيف» حُملت 6 آلاف مرة من قبل شركات ووكالات حكومية حول العالم، أبرزها تكتل «نورثروب غرومان» للصناعات الدفاعية في الولايات المتحدة، والذراع الاستثمارية لوكالة الاستخبارات الأميركية «إن كيو تيل»، والشركة الأم لتطبيق «تيك توك» الصيني «بايت دانس»، وشركة المراقبة الصينية «ميغفي».
صمم الباحثون «ميغا فيس» لاستخدامها في مسابقة أكاديمية تهدف إلى تحفيز تطوير نظم الذكاء الصناعي، ولم تكن مخصصة للاستخدام التجاري، إلا أن عدداً قليلاً فقط من الجهات التي حملت القاعدة شاركت في المسابقة.
قال فيكتور بالتا، المتحدث باسم جامعة واشنطن، إن «الجامعة ليست في موقع مناقشة مشاريع طرف ثالث، وإن (ميغا فيس) أصبحت خارج الخدمة، وبياناتها لم تعد تُوزع».
عملت بعض الجهات التي حملت القاعدة على تطوير نظم تعرف على الوجه، ووضعت شركة «ميغفي» الصينية على اللائحة السوداء العام الماضي من قبل وزارة التجارة الأميركية، بعد أن استخدمت الحكومة الصينية تقنيتها لمراقبة أقلية الإيغور في البلاد.
وأخرجت جامعة واشنطن «ميغا فيس» من الخدمة في مايو (أيار)، وأزالت منظمات أخرى قاعدة البيانات، ولكن نسخاً من هذه الملفات قد تكون محفوظة في أي مكان، وستستخدم على الأرجح في تغذية أبحاث أخرى.

أداة ذات حدين

أمضى سوليفان وهارفي سنوات وهما يحاولان تطوير الأداة لفضح كيفية استخدام البيانات، ولكن الأمر كان أصعب مما توقعا.
لقد أرادا أن تستطيع الأداة فور قبول صورة الشخص أن تُعلم صاحبها كم مرة تم تضمين وجهه في هذه القواعد البيانية باستخدام تقنية التعرف على الوجه، ولكنهما في الوقت نفسه شعرا بالقلق من استغلال هذه الأداة بشكل سلبي من قبل المتلصصين والشركات والحكومات.
وقد كشفت أوسوليفان التي تشغل أيضاً منصب نائب رئيس قسم الذكاء الصناعي المسؤول في شركة «آرثر» المتخصصة في استشارة إدارة سلوكيات تقنيات الذكاء الصناعي في نيويورك، أن «احتمال الضرر الذي قد تسببه هذه الأداة كبير جداً».
وفي النهاية، أُجبر الباحثان أنفسهما على الحد من حرية الناس في استخدام الأداة والبحث فيها وفي النتائج التي تقدمها؛ أي أن الأداة المتوفرة اليوم لم تصل إلى مستوى الفاعلية الذي أراداه منذ البداية، ولكن فقط لأنهما أرادا أن يسلطا الضوء على المشكلة دون أن يزيداها سوءاً.
ولا تستخدم أداة «إكسبوزينغ إيه آي» الذكاء الصناعي، ولكنها ترصد الصور فقط في حال كان الشخص يملك وسيلة إلكترونية تتيح رصدها، كعنوان موقع إلكتروني أو صفحة على الإنترنت. يستطيع الناس البحث عن صور نُشرت على خدمة «فليكر» فقط، ويحتاجون إلى اسم مستخدم أو وسم أو عنوان إنترنت على منصتها (يضمن هذا الأمر حصول المستخدم على الحماية الأمنية والخصوصية اللازمين، بحسب الباحثين).
صحيح أن هذا الأمر يحد من فاعلية الأداة، ولكنه لا يزال يعد وسيلة للتوعية، لا سيما أن صور «فليكر» تشكل نسبة كبيرة من مجموعات بيانات التعرف على الوجه التي تم نشرها عبر الإنترنت، كما حصل في تصميم «ميغا فيس».
* خدمة «نيويورك تايمز»


مقالات ذات صلة

دراسة تبحث: هل يغيّر الذكاء الاصطناعي طريقة تفكيرنا رغم صحة المعلومات؟

تكنولوجيا تلعب طريقة عرض المعلومات وسردها دوراً أساسياً في تشكيل الفهم وليس فقط مضمونها (شاترستوك)

دراسة تبحث: هل يغيّر الذكاء الاصطناعي طريقة تفكيرنا رغم صحة المعلومات؟

دراسة تظهر أن الذكاء الاصطناعي يؤثر في الآراء عبر طريقة عرض المعلومات حتى عندما تكون الحقائق صحيحة وغير مضللة.

نسيم رمضان (لندن)
خاص تعتمد نسبة كبيرة من المؤسسات على أنظمة تقليدية وموردين خارجيين ما يبطئ الابتكار ويزيد التعقيد التشغيلي (أدوبي)

خاص من التبنِّي إلى التنفيذ… «الفنتك» السعودي يدخل مرحلة النضج الحاسمة

قطاع «الفنتك» في السعودية ينتقل من التبنِّي السريع إلى تحديات التنفيذ مع الحاجة لتحديث الأنظمة والبيانات لتعزيز الابتكار والتوسع المستدام.

نسيم رمضان (لندن)
تكنولوجيا راقب الباحثون سلوك البعوض حول متطوع بشري كان يرتدي ملابس واقية سوداء من جهة وبيضاء من الجهة الأخرى (MIT)

نموذج جديد يحاكي سلوك البعوض لتحديد موقع الإنسان

نموذج جديد يتنبأ بحركة البعوض ويكشف كيف يدمج الإشارات البصرية والكيميائية لتحديد موقع الإنسان وتحسين استراتيجيات مكافحته والحد من الأمراض.

نسيم رمضان (لندن)
تكنولوجيا رئيس شركة «أبل» تيم كوك خلال أحد المؤتمرات السنوية للشركة (إ.ب.أ)

«أبل» في عامها الخمسين… قصة شركة أعادت تشكيل التكنولوجيا العالمية

مسيرة «أبل» خلال 50 عاماً تعكس قدرة استثنائية على الابتكار وإعادة الابتكار، من مرآب صغير إلى شركة أعادت تشكيل التكنولوجيا العالمية.

نسيم رمضان (لندن)
تكنولوجيا أدوات مطورة لكشف التزييف بالذكاء الاصطناعي

أدوات مطورة لكشف التزييف بالذكاء الاصطناعي

بلغ المحتوى المُولّد بواسطة الذكاء الاصطناعي مستوى عالياً من الواقعية لدرجة أنه يصعب في كثير من الأحيان، التمييز بين ما هو حقيقي وما هو زائف

ستيوارت تومبسون (نيويورك)

السيارات ذاتية القيادة… هل تجعل التنقل أسهل أم المدن أكثر ازدحاماً؟

قد تعيد السيارات ذاتية القيادة تشكيل أنماط التنقل اليومية من حيث التوقيت والمكان وطريقة الاستخدام (شاترستوك)
قد تعيد السيارات ذاتية القيادة تشكيل أنماط التنقل اليومية من حيث التوقيت والمكان وطريقة الاستخدام (شاترستوك)
TT

السيارات ذاتية القيادة… هل تجعل التنقل أسهل أم المدن أكثر ازدحاماً؟

قد تعيد السيارات ذاتية القيادة تشكيل أنماط التنقل اليومية من حيث التوقيت والمكان وطريقة الاستخدام (شاترستوك)
قد تعيد السيارات ذاتية القيادة تشكيل أنماط التنقل اليومية من حيث التوقيت والمكان وطريقة الاستخدام (شاترستوك)

لطالما اتسمت رحلة التنقل اليومية في كثير من المدن حول العالم بازدحام مروري، والبحث الطويل عن موقف للسيارة، وتوسع مستمر في المساحات الحضرية المخصصة للمركبات. لكن مع اقتراب السيارات ذاتية القيادة من الانتشار الواسع، يتساءل الباحثون عما سيحدث عندما لا يعود هناك سائقون؟

تشير دراسة حديثة حول تأثير المركبات ذاتية القيادة على أنماط التنقل الصباحية إلى أن الإجابة ليست بسيطة كما قد يبدو. فهذه التقنية لا تعد بتقليل الازدحام فقط، بل قد تعيد تشكيل طريقة التنقل وتوقيته ومكانه، بما يحمل فرصاً جديدة وتحديات غير متوقعة.

إعادة التفكير في مفهوم مواقف السيارات

أحد أبرز التغييرات المحتملة يتعلق بكيفية التعامل مع مواقف السيارات. فاليوم، تشغل مواقف السيارات مساحات كبيرة في المدن، ومع ذلك لا يزال العثور على موقف مناسب يمثل تحدياً لكثير من المستخدمين.

مع السيارات ذاتية القيادة، قد يتغير هذا الواقع بشكل جذري. فبإمكان السيارة أن تُنزل الركاب عند وجهتهم، ثم تتحرك بمفردها إلى مناطق أقل ازدحاماً، وغالباً أقل تكلفة خارج مراكز المدن. وهذا قد يقلل الحاجة إلى مواقف السيارات في المناطق المركزية، ويفتح المجال لإعادة استخدام هذه المساحات لأغراض أخرى مثل الإسكان أو الأنشطة التجارية أو المساحات العامة. بالنسبة للمستخدمين، يعني ذلك وقتاً أقل في البحث عن موقف وتكاليف أقل. أما بالنسبة للمدن، فإن التأثيرات قد تكون أعمق وأكثر تعقيداً.

سيكون لتبني السيارات ذاتية القيادة تأثير مباشر على تخطيط المدن واستخدام الأراضي وقيمة المواقع (شاترستوك)

مفارقة الكفاءة والازدحام

رغم أن السيارات ذاتية القيادة تعد بمزيد من الراحة، فإن الدراسة تشير إلى احتمال ظهور آثار جانبية غير متوقعة. فإذا أصبحت مواقف السيارات خارج المدن خياراً سهلاً، فقد يفضل عدد أكبر من الأشخاص استخدام السيارات بدلاً من وسائل النقل العام. كما أن تحرك السيارات دون ركاب إلى مواقع الانتظار قد يزيد من حركة المرور الإجمالية. وتشير النماذج إلى أن انتشار هذه المركبات قد يؤدي إلى زيادة إجمالي المسافات المقطوعة ومدة التنقل مقارنة بالنظام التقليدي. وهنا تظهر مفارقة واضحة: قد تصبح الرحلة الفردية أكثر سهولة، لكن النظام كله قد يصبح أكثر ازدحاماً.

تغير سلوك التنقل

إلى جانب البنية التحتية، قد تؤثر السيارات ذاتية القيادة على سلوك الأفراد. فعندما لا تكون هناك حاجة للقيادة، يمكن استغلال وقت الرحلة للعمل أو الترفيه أو الراحة. وهذا قد يجعل الرحلات الطويلة أكثر قبولاً، ويدفع البعض للسكن في مناطق أبعد عن أماكن العمل. كما قد تتغير أوقات الانطلاق. فقد يختار المستخدمون توقيت رحلاتهم بناءً على ظروف المرور أو التكلفة أو الراحة، ما يؤدي إلى أنماط تنقل أكثر مرونة مقارنة بالروتين التقليدي. ولفهم هذه التغيرات، استخدم الباحثون نماذج تحاكي قرارات الأفراد بشأن توقيت الرحلة ومكان الوقوف والتوازن بين الزمن والتكلفة. وتشير النتائج إلى أن هذه القرارات ستصبح أكثر ديناميكية وتأثراً بالعوامل الاقتصادية.

يعتمد تأثير السيارات ذاتية القيادة النهائي على السياسات والتنظيم وليس على التكنولوجيا وحدها لتحقيق التوازن بين الكفاءة والازدحام (شاتوستوك)

تداعيات على التخطيط الحضري

بالنسبة لمخططي المدن، تنطوي هذه النتائج على فرص وتحديات في آن واحد. فالسيارات ذاتية القيادة قد تقلل الحاجة إلى مواقف السيارات في مراكز المدن، وتتيح استخداماً أكثر كفاءة للأراضي. لكنها في الوقت نفسه قد تزيد الضغط على شبكات الطرق إذا لم تتم إدارتها بشكل مناسب. وهذا يضع صناع القرار أمام مرحلة حاسمة، حيث ستؤثر السياسات المتعلقة بالنقل والبنية التحتية على كيفية استيعاب هذه التقنية.

تشير الدراسة إلى أن تأثير السيارات ذاتية القيادة يتجاوز النقل نفسه، ليصل إلى طريقة تصميم المدن. فإذا انتقلت مواقف السيارات إلى خارج المراكز، فقد تتغير قيمة الأراضي في هذه المناطق. وإذا أصبحت الرحلات أكثر مرونة، فقد تتبدل أنماط الازدحام التقليدية. كما أن زيادة الاعتماد على السيارات قد تفرض إعادة النظر في التوازن بين النقل الخاص والعام.

بين الابتكار والسياسات

في النهاية، لن يتحدد تأثير هذه التقنية بالتطور التكنولوجي فقط، بل بكيفية دمجها ضمن الأنظمة الحالية. فمن دون سياسات واضحة، قد تؤدي الراحة التي توفرها السيارات ذاتية القيادة إلى نتائج عكسية مثل زيادة الازدحام. أما إذا تم توجيهها بشكل مدروس، فقد تسهم في تحسين الكفاءة وتقليل التكاليف وتعزيز جودة الحياة في المدن.

غالباً ما تُقدَّم السيارات ذاتية القيادة كحل لمشكلات الازدحام، لكن الدراسة تشير إلى أنها تمثل تحولاً أعمق، يعيد تشكيل الأنظمة القائمة بدلاً من حلّها بشكل مباشر.

رحلة الصباح اليومية، التي كانت تعتمد على قرارات بشرية، قد تصبح قريباً محكومة بخوارزميات وعوامل اقتصادية وأنظمة آلية. والنتيجة النهائية لن تعتمد على التقنية فقط، بل على الخيارات التي تُتّخذ اليوم.


بدعوى لافتة... هيئة أميركية تُحمّل «إنستغرام» و«يوتيوب» مسؤولية إدمان وسائل التواصل

مارك زوكربيرغ الرئيس التنفيذي لـ«ميتا» يظهر بصورة خلف شعار الشركة (أ.ف.ب)
مارك زوكربيرغ الرئيس التنفيذي لـ«ميتا» يظهر بصورة خلف شعار الشركة (أ.ف.ب)
TT

بدعوى لافتة... هيئة أميركية تُحمّل «إنستغرام» و«يوتيوب» مسؤولية إدمان وسائل التواصل

مارك زوكربيرغ الرئيس التنفيذي لـ«ميتا» يظهر بصورة خلف شعار الشركة (أ.ف.ب)
مارك زوكربيرغ الرئيس التنفيذي لـ«ميتا» يظهر بصورة خلف شعار الشركة (أ.ف.ب)

أصدرت هيئة محلفين حكماً يقضي بتحميل كل من شركتي «ميتا» و«يوتيوب» المسؤولية، في دعوى فريدة من نوعها تهدف إلى تحميل منصات التواصل الاجتماعي المسؤولية عن الأضرار التي تلحق بالأطفال المستخدمين لخدماتها، ومنحت للمدعية تعويضات بقيمة 3 ملايين دولار.

وقررت هيئة المحلفين في كاليفورنيا، بعد أكثر من 40 ساعة من المداولات على مدار تسعة أيام، أن شركتي «ميتا» و«يوتيوب» أهملتا في تصميم وتشغيل منصتيهما.

وأقرت هيئة المحلفين أيضاً أن إهمال كلتا الشركتين كان عاملاً جوهرياً في التسبب بالأذى للمدعية، وهي شابة تبلغ من العمر 20 عاماً تقول إن استخدامها لوسائل التواصل الاجتماعي في طفولتها أدى إلى إدمانها على التكنولوجيا وزاد من معاناتها النفسية.

شعار شركة «يوتيوب» (أ.ف.ب)

وأكدت القاضية كارولين بي كول أن هيئة المحلفين أبلغت المحكمة بأنها توصلت إلى حكم. ونبهت الجمهور ووسائل الإعلام بأنه ينبغي عليهم عدم إظهار أي رد فعل علني تجاه الحكم، أياً كان.

وقالت: «لا صراخ، لا ردود أفعال، لا إزعاج». وأضافت أن من يتصرف بهذه الطريقة سيتم إخراجه من قاعة المحكمة.

وكانت شركة «ميتا» وشركة «يوتيوب»، المملوكة لـ«غوغل»، هما المدعى عليهما الباقيين في القضية بعد أن توصلت شركتي «تيك توك» و«سناب» إلى تسويات قبل بدء المحاكمة.


دراسة تبحث: هل يغيّر الذكاء الاصطناعي طريقة تفكيرنا رغم صحة المعلومات؟

تلعب طريقة عرض المعلومات وسردها دوراً أساسياً في تشكيل الفهم وليس فقط مضمونها (شاترستوك)
تلعب طريقة عرض المعلومات وسردها دوراً أساسياً في تشكيل الفهم وليس فقط مضمونها (شاترستوك)
TT

دراسة تبحث: هل يغيّر الذكاء الاصطناعي طريقة تفكيرنا رغم صحة المعلومات؟

تلعب طريقة عرض المعلومات وسردها دوراً أساسياً في تشكيل الفهم وليس فقط مضمونها (شاترستوك)
تلعب طريقة عرض المعلومات وسردها دوراً أساسياً في تشكيل الفهم وليس فقط مضمونها (شاترستوك)

مع تزايد اعتماد المستخدمين على أدوات الذكاء الاصطناعي للحصول على المعلومات، يبرز سؤال أساسي: هل تستطيع هذه الأنظمة التأثير ليس فقط في ما نعرفه، بل أيضاً في طريقة تفكيرنا؟

دراسة أكاديمية حديثة نُشرت في «PNAS Nexus» تحاول الإجابة عن هذا السؤال من خلال تحليل كيفية تأثير السرديات التاريخية التي ينتجها الذكاء الاصطناعي على آراء الأفراد. وتشير النتائج إلى أن المعلومات قد تكون دقيقة من حيث الوقائع، لكنها لا تكون بالضرورة محايدة في تأثيرها.

تجربة منهجية لقياس التأثير

اعتمدت الدراسة على تجربة واسعة شملت 1912 مشاركاً، وهدفت إلى قياس تأثير التعرض لنصوص تاريخية مولدة بالذكاء الاصطناعي على آراء الأفراد. عُرضت على المشاركين ملخصات لأحداث تاريخية تم إنشاؤها بواسطة الذكاء الاصطناعي، ثم طُلب منهم تقييم مواقفهم تجاه مواضيع مرتبطة بها. ولم يكن الهدف اختبار المعلومات المضللة، بل فهم ما إذا كان أسلوب العرض وحده حتى مع بقاء الحقائق ثابتة يمكن أن يؤثر في الحكم. والنتيجة كانت واضحة: نعم، يمكن لذلك أن يحدث. فحتى عندما لم تتغير الوقائع، أدت الاختلافات في طريقة السرد إلى تغيّر ملحوظ في آراء المشاركين. وهذا يعني أن التأثير لا يتطلب معلومات خاطئة، بل يمكن أن ينشأ من طريقة العرض نفسها.

يتحول دور الذكاء الاصطناعي من نقل المعلومات إلى تفسيرها ضمن سياق سردي متكامل (أدوبي)

التحيز الكامن: تأثير غير مرئي

تسلّط الدراسة الضوء على مفهوم ما يُعرف بـ«التحيز الكامن»، وهو التحيز الذي يظهر في النصوص دون قصد مباشر، نتيجة للبيانات التي تدربت عليها الأنظمة أو لطريقة صياغة الطلبات.

وبما أن أنظمة الذكاء الاصطناعي تعتمد على كميات ضخمة من البيانات البشرية، فهي تعكس أنماطاً وسياقات موجودة مسبقاً. وعند توليد محتوى، قد تميل إلى إبراز جوانب معينة على حساب أخرى.

هذا النوع من التحيز لا يكون واضحاً، ولا يتضمن بالضرورة أخطاء أو معلومات مضللة، بل يظهر من خلال اختيار التفاصيل وترتيبها وأسلوب عرضها.

أهمية صياغة السؤال

تشير الدراسة أيضاً إلى أن طريقة طرح السؤال أو الطلب تؤثر بشكل كبير في النتيجة. فالتغييرات البسيطة في صياغة السؤال يمكن أن تؤدي إلى اختلاف في طريقة عرض الحدث نفسه، حتى لو ظلت الوقائع ثابتة. وهذا يعني أن الذكاء الاصطناعي لا يسترجع المعلومات فقط، بل يعيد بناءها استجابةً لطريقة التفاعل معه. وبالتالي، فإن العلاقة بين المستخدم والنظام تصبح جزءاً من عملية إنتاج المعرفة، وليس مجرد وسيلة للوصول إليها.

على عكس محركات البحث التقليدية التي توفر روابط متعددة، يقدم الذكاء الاصطناعي محتوى جاهزاً ومترابطاً في شكل سردي. وهذا التحول له تأثير مهم على طريقة استيعاب المعلومات.

فعندما يقرأ المستخدم نصاً متماسكاً بدلاً من مصادر متعددة، يكون أكثر ميلاً لتقبّله كتصور متكامل، وليس كوجهة نظر ضمن مجموعة من الآراء. وهذا يزيد من تأثير الخيارات السردية غير الظاهرة داخل النص.

وتشير الدراسة إلى أن هذه الأنظمة لم تعد مجرد أدوات لنقل المعلومات، بل أصبحت وسيطاً تفسيرياً يؤثر في كيفية فهم الأحداث.

الدقة لا تعني الحياد

من أبرز استنتاجات الدراسة أن الدقة لا تضمن الحياد. فحتى عندما تكون المعلومات صحيحة، يمكن لطريقة تنظيمها وعرضها أن تؤثر في تفسيرها. وهذا يتحدى فكرة شائعة مفادها أن ضمان صحة المعلومات كافٍ لضمان موضوعيتها. في الواقع، قد يؤدي التركيز على عناصر معينة، أو تقديم سياق محدد، إلى توجيه الفهم بطريقة غير مباشرة.

ومع تزايد الاعتماد على الذكاء الاصطناعي لتلخيص المواضيع المعقدة، تكتسب هذه النتائج أهمية أكبر. فالمستخدمون قد يتعرضون لتفسيرات تبدو محايدة، لكنها تحمل تأثيرات ضمنية ناتجة عن أسلوب العرض. ولا يعني ذلك وجود نية للتضليل، بل يعكس طبيعة الأنظمة التي تحاول محاكاة اللغة البشرية من خلال بيانات واسعة ومعقدة.

تؤثر صياغة الأسئلة أو الطلبات بشكل كبير في طبيعة الإجابات التي يولدها الذكاء الاصطناعي

مجال بحثي يتوسع

تفتح هذه الدراسة الباب أمام مزيد من البحث حول تأثير الذكاء الاصطناعي على الإدراك البشري. فما زالت هناك تساؤلات حول اختلاف التأثير بين الأفراد، وكيف تتغير الاستجابة وفقاً للخلفية أو المعتقدات المسبقة. كما أن انتشار هذه الأنظمة قد يضاعف من تأثيرها على النقاش العام. تركز النقاشات غالباً على خطر المعلومات الخاطئة، لكن هذه الدراسة تشير إلى تحدٍّ مختلف يتعلق بتأثير المعلومات الصحيحة عندما تُعرض بطريقة معينة. وهذا يعني أن التأثير لا يأتي فقط من الخطأ، بل من طريقة عرض الحقيقة نفسها.

مسؤولية جديدة

تفرض هذه النتائج مسؤوليات جديدة على المطورين وصناع القرار والمستخدمين. فالحاجة لم تعد تقتصر على ضمان دقة المعلومات، بل تمتد إلى فهم كيفية إنتاجها وتقديمها. كما يصبح من الضروري تعزيز الوعي النقدي لدى المستخدمين عند التعامل مع المحتوى الناتج عن الذكاء الاصطناعي.

ومع تطور الذكاء الاصطناعي، تتغير العلاقة بين المعرفة والثقة. تشير هذه الدراسة إلى أن الثقة لا ينبغي أن تُبنى على صحة المعلومات فقط، بل أيضاً على فهم كيفية صياغتها وعرضها.

وبهذا المعنى، لم يعد الذكاء الاصطناعي مجرد أداة لنقل المعرفة، بل أصبح جزءاً من عملية تشكيلها. وهنا يكمن التحدي الحقيقي، ليس فقط في التأكد من صحة المعلومات، بل في فهم الطريقة التي تُروى بها.