تهديدات سيبرانية لنظم «الذكاء الصناعي التوليدي»

من «تشات جي بي تي» المحاور إلى «هاك جي بي تي» القرصان

تهديدات سيبرانية لنظم «الذكاء الصناعي التوليدي»
TT

تهديدات سيبرانية لنظم «الذكاء الصناعي التوليدي»

تهديدات سيبرانية لنظم «الذكاء الصناعي التوليدي»

يستخدم المجرمون السيبرانيون منذ سنوات تقنيات الذكاء الصناعي لقرصنة نظم الشركات وتعطيل العمليات التجارية. ولكنّ أدوات الذكاء الصناعي التوليدي كـ«تشات جي بي تي» تضع قادة الأعمال أمام نسقٍ جديدٍ من التحديات.

تأمّلوا السيناريوهات المعقولة التالية:> قرصان يستخدم «تشات جي بي تي» ChatGPT لتوليد رسائل بهدف التصيّد الاحتيالي بناءً على مواد الترويج التي تعتمدها الشركة ورسائل التصيّد التي أثبتت نجاحها في تجارب سابقة، وينجح في خداع الأشخاص المدرّبين جيّداً على تمييز الرسائل الإلكترونية؛ لأنّها لا تبدو كالرسائل التي تدرّبوا على رصدها.> يتّصل روبوت محادثة بموظّف في المحاسبة ويتحدّث مستخدماً صوتاً مزيّفاً يبدو تماماً كصوت المدير. بعد تبادل بعض الطرائف، يطلب «المدير» من الموظّف تحويل آلاف الدولارات إلى حساب «لتسديد فاتورة». يعلم الموظّف أنّه يجب ألّا يفعل ذلك، ولكنّ المدير يمكنه القيام ببعض الاستثناءات، أليس كذلك؟

> يستخدم القراصنة السيبرانيون الذكاء الصناعي لـ«تسميم» المعلومات في أي نظام بشكلٍ واقعي، وصناعة ملفّ قيّم يمكنهم سحبه قبل اكتشاف عملية الاحتيال.

> في رسالة إلكترونية مزيّفة، ولكن مقنعة من إعداد الذكاء الصناعي التوليدي، يناقش أحد المديرين التنفيذيين في الشركة التغطية على عجز مالي. تنتشر الرسالة «المسرّبة» على نطاقٍ واسع بمساعدة جيش من روبوتات المحادثة على التواصل الاجتماعي، فتؤدّي إلى هبوط حاد في أسعار الأسهم وإلى ضررٍ دائم في سمعة الشركة.

قد تبدو هذه السيناريوهات مألوفة جداً للأشخاص الذين يتابعون بعناية قصص مواد «ديب فيك» والفوضى التي تحدثها على التواصل الاجتماعي أو الاختراقات الموجعة في أنظمة تكنولوجيا المعلومات في الشركات، ولكنّ طبيعة التهديدات الجديدة تقع في خانة مختلفة وفئة مخيفة؛ لأنّ التقنية التي تقف خلفها أصبحت «مخيفة أكثر».

- ابتكارات غير معهودة

استخدم معظم الاعتداءات السيبرانية حتّى اليوم منطلقات غير معقّدة. تخيّلوا ملايين التهديدات المتواصلة التي تفتقر إلى الأدمغة وتنجح فقط عندما تقع على نقطة أو نقطتي ضعف في الحاجز الدفاعي. في المقابل، تأتي التهديدات الأكثر تعقيداً – أي الاحتيالات والسرقات الكبرى التي نسمع عنها أحياناً في وسائل الإعلام – على شكل اعتداءات تتطلّب مشاركة بشرية حقيقية لتنجح.

هذا العصر الجديد من البرمجيات المدعومة بالذكاء الصناعي يعني أنّه لم يعد بإمكان الشركات استخدام منطلقات أفضل الممارسات التي كانت فعّالة قبل بضعة أشهر. بمعنى آخر، لن يكفي بعد اليوم أنّ تعتمد الشركات على الدفاع من العمق، أي تطبيق استراتيجية السياسات الأمنية الصحيحة، واستخدام الأدوات التقنية للوقاية والرصد، وتعزيز وعي الموظفين بالقواعد الأمنية؛ لأنّ عصراً جديداً قد بدأ.

باستخدام مجموعات من النصوص والأصوات والرسومات والفيديوهات، سيطلق الذكاء الصناعي التوليدي العنان لابتكارات غير معروفة وغير قابلة للكشف في مجال القرصنة، لا سيّما أنّ الدفاعات الناجعة ضدّها غير قابلة للأتمتة بعد.

- ردع ووقاية ذكية

> مواجهة الذكاء الصناعي التوليدي بالذكاء الصناعي التوليدي. يجب على الشركات أن تستخدم الذكاء الصناعي التوليدي لتقوية قدراتها الدفاعية وتسريع قدرتها على الاستجابة للتهديدات الجديدة في الوقت الحقيقي.

تعمل شركة «أوبن إي.آي». (صانعة «تشات جي بي تي») وغيرها على إطلاق أدوات كـ«جي بي تي. زيرو» GPTZero ستتيح للشركات رصد ما إذا كانت النصوص الجديدة (التي لا تتضمّن توقيعاً قابلاً للتعريف) هي من إنتاج الذكاء الصناعي التوليدي. تستطيع الشركات من خلال إدراج هذه الأدوات في خوادم البريد الإلكتروني تحسين احتمالية حجب رسائل التصيّد المتطوّرة.

ثانياً، من الضروري جداً أن يتحسّن الرصد بالوقت الحقيقي وبسرعة. تعتمد شركات كثيرة على رصد النمط لصدّ الاعتداءات، ولكنّ المشكلة هي أنّ الأنماط تتشكّل بناءً على معلومات من اعتداءات سابقة. لذا؛ ولمواجهة الاعتداءات المدفوعة بالذكاء الصناعي التوليدي، نحتاج إلى عصرٍ جديد من الوقاية «الذكية».

يملك الذكاء الصناعي التوليدي القدرة على تحسين قدرة الشركات على الرصد السريع للاعتلالات في السلوكيات والأفعال بين الموظفين أو أي مكان آخر في قلب أنظمة الشركة. تعدّ سلوكيات الموظفين – والتي يمكن تحديدها من خلال الأنظمة التي يلجون إليها، وكمية البيانات التي يصلون إليها، والجهات التي يتواصلون معها عبر البريد الإلكتروني – قابلة للتوقّع بشكلٍ يومي بحسب المهام الوظيفية الموكلة إليهم؛ الأمر الذي يمكن وصفه ببصمتهم السلوكية. إذا تغيّرت هذه البصمة فجأة ومن دون تعديل في توصيف وظيفتهم، قد يشير هذا الأمر مثلاً إلى وجود محاولة للقرصنة أو سلوك خاطئ من أحد الموظفين.

تستطيع الشركات استخدام الذكاء الصناعي التوليدي مع بعض أدوات الذكاء الصناعي لتحديد مدى الضرر – أو تحديد عدم حصول اختراق. أُعلن أخيراً عن عددٍ لا بأس به من إضافات المتصفّح وتطبيقات الطرف الثالث المطوّرة المدفوعة ببرنامج «جي بي تي - 4»؛ لذا يجب أن نتوقّع إطلاق أدوات أمنية مدعومة بالذكاء الصناعي قريباً.

> تدريب الأفراد على الاعتداءات الأكثر ذكاءً. يبقى السلوك البشري الواعي للأمن ضرورياً وأساسياً للسلامة السيبرانية، ولكنّ الناس يستمرّون في ارتكاب الأخطاء. تعمل حملات توعية كثيرة على توصيف التهديدات القائمة وتقدّم قواعد يجب اتباعها: لا تنقروا على الروابط، واحرصوا على استخدام كلمات مرور قوية، وحدّثوا جميع البرمجيات، والكثير غيرها.

في مجال الذكاء الصناعي التوليدي، يحتاج التدريب الواعي إلى الانتقال من السياسات التي تحكم السلوك إلى الجهوزية المعتمدة على المعرفة التي تتيح للموظف رصد التهديدات الجديدة. بمعنى آخر، يجب على الموظّف أن يعرف ما يكفي من المعلومات عن القرصنة ليتطوّر من مجرّد عارفٍ للقواعد إلى مدافعٍ نشط. مع تقدّم أدوات الذكاء الصناعي التوليدي، فقدت سياسات أمن المعلومات التقليدية فاعليتها؛ لأنّ المقاربة المبنية على القواعد لم تعد ببساطة ناجعة.

تحتاج الشركات إلى التخلّي عن الاستراتيجية المبنية على الامتثال لصالح أخرى يُصار فيها إلى تطوير مهارات الموظف؛ الأمر الذي يتطلّب تدريبات بقيادة مختص، وجهاً لوجه أو عبر الإنترنت، وتطوير المعرفة التي تتخطّى السياسات التقليدية.

باختصار، يمكن القول إنّ أفضل دفاع في وجه الحيل المدعومة بالذكاء الصناعي يكون بالتعلّم من الذكاء الصناعي نفسه، وهذا الأمر لا يعني استراتيجيات دفاعية أسرع وأقوى فقط، بل استراتيجيات أذكى للتقنية والنّاس أيضاً.

لن تستطيعوا مواجهة «الزومبي» الذكي بتعلية السور، ولكن يمكنكم تعزيز الدفاعات التقليدية بأدوات جديدة معززة بالذكاء الصناعي. في عالم جديد ومخيف من «هاك جي بي تي» HackGPT المتسلل والقرصان، يجب أن تبدأوا من اليوم بالتحضير للحفاظ على أمن وسلامة شركاتكم.

- باحثة علوم الكومبيوتر بجامعة ستراثكلايد الأسكوتلندية - بروفسورة النظم المعلوماتية بجامعة مسيسيبي الأميركية - مدرس أقدم في كلية سلاون للإدارة بمعهد ماساشوسيتس للتقنية. «سلاون مانيجمنت ريفيو» - معهد ماساتشوستس للتقنية

ـ خدمات «تريبيون ميديا»


مقالات ذات صلة

هل أصبحت مرونة البرمجيات شرطاً أساسياً لحماية الاقتصاد الرقمي في السعودية؟

خاص توسّع مفهوم المرونة الرقمية ليشمل استمرارية البرمجيات وليس الأمن السيبراني فقط (أدوبي)

هل أصبحت مرونة البرمجيات شرطاً أساسياً لحماية الاقتصاد الرقمي في السعودية؟

توسّع مفهوم المرونة الرقمية ليشمل استمرارية البرمجيات ومخاطر الموردين مع بروز الحساب الضامن أداةً لحماية الخدمات الرقمية الحيوية.

نسيم رمضان (لندن)
شؤون إقليمية أعلنت مجموعة القرصنة الإيرانية «حنظلة» أنه «تم تنفيذ عمليتنا السيبرانية الكبيرة بنجاح تام» (رويترز)

مجموعة إيرانية تتبنى قرصنة واسعة لشركة طبية أميركية

أعلنت مجموعة قرصنة إلكترونية مرتبطة بإيران مسؤوليتها، الأربعاء، عن هجوم واسع النطاق على شركة «سترايكر» الأميركية العملاقة للتكنولوجيا الطبية.

«الشرق الأوسط» (لندن)
تكنولوجيا لم يعد الاحتيال الرقمي حوادث فردية بل تحول إلى منظومة اقتصادية عالمية تتسارع مع التحول الرقمي والذكاء الاصطناعي (غيتي)

تقرير عالمي: 74 % من احتيال الهويّة باتت تعتمد أدوات الذكاء الاصطناعي

يتحول الاحتيال الرقمي إلى منظومة عالمية مدعومة بالذكاء الاصطناعي مع تضاعف احتيال العملاء، وازدهار أسواق الإنترنت المظلم، وتسارع المدفوعات الرقمية

نسيم رمضان (لندن)
العالم خلال تجربة إطلاق صاروخ من غواصة أميركية قبالة سواحل كاليفورنيا 26 مارس 2018 (رويترز)

التشويش الإلكتروني: كيف يُعطِّل الصواريخ الذكية ويُغيّر مسارها؟

يربك التشويش الإلكتروني أنظمة توجيه الصواريخ الذكية عبر حجب أو تزوير الإشارات، ما يؤدي إلى انحرافها وفقدان دقة إصابة الهدف.

«الشرق الأوسط» (لندن)
خاص تعقيد البيئات متعددة السحابة والهوية الرقمية يجعل التعافي أكثر ترابطاً من مجرد استعادة بيانات (شاترستوك)

خاص هل التعافي السيبراني هو الحلقة الخفية في معادلة الذكاء الاصطناعي؟

تسارع الذكاء الاصطناعي في السعودية يبرز التعافي السيبراني كشرط أساسي لضمان الثقة واستمرارية الخدمات الحيوية على نطاق واسع.

نسيم رمضان (لندن)

السيارات ذاتية القيادة… هل تجعل التنقل أسهل أم المدن أكثر ازدحاماً؟

قد تعيد السيارات ذاتية القيادة تشكيل أنماط التنقل اليومية من حيث التوقيت والمكان وطريقة الاستخدام (شاترستوك)
قد تعيد السيارات ذاتية القيادة تشكيل أنماط التنقل اليومية من حيث التوقيت والمكان وطريقة الاستخدام (شاترستوك)
TT

السيارات ذاتية القيادة… هل تجعل التنقل أسهل أم المدن أكثر ازدحاماً؟

قد تعيد السيارات ذاتية القيادة تشكيل أنماط التنقل اليومية من حيث التوقيت والمكان وطريقة الاستخدام (شاترستوك)
قد تعيد السيارات ذاتية القيادة تشكيل أنماط التنقل اليومية من حيث التوقيت والمكان وطريقة الاستخدام (شاترستوك)

لطالما اتسمت رحلة التنقل اليومية في كثير من المدن حول العالم بازدحام مروري، والبحث الطويل عن موقف للسيارة، وتوسع مستمر في المساحات الحضرية المخصصة للمركبات. لكن مع اقتراب السيارات ذاتية القيادة من الانتشار الواسع، يتساءل الباحثون عما سيحدث عندما لا يعود هناك سائقون؟

تشير دراسة حديثة حول تأثير المركبات ذاتية القيادة على أنماط التنقل الصباحية إلى أن الإجابة ليست بسيطة كما قد يبدو. فهذه التقنية لا تعد بتقليل الازدحام فقط، بل قد تعيد تشكيل طريقة التنقل وتوقيته ومكانه، بما يحمل فرصاً جديدة وتحديات غير متوقعة.

إعادة التفكير في مفهوم مواقف السيارات

أحد أبرز التغييرات المحتملة يتعلق بكيفية التعامل مع مواقف السيارات. فاليوم، تشغل مواقف السيارات مساحات كبيرة في المدن، ومع ذلك لا يزال العثور على موقف مناسب يمثل تحدياً لكثير من المستخدمين.

مع السيارات ذاتية القيادة، قد يتغير هذا الواقع بشكل جذري. فبإمكان السيارة أن تُنزل الركاب عند وجهتهم، ثم تتحرك بمفردها إلى مناطق أقل ازدحاماً، وغالباً أقل تكلفة خارج مراكز المدن. وهذا قد يقلل الحاجة إلى مواقف السيارات في المناطق المركزية، ويفتح المجال لإعادة استخدام هذه المساحات لأغراض أخرى مثل الإسكان أو الأنشطة التجارية أو المساحات العامة. بالنسبة للمستخدمين، يعني ذلك وقتاً أقل في البحث عن موقف وتكاليف أقل. أما بالنسبة للمدن، فإن التأثيرات قد تكون أعمق وأكثر تعقيداً.

سيكون لتبني السيارات ذاتية القيادة تأثير مباشر على تخطيط المدن واستخدام الأراضي وقيمة المواقع (شاترستوك)

مفارقة الكفاءة والازدحام

رغم أن السيارات ذاتية القيادة تعد بمزيد من الراحة، فإن الدراسة تشير إلى احتمال ظهور آثار جانبية غير متوقعة. فإذا أصبحت مواقف السيارات خارج المدن خياراً سهلاً، فقد يفضل عدد أكبر من الأشخاص استخدام السيارات بدلاً من وسائل النقل العام. كما أن تحرك السيارات دون ركاب إلى مواقع الانتظار قد يزيد من حركة المرور الإجمالية. وتشير النماذج إلى أن انتشار هذه المركبات قد يؤدي إلى زيادة إجمالي المسافات المقطوعة ومدة التنقل مقارنة بالنظام التقليدي. وهنا تظهر مفارقة واضحة: قد تصبح الرحلة الفردية أكثر سهولة، لكن النظام كله قد يصبح أكثر ازدحاماً.

تغير سلوك التنقل

إلى جانب البنية التحتية، قد تؤثر السيارات ذاتية القيادة على سلوك الأفراد. فعندما لا تكون هناك حاجة للقيادة، يمكن استغلال وقت الرحلة للعمل أو الترفيه أو الراحة. وهذا قد يجعل الرحلات الطويلة أكثر قبولاً، ويدفع البعض للسكن في مناطق أبعد عن أماكن العمل. كما قد تتغير أوقات الانطلاق. فقد يختار المستخدمون توقيت رحلاتهم بناءً على ظروف المرور أو التكلفة أو الراحة، ما يؤدي إلى أنماط تنقل أكثر مرونة مقارنة بالروتين التقليدي. ولفهم هذه التغيرات، استخدم الباحثون نماذج تحاكي قرارات الأفراد بشأن توقيت الرحلة ومكان الوقوف والتوازن بين الزمن والتكلفة. وتشير النتائج إلى أن هذه القرارات ستصبح أكثر ديناميكية وتأثراً بالعوامل الاقتصادية.

يعتمد تأثير السيارات ذاتية القيادة النهائي على السياسات والتنظيم وليس على التكنولوجيا وحدها لتحقيق التوازن بين الكفاءة والازدحام (شاتوستوك)

تداعيات على التخطيط الحضري

بالنسبة لمخططي المدن، تنطوي هذه النتائج على فرص وتحديات في آن واحد. فالسيارات ذاتية القيادة قد تقلل الحاجة إلى مواقف السيارات في مراكز المدن، وتتيح استخداماً أكثر كفاءة للأراضي. لكنها في الوقت نفسه قد تزيد الضغط على شبكات الطرق إذا لم تتم إدارتها بشكل مناسب. وهذا يضع صناع القرار أمام مرحلة حاسمة، حيث ستؤثر السياسات المتعلقة بالنقل والبنية التحتية على كيفية استيعاب هذه التقنية.

تشير الدراسة إلى أن تأثير السيارات ذاتية القيادة يتجاوز النقل نفسه، ليصل إلى طريقة تصميم المدن. فإذا انتقلت مواقف السيارات إلى خارج المراكز، فقد تتغير قيمة الأراضي في هذه المناطق. وإذا أصبحت الرحلات أكثر مرونة، فقد تتبدل أنماط الازدحام التقليدية. كما أن زيادة الاعتماد على السيارات قد تفرض إعادة النظر في التوازن بين النقل الخاص والعام.

بين الابتكار والسياسات

في النهاية، لن يتحدد تأثير هذه التقنية بالتطور التكنولوجي فقط، بل بكيفية دمجها ضمن الأنظمة الحالية. فمن دون سياسات واضحة، قد تؤدي الراحة التي توفرها السيارات ذاتية القيادة إلى نتائج عكسية مثل زيادة الازدحام. أما إذا تم توجيهها بشكل مدروس، فقد تسهم في تحسين الكفاءة وتقليل التكاليف وتعزيز جودة الحياة في المدن.

غالباً ما تُقدَّم السيارات ذاتية القيادة كحل لمشكلات الازدحام، لكن الدراسة تشير إلى أنها تمثل تحولاً أعمق، يعيد تشكيل الأنظمة القائمة بدلاً من حلّها بشكل مباشر.

رحلة الصباح اليومية، التي كانت تعتمد على قرارات بشرية، قد تصبح قريباً محكومة بخوارزميات وعوامل اقتصادية وأنظمة آلية. والنتيجة النهائية لن تعتمد على التقنية فقط، بل على الخيارات التي تُتّخذ اليوم.


بدعوى لافتة... هيئة أميركية تُحمّل «إنستغرام» و«يوتيوب» مسؤولية إدمان وسائل التواصل

مارك زوكربيرغ الرئيس التنفيذي لـ«ميتا» يظهر بصورة خلف شعار الشركة (أ.ف.ب)
مارك زوكربيرغ الرئيس التنفيذي لـ«ميتا» يظهر بصورة خلف شعار الشركة (أ.ف.ب)
TT

بدعوى لافتة... هيئة أميركية تُحمّل «إنستغرام» و«يوتيوب» مسؤولية إدمان وسائل التواصل

مارك زوكربيرغ الرئيس التنفيذي لـ«ميتا» يظهر بصورة خلف شعار الشركة (أ.ف.ب)
مارك زوكربيرغ الرئيس التنفيذي لـ«ميتا» يظهر بصورة خلف شعار الشركة (أ.ف.ب)

أصدرت هيئة محلفين حكماً يقضي بتحميل كل من شركتي «ميتا» و«يوتيوب» المسؤولية، في دعوى فريدة من نوعها تهدف إلى تحميل منصات التواصل الاجتماعي المسؤولية عن الأضرار التي تلحق بالأطفال المستخدمين لخدماتها، ومنحت للمدعية تعويضات بقيمة 3 ملايين دولار.

وقررت هيئة المحلفين في كاليفورنيا، بعد أكثر من 40 ساعة من المداولات على مدار تسعة أيام، أن شركتي «ميتا» و«يوتيوب» أهملتا في تصميم وتشغيل منصتيهما.

وأقرت هيئة المحلفين أيضاً أن إهمال كلتا الشركتين كان عاملاً جوهرياً في التسبب بالأذى للمدعية، وهي شابة تبلغ من العمر 20 عاماً تقول إن استخدامها لوسائل التواصل الاجتماعي في طفولتها أدى إلى إدمانها على التكنولوجيا وزاد من معاناتها النفسية.

شعار شركة «يوتيوب» (أ.ف.ب)

وأكدت القاضية كارولين بي كول أن هيئة المحلفين أبلغت المحكمة بأنها توصلت إلى حكم. ونبهت الجمهور ووسائل الإعلام بأنه ينبغي عليهم عدم إظهار أي رد فعل علني تجاه الحكم، أياً كان.

وقالت: «لا صراخ، لا ردود أفعال، لا إزعاج». وأضافت أن من يتصرف بهذه الطريقة سيتم إخراجه من قاعة المحكمة.

وكانت شركة «ميتا» وشركة «يوتيوب»، المملوكة لـ«غوغل»، هما المدعى عليهما الباقيين في القضية بعد أن توصلت شركتي «تيك توك» و«سناب» إلى تسويات قبل بدء المحاكمة.


دراسة تبحث: هل يغيّر الذكاء الاصطناعي طريقة تفكيرنا رغم صحة المعلومات؟

تلعب طريقة عرض المعلومات وسردها دوراً أساسياً في تشكيل الفهم وليس فقط مضمونها (شاترستوك)
تلعب طريقة عرض المعلومات وسردها دوراً أساسياً في تشكيل الفهم وليس فقط مضمونها (شاترستوك)
TT

دراسة تبحث: هل يغيّر الذكاء الاصطناعي طريقة تفكيرنا رغم صحة المعلومات؟

تلعب طريقة عرض المعلومات وسردها دوراً أساسياً في تشكيل الفهم وليس فقط مضمونها (شاترستوك)
تلعب طريقة عرض المعلومات وسردها دوراً أساسياً في تشكيل الفهم وليس فقط مضمونها (شاترستوك)

مع تزايد اعتماد المستخدمين على أدوات الذكاء الاصطناعي للحصول على المعلومات، يبرز سؤال أساسي: هل تستطيع هذه الأنظمة التأثير ليس فقط في ما نعرفه، بل أيضاً في طريقة تفكيرنا؟

دراسة أكاديمية حديثة نُشرت في «PNAS Nexus» تحاول الإجابة عن هذا السؤال من خلال تحليل كيفية تأثير السرديات التاريخية التي ينتجها الذكاء الاصطناعي على آراء الأفراد. وتشير النتائج إلى أن المعلومات قد تكون دقيقة من حيث الوقائع، لكنها لا تكون بالضرورة محايدة في تأثيرها.

تجربة منهجية لقياس التأثير

اعتمدت الدراسة على تجربة واسعة شملت 1912 مشاركاً، وهدفت إلى قياس تأثير التعرض لنصوص تاريخية مولدة بالذكاء الاصطناعي على آراء الأفراد. عُرضت على المشاركين ملخصات لأحداث تاريخية تم إنشاؤها بواسطة الذكاء الاصطناعي، ثم طُلب منهم تقييم مواقفهم تجاه مواضيع مرتبطة بها. ولم يكن الهدف اختبار المعلومات المضللة، بل فهم ما إذا كان أسلوب العرض وحده حتى مع بقاء الحقائق ثابتة يمكن أن يؤثر في الحكم. والنتيجة كانت واضحة: نعم، يمكن لذلك أن يحدث. فحتى عندما لم تتغير الوقائع، أدت الاختلافات في طريقة السرد إلى تغيّر ملحوظ في آراء المشاركين. وهذا يعني أن التأثير لا يتطلب معلومات خاطئة، بل يمكن أن ينشأ من طريقة العرض نفسها.

يتحول دور الذكاء الاصطناعي من نقل المعلومات إلى تفسيرها ضمن سياق سردي متكامل (أدوبي)

التحيز الكامن: تأثير غير مرئي

تسلّط الدراسة الضوء على مفهوم ما يُعرف بـ«التحيز الكامن»، وهو التحيز الذي يظهر في النصوص دون قصد مباشر، نتيجة للبيانات التي تدربت عليها الأنظمة أو لطريقة صياغة الطلبات.

وبما أن أنظمة الذكاء الاصطناعي تعتمد على كميات ضخمة من البيانات البشرية، فهي تعكس أنماطاً وسياقات موجودة مسبقاً. وعند توليد محتوى، قد تميل إلى إبراز جوانب معينة على حساب أخرى.

هذا النوع من التحيز لا يكون واضحاً، ولا يتضمن بالضرورة أخطاء أو معلومات مضللة، بل يظهر من خلال اختيار التفاصيل وترتيبها وأسلوب عرضها.

أهمية صياغة السؤال

تشير الدراسة أيضاً إلى أن طريقة طرح السؤال أو الطلب تؤثر بشكل كبير في النتيجة. فالتغييرات البسيطة في صياغة السؤال يمكن أن تؤدي إلى اختلاف في طريقة عرض الحدث نفسه، حتى لو ظلت الوقائع ثابتة. وهذا يعني أن الذكاء الاصطناعي لا يسترجع المعلومات فقط، بل يعيد بناءها استجابةً لطريقة التفاعل معه. وبالتالي، فإن العلاقة بين المستخدم والنظام تصبح جزءاً من عملية إنتاج المعرفة، وليس مجرد وسيلة للوصول إليها.

على عكس محركات البحث التقليدية التي توفر روابط متعددة، يقدم الذكاء الاصطناعي محتوى جاهزاً ومترابطاً في شكل سردي. وهذا التحول له تأثير مهم على طريقة استيعاب المعلومات.

فعندما يقرأ المستخدم نصاً متماسكاً بدلاً من مصادر متعددة، يكون أكثر ميلاً لتقبّله كتصور متكامل، وليس كوجهة نظر ضمن مجموعة من الآراء. وهذا يزيد من تأثير الخيارات السردية غير الظاهرة داخل النص.

وتشير الدراسة إلى أن هذه الأنظمة لم تعد مجرد أدوات لنقل المعلومات، بل أصبحت وسيطاً تفسيرياً يؤثر في كيفية فهم الأحداث.

الدقة لا تعني الحياد

من أبرز استنتاجات الدراسة أن الدقة لا تضمن الحياد. فحتى عندما تكون المعلومات صحيحة، يمكن لطريقة تنظيمها وعرضها أن تؤثر في تفسيرها. وهذا يتحدى فكرة شائعة مفادها أن ضمان صحة المعلومات كافٍ لضمان موضوعيتها. في الواقع، قد يؤدي التركيز على عناصر معينة، أو تقديم سياق محدد، إلى توجيه الفهم بطريقة غير مباشرة.

ومع تزايد الاعتماد على الذكاء الاصطناعي لتلخيص المواضيع المعقدة، تكتسب هذه النتائج أهمية أكبر. فالمستخدمون قد يتعرضون لتفسيرات تبدو محايدة، لكنها تحمل تأثيرات ضمنية ناتجة عن أسلوب العرض. ولا يعني ذلك وجود نية للتضليل، بل يعكس طبيعة الأنظمة التي تحاول محاكاة اللغة البشرية من خلال بيانات واسعة ومعقدة.

تؤثر صياغة الأسئلة أو الطلبات بشكل كبير في طبيعة الإجابات التي يولدها الذكاء الاصطناعي

مجال بحثي يتوسع

تفتح هذه الدراسة الباب أمام مزيد من البحث حول تأثير الذكاء الاصطناعي على الإدراك البشري. فما زالت هناك تساؤلات حول اختلاف التأثير بين الأفراد، وكيف تتغير الاستجابة وفقاً للخلفية أو المعتقدات المسبقة. كما أن انتشار هذه الأنظمة قد يضاعف من تأثيرها على النقاش العام. تركز النقاشات غالباً على خطر المعلومات الخاطئة، لكن هذه الدراسة تشير إلى تحدٍّ مختلف يتعلق بتأثير المعلومات الصحيحة عندما تُعرض بطريقة معينة. وهذا يعني أن التأثير لا يأتي فقط من الخطأ، بل من طريقة عرض الحقيقة نفسها.

مسؤولية جديدة

تفرض هذه النتائج مسؤوليات جديدة على المطورين وصناع القرار والمستخدمين. فالحاجة لم تعد تقتصر على ضمان دقة المعلومات، بل تمتد إلى فهم كيفية إنتاجها وتقديمها. كما يصبح من الضروري تعزيز الوعي النقدي لدى المستخدمين عند التعامل مع المحتوى الناتج عن الذكاء الاصطناعي.

ومع تطور الذكاء الاصطناعي، تتغير العلاقة بين المعرفة والثقة. تشير هذه الدراسة إلى أن الثقة لا ينبغي أن تُبنى على صحة المعلومات فقط، بل أيضاً على فهم كيفية صياغتها وعرضها.

وبهذا المعنى، لم يعد الذكاء الاصطناعي مجرد أداة لنقل المعرفة، بل أصبح جزءاً من عملية تشكيلها. وهنا يكمن التحدي الحقيقي، ليس فقط في التأكد من صحة المعلومات، بل في فهم الطريقة التي تُروى بها.