سباق الاستخبارات العالمي على الذكاء الاصطناعي: أميركا تُجرب... والصين تُنفذ؟

 (AFP)
(AFP)
TT

سباق الاستخبارات العالمي على الذكاء الاصطناعي: أميركا تُجرب... والصين تُنفذ؟

 (AFP)
(AFP)

بينما تتسابق كبرى وكالات الاستخبارات في العالم لاختبار إمكانات نماذج الذكاء الاصطناعي التوليدي، تلوح في الأفق تساؤلات حادة: من سيحسم السباق؟ أميركا التي تمتلك التكنولوجيا الأرقى؟ أم الصين التي تُظهر وتيرة تبنٍ أسرع؟

ففي اليوم الذي شهد تنصيب دونالد ترمب رئيساً للولايات المتحدة، أطلقت شركة صينية تُدعى «DeepSeek» نموذجاً لغوياً كبيراً (LLM) حاز على اعتراف عالمي. ولم يكن الحدث عابراً في أروقة الاستخبارات الأميركية، حيث وصفه ترمب بـ«جرس إنذار»، فيما أقرّ السيناتور مارك وارنر، نائب رئيس لجنة الاستخبارات بمجلس الشيوخ، بأن المجتمع الاستخباراتي الأميركي، الذي يضم 18 وكالة، «فوجئ تماماً»، وفقاً لمجلة «ذي إيكونوميست».

ومع تصاعد المخاوف من التفوق الصيني في هذا المضمار، أطلقت إدارة الرئيس السابق جو بايدن خطة لتعزيز تجارب مؤسسات الدولة مع النماذج الأكثر تطوراً.

وصدرت توجيهات مباشرة إلى وكالات الاستخبارات والبنتاغون ووزارة الطاقة، لحثّها على توسيع تعاونها مع مختبرات الذكاء الاصطناعي الرائدة، وعلى رأسها «OpenAI» و«DeepMind» و«Google» و«Anthropic».

وفي خطوة لافتة، منح البنتاغون منتصف يوليو (تموز) الحالي عقوداً تصل إلى 200 مليون دولار لأربع شركات، بينها «xAI» التابعة لإيلون ماسك، لاختبار ما يُعرف بـ«نماذج الوكيل الذكي»؛ وهي نماذج قادرة على تحليل المهمات المعقدة، وتقسيمها إلى مراحل، وتنفيذها تلقائياً، وصولاً إلى التحكم في أجهزة مثل الحواسيب، أو المركبات.

وبينما يشهد المجال زخماً متزايداً، تظهر إشارات واضحة على دخول الذكاء الاصطناعي مرحلة جديدة في بيئات العمل الاستخباراتي. ففي يناير (كانون الثاني) الماضي أعلنت «مايكروسوفت» أن 26 من خدماتها السحابية أصبحت معتمدة للاستخدام الأمني الأميركي. وفي يونيو (حزيران)، كشفت شركة «Anthropic» عن نموذج مخصص للاستخدام الحكومي، حمل اسم «Claude Gov»، وبدأ استخدامه بالفعل في وكالات عليا ضمن منظومة الأمن القومي الأميركي.

لكن هذه النماذج لا تُستخدم كما هي، إذ تُخضعها الشركات لتعديلات دقيقة تُمكّنها من تجاوز قيود الأمان العامة، وتدريبها على لغات ولهجات خاصة بالحكومات، فضلاً عن تشغيلها ضمن بيئات مغلقة ومحمية. وفي بعض الحالات، بدأت وكالات بناء نماذجها الخاصة معتمدة على البنية التحتية الأمنية الداخلية.

أوروبا تدخل على الخط

الحراك لا يقتصر على واشنطن وبكين. ففي أوروبا تتسارع الجهود لتقليص الفجوة. أفاد مصدر بريطاني رفيع بأن أجهزة الاستخبارات في المملكة المتحدة تتمتع بإمكانية الوصول إلى نماذج متقدمة جداً، ومصممة للتعامل مع معلومات شديدة السرية.

وتُعد شركة «Mistral» الفرنسية، الشريك الرسمي لوكالة الذكاء الاصطناعي العسكري الفرنسي، أبرز لاعبي القارة في هذا المجال. ويتميّز نموذجها «Saba» بقدرته الفائقة على فهم اللغة العربية، ولغات إقليمية مثل التاميلية، نتيجة تدريبه على بيانات من الشرق الأوسط وجنوب آسيا.

أما إسرائيل، فقد كشفت تقارير عن زيادة استخدام الجيش الإسرائيلي لنموذج «GPT-4» التابع لـ«OpenAI»، بنسبة بلغت 20 ضعفاً بعد اندلاع حرب غزة.

بطء تبنٍ أم حذر عقلاني؟

رغم التحركات المتسارعة، تشير بعض الأصوات إلى بطء التبني الفعلي للذكاء الاصطناعي في مؤسسات الأمن القومي. وتقول كاترينا موليجان، مسؤولة سابقة في الدفاع والاستخبارات وتشغل حالياً منصب رئيس الشراكات الأمنية لدى «OpenAI»، إن الاستخدام لا يزال دون الطموحات. بينما تشكّل وكالة الأمن القومي (NSA) استثناءً بفضل خبرتها المتراكمة في تقنيات مثل التعرف على الصوت.

ويقول تارون تشابرا، مدير سياسات الأمن القومي في «Anthropic»، إن التحوّل الحقيقي يكمن في إعادة صياغة منهجية تنفيذ المهام، لا مجرد استخدام واجهات دردشة ذكية.

المخاطر الكامنة وراء الوكيل الذكي

في المقابل، يُحذر باحثون من الإفراط في التفاؤل. ويؤكد الدكتور ريتشارد كارتر، من معهد آلان تورينغ البريطاني، أن أجهزة الاستخبارات تحتاج إلى أدوات تُحقق الاتساق والموثوقية والشفافية. لذلك، تُركّز وكالات المملكة المتحدة على تقنيات التوليد المعزز بالاسترجاع (RAG) لتقليص الأخطاء.

ويُعتقد أن شركة «Mistral» عرضت على بعض الجهات تجربة لوكلاء أذكياء متخصصين في تحليل أنواع معينة من البيانات، من الصور الفضائية إلى الاتصالات الصوتية، ما يُسرّع قرارات الاستجابة. لكن كارتر يحذر من أن تلك النماذج قد تُنتج أخطاء تراكمية خطيرة بسبب آلياتها الذاتية المتكررة، مشيراً إلى تقييم أجرته «OpenAI» أظهر أن نموذج «ChatGPT Agent» يُعاني من هلوسة يصل معدلها إلى 8 في المائة.

الصين في الخلفية... تراقب وتتقدم؟

وبينما تتقدّم الشركات الأميركية في تطوير النماذج، تثير الصين قلقاً متزايداً بشأن سرعة تبنيها لها. يقول فيليب راينر، من معهد الأمن والتكنولوجيا في وادي السيليكون: «لا نعرف كثيراً عن مدى استخدام الصين لنماذج مثل (DeepSeek) في المجالات العسكرية». ويضيف: «قد يتمكنون من تحقيق نتائج أسرع، لأنهم لا يخضعون لنفس الضوابط التنظيمية».

وفي محاولة لتدارك الأمر، أصدرت إدارة ترمب توجيهات للبنتاغون ووكالات الاستخبارات بإجراء تقييم عاجل لسرعة تبني هذه التقنيات بالمقارنة مع الصين، ووضع خطة للتكيّف المستمر.

ويُجمع الخبراء على أن التأخر في التبني قد يكون أكثر خطورة من التأخر في التطوير. يقول السيناتور وارنر: «لم نكن فعّالين بما فيه الكفاية في مراقبة تقدم الصين». أما موليجان فتضيف محذّرة: «الخطر الحقيقي ليس في الفشل في تطوير الذكاء الاصطناعي، بل في خسارة سباق استخدامه».


مقالات ذات صلة

السيارات ذاتية القيادة… هل تجعل التنقل أسهل أم المدن أكثر ازدحاماً؟

تكنولوجيا قد تعيد السيارات ذاتية القيادة تشكيل أنماط التنقل اليومية من حيث التوقيت والمكان وطريقة الاستخدام (شاترستوك)

السيارات ذاتية القيادة… هل تجعل التنقل أسهل أم المدن أكثر ازدحاماً؟

تكشف دراسة أن السيارات ذاتية القيادة قد تسهّل التنقل الفردي وتقلل الحاجة للمواقف، لكنها قد تزيد الازدحام وتغيّر سلوك التنقل وتخطيط المدن مستقبلاً.

نسيم رمضان (لندن)
تكنولوجيا مارك زوكربيرغ الرئيس التنفيذي لـ«ميتا» يظهر بصورة خلف شعار الشركة (أ.ف.ب)

بدعوى لافتة... هيئة أميركية تُحمّل «إنستغرام» و«يوتيوب» مسؤولية إدمان وسائل التواصل

أصدرت هيئة محلفين حكماً يقضي بتحميل «ميتا» و«يوتيوب» المسؤولية، بدعوى فريدة من نوعها تهدف لتحميل منصات التواصل الاجتماعي المسؤولية عن الأضرار الخاصة بالأطفال.

«الشرق الأوسط» (واشنطن)
الولايات المتحدة​ الرئيس الأميركي دونالد ترمب (يمين) والملياردير إيلون ماسك (رويترز)

ترمب يستبعد ماسك من مجلسه الاستشاري الجديد بمجال التكنولوجيا

عيّن الرئيس الأميركي دونالد ترمب شخصيات ذات ثقل في مجال التكنولوجيا، من بينهم مؤسس «فيسبوك» مارك زوكربيرغ، والرئيس التنفيذي لشركة «إنفيديا جنسن هوانغ».

«الشرق الأوسط» (واشنطن)
العالم أشخاص يجتمعون خلال عرض لشركة «بي إيه إي سيستمز» البريطانية للصناعات العسكرية في هانتسفيل بولاية ألاباما الأميركية 28 مارس 2023 (رويترز)

شركة بريطانية للصناعات الدفاعية توقّع عقداً ﻟ7 سنوات مع «البنتاغون»

أعلنت شركة الصناعات العسكرية البريطانية «بي إيه إي سيستمز»، الأربعاء، توقيعها اتفاقية إطارية مدتها 7 سنوات مع وزارة الحرب الأميركية.

«الشرق الأوسط» (واشنطن)
تكنولوجيا تلعب طريقة عرض المعلومات وسردها دوراً أساسياً في تشكيل الفهم وليس فقط مضمونها (شاترستوك)

دراسة تبحث: هل يغيّر الذكاء الاصطناعي طريقة تفكيرنا رغم صحة المعلومات؟

دراسة تظهر أن الذكاء الاصطناعي يؤثر في الآراء عبر طريقة عرض المعلومات حتى عندما تكون الحقائق صحيحة وغير مضللة.

نسيم رمضان (لندن)

السيارات ذاتية القيادة… هل تجعل التنقل أسهل أم المدن أكثر ازدحاماً؟

قد تعيد السيارات ذاتية القيادة تشكيل أنماط التنقل اليومية من حيث التوقيت والمكان وطريقة الاستخدام (شاترستوك)
قد تعيد السيارات ذاتية القيادة تشكيل أنماط التنقل اليومية من حيث التوقيت والمكان وطريقة الاستخدام (شاترستوك)
TT

السيارات ذاتية القيادة… هل تجعل التنقل أسهل أم المدن أكثر ازدحاماً؟

قد تعيد السيارات ذاتية القيادة تشكيل أنماط التنقل اليومية من حيث التوقيت والمكان وطريقة الاستخدام (شاترستوك)
قد تعيد السيارات ذاتية القيادة تشكيل أنماط التنقل اليومية من حيث التوقيت والمكان وطريقة الاستخدام (شاترستوك)

لطالما اتسمت رحلة التنقل اليومية في كثير من المدن حول العالم بازدحام مروري، والبحث الطويل عن موقف للسيارة، وتوسع مستمر في المساحات الحضرية المخصصة للمركبات. لكن مع اقتراب السيارات ذاتية القيادة من الانتشار الواسع، يتساءل الباحثون عما سيحدث عندما لا يعود هناك سائقون؟

تشير دراسة حديثة حول تأثير المركبات ذاتية القيادة على أنماط التنقل الصباحية إلى أن الإجابة ليست بسيطة كما قد يبدو. فهذه التقنية لا تعد بتقليل الازدحام فقط، بل قد تعيد تشكيل طريقة التنقل وتوقيته ومكانه، بما يحمل فرصاً جديدة وتحديات غير متوقعة.

إعادة التفكير في مفهوم مواقف السيارات

أحد أبرز التغييرات المحتملة يتعلق بكيفية التعامل مع مواقف السيارات. فاليوم، تشغل مواقف السيارات مساحات كبيرة في المدن، ومع ذلك لا يزال العثور على موقف مناسب يمثل تحدياً لكثير من المستخدمين.

مع السيارات ذاتية القيادة، قد يتغير هذا الواقع بشكل جذري. فبإمكان السيارة أن تُنزل الركاب عند وجهتهم، ثم تتحرك بمفردها إلى مناطق أقل ازدحاماً، وغالباً أقل تكلفة خارج مراكز المدن. وهذا قد يقلل الحاجة إلى مواقف السيارات في المناطق المركزية، ويفتح المجال لإعادة استخدام هذه المساحات لأغراض أخرى مثل الإسكان أو الأنشطة التجارية أو المساحات العامة. بالنسبة للمستخدمين، يعني ذلك وقتاً أقل في البحث عن موقف وتكاليف أقل. أما بالنسبة للمدن، فإن التأثيرات قد تكون أعمق وأكثر تعقيداً.

سيكون لتبني السيارات ذاتية القيادة تأثير مباشر على تخطيط المدن واستخدام الأراضي وقيمة المواقع (شاترستوك)

مفارقة الكفاءة والازدحام

رغم أن السيارات ذاتية القيادة تعد بمزيد من الراحة، فإن الدراسة تشير إلى احتمال ظهور آثار جانبية غير متوقعة. فإذا أصبحت مواقف السيارات خارج المدن خياراً سهلاً، فقد يفضل عدد أكبر من الأشخاص استخدام السيارات بدلاً من وسائل النقل العام. كما أن تحرك السيارات دون ركاب إلى مواقع الانتظار قد يزيد من حركة المرور الإجمالية. وتشير النماذج إلى أن انتشار هذه المركبات قد يؤدي إلى زيادة إجمالي المسافات المقطوعة ومدة التنقل مقارنة بالنظام التقليدي. وهنا تظهر مفارقة واضحة: قد تصبح الرحلة الفردية أكثر سهولة، لكن النظام كله قد يصبح أكثر ازدحاماً.

تغير سلوك التنقل

إلى جانب البنية التحتية، قد تؤثر السيارات ذاتية القيادة على سلوك الأفراد. فعندما لا تكون هناك حاجة للقيادة، يمكن استغلال وقت الرحلة للعمل أو الترفيه أو الراحة. وهذا قد يجعل الرحلات الطويلة أكثر قبولاً، ويدفع البعض للسكن في مناطق أبعد عن أماكن العمل. كما قد تتغير أوقات الانطلاق. فقد يختار المستخدمون توقيت رحلاتهم بناءً على ظروف المرور أو التكلفة أو الراحة، ما يؤدي إلى أنماط تنقل أكثر مرونة مقارنة بالروتين التقليدي. ولفهم هذه التغيرات، استخدم الباحثون نماذج تحاكي قرارات الأفراد بشأن توقيت الرحلة ومكان الوقوف والتوازن بين الزمن والتكلفة. وتشير النتائج إلى أن هذه القرارات ستصبح أكثر ديناميكية وتأثراً بالعوامل الاقتصادية.

يعتمد تأثير السيارات ذاتية القيادة النهائي على السياسات والتنظيم وليس على التكنولوجيا وحدها لتحقيق التوازن بين الكفاءة والازدحام (شاتوستوك)

تداعيات على التخطيط الحضري

بالنسبة لمخططي المدن، تنطوي هذه النتائج على فرص وتحديات في آن واحد. فالسيارات ذاتية القيادة قد تقلل الحاجة إلى مواقف السيارات في مراكز المدن، وتتيح استخداماً أكثر كفاءة للأراضي. لكنها في الوقت نفسه قد تزيد الضغط على شبكات الطرق إذا لم تتم إدارتها بشكل مناسب. وهذا يضع صناع القرار أمام مرحلة حاسمة، حيث ستؤثر السياسات المتعلقة بالنقل والبنية التحتية على كيفية استيعاب هذه التقنية.

تشير الدراسة إلى أن تأثير السيارات ذاتية القيادة يتجاوز النقل نفسه، ليصل إلى طريقة تصميم المدن. فإذا انتقلت مواقف السيارات إلى خارج المراكز، فقد تتغير قيمة الأراضي في هذه المناطق. وإذا أصبحت الرحلات أكثر مرونة، فقد تتبدل أنماط الازدحام التقليدية. كما أن زيادة الاعتماد على السيارات قد تفرض إعادة النظر في التوازن بين النقل الخاص والعام.

بين الابتكار والسياسات

في النهاية، لن يتحدد تأثير هذه التقنية بالتطور التكنولوجي فقط، بل بكيفية دمجها ضمن الأنظمة الحالية. فمن دون سياسات واضحة، قد تؤدي الراحة التي توفرها السيارات ذاتية القيادة إلى نتائج عكسية مثل زيادة الازدحام. أما إذا تم توجيهها بشكل مدروس، فقد تسهم في تحسين الكفاءة وتقليل التكاليف وتعزيز جودة الحياة في المدن.

غالباً ما تُقدَّم السيارات ذاتية القيادة كحل لمشكلات الازدحام، لكن الدراسة تشير إلى أنها تمثل تحولاً أعمق، يعيد تشكيل الأنظمة القائمة بدلاً من حلّها بشكل مباشر.

رحلة الصباح اليومية، التي كانت تعتمد على قرارات بشرية، قد تصبح قريباً محكومة بخوارزميات وعوامل اقتصادية وأنظمة آلية. والنتيجة النهائية لن تعتمد على التقنية فقط، بل على الخيارات التي تُتّخذ اليوم.


بدعوى لافتة... هيئة أميركية تُحمّل «إنستغرام» و«يوتيوب» مسؤولية إدمان وسائل التواصل

مارك زوكربيرغ الرئيس التنفيذي لـ«ميتا» يظهر بصورة خلف شعار الشركة (أ.ف.ب)
مارك زوكربيرغ الرئيس التنفيذي لـ«ميتا» يظهر بصورة خلف شعار الشركة (أ.ف.ب)
TT

بدعوى لافتة... هيئة أميركية تُحمّل «إنستغرام» و«يوتيوب» مسؤولية إدمان وسائل التواصل

مارك زوكربيرغ الرئيس التنفيذي لـ«ميتا» يظهر بصورة خلف شعار الشركة (أ.ف.ب)
مارك زوكربيرغ الرئيس التنفيذي لـ«ميتا» يظهر بصورة خلف شعار الشركة (أ.ف.ب)

أصدرت هيئة محلفين حكماً يقضي بتحميل كل من شركتي «ميتا» و«يوتيوب» المسؤولية، في دعوى فريدة من نوعها تهدف إلى تحميل منصات التواصل الاجتماعي المسؤولية عن الأضرار التي تلحق بالأطفال المستخدمين لخدماتها، ومنحت للمدعية تعويضات بقيمة 3 ملايين دولار.

وقررت هيئة المحلفين في كاليفورنيا، بعد أكثر من 40 ساعة من المداولات على مدار تسعة أيام، أن شركتي «ميتا» و«يوتيوب» أهملتا في تصميم وتشغيل منصتيهما.

وأقرت هيئة المحلفين أيضاً أن إهمال كلتا الشركتين كان عاملاً جوهرياً في التسبب بالأذى للمدعية، وهي شابة تبلغ من العمر 20 عاماً تقول إن استخدامها لوسائل التواصل الاجتماعي في طفولتها أدى إلى إدمانها على التكنولوجيا وزاد من معاناتها النفسية.

شعار شركة «يوتيوب» (أ.ف.ب)

وأكدت القاضية كارولين بي كول أن هيئة المحلفين أبلغت المحكمة بأنها توصلت إلى حكم. ونبهت الجمهور ووسائل الإعلام بأنه ينبغي عليهم عدم إظهار أي رد فعل علني تجاه الحكم، أياً كان.

وقالت: «لا صراخ، لا ردود أفعال، لا إزعاج». وأضافت أن من يتصرف بهذه الطريقة سيتم إخراجه من قاعة المحكمة.

وكانت شركة «ميتا» وشركة «يوتيوب»، المملوكة لـ«غوغل»، هما المدعى عليهما الباقيين في القضية بعد أن توصلت شركتي «تيك توك» و«سناب» إلى تسويات قبل بدء المحاكمة.


دراسة تبحث: هل يغيّر الذكاء الاصطناعي طريقة تفكيرنا رغم صحة المعلومات؟

تلعب طريقة عرض المعلومات وسردها دوراً أساسياً في تشكيل الفهم وليس فقط مضمونها (شاترستوك)
تلعب طريقة عرض المعلومات وسردها دوراً أساسياً في تشكيل الفهم وليس فقط مضمونها (شاترستوك)
TT

دراسة تبحث: هل يغيّر الذكاء الاصطناعي طريقة تفكيرنا رغم صحة المعلومات؟

تلعب طريقة عرض المعلومات وسردها دوراً أساسياً في تشكيل الفهم وليس فقط مضمونها (شاترستوك)
تلعب طريقة عرض المعلومات وسردها دوراً أساسياً في تشكيل الفهم وليس فقط مضمونها (شاترستوك)

مع تزايد اعتماد المستخدمين على أدوات الذكاء الاصطناعي للحصول على المعلومات، يبرز سؤال أساسي: هل تستطيع هذه الأنظمة التأثير ليس فقط في ما نعرفه، بل أيضاً في طريقة تفكيرنا؟

دراسة أكاديمية حديثة نُشرت في «PNAS Nexus» تحاول الإجابة عن هذا السؤال من خلال تحليل كيفية تأثير السرديات التاريخية التي ينتجها الذكاء الاصطناعي على آراء الأفراد. وتشير النتائج إلى أن المعلومات قد تكون دقيقة من حيث الوقائع، لكنها لا تكون بالضرورة محايدة في تأثيرها.

تجربة منهجية لقياس التأثير

اعتمدت الدراسة على تجربة واسعة شملت 1912 مشاركاً، وهدفت إلى قياس تأثير التعرض لنصوص تاريخية مولدة بالذكاء الاصطناعي على آراء الأفراد. عُرضت على المشاركين ملخصات لأحداث تاريخية تم إنشاؤها بواسطة الذكاء الاصطناعي، ثم طُلب منهم تقييم مواقفهم تجاه مواضيع مرتبطة بها. ولم يكن الهدف اختبار المعلومات المضللة، بل فهم ما إذا كان أسلوب العرض وحده حتى مع بقاء الحقائق ثابتة يمكن أن يؤثر في الحكم. والنتيجة كانت واضحة: نعم، يمكن لذلك أن يحدث. فحتى عندما لم تتغير الوقائع، أدت الاختلافات في طريقة السرد إلى تغيّر ملحوظ في آراء المشاركين. وهذا يعني أن التأثير لا يتطلب معلومات خاطئة، بل يمكن أن ينشأ من طريقة العرض نفسها.

يتحول دور الذكاء الاصطناعي من نقل المعلومات إلى تفسيرها ضمن سياق سردي متكامل (أدوبي)

التحيز الكامن: تأثير غير مرئي

تسلّط الدراسة الضوء على مفهوم ما يُعرف بـ«التحيز الكامن»، وهو التحيز الذي يظهر في النصوص دون قصد مباشر، نتيجة للبيانات التي تدربت عليها الأنظمة أو لطريقة صياغة الطلبات.

وبما أن أنظمة الذكاء الاصطناعي تعتمد على كميات ضخمة من البيانات البشرية، فهي تعكس أنماطاً وسياقات موجودة مسبقاً. وعند توليد محتوى، قد تميل إلى إبراز جوانب معينة على حساب أخرى.

هذا النوع من التحيز لا يكون واضحاً، ولا يتضمن بالضرورة أخطاء أو معلومات مضللة، بل يظهر من خلال اختيار التفاصيل وترتيبها وأسلوب عرضها.

أهمية صياغة السؤال

تشير الدراسة أيضاً إلى أن طريقة طرح السؤال أو الطلب تؤثر بشكل كبير في النتيجة. فالتغييرات البسيطة في صياغة السؤال يمكن أن تؤدي إلى اختلاف في طريقة عرض الحدث نفسه، حتى لو ظلت الوقائع ثابتة. وهذا يعني أن الذكاء الاصطناعي لا يسترجع المعلومات فقط، بل يعيد بناءها استجابةً لطريقة التفاعل معه. وبالتالي، فإن العلاقة بين المستخدم والنظام تصبح جزءاً من عملية إنتاج المعرفة، وليس مجرد وسيلة للوصول إليها.

على عكس محركات البحث التقليدية التي توفر روابط متعددة، يقدم الذكاء الاصطناعي محتوى جاهزاً ومترابطاً في شكل سردي. وهذا التحول له تأثير مهم على طريقة استيعاب المعلومات.

فعندما يقرأ المستخدم نصاً متماسكاً بدلاً من مصادر متعددة، يكون أكثر ميلاً لتقبّله كتصور متكامل، وليس كوجهة نظر ضمن مجموعة من الآراء. وهذا يزيد من تأثير الخيارات السردية غير الظاهرة داخل النص.

وتشير الدراسة إلى أن هذه الأنظمة لم تعد مجرد أدوات لنقل المعلومات، بل أصبحت وسيطاً تفسيرياً يؤثر في كيفية فهم الأحداث.

الدقة لا تعني الحياد

من أبرز استنتاجات الدراسة أن الدقة لا تضمن الحياد. فحتى عندما تكون المعلومات صحيحة، يمكن لطريقة تنظيمها وعرضها أن تؤثر في تفسيرها. وهذا يتحدى فكرة شائعة مفادها أن ضمان صحة المعلومات كافٍ لضمان موضوعيتها. في الواقع، قد يؤدي التركيز على عناصر معينة، أو تقديم سياق محدد، إلى توجيه الفهم بطريقة غير مباشرة.

ومع تزايد الاعتماد على الذكاء الاصطناعي لتلخيص المواضيع المعقدة، تكتسب هذه النتائج أهمية أكبر. فالمستخدمون قد يتعرضون لتفسيرات تبدو محايدة، لكنها تحمل تأثيرات ضمنية ناتجة عن أسلوب العرض. ولا يعني ذلك وجود نية للتضليل، بل يعكس طبيعة الأنظمة التي تحاول محاكاة اللغة البشرية من خلال بيانات واسعة ومعقدة.

تؤثر صياغة الأسئلة أو الطلبات بشكل كبير في طبيعة الإجابات التي يولدها الذكاء الاصطناعي

مجال بحثي يتوسع

تفتح هذه الدراسة الباب أمام مزيد من البحث حول تأثير الذكاء الاصطناعي على الإدراك البشري. فما زالت هناك تساؤلات حول اختلاف التأثير بين الأفراد، وكيف تتغير الاستجابة وفقاً للخلفية أو المعتقدات المسبقة. كما أن انتشار هذه الأنظمة قد يضاعف من تأثيرها على النقاش العام. تركز النقاشات غالباً على خطر المعلومات الخاطئة، لكن هذه الدراسة تشير إلى تحدٍّ مختلف يتعلق بتأثير المعلومات الصحيحة عندما تُعرض بطريقة معينة. وهذا يعني أن التأثير لا يأتي فقط من الخطأ، بل من طريقة عرض الحقيقة نفسها.

مسؤولية جديدة

تفرض هذه النتائج مسؤوليات جديدة على المطورين وصناع القرار والمستخدمين. فالحاجة لم تعد تقتصر على ضمان دقة المعلومات، بل تمتد إلى فهم كيفية إنتاجها وتقديمها. كما يصبح من الضروري تعزيز الوعي النقدي لدى المستخدمين عند التعامل مع المحتوى الناتج عن الذكاء الاصطناعي.

ومع تطور الذكاء الاصطناعي، تتغير العلاقة بين المعرفة والثقة. تشير هذه الدراسة إلى أن الثقة لا ينبغي أن تُبنى على صحة المعلومات فقط، بل أيضاً على فهم كيفية صياغتها وعرضها.

وبهذا المعنى، لم يعد الذكاء الاصطناعي مجرد أداة لنقل المعرفة، بل أصبح جزءاً من عملية تشكيلها. وهنا يكمن التحدي الحقيقي، ليس فقط في التأكد من صحة المعلومات، بل في فهم الطريقة التي تُروى بها.