مَن هم المتحكّمون بمقدرات الذكاء الاصطناعي؟

طروحات تعدُّه سباقاً جيوسياسياً للغلبة والفوز وليس نظاماً مجتمعياً ينبغي إدارته بحكمة

الذكاء الاصطناعي قد يوظف للغلبة والفوز.. رغم استفادة كل المجتمعات من مزاياه الفريدة
الذكاء الاصطناعي قد يوظف للغلبة والفوز.. رغم استفادة كل المجتمعات من مزاياه الفريدة
TT

مَن هم المتحكّمون بمقدرات الذكاء الاصطناعي؟

الذكاء الاصطناعي قد يوظف للغلبة والفوز.. رغم استفادة كل المجتمعات من مزاياه الفريدة
الذكاء الاصطناعي قد يوظف للغلبة والفوز.. رغم استفادة كل المجتمعات من مزاياه الفريدة

في قاعات مجالس إدارة وادي السيليكون، تباشر مجموعة صغيرة من المديرين التنفيذيين في هدوء اتخاذ قرارات ستُشكّل مسار حياة المليارات من البشر. ومعظمنا لن يعرف ما هي تلك القرارات إلا بعد فوات الأوان لتغييرها.

خطة أميركية للذكاء الاصطناعي

نشر البيت الأبيض، في يوليو (تموز) الماضي، «خطة عمل الذكاء الاصطناعي الأميركية»، وهي وثيقة من 28 صفحة تبدو أشبه بسياسة صناعية لسباق تسلح جديد.

يكمن في الركيزة الأولى سطر يُخبرك بالضبط إلى أين تتجه سياسة الولايات المتحدة: «مراجعة إطار عمل إدارة مخاطر الذكاء الاصطناعي التابع للمعهد الوطني للمعايير والتقنية (NIST) لإزالة الإشارات إلى المعلومات المضللة، والتنوع، والمساواة، والشمول، وتغيرات المناخ».

عندما تبدأ الحكومات في شطب هذه الكلمات عن قصد، من الإنصاف أن نتساءل: مَن الذي يضع شروط مستقبلنا التكنولوجي - ولمن تكون الفائدة؟تخفيف الرقابة... وسباق جيوسياسي

هذا أكثر من مجرد كلام. تتباهى الخطة نفسها بإلغاء أمر الإدارة الأميركية السابقة بشأن الذكاء الاصطناعي، وتخفيف الرقابة، وتسريع وتيرة البنية التحتية والطاقة لمراكز البيانات. إنها تُعيد صياغة الذكاء الاصطناعي بصورة أساسية بوصفه سباقاً جيوسياسياً «للغلبة والفوز»، وليس بوصفه نظاماً مجتمعياً تنبغي إدارته. إنه منظور أقل تركيزاً حول الإشراف وأكثر توجهاً صوب إبرام الصفقات، وهو أسلوب حوكمة يُعامل السياسة العامة معاملة وثيقة الشروط. هذا التأطير مهم: فعندما يكون الهدف السياسي هو السرعة والهيمنة، تصبح المساءلة مجرد «شيء جميل مُضاف».

المسار الأوروبي

اختارت أوروبا مساراً مختلفاً تماماً: فرض القيود أولاً، ثم التوسع. دخل قانون الاتحاد الأوروبي للذكاء الاصطناعي حيز التنفيذ في أغسطس (آب) من عام 2024، ويفرض التزامات تدريجية حتى عام 2026، مع تصميم إنفاذ القانون بناءً على المخاطر. فهل هو منقوص؟ بكل تأكيد. لكن الرسالة لا لبس فيها: يتعين على المؤسسات الديمقراطية - وليس فقط على إدارات العلاقات العامة للشركات - تحديد الاستخدامات، والإفصاحات، والمسؤوليات المقبولة قبل أن تنتشر التكنولوجيا في كل مكان.

الشركات تتحكم بالذكاء الاصطناعي

في الآونة ذاتها، يتركز ثقل الذكاء الاصطناعي في قبضة عدد قليل من الشركات التي تتحكم في قدرات الحوسبة، والنماذج، والتوزيع. لنتحدث عن الحوسبة مثالاً - أي سعة الحوسبة القائمة على الأدوات المسرعة (التي تسرّع وقت وحدة معالجة الرسوميات/وحدة المعالجة المركزية المسرّعة) اللازمة لتدريب وتشغيل الذكاء الاصطناعي الحديث - بالإضافة إلى النماذج والتوزيع.

لا يزال المحللون يُقدِّرون حصة شركة «إنفيديا» الأميركية من مسرعات الذكاء الاصطناعي بنحو 90 في المائة، وتستحوذ شركات الحوسبة السحابية الكبرى على السعة لسنوات مقدماً. وهذه الندرة تُشكل مَن يستطيع التجربة، ومَن لا يستطيعها، ومن يدفع لمن مقابل الوصول إليها. وعندما يتعامل رئيس الدولة مع السياسة التكنولوجية مثل مصرفي استثماري، فإن تلك المفاوضات لا تدور حول المصلحة العامة؛ وإنما حول تعظيم الصفقة، غالباً لمصلحة خزينة الدولة، وأحياناً لتحقيق مكاسب سياسية.

غموض وتعقيد

وما يزيد الغموض والتعقيد، التفاف الشركات وانعدام شفافيتها، إذ يرفض التقرير التقني الخاص ببرنامج «تشات جي بي تي 4» الخاص بشركة «أوبن إيه آي» الكشف عن بيانات التدريب، أو حجم النموذج، أو قدرات الحوسبة المستخدمة، مستشهدا صراحة بالمنافسة والسلامة.

وبغض النظر عن رأيك في هذا المنطق، فإن ذلك يعني أن الشركات تطلب من المجتمع قبول أنظمة ذات تبعات كبيرة بينما يبقى المجتمع إلى حد كبير جاهلاً بما يدخل في تكوينها. إن عبارة «ثقوا بنا» ليست أسلوباً للحوكمة الحكيمة.

سلطة مُركزة

إذا كنت تريد مثالاً صغيراً ولكنه واضح عن كيفية تأثير الخيارات الخاصة على الحياة العامة، فانظر إلى ما حدث عندما أطلقت شركة «أوبن إيه آي» صوتاً جذاباً يُدعى «سكاي - Sky» اعتقد الكثيرون أنه يشبه صوت الممثلة سكارليت جوهانسون. بعد رد فعل عنيف من الجمهور، أوقفت الشركة هذا الصوت مؤقتاً.

وهنا نلاحظ أنه لم تُرسم حدود ثقافية من قِبل جهة تنظيمية أو محكمة، بل من قِبل فريق منتجات، وقرار شركة. وهذا يمثل قدراً كبيراً للغاية من السلطة لمجموعة صغيرة للغاية من الناس.

أضرار بيئية

تظهر السلطة أيضاً في فواتير الخدمات. يربط أحدث تقرير بيئي لشركة «غوغل» زيادة بنسبة 48 في المائة في انبعاثات الغازات الدفيئة منذ عام 2019 بنمو مراكز البيانات للذكاء الاصطناعي، ويوثق استخدام 6.1 مليار غالون من المياه في عام 2023 لأغراض التبريد - وهي أرقام سترتفع مع التوسع. يذهب تحليل دورة حياة «ميسترال - Mistral» إلى أبعد من ذلك، حيث يُقدّر استهلاك الطاقة والمياه لكل استعلام «prompt» لنماذجها. كل «استعلام للنموذج» له بصمة؛ إذا تضاعفت هذه الأرقام بالمليارات، فلن تتمكن من التظاهر بأنها مجانية، مهما كنتَ مُنكراً للتغيرات المناخية.

إذن، أجل، الولايات المتحدة «تفوز بالسباق». إلا أن تركيز القرارات التي تؤثر على حرية التعبير، والتوظيف، والتعليم، والبيئة في دائرة صغيرة للغاية من قاعات مجالس الإدارة. والنتيجة هي عجز ديمقراطي. فهنا يُختزل الجمهور إلى مجرد متفرجين، يتفاعلون مع الحقائق المفروضة بدلاً من وضع القواعد.بدائل وخيارات

ماذا لو عكسنا الوضع؟ نبدأ بمعاملة الذكاء الاصطناعي بصفته بنيةً تحتية تتطلب قدرات عامة، وليس فقط نفقات رأسمالية خاصة. تعكس مبادرة «المورد الوطني لأبحاث الذكاء الاصطناعي» التجريبية «National AI Research Resource pilot» التوجه الصحيح:

* أستاذ في جامعة آي إي، مدريد. مجلة «طفاست كومباني» - خدمات «تريبيون ميديا»• أولاً - امنح الباحثين والشركات الناشئة وصولاً مشتركاً إلى قدرات الحوسبة والبيانات والأدوات؛ حتى لا تكون الأبحاث مقيدة بعقود مع شركات الحوسبة السحابية الكبرى. اجعل الوصول مستمراً، وممولاً جيداً، ومستقلاً؛ لأن العلم المفتوح يموت عندما يصبح الوصول إليه مرهوناً باتفاقيات عدم الإفصاح.

• ثانياً - اربط الأموال والمشتريات العامة بشروط. إذا كانت الوكالات والمدارس ستشتري الذكاء الاصطناعي، فيجب أن تطلب إفصاحات أساسية: ما هي البيانات التي استُخدمت للتدريب؛ ما هي الضوابط التي تحكم المخرجات؛ ما هي الاختبارات المستقلة التي اجتازها النموذج؛ وسجل للطاقة والمياه مرتبط بالزمان والمكان، وليس بالمعدلات السنوية. إذا لم يستطع البائع تلبية هذه الشروط، فإنه لا يحصل على العقود. هذا ليس «معاداة للابتكار»، بل هو انضباط السوق الذي يتسق مع القيم العامة.

• ثالثاً - افصل الطبقات لكبح الاحتكار. لا ينبغي لمقدمي الخدمات السحابية أن يكونوا قادرين على فرض استخدام نموذجهم لرقائقهم لتشغيل خدماتهم كخيار افتراضي. إن قابلية التشغيل البيني ونقل البيانات ليستا مثاليات رومانسية؛ بل هما السبيل للحفاظ على قطاع تنافسي عندما تتحكم ثلاث شركات في البنية بأكملها.

أهمية الشفافية

• رابعاً - يجب أن تعني الشفافية أكثر من مجرد «بطاقات النماذج» التي يكتبها البائع. بالنسبة للأنظمة التي تتجاوز حجماً معيناً، يجب أن نطلب إفصاحات قابلة للتدقيق لأطراف ثالثة مؤهلة - حول مصدر بيانات التدريب، ومجموعات التقييم، وأداء ما بعد النشر. إذا كان هذا يبدو مرهقاً؛ فذلك لأن العواقب على نطاق واسع مرهقة كذلك. لقد تعلمنا هذا في كل بنية تحتية حيوية أخرى.

• خامساً - اجعل السرد البيئي يتواءم مع الواقع. يجب أن تكون إفصاحات المياه والطاقة فورية، وخاصة بالمنشأة، وموثقة.

إن «توفير المياه بحلول عام 2030» لا يساعد بلدة ما تُستنزف طبقة المياه الجوفية لديها في هذا العقد. إذا كانت الشركات تريد أن تكون سبّاقة في طرح النماذج الرائدة، فيجب أن تكون أيضاً الأولى في تطبيق شراء الطاقة الخالية من الكربون على مدار الساعة، وتحديد ميزانيات مياه صارمة ذات صلة بالعلوم المحلية لحركة وتوزيع وإدارة المياه.

خطر أعمق

هناك خطر أعمق عندما تُدار الاستراتيجية التكنولوجية الوطنية مثلما تدار محفظة الأعمال: إذ تصبح الكفاءة والإيرادات هي المقاييس الأساسية؛ ما يطغى على احتياجات المواطنين التي يصعب قياسها كمياً.

في القطاع الخاص، يمكن تبرير التضحية بالأخلاق أو الشفافية أو الاستقرار على المدى الطويل من أجل صفقة مربحة بأنها تهدف إلى زيادة قيمة المساهمين. أما في الحكومة، فتؤدي هذه المقايضة نفسها إلى تآكل الديمقراطية ذاتها؛ ما يركز القرارات في أيدي أقل، ويجعل منظور «الربح أولاً» طبيعياً في مسائل يجب أن تركز على الحقوق، والضمانات، وثقة الجمهور.

ليس الهدف هو إبطاء الذكاء الاصطناعي. وإنما أن نقرر، علناً، أي نوع من الذكاء الاصطناعي نريده وبأي شروط.

إن الولايات المتحدة قادرة على الجمع بين الطموح وضبط النفس في آن واحد؛ لقد فعلنا ذلك في مجالات الطيران، والطب، والتمويل. يجب ألا يكون الذكاء الاصطناعي مختلفاً عن ذلك. إذا تركنا الخيارات الكبرى لعدد قليل من الشركات وعدد قليل من المُعينين السياسيين، فسوف نحصل على مستقبل صُنع لأجلنا، وليس بواسطتنا. وسوف يكون ثمن إعادة كتابته لاحقاً أعلى مما يعترف به أي إنسان اليوم.* أستاذ في جامعة آي إي، مدريد. مجلة «طفاست كومباني» - خدمات «تريبيون ميديا»


مقالات ذات صلة

1200 جامعة تشارك في «ابتكارات للبشرية» لإعادة تعريف مستقبل المجتمعات التقني

خاص مبادرة «ابتكارات للبشرية» تحوّل الابتكار الجامعي المبكر إلى منصة عالمية لإنتاج حلول واقعية للمشكلات الملحّة (الشرق الأوسط)

1200 جامعة تشارك في «ابتكارات للبشرية» لإعادة تعريف مستقبل المجتمعات التقني

المبادرة تربط الابتكار الجامعي بالأزمات الواقعية، عبر دعم نماذج أولية من دول متعددة، بينها مشروع «سنونو» السعودي، لتطوير حلول عملية قابلة للتطبيق.

نسيم رمضان (دبي)
تكنولوجيا ميزة «واتساب» الجديدة تتيح تشغيل حسابين على تطبيق واحد مع فصل كامل للإعدادات (أبل)

منصة «واتساب» تختبر رسمياً ميزة تعدد الحسابات على «iOS» للمرة الأولى

أطلقت منصة «واتساب» أحدث إصدار تجريبي لنظام «iOS» (آي أو إس) عبر برنامج «تست فلايت» (TestFlight)، ليصل التطبيق إلى النسخة «25.34.10.72»، التي تجلب معها واحدة…

عبد العزيز الرشيد (الرياض)
تكنولوجيا منصة «Lovart AI» تفكك أي صورة لطبقات جاهزة للتعديل وتختصر وقت المصممين بشكل كبير (Lovart AI)

أداة ذكاء اصطناعي تفكك الصور وتحولها لتصاميم قابلة للتعديل

تبرز منصة «Lovart AI» بوصفها واحدة من أكثر الحلول ابتكاراً للمصممين وصنّاع المحتوى.

عبد العزيز الرشيد (الرياض)
الاقتصاد النائب التنفيذي للرئيس في قطاع الأعمال للتنقيب وهندسة البترول والحفر في «أرامكو» السعودية عبدالحميد الدغيثر (أرامكو)

«أرامكو» تسلط الضوء على فرص التحوّل والتطور في مجال الجيوميكانيكا

سلطت «أرامكو» في «المؤتمر الدولي للجيوميكانيكا 2025» الضوء على التحوّل الذي يمكن أن تُحدثه هندسة ميكانيكا الأرض المدعومة بالذكاء الاصطناعي.

«الشرق الأوسط» (الظهران )
تكنولوجيا يشير تقرير «ساس» إلى أن عام 2026 سيكون عام الاختبار الحقيقي لصناعة الذكاء الاصطناعي بعد سنوات من الاندفاع والمبالغة (غيتي)

«ساس»: 2026 عام الاختبار الحقيقي لصناعة الذكاء الاصطناعي

«ساس» تتوقع عاماً من المحاسبة لمشاريع الذكاء الاصطناعي التوليدي.

نسيم رمضان (لندن)

الذكاء الاصطناعي يكتب رسائل مختلقة للرد على نتائج الأبحاث العلمية

الذكاء الاصطناعي يكتب رسائل مختلقة للرد على نتائج الأبحاث العلمية
TT

الذكاء الاصطناعي يكتب رسائل مختلقة للرد على نتائج الأبحاث العلمية

الذكاء الاصطناعي يكتب رسائل مختلقة للرد على نتائج الأبحاث العلمية

تزداد رسائل الكُتّاب المدونة بواسطة روبوتات الدردشة الموجهة إلى رؤساء تحرير المجلات العلمية حول العالم، وفقاً لتقارير جديدة ولمحرري المجلات أنفسهم.

النشر العلمي... في خطر

وتُعرّض هذه الممارسة جزءاً من النشر العلمي للخطر، وهو النشر الذي يراه المحررون ضرورياً لصقل نتائج الأبحاث وإيجاد اتجاهات جديدة في البحث.

تجربة عالم في الأمراض الاستوائية

وبدأت دراسة حول هذه المشكلة بعد حادثة وقعت مع اختصاصي أمراض استوائية مرّ بتجربة غريبة، إذ تسلم رسالة كتبها روبوت دردشة. وقرر العالم معرفة ما يحدث بالضبط، ومن كان يُرسل كل هذه الرسائل.

صرح العالم، الدكتور كارلوس شكور Dr. Carlos Chaccour، من معهد الثقافة والمجتمع بجامعة نافارا University of Navarra في إسبانيا، بأن دراسته لهذه المشكلة بدأت مباشرةً بعد نشره بحثاً في مجلة «نيو إنغلاند» الطبية، إحدى أعرق المجلات العلمية في العالم. وتناول البحث، الذي نُشر في يوليو (تموز)، مكافحة عدوى الملاريا باستخدام الإيفرمكتين ivermectin، وقد نُشر مع افتتاحية أشادت بالنتائج.

وبعد 48 ساعة، تلقت المجلة رسالة شديدة اللهجة. فكّر المحررون في نشرها، ولكن كما جرت العادة، أرسلوها إلى شكور للرد عليها.

رسالة اعتراضات... بالذكاء الاصطناعي

بدأت الرسالة بعبارة «نريد إثارة اعتراضات قوية»، مشيرةً إلى أن شكور وزملاءه لم يشيروا إلى بحثٍ قيّم نُشر عام 2017 يُظهر أن البعوض يُصبح مقاوماً للإيفرمكتين.

وفي الواقع، كان شكور على درايةٍ تامة بهذه «الرسالة القيّمة». فقد كتب ذلك البحث هو نفسه مع زميل له، ولم يُشر البحث إلى أن البعوض يُصبح مقاوماً.

ثم تابعت الرسالة قائلةً إن النموذج الاقتصادي المطروح أظهر أن طريقة مكافحة الملاريا لن تنجح... ومرة أخرى، كانت الإشارة إلى بحثٍ أجراه شكور وزملاؤه.

وفكّر شكور: يذكرني «أنا مرةً أخرى؟ حقاً؟». وفي الواقع لم تشر دراسته المذكورة تلك إلى أن الطريقة لن تنجح.

اكتشاف أصل الرسالة

وقرر شكور: «لا بد أن هذا ذكاءٌ اصطناعي»، كتب الرسالة. وعلّل شكور ذلك بأنه لا بد من استخدام نموذج لغوي ضخم لكتابة الرسالة. وقال العالم إنه يعتقد أن كاتب الرسالة، وفي أثناء بحثه عن مراجع في مجال متخصص لا يتوفر بكثرة، عثر على ورقتين بحثيتين لشكور. وأخبر العالم المجلة بما وجده، لذا أوقفت المجلة نشر الرسالة.

رسائل الردود تُنشر بوصفها منشورات علمية

وصرح الدكتور إريك روبين، رئيس تحرير المجلة، بأنه لم يفكر في إمكانية كتابة روبوتات الدردشة للرسائل حتى سمع بتجربة شكور. وأشار في مقابلة إلى أن هناك سبباً يدفع المؤلفين للجوء إلى الذكاء الاصطناعي.

وفي العادة، تُدرج الرسائل الموجهة إلى المحرر، والتي تنشر في المجلات العلمية، في قواعد البيانات التي تُدرج فيها أيضاً مقالات المجلات. وقال روبين إنها «تُحتسب بقدر المقالة العلمية». وأضاف: «مقابل بذل جهد بسيط، يمكن لأي شخص إضافة مقال في مجلة نيو إنغلاند الطبية إلى سيرته الذاتية... لذلك فالدافع للغش كبير».

طبيب شرق أوسطي كاتب الرسالة

وتساءل شكور: من هذا الشخص الذي أرسل الرسالة؟ واكتشف أن المؤلف طبيب من دولة شرق أوسطية لم ينشر أي رسائل إلى محرري المجلات العلمية حتى عام 2024. وفجأة، في عام 2025، نشر 84 رسالة، حول 58 موضوعاً.

وقال شكور مشيراً إلى إبداعاته: «إنه ليوناردو».

كتّاب كثر ظهروا بعد ظهور الذكاء التوليدي

اعتقد شكور أن من الأفضل الكتابة عن تجربته. وتضمنت الدراسة تحليلاً لأكثر من 730000 رسالة إلى محرري المجلات نُشرت منذ عام 2005. وقد نُشرت على الإنترنت قبل تقديمها إلى مجلة مُحكمة.

وقال شكور: «حدث شيء ما في عام 2023». ظهر فجأةً كُتّابٌ لم ينشروا رسائلَ كثيرةً أو لم ينشروا رسائلَ على الإطلاق قبل ذلك، ثم فجأةً أصبحت رسائلهم تُنشر بانتظام - مُنتقلين، كما قال شكور: «من الصفر إلى الشهرة».

نشر أحد الكُتّاب، من دولةٍ في جنوب شرقي آسيا، 234 رسالةً في عام 2024، و243 رسالةً حتى 31 أكتوبر (تشرين الأول) من هذا العام، بعد أن لم ينشر أي رسالةٍ في عام 2023.

كما حدّد 128 كاتباً لم ينشروا رسالةً قط. ثم، في عامهم الأول بصفتهم كتّاب رسائل، كان لديهم ما لا يقل عن 10 رسائل منشورة.

وقال شكور إن ما يصل إلى 3000 مؤلف لم يسبق لهم نشر رسالة قبل عام 2023 نشروا ثلاثاً على الأقل. وأضاف: «إذا ظهر شخص ما فجأة وكتب ثلاث أو خمس أو عشر رسائل في عام واحد، فهذا أمر مثير للدهشة... فلكتابة رسالة، تحتاج إلى خبرة، ويجب أن تكون على اطلاع دائم بالأدبيات».

رسائل مشبوهة

ووصلت رسائل غريبة إلى:

* «مجلة الصداع»

بدأت الدكتورة آمي غيلفاند، رئيسة تحرير مجلة «الصداع» journal Headache، في تلقي رسائل مشبوهة. وقالت إن أحد الأدلة هو الرسائل التي تصل بعد يومين من نشر البحث. وأضافت أن المؤلفين من البشر يمضون عادةً بضعة أسابيع قبل الكتابة.

وبدأت في البحث عن مؤلفي الرسائل المشكوك فيها في موقع «PubMed»، وهي قاعدة بيانات للمنشورات العلمية. وقد نشر أحد مؤلفي إحدى الرسائل الحديثة ست رسائل إلى المحرر هذا الشهر في ست مجلات حول ستة مواضيع.

*مجلة «الإدمان»

تلقى كيث همفريز، نائب رئيس تحرير مجلة «الإدمان» Addiction، ما بدا أنه رسالة معقولة إلى المحرر، وأرسلها إلى مؤلفي ورقة البحثية للتعليق عليها.

اتضح أن مؤلفي الرسالة المقيمين في الصين، كانوا منتجين للغاية. في غضون ستة أشهر، نشروا رسائل إلى محرري مجلات في أمراض القلب، وطب الطوارئ، والغدد الصماء، وأمراض الجهاز الهضمي، وأمراض الكبد، وعلم المناعة، وطب العناية المركزة. وقال همفريز: «لقد أتقنوا كل مجال على حدة».

ازدياد نسبة رسائل الردود العلمية

وجد شكور وزملاؤه أن عدد الرسائل المشبوهة في ازدياد مستمر. في عام 2023، بلغت نسبة الرسائل التي كتبها مؤلفون غزيرو الإنتاج - أولئك الذين نشروا ثلاثاً أو أكثر في عام واحد - 6 في المائة. في عام 2024، بلغت 12 في المائة. هذا العام، أفاد الباحثون بأنها تقترب من 22 في المائة.

وقال شكور إنهم يغزون المجلات «مثل أوميكرون»، في إشارة إلى متحور كوفيد الذي سرعان ما أصبح مهيمناً. وقال روبين إن الوضع «ليس جيداً». لكن الحل لا يكمن في التوقف عن نشر الرسائل. وأضاف: «أحياناً تحتوي الرسائل على معلومات بالغة الأهمية. الرسائل الجيدة تطرح أسئلة جيدة أو تثير نقاطاً لا يطرحها المؤلفون». وتتابع غيلفاند: «من دون رسائل، نفقد كل القيمة، والرؤى الجديدة، والانتقادات والمناقشات المهمة حول معناها للعلم».

خطوات لمكافحة الرسائل «الاصطناعية»

وهناك فكرة أخرى تتمثل في التوقف عن فهرسة الرسائل، حتى لا تظهر في «PubMed». وتقول غيلفاند إن هذا أيضاً ليس حلاً جيداً. فالروابط الموجودة في هذا الموقع من الرسائل مفيدة للباحثين.

في الوقت الحالي، لا يوجد اتفاق على ما يجب فعله. وقال شكور إنه على الرغم من أن تجربته مع رسالة الدكتور ب. س. كانت مضحكة، لكن الصورة الكبرى ليست كذلك. وأضاف: «الأمر مرعب».

* خدمة «نيويورك تايمز».


الذكاء الاصطناعي وإنتاج «الهراء»: دعم لموجات التضليل التجاري والإعلامي

الذكاء الاصطناعي وإنتاج «الهراء»: دعم لموجات التضليل التجاري والإعلامي
TT

الذكاء الاصطناعي وإنتاج «الهراء»: دعم لموجات التضليل التجاري والإعلامي

الذكاء الاصطناعي وإنتاج «الهراء»: دعم لموجات التضليل التجاري والإعلامي

أصبحت القصص المتعلقة بالتلفيقات التي تُنتجها الأدوات الذكية الاصطناعية في الأوساط المهنية جزءاً من روتين الحياة منذ أن انتشر الذكاء الاصطناعي التوليدي قبل ثلاث سنوات، كما كتب فيصل حق (*).

اقتباسات مُختلقة وأرقام مُزيفة

وقد ظهرت اقتباسات مُختلقة، وأرقام مُزيفة، واستشهادات تُؤدي إلى أبحاث لا توجد أصلاً في المنشورات الأكاديمية، والمذكرات القانونية، والتقارير الحكومية، والمقالات الإعلامية.

يُمكننا غالباً عدَّ هذه الأحداث بمثابة أعطال تقنية ناتجة من هلوسات الذكاء الاصطناعي، إلا أن تجاهل أي شخص للتحقق أولاً من الحقائق، سيوقعه في خطأ مُحرج.

فرصة لتعزيز الدعاية بعيداً عن الحقيقة

ولكن في بعض الحالات، تُمثل هذه الأحداث غيضاً من فيض – لأنها تمثل الجزء المرئي من ظاهرة أكثر خبثاً سابقة لعصر الذكاء الاصطناعي، لكنها ستُعززه بقوة. وإننا نعرف أنه في بعض قطاعات الصناعة والتجارة، لا يهم كثيراً ما إذا كانت العبارة صحيحة أم خاطئة، فالمهم هو مدى إقناعها.

بينما يميل المتحدثون في السياسة إلى التركيز على «لحظة ما بعد الحقيقة»، يتعامل المستشارون وغيرهم من «منتجي المعرفة» مع الحقيقة بسعادة على أنها بناء قابل للتغيير لعقود.

تضليل الشركات لدعم أهدافها

وعادةً ما يتم تجميع المعلومات في مجموعات وتقارير بهدف دعم رواية الزبون أو أهداف الشركة الخاصة، بينما يتم التقليل من الحقائق غير الملائمة أو تجاهلها تماماً. ويوفر الذكاء الاصطناعي التوليدي أداةً قوية للغاية لدعم هذا النوع من التضليل: حتى لو لم يكن يستخرج البيانات من العدم ويخترع ادعاءات من الأساس، فإنه يمكن أن يوفر عشرات الطرق لإخفاء الحقيقة أو جعل «الحقائق البديلة» تبدو مقنعة.

مظهر الدقة... بين الكذّاب ومروّج الهراء

وحيثما يكون مظهر الدقة أهم من الدقة نفسها، يصبح الذكاء الاصطناعي ميزة تنافسية لا عبئاً.

ولكي لا نُبالغ في وصف الأمر، يُمضي الكثير من «عمال المعرفة» وقتاً طويلاً في إنتاج ما يُسميه الفيلسوف هاري فرانكفورت «هراءً». ويُوضح فرانكفورت أن الكاذب يهتم بالحقيقة، حتى لو كان ذلك سلبياً؛ لأنه يُريد إخفاءها. أما مُروّج الهراء فلا يُبالي إطلاقاً... فقد يُقدم الحقيقة سهواً. إذ إن ما يُهم مُروّج الهراء ليس الدقة، بل التأثير: كيف تُؤثر كلماته على الجمهور، والانطباع الذي تُخلّفه، وما الذي تُتيح لهم كلماته الإفلات منه. بالنسبة للكثير من الأفراد والشركات في هذه القطاعات، لا تُستخدم الكلمات في التقارير وعروض الشرائح لوصف الواقع أو لإجراء جدال صادق؛ بل تُستخدم للقيام بدور مُروّج الهراء المُقنع.

مواد إعلامية «تبدو جيدة»

ولعقود من الزمن، تمت مكافأة بائعي المنتجات والمحللين والمستشارين على إنتاج مواد تبدو دقيقة وموثوقة ومدفوعة بالبيانات - عرض شرائح من 30 صفحة، وتقرير لامع، وأطر عمل أنيقة، ولوحات 2 × 2 أنيقة. لم يكن من الضروري أن تكون المادة جيدة. كان يكفي أن تبدو جيدة.

وإذا كان هذا هو الهدف، وإذا كان المقصود من الكلمات الأداء بدلاً من الإعلام، وإذا كان الهدف هو إنتاج هراء فعال بدلاً من قول الحقيقة، فمن المنطقي تماماً استخدام الذكاء الاصطناعي.

هراء الذكاء الاصطناعي... أفضل من أي إنسان

يمكن للذكاء الاصطناعي إنتاج هراء أفضل وأسرع وبكميات أكبر من أي إنسان. لذلك، عندما يلجأ المستشارون والمحللون إلى الذكاء الاصطناعي التوليدي لمساعدتهم في تقاريرهم وعروضهم التقديمية، فإنهم يطيعون المنطق الأساسي والأهداف الأساسية للنظام الذي يعملون فيه.

المشكلة هنا ليست أن الذكاء الاصطناعي يُنتج هراءً، بل إن الكثيرين في هذا المجال مستعدون لقول أي شيء يُقال لزيادة أرباحهم.

الهراء مقابل الجودة

الجواب هنا ليس سياسات جديدة ولا برامج تدريبية. لهذه الأمور مكانها، لكنها في أحسن الأحوال تعالج الأعراض بدلاً من الأسباب الكامنة.

إذا أردنا معالجة الأسباب بدلاً من اللجوء إلى الحلول المؤقتة، فعلينا أن نفهم ما فقدناه في هذا التوجه نحو الهراء؛ لأنه حينها يمكننا البدء في إيجاد طريقة لاستعادته.

في كتابه Zen and the Art of Motorcycle Maintenance، يستخدم روبرت بيرسيغ مصطلح «الجودة» لتسمية الخاصية التي تجعل الشيء الجيد جيداً. هذه سمة غير ملموسة: لا يمكن تعريفها، لكن الجميع يعرفها بمجرد رؤيتها.

إننا نعرف الجودة عندما نمرر يدنا على طاولة مصنوعة بإتقان وتشعر بالوصلة السلسة بين قطعتي خشب؛ ونعرف الجودة عندما نرى أن كل خط وانحناءة مصنوعان كما ينبغي. هناك صواب هادئ في شيء يتمتع بهذه السمة، وعندما نراه، نلمح معنى أن يكون الشيء جيداً حقاً.

الحسّ الحقيقي بالجودة... يطرد الهراء

لو كانت المؤسسات المسؤولة عن إنتاج المعرفة - ليس فقط شركات الاستشارات، بل الجامعات والشركات والحكومات ومنصات الإعلام - مدفوعة بحسٍّ حقيقيٍّ بالجودة، لصعُب على الهراء أن يتجذر.

تُعلّم المؤسسات القيم عادة، لكننا أمضينا عقوداً نكافئ إنتاج الهراء. يُنجز المستشارون ببساطة ما تعلمناه جميعاً إلى حدٍّ ما: إنتاج شيءٍ يبدو جيداً دون الاكتراث بما إذا كان جيداً حقاً.

دور القادة

يجب جعل الحياة صعبة، فالهراء يزدهر لأنه سهل. إذا أردنا إنتاج عمل جيد، فعلينا اتباع الطريق الأصعب.

إن الذكاء الاصطناعي لن يختفي، ولا ينبغي لنا أن نتمنى زواله. إنه أداة رائعة لتعزيز الإنتاجية واستغلال وقتنا بشكل أفضل. لكنه غالباً ما يفعل ذلك بتشجيعنا على إنتاج أكاذيب؛ لأن هذا هو أسرع وأسهل طريق في عالم تخلى عن الجودة.

يكمن التحدي في تسخير الذكاء الاصطناعي دون أن ننخدع بطرق مختصرة قد تقودنا في النهاية إلى الهاوية. ولتجنب هذا الفخ، يجب على القادة اتخاذ خطوات مدروسة على المستويين الفردي والمؤسسي.

التحقق من الادعاءات «الذكية»

* على المستوى الفردي، لا تقبل أبداً أي شيء ينتجه الذكاء الاصطناعي دون أن تقتنع به أولاً. لكل جملة، لكل حقيقة، لكل ادعاء، لكل مرجع، اسأل نفسك: هل أؤيد ذلك؟ إذا كنت لا تعرف، فعليك التحقق من الادعاءات والتفكير ملياً في الحجج حتى تصبح ملكك حقاً. غالباً ما يعني هذا إعادة الكتابة والمراجعة وإعادة التقييم، وحتى الرفض القاطع. وهذا صعب عندما يكون هناك طريق أسهل متاح. لكن صعوبة الأمر هي ما يجعله ضرورياً.

* على المستوى التنظيمي: نعم، يجب أن نثق بقدرة موظفينا على استخدام الذكاء الاصطناعي بمسؤولية. ولكن - إذا اخترنا عدم مواكبة مُضلّلي العالم - فعلينا أيضاً الالتزام وإعادة الالتزام بمؤسساتنا لإنتاج عمل ذي جودة حقيقية. وهذا يعني وضع ضوابط جودة حقيقية وصارمة.

* دعم القادة كل ما ينتجه فريقهم. عليهم تحمل المسؤولية والتأكيد على أنهم يسمحون له بالخروج من مؤسساتهم ليس لأنه يبدو جيداً، بل لأنه جيد بالفعل.

مرة أخرى، هذا صعب. يتطلب وقتاً وجهداً. هذا يعني عدم قبول نظرة عابرة على النص، بل التركيز على القراءة والفهم بالتفصيل. هذا يعني الاستعداد لتحدي أنفسنا وتحدي فرقنا، ليس بشكل دوري فحسب، بل كل يوم.

صدق الإنتاج... والإبداع

الطريق إلى الأمام ليس مقاومة الذكاء الاصطناعي أو إضفاء طابع رومانسي على البطء وعدم الكفاءة. بل هو أن نكون صادقين تماماً بشأن ما ننتجه وسببه. في كل مرة نميل فيها إلى تجاهل المواد التي يُنتجها الذكاء الاصطناعي لمجرد أنها تبدو جيدة بما يكفي، علينا أن نسأل: هل نُبدع شيئاً ذا جودة عالية، أم أننا نُضيف إلى كومة الهراء فحسب؟ هذا السؤال - واستعدادنا للإجابة عليه بصراحة - سيُحدد ما إذا كان الذكاء الاصطناعي سيصبح أداةً للتميز أم مجرد أداة أخرى تُبدّل الرؤية بالمظهر.

* مجلة «فاست كومباني» - خدمات «تريبيون ميديا»


الذكاء الاصطناعي سيُدمّر الخصوصية

الذكاء الاصطناعي سيُدمّر الخصوصية
TT

الذكاء الاصطناعي سيُدمّر الخصوصية

الذكاء الاصطناعي سيُدمّر الخصوصية

ما لم يُقيّد ويُعاد بناؤه على تصورات جديدة على وجه السرعة؛ فإن الذكاء الاصطناعي يهدد بتدمير الخصوصية بطرق أعمق من أي عصر تكنولوجي سابق، كما كتبت جين كالترايدر (*).

الخصوصية حق من حقوق الإنسان

إنني أعمل على حماية المعلومات الشخصية للأفراد، وأُؤكّد أن الخصوصية يجب أن تكون تلقائية، كحق أساسي من حقوق الإنسان. لكن المجتمع فشل في بناء حماية كافية، لا سيما مع صعود منصات التواصل الاجتماعي والإعلانات المُوجّهة.

وقد أقنعت الشركات المستخدمين بأن «البيانات هي ثمن» استخدام الخدمات الحديثة، مع أن البيانات الشخصية يجب أن تكون أداةً يتحكم بها الأفراد لتحسين حياتهم.

أعمال ومشاعر وأقوال ورغبات الأفراد في خطر

ومع الذكاء الاصطناعي، يتفاقم اختلال توازن القوى حول البيانات بشكلٍ كبير. إذ تعتمد أنظمة الذكاء الاصطناعي الآن بشكلٍ كبير على مجموعات بيانات شخصية ضخمة، ما يجعل المعلومات المتعلقة بالأفراد - ما يفعلونه، وما يشعرون به، وما يقولونه، وما يريدونه - أكثر قيمةً وأكثر عُرضةً للخطر من أي وقت مضى.

وتُوضّح الأمثلة هذا التهديد المُتزايد. يتخيل رواد التكنولوجيا مستقبلاً يُمكّن فيه الذكاء الاصطناعي من الوصول إلى كل محادثة أو كتاب أو بريد إلكتروني أو صورة صادفها أي شخص. وتتزايد الأجهزة القابلة للارتداء في جمع الحالات العاطفية آنياً. وتستطيع النظارات الذكية تسجيل كل ما نراه. وتتخذ روبوتات الدردشة الذكية شخصية المعالجين، مشجعةً المستخدمين على مشاركة مشاعرهم الحميمة، ما قد يؤدي إلى نتائج مأساوية في بعض الحالات.

تضارب الدوافع ونقاط الضعف الأخلاقية

لا تقتصر البيانات الشخصية في عصر الذكاء الاصطناعي على وصف الأشخاص فحسب، بل تُشكل هوياتهم وسلوكياتهم، لا سيما في بيئة من أصدقاء الذكاء الاصطناعي ورفاقه وعملائه. ويُعدّ ترك هذه البيانات في أيدي الشركات أو الحكومات أمراً محفوفاً بالمخاطر، لا سيما في ظل تضارب الدوافع، أو نقاط الضعف الأخلاقية، أو تغير الأجندات السياسية.

تاريخ مُبسط للخصوصية

لفهم المخاطر، إليكم تاريخاً مُبسطاً للخصوصية: في السياقات الدينية القديمة، كانت الخصوصية شبه معدومة؛ إذ كان يُفترض وجود مراقبة إلهية. وفي معظم أنحاء العالم في العصور الوسطى، كانت الخصوصية مستحيلة مادياً، حيث عاش الناس في مساحات ضيقة مشتركة. ومع ظهور المطبعة، بدأ الأفراد بالقراءة بمفردهم وبناء عوالم داخلية خاصة. ووسّع مفكرو عصر التنوير مفهوم الخصوصية الشخصية، ليشمل الأفكار والممتلكات والمراسلات.

وخلال العصر الصناعي، ظهرت الحماية القانونية ضد التفتيش والتشهير والتعدي على الممتلكات. وفي عام 1890، تمت صياغة «الحق في الخصوصية» رسمياً، للدفاع عن الحق في أن يُترك الناس وشأنهم، وتوسع نطاق الحماية ليشمل مشاعر الناس وحياتهم العقلية.

عصر التكنولوجيا زعزع الخصوصية

لكن عصر التكنولوجيا زعزع استقرار الخصوصية. فأتاحت الهواتف التنصت على المكالمات الهاتفية، وأتاحت الكاميرات المراقبة. وزادت الحروب العالمية والحرب الباردة من تطبيع التجسس الحكومي. وبحلول عصر الإنترنت، انهارت الخصوصية تماماً. فقد أدت وسائل التواصل الاجتماعي، وجمع البيانات الضخمة، وأدوات تتبع المواقع الشامل، والإعلانات الإلكترونية المتطورة، إلى تآكل السيطرة الشخصية.

اضطرار التشارك بالبيانات

وتحوّل علماء الخصوصية من تصور الخصوصية كعزلة تامة إلى «سلامة السياق»، أي توقع مشاركة البيانات الشخصية فقط مع متلقين مختارين، في ظروف محددة. لكن هذا النموذج فشل بسبب تسويق البيانات تجارياً. وأصبحت الموافقة مدفونة في سياسات خصوصية غير قابلة للقراءة ومُقنّعة خلف أزرار «موافق».

ومنحت بعض الحمايات القانونية الأميركية، مثل اللائحة العامة لحماية البيانات (GDPR) وقانون خصوصية المستهلك في كاليفورنيا (CCPA)، الأفراد الحق في معرفة البيانات التي جُمعت، أو حذفها، أو إلغاء بيعها. ومع ذلك، فلا يمكن حتى لهذه اللوائح مواكبة الأنظمة المتعطشة للبيانات والغامضة، التي تُشكل عصر وسائل التواصل الاجتماعي، ناهيك بعصر الذكاء الاصطناعي الأكثر تدخلاً الذي يبرز الآن.

متطلبات الذكاء الاصطناعي للبيانات غير مسبوقة

إن متطلبات الذكاء الاصطناعي للبيانات غير مسبوقة: كل شيء من التعبيرات والعادات إلى أنماط اللغة الشخصية العميقة. يشارك الأفراد أنفسهم في خلق هذه الثغرة، حيث يتخذون خيارات تستبدل بالخصوصية الراحة. يستخدم الناس أدوات التعرف على الوجه، ويمنحون وكلاء الذكاء الاصطناعي وصولاً واسعاً إلى البريد الإلكتروني والبيانات المالية، ويثقون برفاق الذكاء الاصطناعي لتخفيف الشعور بالوحدة. في عام 2025، سيكون الاستخدام الأكثر شيوعاً للذكاء الاصطناعي هو العلاج والرفقة، ما يوضح مدى شخصية هذه التفاعلات وهشاشتها.

قد يُدمر الذكاء الاصطناعي الخصوصية أو قد يُنقذها

تكمن المشكلة الأساسية في أنه لا يفهم أحد حقاً كيفية عمل هذه النماذج القوية أو ما يحدث بداخلها، ومع ذلك يُتوقع من المستخدمين التخلي عن كميات هائلة من البيانات الشخصية لتحسين وظائفها. وأنا أشبه هذه اللحظة بالعودة إلى العصور القديمة - عالم يُشرف عليه وجودٌ عليمٌ بكل شيء، يرى كل شيء. ولكن على عكس العالم الإلهي، فإن الذكاء الاصطناعي من صنع الإنسان، مبنيٌّ على خوارزميات ومجموعات بيانات ودوافع للشركات، بما في ذلك الربح والتأثير والسيطرة.

ضرورة إعادة صياغة حقوق البيانات

على الرغم من هذا المسار المُقلق، فإن الذكاء الاصطناعي قد يكون أيضاً مفتاحاً لإنقاذ الخصوصية، إذا اغتنم المجتمع الفرصة لإعادة صياغة حقوق البيانات. ولذا أدعو إلى معادل حديث للمطبعة: بنية تحتية تحويلية تُمكّن الأفراد من التحكم في بياناتهم الخاصة. تاريخياً، ساهمت المطبعة في دمقرطة المعرفة، مُمكّنةً تفتُّح الفكر الخاص، وممهدةً الطريق لثورات فكرية كبرى. وبالمثل، يحتاج مجتمع اليوم إلى تحول تكنولوجي يُلغي مركزية البيانات ويُعيد السيطرة للأفراد.

ملكية البيانات الفكرية ونقلها

هنا يصبح مفهوم قابلية نقل البيانات أمراً حيوياً. على الرغم من أنها تبدو عادية، لكن قابلية نقل البيانات تُحدث ثورة في هذا المجال. فهي تعني أن بإمكان الأفراد نقل بياناتهم بسهولة وأمان - عبر الخدمات والمنصات والأدوات - مع الحفاظ على الملكية والتحكم. اليوم، يصعب الوصول إلى قابلية نقل البيانات إلى حد كبير؛ فغالباً ما تُنتج الأدوات الحالية ملفات ضخمة وغير قابلة للقراءة لا يمكن للأفراد استخدامها بشكل مفيد. وهذا الغموض ليس مصادفة: فالشركات تستفيد من الاحتفاظ بسيطرة محكمة على بيانات المستخدم، ما يجعل مغادرته لها صعبة.

محفظة بيانات شخصية آمنة بدلاً من خوادم غامضة

ومع ذلك، إذا تم دمج قابلية نقل البيانات في نظام متماسك، فقد تُشكل العمود الفقري لبنية تحتية جديدة للخصوصية. وأنا أتخيل عالماً لا تُخزن فيه البيانات الشخصية في خوادم شركات غامضة، بل تُحفظ محلياً في محفظة بيانات شخصية آمنة أو «بود». يمكن بعد ذلك استخدام هذه البيانات بواسطة مساعد ذكاء اصطناعي شخصي يعيش مع المستخدم، ويعمل محلياً، ويتعلم فقط من معلوماته - بإذن صريح. يخدم هذا الذكاء الاصطناعي الفرد فقط، وليس نموذج أعمال الشركة.

ومن الأمثلة الواضحة على ذلك تطبيقات تتبع الدورة الشهرية. اليوم، يتشارك ملايين الأشخاص بيانات صحية بالغة الحساسية عبر تطبيقات مملوكة لشركات قد تبيع هذه المعلومات أو تُسلمها للسلطات، لا سيما في المناطق ذات قوانين الصحة الإنجابية المُقيّدة.

ولذا؛ أقترح مثلاً نظاماً ستُحفظ فيه هذه البيانات فقط في وحدة تخزين شخصية للمستخدم، لا يُمكن الوصول إليها إلا من خلال الذكاء الاصطناعي الخاص به، الذي يُمكنه بعد ذلك من المساعدة في تتبع الأنماط الصحية أو تقديم الدعم دون تعريضهم للمراقبة أو المخاطر القانونية.

يمكن أن يمتد هذا النموذج ليشمل العديد من المجالات الأخرى؛ الرعاية الصحية، والتكيف مع تغير المناخ، والاستقرار المالي، ودعم الوظائف، وغيرها. في كل حالة، يُمكن أن يُتيح الجمع بين الذكاء الاصطناعي الخاص والبيانات المحمولة التي يُتحكم بها شخصياً إمكانيات جديدة مع الحفاظ على الاستقلالية والسلامة.

بنية تحتية جديدة

لن يكون بناء هذه البنية التحتية أمراً سهلاً. فهو يتطلب تقنيات جديدة، ولوائح جديدة، وحوافز جديدة للصناعة؛ وهي أمور لا وجود لها حالياً. يعمل بعض المُبتكرين، بمن فيهم مُبتكر شبكة الإنترنت العالمية، على مكونات أولية. وكما هو الحال مع مطبعة جديدة، قد تُقاوم القوى المُتنفذة التغييرات التي تُهدد سيطرتها. مع ذلك، فإن الخيار واضح: فمن دون إجراءات حاسمة، سينجرف المجتمع نحو مستقبل بائس تنقرض فيه الخصوصية. ولكن إذا طوّرنا أدواتٍ تمنح الأفراد السيادة على بياناتهم، فقد يُصبح الذكاء الاصطناعي قوةً للتمكين بدلاً من المراقبة.

إن التحكم في بيانات المرء يُعادل التحكم في مصيره. لذا فإن استعادة الخصوصية في عصر الذكاء الاصطناعي هي التحدي القادم - وهو أمرٌ ممكن وملحّ.

*مديرة الأبحاث في «ديتا ترانسفير إنيشياتيف، مجلة «فاست كومباني»، خدمات «تريبيون ميديا».