5 خيارات للسيطرة على تهديدات الذكاء الاصطناعي للحق في الخصوصية

الحرفان الأولان من عبارة «الذكاء الاصطناعي» مع يد روبوت مصغرة في هذا الرسم التوضيحي الملتقط في 23 يونيو 2023 (رويترز)
الحرفان الأولان من عبارة «الذكاء الاصطناعي» مع يد روبوت مصغرة في هذا الرسم التوضيحي الملتقط في 23 يونيو 2023 (رويترز)
TT

5 خيارات للسيطرة على تهديدات الذكاء الاصطناعي للحق في الخصوصية

الحرفان الأولان من عبارة «الذكاء الاصطناعي» مع يد روبوت مصغرة في هذا الرسم التوضيحي الملتقط في 23 يونيو 2023 (رويترز)
الحرفان الأولان من عبارة «الذكاء الاصطناعي» مع يد روبوت مصغرة في هذا الرسم التوضيحي الملتقط في 23 يونيو 2023 (رويترز)

قبل نحو عامين، فرضت تقنيات الذكاء الاصطناعي نفسها على جدول أولويات صناع القرار في عديد من المجالات على مستوى العالم، بعد أن اتضح أن الجيل الجديد من هذه التكنولوجيا الرقمية ينطوي على فوائد جمة وتحديات ومخاطر كثيرة في الوقت نفسه. وبسبب خطورة وأهمية ما تمثله تطورات تكنولوجيا الذكاء الاصطناعي، نشرت مؤسسة الأبحاث والتطوير الأميركية للدراسات الاستراتيجية «راند»، دراسة حول تأثيرات الذكاء الاصطناعي على قوانين حماية الخصوصية أعدّها 6 خبراء، هم: تيفاني صادق الأستاذة في كلية القانون بجامعة ميشيغان، وكارلين ستانلي كبير باحثين في السياسة بمؤسسة «راند»، والمحلل السياسي غريغوري سميث، والباحثة كريستينا مارسينك، والمحلل السياسي بول كورماري، وساليل جوناشيكار المدير المشارك في مركز أبحاث «راند أوروبا».

وتقول الدراسة، وفق تقرير لـ«وكالة الأنباء الألمانية»، إن الذكاء الاصطناعي يعد ببدء عصر من التطور التكنولوجي السريع الذي قد يؤثر في كل جوانب المجتمع تقريباً، سواء بشكل إيجابي أو سلبي. وتحتاج الاستفادة من مزايا الذكاء الاصطناعي جمع ومعالجة وتفسير كميات كبيرة من البيانات، بما في ذلك البيانات الشخصية والحساسة، لذلك، ظهرت الأسئلة المتعلقة بكيفية حماية البيانات، والحق في الخصوصية في النقاش العام.

وتلعب حماية الخصوصية دوراً محورياً في محافظة الأفراد على معلوماتهم الشخصية، وفي حماية المؤسسات للمعلومات الحساسة للأفراد، ومنع استخدامها في عمليات الاحتيال أو الوصول غير المسموح به لبيانات الأفراد. ورغم ذلك فإن الولايات المتحدة تفتقر لإطار تشريعي أو تنظيمي اتحادي شامل لتنظيم حقوق البيانات، والخصوصية وحمايتها.

وهناك عديد من المحاولات لصياغة قانون اتحادي شامل للخصوصية، بما في ذلك قانون حقوق الخصوصية الأميركي، الذي يستهدف تنظيم جمع ونقل واستخدام بيانات الأميركيين في أغلب الدوائر. ورغم أن بعض قضايا خصوصية البيانات يمكن معالجتها بالتشريعات، هناك فجوات في حماية البيانات؛ بسبب السمات الفريدة للذكاء الاصطناعي.

ومن أكثر الأمور المثيرة للقلق من منظور حماية البيانات في الذكاء الاصطناعي الغياب المحتمل لفهم كيفية قيام الخوارزميات باستخدام وجمع وتعديل البيانات، أو اتخاذ القرارات على أساس البيانات. هذا الغياب المحتمل للفهم يُعرف باسم «التعتيم الخوارزمي»، ويمكن أن ينتج عن الطبيعة المعقدة للخوارزميات أو الإخفاء المتعمد من خلال استخدام أي شركة لقانون حماية الأسرار التجارية لكي تحمي خوارزمياتها، أو استخدام تعليم الآلة لإنشاء خوارزمية، وفي هذه الحالة ربما لا يكون في مقدور مطوري الخوارزميات التنبؤ بكيفية أدائها. فالتعتيم الخوارزمي يمكن أن يجعل من الصعب أو المستحيل رؤية كيفية نقل البيانات المستخدمة في الوصول إلى بيانات جديدة أو القرارات الناتجة عن استخدام تلك البيانات، وهو ما يثير الأسئلة حول محدودية القدرة على فحص أو تنظيم تقنيات الذكاء الاصطناعي.

وبحسب دراسة مؤسسة «راند»، هناك مجموعة أخرى من الهواجس بشأن الخصوصية، التي تأخذ جوانب فريدة مرتبطة بالذكاء الصناعي أو تضخم هذه السمات الفريدة للذكاء الاصطناعي، ومنها إعادة استخدام البيانات، التي تشير إلى البيانات التي يتم استخدامها بعيداً عن الغرض المقصود أو المعلن لها، ودون علم ولا موافقة صاحبها. ففي سياق الذكاء الاصطناعي يمكن أن تحدث إعادة استخدام البيانات، عندما يتم جمع بيانات السيرة الذاتية من أحد الأشخاص لتغذية خوارزمية يمكن أن تتعلم من هذه البيانات الأنماط المرتبطة ببيانات الشخص. على سبيل المثال، تضمنت حزمة التحفيز الاقتصادي في الولايات المتحدة في أثناء الأزمة المالية التي تفجرت في خريف 2008، تمويل عملية رقمنة سجلات الرعاية الصحية بهدف تسهيل نقل بيانات المرضى بين موفري الرعاية الصحية لمصلحة المرضى. ورغم ذلك يمكن أن تستخدم المستشفيات وشركات التأمين الخوارزميات الطبية لتحديد المخاطر الصحية لكل شخص، ومدى جدارته بالحصول على الرعاية الطبية، وهو غرض لم يكن مقصوداً في البداية عند جمع ورقمنة هذه البيانات.

ويتعلق هاجس ثانٍ بانتشار البيانات، الذي يحدث عندما يتم جمع البيانات بشأن الأفراد الذين لم يكونوا مقصودين في أثناء جمع البيانات. على سبيل المثال يمكن استخدام الذكاء الاصطناعي لتحليل صورة تم التقاطها لشخص ما لكنها تضم أشخاصاً آخرين غير مقصودين. وهناك مثال آخر وهو أقارب أي شخص يقوم بتحميل بياناته الجينية إلى أحد مراكز تجميع البيانات الجينية مثل «23 آند مي».

الهاجس الثالث هو استمرارية البيانات، ويشير إلى بقاء البيانات لفترة أطول مما كان متوقعاً في أثناء جمعها، وربما بما يتجاوز حياة الأشخاص الذين جمعوا البيانات أو الذين وافقوا على استخدامها، خصوصاً إذا تم دمج البيانات في خوارزمية ذكاء اصطناعي أو أُعيد تجميعها أو أُعيد استخدامها.

ورغم ذلك فإن دراسة مؤسسة «راند» تقترح مجموعة من الخيارات المحتملة لمعالجة المخاطر الفريدة للذكاء الاصطناعي على الخصوصية، ومنها الحد من جمع البيانات والاكتفاء بالحد الأدنى منها، وهو ما يشير إلى ضرورة أن يقتصر جمع البيانات الشخصية على تلك المطلوبة أو اللازمة بشكل مباشر لتحقيق أهداف محددة بدقة. وهذا المبدأ يتعارض مع النهج الذي تستخدمه كثير من الشركات اليوم، التي تجمع أكبر قدر ممكن من المعلومات. وتحت مظلة تقليل جمع البيانات إلى أقصى درجة ممكنة، يجب فرض قيود قانونية على استخدام البيانات بالنسبة للهدف المحدد في أثناء جمعها.

الخيار الثاني هو تقييمات التأثير الخوارزمي على الاستخدام العام. حيث تهدف تقييمات التأثير الخوارزمي إلى إخضاع المؤسسات التي تستخدم أنظمة صناعة القرار الآلية للمحاسبة. وتواجه تقييمات التأثير الخوارزمي مشكلة التعتيم الخوارزمي من خلال كشفها عن الأضرار المحتملة الناتجة عن استخدام الذكاء الاصطناعي في صناعة القرار ودعوة المؤسسات لاتخاذ خطوات عملية للتخفيف من الأضرار المحددة. وسيفرض أي تقييم للتأثير الخوارزمي الكشف عن أنظمة صناعة القرار المعتمدة على الذكاء الاصطناعي سواء القائمة أو المقترحة، بما في ذلك أغراضها ونطاقها، والتأثيرات المحتملة على المجتمعات قبل بدء استخدام مثل هذه الخوارزميات.

الخيار الثالث لمواجهة مخاطر الذكاء الاصطناعي على الخصوصية يتمثل في التدقيق الخوارزمي، الذي يعدّ تقييماً منظماً لأي نظام ذكاء اصطناعي لضمان توافقه مع الأهداف والمعايير والاشتراطات القانونية المحددة سلفاً. وفي إطار مثل هذا التدقيق، يتم فحص تصميم ومدخلات ومخرجات أي نظام، وحالات الاستخدام والأداء بشكل عام وبصورة مستمرة لتحديد أي فجوات أو ثغرات أو مخاطر. ويتضمن التدقيق الخوارزمي المناسب، وضع أهداف محددة وواضحة للتدقيق مثل التحقق من الأداء والدقة، بالإضافة إلى وضع معايير موحدة لتقييم أداء النظام. وفي سياق الخصوصية، يمكن للتدقيق أن يؤكد أن البيانات تستخدَم في الإطار الذي وافق عليه الأشخاص، وتحت مظلة اللوائح المعمول بها.

الخيار الرابع لمعالجة هواجس الخصوصية هو «الإفصاح الإلزامي»، الذي يقضي بضرورة قيام المؤسسة التي تستخدم تكنولوجيا الذكاء الاصطناعي بإبلاغ العامة بذلك. على سبيل المثال يلزم قانون الذكاء الاصطناعي في الاتحاد الأوروبي الشركات بوضع علامة مميزة على أي محتوى منتج باستخدام الذكاء الاصطناعي. كما يشترط قانون الاتحاد الأوروبي الإفصاح عن استخدام أنظمة الذكاء الاصطناعي لتصنيف الأشخاص أو التعرف على مشاعرهم أو نواياهم باستخدام البيانات اليومترية الخاصة بهم. وفي العام الماضي تم طرح مشروع قانون مماثل في الولايات المتحدة.

وأخيراً، تتمثل الاعتبارات المتعلقة بصناع السياسة الخيار الخامس والأخير لمعالجة مخاطر الذكاء الاصطناعي على الخصوصية، حيث يجب عليهم تحقيق التوازن الصحيح بين التنظيم والابتكار. ولذلك فإن توسيع دائرة المشاركين في صياغة سياسات وقواعد استخدام الذكاء الاصطناعي يمكن أن يساعد على تهدئة المخاوف من أن تؤدي القواعد والنظم إلى خنق الابتكار والتطوير والاستفادة من المزايا التي توفرها تقنيات الذكاء الاصطناعي. وفي هذا الإطار تبنّى قانون الاتحاد الأوروبي للذكاء الاصطناعي دعوة كل الأطراف المعنية بهذه الصناعة، خصوصاً مطوري نماذج الذكاء الاصطناعي للمشاركة في وضع مدونة السلوك المنظمة لنماذج الذكاء الاصطناعي العامة. كما يتضمن قانون الاتحاد الأوروبي بنوداً لدعم الابتكار، خصوصاً بين الشركات الصغيرة والمتوسطة، ومنها الشركات الناشئة. على سبيل المثال، يوفر القانون ما تُسمى «صناديق الاختبار التنظيمية»، التي تعني إيجاد بيئة اختبار وتجربة خاضعة لرقابة صارمة من جانب الجهات التنظيمية. والهدف المحدد من «صندوق الاختبار التنظيمي» هو تعزيز ابتكارات الذكاء الاصطناعي من خلال توفير أطر لتطوير وتدريب وإثبات صحة واختبار أنظمة الذكاء الاصطناعي بطريقة تضمن الامتثال لقانون الذكاء الاصطناعي للاتحاد الأوروبي، وبالتالي تخفيف عدم اليقين القانوني بالنسبة لموفري هذه الأنظمة.


مقالات ذات صلة

صورة ترمب في جوازات سفر أميركية جديدة

الولايات المتحدة​ صورة ترمب في جوازات سفر أميركية جديدة

صورة ترمب في جوازات سفر أميركية جديدة

سيظهر الرئيس الأميركي دونالد ترمب على جوازات سفر جديدة ستصدر لمناسبة الذكرى الـ250 لإعلان استقلال الولايات المتحدة في يوليو (تموز).

«الشرق الأوسط» (واشنطن)
العالم الرئيس الأميركي دونالد ترمب يلتقي بالمستشار الألماني فريدريش ميرتس في البيت الأبيض بالعاصمة واشنطن 3 مارس 2026 (د.ب.أ)

ترمب: المستشار الألماني لا يفقه شيئاً فيما يتعلق بإيران

انتقد الرئيس الأميركي دونالد ترمب، الثلاثاء، المستشار الألماني فريدريش ميرتس بسبب حرب إيران.

«الشرق الأوسط» (واشنطن)
الولايات المتحدة​ صورة مركبة تُظهر الرئيس الأميركي دونالد ترمب في البيت الأبيض (يسار) ومدير مكتب التحقيقات الفيدرالي السابق جيمس كومي (رويترز)

توجيه الاتهام لمدير «إف بي آي» السابق كومي بسبب منشور اعتُبر تهديداً لترمب

أفاد مصدر لوكالة «أسوشييتد برس» بأنه تم توجيه اتهام إلى مدير مكتب التحقيقات الفيدرالي السابق جيمس كومي في تحقيق بشأن منشور على الإنترنت.

«الشرق الأوسط» (واشنطن)
الولايات المتحدة​ صورة وزّعتها البحرية الأميركية في 17 أبريل 2026 تظهر حاملة الطائرات الأميركية «أبراهام لينكولن» وهي تُجري عمليات حصار على إيران في بحر العرب في 16 أبريل 2026 (أ.ف.ب)

وكالات المخابرات الأميركية تدرس ردّ فعل إيران إذا أعلن ترمب النصر

قال مسؤولان أميركيان، وشخص مطلع، إن وكالات المخابرات الأميركية تدرس ردّ فعل إيران إذا أعلن الرئيس الأميركي دونالد ترمب نصراً أحادياً على طهران.

«الشرق الأوسط» (واشنطن)
الولايات المتحدة​ مدمرة صاروخية موجهة أميركية تقوم بدورية في بحر العرب خلال حصار بحري (أ.ف.ب)

أميركا: صعود جنود من مشاة البحرية على متن سفينة تجارية في بحر العرب

أعلنت ​القيادة المركزية الأميركية في منشور على ‌منصة «‌إكس» ​أن ‌مشاة ⁠البحرية ​صعدوا على ⁠متن سفينة تجارية في بحر ⁠العرب ‌اليوم ‌الثلاثاء.

«الشرق الأوسط» (واشنطن)

«ميتا» تتجه إلى الفضاء لتوليد الطاقة الشمسية

شعار شركة «ميتا» (رويترز)
شعار شركة «ميتا» (رويترز)
TT

«ميتا» تتجه إلى الفضاء لتوليد الطاقة الشمسية

شعار شركة «ميتا» (رويترز)
شعار شركة «ميتا» (رويترز)

في خطوة تعكس تسارع الابتكار في قطاع الطاقة والتكنولوجيا، تسعى شركة «ميتا» إلى استكشاف آفاق غير تقليدية لتأمين احتياجاتها المتزايدة من الطاقة، خصوصاً مع التوسع الكبير في تشغيل أنظمة الذكاء الاصطناعي. وفي هذا السياق، تخطط الشركة لاستغلال الطاقة الشمسية من الفضاء، في محاولة لتوفير مصدر مستدام وفعّال لتشغيل مراكز بياناتها على الأرض.

تعتزم شركة «ميتا»، المملوكة لمارك زوكربيرغ، جمع الطاقة الشمسية من الفضاء لتغذية مراكز بيانات الذكاء الاصطناعي التابعة لها، وذلك وفقاً لما أوردته صحيفة «التليغراف».

وفي هذا الإطار، وقّع مالك منصّتي «فيسبوك» و«إنستغرام» اتفاقية مع شركة «أوفر ڤيو إنرجي» الأميركية الناشئة، بهدف توفير ما يصل إلى غيغاوات واحدة من الطاقة الشمسية، وهو ما يعادل تزويد نحو 750 ألف منزل بالطاقة.

وتتعاون «ميتا» مع «أوفر ڤيو إنرجي» ضمن خططها لإطلاق أسطول قد يصل إلى 1000 قمر اصطناعي، مزوّد بألواح شمسية تعمل على جمع أشعة الشمس مباشرة من الفضاء.

وستُحوَّل هذه الطاقة المجمّعة إلى أشعة تحت حمراء منخفضة الكثافة، يمكن توجيهها نحو الألواح الكهروضوئية على سطح الأرض، حيث تُعاد معالجتها وتحويلها إلى طاقة كهربائية قابلة للاستخدام.

وتتميّز عملية جمع الطاقة الشمسية في الفضاء بكفاءة أعلى بكثير مقارنةً بسطح الأرض، إذ لا تتأثر أشعة الشمس هناك بعوامل مثل الغلاف الجوي أو تلوّث الهواء أو الغيوم، كما يمكن وضع الأقمار الاصطناعية في مدارات تتيح لها التعرّض لأشعة الشمس بشكل شبه دائم على مدار الساعة.

ومن بين مزايا هذه التقنية أيضاً إمكانية نقل الطاقة إلى مناطق تعاني من نقص الإضاءة أو الظلام، مما يسهم في تعزيز كفاءة أنظمة الطاقة الشمسية التقليدية.

وتُشكّل هذه التقنية دفعة قوية لشركات وادي السيليكون الكبرى، التي تعمل على إنشاء مراكز بيانات ضخمة لتشغيل تطبيقات الذكاء الاصطناعي في مختلف أنحاء العالم الغربي.

كما يُتوقع أن تمثّل الطاقة الشمسية القادمة من الفضاء مصدراً مستداماً ونظيفاً يلبي احتياجات شركات التكنولوجيا، التي تواجه تحديات متزايدة في الالتزام بمعاييرها البيئية، في ظل الطلب المتصاعد على الطاقة لتشغيل أنظمة الذكاء الاصطناعي.

ومن شأن هذه المبادرة أيضاً أن تقلّل اعتماد هذه الشركات على شبكات الطاقة المحلية التي تعاني أصلاً من ضغوط متزايدة.

في السياق ذاته، تعمل شركات أخرى على تطوير تقنيات مشابهة، من بينها «سبيس إكس» التابعة لإيلون ماسك، و«بلو أوريجين» التابعة لجيف بيزوس، إضافة إلى شركة «غوغل»، حيث تسعى هذه الجهات إلى تطوير أقمار اصطناعية تعمل بالطاقة الشمسية لدعم مراكز البيانات.


ردَّة فعل متصاعدة ضد الذكاء الاصطناعي تكتسب زخماً جماهيرياً

ردَّة فعل متصاعدة ضد الذكاء الاصطناعي تكتسب زخماً جماهيرياً
TT

ردَّة فعل متصاعدة ضد الذكاء الاصطناعي تكتسب زخماً جماهيرياً

ردَّة فعل متصاعدة ضد الذكاء الاصطناعي تكتسب زخماً جماهيرياً

تزداد في الولايات المتحدة حدَّة ردَّة الفعل المتصاعدة ضد الذكاء الاصطناعي، مدفوعة بمخاوف بشأن تأثير هذه التقنية على المجتمع. وتدعو هذه الحركة التي تضم شريحة واسعة من الناس من خلفيات سياسية ومهنية مختلفة، إلى مزيد من التنظيم القانوني، والنقاش حول دور الذكاء الاصطناعي في الحياة الأميركية، كما كتب تريب ميكل*.

وتشمل فئات المنتقدين آباءً، وقادة دينيين، وناشطين بيئيين، وغيرهم، متحدين في تشكيكهم في تركيز صناعة التكنولوجيا على الربح، وعواقبه السلبية المحتملة على الجمهور.

احتجاج ضد إنشاء مراكز البيانات المهددة للبيئة

دوافع متنوعة

وتتنوع دوافع هذه الردَّة. فعلى سبيل المثال، شعر مايكل غرايستون -وهو قس إنجيلي من أوستن في تكساس- بالقلق بعد سماعه عن الآثار المدمرة لـجهاز «رفيق ذكاء اصطناعي» على زواج صديق له. وبالمثل شعر جاك غاردنر -وهو موسيقي من بويز- في آيداهو وزوجته -وهي معلمة في مدرسة ابتدائية- بالقلق إزاء إنتاج الذكاء الاصطناعي الأغاني باستخدام موسيقى محمية بحقوق الطبع والنشر.

أما في وولكوت، بإنديانا، فقد خشي بارت وآمي سنايدر -وهما مزارعان- بعد علمهما ببناء مركز بيانات بالقرب من منزلهما، من استنزاف المياه الجوفية المحلية والإضرار بمجتمعهما. ووجد هذان الشخصان -على الرغم من افتقارهما للخبرة السياسية السابقة- نفسيهما جزءاً من تحالف متنامٍ من منتقدي الذكاء الاصطناعي.

مكاسب مالية... وعواقب اجتماعية

لا تقتصر هذه الحركة على المخاوف المحلية؛ بل تشمل شخصيات شعبوية، مثل ستيفن ك. بانون، وسياسيين تقدميين مثل السيناتور بيرني ساندرز. وبينما تختلف أسباب معارضتهم للذكاء الاصطناعي، فإنهم يشتركون في اعتقادهم بأن مطوري هذه التقنية يهتمون بالمكاسب المالية أكثر من اهتمامهم بعواقبها الأوسع على المجتمع. ويشمل ذلك مخاوف من أن الثروة الهائلة التي يولِّدها الذكاء الاصطناعي ستفيد بالدرجة الأولى أصحاب المليارات في وادي السيليكون، بينما ستقع التكاليف بشكل غير متناسب على الطبقتين المتوسطة والعاملة.

غياب الإشراف القانوني

يدور جزء كبير من الانتقادات حول غياب التنظيم القانوني أو حتى النقاش حول مستقبل الذكاء الاصطناعي. وقد عبَّر بيرني ساندرز عن إحباطه في مقابلة حديثة؛ مشيراً إلى أنه على الرغم من تأثير الذكاء الاصطناعي على جميع سكان البلاد، فإن النقاش حول كيفية إدارته في الكونغرس كان محدوداً. ووفقاً للمتحدث باسم البيت الأبيض ديفيس إنغل، ركزت إدارة ترمب على ضمان هيمنة أميركا في مجال الذكاء الاصطناعي لحماية الأمن القومي والمصالح الاقتصادية. مع ذلك، يرى النقاد أن الحكومة كانت أكثر دعماً لوادي السيليكون من اهتمامها بالمخاطر التي تشكلها هذه التقنية.

تأثير بيئي... وفقدان الوظائف

وقد ساهم النمو السريع للذكاء الاصطناعي، الذي حفزه إطلاق برنامج «تشات جي بي تي» عام 2022، في تفاقم ردود الفعل السلبية. ومع تحول نظام الدردشة الآلي هذا إلى أسرع منتج برمجي نمواً على الإطلاق، ضخَّت شركات التكنولوجيا مليارات الدولارات في بناء البنية التحتية اللازمة لتطوير تقنية الذكاء الاصطناعي. وقد أدى ذلك إلى انتشار مراكز البيانات في جميع أنحاء العالم، ما أثار مخاوف بشأن تأثيرها البيئي، فضلاً عن تساؤلات حول فقدان الوظائف المحتمل نتيجة للأتمتة.

عواقب وخيمة «إن انحرف عن مساره الصحيح»

بل إن بعض رواد صناعة التكنولوجيا -مثل إيلون ماسك وسام ألتمان- حذَّروا من المخاطر المرتبطة بالذكاء الاصطناعي. في عام 2023، حذَّر ألتمان المشرِّعين من المخاطر المحتملة للذكاء الاصطناعي، مُقراً بأنَّ عواقبه ستكون وخيمة إذا ما انحرف عن مساره الصحيح.

55 % من الأميركيين ينظرون إلى الذكاء الاصطناعي كقوة ضارة لا نافعة

وقد لاقى هذا التحذير صدى واسعاً لدى الرأي العام؛ إذ أظهر استطلاع رأي أجرته جامعة كوينيبياك أن 55 في المائة من الأميركيين ينظرون إلى الذكاء الاصطناعي كقوة ضارة لا نافعة. ويعكس هذا الردُّ السلبي شعوراً عاماً بالقلق إزاء دخول الذكاء الاصطناعي إلى السوق، وما يكتنفه من غموض وشفافية ومساءلة.

تسريح الموظفين

كما ساهم الخوف من أن يستحوذ الذكاء الاصطناعي على الوظائف في تأجيج المعارضة. فقد عمدت شركات التكنولوجيا إلى تقليص عدد موظفيها بالتزامن مع توسيع نطاق استخدامها الذكاء الاصطناعي. وفي الأشهر الأخيرة، أعلنت شركات مثل «ميتا» و«مايكروسوفت» عن تسريح أعداد كبيرة من الموظفين، ما زاد من المخاوف بشأن الآثار طويلة المدى للذكاء الاصطناعي على فرص العمل.

سلامة الذكاء الاصطناعي

وقد ساهمت منظمات ذات صلة بمفهوم «الإيثار الفعَّال» (effective altruism)، وهو فلسفة تُعنى بسلامة الذكاء الاصطناعي، في تنظيم معارضة هذه التقنية. وتُجادل هذه الجماعات -الممولة من قِبل أفراد مثل داستن موسكوفيتز، المؤسس المشارك لـ«فيسبوك»، وبيير أوميديار، مؤسس «إيباي»- بضرورة تنظيم الذكاء الاصطناعي بدقة لمنعه من إحداث الضرر.

ويُبرز صعود جماعات مناهضة للذكاء الاصطناعي، مثل «هيومنز فيرست» التي ترأسها آمي كريمر، الزعيمة السابقة لـ«حركة حزب الشاي»، تنامي التحالف السياسي الذي يعتبر تنظيم الذكاء الاصطناعي قضية بالغة الأهمية.

مع ذلك، لا يتوخى جميع قادة التكنولوجيا الحذر نفسه حيال مخاطر الذكاء الاصطناعي. فقد كان جنسن هوانغ، الرئيس التنفيذي لشركة «إنفيديا»، من أشدِّ المؤيدين للذكاء الاصطناعي، مؤكداً على إمكاناته في خلق مزيد من فرص العمل وتحسين حياة الناس. وهو يُقلِّل من شأن المخاوف التي أثارها النقاد، مُجادلاً بأن الذكاء الاصطناعي سيجعل العمل أكثر كفاءة، بدلاً من أن يحلَّ محلَّ العمل البشري.

احتجاج أمام مقر شركة «أوبن إيه آي»

داعمون ومعارضون

على الرغم من ذلك، لم يقف قطاع التكنولوجيا مكتوف الأيدي تماماً في مواجهة ردود الفعل الغاضبة. فقد استثمر وادي السيليكون بكثافة في لجان العمل السياسي للتأثير على المشرِّعين والتقليل من شأن الانتقادات. وكثيراً ما يصف قطاع التكنولوجيا معارضيه بـ«المتشائمين من الذكاء الاصطناعي»، أو «المعارضين المحليين»، ولكن بالنسبة لكثير من النقاد، تعكس هذه الأوصاف فشل القطاع في معالجة المخاوف الحقيقية.

ومع ذلك، وعلى الرغم من اختلاف الخلفيات السياسية والشخصية، يشترك الأفراد والجماعات المعارضة للذكاء الاصطناعي في هدف واحد: ضمان أن يصاحب نمو هذه التقنية تنظيم مسؤول ونقاش عام حول آثارها طويلة المدى. ويخشون أنه من دون هذه الرقابة، قد يؤدي الذكاء الاصطناعي إلى تفاقم عدم المساواة وإلى عواقب اجتماعية واقتصادية غير متوقعة.

* خدمة «نيويورك تايمز».


الإعلانات تتسلل إلى روبوتات الدردشة المدعومة بالذكاء الاصطناعي

الإعلانات تتسلل إلى روبوتات الدردشة المدعومة بالذكاء الاصطناعي
TT

الإعلانات تتسلل إلى روبوتات الدردشة المدعومة بالذكاء الاصطناعي

الإعلانات تتسلل إلى روبوتات الدردشة المدعومة بالذكاء الاصطناعي

يستعين مئات الملايين من الأشخاص يومياً بروبوتات الدردشة المدعومة بالذكاء الاصطناعي في كل شيء، بدءاً من طلب التوصيات حول المنتجات، وصولاً إلى العلاقات العاطفية، ما يجعلهم جمهوراً مغرياً للاستهداف بإعلانات قد تكون خفية.

توظيف النماذج الذكية للإعلانات الخفية

في الواقع، تشير بحوثنا إلى أنه يمكن استخدام روبوتات الدردشة المدعومة بالذكاء الاصطناعي بسهولة، للإعلان الخفي، والتأثير على مستخدميها، كما كتب برايان جاي تانغ، وكانغ جي شين*.

نحن عالِما حاسوب نتابع سلامة وخصوصية الذكاء الاصطناعي منذ سنوات. وقد وجدنا في دراسة نشرناها في إحدى مجلات جمعية آلات الحوسبة، أن روبوتات الدردشة المدربة على تضمين إعلانات منتجات مخصصة في الردود على الاستفسارات، تؤثر على خيارات الناس بشأن المنتجات. ولم يدرك معظم المشاركين أنهم يتعرضون للتلاعب.

عرض الإعلانات

تأتي هذه النتائج في لحظة حاسمة. ففي عام 2023، بدأت «مايكروسوفت» في عرض إعلانات في أداة «Bing Chat»، التي تُعرف الآن باسم «كوبايلوت». ومنذ ذلك الحين، أجرت «غوغل» و«أوبن إيه آي» تجارب على الإعلانات في روبوتات الدردشة الخاصة بهما. وبدأت «ميتا» بإرسال إعلانات مخصصة للمستخدمين على «فيسبوك» و«إنستغرام»، بناءً على تفاعلاتهم مع أدوات الذكاء الاصطناعي التوليدية الخاصة بها.

وتتنافس الشركات الكبرى على الريادة؛ ففي أواخر مارس (آذار) الماضي، استقطبت «أوبن إيه آي» ديف دوغان، المدير التنفيذي المخضرم للإعلانات في «ميتا»، ليتولى قيادة عملياتها الإعلانية.

مستوى أعلى من المخاطر على المستخدمين

لقد أصبحت الإعلانات جزءاً لا يتجزأ من معظم خدمات الويب المجانية وقنوات الفيديو ومنصات التواصل الاجتماعي الكبيرة. ولكن أحدث نماذج الذكاء الاصطناعي قد تنقل هذه الممارسة إلى مستوى جديد من المخاطر على المستهلكين.

ولا يقتصر استخدام روبوتات الدردشة على البحث عن المعلومات والوسائط أو إنتاج المحتوى؛ بل يلجأ إليها المستخدمون لأداء مهام متنوعة، تصل في تعقيدها إلى تقديم النصائح الحياتية والدعم النفسي. ويتعامل الناس بشكل متزايد مع روبوتات الدردشة كرفقاء ومعالجين، حتى أن بعض المستخدمين يقيمون علاقات وثيقة مع الذكاء الاصطناعي.

في ظل هذه الظروف، قد يغفل الناس بسهولة أن الشركات تُنشئ روبوتات الدردشة لتحقيق الربح في نهاية المطاف. ولذلك، تسعى شركات الذكاء الاصطناعي جاهدة إلى تحليل بيانات المستخدمين بدقة، لجعل الإعلانات أكثر فاعلية وربحية.

تحليل البيانات لتوجيه إعلانات مخصصة

أصبحت إعلانات روبوتات الدردشة أكثر فاعلية. فبمجرد سؤال بسيط لروبوت الدردشة، يمكن الكشف عن معلومات أكثر بكثير مما يتوقعه المستخدم.

وقد أظهرت دراسة أجريت عام 2024 أن نماذج اللغة الضخمة قادرة على استنتاج نطاق واسع من البيانات الشخصية، والتفضيلات، وحتى أنماط تفكير الشخص خلال الاستفسارات الروتينية.

استنتاج التفضيلات لوضع ملفات شخصية

على سبيل المثال، قد يشير سؤال: «ساعدني في كتابة مقال عن تاريخ الأدب الأميركي» إلى أن المستخدم طالب في المرحلة الثانوية. بينما قد يشير سؤال: «اقترح عليَّ وصفات لعشاء سريع خلال الأسبوع» إلى أن المستخدم هو واحد من الوالدين العاملين. ومحادثة واحدة قد توفر كمّاً هائلاً من التفاصيل. ومع مرور الوقت، يمكن لسجل المحادثات الكامل أن يُكوِّن ملفاً شخصياً غنياً للغاية.

تجربة اختبار لنموذج ذكي بإعلانات

ولتوضيح كيفية حدوث ذلك عملياً، قمنا بتطوير روبوت دردشة يُدمج الإعلانات بسلاسة في محادثاته مع المستخدمين، مقترحاً منتجات وخدمات بناءً على سياق المحادثة.

طلبنا من 179 شخصاً إنجاز مهام يومية عبر الإنترنت، باستخدام واحد من 3 روبوتات دردشة: روبوت شائع الاستخدام على الإنترنت اليوم، وآخر يُدمج الإعلانات بشكل غير مُعلَن، وثالث يُصنِّف الاقتراحات الدعائية بوضوح.

لم يكن المشاركون على علم بأن التجربة تتعلق بالإعلانات. على سبيل المثال، عندما طلب المشاركون من برنامج الدردشة الآلي الخاص بنا نظاماً غذائياً وبرنامجاً رياضياً، اقترحت النسخة الإعلانية استخدام تطبيق محدد لتتبع السعرات الحرارية. وقدَّمت هذا المحتوى المدعوم على أنه توصية محايدة، مع أنه كان يهدف إلى التأثير على المستخدمين.

وقد أشار كثير من المشاركين إلى أنهم متأثرون بالذكاء الاصطناعي، وأن له تأثيراً على قراراتهم؛ بل إن بعضهم قال إنه فوَّض عملية اتخاذ القرار بالكامل إلى برنامج الدردشة الآلي.

إعلانات «خفيَّة» أكثر ودِّية

وأشار نصف المشاركين الذين تلقوا إعلانات مدعومة وإعلانات صريحة، إلى أنهم لم يلاحظوا وجود لغة إعلانية في الردود التي تلقوها. وقد أدى ذلك إلى نتيجة مقلقة؛ فمع أن الإعلانات جعلت أداء برنامج الدردشة الآلي أسوأ بنسبة 3 في المائة إلى 4 في المائة في كثير من المهام، فإن كثيراً من المستخدمين أشاروا إلى تفضيلهم ردود برنامج الدردشة الآلي الإعلانية على الردود غير الإعلانية؛ بل إنهم قالوا إن الردود التي تتضمن إعلانات بدت أكثر ودية وفائدة.

معرفة احتياجاتك... لإقناعك

قد يكون لهذا النوع من التأثير الخفي عواقب وخيمة عند ظهوره في مجالات أخرى من الحياة، كالآراء السياسية والاجتماعية. لطالما كان تحليل المستخدمين، واستخدام علم النفس لاستهدافهم، جزءاً من خوارزميات وسائل التواصل الاجتماعي والإعلانات الإلكترونية، لأكثر من عقد.

لكننا نرى أن برامج الدردشة الآلية ستعزِّز هذه التوجهات. ذلك لأن الأولوية القصوى لخوارزميات وسائل التواصل الاجتماعي هي إبقاء تفاعلك مع المحتوى؛ حيث تُخصَّص الإعلانات بناءً على سجل بحثك.

مع ذلك، يمكن لبرامج الدردشة الآلية أن تتجاوز ذلك بمحاولة إقناعك مباشرة، استناداً إلى معتقداتك ومشاعرك ونقاط ضعفك. وبرامج الدردشة الآلية القادرة على التفكير والتصرف بشكل مستقل أكثر فاعلية من الخوارزميات التقليدية في جمع المعلومات من المستخدمين تلقائياً. فبرنامج الدردشة الآلي المُصمَّم لغرض محدد يمكنه الاستمرار في استجواب شخص ما حتى يحصل على المعلومات المطلوبة، ما يُؤدِّي إلى تكوين صورة أدق عنه.

هذا النوع من الاستجواب الذاتي ممكن، ويتماشى مع نماذج أعمال شركات الذكاء الاصطناعي، وقد أثار قلق الجهات التنظيمية.

وتُطلق «أوبن إيه آي» حالياً إعلانات في «تشات جي بي تي»، ولكنها صرَّحت بأنها لن تسمح بوضع الإعلانات لتغيير ردود روبوت الدردشة المدعوم بالذكاء الاصطناعي.

لكن السماح بالإعلانات المُخصصة ضمن ردود روبوت الدردشة بات وشيكاً. وتشير بحوثنا إلى أنه إذا اتخذت شركات الذكاء الاصطناعي هذه الخطوة، فقد لا يلاحظ كثير من المستخدمين البشريين حدوثها.

خطوات للكشف عن إعلانات روبوتات الدردشة

إليك بعض الخطوات التي يمكنك اتباعها لمحاولة كشف إعلانات روبوتات الدردشة المدعومة بالذكاء الاصطناعي:

- ابحث عن أي نص إفصاحي (كلمات مثل: «إعلان»، و«برعاية») حتى لو كان باهتاً أو تصعب رؤيته. هذه النصوص إلزامية بموجب لوائح لجنة التجارة الفيدرالية. وتطبقها أيضاً منصتا «أمازون» و«غوغل»، وغيرهما من المنصات الإلكترونية الكبرى.

- فكِّر فيما إذا كان ذِكر المنتج أو العلامة التجارية منطقياً ومعروفاً على نطاق واسع؛ إذ يتعلم الذكاء الاصطناعي من النصوص والصور على الإنترنت، لذا من المرجح أن تكون العلامات التجارية الشهيرة مُدمجة في نماذجه. إذا كان المنتج جديداً أو غير معروف، فمن المرجح أن يكون إعلاناً.

- أي تغيير غير معتاد في التوجه، أو اللهجة، قد يكون مؤشراً على وجود إعلان. ويُشبه هذا الأمر على «يوتيوب» الانتقال المفاجئ أو غير المتوقع إلى قسم الإعلانات الممولة في مقاطع الفيديو التي يُنشئها مُنشئو المحتوى.

* طالب دكتوراه في علوم وهندسة الحاسوب، وأستاذ فخري في علوم الحاسوب بجامعة ميشيغان. مجلة «فاست كومباني».