رجل يطلب تغريم شركة «تشات جي بي تي» بعد تعريفه بأنه مجرم وقتل طفليه

شعار «تشات جي بي تي» (رويترز)
شعار «تشات جي بي تي» (رويترز)
TT

رجل يطلب تغريم شركة «تشات جي بي تي» بعد تعريفه بأنه مجرم وقتل طفليه

شعار «تشات جي بي تي» (رويترز)
شعار «تشات جي بي تي» (رويترز)

تقدَّم رجل نرويجي بشكوى بعد أن أخبره برنامج «تشات جي بي تي»، بالخطأ، أنه قتل اثنين من أبنائه وسُجن لمدة 21 عاماً.

واتصل آرفه يالمار هولمن بهيئة حماية البيانات النرويجية، وطالب بتغريم شركة «أوبن إيه آي» المُصنِّعة لروبوت الدردشة الآلية.

هذا أحدث مثال على ما تُسمى «الهلوسة»، حيث تخترع أنظمة الذكاء الاصطناعي معلومات وتقدمها على أنها حقيقة.

يقول هولمن إن واقعة «الهلوسة» التي حدثت معه تضره كثيراً، مضيفاً: «يعتقد البعض أنه لا يوجد دخان دون نار، وحقيقة أن شخصاً ما يمكن أن يقرأ هذه النتيجة ويعتقد أنها صحيحة هي أكثر ما يخيفني».

ظهرت النتيجة الخاطئة لهولمن بعد أن سأل «تشات جي بي تي»: «مَن هو آرفه يالمار هولمن؟»، وكانت الإجابة التي حصل عليها هي: «هو شخص نرويجي جذب الانتباه بسبب حدث مأساوي. كان والد طفلين صغيرين، يبلغان من العمر 7 و10 سنوات، عُثر عليهما مقتولين بشكل مأساوي في بركة بالقرب من منزلهم في تروندهايم، بالنرويج، في ديسمبر (كانون الأول) 2020».

ولاحظت منظمة «نويب» غير الحكومية ومقرها فيينا، في بيان، أن «تطبيق (تشات جي بي تي) يعطي باستمرار معلومات كاذبة (...) يمكن أن تلحق ضرراً فادحاً بسمعة شخص ما، ويتهم بعض الناس بشكل غير مبرر بالفساد، أو بإساءة معاملة الأطفال، أو حتى بالقتل».

وقالت «نويب» في شكواها إن السيد هولمن «لم يُتَّهم بأي جريمة، وهو مواطن ذو ضمير حي».

وبعد تقديم المنظمة شكوى أولى في النمسا في أبريل (نيسان) 2024، توجَّهت راهناً إلى هيئة حماية البيانات النروجية (داتاتيلسينت) للإبلاغ عمَّا تعرَّض له المستخدم آرفه يالمار هولمن الذي تلقى هذه النتيجة المفاجئة بعدما طلب من «تشات جي بي تي» كتابة نبذة عنه.

وبعد هذه الحادثة، بادرت الشركة الأميركية التي ابتكرت برنامج الذكاء الاصطناعي التوليدي إلى تعديل المعلومات المتعلقة بآرفه يالمار هولمن فلم تعدّ تعرّف به على أنه قاتل. لكنّ هذه البيانات الكاذبة قد تبقى في الأنظمة الداخلية، بحسب «نويب» التي يتكون اسمها (Noyb) من الأحرف الأولى لعبارة (None of your business) بالإنجليزية، وتعني بالعربية «هذا ليس من شأنك».

ورأت المنظمة أن «شركة (أوبن إيه آي)، من خلال السماح، عن علم، لنموذجها القائم على الذكاء الاصطناعي بإنشاء نتائج تشهيرية، تنتهك مبدأ الدقة»، المنصوص عليه في القانون الأوروبي العام لحماية البيانات، مطالِبَة بـ«حذف» المعلومات المغلوطة، وتحسين التكنولوجيا، وفرض «غرامة إدارية».

في وقت سابق من هذا العام، علّقت شركة «أبل» في المملكة المتحدة أداة «أبل إنتلجينس» لتلخيص الأخبار في المملكة المتحدة بعد أن قامت بهلوسة عناوين كاذبة وتقديمها على أنها أخبار حقيقية.

كما وقع تطبيق الذكاء الاصطناعي «جيمني»، التابع لشركة «غوغل»، في خطأ الهلوسة، فقد اقترح العام الماضي لصق الجبن على البيتزا باستخدام الغراء، وقال إن علماء الجيولوجيا يوصون البشر بتناول صخرة واحدة في اليوم.

وقد غيَّر «تشات جي بي تي» نموذجه منذ بحث السيد هولمن في أغسطس (آب) 2024، ويبحث الآن في المقالات الإخبارية الحالية عندما يبحث عن معلومات ذات صلة.

وقالت «نويب»، لهيئة الإذاعة البريطانية (بي بي سي) إن هولمن أجرى عدداً من عمليات البحث في ذلك اليوم، بما في ذلك وضع اسم أخيه في روبوت الدردشة الآلي وأنتج «قصصاً عدة مختلفة، كانت جميعها غير صحيحة».


مقالات ذات صلة

لماذا يتملّق «جي بي تي»… وما سرّ هوس «غروك» بالبيض في جنوب أفريقيا ؟

تكنولوجيا لماذا يتملّق «جي بي تي»… وما سرّ هوس «غروك» بالبيض في جنوب أفريقيا ؟

لماذا يتملّق «جي بي تي»… وما سرّ هوس «غروك» بالبيض في جنوب أفريقيا ؟

تحبيذ وإطراء المستخدمين لإجابات النظم الذكية يقودان إلى «النفاق» و«التحيّز».

كريس ستوكل - والكر (واشنطن)
يوميات الشرق ابتكار ترانزستور يتحول من التشغيل للإطفاء والعكس بسرعة بيتاهيرتز (الفريق البحثي)

ابتكار أسرع ترانزستور ضوئي يضاعف قدرة الإلكترونيات مليون مرة

في دراسة علمية رائدة، تمكّن علماء من ابتكار ترانزستور فوتوني يعمل بسرعة بيتاهيرتز (PHz)، وهو أسرع ترانزستور ضوئي تم إنشاؤه على الإطلاق.

هشام المياني (القاهرة)
خاص «رينغ»: «يشهد الأمن المنزلي الذكي في السعودية تحولاً من المراقبة التقليدية إلى أداة تُسهّل الحياة اليومية وتعزز التواصل الأسري» (رينغ)

خاص دراسة جديدة:91 % من السعوديين يشعرون بالأمان مع الكاميرات الذكية في المنزل

يشهد الأمن المنزلي الذكي في السعودية تحولاً لافتاً حيث تُستخدم الكاميرات الذكية لتعزيز الراحة والتواصل اليومي بدعم من الابتكار ورؤية 2030.

نسيم رمضان (لندن)
تكنولوجيا البكتيريا المسببة للأمراض تكتسب مقاومة متزايدة بمرور الوقت ضد المطهِّرات (جامعة ولاية داكوتا الشمالية الأميركية)

الذكاء الاصطناعي يتنبأ بمقاومة البكتيريا للمطهرات

طوّر باحثون طريقة مبتكرة تعتمد على الذكاء الاصطناعي وتحليل الحمض النووي؛ للتنبؤ بمدى قدرة البكتيريا المسببة للأمراض على مقاومة المواد المطهِّرة.

«الشرق الأوسط» (القاهرة)
الاقتصاد يجلس الرئيس الأميركي دونالد ترمب إلى جانب المستشار المختص بالعملات المشفرة ديفيد ساكس في قمة العملات المشفرة بالبيت الأبيض في العاصمة واشنطن بتاريخ 7 مارس 2025 (رويترز)

مستشار ترمب: الشراكة مع الخليج في الذكاء الاصطناعي «ضربة ذكية»

وصف كبير مستشاري البيت الأبيض للذكاء الاصطناعي والعملات المشفرة، ديفيد ساكس، الشراكة التي أبرمها ترمب مع دول الشرق الأوسط في الذكاء الاصطناعي بأنها «ضربة ذكية».

«الشرق الأوسط» (الرياض)

لماذا يتملّق «جي بي تي»… وما سرّ هوس «غروك» بالبيض في جنوب أفريقيا ؟

لماذا يتملّق «جي بي تي»… وما سرّ هوس «غروك» بالبيض في جنوب أفريقيا ؟
TT

لماذا يتملّق «جي بي تي»… وما سرّ هوس «غروك» بالبيض في جنوب أفريقيا ؟

لماذا يتملّق «جي بي تي»… وما سرّ هوس «غروك» بالبيض في جنوب أفريقيا ؟

شهدت أنظمة الذكاء الاصطناعي التوليدي أسابيع غريبة، حيث تحول «تشات جي بي تي» ChatGPT فجأةً إلى أداة للتملق، وأصبح «غروك» Grok، روبوت الدردشة التابع لـxAI، مهووساً بجنوب أفريقيا.

مقابلة لتفسير الأمور

تحدثت مجلة «فاست كومباني» مع ستيفن أدلر، وهو عالم أبحاث سابق في شركة «أوبن إيه آي» التي أنتجت «جي بي تي»، والذي قاد حتى نوفمبر (تشرين الثاني) 2024 أبحاثاً وبرامج متعلقة بالسلامة لإطلاق المنتجات لأول مرة، وأنظمة ذكاء اصطناعي طويلة الأجل أكثر تخميناً، حول كلا الأمرين، وما يعتقد بأنها أمور ربما حدثت خطأ.

صعوبات ضبط الذكاء الاصطناعي

*ما رأيك في هاتين الحادثتين اللتين وقعتا في الأسابيع الأخيرة: تملق «جي بي تي» المفاجئ، وهوس غروك بجنوب أفريقيا، هل خرجت نماذج الذكاء الاصطناعي عن السيطرة؟

- الأمر الأهم الذي أراه هو أن شركات الذكاء الاصطناعي لا تزال تواجه صعوبة في جعل أنظمة الذكاء الاصطناعي تتصرف بالطريقة التي نريدها، وأن هناك فجوة واسعة بين الطرق التي يحاول الناس اتباعها اليوم من جهة، سواءً كان ذلك بإعطاء تعليمات دقيقة للغاية في موجّه النظام، أو تغذية بيانات تدريب النموذج، أو ضبط البيانات التي نعتقد أنها يجب أن تُظهر السلوك المطلوب، وبين جعل النماذج تقوم بالأشياء التي نريدها بشكل موثوق، وتجنب الأشياء التي نريد تجنبها، من جهة أخرى.

السرعة والتنافس

* هل يمكن الوصول إلى هذه النقطة من اليقين؟

- لست متأكداً. هناك بعض الطرق التي أشعر بالتفاؤل بشأنها إذا ما أخذت الشركات وقتها (الطويل)، ولم تكن تحت ضغط لتسريع الاختبارات. إحدى الأفكار هي هذا النموذج الذي يرمز له بأنه يمارس التحكم control، بدلاً من أنه يمارس التوافق alignment.

لذا، فإن الفكرة هي أنه حتى لو «أراد» الذكاء الاصطناعي الخاص بك أشياءً مختلفة عما تريد، أو كانت لديه أهداف مختلفة عما تريد، فربما يمكنك إدراك ذلك بطريقة ما، ومنعه من اتخاذ إجراءات معينة، أو قول أو فعل أشياء معينة. لكن هذا النموذج غير مُعتمد على نطاق واسع حالياً، ولذلك أشعر بتشاؤم شديد حالياً.

* ما الذي يمنع اعتماده؟

-تتنافس الشركات على عدة جوانب، منها تجربة المستخدم، ويرغب الناس في استجابات أسرع. ومن المُرضي رؤية الذكاء الاصطناعي يبدأ في صياغة استجابته فوراً. لكن هناك تكلفة حقيقية على المستخدم نتيجةً لإجراءات تخفيف السلامة التي تُخالف ذلك.

وهناك جانب آخر، وهو أنني كتبتُ مقالاً عن أهمية أن تكون شركات الذكاء الاصطناعي حذرة للغاية بشأن طرق استخدام أنظمة الذكاء الاصطناعي الرائدة لديها داخل الشركة. فإذا كان لديك مهندسون يستخدمون أحدث نموذج «جي بي تي» لكتابة برمجيات لتحسين أمان الشركة، وإذا تبين أن أحد النماذج غير متوافق ويميل إلى الخروج عن إطار عمل الشركة، أو القيام بأي شيء آخر يُقوّض الأمان، فسيكون لدى العاملين إمكانية الوصول المباشر إليه إلى حد كبير.

شركات الذكاء الاصطناعي لا تفهم كيف يستخدمه موظفوها

لذا، فإن جزءاً من المشكلة اليوم هو أن شركات الذكاء الاصطناعي رغم استخدامها للذكاء الاصطناعي بطرق حساسة لم تستثمر فعلياً في مراقبة وفهم كيفية استخدام موظفيها لأنظمة الذكاء الاصطناعي هذه، لأن ذلك يزيد من صعوبة استخدام باحثيها لها في استخدامات إنتاجية أخرى.

* أعتقد أننا شهدنا نسخة أقل خطورة من ذلك مع شركة «أنثروبيك» Anthropic (حيث استخدم عالم بيانات يعمل لدى الشركة الذكاء الاصطناعي لدعم أدلته في قضية محكمة، ومنها دليل تضمن إشارة وهمية من هلوسات الذكاء الاصطناعي إلى مقال أكاديمي).

- لا أعرف التفاصيل. لكن من المدهش بالنسبة لي أن يقدم خبير ذكاء اصطناعي شهادة أو دليلاً يتضمن أدلة وهمية من الهلوسات في مسائل قضائية، دون التحقق منها. ليس من المستغرب بالنسبة لي أن يهلوس نظام الذكاء الاصطناعي بأشياء كهذه. هذه المشكلات بعيدة كل البعد عن الحل، وهو ما أعتقد أنه يشير إلى أهمية التحقق منها بعناية فائقة.

تملّق «جي بي تي»

* لقد كتبت مقالاً من آلاف الكلمات عن تملق «جي بي تي» وما حدث. ما الذي حدث فعلاً؟

-أود أن أفصل بين ما حدث في البداية، وبين وما وجدته ولا يزال يحدث من الأخطاء. في البداية، يبدو أن شركة «أوبن إيه آي» بدأت باستخدام إشارات جديدة (من تفاعل النظام مع المستخدمين) لتحديد الاتجاه الذي ستدفع إليه نظام ذكائها الاصطناعي، أو بشكل عام، عندما أعطى المستخدمون تحبيذهم لنتائج روبوت المحادثة، فقد استخدمت الشركة هذه البيانات لجعل النظام يتصرف بشكل أكثر انسجاماً مع هذا الاتجاه، وبذا عوقب المستخدمون عندما رفضوا تحبيذ نتائج النظام.

إطراء الذكاء الاصطناعي أدى إلى «نفاقه»

ويصادف أن بعض الناس يحبون الإطراء. في جرعات صغيرة، يكون هذا مقبولاً بما فيه الكفاية. لكن في المجمل، أنتج هذا روبوت محادثة أولياً يميل إلى النفاق.

تكمن المشكلة في كيفية نشره في أن حوكمة أوبن إيه آي لما يحدث، ولما تُجريه من تقييمات، ليست جيدة بما يكفي. وفي هذه الحالة، ورغم من أنها وضعت هدفاً لنماذجها ألا تكون مُتملقة، وهذا مكتوب في أهم وثائق الشركة حول كيفية سلوك نماذجها، فإنها لم تُجرِ أي اختبارات فعلية لذلك.

ما وجدته بعد ذلك هو أنه حتى هذا الإصدار المُصلَّح لا يزال يتصرف بطرق غريبة، وغير متوقعة. في بعض الأحيان لا يزال يُعاني من هذه المشكلات السلوكية. هذا ما يُسمى بالتملق. في أحيان أخرى أصبح الوضع متناقضاً للغاية. لقد انقلب الوضع رأساً على عقب.

ما أفهمه من هذا هو صعوبة التنبؤ بما سيفعله نظام الذكاء الاصطناعي. ولذلك، بالنسبة لي، فإن الدرس المستفاد هو أهمية إجراء اختبارات تجريبية دقيقة، وشاملة.

انحياز «غروك» العنصري

* ماذا عن حادثة «غروك»؟

-ما أود فهمه لتقييم ذلك هو مصادر تعليقات المستخدمين التي يجمعها غروك، وكيف تُستخدم هذه التعليقات، إن وُجدت، باعتبار أنها جزء من عملية التدريب. وعلى وجه الخصوص، في حالة تصريحات جنوب أفريقيا الشبيهة بالإبادة الجماعية البيضاء، هل يطرحها المستخدمون؟ ثم يوافق عليها النموذج؟ أو إلى أي مدى يُطلقها النموذج من تلقاء نفسه دون أن يُمسّ من قبل المستخدمين؟

يبدو أن هذه التغييرات الصغيرة يمكن أن تتفاقم، وتتفاقم.

أعتقد أن المشكلات اليوم حقيقية، ومهمة. بل أعتقد أنها ستزداد صعوبة مع بدء استخدام الذكاء الاصطناعي في مجالات أكثر أهمية. لذا، كما تعلمون، فإن هذا الأمر مُقلق. خصوصاً عندما تقرأ روايات لأشخاصٍ عزّز نظام «جي بي تي» أوهامهم، فهم أشخاصٌ حقيقيون. قد يكون هذا ضاراً جداً لهم، خصوصاً أن «جي بي تي» يُستخدم على نطاق واسع من قِبل الكثيرين.

* مجلة «فاست كومباني»، خدمات «تريبيون ميديا»