لماذا يتملّق «جي بي تي»… وما سرّ هوس «غروك» بالبيض في جنوب أفريقيا ؟

مقابلة مع ستيفن أدلر الباحث في سلامة وأمن الذكاء الاصطناعي

لماذا يتملّق «جي بي تي»… وما سرّ هوس «غروك» بالبيض في جنوب أفريقيا ؟
TT

لماذا يتملّق «جي بي تي»… وما سرّ هوس «غروك» بالبيض في جنوب أفريقيا ؟

لماذا يتملّق «جي بي تي»… وما سرّ هوس «غروك» بالبيض في جنوب أفريقيا ؟

شهدت أنظمة الذكاء الاصطناعي التوليدي أسابيع غريبة، حيث تحول «تشات جي بي تي» ChatGPT فجأةً إلى أداة للتملق، وأصبح «غروك» Grok، روبوت الدردشة التابع لـxAI، مهووساً بجنوب أفريقيا.

مقابلة لتفسير الأمور

تحدثت مجلة «فاست كومباني» مع ستيفن أدلر، وهو عالم أبحاث سابق في شركة «أوبن إيه آي» التي أنتجت «جي بي تي»، والذي قاد حتى نوفمبر (تشرين الثاني) 2024 أبحاثاً وبرامج متعلقة بالسلامة لإطلاق المنتجات لأول مرة، وأنظمة ذكاء اصطناعي طويلة الأجل أكثر تخميناً، حول كلا الأمرين، وما يعتقد بأنها أمور ربما حدثت خطأ.

صعوبات ضبط الذكاء الاصطناعي

*ما رأيك في هاتين الحادثتين اللتين وقعتا في الأسابيع الأخيرة: تملق «جي بي تي» المفاجئ، وهوس غروك بجنوب أفريقيا، هل خرجت نماذج الذكاء الاصطناعي عن السيطرة؟

- الأمر الأهم الذي أراه هو أن شركات الذكاء الاصطناعي لا تزال تواجه صعوبة في جعل أنظمة الذكاء الاصطناعي تتصرف بالطريقة التي نريدها، وأن هناك فجوة واسعة بين الطرق التي يحاول الناس اتباعها اليوم من جهة، سواءً كان ذلك بإعطاء تعليمات دقيقة للغاية في موجّه النظام، أو تغذية بيانات تدريب النموذج، أو ضبط البيانات التي نعتقد أنها يجب أن تُظهر السلوك المطلوب، وبين جعل النماذج تقوم بالأشياء التي نريدها بشكل موثوق، وتجنب الأشياء التي نريد تجنبها، من جهة أخرى.

السرعة والتنافس

* هل يمكن الوصول إلى هذه النقطة من اليقين؟

- لست متأكداً. هناك بعض الطرق التي أشعر بالتفاؤل بشأنها إذا ما أخذت الشركات وقتها (الطويل)، ولم تكن تحت ضغط لتسريع الاختبارات. إحدى الأفكار هي هذا النموذج الذي يرمز له بأنه يمارس التحكم control، بدلاً من أنه يمارس التوافق alignment.

لذا، فإن الفكرة هي أنه حتى لو «أراد» الذكاء الاصطناعي الخاص بك أشياءً مختلفة عما تريد، أو كانت لديه أهداف مختلفة عما تريد، فربما يمكنك إدراك ذلك بطريقة ما، ومنعه من اتخاذ إجراءات معينة، أو قول أو فعل أشياء معينة. لكن هذا النموذج غير مُعتمد على نطاق واسع حالياً، ولذلك أشعر بتشاؤم شديد حالياً.

* ما الذي يمنع اعتماده؟

-تتنافس الشركات على عدة جوانب، منها تجربة المستخدم، ويرغب الناس في استجابات أسرع. ومن المُرضي رؤية الذكاء الاصطناعي يبدأ في صياغة استجابته فوراً. لكن هناك تكلفة حقيقية على المستخدم نتيجةً لإجراءات تخفيف السلامة التي تُخالف ذلك.

وهناك جانب آخر، وهو أنني كتبتُ مقالاً عن أهمية أن تكون شركات الذكاء الاصطناعي حذرة للغاية بشأن طرق استخدام أنظمة الذكاء الاصطناعي الرائدة لديها داخل الشركة. فإذا كان لديك مهندسون يستخدمون أحدث نموذج «جي بي تي» لكتابة برمجيات لتحسين أمان الشركة، وإذا تبين أن أحد النماذج غير متوافق ويميل إلى الخروج عن إطار عمل الشركة، أو القيام بأي شيء آخر يُقوّض الأمان، فسيكون لدى العاملين إمكانية الوصول المباشر إليه إلى حد كبير.

شركات الذكاء الاصطناعي لا تفهم كيف يستخدمه موظفوها

لذا، فإن جزءاً من المشكلة اليوم هو أن شركات الذكاء الاصطناعي رغم استخدامها للذكاء الاصطناعي بطرق حساسة لم تستثمر فعلياً في مراقبة وفهم كيفية استخدام موظفيها لأنظمة الذكاء الاصطناعي هذه، لأن ذلك يزيد من صعوبة استخدام باحثيها لها في استخدامات إنتاجية أخرى.

* أعتقد أننا شهدنا نسخة أقل خطورة من ذلك مع شركة «أنثروبيك» Anthropic (حيث استخدم عالم بيانات يعمل لدى الشركة الذكاء الاصطناعي لدعم أدلته في قضية محكمة، ومنها دليل تضمن إشارة وهمية من هلوسات الذكاء الاصطناعي إلى مقال أكاديمي).

- لا أعرف التفاصيل. لكن من المدهش بالنسبة لي أن يقدم خبير ذكاء اصطناعي شهادة أو دليلاً يتضمن أدلة وهمية من الهلوسات في مسائل قضائية، دون التحقق منها. ليس من المستغرب بالنسبة لي أن يهلوس نظام الذكاء الاصطناعي بأشياء كهذه. هذه المشكلات بعيدة كل البعد عن الحل، وهو ما أعتقد أنه يشير إلى أهمية التحقق منها بعناية فائقة.

تملّق «جي بي تي»

* لقد كتبت مقالاً من آلاف الكلمات عن تملق «جي بي تي» وما حدث. ما الذي حدث فعلاً؟

-أود أن أفصل بين ما حدث في البداية، وبين وما وجدته ولا يزال يحدث من الأخطاء. في البداية، يبدو أن شركة «أوبن إيه آي» بدأت باستخدام إشارات جديدة (من تفاعل النظام مع المستخدمين) لتحديد الاتجاه الذي ستدفع إليه نظام ذكائها الاصطناعي، أو بشكل عام، عندما أعطى المستخدمون تحبيذهم لنتائج روبوت المحادثة، فقد استخدمت الشركة هذه البيانات لجعل النظام يتصرف بشكل أكثر انسجاماً مع هذا الاتجاه، وبذا عوقب المستخدمون عندما رفضوا تحبيذ نتائج النظام.

إطراء الذكاء الاصطناعي أدى إلى «نفاقه»

ويصادف أن بعض الناس يحبون الإطراء. في جرعات صغيرة، يكون هذا مقبولاً بما فيه الكفاية. لكن في المجمل، أنتج هذا روبوت محادثة أولياً يميل إلى النفاق.

تكمن المشكلة في كيفية نشره في أن حوكمة أوبن إيه آي لما يحدث، ولما تُجريه من تقييمات، ليست جيدة بما يكفي. وفي هذه الحالة، ورغم من أنها وضعت هدفاً لنماذجها ألا تكون مُتملقة، وهذا مكتوب في أهم وثائق الشركة حول كيفية سلوك نماذجها، فإنها لم تُجرِ أي اختبارات فعلية لذلك.

ما وجدته بعد ذلك هو أنه حتى هذا الإصدار المُصلَّح لا يزال يتصرف بطرق غريبة، وغير متوقعة. في بعض الأحيان لا يزال يُعاني من هذه المشكلات السلوكية. هذا ما يُسمى بالتملق. في أحيان أخرى أصبح الوضع متناقضاً للغاية. لقد انقلب الوضع رأساً على عقب.

ما أفهمه من هذا هو صعوبة التنبؤ بما سيفعله نظام الذكاء الاصطناعي. ولذلك، بالنسبة لي، فإن الدرس المستفاد هو أهمية إجراء اختبارات تجريبية دقيقة، وشاملة.

انحياز «غروك» العنصري

* ماذا عن حادثة «غروك»؟

-ما أود فهمه لتقييم ذلك هو مصادر تعليقات المستخدمين التي يجمعها غروك، وكيف تُستخدم هذه التعليقات، إن وُجدت، باعتبار أنها جزء من عملية التدريب. وعلى وجه الخصوص، في حالة تصريحات جنوب أفريقيا الشبيهة بالإبادة الجماعية البيضاء، هل يطرحها المستخدمون؟ ثم يوافق عليها النموذج؟ أو إلى أي مدى يُطلقها النموذج من تلقاء نفسه دون أن يُمسّ من قبل المستخدمين؟

يبدو أن هذه التغييرات الصغيرة يمكن أن تتفاقم، وتتفاقم.

أعتقد أن المشكلات اليوم حقيقية، ومهمة. بل أعتقد أنها ستزداد صعوبة مع بدء استخدام الذكاء الاصطناعي في مجالات أكثر أهمية. لذا، كما تعلمون، فإن هذا الأمر مُقلق. خصوصاً عندما تقرأ روايات لأشخاصٍ عزّز نظام «جي بي تي» أوهامهم، فهم أشخاصٌ حقيقيون. قد يكون هذا ضاراً جداً لهم، خصوصاً أن «جي بي تي» يُستخدم على نطاق واسع من قِبل الكثيرين.

* مجلة «فاست كومباني»، خدمات «تريبيون ميديا»


مقالات ذات صلة

«تي إس إم سي» التايوانية تتجاوز التوقعات بأرباح قياسية نهاية 2025

الاقتصاد شعار شركة «تي إس إم سي» خلال معرض تايوان للابتكار التكنولوجي في مركز التجارة العالمي بتايبيه (أ.ب)

«تي إس إم سي» التايوانية تتجاوز التوقعات بأرباح قياسية نهاية 2025

أعلنت شركة تايوان لصناعة أشباه الموصلات المحدودة (تي إس إم سي)، الرائدة عالمياً في تصنيع رقائق الذكاء الاصطناعي والمورد الرئيسي لشركة «إنفيديا».

«الشرق الأوسط» (تايبيه )
العالم موقع الذكاء الاصطناعي «غروك» على هاتف محمول وحاسوب محمول (إ.ب.أ)

ماسك ينفي علمه بتوليد «غروك» صوراً إباحية لأطفال

قال إيلون ماسك، اليوم الأربعاء، إنه غير مطّلع على أي «صور عارية لقاصرين» تم توليدها بواسطة أداة الذكاء الاصطناعي «غروك» التابعة لشركة «إكس».

«الشرق الأوسط» (واشنطن)
تكنولوجيا يسهم في تسريع إنجاز المهام اليومية وتقليل الأعمال الروتينية وتعزيز كفاءة الإنتاجية داخل بيئات العمل «كلود»

«كلود كوورك»... أداة جديدة تعتمد الذكاء الاصطناعي لتنفيذ المهام المكتبية

تقوم الأداة بتحليل المحتوى والتخطيط للتنفيذ ثم إتمام المهمة ورفع المخرجات في نفس المكان دون الحاجة لسلسلة من التعليمات التفصيلية.

عبد العزيز الرشيد (الرياض)
تكنولوجيا يرى البعض أن الذكاء الاصطناعي يهدد ملايين الوظائف التقليدية (رويترز)

كيف يمكن أن يؤثر الذكاء الاصطناعي على البطالة والتوظيف في 2026؟

مع التسارع غير المسبوق في تطور تقنيات الذكاء الاصطناعي، تتزايد التساؤلات حول تأثير هذه الثورة التكنولوجية على سوق العمل العالمي.

«الشرق الأوسط» (لندن)
علوم حين يُصاغ القرار بين الإنسان والخوارزمية

حين يتعلّم الذكاء الاصطناعي توقّع مسار المرض قبل حدوثه

لا يكتفي التحليل بل يبني تمثيلاً داخلياً يحاكي السلوك البيولوجي للجسد

د. عميد خالد عبد الحميد (لندن)

«كلود كوورك»... أداة جديدة تعتمد الذكاء الاصطناعي لتنفيذ المهام المكتبية

يسهم في تسريع إنجاز المهام اليومية وتقليل الأعمال الروتينية وتعزيز كفاءة الإنتاجية داخل بيئات العمل «كلود»
يسهم في تسريع إنجاز المهام اليومية وتقليل الأعمال الروتينية وتعزيز كفاءة الإنتاجية داخل بيئات العمل «كلود»
TT

«كلود كوورك»... أداة جديدة تعتمد الذكاء الاصطناعي لتنفيذ المهام المكتبية

يسهم في تسريع إنجاز المهام اليومية وتقليل الأعمال الروتينية وتعزيز كفاءة الإنتاجية داخل بيئات العمل «كلود»
يسهم في تسريع إنجاز المهام اليومية وتقليل الأعمال الروتينية وتعزيز كفاءة الإنتاجية داخل بيئات العمل «كلود»

أطلقت شركة «أنثروبيك» الأميركية، المطوّرة لنظام الذكاء الاصطناعي «Claude» (كلود)، ميزة جديدة تحمل اسم «Claude Cowork» (كلود كُوورك: زميل العمل)، في خطوة تعزز من التحول نحو ذكاء اصطناعي قادر على أداء مهام مهنية متكاملة دون الحاجة لتدخل مستمر من المستخدم، وبما يتجاوز المفهوم التقليدي للدردشة النصية مع الأنظمة الذكية.

تأتي الميزة في صورة «AI Coworker» (زميل عمل بالذكاء الاصطناعي) يمكنه التعامل مع ملفات المستخدم وتنفيذ مهام إنتاجية كاملة، مثل كتابة الوثائق وإعداد الاستراتيجيات وصياغة رسائل البريد الإلكتروني وتنظيم الملفات وإتمام مشاريع مكتبية بأكملها، وهو ما يمثل تغييراً واضحاً في طريقة توظيف الذكاء الاصطناعي داخل بيئات العمل.

وبخلاف الأدوات التقليدية التي تعتمد على تفاعل (مستخدم – أمر – استجابة)، يعمل «كلود كُوورك» بشكل شبه مستقل، حيث يمكن للمستخدم منح النظام وصولاً إلى مجلدات محددة على جهازه، ثم إسناد مهمة أو مشروع كامل، ليقوم «Claude» بتحليل المحتوى والتخطيط للتنفيذ ثم إتمام المهمة ورفع المخرجات في نفس المكان دون الحاجة لسلسلة من التعليمات التفصيلية.

تصف «Anthropic» هذه الميزة بأنها «تجربة محادثة تنفيذية»، حيث لا يكتفي «كلود» بتوليد النصوص وتقديم الاستشارات، بل ينتقل إلى مرحلة التنفيذ العملي للمهام المرتبطة بالمحتوى، بدءاً من إعداد وثائق الاستراتيجيات التسويقية وصياغة المواد التعريفية للشركات، مروراً بتحرير نصوص المواقع الإلكترونية وتنظيم مراسلات البريد الإلكتروني، وصولاً إلى إعداد الأدلة وأطر العمل الداخلية وتحليل الملفات والمستندات الموجودة مسبقاً، وهو ما يجعل الذكاء الاصطناعي جزءاً مباشراً من دورة العمل المهنية وليس مجرد أداة للكتابة أو الاقتراح. وبالتالي، يصبح الذكاء الاصطناعي هنا جزءاً من دورة العمل وليس مجرد أداة للمساعدة اللغوية.

«معاينة بحثية»

تتوفر الميزة حالياً في مرحلة «معاينة بحثية» داخل «نظام الماك»، ومحصورة باشتراك «كلود ماكس – الباقة العليا»، وهو ما يعني أنها موجّهة في الوقت الحالي للمستخدمين المحترفين والمؤسسات التقنية ذات الاستخدام المتقدم، كما أن مشاركة الملفات تتم بشكل اختياري وتحت سيطرة المستخدم لمعالجة المخاوف المرتبطة بالخصوصية والأمان.

يمثل «كلود كُوورك» نموذجاً متطوراً لمنصات الذكاء الاصطناعي التي من المتوقع أن تعيد تشكيل طبيعة العمل الإداري والمكتبي خلال السنوات المقبلة، إذ تشير التجربة الأولية للميزة إلى أنها قد تختصر أسابيع من العمل إلى ساعات، وتسمح بإعادة توزيع الجهد نحو المهام الإبداعية والاستراتيجية بدلاً من الأعمال الروتينية المتكررة.


كيف يمكن أن يؤثر الذكاء الاصطناعي على البطالة والتوظيف في 2026؟

يرى البعض أن الذكاء الاصطناعي يهدد ملايين الوظائف التقليدية (رويترز)
يرى البعض أن الذكاء الاصطناعي يهدد ملايين الوظائف التقليدية (رويترز)
TT

كيف يمكن أن يؤثر الذكاء الاصطناعي على البطالة والتوظيف في 2026؟

يرى البعض أن الذكاء الاصطناعي يهدد ملايين الوظائف التقليدية (رويترز)
يرى البعض أن الذكاء الاصطناعي يهدد ملايين الوظائف التقليدية (رويترز)

مع التسارع غير المسبوق في تطور تقنيات الذكاء الاصطناعي، تتزايد التساؤلات حول تأثير هذه الثورة التكنولوجية على سوق العمل العالمي.

فبينما يرى البعض أن الذكاء الاصطناعي يهدد ملايين الوظائف التقليدية، يؤكد آخرون أنه سيفتح الباب أمام فرص عمل جديدة لم تكن موجودة من قبل.

ومع دخول عام 2026، يقف العالم أمام مرحلة حاسمة لإعادة تشكيل مفهوم التوظيف، حيث لم يعد السؤال يدور حول ما إذا كان الذكاء الاصطناعي سيؤثر على الوظائف، بل حول كيف وبأي حجم سيعيد رسم خريطة البطالة والعمل في السنوات القليلة المقبلة.

وفي هذا السياق، تحدثت ستيفاني روث، كبيرة الاقتصاديين في مؤسسة وولف للأبحاث، إلى شبكة «فوكس نيوز» الأميركية عن توقعاتها بشأن تأثير الذكاء الاصطناعي على البطالة والتوظيف في 2026.

وترى روث أن المخاوف من تسبب الذكاء الاصطناعي في موجة بطالة واسعة لا تزال مبالغاً فيها حتى الآن، مؤكدة أن هذه التقنيات تُستخدم حالياً لتعزيز الكفاءة والإنتاجية أكثر من كونها أداة لاستبدال العمالة البشرية بشكل واسع.

وأوضحت روث أن التأثير الفعلي لهذه التكنولوجيا على سوق العمل ما زال محدوداً، مشيرة إلى أن نصف التباطؤ في التوظيف يعود للذكاء الاصطناعي في حين يعود النصف الآخر لعوامل اقتصادية أوسع، مثل حالة عدم اليقين الاقتصادي حول العالم.

وتابعت قائلة: «ومع توقعنا لحدوث بعض الانتعاش في الاقتصاد هذا العام، فإن هذا يعني حدوث تحسن طفيف في التوظيف وانخفاض في معدلات البطالة».

وسبق أن ذكر تقرير وُضع بمساعدة «تشات جي بي تي»، ونُشر في أكتوبر (تشرين الأول) الماضي، بأن الذكاء الاصطناعي قد يقضي على ما يقرب من 100 مليون وظيفة خلال العقد المقبل.

ومن جهة أخرى، أعلنت شركة التأمين الألمانية العملاقة «آليانز»، في تقرير صدر اليوم، أن الذكاء الاصطناعي أصبح أكبر التهديدات التي تواجهها الشركات في العالم.

وحسب التقرير، فقد قفز الذكاء الاصطناعي من المركز العاشر إلى المركز الثاني بعد الجرائم الإلكترونية التي تسبب فيها خلال العام الحالي.


وسط الانتقادات بسبب الصور الجنسية... أميركا تعلن دمج «غروك» في شبكات البنتاغون

وزير الحرب الأميركي بيت هيغسيث (أ.ب)
وزير الحرب الأميركي بيت هيغسيث (أ.ب)
TT

وسط الانتقادات بسبب الصور الجنسية... أميركا تعلن دمج «غروك» في شبكات البنتاغون

وزير الحرب الأميركي بيت هيغسيث (أ.ب)
وزير الحرب الأميركي بيت هيغسيث (أ.ب)

أعلن وزير الحرب الأميركي بيت هيغسيث أن الجيش سيبدأ دمج أداة الذكاء الاصطناعي «غروك»، التابعة لإيلون ماسك، في شبكات البنتاغون، خلال وقت لاحق من هذا الشهر، في ظل تعرضها لانتقادات بسبب صور جنسية.

ووفقاً لصحيفة «غارديان» البريطانية، قال هيغسيث، خلال زيارة لمقر شركة «سبيس إكس» في تكساس، مساء الاثنين، إن دمج «غروك» في الأنظمة العسكرية سيبدأ العمل به في وقت لاحق من هذا الشهر. وأضاف: «قريباً جداً، سيكون لدينا نماذج الذكاء الاصطناعي الرائدة في العالم على جميع الشبكات في وزارتنا».

وكشف أيضاً عن «استراتيجية تسريع الذكاء الاصطناعي» جديدة في الوزارة، والتي قال إنها «ستُطلق العنان للتجارب، وتُزيل الحواجز البيروقراطية، وتركز على الاستثمارات، وتوضح نهج التنفيذ اللازم لضمان ريادتنا في مجال الذكاء الاصطناعي العسكري، وأن يصبح أكثر هيمنة في المستقبل».

أداة الذكاء الاصطناعي غروك (إ.ب.أ)

ولفتت «غارديان» إلى أن «البنتاغون» أعلنت، في ديسمبر (كانون الثاني) الماضي، اختيار «جيميناي» من «غوغل»، وهو نموذج آخر للذكاء الاصطناعي، لتشغيل منصة الذكاء الاصطناعي الداخلية الجديدة للجيش، والمعروفة باسم «GenAI.mil».

وكجزء من إعلان يوم الاثنين، قال هيغسيث أيضاً إنه بتوجيهاته، سيقوم مكتب كبير مسؤولي الشؤون الرقمية والذكاء الاصطناعي في الوزارة «بممارسة سلطته الكاملة لإتاحة جميع البيانات المناسبة عبر أنظمة تكنولوجيا المعلومات الموحدة لاستخدامها في تطبيقات الذكاء الاصطناعي».

وقال: «الذكاء الاصطناعي لا يكون جيداً إلا بقدر جودة البيانات التي يتلقاها، وسنتأكد من توفرها».

يأتي دمج الجيش «غروك» بعد إعلان، العام الماضي، منح الوزارة عقوداً تصل إلى 200 مليون دولار لشركات «غوغل» و«أوبن إيه آي» و«إكس إيه آي»، «لتطوير سير عمل الذكاء الاصطناعي عبر مجموعة متنوعة من مجالات المهام».

وتعرضت «غروك»، المُدمجة في منصة «إكس»، لانتقادات لاذعة، في الأسابيع الأخيرة، بسبب السماح للمستخدمين بإنشاء صور ذات محتوى جنسي وعنيف، وقام، منذ ذلك الحين، بتقييد بعض وظائف إنشاء الصور لتقتصر على المشتركين مدفوعي الأجر، لكن ردود الفعل السلبية لا تزال مستمرة، فقد حظرت إندونيسيا مؤقتاً الوصول إلى «غروك»، يوم السبت، وسرعان ما حَذَت ماليزيا حذوها.

وفي بريطانيا، فتحت هيئة تنظيم الإعلام «أوفكوم» تحقيقاً رسمياً بشأن استخدام «غروك» للتلاعب بصور النساء والأطفال.

ولا تُعدّ الصور الجنسية المنتشرة على نطاق واسع هي المشكلة الوحيدة التي تواجه «غروك». فقبل الإعلان عن عقد «البنتاغون»، البالغة قيمته 200 مليون دولار، وصفت الأداة نفسها بأنها «نازية متطرفة»، ونشرت منشورات مُعادية للسامية وعنصرية.