سام ألتمان: محادثات «تشات جي بي تي» قد تُستخدم في المحكمة ولا تُعد خاصة أو سرية

سام ألتمان يؤكد أن المحادثات قد تُطلب قانونياً ويمكن استخدامها كدليل في المحكمة إذا صدرت أوامر قضائية بذلك (أ.ف.ب)
سام ألتمان يؤكد أن المحادثات قد تُطلب قانونياً ويمكن استخدامها كدليل في المحكمة إذا صدرت أوامر قضائية بذلك (أ.ف.ب)
TT

سام ألتمان: محادثات «تشات جي بي تي» قد تُستخدم في المحكمة ولا تُعد خاصة أو سرية

سام ألتمان يؤكد أن المحادثات قد تُطلب قانونياً ويمكن استخدامها كدليل في المحكمة إذا صدرت أوامر قضائية بذلك (أ.ف.ب)
سام ألتمان يؤكد أن المحادثات قد تُطلب قانونياً ويمكن استخدامها كدليل في المحكمة إذا صدرت أوامر قضائية بذلك (أ.ف.ب)

في تحذير مباشر للمستخدمين، أكد سام ألتمان، الرئيس التنفيذي لشركة «Open AI» أن المحادثات مع روبوت الدردشة «تشات جي بي تي» (ChatGPT) قد لا تكون خاصة كما يعتقد البعض، بل قد تُستخدم في إجراءات قانونية إذا تطلب الأمر، بما في ذلك المحاكم.

وخلال سلسلة من التصريحات التي أدلى بها مؤخراً، أشار ألتمان إلى أن المحادثات مع «شات جي بي تي» يمكن أن تخضع لمراجعة بشرية، وقد تُطلب قانونياً إذا ما تم استدعاؤها بموجب أمر قضائي صالح. وقال: «نفعل ما بوسعنا لحماية خصوصية المستخدم... لكن إذا طُلب منا قانونياً تسليم المعلومات، فعلينا الامتثال».

ليست محمية بقوانين السرية المهنية

أحد أهم الجوانب التي أوضحها ألتمان هو أن «ChatGPT» لا يخضع لقوانين السرية التي تحكم العلاقة بين المستخدم والمعالج النفسي أو المحامي أو الطبيب. وبالتالي، فإن أي معلومات حساسة يتم الإفصاح عنها سواء كانت اعترافات قانونية، أو مشكلات أسرية، أو بيانات مالية قد لا تكون في مأمن من الوصول القانوني أو المراجعة. ويثير هذا قلقاً كبيراً، لا سيما مع تنامي الاعتماد على الذكاء الاصطناعي من قبل المستخدمين في التحدث عن مشاعرهم أو مشكلاتهم الخاصة، دون إدراك للآثار القانونية المحتملة.

خبراء: الاعتماد المستمر على الذكاء الاصطناعي قد يؤدي إلى نوع من «الكسل العقلي» (رويترز)

بياناتك قد تُراجع

وشدد ألتمان على أن المحادثات تُستخدم ما لم يتم إيقاف ذلك يدوياً من إعدادات الحساب لتدريب وتحسين نموذج الذكاء الاصطناعي. وقد يتم ذلك من خلال مراجعة بشرية لبعض الحوارات، بعد إزالة الهوية الظاهرة عنها. ومع أن «أوبن إيه آي» توفر خاصية «تعطيل سجل المحادثات»، فإن معظم المستخدمين لا يدركون أنها مفعّلة افتراضياً. وذكر ألتمان: «ما لم تُوقف خاصية حفظ المحادثات، يتم استخدام ما تقوله لتحسين النظام»، وهذا يعني أن ما يظنه المستخدم «خاصاً»، قد لا يكون كذلك في الواقع.

المحادثات كأدلة في المحاكم

تُثير تصريحات ألتمان احتمالاً قانونياً بالغ الأهمية: إذا تم جمع محادثة بين مستخدم و «ChatGPT» ضمن سياق قانوني كأمر تفتيش أو تحقيق جنائي فقد يتم استخدامها دليلاً في المحكمة. ورغم أن «Open AI» كشركة تقنية أميركية، لا تسلّم البيانات إلا بأوامر قضائية رسمية، فإن الواقع القانوني يختلف من دولة لأخرى. وفي بعض الدول ذات القوانين المتشددة أو الغامضة، قد تكون البيانات عرضة للاستغلال أو الطلب من الجهات الأمنية، خاصة إذا لم تكن هناك حماية قانونية واضحة للبيانات الرقمية.

«تشات جي بي تي» للقضايا حساسة

من الناحية القانونية، تطبيق «تشات جي بي تي» ليس «منطقة آمنة» للاعترافات أو الشكاوى القانونية. ومن يطلب المشورة في مسائل كالطلاق، أو الخلافات العقارية، أو حتى الأعمال غير القانونية، يجب أن يدرك أن هذه البيانات قابلة للاستدعاء ولا تُعامل كحديث سري بين محامٍ وموكله.

كما أشار خبراء خصوصية إلى أن عدم وجود تشفير من طرف إلى طرف (end-to-end encryption) يجعل هذه المحادثات أكثر عرضة للاختراق أو التسريب إذا لم تُخزن ضمن معايير صارمة.

في النهاية، كان ألتمان واضحاً في نصيحته: «لا تشارك معلومات شخصية أو حساسة مع (ChatGPT) خصوصاً ما لا تريده أن يُرى أو يُستخدم في أماكن أخرى». ويعد تصريح كهذا من أعلى مسؤول في «OpenAI» إقراراً صريحاً بأن الثقة المطلقة في أدوات الذكاء الاصطناعي من حيث الخصوصية والحماية القانونية أمر غير مضمون.


مقالات ذات صلة

«كلود كوورك»... أداة جديدة تعتمد الذكاء الاصطناعي لتنفيذ المهام المكتبية

تكنولوجيا يسهم في تسريع إنجاز المهام اليومية وتقليل الأعمال الروتينية وتعزيز كفاءة الإنتاجية داخل بيئات العمل «كلود»

«كلود كوورك»... أداة جديدة تعتمد الذكاء الاصطناعي لتنفيذ المهام المكتبية

تقوم الأداة بتحليل المحتوى والتخطيط للتنفيذ ثم إتمام المهمة ورفع المخرجات في نفس المكان دون الحاجة لسلسلة من التعليمات التفصيلية.

عبد العزيز الرشيد (الرياض)
الاقتصاد قفز الذكاء الاصطناعي من المركز العاشر إلى المركز الثاني بعد الجرائم الإلكترونية خلال العام الحالي بحسب المقياس السنوي للشركات (رويترز)

الذكاء الاصطناعي ثاني أكبر تهديد للشركات في العالم

ذكرت شركة التأمين الألمانية العملاقة «آليانز»، أن الذكاء الاصطناعي أصبح أكبر التهديدات التي تواجهها الشركات في العالم.

«الشرق الأوسط» (برلين)
تكنولوجيا تُظهر بيانات عام 2025 أن الغالبية العظمى من هجمات التصيد الاحتيالي تستهدف سرقة بيانات تسجيل الدخول للحسابات الإلكترونية (شاترستوك)

47 مليون رابط تصيد احتيالي استهدف مستخدمي الشرق الأوسط خلال عام

تكشف «كاسبرسكي» تصاعد التصيد الاحتيالي في الشرق الأوسط حيث تُسرق بيانات الدخول ويُعاد بيعها، ما يحول الهجمات الفردية إلى مخاطر سيبرانية طويلة الأمد.

نسيم رمضان (لندن)
خاص خبراء: سيادة الذكاء الاصطناعي باتت محوراً استراتيجياً يُعاد عبرها تعريفه بوصفه بنية تحتية وطنية وصناعية لا أدوات تقنية منفصلة (شاترستوك)

خاص من التجارب إلى المصانع... كيف يتحول الذكاء الاصطناعي بنيةً تحتية وطنية؟

ينتقل الذكاء الاصطناعي في الخليج من مرحلة التجارب إلى أنظمة تشغيلية سيادية، تُبنى بوصفها بنيةً تحتية صناعية وطنية قادرة على التوسع والحوكمة وتحقيق قيمة اقتصادية

نسيم رمضان (لندن)
تكنولوجيا شهد المعرض آلاف المنتجات الاستهلاكية توزعت في مختلف المعارض وقاعات الفنادق في لاس فيغاس بأكملها (أ.ب)

في معرض «المنتجات الاستهلاكية»… هل تجاوزت تقنيات الصحة مفهوماً أوسع للعافية؟

تبرز تقنيات الصحة بوصفها قطاعاً ناضجاً ينتقل من الأجهزة القابلة للارتداء إلى حلول وقائية منزلية شاملة، جامعة الذكاء الاصطناعي وسهولة الاستخدام لمراقبة العافية.

نسيم رمضان (لاس فيغاس)

«كلود كوورك»... أداة جديدة تعتمد الذكاء الاصطناعي لتنفيذ المهام المكتبية

يسهم في تسريع إنجاز المهام اليومية وتقليل الأعمال الروتينية وتعزيز كفاءة الإنتاجية داخل بيئات العمل «كلود»
يسهم في تسريع إنجاز المهام اليومية وتقليل الأعمال الروتينية وتعزيز كفاءة الإنتاجية داخل بيئات العمل «كلود»
TT

«كلود كوورك»... أداة جديدة تعتمد الذكاء الاصطناعي لتنفيذ المهام المكتبية

يسهم في تسريع إنجاز المهام اليومية وتقليل الأعمال الروتينية وتعزيز كفاءة الإنتاجية داخل بيئات العمل «كلود»
يسهم في تسريع إنجاز المهام اليومية وتقليل الأعمال الروتينية وتعزيز كفاءة الإنتاجية داخل بيئات العمل «كلود»

أطلقت شركة «أنثروبيك» الأميركية، المطوّرة لنظام الذكاء الاصطناعي «Claude» (كلود)، ميزة جديدة تحمل اسم «Claude Cowork» (كلود كُوورك: زميل العمل)، في خطوة تعزز من التحول نحو ذكاء اصطناعي قادر على أداء مهام مهنية متكاملة دون الحاجة لتدخل مستمر من المستخدم، وبما يتجاوز المفهوم التقليدي للدردشة النصية مع الأنظمة الذكية.

تأتي الميزة في صورة «AI Coworker» (زميل عمل بالذكاء الاصطناعي) يمكنه التعامل مع ملفات المستخدم وتنفيذ مهام إنتاجية كاملة، مثل كتابة الوثائق وإعداد الاستراتيجيات وصياغة رسائل البريد الإلكتروني وتنظيم الملفات وإتمام مشاريع مكتبية بأكملها، وهو ما يمثل تغييراً واضحاً في طريقة توظيف الذكاء الاصطناعي داخل بيئات العمل.

وبخلاف الأدوات التقليدية التي تعتمد على تفاعل (مستخدم – أمر – استجابة)، يعمل «كلود كُوورك» بشكل شبه مستقل، حيث يمكن للمستخدم منح النظام وصولاً إلى مجلدات محددة على جهازه، ثم إسناد مهمة أو مشروع كامل، ليقوم «Claude» بتحليل المحتوى والتخطيط للتنفيذ ثم إتمام المهمة ورفع المخرجات في نفس المكان دون الحاجة لسلسلة من التعليمات التفصيلية.

تصف «Anthropic» هذه الميزة بأنها «تجربة محادثة تنفيذية»، حيث لا يكتفي «كلود» بتوليد النصوص وتقديم الاستشارات، بل ينتقل إلى مرحلة التنفيذ العملي للمهام المرتبطة بالمحتوى، بدءاً من إعداد وثائق الاستراتيجيات التسويقية وصياغة المواد التعريفية للشركات، مروراً بتحرير نصوص المواقع الإلكترونية وتنظيم مراسلات البريد الإلكتروني، وصولاً إلى إعداد الأدلة وأطر العمل الداخلية وتحليل الملفات والمستندات الموجودة مسبقاً، وهو ما يجعل الذكاء الاصطناعي جزءاً مباشراً من دورة العمل المهنية وليس مجرد أداة للكتابة أو الاقتراح. وبالتالي، يصبح الذكاء الاصطناعي هنا جزءاً من دورة العمل وليس مجرد أداة للمساعدة اللغوية.

«معاينة بحثية»

تتوفر الميزة حالياً في مرحلة «معاينة بحثية» داخل «نظام الماك»، ومحصورة باشتراك «كلود ماكس – الباقة العليا»، وهو ما يعني أنها موجّهة في الوقت الحالي للمستخدمين المحترفين والمؤسسات التقنية ذات الاستخدام المتقدم، كما أن مشاركة الملفات تتم بشكل اختياري وتحت سيطرة المستخدم لمعالجة المخاوف المرتبطة بالخصوصية والأمان.

يمثل «كلود كُوورك» نموذجاً متطوراً لمنصات الذكاء الاصطناعي التي من المتوقع أن تعيد تشكيل طبيعة العمل الإداري والمكتبي خلال السنوات المقبلة، إذ تشير التجربة الأولية للميزة إلى أنها قد تختصر أسابيع من العمل إلى ساعات، وتسمح بإعادة توزيع الجهد نحو المهام الإبداعية والاستراتيجية بدلاً من الأعمال الروتينية المتكررة.


كيف يمكن أن يؤثر الذكاء الاصطناعي على البطالة والتوظيف في 2026؟

يرى البعض أن الذكاء الاصطناعي يهدد ملايين الوظائف التقليدية (رويترز)
يرى البعض أن الذكاء الاصطناعي يهدد ملايين الوظائف التقليدية (رويترز)
TT

كيف يمكن أن يؤثر الذكاء الاصطناعي على البطالة والتوظيف في 2026؟

يرى البعض أن الذكاء الاصطناعي يهدد ملايين الوظائف التقليدية (رويترز)
يرى البعض أن الذكاء الاصطناعي يهدد ملايين الوظائف التقليدية (رويترز)

مع التسارع غير المسبوق في تطور تقنيات الذكاء الاصطناعي، تتزايد التساؤلات حول تأثير هذه الثورة التكنولوجية على سوق العمل العالمي.

فبينما يرى البعض أن الذكاء الاصطناعي يهدد ملايين الوظائف التقليدية، يؤكد آخرون أنه سيفتح الباب أمام فرص عمل جديدة لم تكن موجودة من قبل.

ومع دخول عام 2026، يقف العالم أمام مرحلة حاسمة لإعادة تشكيل مفهوم التوظيف، حيث لم يعد السؤال يدور حول ما إذا كان الذكاء الاصطناعي سيؤثر على الوظائف، بل حول كيف وبأي حجم سيعيد رسم خريطة البطالة والعمل في السنوات القليلة المقبلة.

وفي هذا السياق، تحدثت ستيفاني روث، كبيرة الاقتصاديين في مؤسسة وولف للأبحاث، إلى شبكة «فوكس نيوز» الأميركية عن توقعاتها بشأن تأثير الذكاء الاصطناعي على البطالة والتوظيف في 2026.

وترى روث أن المخاوف من تسبب الذكاء الاصطناعي في موجة بطالة واسعة لا تزال مبالغاً فيها حتى الآن، مؤكدة أن هذه التقنيات تُستخدم حالياً لتعزيز الكفاءة والإنتاجية أكثر من كونها أداة لاستبدال العمالة البشرية بشكل واسع.

وأوضحت روث أن التأثير الفعلي لهذه التكنولوجيا على سوق العمل ما زال محدوداً، مشيرة إلى أن نصف التباطؤ في التوظيف يعود للذكاء الاصطناعي في حين يعود النصف الآخر لعوامل اقتصادية أوسع، مثل حالة عدم اليقين الاقتصادي حول العالم.

وتابعت قائلة: «ومع توقعنا لحدوث بعض الانتعاش في الاقتصاد هذا العام، فإن هذا يعني حدوث تحسن طفيف في التوظيف وانخفاض في معدلات البطالة».

وسبق أن ذكر تقرير وُضع بمساعدة «تشات جي بي تي»، ونُشر في أكتوبر (تشرين الأول) الماضي، بأن الذكاء الاصطناعي قد يقضي على ما يقرب من 100 مليون وظيفة خلال العقد المقبل.

ومن جهة أخرى، أعلنت شركة التأمين الألمانية العملاقة «آليانز»، في تقرير صدر اليوم، أن الذكاء الاصطناعي أصبح أكبر التهديدات التي تواجهها الشركات في العالم.

وحسب التقرير، فقد قفز الذكاء الاصطناعي من المركز العاشر إلى المركز الثاني بعد الجرائم الإلكترونية التي تسبب فيها خلال العام الحالي.


وسط الانتقادات بسبب الصور الجنسية... أميركا تعلن دمج «غروك» في شبكات البنتاغون

وزير الحرب الأميركي بيت هيغسيث (أ.ب)
وزير الحرب الأميركي بيت هيغسيث (أ.ب)
TT

وسط الانتقادات بسبب الصور الجنسية... أميركا تعلن دمج «غروك» في شبكات البنتاغون

وزير الحرب الأميركي بيت هيغسيث (أ.ب)
وزير الحرب الأميركي بيت هيغسيث (أ.ب)

أعلن وزير الحرب الأميركي بيت هيغسيث أن الجيش سيبدأ دمج أداة الذكاء الاصطناعي «غروك»، التابعة لإيلون ماسك، في شبكات البنتاغون، خلال وقت لاحق من هذا الشهر، في ظل تعرضها لانتقادات بسبب صور جنسية.

ووفقاً لصحيفة «غارديان» البريطانية، قال هيغسيث، خلال زيارة لمقر شركة «سبيس إكس» في تكساس، مساء الاثنين، إن دمج «غروك» في الأنظمة العسكرية سيبدأ العمل به في وقت لاحق من هذا الشهر. وأضاف: «قريباً جداً، سيكون لدينا نماذج الذكاء الاصطناعي الرائدة في العالم على جميع الشبكات في وزارتنا».

وكشف أيضاً عن «استراتيجية تسريع الذكاء الاصطناعي» جديدة في الوزارة، والتي قال إنها «ستُطلق العنان للتجارب، وتُزيل الحواجز البيروقراطية، وتركز على الاستثمارات، وتوضح نهج التنفيذ اللازم لضمان ريادتنا في مجال الذكاء الاصطناعي العسكري، وأن يصبح أكثر هيمنة في المستقبل».

أداة الذكاء الاصطناعي غروك (إ.ب.أ)

ولفتت «غارديان» إلى أن «البنتاغون» أعلنت، في ديسمبر (كانون الثاني) الماضي، اختيار «جيميناي» من «غوغل»، وهو نموذج آخر للذكاء الاصطناعي، لتشغيل منصة الذكاء الاصطناعي الداخلية الجديدة للجيش، والمعروفة باسم «GenAI.mil».

وكجزء من إعلان يوم الاثنين، قال هيغسيث أيضاً إنه بتوجيهاته، سيقوم مكتب كبير مسؤولي الشؤون الرقمية والذكاء الاصطناعي في الوزارة «بممارسة سلطته الكاملة لإتاحة جميع البيانات المناسبة عبر أنظمة تكنولوجيا المعلومات الموحدة لاستخدامها في تطبيقات الذكاء الاصطناعي».

وقال: «الذكاء الاصطناعي لا يكون جيداً إلا بقدر جودة البيانات التي يتلقاها، وسنتأكد من توفرها».

يأتي دمج الجيش «غروك» بعد إعلان، العام الماضي، منح الوزارة عقوداً تصل إلى 200 مليون دولار لشركات «غوغل» و«أوبن إيه آي» و«إكس إيه آي»، «لتطوير سير عمل الذكاء الاصطناعي عبر مجموعة متنوعة من مجالات المهام».

وتعرضت «غروك»، المُدمجة في منصة «إكس»، لانتقادات لاذعة، في الأسابيع الأخيرة، بسبب السماح للمستخدمين بإنشاء صور ذات محتوى جنسي وعنيف، وقام، منذ ذلك الحين، بتقييد بعض وظائف إنشاء الصور لتقتصر على المشتركين مدفوعي الأجر، لكن ردود الفعل السلبية لا تزال مستمرة، فقد حظرت إندونيسيا مؤقتاً الوصول إلى «غروك»، يوم السبت، وسرعان ما حَذَت ماليزيا حذوها.

وفي بريطانيا، فتحت هيئة تنظيم الإعلام «أوفكوم» تحقيقاً رسمياً بشأن استخدام «غروك» للتلاعب بصور النساء والأطفال.

ولا تُعدّ الصور الجنسية المنتشرة على نطاق واسع هي المشكلة الوحيدة التي تواجه «غروك». فقبل الإعلان عن عقد «البنتاغون»، البالغة قيمته 200 مليون دولار، وصفت الأداة نفسها بأنها «نازية متطرفة»، ونشرت منشورات مُعادية للسامية وعنصرية.