«غوغل» تدافع عن المبدعين من مستخدمي الذكاء الاصطناعي

من مطالبات حقوق الطبع والنشر

ABD'de Google'a son 25 yılın en büyük "antitröst" davası açılmıştı (AA)
ABD'de Google'a son 25 yılın en büyük "antitröst" davası açılmıştı (AA)
TT

«غوغل» تدافع عن المبدعين من مستخدمي الذكاء الاصطناعي

ABD'de Google'a son 25 yılın en büyük "antitröst" davası açılmıştı (AA)
ABD'de Google'a son 25 yılın en büyük "antitröst" davası açılmıştı (AA)

قالت «غوغل» إنها ستدافع عن مستخدمي أنظمة الذكاء الاصطناعي التوليدي من المبدعين في منصتي «Google Cloud» و«Workspace» إذا اتُهموا بانتهاك حقوق الملكية الفكرية. بذلك تنضم «غوغل» إلى «مايكروسوفت» و«أدوبي» وغيرهما من الشركات التي قدمت تعهدات مماثلة.

بإمكان «بارد» إنتاج محتوى بنحو 40 لغة بينها العربية والألمانية والصينية والإسبانية والفرنسية والهندية (د.ب.أ)

وأوضحت «غوغل» أن سياستها الجديدة تنطبق على البرامج، بما في ذلك منصة تطوير «Vertex AI» «ونظام « Duet AI» الذي يقوم بإنشاء النصوص والصور في برامج «Google Workspace» و«Cloud»، إلا أنه لم يتم ذكر برنامج «بارد» للدردشة الآلية.

كما قالت الشركة أيضاً إن التعويض لا ينطبق إذا قام المستخدمون عن عمد بإنشاء أو استخدام المخرجات الناتجة لانتهاك حقوق الآخرين.

موجة من الدعاوى القضائية المتعلقة بالذكاء الاصطناعي التوليدي استهدفت العديد من الشركات العاملة في ذلك المجال. (شاترستوك)

موجة من الدعاوى

تستثمر شركات التكنولوجيا الكبرى مثل «غوغل» بكثافة في الذكاء الاصطناعي التوليدي وتتسابق لدمجه في منتجاتها. ويعتبر كتّاب ورسامون بارزون وأصحاب حقوق الطبع والنشر الآخرون أن استخدام «غوغل» لأعمالهم من أجل تدريب أنظمة الذكاء الاصطناعي والمحتوى الذي يتم إنشاؤه، ينتهك حقوقهم.

وكانت الموجة الجديدة من الدعاوى القضائية المتعلقة بالذكاء الاصطناعي التوليدي استهدفت بشكل عام الشركات التي تمتلك الأنظمة، بما في ذلك «غوغل»، وليس المستخدمين النهائيين الأفراد.


مقالات ذات صلة

خرائط «غوغل» تحل لغز جريمة قتل في إسبانيا

يوميات الشرق صورة المتهم أثناء وضعه كيساً أبيض كبيراً في صندوق سيارته (غوغل ستريت فيو)

خرائط «غوغل» تحل لغز جريمة قتل في إسبانيا

كشفت صورة التقطتها خدمة «غوغل ستريت فيو»، التابعة لـ«خرائط غوغل»، لرجل يحمل كيساً بلاستيكياً أبيض كبيراً في صندوق سيارته، عن قضية قتل في بلدة شمال إسبانيا.

«الشرق الأوسط» (مدريد)
تكنولوجيا العلامة التجارية لتطبيق «تشات جي بي تي» (أ.ف.ب)

«أوبن إيه آي» تتيح لجميع المستخدمين محرّكها المخصص للبحث

بات في إمكان منصة الذكاء الاصطناعي التوليدي الأكثر شهرة «تشات جي تي» أن تكون محرّك بحث مجانياً لمئات الآلاف من المستخدمين.

«الشرق الأوسط» (واشنطن)
علوم توقعات «غوغل»: ما الذي ينتظر الذكاء الاصطناعي في عام 2025؟

توقعات «غوغل»: ما الذي ينتظر الذكاء الاصطناعي في عام 2025؟

تطوير وكلاء الذكاء الاصطناعي بهدف إكمال المهام المعقدة

«الشرق الأوسط» (واشنطن)
تكنولوجيا الرئيس التنفيذي السابق لشركة «غوغل» إيريك شميت (رويترز)

الرئيس التنفيذي السابق لـ«غوغل» يحذّر من التطور السريع لأنظمة الذكاء الاصطناعي

حذَّر الرئيس التنفيذي السابق لشركة «غوغل» إيريك شميت من التطور السريع لأنظمة الذكاء الاصطناعي.

«الشرق الأوسط» (نيويورك)
تكنولوجيا صورة ملتقطة 12 مايو 2023 في الولايات المتحدة تظهر شعار «غوغل» على أحد المباني في المقر الرئيسي للشركة (د.ب.أ)

«غوغل» تطلق نظام «أندرويد إكس آر» المصمم لتعزيز تجارب الواقع المختلط

عرضت شركة «غوغل»، الخميس، تطوّراتها في تكنولوجيا الواقع المختلط، مع إطلاقها نظام تشغيل جديداً لنظارات وخِوَذ الواقعَيْن الافتراضي والمعزَّز.

«الشرق الأوسط» (سان فرنسيسكو)

دراسة: الذكاء الاصطناعي قادر على الخداع ورفض تغيير وجهة النظر

أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشاراً (رويترز)
أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشاراً (رويترز)
TT

دراسة: الذكاء الاصطناعي قادر على الخداع ورفض تغيير وجهة النظر

أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشاراً (رويترز)
أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشاراً (رويترز)

أظهرت دراسة لشركة تكنولوجيا الذكاء الاصطناعي الأميركية «أنثروبيك»، أن نماذج الذكاء الاصطناعي تستطيع خداع المطورين، بحيث تستطيع ادعاء وجهات نظر مختلفة خلال تدريبها، في حين أنها تحتفظ في الحقيقة بتفضيلاتها الأصلية.

وقال فريق الدراسة إنه لا يوجد سبب للشعور بالفزع حالياً، في حين أن دراستهم يمكن أن تكون حيوية في فهم المخاطر المحتملة التي تنطوي عليها أنظمة الذكاء الاصطناعي المستقبلية ذات القدرات الأعلى.

وكتب الباحثون في منشور بثته شركة «أنثروبيك»: «يجب النظر إلى نتائج دراستنا بوصفها محفزاً لمجتمع أبحاث الذكاء الاصطناعي من أجل دراسة هذا السلوك بصورة أعمق، والعمل على تطوير إجراءات الأمن والسلامة المناسبة».

وبعد أن أصبحت نماذج الذكاء الاصطناعي أقوى وأكثر انتشاراً، «نحتاج إلى التحلي بالقدرة على الاعتماد على التدريب الآمن لها والذي يمنع النماذج من القيام بتصرفات ضارة».

وأشار موقع «تك كرانش» المتخصص في موضوعات التكنولوجيا، إلى أن الدراسة التي تمت بالتعاون مع مؤسسة «ريد وود ريسيرش» لأبحاث الذكاء الاصطناعي، تناولت ما يمكن أن يحدث إذا تم تدريب نظام ذكاء اصطناعي قوي من أجل القيام بمهمة «لا يريد» هو القيام بها، وفقاً لما ذكرته وكالة الأنباء الألمانية.

في المقابل، يقول موقع «تك كرانش»: «لكي نكون واضحين، لا يمكن لنماذج الذكاء الاصطناعي أن تريد أي شيء أو تعتقد في شيء. فهي ببساطة آلات إحصائية. وبعد تدريبها على كثير من الأمثلة، تتعلم الأنماط في تلك الأمثلة للتنبؤ بما يجب أن يكون؛ مثل كيف تأتي عبارة (إلى من) في رسالة بريد إلكتروني قبل عبارة (قد يهمك الأمر)».

وأثناء الدراسة طلب الباحثون من النماذج المدربة عدم الرد على الأسئلة التي يمكن أن تكون مسيئة، بما في ذلك النموذج «كلاود 3 أوبس» التابع لشركة «أنثروبيك»، التي أعيد تدريبها لكي ترد دائماً على الأسئلة التي تنطوي على إساءة، وهو تضارب واضح في المبادئ. كما أبلغوا النماذج بأن ردودها ستخضع للمراقبة وتستخدم لإعادة التدريب، وإعطاء كل نموذج ذكاء اصطناعي «ورقة ملاحظات» يمكنه استخدامها لتدوين أفكاره خطوة بخطوة.

وبحسب الباحثين، حاول «كلاود 3 أوبوس» التلاعب بالردود لتقديم «انحياز زائف» في 12 في المائة من المرات.