«أوباما أول رئيس أميركي مسلم»... إجابات غريبة من محرك «غوغل» المدعوم بالذكاء الاصطناعي

جانب من افتتاح مركز غوغل للذكاء الاصطناعي في باريس في فبراير الماضي (أ.ف.ب)
جانب من افتتاح مركز غوغل للذكاء الاصطناعي في باريس في فبراير الماضي (أ.ف.ب)
TT

«أوباما أول رئيس أميركي مسلم»... إجابات غريبة من محرك «غوغل» المدعوم بالذكاء الاصطناعي

جانب من افتتاح مركز غوغل للذكاء الاصطناعي في باريس في فبراير الماضي (أ.ف.ب)
جانب من افتتاح مركز غوغل للذكاء الاصطناعي في باريس في فبراير الماضي (أ.ف.ب)

اتخذت شركة «غوغل» خطوات لتطوير محرك البحث الجديد «إيه آي أوفرفيوز» AI Overviews، المدعوم بالذكاء الاصطناعي التوليدي، بعد أن أبلغ مستخدمون عن إجابات غريبة أو أخرى تنطوي على خطورة محتملة.

وقالت المجموعة الأميركية العملاقة لوكالة الصحافة الفرنسية، أمس (الجمعة)، إنها «تصرفت بسرعة عندما كان ذلك مبرراً بموجب قواعد الإشراف على المحتوى لدينا».

ونشر المدون دير أوباسانجو منشوراً بيّن من خلاله أنه لدى السؤال حول عدد الرؤساء المسلمين في تاريخ الولايات المتحدة، رد AI Overviews بأن باراك أوباما «يعتبره البعض أول رئيس مسلم».

وتعليقاً على هذا المثال، أوضحت ناطقة باسم «غوغل» أن هذه النتيجة «انتهكت سياساتنا وعمدنا إلى إزالتها».

ونشر مستخدم آخر عبر حسابه المسمى «بيكسلباتس» PixelButts على منصة «إكس»، لقطة شاشة تعرض إجابة محرك البحث على سؤال بشأن طريقة تتيح «عدم التصاق الجبن بالبيتزا».

وبالإضافة إلى خلط الجبن مع الصلصة، اقترح محرك البحث التابع لـ«غوغل» إضافة غراء «غير سام» إلى الجبن.

واعتبرت الصحافية كريستي هاينز عبر منصة «إكس» أن هذا الرد مستوحى من تعليق نُشر على شبكة التواصل الاجتماعي «ريديت» قبل أكثر من عقد.

وسلّط الرئيس الجديد للموقع الساخر «ذي أونيون» The Onion، الضوء على العلاقة بين ردود معينة والمحتوى الفكاهي المنشور على منصته.

ومن بين الأمثلة، ادعى محرك البحث AI Overview أن وكالة الاستخبارات المركزية الأميركية «سي آي أيه» اعترفت رسمياً باستخدامها أقلام تحديد سوداء.

يستند محرك البحث في هذه الحالة إلى مقال ساخر نشره «ذي أونيون»، مفاده أن الفقرات غير المقروءة في وثائق الوكالة ناتجة عن خطأ وليس رغبة في إخفاء محتوى معين.

وعلقت الناطقة باسم «غوغل» أن المجموعة «تستخدم هذه الأمثلة لتطوير نظامنا، وقد تم تنفيذ بعض هذه التحسينات بالفعل».

وفي منتصف مايو (أيار)، قدمت «غوغل» ميزة AI Overviews، التي تقدم نصاً مكتوباً رداً على عمليات البحث من دون الاكتفاء بعرض روابط للمواقع، كما كان الحال حتى الآن.

ولم تختفِ الروابط، بل وُضعت أسفل النصوص التي تظهر في عمليات البحث.


مقالات ذات صلة

تكنولوجيا «أبل» تطلب المشاركة في محاكمة «غوغل» بشأن مكافحة احتكار البحث عبر الإنترنت (رويترز)

«أبل» تطلب المشاركة في محاكمة «غوغل» بقضية مكافحة احتكار البحث عبر الإنترنت

طلبت شركة «أبل» المشاركة في محاكمة «غوغل» المقبلة في الولايات المتحدة بشأن مكافحة احتكار البحث عبر الإنترنت.

«الشرق الأوسط» (كاليفورنيا)
شؤون إقليمية شعار تطبيق «واتساب» يظهر ضمن صورة مركبة (رويترز)

إيران ترفع الحظر عن «واتساب» و«غوغل بلاي»

ذكرت وسائل إعلام رسمية في إيران، اليوم الثلاثاء، أن السلطات رفعت الحظر عن منصة التراسل الفوري «واتساب» و«غوغل بلاي».

«الشرق الأوسط» (طهران)
يوميات الشرق صورة المتهم أثناء وضعه كيساً أبيض كبيراً في صندوق سيارته (غوغل ستريت فيو)

خرائط «غوغل» تحل لغز جريمة قتل في إسبانيا

كشفت صورة التقطتها خدمة «غوغل ستريت فيو»، التابعة لـ«خرائط غوغل»، لرجل يحمل كيساً بلاستيكياً أبيض كبيراً في صندوق سيارته، عن قضية قتل في بلدة شمال إسبانيا.

«الشرق الأوسط» (مدريد)
تكنولوجيا العلامة التجارية لتطبيق «تشات جي بي تي» (أ.ف.ب)

«أوبن إيه آي» تتيح لجميع المستخدمين محرّكها المخصص للبحث

بات في إمكان منصة الذكاء الاصطناعي التوليدي الأكثر شهرة «تشات جي تي» أن تكون محرّك بحث مجانياً لمئات الآلاف من المستخدمين.

«الشرق الأوسط» (واشنطن)

«اقتصاد النوايا»... الذكاء الاصطناعي يُخمّن رغباتك ويبيعها في السوق

تقنيات الذكاء الاصطناعي يمكنها التنبؤ بنوايا الأفراد وبيعها للشركات (جامعة كامبريدج)
تقنيات الذكاء الاصطناعي يمكنها التنبؤ بنوايا الأفراد وبيعها للشركات (جامعة كامبريدج)
TT

«اقتصاد النوايا»... الذكاء الاصطناعي يُخمّن رغباتك ويبيعها في السوق

تقنيات الذكاء الاصطناعي يمكنها التنبؤ بنوايا الأفراد وبيعها للشركات (جامعة كامبريدج)
تقنيات الذكاء الاصطناعي يمكنها التنبؤ بنوايا الأفراد وبيعها للشركات (جامعة كامبريدج)

حذّر باحثون من جامعة كامبريدج البريطانية من اقتراب عصرٍ جديدٍ يُعرف بـ«اقتصاد النوايا»، إذ يمكن لتقنيات الذكاء الاصطناعي التنبؤ بنيات الأفراد وبيعها للشركات قبل أن يدركوا قراراتهم بأنفسهم.

وأوضح الباحثون أن «اقتصاد النوايا» قد يُحدِث تغييراً جذرياً في أساليب التسويق والتجارة، لكنه يحمل في طياته عواقبَ اجتماعية سلبية على الشفافية، والخصوصية، والاستقلالية الفردية. ونُشرت النتائج، الاثنين، في دورية «Harvard Data Science Review».

وحسب الدراسة، قد نشهد في المستقبل القريب ظهور أدوات ذكاء اصطناعي قادرة على التنبؤ بالقرارات البشرية في مراحل مبكرة، والتأثير عليها بشكل فعّال، ومن ثَمّ بيع هذه «النوايا» في الوقت الفعلي للشركات التي يُمكِنها تلبية تلك الاحتياجات.

هذا التطور، الذي يعرف بـ«اقتصاد النوايا»، قد يُحدث نقلة نوعية في الطريقة التي تُدار بها الحياة الرقمية والاقتصاد العالمي، وفق الباحثين.

وأشار الفريق البحثي إلى أن تقنيات الذكاء الاصطناعي التَّوليدي، مثل نماذج اللغة الكبيرة (LLMs)، والمساعدين الافتراضيين، تتيح إمكانيات هائلة لتتبُّع الأنماط النفسية والسلوكية للأفراد. ومن خلال تحليل الحوارات والبيانات المستخلصة، يمكن لهذه التقنيات التنبؤ باحتياجات المستخدمين، بل والتأثير على خياراتهم لصالح جهات تجارية أو سياسية قبل أن يُدرك المستخدم نفسه نواياه.

ويُشير الباحثون إلى أن التطورات الحالية تُشير إلى تحوّل تدريجي من بيع «الانتباه» إلى بيع «النوايا». وتعتمد هذه التقنيات على تحليل سلوكيات الأفراد، مثل طريقة الحديث، والتفضيلات الشخصية، وحتى التّوجهات السياسية، ومن ثَم تُستغلّ هذه التحليلات لتوجيه المحادثات والمقترحات بشكل يخدم أهدافاً محددة، مثل حجز تذاكر السينما، أو التأثير على دعم مرشح سياسي.

ولفت الباحثون إلى أن كبرى شركات التكنولوجيا بدأت بالفعل في تبني هذه الاتجاهات. على سبيل المثال، أعلنت شركة «أوبن إيه آي» (OpenAI)، المطورة لروبوت الدردشة الشهير «تشات جي بي تي» عن حاجتها لبيانات تعكس النوايا البشرية، في حين أطلقت شركة «أبل» أُطر عملٍ جديدة تُتيح لتطبيقاتها توقّع تصرفات المستخدمين المستقبلية عبر مساعدها الشخصي «سيري». كما أعلنت شركة «إنفيديا» عن استخدام نماذج اللغة لفهم النوايا البشرية. وأصدرت شركة «ميتا» أبحاثاً تحت عنوان (Intentonomy) وهي بيانات مخصّصة لفهم النوايا البشرية.

من جانبه، قال الدكتور يعقوب شودري، الباحث الزائر في مركز «ليفرهولم» لمستقبل الذكاء في جامعة كامبريدج: «تُبذل موارد هائلة لدمج مساعدي الذكاء الاصطناعي في حياتنا اليومية، مما يُثير التساؤلات في مصالح هذه التقنيات وأهدافها».

وأضاف عبر موقع الجامعة: «ما يُقال في المحادثات، وكيف يُقال، والنتائج التي يُمكن استخلاصها في الوقت الفعلي، أكثر أهمية من مجرد سجلات التفاعلات الرقمية». وأردف أن «أدوات الذكاء الاصطناعي تُطوّر لجمع النوايا البشرية والتنبؤ بها واستغلالها وبيعها».

ويرى الباحثون أن «اقتصاد النوايا» قد يهدّد الانتخابات الحرة، والصحافة المستقلة، والمنافسة العادلة، ما لم يُنظّم بشكل صارم.