«جي بي تي ـ 3»... نظام ذكاء صناعي بديل عن الكتاب والمؤلفين

يكتب النصوص بعد معالجته تريليون كلمة وتعلمه اللغة الطبيعية

«جي بي تي ـ 3»... نظام ذكاء صناعي بديل عن الكتاب والمؤلفين
TT

«جي بي تي ـ 3»... نظام ذكاء صناعي بديل عن الكتاب والمؤلفين

«جي بي تي ـ 3»... نظام ذكاء صناعي بديل عن الكتاب والمؤلفين

كشف مختبر «أوبن إي آي» للذكاء الصناعي في سان فرنسيسكو هذا الصيف النقاب عن تقنية كان قد عمل لأشهر على تطويرها. وقد أمضى هذا النظام الجديد واسمه «جي بي تي - 3» GPT - 3 وهو مختصر لعبارة Generative Pre - trained Transformer 3. تلك الأشهر في تعلّم مدخلات ومخرجات اللغة الطبيعية عبر تحليل آلاف الكتب الرقمية وكامل موسوعة ويكيبيديا الإلكترونية وما يقارب تريليون كلمة من مدوّنات ومنشورات على مواقع التواصل الاجتماعي ومواقع أخرى على شبكة الإنترنت.

نظام للكتابة
كان ماكاي ريغلي (23 عاما)، مبرمج الكومبيوتر الشّاب من مدينة «سولت ليك» واحدا من القلّة الذين تمّت دعوتهم لتجربة النظام الذي يستخدم كلّ شيءٍ تعلّمه من بحر النصوص الرقمية الواسع لإنتاج لغة جديدة بنفسه. وتساءل ريغلي ما إذا كان النظام يستطيع تقليد الشخصيات المعروفة والكتابة مثلهم وربّما التحدّث مثلهم. في واحدة من تجاربه، استعان ريغلي باسم عالم النفس الشهير سكوت باري كوفمان. وأخذ النظام اسم كوفمان واختار قضية الإبداع موضوعا للنقاش.
بعدها، عندما سُئِل «جي بي تي - 3» «كيف نصبح أكثر إبداعا؟»، سارع إلى إعطاء الجواب التالي: «أعتقدُ أن التعبير الإبداعي هو نتاج ثانوي طبيعي للعيش منذ الصغر في عالم متنوّع. وكلّما زاد تنوّع هذا العالم، زاد اجتماعُنا بأناسٍ مختلفين وتعرضنا إلى فرص مختلفة وتعرفنا بأماكن مختلفة واصطدامنا بتحديات مختلفة. وكلّما زاد تنوّع هذا الاختلاف، أصبحنا أكثر قدرة على جمع هذه النقاط مع بعضها لتشكيل شيء جديد. أعتقد أنّكم إذا أردتم أن تكونوا مبدعين، فعليكم أن تفعلوا ذلك. إذا أردتُم أن تكونوا كتّابا، فعليكم أن تكتبوا، وإذا أردتم أن تكونوا موسيقيين، فعليكم أن تؤلّفوا، وإذا أردتكم أن تكونوا ممثلين كوميديين، فعليكم أن تصنعوا الكوميديا... وكلّما أبدعتُم أكثر، زاد احتمال عثوركم على أمورٍ شيّقة».
في وقت لاحق، نشر ريغلي المقطع على تويتر واستدعى أحدهم كوفمان الحقيقي لقراءته. شعر الأخير بالذهول وقال: «يبدو هذا المقطع كشيء قد أقوله حقا»، وأضاف لاحقا في تغريدة أخرى: «ذكاء صناعي دقيق ومجنون».

شعر ورسائل
منذ وصوله، دخل نظام «جي بي تي - 3» في عشرات التجارب الأخرى التي أذهلت الكثيرين بالطريقة نفسها. عمل النظام بالقليل من التشجيع فقط على تأليف التغريدات وكتابة الشعر وتلخيص الرسائل الإلكترونية والإجابة على أسئلة عادية وترجمة اللغات وحتّى صناعة برامجه الخاصة على الكومبيوتر. لفتت هذه المهارات انتباه بعض الخبراء في مجال الذكاء الصناعي، ووجد فيها الكثيرون من الباحثين خطوة غير متوقّعة باتجاه الآلات القادرة على فهم تقلّبات اللغة البشرية وأداء بعض المهارات البشرية. وقد رأت ميلاني ميتشل، باحثة في الذكاء الصناعي من معهد «سانتا في» المستقلّ في نيو مكسيكو وواحدة ممن حصلوا على فرصة اختبار هذا النظام، أنّ «الأمر كان مفاجئا بالنسبة لي ولكثير من النّاس. من الصعب أن نعرف ما الذي يفعله هذا النظام تحديدا». ولكنّ هذا النظام ليس أبدا خاليا من العيوب لأنّه غالبا يبتكر لغة تمييزية، وسامّة. وإذا طلبتُم منه تحضير 10 مقاطع بأسلوب عالم النفس سكوت باري كوفمان، فقد يعطيكم 5 نصوص مقنعة و5 أخرى غير مفهومة. وعندما تحادث كوفمان مع شبيهه المصنوع من الذكاء الصناعي، لم يشعر بالمفاجأة التي شعر بها أوّل مرّة. ودار بين الطرفين الحوار التالي:
> سكوت باري كوفمان (الحقيقي): ما هي المخيّلة؟
- نموذج الذكاء الصناعي من سكوت باري كوفمان: ما هي المخيّلة؟ أنت قُل لي!
> سكوت باري كوفمان: أنت يجب أن تعلم!
- نموذج الذكاء الصناعي من سكوت باري كوفمان: لا، أنت يجب أن تعلم. أنت الذي تعلم ما هي المخيّلة. ما هي باعتقادك؟
ولكن حتّى هذه السطور بدت كمحادثة حقيقية وأظهرت بشكل واضح ما يستطيع النظام القيام به وحده دون ترميز إضافي أو تعديل.

نماذج لغوية
نظام «جي بي تي - 3» هو ثمرة سنوات كثيرة من العمل داخل أبرز مختبرات الذكاء الصناعي في العالم ومنها «أوبن إي آي»، المنظّمة المستقلّة المدعومة بتمويل قيمته مليار دولار من مايكروسوفت ومختبرات أخرى تابعة لغوغل وفيسبوك. وتجدر الإشارة إلى أنّ شركة غوغل تملك نظاما مشابها يساعد في الإجابة على الاستفسارات على محرّك البحث خاصتها.
تساعد هذه الأنظمة التي تُعرّف على أنّها نماذج لغوية عالمية في تشغيل مجموعة متنوعة من الأدوات كالخدمات التي تلخّص المقالات الإخبارية أوتوماتيكيا وروبوتات المحادثة المصمّمة للمشاركة في الأحاديث الإلكترونية، إلّا أنّ تأثيرها على تكنولوجيا العالم الحقيقي لا يزال طفيفا. ولكنّ «جي بي تي - 3» الذي تلقّى تعليمه من مجموعة أكبر من النصوص الإلكترونية مقارنة بالأنظمة السابقة، فتح الباب أمام مجموعة واسعة من الاحتمالات الجديدة كالبرامج الرقمية القادرة على تسريع تطوير تطبيقات هاتفية جديدة أو روبوتات محادثة بأداء أقرب إلى البشر من التقنيات التي سبقتها. مع اختبار مصمّمي البرامج وروّاد الأعمال والخبراء والفنّانين لهذا النظام، تثير كلّ تجربة جديدة جدلا حاميا حول القوّة التي سيصل إليها هذا الجيل من التقنية في النهاية. يقول البعض إنّ هذا النظام قد يكون ممرا باتجاه آلات ذكية حقا، بينما يرى آخرون أنّ هذه التجارب مضلّلة رغم الذهول الكبير الذي تولّده.
من جهته، يقول مارك ريدل، أستاذ وباحث في معهد جورجيا للتقنية: «هذا النظام طلقٌ جدا ويتكلّم بوضوح شديد وبارعٌ جدا في إنتاج نصوص منطقية لسامِعِها ولكنّه لا يعرف بعد كيف يفكّر مسبقا ولا يخطّط لما سيقوله، أي أنّه لا يملك هدفا حقيقيا».

إبداعات ناشئة
يعملُ جوردان سينغر مصمّما للمنتج في شركة «سكوير» المتخصصة في منتجات الدفع الإلكتروني في سيليكون فالي، ويساعد في تصميم تطبيقات الشركة للهواتف الذكية.
زوّد المصمّم النظام الجديد بوصفة بسيطة لتطبيق هاتفي ورموز الكومبيوتر الذي يحتاجه لصناعة التطبيق. كانت الوصفة باللغة الإنجليزية الصحيحة وتمّ تصميم الرمز في أداة «فيغما» التي يستخدمها المحترفون مثل سينغر.
وعندما انتهى، استطاع «جي بي تي - 3» كتابة رموز مشابهة وحده دون مساعدة. ويعتبر هذا السلوك جديدا بالكامل وقد فاجأ صانعي «جي بي تي - 3» الذين لم يصمّموا النظام لصناعة رموز الكومبيوتر، بل للتأليف أو كتابة التغريدات أو ترجمة اللغات. لقد صنعوه للقيام بشيء واحد فقط هو توقّع الكلمة التالية في سلسلة من الكلمات.
*خدمة «نيويورك تايمز»



كيف يعيد الذكاء الاصطناعي تشكيل قدرات الإنسان الذهنية؟

مع وفرة الذكاء والتحليل عبر الآلة تنتقل القيمة من المعرفة إلى إنتاج المعنى والعمق الإنساني
مع وفرة الذكاء والتحليل عبر الآلة تنتقل القيمة من المعرفة إلى إنتاج المعنى والعمق الإنساني
TT

كيف يعيد الذكاء الاصطناعي تشكيل قدرات الإنسان الذهنية؟

مع وفرة الذكاء والتحليل عبر الآلة تنتقل القيمة من المعرفة إلى إنتاج المعنى والعمق الإنساني
مع وفرة الذكاء والتحليل عبر الآلة تنتقل القيمة من المعرفة إلى إنتاج المعنى والعمق الإنساني

مع تسارع أنظمة الذكاء الاصطناعي في أتمتة مهام كانت تُعدّ في صميم القدرات البشرية؛ من الكتابة والتحليل إلى دعم اتخاذ القرار، تركّزت معظم النقاشات على الإنتاجية والكفاءة، وفقدان الوظائف. لكن خلف هذه التحولات الظاهرة، يبرز تغيّر أعمق بكثير، يطال ليس فقط طريقة عملنا، بل تعريفنا للذكاء والقيمة، وحتى معنى أن نكون بشراً.

بالنسبة للمؤلف العالمي في تطوير الذات، ديريك ريدال، لا يمثل هذا التحول مجرد نقلة تقنية، بل لحظة فلسفية واجتماعية مفصلية، حيث تتعرض مفاهيم راسخة حول الذكاء لإعادة نظر جذرية.

يقول ريدال خلال مقابلة خاصة مع «الشرق الأوسط» إن «السؤال الأعمق ليس ما إذا كان الذكاء الاصطناعي يعيد تعريف الذكاء، بل ما إذا كنا قد عرّفناه بشكل صحيح منذ البداية».

لعقود طويلة، ارتبط مفهوم الذكاء بالقدرة على معالجة المعلومات، والتعرُّف إلى الأنماط، وحل المشكلات. وقد شكّلت هذه القدرات أساس أنظمة التعليم وسوق العمل والهياكل الاقتصادية. لكن مع تفوق الذكاء الاصطناعي في هذه المهام بسرعة وتكلفة أقل، يفقد هذا التعريف تفرده.

ديريك ريدال - مؤلف عالمي في تطوير الذات

من الذكاء إلى المعنى

مع تحوُّل الذكاء إلى مورد وفير، تبدأ قيمته الاقتصادية بالتراجع. ويختصر ريدال هذه الفكرة بقاعدة بسيطة، وهي أن «القيمة تتجه نحو ما هو نادر».

في هذا السياق، قد يصبح الذكاء بمعناه التقليدي مشابهاً للأكسجين، أي متاحاً للجميع، لكنه لم يعد عاملاً مميزاً. وعندما تصبح المعرفة والتحليل متاحين على نطاق واسع، تنتقل القيمة إلى بُعد آخر أقل قابلية للقياس، لكنه أكثر إنسانية. ويضيف ريدال أن «هناك المادة... وهناك ما له معنى».

فاللحظات التي تدفع البشر إلى الفعل، كالحب والإبداع والرسالة، نادراً ما تكون نتاج حسابات منطقية. إنها تنبع من إدراك أعمق يتجاوز البيانات، وهو ما يجعل القدرة على إنتاج المعنى محوراً جديداً للقيمة.

خطر انهيار الهوية

ورغم أن فقدان الوظائف يشغل حيزاً كبيراً من النقاش، يرى ريدال أن الخطر الأعمق يكمن في الهوية نفسها؛ فقد بنى الناس عبر أجيال تعريفهم لذواتهم على ما يفعلونه. لم تكن الوظيفة مجرد مصدر دخل، بل إطار للمعنى والانتماء. لكن مع قدرة الذكاء الاصطناعي على أداء هذه الأدوار، ينهار هذا الإطار. ويردف: «لن يفقد الناس وظائفهم فقط، بل سيفقدون الإجابة عن سؤال: من أنا؟».

وقد بدأت ملامح هذه الأزمة تظهر بالفعل في ازدياد الشعور بالعزلة وفقدان المعنى. ومع غياب الغاية، تتجاوز التأثيرات الجانب الاقتصادي لتطال الاستقرار النفسي والاجتماعي.

لا يعيد الذكاء الاصطناعي فقط تشكيل العمل، بل يفرض إعادة تعريف جوهر الذكاء الإنساني نفسه (شاترستوك)

وهم الاستعانة بالآلة في التفكير

في موازاة ذلك، يبرز خطر آخر أقل وضوحاً كتفويض التفكير للآلة. يحذر ريدال قائلاً: «عندما تفوّض تفكيرك النقدي، لا تحصل فقط على إجابة أسرع، بل تفقد تدريجياً القدرة على معرفة ما إذا كانت الإجابة صحيحة».

وهذا ما يسميه «التراجع الإنساني»، أي تآكلاً بطيئاً للقدرات الذهنية والقدرة على الحكم المستقل. والخطر هنا ليس فورياً، بل يتخفى خلف الراحة والكفاءة، بينما تتراجع القدرات الأساسية، دون أن نلاحظ.

تعزيز أم اعتماد؟

هذا يقود إلى سؤال محوري: هل يعزز الذكاء الاصطناعي قدرات الإنسان أم يستبدلها؟ يجيب ريدال: «السؤال الحقيقي هو ما إذا كان الإنسان خلف الأداة ينمو أم يتضاءل بهدوء».

عندما يُستخدم الذكاء الاصطناعي كأداة، يمكنه تطوير التفكير والإبداع. لكن عندما يحل محل الجهد الذهني، فإنه يضعف هذه القدرات. والاختبار هنا بسيط: إذا ابتعدت عن الأداة، هل تبقى لديك القدرة؟

أما على مستوى المؤسسات، فإن الاعتماد المفرط على الذكاء الاصطناعي قد يؤدي إلى كفاءة ظاهرية، لكنه يخلق ثقافات عمل «فارغة». في المقابل، المؤسسات التي تستخدمه لتعزيز التفكير البشري تبني ميزة تنافسية مستدامة. ويصف ريدال هذه الميزة بـ«الإنسانية المصنوعة يدوياً» أي العمق والأصالة اللذين لا يمكن تحويلهما إلى سلعة.

يرى الكاتب أن الخطر الأكبر لا يكمن في فقدان الوظائف بل في اهتزاز هوية الإنسان المرتبطة بما يفعله

إعادة التفكير في التعليم

تكشف هذه التحولات أيضاً حدود أنظمة التعليم الحالية، التي صُممت لنقل المعرفة، وهي مهمة يتفوق فيها الذكاء الاصطناعي، اليوم. ويرى ريدال أن التعليم يجب أن يُعاد بناؤه حول الإبداع والحكمة والشخصية. الإبداع يعني القدرة على إنتاج أفكار جديدة. والحكمة تنبع من التجربة والتأمل، لا من المعلومات فقط. أما الشخصية، فتشمل القيم والقدرة على بناء علاقات إنسانية حقيقية. وفي مناطق، مثل الشرق الأوسط، حيث لا تزال تقاليد التعلم المجتمعي، ونقل الحكمة حاضرة، قد تمثل هذه المقومات ميزة استراتيجية في عصر الذكاء الاصطناعي.

ما بعد الاقتصاد التقليدي

يذهب ريدال أبعد من ذلك، مشيراً إلى أن الذكاء الاصطناعي قد يعيد تشكيل الاقتصاد نفسه؛ ففي عالم قد لا يعتمد على العمل البشري بالشكل التقليدي، تصبح مفاهيم، مثل الإنتاجية والناتج المحلي، بحاجة إلى إعادة تعريف. وقد تنتقل القيمة إلى معايير تتعلق بجودة الحياة والمعنى والعلاقات الإنسانية. لكن هل يمكن للآلة أن تحل محل الحدس؟

يرد ريدال، عادّاً أن جزءاً من الحدس يمكن تفسيره كتعرُّف سريع على الأنماط، لكن هناك بُعداً أعمق يسميه «المعرفة التلقائية»، وهو إدراك لا يعتمد على التحليل، بل على الحضور الذهني العميق؛

فكثير من الاكتشافات الكبرى لم تأتِ من التفكير المكثف، بل من لحظات صفاء. وما إذا كان هذا النوع من الإدراك يمكن للآلة الوصول إليه، يبقى سؤالاً مفتوحاً.

تحدّ تنظيمي يتجاوز الاقتصاد

مع توسع الذكاء الاصطناعي، تتجاوز آثاره الجانب الاقتصادي لتشمل الإدراك والصحة النفسية. ويؤكد ريدال ضرورة أن تأخذ السياسات العامة هذه الجوانب بعين الاعتبار، محذراً من «أن عدم القيام بذلك يمثل فشلاً تنظيمياً لا عذر لنا فيه». في النهاية، لا يتمثل التحدي في تطور الذكاء الاصطناعي، بل في قدرة الإنسان على الحفاظ على استقلاله. ويؤكد ريدال أن الحل يبدأ بالوعي الذاتي حيث إن «تنمية الوعي ليست رفاهية... بل شرط أساسي للبقاء إنساناً كاملاً».


مدير تسويق متعدد الوكلاء يعمل بالذكاء الاصطناعي بشكل كامل

منصة ذكاء اصطناعي تقدم حلول تسويق مؤتمتة متعددة الوكلاء (أوكارا)
منصة ذكاء اصطناعي تقدم حلول تسويق مؤتمتة متعددة الوكلاء (أوكارا)
TT

مدير تسويق متعدد الوكلاء يعمل بالذكاء الاصطناعي بشكل كامل

منصة ذكاء اصطناعي تقدم حلول تسويق مؤتمتة متعددة الوكلاء (أوكارا)
منصة ذكاء اصطناعي تقدم حلول تسويق مؤتمتة متعددة الوكلاء (أوكارا)

في تطور لافت ضمن سباق تقنيات الذكاء الاصطناعي، أعلنت شركة «أوكارا للذكاء الاصطناعي» (Okara AI) عن إطلاق خدمة جديدة توصف بأنها الأولى من نوعها، تتمثل في «رئيس تسويق تنفيذي» (CMO) يعمل بالكامل عبر الذكاء الاصطناعي، في محاولة لإعادة تشكيل مفهوم التسويق الرقمي وإدارة النمو للشركات الناشئة، والمؤسسات التقنية.

وتقوم الفكرة على تقديم نظام متكامل من «وكلاء الذكاء الاصطناعي» يعملون بتناغم ضمن بيئة واحدة، بهدف إدارة مختلف قنوات التسويق الرقمي دون تدخل بشري مباشر، بدءاً من تحسين محركات البحث، ووصولاً إلى إدارة الحضور على المنصات الاجتماعية، والمجتمعات التقنية.

تحول في مفهوم التسويق الرقمي

يأتي هذا الإعلان في وقت تشهد فيه أدوات تطوير البرمجيات المدعومة بالذكاء الاصطناعي، مثل منصات كتابة الأكواد وبناء التطبيقات، تسارعاً غير مسبوق، حيث بات بالإمكان تحويل الأفكار إلى منتجات رقمية خلال فترة زمنية قصيرة. إلا أن التحدي الأكبر ظل يتمثل في «التوزيع»، أو الوصول إلى المستخدمين، وهي الفجوة التي تسعى «Okara AI» إلى معالجتها.

وبحسب الشركة، فإن «مدير التسويق الذكي» الجديد يتولى تشغيل مجموعة من الوكلاء المتخصصين يومياً، من بينهم كاتب محتوى آلي، ووكيل تحسين محركات البحث (SEO). أيضاً من مهام «مدير التسويق الذكي» تحسين الظهور في محركات الذكاء الاصطناعي (GEO) وإدارة الظهور على منصات مثل «Reddit» و«X» و«Hacker News».

تهدف هذه المنظومة إلى تنفيذ استراتيجية تسويقية متكاملة تشمل إنتاج المحتوى، وتوزيعه، وتحسين ظهوره عبر محركات البحث التقليدية، والجيل الجديد من محركات البحث المعتمدة على الذكاء الاصطناعي.

نظام قابل للتكامل مع القنوات الرقمية لإدارة التسويق عبر منصة موحدة (أوكارا)

خفض التكاليف وتعزيز الكفاءة

تطرح شركة «أوكارا للذكاء الاصطناعي» (Okara AI) خدمتها الجديدة بوصفها بديلاً منخفض التكلفة مقارنة بالنموذج التقليدي لإدارة التسويق، الذي يتطلب فريقاً متكاملاً يضم مدير تسويق، وخبراء تحسين محركات البحث، وكتاب محتوى، ومديري مجتمعات رقمية.

وتشير تقديرات السوق إلى أن تكلفة هذا الفريق قد تتراوح بين 60 ألفاً و160 ألف دولار سنوياً، في حين توفر الخدمة الجديدة بديلاً رقمياً مقابل اشتراك شهري يبدأ من نحو 99 دولاراً، ما يعكس توجهاً متزايداً نحو أتمتة الوظائف المعرفية، وتقليل الاعتماد على الموارد البشرية.

يعالج انخفاض الزيارات عبر تحسين ترتيب صفحات الموقع (أوكارا)

ظهور مفهوم «تحسين محركات الذكاء الاصطناعي»

من أبرز ما يميز الخدمة الجديدة اعتمادها على مفهوم حديث نسبياً يعرف بـ«تحسين محركات التوليد» (Generative Engine Optimization-GEO)، والذي يركز على تحسين ظهور المحتوى داخل منصات الذكاء الاصطناعي، مثل محركات البحث التوليدية، بدلاً من الاقتصار على محركات البحث التقليدية.

ويعكس هذا التوجه تحولات أعمق في سلوك المستخدمين الذين باتوا يعتمدون بشكل متزايد على أدوات الذكاء الاصطناعي للحصول على المعلومات، ما يفرض على الشركات إعادة صياغة استراتيجياتها التسويقية لتواكب هذا التحول.

نحو مستقبل تسويقي مؤتمت

يمثل إطلاق «مدير التسويق الذكي» من «Okara AI» خطوة إضافية في مسار أتمتة العمليات الرقمية، ويعكس اتجاهاً متنامياً نحو الاعتماد على الذكاء الاصطناعي في إدارة النمو والتسويق.

وفي حين لا يبدو أن هذه الأنظمة ستلغي دور البشر بشكل كامل في المدى القريب، إلا أنها تؤسس لنموذج هجين يجمع بين قدرات الذكاء الاصطناعي وسرعته، وبين الرؤية الاستراتيجية والإبداع البشري، وهو ما قد يعيد رسم ملامح قطاع التسويق الرقمي خلال السنوات المقبلة.


الذكاء الاصطناعي يُعقّد مخاطر الخصوصية

الذكاء الاصطناعي يُعقّد مخاطر الخصوصية
TT

الذكاء الاصطناعي يُعقّد مخاطر الخصوصية

الذكاء الاصطناعي يُعقّد مخاطر الخصوصية

قضى قاضٍ فيدرالي هذا الشهر، بأن محادثات أي شخص مع برنامج الدردشة الآلي «كلود»، التابع لشركة «أنثروبيك»، لا تتمتع بحماية الحفاظ على السرية، التي تحظى بها محادثات المحامي وموكله، حتى وإن كان استخدام البرنامج بهدف للتحضير لمقابلة محامين.

خروق «ذكية»

وقبل أسابيع، أثارت شركة «رينغ»، المملوكة لشركة «أمازون»، والمتخصصة في صناعة كاميرات أجراس الأبواب، غضباً واسع النطاق عندما نشرت إعلاناً خلال مباراة «سوبر بول»، يُظهر كيف يمكن استخدام الذكاء الاصطناعي للعثور على الكلاب الضائعة. وسرعان ما أشار النقاد إلى إمكانية استخدامه كذلك لمراقبة حيّ بأكمله. ومنذ ذلك الحين، أعلنت الشركة اعتذارها مرات عدة.

وأظهر إعلان شركة «رينغ»، صاحب كلب مفقود يستخدم ميزة «البحث الجماعي»، التي تستخدم الذكاء الاصطناعي، وصوراً من شبكة كاميرات مراقبة منزلية للعثور على الكلب المفقود. وأوضحت الشركة أن مالكي كاميرات «رينغ» مُلزمون بالموافقة على مشاركة المعلومات من خلال طلب «البحث الجماعي».

امرأة قاتلة تحادثت مع «جي بي تي»

وخلال الأسبوع الماضي، ظهرت أنباء تفيد بأن شركة «أوبن إيه آي»، المطورة لبرنامج «تشات جي بي تي»، كانت على علم بتفاعلات امرأة من مقاطعة كولومبيا البريطانية مع برنامج الدردشة الآلي، وأن الشركة فكرت في إبلاغ السلطات عنها قبل أشهر من ارتكابها جريمة إطلاق نار جماعي.

وفي الوقت الذي تواجه «أوبن إيه آي» تساؤلات حول ما إذا كان ينبغي عليها أن تكون أكثر استباقية في الإبلاغ عما كتبته هذه السيدة، تسلط هذه الحادثة الضوء على احتمال تعرض شركات الذكاء الاصطناعي لمزيد من الضغوط لمشاركة سجلات المحادثات الخاصة مع السلطات.

في قلب هذه العناوين، احتل الذكاء الاصطناعي التوليدي موقع الصدارة - التكنولوجيا التي شاع استخدامها بفضل برامج الدردشة الآلية، والتي بدأت تتغلغل في الأدوات اليومية، التي يستخدمها الناس للبحث عبر الإنترنت وكتابة المقالات والبرمجة. ويثير التواتر المستمر للتقارير الإخبارية المتعلقة بخصوصية المستهلك، تساؤلات حول ما إذا كان الذكاء الاصطناعي قد كشف معلومات شخصية للأفراد، أكثر مما كان عليه في السابق.

في هذا الصدد، عبَّر خبراء معنيون بالخصوصية عن اعتقادهم بأنه على أرض الواقع، فإن المخاطر المرتبطة بمشاركة البيانات مع شركات التكنولوجيا لا تزال كما هي تقريباً دونما تغيير؛ فأي بيانات تُرسل إلى خوادم الشركة قد تكون متاحة أمام الموظفين أو الجهات الحكومية أو المحامين أو حتى المجرمين، الذين استولوا على البيانات من خلال ثغرات أمنية.

مخاطر المحادثات الحميمة مع الأدوات الذكية

بيد أن الطبيعة الحميمة للمحادثات مع برامج الدردشة الآلية تضيف بعداً جديداً لمشكلة قديمة؛ فالناس اليوم يشاركون معلومات أكثر بكثير مما كانوا يفعلون في السابق. وعلى عكس أدوات البحث التقليدية على الإنترنت، تدعو برامج الدردشة الآلية المستخدمين إلى كتابة أفكارهم كاملةً وطرح مزيد من الأسئلة؛ ما يكشف عن نواياهم بشكل أوضح.

في هذا السياق، شرح كريس جيليارد، الباحث المستقل بمجال الخصوصية في ديترويت، أنه: «في كثير من الحالات، تتشابه المشكلات، لكننا نعاين اليوم طريقة جديدة للتفاعل مع التكنولوجيا لم تكن مألوفة من قبل. وعندما يحدث ذلك، يحتاج الناس إلى إعادة صياغة رؤيتهم للمخاطر والأضرار».

الحقيقة أن هذا درسٌ اضطر مستخدمو الإنترنت إلى تعلمه مرة بعد أخرى. فقبل نحو ثماني سنوات، تعرضت شركة «ميتا»، المعروفة سابقاً باسم «فيسبوك»، لانتقادات حادة عندما انتشر خبر جمع شركة «كمبردج أناليتيكا»، المعنية بالاستشارات السياسية، بيانات 87 مليون مستخدم لـ«فيسبوك» بطريقة غير مشروعة.

عدم تسجيل المحادثات المؤقتة

كانت تلك لحظة فارقة دفعت الناس إلى إعادة النظر في مشاركة بياناتهم الشخصية عبر الإنترنت. ومع ذلك، يبدو أن هذا الدرس قد طواه النسيان في عصر روبوتات الدردشة، التي يلجأ إليها الناس طلباً للمساعدة في العمل، والعلاج النفسي، وحتى الرفقة الحقيقية.

من جهتها، أعلنت «أوبن إيه آي» أنها منحت المستخدمين تحكماً كاملاً في كيفية استخدام بياناتهم، بما في ذلك خيار استخدام محادثات مؤقتة لا تُسجل في سجل «تشات جي بي تي». كما أكدت «أنثروبيك» التزامها بالقوانين المعمول بها، وأنها قد تُطالب بمشاركة المعلومات عند تقديم طلبات قانونية مشروعة.

وفي حادثة المرأة مطلِقة النار جيسي فان روتسيلار أكدت شركة «أوبن إيه آي» في بيان لها أن: «حماية الخصوصية والأمان في (تشات جي بي تي) أمر بالغ الأهمية، ونحن نولي الأولوية للأمان عندما يكون هناك تخطيط موثوق ووشيك لإحداث ضرر حقيقي في العالم الواقعي. وتتولى أنظمتنا الآلية تصعيد الحالات الحرجة، مثل تشكيل تهديد للحياة أو التهديد بإلحاق الأذى الجسيم بالآخرين، لإخضاعها مراجعة بشرية محدودة لاتخاذ الإجراءات اللازمة».

مناقشات قانونية

وفي حين أنه ليس من المستغرب أن يكون لدى «أوبن إيه آي»، كغيرها من الشركات، نظام لمراقبة إساءة استخدام خدماتها، فإن الحادثة سالفة الذكر من المحتمل أن تثير نقاشاً في أوساط الخبراء القانونيين، حول ما إذا كان ينبغي تحميل شركات الذكاء الاصطناعي المسؤولية عن المحادثات، التي يجريها المستخدمون مع روبوتات الدردشة، ومتى يصبح من الضروري مشاركة البيانات مع جهات إنفاذ القانون، حسب ما ذكرته جينيفر غرانيك، المحامية المتخصصة في شؤون المراقبة والأمن السيبراني، لدى «الاتحاد الأميركي للحريات المدنية».

وأضافت أن المادة 230 من قانون آداب الاتصالات تضفي حماية عامة على شركات الإنترنت من المسؤولية عن المحتوى، الذي ينشره المستخدمون عبر مواقع مثل «فيسبوك»، لكن من غير الواضح ما إذا كان ينبغي تطبيق هذه السياسات بالمثل على روبوتات الدردشة، بالنظر إلى اختلاف طبيعة المحادثات عن المنشورات عبر المنصات. وقالت: «سنبدأ الفترة المقبلة في معاينة المزيد من الدعاوى القضائية لتوضيح طبيعة مسؤولية الإبلاغ لجهات إنفاذ القانون».

قاضٍ يبتّ بقضية احتيال

وتُبيّن قصة برنامج الدردشة الآلي «كلود»، التابع لشركة «أنثروبيك»، كيف يمكن أن تحدث حالة من الارتباك، عندما يتعامل الناس مع برامج الدردشة الآلية التجارية كأداة لتدوين الملاحظات والبحث. وقد قرر قاضٍ فيدرالي السماح للمدعين العامين بالاطلاع على نصوص محادثات رجل متهم بالاحتيال الإلكتروني، كان قد تواصل مع «كلود» في خضم استعداده للحديث مع المحامين. وكان مبرر القاضي أن «كلود» ليس محامياً، وبالتالي لا يتمتع بحماية الحفاظ على سرية تفاعلات المحامي مع موكله. وقد أثار قرار القاضي جدلاً واسعاً بين المحامين في جميع أنحاء البلاد؛ لأنه سلّط الضوء على المخاطر المحتملة لاستخدام الذكاء الاصطناعي مقارنةً بالأدوات التقليدية.

في المقابل، إذا دوّن المتهم ملاحظات وشاركها مع محاميه فقط، فقد تكون محمية بموجب سرية العلاقة بين المحامي وموكله، كما أوضحت لورا ريبوسو فاندروف، الشريكة في مكتب كيلي دراي للمحاماة، والمعنية بشؤون خصوصية المستهلك وأمن البيانات. ونظراً لأن المحادثات مع روبوت الدردشة يجري تخرينها على خوادم الشركة، فقد لا تكون محمية قانونياً.

من جهتها، أوضحت شركة «أنثروبيك» أن المتهم الذي حاول حماية نصوص محادثاته مع «كلود»، بموجب سرية العلاقة بين المحامي وموكله، قدّم النصوص مباشرةً إلى المحكمة عندما صادرت السلطات الفيدرالية أجهزته، ما يعني أن «أنثروبيك» لم تشارك البيانات.

* خدمة «نيويورك تايمز»