كيف تجمع أدوات الذكاء الاصطناعي بياناتك عبر الأجهزة؟

نصائح حول الحفاظ على الخصوصية بانتقاء المشاركات والرسائل

كيف تجمع أدوات الذكاء الاصطناعي بياناتك عبر الأجهزة؟
TT

كيف تجمع أدوات الذكاء الاصطناعي بياناتك عبر الأجهزة؟

كيف تجمع أدوات الذكاء الاصطناعي بياناتك عبر الأجهزة؟

كيف يجمع الذكاء الاصطناعي بياناتك، وكيف تكون حذراً؟ لقد اندمج الذكاء الاصطناعي بسلاسة في حياتنا اليومية، وأخذ يؤثر على كيفية تفاعلنا مع التكنولوجيا، وهو يراقب صحتنا، بل وحتى يؤدي مهام أساسية.

من شفرات الحلاقة وفرش الأسنان الكهربائية المزودة بالذكاء الاصطناعي إلى أدوات الذكاء الاصطناعي المستخدمة في التوليد والتنبؤ، أصبحت تلك الأنظمة لا غنى عنها. مع ذلك يثير الاستخدام واسع الانتشار للذكاء الاصطناعي أيضاً مخاوف بشأن خصوصية البيانات، حيث كثيراً ما تجمع تلك التكنولوجيا قدراً هائلاً من المعلومات الشخصية.

الذكاء الاصطناعي في الحياة اليومية

وجد الذكاء الاصطناعي طريقه إلى العديد من الأجهزة سواء كانت أساسية أو غير أساسية، ومن بينها أجهزة تتبع اللياقة البدنية والساعات الذكية التي تراقب الأنشطة الروتينية اليومية، أو مساعدات الذكاء الاصطناعي، مثل «تشات جي بي تي» و«مايكروسوفت كوبايلوت»، التي تجيب عن الاستفسارات وتساعد في إنشاء أي محتوى. وتعتمد تلك الأدوات على جمع البيانات للوصول إلى أفضل أداء وتزويد المستخدمين بتجارب ذات طابع شخصي. كذلك تستخدم أجهزة بسيطة مثل الفرش الكهربائية حالياً خوارزميات التعلم الآلي لتتبع أنماط الاستخدام وتقديم تغذية راجعة في الوقت الفعلي.

في الوقت الذي يقدّر فيه الكثيرون ما يقدمه الذكاء الاصطناعي من راحة ونفع، تثير عملية جمع البيانات التي تغذي هذه الأنظمة مخاوف كبيرة بشأن الخصوصية، إذ كثيراً ما يكون المستخدمون غير واعين تماماً بمدى وطبيعة البيانات التي يتم جمعها.

ويمكن لتلك البيانات الكشف عن العادات والأمور المفضلة، بل وحتى توقع السلوكيات المستقبلية، مما يمثل فرصاً ومخاطر في آن واحد.

كيف يجمع الذكاء الاصطناعي البيانات؟

أنظمة الذكاء الاصطناعي مصممة لجمع البيانات بطرق متنوعة بحسب وظيفتها. وتُعرف أدوات الذكاء الاصطناعي المستخدمة في التوليد والتنبؤ، بوجه خاص، بطرقها في جمع المعلومات.

* أدوات الذكاء الاصطناعي التوليدي. تعتمد أنظمة الذكاء الاصطناعي التوليدي، مثل «تشات جي بي تي» و«غوغل جيميناي»، في عملها على كميات كبيرة من البيانات. وعندما يتفاعل المستخدمون مع هذه الأدوات، يتم تسجيل أو تخزين أو تحليل كل مُدخل أو معطى، سواء كان سؤالاً أو أمرأً أو رداً، لتعزيز أداء نموذج الذكاء الاصطناعي.

وتنص سياسة الخصوصية لمؤسسة «أوبن إيه أي» المنتجة لـ «جي بي تي» صراحةً على احتمال استخدام المحتوى، الذي يقدمه المستخدمون، من أجل تحسين خدماتها وتدريب النماذج التي يعتمد عليها «تشات جي بي تي». وبينما يمكن للمستخدمين الانسحاب من الإسهام ببياناتهم في تدريب النموذج، تجمع مؤسسة «أوبن إيه آي» البيانات الشخصية وتحتفظ بها.

كذلك ورغم زعم الشركات استخدام هذه البيانات دون تحديد هوية أو تعريف، حيث تحذف كل ما يصلها بأفراد بعينهم، تظل هناك مخاطرة بإعادة الهوية إلى تلك البيانات. وقد يكشف ذلك عادات شخصية، أو أموراً مفضلة، أو معلومات حسّاسّة في حال إساءة استخدام البيانات أو انتهاكها.

* أدوات الذكاء الاصطناعي التنبؤي. إضافة إلى الذكاء الاصطناعي التوليدي، تضطلع أنظمة الذكاء الاصطناعي التنبؤي بدور كبير في جمع البيانات. وتعدّ مواقع التواصل الاجتماعي مثل الـ«فيسبوك» و«إنستغرام» و«تيك توك» من الأمثلة البارزة، حيث تجمع تلك المواقع باستمرار بيانات عن المستخدمين، وتلتقط وتسجل كل تفاعل سواء كان إعجاب بمنشور، أو تعليق على مقطع مصور، أو الوقت الذي يقضيه المستخدم في مشاهدة محتوى محدد. ويُستخدم كل فعل كنقطة بيانات داخل الصفحة الشخصية الرقمية للفرد.

لا تستخدم تلك الصفحات الشخصية في تنقيح أنظمة توصية الذكاء الاصطناعي، التي تقترح محتوى متوافقاً مع تفضيلات المستخدم فحسب، بل يتم بيعها إلى وسطاء البيانات، الذين يبيعون بدورهم هذه المعلومات إلى شركات تستخدمها لأغراض مثل الإعلانات الموجهة. ينشيء ذلك بيئة يتم تحويل فيها البيانات الشخصية إلى سلعة.

تبعات جمع البيانات

يمكن أن تتمتع البيانات، التي تجمعها أنظمة الذكاء الاصطناعي، بقوة هائلة، حيث تمكّن النماذج التنبؤية من تقديم توقعات دقيقة بشأن سلوك المستخدمين، ويستخدم الذكاء الاصطناعي التوليدي البيانات من أجل إنشاء محتوى جديد، مثل الاستجابات المعدّلة حسب الطلب أو الأعمال الإبداعية، في حين يستعين الذكاء الاصطناعي التنبؤي ببيانات تاريخية لتوقع أفعال مستقبلية مثل تحديد كيفية تحقيق شخص ما هدف من أهداف اللياقة البدنية، أو توقع ما يفضله من أفلام.

على الجانب الآخر، يؤدي الاعتماد المتزايد على البيانات إلى نقاط ضعف، حيث يمكن أن يتسبب جمع البيانات الشخصية في عملية توسعية في جمع المعلومات تطلّع فيها شركات أو أطراف غير مصرح لها على جوانب شخصية لحياة الأفراد. كذلك تزيد خطر انتهاك البيانات، حيث يمكن أن تتعرض معلومات حسّاسّة إلى الكشف أو الاستغلال.توصيات الحفاظ على خصوصية البيانات

في ظل استمرار تطور الذكاء الاصطناعي، من المهم بالنسبة إلى المستخدمين توخي الحذر بشأن خصوصية بياناتهم. فيما يلي بعض الإجراءات التي ينبغي النظر فيها:

* فهم سياسات الخصوصية: خذ الوقت الكافي لقراءة وفهم سياسات الخصوصية الخاصة بأدوات الذكاء الاصطناعي والمواقع. ربما تمكنك معرفة كيفية جمع وتخزين واستخدام بياناتك من اتخاذ قرارات واعية.

* خيارات الانسحاب: حاول الانسحاب من عملية المساهمة ببياناتك لأغراض مثل تدريب النماذج، حين يكون ذلك متاحاً. في الوقت الذي قد لا يمنع ذلك عملية جمع البيانات بشكل كامل، يمكنه أن يحدّ ويقيد كيفية استخدام بياناتك.

* الحد من مشاركة البيانات قدر الإمكان: كنّ انتقائياً فيما يتعلق بالمعلومات التي تشاركها مع أدوات الذكاء الاصطناعي. والتزم بالمدخلات الأساسية، واحرص على تفادي تقديم تفاصيل شخصية حسّاسّة.

* أستاذ مساعد للأمن السيبراني في جامعة ويست فرجينيا، مجلة «فاست كومباني»، خدمات «تريبيون ميديا».

* تعديل إعدادات الخصوصية: احرص على تعديل إعدادات الخصوصية الموجودة في مواقع التواصل الاجتماعي وغيرها من المنصات من أجل تقييد قدر البيانات التي تكون مرئية أو معلنة.

* استخدام أدوات للمحافظة على الخصوصية: تركز الوسائل التكنولوجية الناشئة على إنشاء أنظمة آمنة تمنح خصوصية المستخدمين الأولوية. اسع وراء الأدوات التي تتماشى مع تلك المبادئ.

بناء مستقبل ذكاء اصطناعي آمن

بوصفي متخصصاً في الأمن السيبراني أؤكد أن هناك حاجة ملّحة إلى أنظمة قوية تحافظ على الخصوصية. كما أن البحث في هذا المجال ضروري وحيوي لتطوير وسائل تكنولوجية تحقق التوازن بين الابتكار وحماية الحقوق الشخصية.

لا يكمن التحدي في تصميم أنظمة آمنة فقط، لكن أيضاً في تعزيز ودعم الشفافية والمساءلة بين الشركات التي تطور تكنولوجيا الذكاء الاصطناعي. كما أن ضمان أخلاقية ممارسات جمع البيانات واحترامها لخصوصية المستخدمين سيكون ضرورياً للحفاظ على ثقة الناس في الذكاء الاصطناعي.

وأخيراً، فإن الذكاء الاصطناعي يتمتع بإمكانية تحويل حياة البشر إلى الأفضل من خلال تحسين الفعالية والكفاءة والراحة واليسر وإضفاء الطابع الشخصي. مع ذلك يتطلب جمع واستخدام البيانات الشخصية على نطاق واسع من جانب أدوات الذكاء الاصطناعي اليقظة والحذر. ويمكن للأفراد اتخاذ قرارات واعية بدرجة أكبر بشأن ما يستخدمونه من وسائل تكنولوجية من خلال فهم كيفية عمل تلك الأنظمة واتخاذ خطوات لحماية الخصوصية.

يكمن مستقبل الذكاء الاصطناعي في تحقيق توازن بين تسخير واستغلال قدراته واحترام الحق الأساسي في الخصوصية. ومن الممكن تشكيل أنظمة ذكاء اصطناعي قوية وأخلاقية وآمنة في الوقت ذاته من خلال الجهود الفعالة والابتكار المتواصل.

* أستاذ مساعد للأمن السيبراني في جامعة ويست فرجينيا، مجلة «فاست كومباني»، خدمات «تريبيون ميديا».


مقالات ذات صلة

كيف يعيد الذكاء الاصطناعي تشكيل قدرات الإنسان الذهنية؟

خاص مع وفرة الذكاء والتحليل عبر الآلة تنتقل القيمة من المعرفة إلى إنتاج المعنى والعمق الإنساني

كيف يعيد الذكاء الاصطناعي تشكيل قدرات الإنسان الذهنية؟

يعيد الذكاء الاصطناعي تعريف الذكاء وينقل القيمة للمعنى مهدداً الهوية والتفكير النقدي فارضاً إعادة تصور التعليم والاقتصاد ودور الإنسان مستقبلاً

نسيم رمضان (لندن)
تكنولوجيا منصة ذكاء اصطناعي تقدم حلول تسويق مؤتمتة متعددة الوكلاء (أوكارا)

مدير تسويق متعدد الوكلاء يعمل بالذكاء الاصطناعي بشكل كامل

يحاول الابتكار إعادة تشكيل مفهوم التسويق الرقمي وإدارة النمو للشركات الناشئة، والمؤسسات التقنية.

عبد العزيز الرشيد (الرياض)
خاص سيارة في أحد المواقف الذكية التابعة لمشروع «مواقف الرياض» (أمانة منطقة الرياض)

خاص «مواقف الرياض»... تحول ذكي يرفع القيمة الاقتصادية للعاصمة

تواصل مدينة الرياض تطوير منظومة مواقف السيارات ضمن توجهات رفع كفاءة البنية التحتية الحضرية، وتحسين تجربة التنقل، في خطوة تهدف إلى تنظيم المواقف، وتقليل الازدحام

دانه الدريس (الرياض)
خاص تنتشر المعلومات المضللة بسرعة كبيرة على وسائل التواصل الاجتماعي خلال الأزمات والصراعات (شاترستوك)

خاص الصور والفيديوهات المفبركة في زمن الحروب… كيف نميّز الحقيقة من التزييف؟

تصاعد الأخبار الزائفة والتزييف العميق خلال الأزمات يتطلب وعياً رقمياً والتحقق من المصادر والصور والفيديوهات قبل مشاركة المعلومات.

نسيم رمضان (لندن)
تكنولوجيا الذكاء الاصطناعي يحلل التقييمات والصور لاقتراح أماكن «مدونة غوغل»

ميزات جديدة في «خرائط غوغل» تحول التطبيق إلى مساعد ذكي للتنقل

تشهد خدمات الخرائط الرقمية تحولاً متسارعاً مع دخول تقنيات الذكاء الاصطناعي إلى صلب تجربة المستخدم، في خطوة تسعى من خلالها الشركات التقنية إلى إعادة تعريف مفهوم…

عبد العزيز الرشيد (الرياض)

كيف يعيد الذكاء الاصطناعي تشكيل قدرات الإنسان الذهنية؟

مع وفرة الذكاء والتحليل عبر الآلة تنتقل القيمة من المعرفة إلى إنتاج المعنى والعمق الإنساني
مع وفرة الذكاء والتحليل عبر الآلة تنتقل القيمة من المعرفة إلى إنتاج المعنى والعمق الإنساني
TT

كيف يعيد الذكاء الاصطناعي تشكيل قدرات الإنسان الذهنية؟

مع وفرة الذكاء والتحليل عبر الآلة تنتقل القيمة من المعرفة إلى إنتاج المعنى والعمق الإنساني
مع وفرة الذكاء والتحليل عبر الآلة تنتقل القيمة من المعرفة إلى إنتاج المعنى والعمق الإنساني

مع تسارع أنظمة الذكاء الاصطناعي في أتمتة مهام كانت تُعدّ في صميم القدرات البشرية؛ من الكتابة والتحليل إلى دعم اتخاذ القرار، تركّزت معظم النقاشات على الإنتاجية والكفاءة، وفقدان الوظائف. لكن خلف هذه التحولات الظاهرة، يبرز تغيّر أعمق بكثير، يطال ليس فقط طريقة عملنا، بل تعريفنا للذكاء والقيمة، وحتى معنى أن نكون بشراً.

بالنسبة للمؤلف العالمي في تطوير الذات، ديريك ريدال، لا يمثل هذا التحول مجرد نقلة تقنية، بل لحظة فلسفية واجتماعية مفصلية، حيث تتعرض مفاهيم راسخة حول الذكاء لإعادة نظر جذرية.

يقول ريدال خلال مقابلة خاصة مع «الشرق الأوسط» إن «السؤال الأعمق ليس ما إذا كان الذكاء الاصطناعي يعيد تعريف الذكاء، بل ما إذا كنا قد عرّفناه بشكل صحيح منذ البداية».

لعقود طويلة، ارتبط مفهوم الذكاء بالقدرة على معالجة المعلومات، والتعرُّف إلى الأنماط، وحل المشكلات. وقد شكّلت هذه القدرات أساس أنظمة التعليم وسوق العمل والهياكل الاقتصادية. لكن مع تفوق الذكاء الاصطناعي في هذه المهام بسرعة وتكلفة أقل، يفقد هذا التعريف تفرده.

ديريك ريدال - مؤلف عالمي في تطوير الذات

من الذكاء إلى المعنى

مع تحوُّل الذكاء إلى مورد وفير، تبدأ قيمته الاقتصادية بالتراجع. ويختصر ريدال هذه الفكرة بقاعدة بسيطة، وهي أن «القيمة تتجه نحو ما هو نادر».

في هذا السياق، قد يصبح الذكاء بمعناه التقليدي مشابهاً للأكسجين، أي متاحاً للجميع، لكنه لم يعد عاملاً مميزاً. وعندما تصبح المعرفة والتحليل متاحين على نطاق واسع، تنتقل القيمة إلى بُعد آخر أقل قابلية للقياس، لكنه أكثر إنسانية. ويضيف ريدال أن «هناك المادة... وهناك ما له معنى».

فاللحظات التي تدفع البشر إلى الفعل، كالحب والإبداع والرسالة، نادراً ما تكون نتاج حسابات منطقية. إنها تنبع من إدراك أعمق يتجاوز البيانات، وهو ما يجعل القدرة على إنتاج المعنى محوراً جديداً للقيمة.

خطر انهيار الهوية

ورغم أن فقدان الوظائف يشغل حيزاً كبيراً من النقاش، يرى ريدال أن الخطر الأعمق يكمن في الهوية نفسها؛ فقد بنى الناس عبر أجيال تعريفهم لذواتهم على ما يفعلونه. لم تكن الوظيفة مجرد مصدر دخل، بل إطار للمعنى والانتماء. لكن مع قدرة الذكاء الاصطناعي على أداء هذه الأدوار، ينهار هذا الإطار. ويردف: «لن يفقد الناس وظائفهم فقط، بل سيفقدون الإجابة عن سؤال: من أنا؟».

وقد بدأت ملامح هذه الأزمة تظهر بالفعل في ازدياد الشعور بالعزلة وفقدان المعنى. ومع غياب الغاية، تتجاوز التأثيرات الجانب الاقتصادي لتطال الاستقرار النفسي والاجتماعي.

لا يعيد الذكاء الاصطناعي فقط تشكيل العمل، بل يفرض إعادة تعريف جوهر الذكاء الإنساني نفسه (شاترستوك)

وهم الاستعانة بالآلة في التفكير

في موازاة ذلك، يبرز خطر آخر أقل وضوحاً كتفويض التفكير للآلة. يحذر ريدال قائلاً: «عندما تفوّض تفكيرك النقدي، لا تحصل فقط على إجابة أسرع، بل تفقد تدريجياً القدرة على معرفة ما إذا كانت الإجابة صحيحة».

وهذا ما يسميه «التراجع الإنساني»، أي تآكلاً بطيئاً للقدرات الذهنية والقدرة على الحكم المستقل. والخطر هنا ليس فورياً، بل يتخفى خلف الراحة والكفاءة، بينما تتراجع القدرات الأساسية، دون أن نلاحظ.

تعزيز أم اعتماد؟

هذا يقود إلى سؤال محوري: هل يعزز الذكاء الاصطناعي قدرات الإنسان أم يستبدلها؟ يجيب ريدال: «السؤال الحقيقي هو ما إذا كان الإنسان خلف الأداة ينمو أم يتضاءل بهدوء».

عندما يُستخدم الذكاء الاصطناعي كأداة، يمكنه تطوير التفكير والإبداع. لكن عندما يحل محل الجهد الذهني، فإنه يضعف هذه القدرات. والاختبار هنا بسيط: إذا ابتعدت عن الأداة، هل تبقى لديك القدرة؟

أما على مستوى المؤسسات، فإن الاعتماد المفرط على الذكاء الاصطناعي قد يؤدي إلى كفاءة ظاهرية، لكنه يخلق ثقافات عمل «فارغة». في المقابل، المؤسسات التي تستخدمه لتعزيز التفكير البشري تبني ميزة تنافسية مستدامة. ويصف ريدال هذه الميزة بـ«الإنسانية المصنوعة يدوياً» أي العمق والأصالة اللذين لا يمكن تحويلهما إلى سلعة.

يرى الكاتب أن الخطر الأكبر لا يكمن في فقدان الوظائف بل في اهتزاز هوية الإنسان المرتبطة بما يفعله

إعادة التفكير في التعليم

تكشف هذه التحولات أيضاً حدود أنظمة التعليم الحالية، التي صُممت لنقل المعرفة، وهي مهمة يتفوق فيها الذكاء الاصطناعي، اليوم. ويرى ريدال أن التعليم يجب أن يُعاد بناؤه حول الإبداع والحكمة والشخصية. الإبداع يعني القدرة على إنتاج أفكار جديدة. والحكمة تنبع من التجربة والتأمل، لا من المعلومات فقط. أما الشخصية، فتشمل القيم والقدرة على بناء علاقات إنسانية حقيقية. وفي مناطق، مثل الشرق الأوسط، حيث لا تزال تقاليد التعلم المجتمعي، ونقل الحكمة حاضرة، قد تمثل هذه المقومات ميزة استراتيجية في عصر الذكاء الاصطناعي.

ما بعد الاقتصاد التقليدي

يذهب ريدال أبعد من ذلك، مشيراً إلى أن الذكاء الاصطناعي قد يعيد تشكيل الاقتصاد نفسه؛ ففي عالم قد لا يعتمد على العمل البشري بالشكل التقليدي، تصبح مفاهيم، مثل الإنتاجية والناتج المحلي، بحاجة إلى إعادة تعريف. وقد تنتقل القيمة إلى معايير تتعلق بجودة الحياة والمعنى والعلاقات الإنسانية. لكن هل يمكن للآلة أن تحل محل الحدس؟

يرد ريدال، عادّاً أن جزءاً من الحدس يمكن تفسيره كتعرُّف سريع على الأنماط، لكن هناك بُعداً أعمق يسميه «المعرفة التلقائية»، وهو إدراك لا يعتمد على التحليل، بل على الحضور الذهني العميق؛

فكثير من الاكتشافات الكبرى لم تأتِ من التفكير المكثف، بل من لحظات صفاء. وما إذا كان هذا النوع من الإدراك يمكن للآلة الوصول إليه، يبقى سؤالاً مفتوحاً.

تحدّ تنظيمي يتجاوز الاقتصاد

مع توسع الذكاء الاصطناعي، تتجاوز آثاره الجانب الاقتصادي لتشمل الإدراك والصحة النفسية. ويؤكد ريدال ضرورة أن تأخذ السياسات العامة هذه الجوانب بعين الاعتبار، محذراً من «أن عدم القيام بذلك يمثل فشلاً تنظيمياً لا عذر لنا فيه». في النهاية، لا يتمثل التحدي في تطور الذكاء الاصطناعي، بل في قدرة الإنسان على الحفاظ على استقلاله. ويؤكد ريدال أن الحل يبدأ بالوعي الذاتي حيث إن «تنمية الوعي ليست رفاهية... بل شرط أساسي للبقاء إنساناً كاملاً».


مدير تسويق متعدد الوكلاء يعمل بالذكاء الاصطناعي بشكل كامل

منصة ذكاء اصطناعي تقدم حلول تسويق مؤتمتة متعددة الوكلاء (أوكارا)
منصة ذكاء اصطناعي تقدم حلول تسويق مؤتمتة متعددة الوكلاء (أوكارا)
TT

مدير تسويق متعدد الوكلاء يعمل بالذكاء الاصطناعي بشكل كامل

منصة ذكاء اصطناعي تقدم حلول تسويق مؤتمتة متعددة الوكلاء (أوكارا)
منصة ذكاء اصطناعي تقدم حلول تسويق مؤتمتة متعددة الوكلاء (أوكارا)

في تطور لافت ضمن سباق تقنيات الذكاء الاصطناعي، أعلنت شركة «أوكارا للذكاء الاصطناعي» (Okara AI) عن إطلاق خدمة جديدة توصف بأنها الأولى من نوعها، تتمثل في «رئيس تسويق تنفيذي» (CMO) يعمل بالكامل عبر الذكاء الاصطناعي، في محاولة لإعادة تشكيل مفهوم التسويق الرقمي وإدارة النمو للشركات الناشئة، والمؤسسات التقنية.

وتقوم الفكرة على تقديم نظام متكامل من «وكلاء الذكاء الاصطناعي» يعملون بتناغم ضمن بيئة واحدة، بهدف إدارة مختلف قنوات التسويق الرقمي دون تدخل بشري مباشر، بدءاً من تحسين محركات البحث، ووصولاً إلى إدارة الحضور على المنصات الاجتماعية، والمجتمعات التقنية.

تحول في مفهوم التسويق الرقمي

يأتي هذا الإعلان في وقت تشهد فيه أدوات تطوير البرمجيات المدعومة بالذكاء الاصطناعي، مثل منصات كتابة الأكواد وبناء التطبيقات، تسارعاً غير مسبوق، حيث بات بالإمكان تحويل الأفكار إلى منتجات رقمية خلال فترة زمنية قصيرة. إلا أن التحدي الأكبر ظل يتمثل في «التوزيع»، أو الوصول إلى المستخدمين، وهي الفجوة التي تسعى «Okara AI» إلى معالجتها.

وبحسب الشركة، فإن «مدير التسويق الذكي» الجديد يتولى تشغيل مجموعة من الوكلاء المتخصصين يومياً، من بينهم كاتب محتوى آلي، ووكيل تحسين محركات البحث (SEO). أيضاً من مهام «مدير التسويق الذكي» تحسين الظهور في محركات الذكاء الاصطناعي (GEO) وإدارة الظهور على منصات مثل «Reddit» و«X» و«Hacker News».

تهدف هذه المنظومة إلى تنفيذ استراتيجية تسويقية متكاملة تشمل إنتاج المحتوى، وتوزيعه، وتحسين ظهوره عبر محركات البحث التقليدية، والجيل الجديد من محركات البحث المعتمدة على الذكاء الاصطناعي.

نظام قابل للتكامل مع القنوات الرقمية لإدارة التسويق عبر منصة موحدة (أوكارا)

خفض التكاليف وتعزيز الكفاءة

تطرح شركة «أوكارا للذكاء الاصطناعي» (Okara AI) خدمتها الجديدة بوصفها بديلاً منخفض التكلفة مقارنة بالنموذج التقليدي لإدارة التسويق، الذي يتطلب فريقاً متكاملاً يضم مدير تسويق، وخبراء تحسين محركات البحث، وكتاب محتوى، ومديري مجتمعات رقمية.

وتشير تقديرات السوق إلى أن تكلفة هذا الفريق قد تتراوح بين 60 ألفاً و160 ألف دولار سنوياً، في حين توفر الخدمة الجديدة بديلاً رقمياً مقابل اشتراك شهري يبدأ من نحو 99 دولاراً، ما يعكس توجهاً متزايداً نحو أتمتة الوظائف المعرفية، وتقليل الاعتماد على الموارد البشرية.

يعالج انخفاض الزيارات عبر تحسين ترتيب صفحات الموقع (أوكارا)

ظهور مفهوم «تحسين محركات الذكاء الاصطناعي»

من أبرز ما يميز الخدمة الجديدة اعتمادها على مفهوم حديث نسبياً يعرف بـ«تحسين محركات التوليد» (Generative Engine Optimization-GEO)، والذي يركز على تحسين ظهور المحتوى داخل منصات الذكاء الاصطناعي، مثل محركات البحث التوليدية، بدلاً من الاقتصار على محركات البحث التقليدية.

ويعكس هذا التوجه تحولات أعمق في سلوك المستخدمين الذين باتوا يعتمدون بشكل متزايد على أدوات الذكاء الاصطناعي للحصول على المعلومات، ما يفرض على الشركات إعادة صياغة استراتيجياتها التسويقية لتواكب هذا التحول.

نحو مستقبل تسويقي مؤتمت

يمثل إطلاق «مدير التسويق الذكي» من «Okara AI» خطوة إضافية في مسار أتمتة العمليات الرقمية، ويعكس اتجاهاً متنامياً نحو الاعتماد على الذكاء الاصطناعي في إدارة النمو والتسويق.

وفي حين لا يبدو أن هذه الأنظمة ستلغي دور البشر بشكل كامل في المدى القريب، إلا أنها تؤسس لنموذج هجين يجمع بين قدرات الذكاء الاصطناعي وسرعته، وبين الرؤية الاستراتيجية والإبداع البشري، وهو ما قد يعيد رسم ملامح قطاع التسويق الرقمي خلال السنوات المقبلة.


الذكاء الاصطناعي يُعقّد مخاطر الخصوصية

الذكاء الاصطناعي يُعقّد مخاطر الخصوصية
TT

الذكاء الاصطناعي يُعقّد مخاطر الخصوصية

الذكاء الاصطناعي يُعقّد مخاطر الخصوصية

قضى قاضٍ فيدرالي هذا الشهر، بأن محادثات أي شخص مع برنامج الدردشة الآلي «كلود»، التابع لشركة «أنثروبيك»، لا تتمتع بحماية الحفاظ على السرية، التي تحظى بها محادثات المحامي وموكله، حتى وإن كان استخدام البرنامج بهدف للتحضير لمقابلة محامين.

خروق «ذكية»

وقبل أسابيع، أثارت شركة «رينغ»، المملوكة لشركة «أمازون»، والمتخصصة في صناعة كاميرات أجراس الأبواب، غضباً واسع النطاق عندما نشرت إعلاناً خلال مباراة «سوبر بول»، يُظهر كيف يمكن استخدام الذكاء الاصطناعي للعثور على الكلاب الضائعة. وسرعان ما أشار النقاد إلى إمكانية استخدامه كذلك لمراقبة حيّ بأكمله. ومنذ ذلك الحين، أعلنت الشركة اعتذارها مرات عدة.

وأظهر إعلان شركة «رينغ»، صاحب كلب مفقود يستخدم ميزة «البحث الجماعي»، التي تستخدم الذكاء الاصطناعي، وصوراً من شبكة كاميرات مراقبة منزلية للعثور على الكلب المفقود. وأوضحت الشركة أن مالكي كاميرات «رينغ» مُلزمون بالموافقة على مشاركة المعلومات من خلال طلب «البحث الجماعي».

امرأة قاتلة تحادثت مع «جي بي تي»

وخلال الأسبوع الماضي، ظهرت أنباء تفيد بأن شركة «أوبن إيه آي»، المطورة لبرنامج «تشات جي بي تي»، كانت على علم بتفاعلات امرأة من مقاطعة كولومبيا البريطانية مع برنامج الدردشة الآلي، وأن الشركة فكرت في إبلاغ السلطات عنها قبل أشهر من ارتكابها جريمة إطلاق نار جماعي.

وفي الوقت الذي تواجه «أوبن إيه آي» تساؤلات حول ما إذا كان ينبغي عليها أن تكون أكثر استباقية في الإبلاغ عما كتبته هذه السيدة، تسلط هذه الحادثة الضوء على احتمال تعرض شركات الذكاء الاصطناعي لمزيد من الضغوط لمشاركة سجلات المحادثات الخاصة مع السلطات.

في قلب هذه العناوين، احتل الذكاء الاصطناعي التوليدي موقع الصدارة - التكنولوجيا التي شاع استخدامها بفضل برامج الدردشة الآلية، والتي بدأت تتغلغل في الأدوات اليومية، التي يستخدمها الناس للبحث عبر الإنترنت وكتابة المقالات والبرمجة. ويثير التواتر المستمر للتقارير الإخبارية المتعلقة بخصوصية المستهلك، تساؤلات حول ما إذا كان الذكاء الاصطناعي قد كشف معلومات شخصية للأفراد، أكثر مما كان عليه في السابق.

في هذا الصدد، عبَّر خبراء معنيون بالخصوصية عن اعتقادهم بأنه على أرض الواقع، فإن المخاطر المرتبطة بمشاركة البيانات مع شركات التكنولوجيا لا تزال كما هي تقريباً دونما تغيير؛ فأي بيانات تُرسل إلى خوادم الشركة قد تكون متاحة أمام الموظفين أو الجهات الحكومية أو المحامين أو حتى المجرمين، الذين استولوا على البيانات من خلال ثغرات أمنية.

مخاطر المحادثات الحميمة مع الأدوات الذكية

بيد أن الطبيعة الحميمة للمحادثات مع برامج الدردشة الآلية تضيف بعداً جديداً لمشكلة قديمة؛ فالناس اليوم يشاركون معلومات أكثر بكثير مما كانوا يفعلون في السابق. وعلى عكس أدوات البحث التقليدية على الإنترنت، تدعو برامج الدردشة الآلية المستخدمين إلى كتابة أفكارهم كاملةً وطرح مزيد من الأسئلة؛ ما يكشف عن نواياهم بشكل أوضح.

في هذا السياق، شرح كريس جيليارد، الباحث المستقل بمجال الخصوصية في ديترويت، أنه: «في كثير من الحالات، تتشابه المشكلات، لكننا نعاين اليوم طريقة جديدة للتفاعل مع التكنولوجيا لم تكن مألوفة من قبل. وعندما يحدث ذلك، يحتاج الناس إلى إعادة صياغة رؤيتهم للمخاطر والأضرار».

الحقيقة أن هذا درسٌ اضطر مستخدمو الإنترنت إلى تعلمه مرة بعد أخرى. فقبل نحو ثماني سنوات، تعرضت شركة «ميتا»، المعروفة سابقاً باسم «فيسبوك»، لانتقادات حادة عندما انتشر خبر جمع شركة «كمبردج أناليتيكا»، المعنية بالاستشارات السياسية، بيانات 87 مليون مستخدم لـ«فيسبوك» بطريقة غير مشروعة.

عدم تسجيل المحادثات المؤقتة

كانت تلك لحظة فارقة دفعت الناس إلى إعادة النظر في مشاركة بياناتهم الشخصية عبر الإنترنت. ومع ذلك، يبدو أن هذا الدرس قد طواه النسيان في عصر روبوتات الدردشة، التي يلجأ إليها الناس طلباً للمساعدة في العمل، والعلاج النفسي، وحتى الرفقة الحقيقية.

من جهتها، أعلنت «أوبن إيه آي» أنها منحت المستخدمين تحكماً كاملاً في كيفية استخدام بياناتهم، بما في ذلك خيار استخدام محادثات مؤقتة لا تُسجل في سجل «تشات جي بي تي». كما أكدت «أنثروبيك» التزامها بالقوانين المعمول بها، وأنها قد تُطالب بمشاركة المعلومات عند تقديم طلبات قانونية مشروعة.

وفي حادثة المرأة مطلِقة النار جيسي فان روتسيلار أكدت شركة «أوبن إيه آي» في بيان لها أن: «حماية الخصوصية والأمان في (تشات جي بي تي) أمر بالغ الأهمية، ونحن نولي الأولوية للأمان عندما يكون هناك تخطيط موثوق ووشيك لإحداث ضرر حقيقي في العالم الواقعي. وتتولى أنظمتنا الآلية تصعيد الحالات الحرجة، مثل تشكيل تهديد للحياة أو التهديد بإلحاق الأذى الجسيم بالآخرين، لإخضاعها مراجعة بشرية محدودة لاتخاذ الإجراءات اللازمة».

مناقشات قانونية

وفي حين أنه ليس من المستغرب أن يكون لدى «أوبن إيه آي»، كغيرها من الشركات، نظام لمراقبة إساءة استخدام خدماتها، فإن الحادثة سالفة الذكر من المحتمل أن تثير نقاشاً في أوساط الخبراء القانونيين، حول ما إذا كان ينبغي تحميل شركات الذكاء الاصطناعي المسؤولية عن المحادثات، التي يجريها المستخدمون مع روبوتات الدردشة، ومتى يصبح من الضروري مشاركة البيانات مع جهات إنفاذ القانون، حسب ما ذكرته جينيفر غرانيك، المحامية المتخصصة في شؤون المراقبة والأمن السيبراني، لدى «الاتحاد الأميركي للحريات المدنية».

وأضافت أن المادة 230 من قانون آداب الاتصالات تضفي حماية عامة على شركات الإنترنت من المسؤولية عن المحتوى، الذي ينشره المستخدمون عبر مواقع مثل «فيسبوك»، لكن من غير الواضح ما إذا كان ينبغي تطبيق هذه السياسات بالمثل على روبوتات الدردشة، بالنظر إلى اختلاف طبيعة المحادثات عن المنشورات عبر المنصات. وقالت: «سنبدأ الفترة المقبلة في معاينة المزيد من الدعاوى القضائية لتوضيح طبيعة مسؤولية الإبلاغ لجهات إنفاذ القانون».

قاضٍ يبتّ بقضية احتيال

وتُبيّن قصة برنامج الدردشة الآلي «كلود»، التابع لشركة «أنثروبيك»، كيف يمكن أن تحدث حالة من الارتباك، عندما يتعامل الناس مع برامج الدردشة الآلية التجارية كأداة لتدوين الملاحظات والبحث. وقد قرر قاضٍ فيدرالي السماح للمدعين العامين بالاطلاع على نصوص محادثات رجل متهم بالاحتيال الإلكتروني، كان قد تواصل مع «كلود» في خضم استعداده للحديث مع المحامين. وكان مبرر القاضي أن «كلود» ليس محامياً، وبالتالي لا يتمتع بحماية الحفاظ على سرية تفاعلات المحامي مع موكله. وقد أثار قرار القاضي جدلاً واسعاً بين المحامين في جميع أنحاء البلاد؛ لأنه سلّط الضوء على المخاطر المحتملة لاستخدام الذكاء الاصطناعي مقارنةً بالأدوات التقليدية.

في المقابل، إذا دوّن المتهم ملاحظات وشاركها مع محاميه فقط، فقد تكون محمية بموجب سرية العلاقة بين المحامي وموكله، كما أوضحت لورا ريبوسو فاندروف، الشريكة في مكتب كيلي دراي للمحاماة، والمعنية بشؤون خصوصية المستهلك وأمن البيانات. ونظراً لأن المحادثات مع روبوت الدردشة يجري تخرينها على خوادم الشركة، فقد لا تكون محمية قانونياً.

من جهتها، أوضحت شركة «أنثروبيك» أن المتهم الذي حاول حماية نصوص محادثاته مع «كلود»، بموجب سرية العلاقة بين المحامي وموكله، قدّم النصوص مباشرةً إلى المحكمة عندما صادرت السلطات الفيدرالية أجهزته، ما يعني أن «أنثروبيك» لم تشارك البيانات.

* خدمة «نيويورك تايمز»