أفضل أدوات الذكاء الاصطناعي لصناعة الفيديوهات المتقدمة

توجِد العناوين والنصوص والفيديوهات والتسجيلات الصوتية ببضع كلمات

تستطيع صُنع فيديوهات مبهرة باستخدام أدوات الذكاء الاصطناعي وبكل سهولة
تستطيع صُنع فيديوهات مبهرة باستخدام أدوات الذكاء الاصطناعي وبكل سهولة
TT

أفضل أدوات الذكاء الاصطناعي لصناعة الفيديوهات المتقدمة

تستطيع صُنع فيديوهات مبهرة باستخدام أدوات الذكاء الاصطناعي وبكل سهولة
تستطيع صُنع فيديوهات مبهرة باستخدام أدوات الذكاء الاصطناعي وبكل سهولة

أصبح بمقدور الجميع إنتاج فيديوهات متنوعة وبجودة عالية، حتى لو لم يكن لديهم أي معرفة مسبقة في مجال كتابة السيناريو وتسجيل الفيديو وإضافة الصوتيات إليها وتحريرها ونشرها في قنوات الشبكات الاجتماعية، ودون الحاجة لاقتناء كاميرات وعدسات وميكروفونات متقدمة والبرامج اللازمة لدمجها وتحريرها؛ وذلك بفضل تطور أدوات الذكاء الاصطناعي في هذه المجالات وسهولة استخدامها.

وتطرح هذه الأدوات أسئلة كثيرة في بال المستخدمين، من بينها هل سنشهد قريباً إطلاق أفلام واقعية أو كارتونية أو فيديوهات موسيقية بجودة عالية جداً باستخدام أدوات الذكاء الاصطناعي فقط؟ هل سيصبح الجميع كُتّاباً ومحرري ومخرجي فيديو بفضل هذه الأدوات، وكيف سيستفيد منها كبار الكتاب والمحررين والمخرجين لتطوير أعمالهم ونقلها إلى مستويات أفضل وبسرعات أعلى؟ ونذكر في هذا الموضوع مجموعة من تلك الأدوات وكيفية استخدامها.

يمكن الاختيار من بين أساليب رسم مختلفة حسب الرغبة

أدوات إنتاج فيديو متقدمة

• «كانفا دوت كوم» (Canva.com): الأداة الأولى التي نذكرها هنا، وهي تسمح بكتابة وصف الفيديو المطلوب لتقوم بإنتاج الفيديو من تلقاء نفسها. ويمكن تعديل الفيديو بعد ذلك وإضافة المؤثرات المطلوبة إليه بكل سهولة وإزالة الخلفيات بضغطة زر واحدة. وتستطيع هذه الأداة تقديم أوجه مصنوعة بالذكاء الاصطناعي واستخدامها لقراءة النص أمام المستخدمين من بين 40 لغة مختلفة إن كنت لا ترغب بالظهور في الفيديو. كما يمكن رفع ملف صوتي يحتوي على التسجيل المرغوب واستخدامه في الفيديو.

وتسمح الأداة كذلك بإضافة النصوص بأشكال وألوان مختلفة وتحريكها بكل سهولة، وتقدم مجموعة من الصور والمؤثرات المجانية وأخرى مدفوعة، يمكن استخدامها بشكل مباشر داخل الأداة نفسها أو حفظها على كومبيوتر المستخدم واستخدامها في أداة أخرى، كما سنفصل أدناه.

• «لوما لابز دوت إيه آي» (LumaLabs.ai): تسمح بإيجاد الفيديوهات السينمائية المبهرة والواقعية بمجرد كتابة الوصف المرغوب لدرجة يصعب فيها تمييز المشهد الحقيقي عن ذلك المصنوع من خلال الأداة. ويمكن استخدامها 30 مرة يومياً، مع توفير خيار الاشتراك المدفوع للحصول على مزايا إضافية.

أداة متكاملة

• «إنفيديو دوت آي أو» (Invideo.io): هذه أداة متكاملة تقدم 500 قالب (Template) مسبق الإعداد، يمكن استخدامها أو تخصيصها حسب الرغبة، مع سهولة إزالة الخلفيات من الصور الموجودة بحوزة المستخدم، التي سيتم إضافتها إلى الفيديو المرغوب، أو من خلال صور موجودة في الإنترنت وإضافة الموسيقى والنصوص إليها. وتسمح الأداة كذلك بإيجاد نص مناسب للفيديو بمجرد كتابة بضع كلمات رئيسية ووصف للفيديو المرغوب، مع القدرة على تحويل مقال مكتوب إلى فيديو مختصر في دقائق قليلة. وتقدم الأداة مكتبة ضخمة (أكثر من 8 ملايين مقطع) من الفيديوهات مسبقة الإعداد التي يمكن استخدامها في الفيديو. كما يمكن إضافة المؤثرات البصرية إلى الفيديو النهائي بكل سهولة، التي تشمل إضافة حركات النقل بين مشهد وآخر (Transition)، وتعديل أبعاد الفيديو وإضافة الملصقات، وغيرها.

وتسمح الأداة كذلك بإضافة ملف صوتي إلى الفيديو وتحريره بكل سهولة (تدعم اللغة العربية)، مع سهولة إضافة الزملاء والأصدقاء إلى قائمة محرري الفيديو في حال الحاجة للعمل جماعياً على فيديو محدد. ويمكن كتابة سؤال ما والحصول على الإجابة على شكل فيديو يمكن مشاركته مع الجميع، مثل «كيف يمكنني المحافظة على بطارية الهاتف الجوال؟»، لتقدم الأداة فيديو توضيحياً يحتوي على نصائح بالصوت والصورة، مع القدرة على تعديل محتوى الفيديو واختيار صوت المتحدث أو استخدام صوتك من خلال تسجيل مرجعي لك مسبق. ويوجد اشتراك مجاني بالخدمة مع تقديم خيارات مدفوعة للحصول على المزيد من المزايا ودعم استخدام الهاتف الجوال.

• «بيكسارت» (Picsart): أداة تقدم القدرة على صنع الفيديوهات بمجرد كتابة نص وصفي للفكرة المطلوبة والحصول على نتائج مبهرة في أقل من 5 دقائق. ويمكن اختيار أسلوب الرسومات المطلوبة من بين الواقعية والفنية والكارتونية، وغيرها. ويوجد اشتراك مجاني بالخدمة مع تقديم خيارات مدفوعة للحصول على المزيد من المزايا.

• «ليوناردو دوت إيه آي» (Leonardo.ai): أداة مجانية تسمح لك بإنتاج الصورة المرغوبة حسب وصف نصي وعوامل رسم متعددة. الأمر الملفت بهذه الأداة أنها تسمح بتحميل صورة مرجعية يمكن استخدامها لإيجاد الصورة المرغوبة بهدف تسهيل عملية إيجاد الصورة بالشكل الصحيح. وتسمح الأداة بتحرير الصورة باستخدام الذكاء الاصطناعي الذي سيفهم سياق الصورة ويقوم بتحرير العديد من العناصر المرغوبة، مثل تحرير صورة لقطط توجد فيها كلمة «قطة»، ومن ثم طلب تغيير محتوى الصورة من قطط إلى طيور، ليتم استبدال القطط بالطيور مع تعديل كلمة «قطة» إلى «طائر» بشكل آلي ودون أي تدخل من المستخدم في ذلك.

• مجموعة متنوعة من الأدوات التي تحول النصوص أو الصور إلى فيديوهات مبهرة، مثل «هوتشوت دوت كو» (Hotshot.co) و«كلينغ إيه آي دوت آي أو» (KlingAI.io) و«رانواي إم إل دوت كوم» (RunwayML.com).

استخدام عدة أدوات

ويمكنك استخدام عدة أدوات للتحكم بشكل أكبر في الفيديو الذي ترغب في صنعه، مثل استخدام موقع «تايتل - جينيريتر دوت كوم» (Title-Generator.com) وكتابة المجال الذي تريد إيجاد نص مرتبط به، ليقدم لك مئات الأفكار والعناوين للفيديو المرغوب. ويمكنك بعد ذلك الذهاب إلى أداتي «تشات جي بي تي» (ChatGPT) أو «غوغل جيميناي» (Google Gemini) وطلب إيجاد نص للفيديو المطلوب مدته 5 دقائق، مثلاً، ومن ثم نسخ النص وتعديله حسب الحاجة.

فيديوهات واقعية يصعب تمييزها عن الحقيقة بمجرد كتابة وصف الفيديو المرغوب

الخطوة التالية هي الذهاب إلى موقع «ستيف دوت إيه آي» (Steve.ai)، الذي يطلب منك مشاركة النص ليقوم بإنتاج الفيديو بشكل آلي. وهناك أدوات أخرى مشابهة هي «آب دوت فيسلا دوت يو إس» (App.visla.us) و«سيلابي دوت آي أو» (Syllaby.io) وأداة «لوما لابز دوت إيه آي» المذكورة أعلاه. وتسمح أداة «أدوريلابز دوت كوم» (AdoriLabs.com) بتحويل النص الكامل الموجودة لديك إلى فيديو في ثوانٍ قليلة.

ونذكر كذلك أداتي «سيمبليفايد دوت كوم» (Simplified.com) و«كوبيكوبتر دوت إيه آي» (Copycopter.ai) اللتين تسمحان بإيجاد فيديو بمجرد كتابة فكرة الموضوع.

ويمكن الذهاب إلى موقع «سينثيسيز دوت آي أو» (Synthesys.io) واختيار شكل شخصية متحدثة مناسبة (Talking Avatar)، ومن ثم مشاركة النص مع الأداة، ليتم إيجاد شخصية تقوم بقراءة المحتوى للمستخدمين. ويمكن إضافة هذه الشخصية إلى فيديوهات المستخدم وإضافة المؤثرات البصرية إلى الفيديو النهائي بكل سهولة.

وإن أردت المزيد من التحكم بالفيديو، فيمكنك إنتاج النص، ومن ثم الذهاب إلى موقع «كانفا» أو «ليوناردو دوت إيه آي» المذكورين أعلاه أو أي موقع آخر وإيجاد صورة معبرة، مثل صورة لشخصية من الفاكهة (يمكن استخدام «كانفا» لإضافة صورة لتفاحة كارتونية، ومن ثم إضافة عينين وفم وأيدٍ وأرجل)، ثم حفظها على كومبيوتر المستخدم. وننتقل الآن إلى خطوة «تحريك» هذه الشخصية من خلال أداة «سكيتش دوت ميتا ديمو لاب» (Sketch.MetaDemoLab.com) التي تطلب منك اختيار الصورة، ومن ثم تحديد أماكن مفاصلها التي ستتحرك، ومن ثم اختيار الحركة المطلوبة من بين مجموعة متنوعة. ويمكن حفظ الفيديو النهائي على كومبيوتر المستخدم.

وننتقل الآن إلى إيجاد التسجيل الصوتي من خلال أداة «إيليفين لابز دوت آي أو» (ElevenLabs.io)، ومن ثم الضغط على زر «Go to app» أسفل الشاشة، ولصق النص الصوتي المرغوب واختيار الصوت المناسب (تدعم الأداة نطق الكلمات باللغة العربية بشكل قياسي)، ومن ثم حفظه على كومبيوتر المستخدم. وبعدما تم جمع الملفات المطلوبة، يمكن العودة إلى أداة «كانفا» وإضافة الفيديو المتحرك للشخصية والملف الصوتي، ومن ثم إضافة الموسيقى والخلفيات من خلال أداة «كانفا» أو من أي ملف خاص بالمستخدم، وتعديل مدة الفيديو وإضافة المؤثرات المختلفة، ومن ثم حفظه على شكل فيديو بأبعاد مختلفة حسب الشبكة الاجتماعية المرغوبة ورفعه إليها.

أيضاً تستطيع إيجاد رسومات ثلاثية الأبعاد ومجسمة تتحرك باستخدام أداة «ميشي دوت إيه آي» (Meshy.ai) سهلة الاستخدام، التي تطلب منك إدخال وصف الرسومات المطلوبة، وإيجاد التصميم المطلوب، واختيار أماكن مفاصل الشخصية التي يمكن تحريكها، ومن ثم استخدامها في برامج الرسومات المتخصصة أو داخل الفيديوهات المرغوبة.

وتوجد الكثير من أدوات الذكاء الاصطناعي الأخرى التي ستساعدك في إيجاد الفيديوهات وغيرها من الوظائف الأخرى، ويمكن البحث عنها باستخدام موقع «إنفايد إيه آي دوت كوم» (InvadeAI.com)، يدعم اللغة العربية، ومعرفة أي منها مجاني وأي منها مدفوع، مع القدرة على اختيار فئة الخدمة.


مقالات ذات صلة

«ألفابت» تستعد لأول إصدار سندات بالين لتمويل توسعات الذكاء الاصطناعي

الاقتصاد شعار شركة «ألفابت» في هذا الرسم التوضيحي (رويترز)

«ألفابت» تستعد لأول إصدار سندات بالين لتمويل توسعات الذكاء الاصطناعي

أعلنت شركة «ألفابت»، يوم الاثنين، أنها تخطط لإصدار سندات مقوَّمة بالين الياباني لأول مرة، في خطوة تعكس توجه عمالقة التكنولوجيا إلى أسواق الدين.

«الشرق الأوسط» (طوكيو )
خاص العاصمة السعودية الرياض (واس)

خاص السعودية تُعيد تشكيل هويتها الصناعية... من التجميع إلى الابتكار المستقل

تسير السعودية بخطى متسارعة ومتزنة في آنٍ واحد نحو بناء منظومة صناعية متكاملة، تتجاوز في طموحها حدود التجميع والاستيراد، لتستهدف بناء قدرات هندسية راسخة.

زينب علي (الرياض)
الولايات المتحدة​ شعار تطبيق «تشات جي بي تي» (رويترز)

القضاء الأميركي يفتح الباب أمام مسؤولية جنائية للذكاء الاصطناعي

مهَّد المدِّعي العام في فلوريدا السبيل إلى تطبيق مقاضاة مطوري تكنولوجيا للذكاء الاصطناعي على الدور الذي أدِّته الأخيرة في ارتكاب جريمة أو الإقدام على الانتحار.

«الشرق الأوسط» (نيويورك)
تكنولوجيا عبارة «مرحباً بكم في أوبن إيه آي» تظهر على الصفحة الرئيسية لـ«شات جي بي تي» (د.ب.أ)

ميزة جديدة في «شات جي بي تي» تُخطر المقربين عند الأزمات النفسية

أعلنت «أوبن إيه آي» عن إطلاق ميزة أمان جديدة ضمن تطبيق «شات جي بي تي»، تهدف إلى التدخل المبكر في حالات الطوارئ المرتبطة بالصحة النفسية.

«الشرق الأوسط» (واشنطن)
الولايات المتحدة​ الذكاء الاصطناعي وسيلة فعّالة للدعاية السياسية (رويترز)

تقرير: إيران تؤثر على الرأي العام الأميركي بواسطة الذكاء الاصطناعي

تحقق إيران تقدماً متزايداً في «حرب المعلومات» عبر مقاطع فيديو و«ميمات» مصنوعة بالذكاء الاصطناعي تنتشر بسرعة على الإنترنت.

«الشرق الأوسط» (نيويورك)

«غوغل»: متسللون يبتكرون أساليب اختراق باستخدام الذكاء الاصطناعي

شعار شركة «غوغل» (رويترز)
شعار شركة «غوغل» (رويترز)
TT

«غوغل»: متسللون يبتكرون أساليب اختراق باستخدام الذكاء الاصطناعي

شعار شركة «غوغل» (رويترز)
شعار شركة «غوغل» (رويترز)

قالت شركة «غوغل» المملوكة لـ«ألفابت»، اليوم الاثنين، إن متسللين إلكترونيين من مجموعة بارزة في مجال الجرائم الإلكترونية استخدموا الذكاء الاصطناعي لاكتشاف ثغرة برمجية غير معروفة سابقاً، وتمكنوا من استغلالها لأول مرة.

وذكرت «غوغل» في تقرير صادر عن مجموعة «ثريت إنتليجينس غروب» المعنية برصد التهديدات لديها أن الهجوم المخطط له استهدف أداة إدارة نظام مفتوحة المصدر واسعة الانتشار، لكن جرى حظره قبل أن يستغل ضمن «واقعة استغلال جماعي».

وتمثل هذه الواقعة المرة الأولى التي تحدد فيها «غوغل» استخدام متسللين للذكاء الاصطناعي لاكتشاف نقاط ضعف جديدة، ومحاولة استغلالها على نطاق واسع.

هاكرز (رويترز)

وقال جون هولتكوست كبير محللي المجموعة إن النتائج من المرجح أن تمثل ما وصفه بأنه «غيض من فيض» فيما يتعلق بكيفية بتطوير المجرمين والمتسللين المدعومين من دول لعمليات الابتكار في مجال التسلل والاختراق باستخدام الذكاء الاصطناعي.

وشرح التقرير كيف يوكل متسللون أجزاء من عملياتهم عبر الإنترنت إلى الذكاء الاصطناعي، ويستغلونه ليبحث بشكل مستقل عن ثغرات برمجية، ويساعد في تطوير برمجيات خبيثة.

وقال الباحثون إن هذا التحول يمثل خطوة مبكرة نحو عمليات إلكترونية عبر الإنترنت تتسم باستقلالية أكبر، في وقت بدأ فيه متسللون في الاعتماد على أنظمة الذكاء الاصطناعي، ليس فقط من بين الأدوات البحثية بل أيضاً على أساس أنها مكونات نشطة يمكنها تحليل الأهداف وإنشاء أكواد ورموز واتخاذ قرارات بإشراف بشري محدود.

وتأتي هذه النتائج في وقت تواجه فيه حكومات في أنحاء العالم صعوبات في كيفية وضع قواعد تنظيمية لنماذج الذكاء الاصطناعي الجديدة القوية التي يمكن أن تسهل على المتسللين تحديد الأهداف، وشن الهجمات باستخدام عيوب البرامج المعروفة والمكتشفة حديثاً.

وتعكس هذه النتائج تحذيرات صدرت في الآونة الأخيرة عن جهات تنظيمية مالية في أوروبا تقول إن نماذج الذكاء الاصطناعي سريعة التطور تزيد من سرعة ونطاق المخاطر السيبرانية في وقت يتصاعد فيه التوتر الجيوسياسي.

وأفاد التقرير بأن المتسللين الإلكترونيين، بالإضافة إلى مجموعات قرصنة واختراق مرتبطة بدول مثل الصين وروسيا وكوريا الشمالية، يجربون بالفعل دمج الذكاء الاصطناعي مباشرة في سير وتتابع المهام المتعلقة بعمليات الهجوم الإلكترونية عبر الإنترنت.

ورغم أن هذه التقنيات لا تزال في مرحلة أولية، حذرت «غوغل» من أنها قد تسرع وتيرة حملات الهجمات الإلكترونية بتقليل الوقت والخبرة اللازمين لشن هجمات معقدة.


ميزة جديدة في «شات جي بي تي» تُخطر المقربين عند الأزمات النفسية

عبارة «مرحباً بكم في أوبن إيه آي» تظهر على الصفحة الرئيسية لـ«شات جي بي تي» (د.ب.أ)
عبارة «مرحباً بكم في أوبن إيه آي» تظهر على الصفحة الرئيسية لـ«شات جي بي تي» (د.ب.أ)
TT

ميزة جديدة في «شات جي بي تي» تُخطر المقربين عند الأزمات النفسية

عبارة «مرحباً بكم في أوبن إيه آي» تظهر على الصفحة الرئيسية لـ«شات جي بي تي» (د.ب.أ)
عبارة «مرحباً بكم في أوبن إيه آي» تظهر على الصفحة الرئيسية لـ«شات جي بي تي» (د.ب.أ)

ضمن خطوة تعكس تنامي الاهتمام بسلامة المستخدمين في الفضاء الرقمي، أعلنت «أوبن إيه آي» عن إطلاق ميزة أمان جديدة ضمن تطبيق «شات جي بي تي»، تهدف إلى التدخل المبكر في حالات الطوارئ المرتبطة بالصحة النفسية. وتأتي هذه المبادرة استجابةً لمخاوف متزايدة بشأن تأثير تقنيات الذكاء الاصطناعي على المستخدمين، لا سيما في الظروف النفسية الحساسة؛ إذ تسعى إلى ربط الدعم الرقمي بالدعم الواقعي من خلال إشعار أشخاص موثوقين عند الحاجة.

ووفقاً لما أوردته صحيفة «إندبندنت»، تتيح ميزة «جهة الاتصال الموثوقة» للمستخدمين، اختيار شخص من الأصدقاء أو أفراد العائلة، ليتم إخطاره في حال أظهرت محادثاتهم مع النظام إشارات إلى إيذاء النفس، أو التفكير في الانتحار.

ويأتي هذا التحديث في سياق تزايد القلق حيال أدوات الذكاء الاصطناعي؛ مثل «شات جي بي تي»، التي يرى بعض المنتقدين أنها قد تسهم في تفاقم حالات الهوس أو الذهان، أو حتى المخاطر المرتبطة بالحياة.

وكشفت «أوبن إيه آي» العام الماضي، أن نحو 0.07 في المائة من المستخدمين المنتظمين لـ«شات جي بي تي»، أظهروا مؤشرات على «حالات طوارئ نفسية مرتبطة بالذهان أو الهوس». ومع وجود ما يقارب 900 مليون مستخدم نشط أسبوعياً، فإن هذه النسبة تعادل أكثر من نصف مليون شخص.

كما أفاد 0.15 في المائة من المستخدمين - أي ما يقارب 1.3 مليون شخص - بأنهم عبّروا عن مخاطر تتعلق بإيذاء النفس أو التفكير في الانتحار، وهو ما يعكس حجم التحدي الذي تحاول هذه الميزة الجديدة التعامل معه.

وتعتمد الخاصية المستحدثة على أنظمة مراقبة آلية داخل «شات جي بي تي»، ترصد الأنماط والسلوكيات التي قد تشير إلى وجود خطر حقيقي يهدد سلامة المستخدم. وعند اكتشاف مثل هذه المؤشرات، يتولى فريق متخصص مراجعة سجل المحادثات لتقييم الحالة، وتحديد ما إذا كان ينبغي إخطار «جهة الاتصال الموثوقة» للتدخل، أم لا.

وفي هذا السياق، قال آرثر إيفانز، الرئيس التنفيذي للجمعية الأميركية لعلم النفس: «يُظهر علم النفس باستمرار أن التواصل الاجتماعي يُعدّ عاملاً وقائياً قوياً، خصوصاً خلال فترات الضيق النفسي». وأضاف: «إن مساعدة الأفراد في تحديد شخص موثوق به مسبقاً، مع الحفاظ على استقلاليتهم وحقهم في الاختيار، يمكن أن يُسهّل وصولهم إلى الدعم في العالم الحقيقي عندما يكونون في أمسّ الحاجة إليه».

وتُبنى ميزة «جهة الاتصال الموثوقة» على منظومة الأمان الحالية في «شات جي بي تي»، التي تشمل أيضاً تقديم معلومات حول خطوط المساعدة المحلية عندما تشير التفاعلات إلى أن المستخدم يمرّ بأزمة نفسية


بحث يحذر: محادثاتك مع الذكاء الاصطناعي قد لا تكون بالخصوصية التي تعتقدها

الدراسة تقول إن بعض منصات الذكاء الاصطناعي ترسل بيانات محادثات إلى أدوات تتبع خارجية (د.ب.أ)
الدراسة تقول إن بعض منصات الذكاء الاصطناعي ترسل بيانات محادثات إلى أدوات تتبع خارجية (د.ب.أ)
TT

بحث يحذر: محادثاتك مع الذكاء الاصطناعي قد لا تكون بالخصوصية التي تعتقدها

الدراسة تقول إن بعض منصات الذكاء الاصطناعي ترسل بيانات محادثات إلى أدوات تتبع خارجية (د.ب.أ)
الدراسة تقول إن بعض منصات الذكاء الاصطناعي ترسل بيانات محادثات إلى أدوات تتبع خارجية (د.ب.أ)

كشفت دراسة بحثية منشورة على موقع «LeakyLM» عن مخاطر خصوصية قالت إنها تطول عدداً من أبرز منصات الذكاء الاصطناعي التوليدي، من بينها «شات جي بي تي» و«كلود» و«غروك» و«بيربلكسيتي»، عبر ما وصفه الباحثون بتسرب بيانات المحادثات والبيانات التعريفية إلى خدمات تتبع وإعلانات تابعة لجهات خارجية. ووفقاً للبحث، فإن المشكلة لا تتعلق فقط بوجود أدوات تحليل ومتابعة داخل هذه الخدمات، بل أيضاً بالطريقة التي يمكن أن ترتبط بها روابط المحادثات وبيانات المستخدمين بمعرفات إعلانية وملفات تعريف على الإنترنت.

ويقول القائمون على الدراسة إنهم اختبروا أربع منصات للذكاء الاصطناعي، ووجدوا أكثر من 13 أداة تتبع خارجية، مع الإشارة إلى أن جميع المنصات الأربع التي شملها الاختبار كانت متأثرة بدرجات مختلفة. كما يذكر الموقع أن هذه الممارسات لا تُشرح للمستخدمين بشكل مباشر وواضح، رغم أن سياسات الخصوصية الخاصة بالشركات تؤكد جمع المحادثات وبيانات الاستخدام والاعتماد على ملفات تعريف الارتباط الخاصة بجهات خارجية لأغراض تتعلق بالتحليلات والإعلانات.

الباحثون رصدوا أكثر من 13 أداة تتبع داخل أربع منصات شهيرة للذكاء الاصطناعي (أ.ف.ب)

روابط تكشف المحادثات

تتركز إحدى أكثر النقاط حساسية في الدراسة حول روابط المحادثات نفسها. فالباحثون يعدون أن روابط بعض المحادثات تُرسل إلى خدمات تتبع مثل «Meta Pixel» و«Google Analytics»، في حين قد تكون هذه الروابط، في بعض الحالات، كافية للوصول إلى محتوى المحادثة أو إلى معلومات تكشف موضوعها. ويضيف التقرير أن العناوين أو عناوين الصفحات الخاصة بالمحادثات يمكن أن تحمل بدورها مؤشرات حساسة حول اهتمامات المستخدم أو مشكلاته أو طبيعة الموضوع الذي يناقشه مع المساعد الذكي.

ووجد الباحثون أن «شات جي بي تي» كان يرسل رابط المحادثة الكامل وعنوان الصفحة إلى «Google Analytics» عند تحميل الصفحة للمستخدمين المسجلين ضمن الفئة المجانية، بصرف النظر عن قبول أو رفض ملفات تعريف الارتباط، وفقاً لما أورده التقرير. كما رصدوا في «Grok» تسرب رابط المحادثة وعنوانها إلى «Google Analytics» و«DoubleClick»، وفي بعض الحالات إلى «TikTok» و«Meta»، مع ملاحظة أن بعض المحادثات أو الصور المرتبطة بها قد تكون متاحة علناً في سياقات المشاركة.

أما في حالة «Claude»، فتشير الدراسة إلى وجود تسربات من نوع مختلف، منها إرسال عناوين البريد الإلكتروني وعنوان المحادثة إلى «Intercom»، إضافة إلى إشارات لربط نشاط المستخدم عبر أدوات متعددة على الجانب الخادمي عند قبول ملفات تعريف الارتباط غير الأساسية. وفي «Perplexity»، تقول الدراسة إن الشركة أوقفت «Meta Pixel» في أبريل (نيسان) 2026، لكن الباحثين رصدوا استمرار إرسال بيانات أخرى مثل عنوان البريد الإلكتروني الخام أو عنوان المحادثة وبيانات وصفية إلى أدوات مثل «Datadog» و«Singular».

التقرير يحذر من إمكانية ربط المحادثات بهوية المستخدم وملفه الإعلاني (رويترز)

ربط المحادثة بالهوية

يذهب التقرير إلى أن الخطر لا يتوقف عند نقل رابط أو عنوان صفحة فقط، بل يمتد إلى إمكانية الربط بين المحادثة وهوية المستخدم. ويشرح الباحثون أن بعض خدمات التتبع تتلقى مع روابط المحادثات ملفات تعريف ارتباط ومعرفات أخرى يمكن أن تساعد، وفق سياسات تلك الشركات نفسها، في ربط النشاط الإلكتروني بملفات تعريف سلوكية أو إعلانية. وفي بعض الحالات، يقول التقرير إن عمليات التتبع تتضمن أيضاً تجزئات للبريد الإلكتروني أو آليات مزامنة ملفات تعريف، بما قد يسهّل إعادة التعرف على المستخدم أو إزالة هويته المجهولة.

وتكتسب هذه النتائج حساسية أكبر، بحسب الدراسة؛ لأن مستخدمي المساعدات الذكية يشاركون معها كثيراً من المعلومات الشخصية والحساسة باعتبارها مساعدات موثوقة. ويشير الموقع إلى أبحاث سابقة أظهرت أن المستخدمين يكشفون للأنظمة التوليدية بيانات شخصية في سياقات غير متوقعة، تشمل مسائل صحية أو نفسية أو شخصية. ويرى الباحثون أن هذه المخاطر لا تقتصر على الأفراد، بل تمتد أيضاً إلى الشركات والقطاع العام؛ إذ يمكن أن تتسرب ملكية فكرية أو معلومات مؤسسية حساسة.

بعض روابط المحادثات قد تكشف موضوع النقاش أو تتيح الوصول إلى محتواه (الشركة)

ضبابية في الخصوصية

ينتقد البحث ما يصفه بالضبابية في أدوات الخصوصية. ويفيد بأن المنصات المدروسة توفر إعدادات للتحكم في الخصوصية ورؤية المحادثات، لكنها قد توحي بحماية أقوى مما يتم تطبيقه فعلياً في بعض السيناريوهات. ويضيف أن نماذج الموافقة على ملفات تعريف الارتباط نفسها تعاني من نقص في الشفافية؛ لأن الباحثين رصدوا حالات يحدث فيها التتبع رغم خيارات المستخدم، أو بطريقة يصعب رصدها عبر المتصفح بسبب استخدام قنوات تتبع خادمية.

ولا يزعم التقرير أنه يملك دليلاً على أن هذه الجهات الخارجية «تقرأ» المحادثات فعلاً، لكنه يقول إن إمكانية الوصول أو الربط موجودة من الناحية التقنية، وهذا في حد ذاته يخلق خطراً هيكلياً على الخصوصية. ومن هنا، يخلص الباحثون إلى أن ما يحدث يعكس انتقال نموذج الويب القائم على التتبع والإعلانات إلى بيئة المساعدات التوليدية أيضاً، في وقت تتوسع فيه هذه الخدمات بسرعة، وتصبح جزءاً أساسياً من حياة المستخدمين اليومية والعملية.

وتسلط الدراسة بذلك الضوء على جانب أقل بروزاً في سباق الذكاء الاصطناعي متعلق بأنه ليس فقط ماذا تستطيع هذه المنصات فعله، بل أيضاً بكيفية بنية اقتصاداتها الرقمية، وكيف تُدار محادثات المستخدمين داخلها، وإلى أي مدى تبقى هذه المحادثات خاصة بالفعل.