تطبيقات إلكترونية تحلل تفاعلات مستخدمي مواقع التواصل الاجتماعي

تتتبع التغريدات والكلمات والوجوه وتتعرف على الهوية وتوظف في الدراسات الإنسانية

تطبيقات إلكترونية تحلل تفاعلات مستخدمي مواقع التواصل الاجتماعي
TT

تطبيقات إلكترونية تحلل تفاعلات مستخدمي مواقع التواصل الاجتماعي

تطبيقات إلكترونية تحلل تفاعلات مستخدمي مواقع التواصل الاجتماعي

ينمو عالم الفضاء الافتراضي كل يوم، وتشكل مواقع الشبكات الاجتماعية عالما موازيا تتم عبره أهم ممارستنا اليومية. لذا أصبحت تلك الشبكات مجالا خصبا للباحثين في كبرى المراكز البحثية على تنوع مجالاتها العلمية حول العالم، لرصد تأثيراتها على العلاقات الإنسانية والسلوكيات والتفاعلات الاجتماعية والتوجهات السياسية بل والنزعات الاستهلاكية لدى مستخدميها. وتقوم تلك المراكز البحثية بتصميم واستخدام الوسائط الرقمية والتطبيقات الإلكترونية الجوالة Mobile Apps في البحوث الإنسانية.
وتعتبر التطبيقات التالية من أحدث التطبيقات المميزة التي يستعين بها الباحثون في مجال العلوم الإنسانية لدراسة تفاعلات وعلاقات البشر في المجتمعات الافتراضية وخصوصا موقعي «فيسبوك» و«تويتر»، واستخراج وتصنيف البيانات منهما وفقا للأغراض البحثية.

* تطبيقات تحليلية

* تطبيق «تيكستال Textal App»: وهو تطبيق مجاني طوره باحثون في مجال الإنسانيات الرقمية في جامعة يونيفرسيتي كوليدج بلندن يسمح لمستخدميه بتحليل الوثائق الرقمية، والنصوص الأدبية المرقمنة وصفحات الإنترنت، والتغريدات، لكشف العلاقات بين الكلمات، وهو يطور إحصائيات ورسوم بيانية غنية بالمعلومات (انفوغراف) كوسيلة للبحث العلمي والتسلية في ذات الوقت.
* تطبيق «بروفايل وردز Profile WORDS»: يمثل أداة لاكتشاف هوية المستخدمين على موقع «تويتر» عبر المتابعين أو المواقع أو الأشخاص الذين يتبعونهم من خلال تحليل كلمات معينة في السير الذاتية لهم (باحثين - صحافيين - نشطاء.. إلخ) وتحليل آخر 25 تغريدة قام بها الشخص ومتابعيه.
* تطبيق «نيتليتك Netlytic App»: يقدم تحليلا موسعا للمعطيات والبيانات أو المعطيات الكبرى التي تتدفق بكم هائل يوميا، وتتمثل في: النصوص والصور والخرائط وملفات الموسيقى والحسابات التي ننتجها يوميا عبر هواتفنا الجوالة والذكية والكومبيوترات وكل ما هو متصل بالإنترنت. وعمل التطبيق على استخلاص الكلمات والفقرات عبر اختراق المحادثات في مواقع، مثل: «فيسبوك»، و«تويتر»، و«يوتيوب» (التعليقات على مقاطع الفيديو)، والمدونات، وما يتم إطلاقه من وسوم حول الكوارث والأزمات والثورات والأحداث الكبرى حول العالم.وتم تصميم هذا التطبيق لاكتشاف وتتبع كيفية تدفق المعلومات عبر جموع البشر المتفاعلين عبر الإنترنت، ويمكن من خلال التطبيق الحصول على رسم توضيحي وخرائط ثلاثية الأبعاد، يبرز فيه الأشخاص على «تويتر» مثل «نقط» تتصل ببعضها بخطوط تمثل العلاقات بين الأفراد.
واستخدم التطبيق في دراسة حديثة أجريت يناير (كانون الثاني) الماضي في كندا وتم تحليل 15 ألف تغريدة أطلقت حول وسم عن المرض العقلي على مدار 24 ساعة، لدراسة اتجاهات الرأي العام وقياس الاتصال في اتجاهين ما بين وسائل الإعلام من جهة ومواقع التواصل الاجتماعي. وتوصلت الدراسة إلى أن الهاشتاغ وسم «تويتر» لم يسهم في التشبيك ما بين أعضاء «تويتر» في نطاق كندا فحسب، وإنما بين مستخدمين آخرين في أوروبا وأميركا.

* تحليلات مرئية

* تطبيق «مينشن ماب Mentionmap App»: أداة بسيطة لكشف شبكة العلاقات الاجتماعية بين مستخدمي «تويتر» وبين الأشخاص الذين يتم ذكرهم ضمن تغريدات. ويقدم التطبيق خريطة تفاعلية رائعة بمجرد النقر عليها يكشف شبكة العلاقات بين الأفراد الذين تم ذكرهم على موقع «تويتر».
* «تطبيق تويتونومي Twitonomy App»: يقدم تحليلا مرئيا مفصلا عن تغريدات أي عضو على «تويتر»، والتغريدات التي يفضلها، والردود والتعليقات والكلمات المفتاحية والروابط الإلكترونية للمواقع وغيرها، كما يمكنك من الاحتفاظ بكل هذه التغريدات ويمكنك التطبيق من تصنيفها وإعداد تقارير على هيئة ملفات PDF أو Excel.
والطريف في هذا التطبيق، أنه يمكن مستخدمه من اكتشاف الأشخاص الذين تتبعهم وهم لا يتبعونك على «تويتر»، والعكس أيضا. ويمكنك من معرفة معدل الزيادة في عدد متابعينك على «تويتر».

* التعرف على الوجوه

* تطبيق «فايس ريكوجنيشن Face Recognition App»: هناك الكثير من التطبيقات التي تتيح استخدام تلك التقنية المتطورة في التعرف على الوجوه والأشخاص. وأصبحت تلك التقنية هي الأكثر شعبية في العلوم الأنثروبولوجية التي تهتم بدراسة الأعراق والثقافات في المجتمعات فهي تتخلى تدريجيا عن دراسة الإنسان في القرى والأرياف والمناطق البدوية. يقوم التطبيق بتحديد ملامح الأشخاص والتعرف عليهم في عدة صور. ويتم استخدام تلك التقنية في بحوث الإنسانيات الرقمية الخاصة بالتعرف على الشخصيات المجهولة في اللوحات التاريخية.
ومنذ أن أعلن موقع «Face.com» عام 2011، عن تطورات جديدة لاستخدامات تلك التقنية وإمكانية تصنيف الانفعالات سواء عبر الصور أو الفيديو إلى: حزين، سعيد، غضبان، .. إلخ. اتجه عدد كبير من مطوري البرامج والتطبيقات لاستخدام تلك التقنية سواء عبر الهواتف أو المواقع الإلكترونية، حيث يتم إدخال أكثر من 5 آلاف صورة في الساعة، ويتم التعرف على ملامحها وانفعالاتها وتصنيفها.
وأخيرا، أعلنت مجلة «MIT Technology Review» الأميركية عن أنه أصبح بالإمكان استخدام تقنية التعرف على الوجوه للتعرف على ملامح الوجه من زوايا مختلفة حتى ولو كانت في وضع مقلوب. وقد تم تطوير تلك الأبحاث بعد اكتشاف قدرة عقول القرود في التعرف على الوجوه،
وتوصلت دراسة في مركز برادفورد للحوسبة البصرية Bradford’s Centre for Visual Computing، إلى قدرة تلك التقنية على تمييز التوأم المتطابق، وتلك التقنية أصبحت تفيد الباحثين في المجالات الإنسانية بعد أن كانت تستخدم في التعرف على وجوه الأشخاص المطلوبين أمنيا.
ويوميا توجد الكثير من التطبيقات التي تكشف هوية مستخدمي مواقع التواصل الاجتماعي وأدق التفاصيل حول حياتهم. أما موقع «فيسبوك» فلديه فريق متخصص قوامه علماء وتقنيون يقومون بأبحاث دورية لكشف كل ما يتعلق بالمستخدمين، مثلا: هل يتواصل الأبناء مع أبائهم؟ واستخراج الأنساب، ودراسة العلاقات بينها، بهدف تطوير هذا الموقع المستحوذ حاليا على ثلث سكان الأرض. وقد نشر مركز «بيو» إنترنت الأميركي PEW تقريرا يتنبأ بمستقبل الإنترنت عام 2050، وأكد المشاركون في الاستطلاع الذي أجراه المركز العام الماضي أن خصوصية الإنسان لن تكون موجودة بعد سنوات قليلة وسيكون الإنسان منكشفا تماما على عالم التكنولوجيا بشكل غير متوقع.



أكبر إخفاقات الذكاء الاصطناعي في عام 2024

أكبر إخفاقات الذكاء الاصطناعي في عام 2024
TT

أكبر إخفاقات الذكاء الاصطناعي في عام 2024

أكبر إخفاقات الذكاء الاصطناعي في عام 2024

من برامج الدردشة الآلية التي تقدّم نصائح غير قانونية إلى نتائج البحث المشبوهة التي أُنشئت بواسطة الذكاء الاصطناعي، إليكم نظرة إلى الوراء على أكبر إخفاقات الذكاء الاصطناعي في العام، كما كتبت ريانون ويليامز في مجلة «تكنولوجي ريفيو» الصادرة عن معهد «ماساتشوستس للتكنولوجيا».

اختبارات... بنتائج جديدة وغريبة وضارة

لا شك أن الأشهر الـ12 الماضية كانت مزدحمة لأولئك الذين يعملون في مجال الذكاء الاصطناعي. فقد شهدنا إطلاق منتجات أكثر نجاحاً مما يمكننا إحصاؤه، وحتى جوائز نوبل. لكن لم يكن الأمر دائماً سلساً.

الذكاء الاصطناعي هو تقنية غير متوقعة، وقد أدّى توافر النماذج التوليدية المتزايد إلى دفع الناس إلى اختبار حدودهم بطرق جديدة وغريبة وأحياناً ضارة. كانت هذه بعضاً من أكبر إخفاقات الذكاء الاصطناعي في عام 2024.

فوضى الذكاء الاصطناعي تسلّلت إلى الإنترنت

تسلّلت أخطاء الذكاء الاصطناعي إلى كل ركن تقريباً من الإنترنت. يجعل الذكاء الاصطناعي التوليدي إنشاء كميات هائلة من النصوص والصور ومقاطع الفيديو وأنواع أخرى من المواد أمراً سهلاً. ولأن الأمر لا يستغرق سوى بضع ثوانٍ بين إدخال مطالبة لنموذجك المفضل لإخراج النتيجة، فقد أصبحت هذه النماذج طريقة سريعة وسهلة لإنتاج المحتوى على نطاق واسع. وكان 2024 هو العام الذي بدأنا فيه وصف هذه الوسائط (رديئة الجودة عموماً) بما هي عليه؛ بـ«فوضى الذكاء الاصطناعي».

إن هذه الطريقة المنخفضة المخاطر لإنشاء فوضى الذكاء الاصطناعي تعني أنه يمكن العثور عليها الآن في كل ركن من أركان الإنترنت تقريباً؛ من النشرات الإخبارية في صندوق الوارد الخاص بك، والكتب المبيعة على «أمازون»، إلى الإعلانات والمقالات عبر الويب، والصور الرديئة على موجزات وسائل التواصل الاجتماعي الخاصة بك. وكلما كانت هذه الصور أكثر إثارة للمشاعر (قدامى المحاربين الجرحى، والأطفال الباكون، وإشارة الدعم في الصراع الإسرائيلي الفلسطيني) زادت احتمالية مشاركتها؛ مما يؤدي إلى زيادة المشاركة وإيرادات الإعلانات لمنشئيها الأذكياء.

قمامات رقمية يُعيد إنتاجها الذكاء الاصطناعي

فوضى الذكاء الاصطناعي ليست مزعجة فحسب، بل إن صعودها يشكّل مشكلة حقيقية لمستقبل النماذج ذاتها التي ساعدت في إنتاجها. ولأن هذه النماذج مدرّبة على بيانات جُمعت من الإنترنت، فإن العدد المتزايد من المواقع الإلكترونية غير المرغوب فيها التي تحتوي على قمامة الذكاء الاصطناعي يعني أن هناك خطراً حقيقياً للغاية، يتمثّل في أن إنتاج النماذج وأداءها سوف يزداد سوءاً بشكل مطرد.

فن الذكاء الاصطناعي يشوّه الأحداث الحقيقية

كان عام 2024 أيضاً هو العام الذي بدأت فيه تأثيرات صور الذكاء الاصطناعي السريالية تتسرّب إلى حياتنا الحقيقية. تصدّرت تجربة ويلي للشوكولاته -وهي حدث غامر غير رسمي مستوحى من رواية «تشارلي ومصنع الشوكولاته» لروالد دال- عناوين الأخبار في جميع أنحاء العالم في فبراير (شباط)، بعد أن أعطت مواد التسويق الرائعة التي أُنشئت بواسطة الذكاء الاصطناعي للزوار الانطباع بأنها ستكون أعظم بكثير من المستودع المزخرف بشكل بسيط الذي أنشأه منتجوها.

وبالمثل، اصطفّ مئات الأشخاص في شوارع دبلن لحضور عرض «هالوين» لم يكن موجوداً. إذ استخدم موقع ويب، مقره باكستان، الذكاء الاصطناعي لإنشاء قائمة بالأحداث في المدينة، التي تمّت مشاركتها على نطاق واسع عبر وسائل التواصل الاجتماعي قبل 31 أكتوبر (تشرين الأول)، وهو عيد «الهالوين». وكلا الحدثين يوضح كيف يمكن للثقة العامة بالمواد التي أُنشئت بواسطة الذكاء الاصطناعي عبر الإنترنت، أن تعود إلى مطاردتنا.

إنشاء صور مزيفة لأي وضع أو سيناريو

تحتوي الغالبية العظمى من مولدات الصور الرئيسة للذكاء الاصطناعي على حواجز -قواعد تملي ما يمكن لنماذج الذكاء الاصطناعي فعله وما لا يمكنها فعله- لمنع المستخدمين من إنشاء محتوى عنيف وصريح وغير قانوني وأنواع أخرى من المحتوى الضار.

في بعض الأحيان، تهدف هذه الحواجز فقط إلى التأكد من عدم قيام أي شخص باستغلال الملكية الفكرية للآخرين بشكل صارخ. لكن مساعد «غروك» Grok، الذي صنعته شركة الذكاء الاصطناعي التابعة لإيلون ماسك، التي تسمى «xAI»، يتجاهل كل هذه المبادئ تقريباً بما يتماشى مع رفض ماسك ما يسميه «الذكاء الاصطناعي المتيقظ».

بينما نماذج الصور الأخرى ترفض عموماً إنشاء صور للمشاهير، أو المواد المحمية بحقوق الطبع والنشر، أو العنف، أو الإرهاب -ما لم يتم خداعها لتجاهل هذه القواعد- فإن «Grok» سيولّد بسعادة صوراً لدونالد ترمب وهو يطلق بازوكا، أو ميكي ماوس يحمل قنبلة.

انتشرت صور مزيفة جنسية صريحة لتايلور سويفت على الإنترنت، وعلى وسائل التواصل الاجتماعي. وقد خدع أفراد مسجلون في «تلغرام» برنامج إنشاء الصور «AI Designer» من «مايكروسوفت» لإنشاء صور فاضحة؛ مما يوضح كيف يمكن التحايل على الحواجز الأمنية حتى عندما تكون موجودة.

وبينما أغلقت «مايكروسوفت» بسرعة ثغرات النظام، ألقى الحادث الضوء على سياسات تعديل المحتوى السيئة للمنصات، بعد تداول المنشورات التي تحتوي على الصور على نطاق واسع وظلّت حية لعدة أيام.

لكن النتيجة الأكثر إثارة للرعب هي مدى عجزنا عن محاربة المواد الإباحية المزيفة غير الموافقة. في حين أن أدوات وضع العلامات المائية وتسميم البيانات يمكن أن تساعد، إلا أنها ستحتاج إلى تبنيها على نطاق أوسع بكثير لإحداث فرق.

برامج الدردشة التجارية أصبحت مجنونة

مع انتشار الذكاء الاصطناعي على نطاق واسع، تتسابق الشركات لتبني أدوات توليدية لتوفير الوقت والمال، وتعظيم الكفاءة. والمشكلة هي أن برامج الدردشة الآلية تخترع أشياء، ولا يمكن الاعتماد عليها لتزويدك دائماً بمعلومات دقيقة.

اكتشفت الخطوط الجوية الكندية هذا الأمر بالطريقة الصعبة، بعد أن نصح برنامج الدردشة الآلية الخاص بها أحد العملاء باتباع سياسة استرداد الأموال في حالات الحزن التي لم تكن موجودة. وفي فبراير الماضي، أيّدت محكمة المطالبات الصغيرة الكندية الشكوى القانونية للعميل، رغم تأكيد شركة الطيران أن برنامج الدردشة الآلية كان «كياناً قانونياً منفصلاً مسؤولاً عن أفعاله الخاصة».

وفي أمثلة أخرى بارزة لكيفية تسبّب برامج الدردشة الآلية في ضرر أكثر من نفعه، أقسم برنامج شركة التوصيل «DPD» بمرح ووصف نفسه بأنه عديم الفائدة دون أي مطالبة، في حين انتهى الأمر ببرنامج آخر تم إنشاؤه لتزويد سكان نيويورك بمعلومات دقيقة حول حكومة مدينتهم إلى تقديم إرشادات حول كيفية انتهاك القانون.

أدوات ذكاء اصطناعي فاشلة

إن أهم شيء حاولت صناعة الذكاء الاصطناعي اختراقه في عام 2024 هو اختراق ميدان المساعدين الماديين، إلا أنها فشلت في ذلك. حاولت «Humane» الترويج لـ«Ai Pin»، وهو كومبيوتر ياقة يمكن ارتداؤه، ولكنه فشل في تعزيز المبيعات الضعيفة حتى بعد خفض سعره. كما عانى «Rabbit R1» -وهو جهاز مساعد شخصي قائم على «جي بي تي»- مصيراً مماثلاً، بعد سلسلة من المراجعات النقدية والتقارير التي تفيد بأنه بطيء ومليء بالأخطاء. يبدو أن كلا المنتجَيْن يحاول حل مشكلة لم تكن موجودة بالفعل.

ملخصات بحث خاطئة بالذكاء الاصطناعي

هل سبق لك أن أضفت غراء إلى بيتزا، أو أكلت صخرة صغيرة؟ هذه ليست سوى بعض الاقتراحات الغريبة التي قدمتها ميزة «AI Overviews» من «غوغل» لمستخدمي الويب في مايو (أيار)، بعد أن أضافت شركة البحث العملاقة استجابات مولدة إلى أعلى نتائج البحث. نظراً إلى أن أنظمة الذكاء الاصطناعي لا يمكنها معرفة الفرق بين قصة إخبارية صحيحة فعلياً ومنشور لنكتة على «Reddit»، فقد تسابق المستخدمون للعثور على أغرب الاستجابات التي يمكن أن تولّدها ميزة «غوغل» تلك.

لكن ملخصات الذكاء الاصطناعي يمكن أن تكون لها أيضاً عواقب وخيمة. لقد أدت ميزة جديدة في «آيفون» تجمع إشعارات التطبيقات معاً وتُنشئ ملخصات لمحتوياتها، أخيراً إلى ظهور عنوان إخباري زائف على قناة «بي بي سي نيوز».

وذكر الملخص كذباً أن لويجي مانجيوني، الذي اتُّهم بقتل الرئيس التنفيذي لشركة التأمين الصحي برايان تومسون، قد أطلق النار على نفسه. يمكن أن تؤدي مثل هذه الأخطاء عن غير قصد إلى نشر معلومات مضللة وتقويض الثقة في المؤسسات الإخبارية.