هل تراقب الشركات حياتنا الرقمية بحثاً عن المعلومات الصحية؟

وسائل لتحليل أنماط السلوك الظاهري لمستخدمي الهواتف الذكية

هل تراقب الشركات حياتنا الرقمية بحثاً عن المعلومات الصحية؟
TT

هل تراقب الشركات حياتنا الرقمية بحثاً عن المعلومات الصحية؟

هل تراقب الشركات حياتنا الرقمية بحثاً عن المعلومات الصحية؟

تتعقب مجموعات من الباحثين والشركات كل أثر رقمي يتركه مستخدمو الهواتف الذكية، كما تتعقب كثافة الكتابات والرسائل التي يرسلها ويسجلها على مواقع التواصل الاجتماعي، وسرعة بحثه في أرقام جهات الاتصال، وعدد مرّات تفقده الهاتف في وقت متأخر من الليل... لأن كل هذه المعلومات تحمل دلالات عن صحته النفسية والجسدية، كما تقول.
تحليل نمط الاتصالات
هذه هي النظرية التي يرتكز عليها مجال جديد يعرف بـ«النمط الظاهري الرقمي digital phenotyping»، الذي يسعى إلى تقييم صحة الناس بالاعتماد على تفاعلاتهم مع الأجهزة الرقمية. ويعمل الباحثون والشركات التقنية على تعقّب منشورات الناس على مواقع التواصل الاجتماعي، واتصالاتهم، وبحوثهم، ونقراتهم، بحثاً عن تغيرات سلوكية قد تكون مرتبطة بعوارض مرضية معينة.
وتظهر الإحصاءات أن الأفراد يستخدمون هواتفهم عادة 2617 مرّة في اليوم، بحسب إحدى الدراسات، هذا إن لم يكن أكثر من ذلك. ويقول الدكتور ساشين جاين، الرئيس التنفيذي في «كير مور هيلث»، وهو نظام صحي ساعد في دراسة تسجيلات «تويتر» بحثاً عن مؤشرات على مشكلات النوم، إن «تفاعلاتنا مع العالم الرقمي يمكن أن تكشف عن كثير من الأمراض المخفية، حتى إن مقاربات كهذه قد تساهم يوماً ما في معرفة ما إذا كانت الأدوية التي يتناولها المرضى مفيدة أم لا». ويضيف جاين أنها أيضاً قد تساعد في فهم مدى فعالية العلاجات.
ولكن هذا المجال الجديد لا يزال يفتقر إلى كثير من الدراسة، مما دفع بعض المناوئين له إلى التحذير من أن بعض الأنماط الظاهرية الرقمية قد لا تتعدّى مصداقيتها في رصد المشكلات الصحية، مصداقية كرة البلور التي يستخدمها العرافون والمنجمون.
وعدّ الدكتور ستيف ستينهوبل، مدير الطب الرقمي في «سكريبس ترانسليشنل ساينس إنستيتوت» في سان دييغو في حديث لوسائل إعلام أميركية، أنّ توقّف أحد الأشخاص الاجتماعيين فجأة عن مراسلة أصدقائه مثلاً، قد يشير إلى أنه أصيب بالاكتئاب، أو إلى أنه ذهب ببساطة في رحلة تخييم أدّت إلى تغيّر في سلوكه المعتاد، واصفاً هذه المقاربة بأنها النسخة الجديدة من بدعة «زيت الأفعى».
ولكن هذا التشكيك لا يعرقل مسارعة البعض إلى المجال، ومنها شركات عملاقة مثل «فيسبوك»، رغم الأسئلة الكثيرة التي تطرح حول الخصوصية والفعالية.
قراءة الميول الانتحارية
وتقود «فيسبوك» الجهود الأكبر في هذا المجال، فقد أعلنت الشركة أخيراً أنها تستخدم الذكاء الصناعي للتدقيق في الكتابات والمنشورات والبثّ الحي لمقاطع الفيديو على الشبكة بحثاً عن مؤشرات محتملة على وجود ميول انتحارية. وعندما يضبط النظام أنماطاً معينة من الحديث تتضمن تعليقات مثل: «أيمكنني المساعدة؟» أو: «هل أنت بخير» من قبل الأصدقاء، يعمل فوراً على تسجيل نتائج خوارزمية (الخوارزمية برنامج ذو نهج محدد) خاصة لمعالجة مثل هذه الكتابات، ويخطر فريق «فيسبوك» المتخصّص بالمراجعة.
في بعض الحالات، يرسل «فيسبوك» إلى المستخدمين إشعاراً مع اقتراحات مثل «اتصل بخطّ المساعدة». وفي الحالات الطارئة، ينسّق مع السلطات المحلية لإرسال المساعدة إلى موقع المستخدم. يقول الموقع إن فريق استجابته الخاص تعاون مع عمال الطوارئ أكثر من 100 مرّة في شهر واحد.
ورحّب بعض الباحثين في المجال الصحي بالجهود التي يقوم بها «فيسبوك»، والتي تغوص في أعماق العالم المعقّد للصحة النفسية. ولكنهم في المقابل تخوّفوا من أمر واحد، وهو أن «فيسبوك» لم ينشر دراسة حول دقّة نظامه ومخاطره المحتملة، كالمبالغة المحتملة وغير المقصودة للأزمة التي يعيشها المستخدم.
هذا غير أن «فيسبوك» يعمل على التدقيق في منشورات المستخدمين في الولايات المتحدة وغيرها من الدول بحثاً عن مؤشرات على نوايا انتحارية دون أن يعطي هؤلاء الحقّ في رفض الخضوع لهذا التدقيق. وتساءل فرنك باسكوال، الأستاذ في القانون بجامعة ماريلاند والذي يدرس التقنيات الصحية الناشئة: «هل تلازم صفة (الانتحارية) المستخدم الذي يحمل مؤشراتها بشكل دائم؟ ومن يمكنه الوصول إلى هذه المعلومة؟»
من جهته، قال ويل نيفيوس، المتحدّث باسم «فيسبوك» إن الموقع يزيل النتائج الخوارزمية المرتبطة بالمنشورات بعد 30 يوماً، ولكنّه يحتفظ بالحالات التي تضمّ استجابات للطوارئ في نظام منفصل غير مرتبط بملف المستخدم الشخصي.
وكان موقع «فيسبوك» قد أكّد أنه أثناء تطويره هذه الجهود، تعاون مع مجموعات معنية بالوقاية من الانتحار. وعدّ نيفيوس أن نشر دراسة مستفيضة حول هذه الجهود خطوة معقّدة بسبب صعوبة التخلّص من المعلومات الشخصية و«الطبيعة الحساسة للمنشورات».
رصد الاكتئاب
يشخّص المعالجون النفسيون عادة الاكتئاب بعد مراقبة المرضى وسؤالهم عما يشعرون به. ولكن «مايند سترونغ هيلث»، شركة ناشئة جديدة متخصصة بدراسة الصحة النفسية في «بالو التو»، تشخصه عن طريق مراقبة استخدام الناس هواتفهم الذكية.
طوّرت الشركة منصة بحثية تراقب عادات المستخدمين في استعمال هواتفهم الذكية بشكل دائم، بحثاً عن أي تغييرات في أنماط النقر والضغط، للوصول إلى دلالات محتملة حول تغيرات في المزاج والذاكرة قد تكون مرتبطة بالاكتئاب.
وقال الدكتور توماس إنسل، مؤسس الشركة ومدير سابق في «المعهد الوطني للصحة النفسية»، إن شركته تعمل على تطوير إنذار دخاني رقمي خاص بالأشخاص الذين يعانون من أمراض نفسية.
يتتبع تطبيق «مايند سترونغ هيلث» البحثي ألف نقطة بيانات متصلة بالهواتف الذكية، تشمل معلومات؛ كالمدة التي يتطلبها شخص ما للبحث عن اسم معيّن في جهات الاتصال والنقر على الاسم. وظّفت هذه الشركة مائتي متطوع للمشاركة في دراسات تجريبية، وقال إنسل إنّ الباحثين يمكن أن يستفيدوا في اختباراتهم من بعض الإشارات، كالتغييرات في دقّة وسرعة الشخص أثناء استخدامه لوحة المفاتيح، والمرتبطة أيضاً مع تغيرات حركية مشابهة.
وتشارك الشركة حالياً في دراسة حكومية كبيرة حول مرضى الصدمات، تعتمد في جزء منها على منصة «مايند سترونغ» لدراسة ما إذا كان المرضى الذين يعانون من اضطراب ما بعد الصدمة يشهدون أيضاً تغيرات في استخدامهم الهاتف الذكي.
وقال إنسل: «حصلنا على إشارات إحصائية مهمة مرتبطة بشكل كبير بهذه الحالات. ولكننا حالياً نبحث ما إذا كانت هذه الإشارات ستستخدم فعلياً في عالم العناية العيادية». وأضاف أن الشركة استعانت بخبراء أخلاقيين وقانونيين لمساعدتها في التدقيق في تأثيرات تقنيتها، وفي تنظيم إطار أخلاقي لاستخداماتها. وأخيراً، لفت إنسل إلى أنه يجب ومنذ البداية أخذ جميع النتائج غير المتعمّدة بعين الاعتبار، حتى لا تعود وترتدّ بشكل عكسي لاحقاً.



هل أصبحنا على أعتاب مرحلة تباطؤ الذكاء الاصطناعي؟

هل أصبحنا على أعتاب مرحلة تباطؤ الذكاء الاصطناعي؟
TT

هل أصبحنا على أعتاب مرحلة تباطؤ الذكاء الاصطناعي؟

هل أصبحنا على أعتاب مرحلة تباطؤ الذكاء الاصطناعي؟

يوجه ديميس هاسابيس، أحد أكثر خبراء الذكاء الاصطناعي نفوذاً في العالم، تحذيراً لبقية صناعة التكنولوجيا: لا تتوقعوا أن تستمر برامج المحادثة الآلية في التحسن بنفس السرعة التي كانت عليها خلال السنوات القليلة الماضية، كما كتب كاد ميتز وتريب ميكل (*).

التهام بيانات الإنترنت

لقد اعتمد باحثو الذكاء الاصطناعي لبعض الوقت على مفهوم بسيط إلى حد ما لتحسين أنظمتهم: فكلما زادت البيانات التي جمعوها من الإنترنت، والتي ضخُّوها في نماذج لغوية كبيرة (التكنولوجيا التي تقف وراء برامج المحادثة الآلية) كان أداء هذه الأنظمة أفضل.

ولكن هاسابيس، الذي يشرف على «غوغل ديب مايند»، مختبر الذكاء الاصطناعي الرئيسي للشركة، يقول الآن إن هذه الطريقة بدأت تفقد زخمها ببساطة، لأن البيانات نفدت من أيدي شركات التكنولوجيا.

وقال هاسابيس، هذا الشهر، في مقابلة مع صحيفة «نيويورك تايمز»، وهو يستعد لقبول «جائزة نوبل» عن عمله في مجال الذكاء الاصطناعي: «يشهد الجميع في الصناعة عائدات متناقصة».

استنفاد النصوص الرقمية المتاحة

هاسابيس ليس الخبير الوحيد في مجال الذكاء الاصطناعي الذي يحذر من تباطؤ؛ إذ أظهرت المقابلات التي أُجريت مع 20 من المديرين التنفيذيين والباحثين اعتقاداً واسع النطاق بأن صناعة التكنولوجيا تواجه مشكلة كان يعتقد كثيرون أنها لا يمكن تصورها قبل بضع سنوات فقط؛ فقد استنفدت معظم النصوص الرقمية المتاحة على الإنترنت.

استثمارات رغم المخاوف

بدأت هذه المشكلة في الظهور، حتى مع استمرار ضخ مليارات الدولارات في تطوير الذكاء الاصطناعي. في الأسبوع الماضي، قالت شركة «داتابريكس (Databricks)»، وهي شركة بيانات الذكاء الاصطناعي، إنها تقترب من 10 مليارات دولار في التمويل، وهي أكبر جولة تمويل خاصة على الإطلاق لشركة ناشئة. وتشير أكبر الشركات في مجال التكنولوجيا إلى أنها لا تخطط لإبطاء إنفاقها على مراكز البيانات العملاقة التي تدير أنظمة الذكاء الاصطناعي.

لا يشعر الجميع في عالم الذكاء الاصطناعي بالقلق. يقول البعض، بمن في ذلك سام ألتمان الرئيس التنفيذي لشركة «أوبن إيه آي»، إن التقدم سيستمر بنفس الوتيرة، وإن كان مع بعض التغييرات في التقنيات القديمة. كما أن داريو أمودي، الرئيس التنفيذي لشركة الذكاء الاصطناعي الناشئة، «أنثروبيك»، وجينسن هوانغ، الرئيس التنفيذي لشركة «نيفيديا»، متفائلان أيضاً.

قوانين التوسع... هل تتوقف؟

تعود جذور المناقشة إلى عام 2020، عندما نشر جاريد كابلان، وهو فيزيائي نظري في جامعة جونز هوبكنز، ورقة بحثية تُظهِر أن نماذج اللغة الكبيرة أصبحت أكثر قوة وواقعية بشكل مطرد مع تحليل المزيد من البيانات.

أطلق الباحثون على نتائج كابلان «قوانين التوسع (Scaling Laws)»... فكما يتعلم الطلاب المزيد من خلال قراءة المزيد من الكتب، تحسنت أنظمة الذكاء الاصطناعي مع تناولها كميات كبيرة بشكل متزايد من النصوص الرقمية التي تم جمعها من الإنترنت، بما في ذلك المقالات الإخبارية وسجلات الدردشة وبرامج الكومبيوتر.

ونظراً لقوة هذه الظاهرة، سارعت شركات، مثل «OpenAI (أوبن إيه آي)» و«غوغل» و«ميتا» إلى الحصول على أكبر قدر ممكن من بيانات الإنترنت، وتجاهلت السياسات المؤسسية وحتى مناقشة ما إذا كان ينبغي لها التحايل على القانون، وفقاً لفحص أجرته صحيفة «نيويورك تايمز»، هذا العام.

كان هذا هو المعادل الحديث لـ«قانون مور»، وهو المبدأ الذي كثيراً ما يُستشهد به، والذي صاغه في ستينات القرن العشرين المؤسس المشارك لشركة «إنتل غوردون مور»؛ فقد أظهر مور أن عدد الترانزستورات على شريحة السيليكون يتضاعف كل عامين، أو نحو ذلك، ما يزيد بشكل مطرد من قوة أجهزة الكومبيوتر في العالم. وقد صمد «قانون مور» لمدة 40 عاماً. ولكن في النهاية، بدأ يتباطأ.

المشكلة هي أنه لا قوانين القياس ولا «قانون مور» هي قوانين الطبيعة الثابتة. إنها ببساطة ملاحظات ذكية. صمد أحدها لعقود من الزمن. وقد يكون للقوانين الأخرى عمر افتراضي أقصر بكثير؛ إذ لا تستطيع «غوغل» و«أنثروبيك» إلقاء المزيد من النصوص على أنظمة الذكاء الاصطناعي الخاصة بهما، لأنه لم يتبقَّ سوى القليل من النصوص لإلقائها.

«لقد كانت هناك عائدات غير عادية على مدى السنوات الثلاث أو الأربع الماضية، مع بدء تطبيق قوانين التوسع»، كما قال هاسابيس. «لكننا لم نعد نحصل على نفس التقدم».

آلة تضاهي قوة العقل البشري

وقال هاسابيس إن التقنيات الحالية ستستمر في تحسين الذكاء الاصطناعي في بعض النواحي. لكنه قال إنه يعتقد أن هناك حاجة إلى أفكار جديدة تماماً للوصول إلى الهدف الذي تسعى إليه «غوغل» والعديد من الشركات الأخرى: آلة يمكنها أن تضاهي قوة الدماغ البشري.

أما إيليا سوتسكيفر، الذي كان له دور فعال في دفع الصناعة إلى التفكير الكبير، كباحث في كل من «غوغل» و«أوبن أيه آي»، قبل مغادرته إياها، لإنشاء شركة ناشئة جديدة، الربيع الماضي، طرح النقطة ذاتها خلال خطاب ألقاه هذا الشهر. قال: «لقد حققنا ذروة البيانات، ولن يكون هناك المزيد. علينا التعامل مع البيانات التي لدينا. لا يوجد سوى شبكة إنترنت واحدة».

بيانات مركبة اصطناعياً

يستكشف هاسابيس وآخرون نهجاً مختلفاً. إنهم يطورون طرقاً لنماذج اللغة الكبيرة للتعلُّم من تجربتهم وأخطائهم الخاصة. من خلال العمل على حل مشاكل رياضية مختلفة، على سبيل المثال، يمكن لنماذج اللغة أن تتعلم أي الطرق تؤدي إلى الإجابة الصحيحة، وأيها لا. في الأساس، تتدرب النماذج على البيانات التي تولِّدها بنفسها. يطلق الباحثون على هذا «البيانات الاصطناعية».

أصدرت «اوبن أيه آي» مؤخراً نظاماً جديداً يسمى «OpenAI o1» تم بناؤه بهذه الطريقة. لكن الطريقة تعمل فقط في مجالات مثل الرياضيات وبرمجة الحوسبة؛ حيث يوجد تمييز واضح بين الصواب والخطأ.

تباطؤ محتمل

على صعيد آخر، وخلال مكالمة مع المحللين، الشهر الماضي، سُئل هوانغ عن كيفية مساعدة شركته «نيفيديا» للعملاء في التغلب على تباطؤ محتمل، وما قد تكون العواقب على أعمالها. قال إن الأدلة أظهرت أنه لا يزال يتم تحقيق مكاسب، لكن الشركات كانت تختبر أيضاً عمليات وتقنيات جديدة على شرائح الذكاء الاصطناعي. وأضاف: «نتيجة لذلك، فإن الطلب على بنيتنا التحتية كبير حقاً». وعلى الرغم من ثقته في آفاق «نيفيديا»، فإن بعض أكبر عملاء الشركة يعترفون بأنهم يجب أن يستعدوا لاحتمال عدم تقدم الذكاء الاصطناعي بالسرعة المتوقَّعة.

وعن التباطؤ المحتمل قالت راشيل بيترسون، نائبة رئيس مراكز البيانات في شركة «ميتا»: «إنه سؤال رائع نظراً لكل الأموال التي يتم إنفاقها على هذا المشروع على نطاق واسع».

* خدمة «نيويورك تايمز»