هل بياناتك في خطر؟... إليك تصنيف أكثر أدوات الذكاء الاصطناعي انتهاكاً للخصوصية

تقرير يكشف أين تذهب بياناتك ومن يقرأها!

التصنيف اعتمد على 3 محاور رئيسة هي استخدام بيانات التدريب والشفافية وجمع البيانات ومشاركتها مع أطراف ثالثة (غيتي)
التصنيف اعتمد على 3 محاور رئيسة هي استخدام بيانات التدريب والشفافية وجمع البيانات ومشاركتها مع أطراف ثالثة (غيتي)
TT

هل بياناتك في خطر؟... إليك تصنيف أكثر أدوات الذكاء الاصطناعي انتهاكاً للخصوصية

التصنيف اعتمد على 3 محاور رئيسة هي استخدام بيانات التدريب والشفافية وجمع البيانات ومشاركتها مع أطراف ثالثة (غيتي)
التصنيف اعتمد على 3 محاور رئيسة هي استخدام بيانات التدريب والشفافية وجمع البيانات ومشاركتها مع أطراف ثالثة (غيتي)

في الوقت الذي تُحدث فيه تقنيات الذكاء الاصطناعي ثورة في طريقة عملنا وتعلمنا وتواصلنا، تزداد وتيرة الاعتماد على نماذج اللغة الكبيرة (LLMs) والأدوات التوليدية، مثل «تشات جي بي تي» وأمثاله. هذه الأدوات توفر للمستخدمين راحة وكفاءة غير مسبوقتين، ولكن تأتي هذه الراحة على حساب الخصوصية أحياناً.

تقرير جديد صادر عن «إنكوغني» (Incogni) يلقي الضوء على كيفية تعامل أبرز منصات الذكاء الاصطناعي مع بيانات المستخدمين، كاشفاً عن فروق كبيرة في مدى احترام الخصوصية والشفافية.

بين الابتكار والانتهاك

مع تسارع انتشار أدوات الذكاء الاصطناعي، نادراً ما يسأل المستخدمون: من يرى ما أكتبه؟ وما مصير تلك البيانات؟ تعتمد هذه النماذج في تدريبها وتحسين أدائها على البيانات بما فيها ما يدخله المستخدمون بأنفسهم. لكن طريقة استخدام تلك البيانات تختلف بشكل كبير من منصة إلى أخرى.

قامت«إنكوغني» بتحليل تسع منصات رائدة باستخدام 11 معياراً متعلقاً بالخصوصية، لتقييم مدى التزامها بحماية معلومات المستخدمين.

تقرير «إنكوغني» 2025 يصنّف أبرز منصات الذكاء الاصطناعي بحسب مدى احترامها لخصوصية المستخدمين بناءً على 11 معياراً دقيقاً (غيتي)

منصات تجمع بين الأداء والخصوصية

1. Le Chat (Mistral AI)

جاءت هذه المنصة في المرتبة الأولى، بفضل جمعها المحدود للبيانات، وإتاحة خيار عدم مشاركة بيانات المستخدم مع النموذج. رغم أن الشفافية ليست مثالية، فإنها تُعدّ الأكثر احتراماً للخصوصية.

2. ChatGPT (OpenAI)

حلّت «ChatGPT» في المرتبة الثانية، بفضل سياسات واضحة تتيح للمستخدمين إلغاء مشاركة المحادثات مع النظام، إلى جانب توفير وثائق خصوصية سهلة الوصول والفهم.

3. Grok (xAI)

نموذج «غروك» من شركة «xAI» احتل المركز الثالث. وتبين أنه يتمتع بأداء جيد فيما يتعلق بالخصوصية، لكنه متأخر نسبياً في مجالات الشفافية ومشاركة البيانات.

كما جاءت نماذج «Claude» من شركة «Anthropic» في مرتبة قريبة، وإن كانت هناك بعض المخاوف حول كيفية تفاعلها مع بيانات المستخدم.

من جاء في قاع التصنيف؟

احتلت الشركات التقنية الكبرى المراتب الأدنى في التصنيف. جاءت «ميتا إيه آي» (Meta AI) في ذيل القائمة، تليها «جيمناي» (Gemini) من «غوغل» و«كوبايلوت» من «مايكروسوفت». وُجد أن هذه المنصات لا تتيح للمستخدمين خيار إلغاء استخدام محادثاتهم لأغراض التدريب. كما أنها تشارك البيانات داخلياً، وأحياناً مع جهات خارجية. وأيضاً تستخدم سياسات خصوصية عامة وغامضة لا تفصل كيفية تعاملها مع بيانات الذكاء الاصطناعي تحديداً.

يشكل التقرير أداة مهمة لتوعية المستخدمين ودفع الشركات نحو الشفافية ودعم الجهات التنظيمية في وضع تشريعات رقمية عادلة (أدوبي)

المعايير المتبعة

اعتمدت «إنكوغني» في تصنيفها لمدى احترام منصات الذكاء الاصطناعي للخصوصية على ثلاث فئات رئيسة من المعايير، تشكل مجتمعة صورة شاملة لكيفية تعامل كل منصة مع بيانات المستخدم.

المعيار الأول يتمثل في استخدام بيانات التدريب، ويقيس ما إذا كانت المنصات تستخدم محادثات المستخدمين في تدريب نماذجها، وما إذا كان بإمكان المستخدم إلغاء هذا الاستخدام. أظهرت النتائج أن منصات مثل OpenAI وMicrosoft وMistral وxAI تتيح للمستخدمين خيار الانسحاب من عملية استخدام بياناتهم لأغراض التدريب، وهو ما يُعدُّ خطوة مهمة نحو تعزيز التحكم الشخصي. في المقابل، لا توفر منصات مثل Google وMeta وDeepSeek وPi AI هذا الخيار؛ ما يثير تساؤلات حول مدى التزامها بمنح المستخدمين حرية الاختيار. من جهة أخرى، تميزت نماذج «كلود» (Claude) التابعة لشركة «أنثروبيك» (Anthropic) بعدم استخدامها بيانات المستخدمين في التدريب على الإطلاق.

أما المعيار الثاني، فهو الشفافية، والذي يقيّم مدى وضوح المنصة في شرح سياساتها المتعلقة بجمع البيانات واستخدامها. في هذا المجال، حصلت OpenAI وAnthropic وMistral وxAI على أعلى التقييمات، بفضل وثائقها الواضحة وسهولة الوصول. في المقابل، جاءت «مايكروسوفت» و«ميتا» في مرتبة أقل نظراً لصعوبة الوصول إلى التفاصيل الدقيقة في وثائقهما، بينما لجأت «غوغل» و«ديب سيك» و«باي إيه آي» و«Pi AI» إلى دفن المعلومات المهمة داخل سياسات خصوصية مطوّلة يصعب على المستخدم العادي تتبعها أو فهمها.

أما الفئة الثالثة والأخيرة، فهي جمع البيانات ومشاركتها، حيث ركّز التقييم على نوعية البيانات التي تجمعها التطبيقات، وما إذا كانت تشارك هذه البيانات مع أطراف خارجية. برزت منصتا «Le Chat» و«Pi AI» أكثر الأدوات احتراماً لخصوصية المستخدم في هذا الجانب؛ إذ جمعتا الحد الأدنى من بيانات الهاتف المحمول. على النقيض، كشفت الدراسة عن أن «Meta AI» و«Gemini» و«Grok» تجمع كميات كبيرة من البيانات الحساسة مثل الموقع الجغرافي، الصور، وأرقام الهواتف، بل وتقوم أحياناً بمشاركتها مع جهات خارجية؛ وهو ما يشكل مصدر قلق حقيقي فيما يخص أمن المعلومات الشخصية.

تطبيقات الهواتف المحمولة

نظراً لأن عدداً كبيراً من المستخدمين يتفاعلون مع أدوات الذكاء الاصطناعي من خلال تطبيقات الهواتف الذكية، شمل تقرير «إنكوغني» أيضاً تحليلاً دقيقاً لإصدارات «آي أو إس» (iOS) و«أندرويد» (Android) الخاصة بهذه المنصات؛ بهدف تقييم مستوى الأمان والخصوصية في بيئة الهاتف المحمول.

وقد أظهر التحليل تبايناً واضحاً في مستويات جمع البيانات بين التطبيقات. في المقدمة، جاء تطبيقا «Le Chat» و«Pi AI» أكثر التطبيقات التزاماً بالخصوصية، حيث اقتصر جمع البيانات فيهما على الحد الأدنى؛ ما جعلهما من بين الخيارات الأكثر أماناً للمستخدمين على الهاتف.

أما تطبيق «تشات جي بي تي» فصُنّف في فئة المخاطر المتوسطة؛ إذ يجمع بعض البيانات، لكنها لا تُقارن من حيث الكم أو النوع مع المنصات الأخرى الأقل احتراماً للخصوصية.

في المقابل، احتلت تطبيقات «Grok» و«Claude» و«Gemini» و«DeepSeek» مرتبة عالية في مستوى جمع البيانات، في حين جاءت «Meta AI» في ذيل القائمة بوصفها الأسوأ من حيث الخصوصية. فقد تبين أنها تجمع مجموعة كبيرة من البيانات الحساسة مثل الاسم والموقع الجغرافي والبريد الإلكتروني، بل وتقوم بمشاركة هذه المعلومات أحياناً مع أطراف خارجية؛ ما يُثير قلقاً كبيراً بشأن حماية معلومات المستخدمين الشخصية في بيئة الهاتف المحمول.

كشف تحليل إصدارات تطبيقات الهواتف عن أن جمع البيانات على الأجهزة المحمولة قد يكون أكثر تدخلاً وخطورة من استخدام المنصة على الويب (أدوبي)

ما أهمية التصنيف؟

تبرز أهمية هذا التصنيف في كونه أكثر من مجرد ترتيب تقني؛ فهو يمثل أداة توعوية وتنظيمية في آنٍ واحد، تخدم المستخدمين وصناع القرار والشركات على حد سواء.

أولاً، على مستوى الأفراد، يسهم التصنيف في توعية المستخدمين؛ إذ يسلط الضوء على كيفية تعامل كل منصة مع البيانات الشخصية، وهو أمر لا يعرفه الكثير من المستخدمين عند استخدام أدوات الذكاء الاصطناعي. ومن خلال هذا التقييم، يصبح بإمكانهم اتخاذ قرارات مبنية على وعي ومعرفة، واختيار المنصات التي تحترم خصوصيتهم فعلياً.

ثانياً، يلعب التصنيف دوراً تحفيزياً في دفع المنصات نحو مزيد من الشفافية، حيث يشكّل الضغط المجتمعي أداة فعالة لإجبار الشركات على تحسين سياساتها وتقديم خيارات أكثر وضوحاً وتحكماً للمستخدم فيما يتعلق بالبيانات التي يتم جمعها أو استخدامها.

وأخيراً، يُعدّ هذا التصنيف مفيداً أيضاً على صعيد السياسات العامة؛ إذ يساهم في تمكين الجهات التنظيمية من خلال توفير بيانات موثوقة، ومبنية على تحليل دقيق؛ ما يساعد في صياغة تشريعات رقمية أكثر توازناً وحداثة تستجيب للتطورات المتسارعة في عالم الذكاء الاصطناعي.

الخيارات أمام المستخدم

أما بالنسبة للمستخدم، فإن التقرير يقدم مجموعة من الخيارات العملية التي يمكن اتخاذها لتعزيز الخصوصية الرقمية عند استخدام أدوات الذكاء الاصطناعي.

في البداية، يُنصح باختيار منصات مثل «Le Chat» و«ChatGPT» و«Grok»؛ كونها من الأدوات التي توفر مستوى جيداً من الشفافية وتتيح للمستخدمين التحكم الفعلي في كيفية استخدام بياناتهم، بما في ذلك إمكانية إلغاء مشاركة المحادثات في تدريب النماذج.

كما يُعدّ تعديل إعدادات الخصوصية خطوة ضرورية، حيث ينبغي على المستخدمين التأكد من تفعيل خيار الانسحاب من استخدام المحادثات في التدريب إن توفر، والاطلاع على خيارات مشاركة البيانات المتاحة في إعدادات الحساب.

أخيراً، وقبل تثبيت أي تطبيق ذكاء اصطناعي على الهاتف، من المهم مراجعة أذونات التطبيق بعناية خصوصاً تلك المتعلقة بجمع البيانات مثل الموقع الجغرافي أو جهات الاتصال أو الصور، ومعرفة ما إذا كانت تُشارك مع جهات خارجية؛ لضمان تقليل المخاطر على الخصوصية الشخصية إلى أدنى حد ممكن.

التوازن هو الحل

تستمر أدوات الذكاء الاصطناعي في دفع حدود الابتكار، ولكن كما أظهر «تصنيف خصوصية» عام 2025، ليست كل المنصات سواءً في احترام بياناتك. الدرس واضح: اختر أدوات تُصمم بخصوصيتك في الاعتبار، وادعم السياسات التي تحاسب المنصات، وساهم في بناء مستقبل رقمي لا يُضحّي بالحقوق من أجل الراحة.


مقالات ذات صلة

نظرة إلى الذكاء الاصطناعي... وصحة الدماغ في 2025

علوم الانسان ضائع في عصر الذكاء الاصطناعي وهلوساته

نظرة إلى الذكاء الاصطناعي... وصحة الدماغ في 2025

إليكم ما يقوله أربعة من الاختصاصيين في حول الجوانب العلمية التي أثارت اهتمامهم في عام 2025. الذكاء الاصطناعي: محتوى منمق وغير منطقي نحن نغرق في بحر من…

«الشرق الأوسط» (لندن)
تكنولوجيا القفل الذكي «نوكي«

أفضل الأقفال الذكية

• القفل الذكي «نوكي» Nuki. يتميز القفل الذكي «نوكي» بمكونات عالية الجودة، وقدرات تكامل سلسة، وتصميم أنيق، كما تصفه الشركة. يعتبر هذا القفل المبتكر جديداً على ال

غريغ إيلمان (واشنطن)
علوم تعرف على معلم الذكاء الاصطناعي الجديد... الخاص بك

تعرف على معلم الذكاء الاصطناعي الجديد... الخاص بك

أصبحت تطبيقات المساعدة المعتمدعلى الذكاء الاصطناعي، اليوم، أكثر من مجرد أجهزة للرد الآلي. وفي واقع الأمر، يعدّ كل من «وضع الدراسة» الجديد من «تشات جي بي تي»،

جيرمي كابلان (واشنطن)
الخليج المهندس أحمد الصويان وأنطونيو غوتيريش يبحثان الموضوعات المشتركة وسُبل التعاون (هيئة الحكومة الرقمية)

غوتيريش يشيد بتقدم السعودية النوعي في الحكومة الرقمية

أشاد أنطونيو غوتيريش، أمين عام الأمم المتحدة، بما حققته السعودية من تقدم نوعي في مجال الحكومة الرقمية، عادّاً ما وصلت إليه نموذجاً دولياً رائداً.

«الشرق الأوسط» (الرياض)
تكنولوجيا تكشف البيانات أن المستخدمين يلجأون للمساعد لطرح أسئلة صحية وعاطفية وفلسفية وليس فقط لحلول تقنية أو عملية (شاترستوك)

كيف يتحول «مايكروسوفت كوبايلوت» من أداة عمل إلى رفيق يومي للمستخدمين؟

يكشف التقرير أن «كوبايلوت» لم يعد مجرد أداة إنتاجية بل أصبح شريكاً رقمياً يلجأ إليه المستخدمون للعمل والقرارات اليومية بما يطرح تحديات ثقة ومسؤولية للمطوّرين.

نسيم رمضان (لندن)

ماذا نعرف عن «الاقتران الخفي» أحدث طرق الاحتيال عبر «واتساب»؟

تبدأ العملية الاحتيالية برسالة من جهة اتصال موثوقة (رويترز)
تبدأ العملية الاحتيالية برسالة من جهة اتصال موثوقة (رويترز)
TT

ماذا نعرف عن «الاقتران الخفي» أحدث طرق الاحتيال عبر «واتساب»؟

تبدأ العملية الاحتيالية برسالة من جهة اتصال موثوقة (رويترز)
تبدأ العملية الاحتيالية برسالة من جهة اتصال موثوقة (رويترز)

تنتشر حالياً عملية احتيال جديدة ومتطورة تستهدف مستخدمي تطبيق «واتساب»، وتُعرف هذه العملية باسم «الاقتران الخفي» أو (Ghost Pairing)، وهي حيلة تُمكّن المُحتال من السيطرة على حساب «واتساب» الخاص بالضحية دون الحاجة إلى اختراق كلمة المرور أو اعتراض الرسائل.

بدلاً من ذلك، تعتمد هذه العملية على أساليب «الهندسة الاجتماعية»، حيث يتم خداع المستخدمين لحملهم على منح الوصول إلى حساباتهم للمحتالين. ويُحذّر خبراء الأمن السيبراني من مخاطر هذه العملية، التي تنتشر عبر جهات الاتصال الموثوقة، مما يجعلها «خبيثة للغاية»، وفق ما ذكره موقع «صوت المراقب» أو (observer voice).

فهم عملية «الاقتران الخفي»

تبدأ العملية عادةً برسالة تبدو بريئة من جهة اتصال موثوقة. قد يتلقى الضحايا رسالة نصية تقول: «مرحباً، هل هذا أنت في هذه الصورة؟» أو «لقد وجدت صورتك للتو»، مصحوبة برابط يبدو أنه يؤدي إلى منشور مألوف على وسائل التواصل الاجتماعي.

عند النقر على الرابط، يتم توجيه المستخدمين إلى صفحة ويب زائفة مصممة لتقليد موقع شرعي. تطلب هذه الصفحة منهم «التحقق» من هويتهم لعرض المحتوى، مما يُفعّل بدء عملية الاقتران أو الربط مع الجهاز المُستخدم من خلاله تطبيق «واتساب».

وخلال هذه العملية، يُطلب من المستخدمين إدخال رقم جوالهم، يلي ذلك توليد رمز رقمي للربط. ثم تُوجّه الصفحة الاحتيالية الضحية لإدخال هذا الرمز في واتساب، مُخفيةً إياه كأنه «إجراء أمني».

بذلك، تربط الضحية دون علمها جهاز المُهاجِم بحسابها. وبمجرد الربط، يحصل المُهاجم على وصول كامل إلى حساب «واتساب» الخاص بالضحية، مما يسمح له بقراءة الرسائل، وتنزيل الوسائط، وإرسال الرسائل دون علم الضحية.

الانتشار السريع للعملية الاحتيالية

يُعدّ الاحتيال عبر «الاقتران الخفي» خطيراً للغاية نظراً لاعتماده على الثقة. فبمجرد اختراق حساب، يستطيع المهاجمون استخدامه لإرسال روابط خبيثة إلى جهات اتصال الضحية ومجموعات الدردشة.

ولأن هذه الرسائل تأتي من مصادر مألوفة، يزداد احتمال نقر المستلمين عليها، مما يُسهّل انتشار عملية الاحتيال بسرعة دون الحاجة إلى رسائل بريد إلكتروني عشوائية أو علامات تحذيرية واضحة.

ووفق موقع «صوت المراقب»، فقد رُصدت هذه العملية في البداية في أجزاء من أوروبا، لكن الخبراء يُحذّرون من أنها لا تقتصر على منطقة مُحدّدة، بل يُمكن أن تستهدف أي مُستخدم لتطبيق «واتساب» في العالم.

ويُعزّز جانب «الهندسة الاجتماعية» في العملية من فاعليتها. إذ يستغل المحتالون ثقة المستخدمين في جهات اتصالهم وشعورهم بالأمان تجاههم، وهو ما يُشجّع الضحايا على التفاعل أكثر مع عملية الاحتيال.

وتتميز عملية الاحتيال عبر «الاقتران الخفي» عن غيرها من عمليات الاحتيال بأنها لا تعتمد على استغلال ثغرات التطبيقات أو إضعاف التشفير. وتُسلط العملية الضوء على اتجاه مُقلق في التهديدات الرقمية، حيث يُركز المُهاجمون على استغلال السلوك البشري بدلاً من نقاط الضعف التقنية.

كيف تحمي نفسك؟

للحماية من عملية «الاقتران الخفي»، يجب على المستخدمين إعطاء الأولوية للوعي بالحلول التقنية. ويُعدّ التحقق المنتظم من قائمة «الأجهزة المرتبطة» في «واتساب» أمراً بالغ الأهمية، حيث يُمكّن المستخدمين من تحديد أي أجهزة غير مألوفة وإزالتها، كما يجب التعامل بحذر مع أي طلبات لإدخال رموز اقتران أو التحقق من الهوية عبر مواقع ويب خارجية.

ويُمكن أن يُوفّر تفعيل «التحقق بخطوتين» أو (Two-step verification) طبقة إضافية من الأمان. كما يجب على المستخدمين توخي الحذر من الرسائل غير المتوقعة، حتى من جهات الاتصال المعروفة، والتحقق من صحتها قبل النقر على أي روابط.


«تسلا» تعرض الروبوت الشبيه بالبشر «أوبتيموس» في برلين

 «أوبتيموس» (أ.ب)
«أوبتيموس» (أ.ب)
TT

«تسلا» تعرض الروبوت الشبيه بالبشر «أوبتيموس» في برلين

 «أوبتيموس» (أ.ب)
«أوبتيموس» (أ.ب)

كشفت شركة «تسلا»، السبت، عن روبوتها الشبيه بالبشر المُسمى «أوبتيموس» أمام الجمهور في العاصمة الألمانية برلين.

وقام الروبوت بتوزيع الفشار في سوق لعيد الميلاد بمركز التسوق «إل بي 12»، المعروف أيضاً باسم «مول برلين»؛ حيث كان يلتقط علب الفشار الصغيرة ويملؤها، ثم يقدمها للزوار.

وتشكل طابور طويل أمام المنصة. وكما الحال في عروض مماثلة أخرى قدمتها «تسلا»، ظل من غير الواضح إلى أي مدى كان «أوبتيموس» يعمل بشكل ذاتي، أو ما إذا كان خاضعاً للتحكم عن بُعد جزئياً على الأقل.

«أوبتيموس» (أ.ب)

وفي الوقت الذي يتوقع فيه أن تتراجع مبيعات سيارات «تسلا» الكهربائية مرة أخرى هذا العام، أعلن الرئيس التنفيذي للشركة إيلون ماسك أن مستقبل «تسلا» يكمن في سيارات الأجرة ذاتية القيادة «الروبوتاكسي»، والروبوتات الشبيهة بالبشر.

كما توقّع ماسك أن يفوق عدد الروبوتات عدد البشر في العالم مستقبلاً، مشيراً إلى أن السيارات ذاتية القيادة والروبوتات ستفضي إلى «عالم بلا فقر»، يتمتع فيه الجميع بإمكانية الوصول إلى أفضل رعاية طبية. وأضاف قائلاً: «سيكون (أوبتيموس) جراحاً مذهلًا».

وأوضح ماسك أنه يأمل في بدء إنتاج هذه الروبوتات بحلول نهاية العام المقبل.

وحسب تقارير إعلامية، يتم التحكم في بعض هذه الروبوتات عن بُعد خلال مثل هذه العروض. وأثار مقطع فيديو ضجة على الإنترنت مؤخراً، يظهر فيه روبوت «أوبتيموس» وهو يسقط إلى الخلف مثل لوح مسطح خلال فعالية في مدينة ميامي.

وقبل أن يسقط يرفع الروبوت ذراعيه الاثنتين إلى رأسه، في حركة توحي بأن الشخص الذي كان يتحكم فيه عن بُعد قد نزع نظارة ثلاثية الأبعاد. ولم تعلق «تسلا» على ذلك.


خبراء يحذِّرون: الاعتماد على الذكاء الاصطناعي يقلل من نشاط الدماغ

يورينا نوغوتشي البالغة من العمر 32 عاماً تتحدث مع كلاوس شريكها في الذكاء الاصطناعي عبر تطبيق «شات جي بي تي» خلال تناول العشاء في منزلها بطوكيو (رويترز)
يورينا نوغوتشي البالغة من العمر 32 عاماً تتحدث مع كلاوس شريكها في الذكاء الاصطناعي عبر تطبيق «شات جي بي تي» خلال تناول العشاء في منزلها بطوكيو (رويترز)
TT

خبراء يحذِّرون: الاعتماد على الذكاء الاصطناعي يقلل من نشاط الدماغ

يورينا نوغوتشي البالغة من العمر 32 عاماً تتحدث مع كلاوس شريكها في الذكاء الاصطناعي عبر تطبيق «شات جي بي تي» خلال تناول العشاء في منزلها بطوكيو (رويترز)
يورينا نوغوتشي البالغة من العمر 32 عاماً تتحدث مع كلاوس شريكها في الذكاء الاصطناعي عبر تطبيق «شات جي بي تي» خلال تناول العشاء في منزلها بطوكيو (رويترز)

أفاد تقرير بأن تفويض بعض المهام إلى الذكاء الاصطناعي يقلل من نشاط الدماغ؛ بل وقد يضر بمهارات التفكير النقدي وحل المشكلات.

في وقت سابق من هذا العام، نشر «معهد ماساتشوستس للتكنولوجيا» (MIT) دراسة أظهرت أن الأشخاص الذين استخدموا برنامج «شات جي بي تي» لكتابة المقالات أظهروا نشاطاً أقل في شبكات الدماغ المرتبطة بالمعالجة المعرفية في أثناء قيامهم بذلك.

لم يتمكن هؤلاء الأشخاص أيضاً من الاستشهاد بمقالاتهم بسهولة، كما فعل المشاركون في الدراسة الذين لم يستخدموا روبوت محادثة يعمل بالذكاء الاصطناعي. وقال الباحثون إن دراستهم أظهرت «أهمية استكشاف احتمال انخفاض مهارات التعلم».

تم اختيار جميع المشاركين الـ54 من «معهد ماساتشوستس للتكنولوجيا» (MIT) والجامعات المجاورة. وسُجِّل نشاط أدمغتهم باستخدام تخطيط كهربية الدماغ (EEG)، الذي يتضمن وضع أقطاب كهربائية على فروة الرأس.

وتضمنت بعض التوجيهات التي استخدمها المشاركون طلب المساعدة من الذكاء الاصطناعي لتلخيص أسئلة المقالات، والبحث عن المصادر، وتحسين القواعد والأسلوب.

كما استُخدم الذكاء الاصطناعي لتوليد الأفكار والتعبير عنها، ولكن بعض المستخدمين شعروا بأنه لم يكن بارعاً في ذلك.

انخفاض التفكير النقدي

وفي دراسة منفصلة، ​​وجدت جامعة «كارنيجي ميلون» و«مايكروسوفت» التي تُشغّل برنامج «Copilot»، أن مهارات حل المشكلات لدى الأفراد قد تتضاءل إذا ما اعتمدوا بشكل مفرط على الذكاء الاصطناعي.

واستطلعت الدراسة آراء 319 موظفاً من ذوي الياقات البيضاء ممن يستخدمون أدوات الذكاء الاصطناعي في وظائفهم مرة واحدة على الأقل أسبوعياً، حول كيفية تطبيقهم للتفكير النقدي عند استخدامها.

ودرس الباحثون 900 مثال لمهام مُسندة إلى الذكاء الاصطناعي، تتراوح بين تحليل البيانات لاستخلاص رؤى جديدة والتحقق من استيفاء العمل لقواعد مُحددة.

وخلصت الدراسة إلى أن ارتفاع مستوى الثقة في قدرة الأداة على أداء مهمة ما يرتبط بـ«انخفاض مستوى التفكير النقدي»، وذكرت الدراسة أن «مع أن الذكاء الاصطناعي من الجيل الجديد يُمكن أن يُحسِّن كفاءة العاملين، فإنه قد يُعيق التفاعل النقدي مع العمل، وقد يُؤدي إلى اعتماد مُفرط طويل الأمد على الأداة، وتراجع مهارات حل المشكلات بشكل مستقل».

كما أُجري استطلاع رأي مماثل على طلاب المدارس في المملكة المتحدة، نُشر في أكتوبر (تشرين الأول) من قِبل مطبعة جامعة أكسفورد. وأظهر أن 6 من كل 10 أشخاص شعروا بأن الذكاء الاصطناعي قد أثر سلباً على مهاراتهم الدراسية.

وقد وجدت دراسة أجرتها كلية الطب بجامعة هارفارد ونُشرت العام الماضي، أن مساعدة الذكاء الاصطناعي حسَّنت أداء بعض الأطباء، ولكنها أضرَّت بأداء آخرين لأسباب لم يفهمها الباحثون تماماً.

معلم خصوصي لا مقدم للإجابات

تقول جاينا ديفاني التي تقود التعليم الدولي في شركة «أوبن إيه آي» -الشركة التي تمتلك «شات جي بي تي»- والتي ساعدت في تأمين الدراسة مع جامعة أكسفورد، إن الشركة «تدرك تماماً هذا النقاش في الوقت الحالي».

وتقول لـ«بي بي سي»: «لا نعتقد قطعاً أن على الطلاب استخدام (شات جي بي تي) لتفويض المهام الدراسية». وترى أنه من الأفضل استخدامه كمعلمٍ خصوصي لا مجرد مُقدّمٍ للإجابات.