تهديدات الذكاء الاصطناعي في طب الأسنان: بين الابتكار والمخاطر الأخلاقية

يفتقر إلى الحدس والخبرة الواقعية للأطباء

(غيتي) يفتقر الذكاء الاصطناعي إلى الحدس والخبرة الواقعية للأطباء
(غيتي) يفتقر الذكاء الاصطناعي إلى الحدس والخبرة الواقعية للأطباء
TT

تهديدات الذكاء الاصطناعي في طب الأسنان: بين الابتكار والمخاطر الأخلاقية

(غيتي) يفتقر الذكاء الاصطناعي إلى الحدس والخبرة الواقعية للأطباء
(غيتي) يفتقر الذكاء الاصطناعي إلى الحدس والخبرة الواقعية للأطباء

يشهد قطاع طب الأسنان ثورة رقمية بفضل تقنيات الذكاء الاصطناعي التي أصبحت جزءاً لا يتجزأ من التشخيص، وخطط العلاج، وإدارة المرضى. وتوفر هذه الأدوات دقة، وسرعة غير مسبوقة، ما يساعد على تحسين جودة الرعاية الصحية للفم. ولكن في المقابل، تحمل هذه التكنولوجيا تهديدات وتحديات أخلاقية قد تؤثر سلباً على مستقبل طب الأسنان إذا لم يتم التعامل معها بحذر.

مشكلات الدقة والموثوقية

تعتمد أنظمة الذكاء الاصطناعي على كميات هائلة من البيانات لاكتشاف الأنماط، واتخاذ القرارات. وفي مجال طب الأسنان، يمكن للذكاء الاصطناعي تحليل صور الأشعة السينية، واكتشاف التسوس، واقتراح خطط علاجية. ولكن دقة هذه الأنظمة تعتمد بشكل كامل على جودة وتنوع البيانات التي تم تدريبها عليها. فإذا كانت قاعدة البيانات غير شاملة، أو كانت منحازة، فقد يؤدي ذلك إلى تشخيصات خاطئة، ما قد يتسبب في علاجات غير ضرورية، أو تفويت مشكلات صحية خطيرة. وهكذا، وعلى عكس أطباء الأسنان البشر، يفتقر الذكاء الاصطناعي إلى الحدس، والخبرة الواقعية، مما يجعله عرضة للأخطاء في الحالات المعقدة.

فقدان المهارات البشرية

مع تطور تقنيات الذكاء الاصطناعي، هناك خطر متزايد من أن يعتمد أطباء الأسنان بشكل مفرط على هذه الأدوات دون التحقق من دقة نتائجها. وقد يؤدي ذلك إلى تراجع مهاراتهم التشخيصية مع مرور الوقت. كما أن الجيل الجديد من أطباء الأسنان قد يعتمد على الذكاء الاصطناعي بدلاً من تطوير قدراته التشخيصية الذاتية. وهذا التوجه قد يؤدي إلى انخفاض جودة الرعاية الصحية على المدى الطويل.

مخاطر الخصوصية والأمن السيبراني

تعتمد أنظمة الذكاء الاصطناعي في طب الأسنان على تخزين ومعالجة بيانات المرضى الحساسة، مثل السجلات الطبية، وصور الأشعة، والتفاصيل الشخصية.

ويؤدي ذلك إلى زيادة خطر التعرض لهجمات إلكترونية، أو تسرب البيانات، إذ يمكن للمتسللين استهداف عيادات الأسنان، وسرقة معلومات المرضى، مما قد يتسبب في سرقة الهوية، أو قضايا قانونية. ولذا ومن دون تدابير أمنية قوية، قد يصبح الذكاء الاصطناعي في طب الأسنان نقطة ضعف في حماية البيانات الصحية.

تحديات أخلاقية في اتخاذ القرارات

يفتقر الذكاء الاصطناعي إلى القدرة على اتخاذ قرارات أخلاقية كما يفعل البشر. فقد يوصي بعلاجات بناءً على الإحصائيات فقط، دون مراعاة ظروف المريض الشخصية، أو إمكانياته المالية.

على سبيل المثال، قد يقترح الذكاء الاصطناعي علاجاً مكلفاً باعتباره «الأفضل» دون أن يأخذ في الاعتبار قدرة المريض على تحمل تكاليفه. كما أن استخدام الذكاء الاصطناعي في تقييم مطالبات التأمين الصحي قد يؤدي إلى رفض غير عادل لبعض الحالات بناءً على خوارزميات آلية بدلاً من التقييم البشري.

تهديد فرص العمل والتغيرات في الأدوار المهنية

بدأ الذكاء الاصطناعي بالفعل في تقليل الحاجة إلى بعض الوظائف في قطاع طب الأسنان، مثل تحليل صور الأشعة، ووضع خطط العلاج. وعلى الرغم من أن الذكاء الاصطناعي لن يحل محل أطباء الأسنان بالكامل، فإنه قد يقلل الحاجة إلى بعض التخصصات المساندة، ما يؤدي إلى فقدان وظائف، أو تغيير طبيعة الأدوار المهنية، حيث يصبح الأطباء مشرفين على الذكاء الاصطناعي بدلاً من القيام بالمهام التشخيصية بأنفسهم.

تحديات المستقبل

رغم الفوائد الهائلة التي يمكن أن يقدمها الذكاء الاصطناعي لطب الأسنان، فإن التحديات المرتبطة به لا يمكن تجاهلها. فالدقة، والأخلاقيات، وأمن البيانات، وتأثيره على القوى العاملة، كلها قضايا تحتاج إلى حلول متوازنة. ولضمان أن يكون الذكاء الاصطناعي أداة مفيدة، وليس مصدراً للخطر، يجب استخدامه بحذر، تحت إشراف بشري، وضمن أطر تنظيمية واضحة. فالتكنولوجيا يمكنها تحسين الرعاية الصحية، لكنها لا يمكن أن تحل محل الخبرة، والثقة اللتين يوفرهما طبيب الأسنان للمرضى.


مقالات ذات صلة

رجل يطلب تغريم شركة «تشات جي بي تي» بعد تعريفه بأنه مجرم وقتل طفليه

تكنولوجيا شعار «تشات جي بي تي» (رويترز)

رجل يطلب تغريم شركة «تشات جي بي تي» بعد تعريفه بأنه مجرم وقتل طفليه

تقدَّم رجل نرويجي بشكوى بعد أن أخبره برنامج «تشات جي بي تي»، بالخطأ، أنه قتل اثنين من أبنائه وسُجن لمدة 21 عاماً.

«الشرق الأوسط» (لندن)
تكنولوجيا روبوت يعمل بتقنية الذكاء الاصطناعي (أ.ف.ب)

الإنسان والحاسوب من التنافس إلى الشراكة

يتغير العالم حولنا اليوم بتسارع لم يسبق له مثيل في التاريخ. وتتطور مستجدات تكنولوجيا المعلومات والاتصالات، بحيث يصعب على المرء مجرد متابعتها.

د. حسن الشريف
علوم «نيوساينتست»: وزير التكنولوجيا البريطاني يستخدم برنامج «تشات جي بي تي» لتقديم المشورة بشأن السياسات الحكومية

وزير التكنولوجيا البريطاني يستخدم برنامج «تشات جي بي تي» لتقديم المشورة بشأن السياسات

استخدم بيتر كايل، وزير التكنولوجيا البريطاني، برنامج «تشات جي بي تي» (ChatGPT) لتقديم المشورة بشأن السياسات.

«الشرق الأوسط» (لندن)
الاقتصاد مقر شركة «سوفت بنك» في العاصمة اليابانية طوكيو (أ.ف.ب)

«سوفت بنك» تستحوذ على صانعة الرقائق «أمبير» مقابل 6.5 مليار دولار

أعلنت مجموعة «سوفت بنك» الاستثمارية اليابانية شراء شركة «أمبير كومبيوتينغ» مقابل 6.5 مليار دولار

«الشرق الأوسط» (طوكيو)
الاقتصاد جزيرة شيبارة أحد مشاريع البحر الأحمر في السعودية (الشرق الأوسط)

تقرير أممي يدعو رواد الأعمال لتوظيف الذكاء الاصطناعي في السياحة

في وقت تعمل الحكومة السعودية على الاستفادة من الذكاء الاصطناعي في قطاعها السياحي، يبرز دور شركات القطاع في مجاراة الخطوات الحكومية.

بندر مسلم (الرياض)

«نيوساينتست»: وزير التكنولوجيا البريطاني يستخدم برنامج «تشات جي بي تي» لتقديم المشورة بشأن السياسات الحكومية

«نيوساينتست»: وزير التكنولوجيا البريطاني يستخدم برنامج «تشات جي بي تي» لتقديم المشورة بشأن السياسات الحكومية
TT

«نيوساينتست»: وزير التكنولوجيا البريطاني يستخدم برنامج «تشات جي بي تي» لتقديم المشورة بشأن السياسات الحكومية

«نيوساينتست»: وزير التكنولوجيا البريطاني يستخدم برنامج «تشات جي بي تي» لتقديم المشورة بشأن السياسات الحكومية

كشفت مجلة «نيو ساينتست» العلمية البريطانية أن بيتر كايل، وزير التكنولوجيا البريطاني، قد استخدم برنامج «تشات جي بي تي» (ChatGPT) لتقديم المشورة بشأن السياسات، كما كتب كريس ستوكيل - ووكر (*).

وحصلت «نيو ساينتست» الآن على سجلات استخدام الوزير كايل للبرنامج الذكي، بموجب قانون حرية المعلومات (FOI)، فيما يُعتقد أنه أول اختبار عالمي لمدى خضوع تفاعلات روبوتات الدردشة لهذا القانون.

سؤال حول بطء تبني الشركات للذكاء الاصطناعي

تُظهر هذه السجلات أن كايل طلب من «تشات جي بي تي» توضيح سبب تباطؤ مجتمع الشركات الصغيرة والمتوسطة في المملكة المتحدة في تبني الذكاء الاصطناعي. وأجاب البرنامج بقائمة من 10 نقاط للأسباب المحتملة، بما في ذلك اجابات حول «الوعي والفهم المحدود»، و«المخاوف التنظيمية والأخلاقية»، و«نقص الدعم الحكومي أو المؤسسي».

صعوبات التعامل ومحدودية التمويل والحوافز

أبلغ روبوت الدردشة كايل: «في حين أطلقت حكومة المملكة المتحدة مبادرات لتشجيع تبني الذكاء الاصطناعي، فإن كثيراً من الشركات الصغيرة والمتوسطة لا تدرك أهمية هذه البرامج أو تجد صعوبة في التعامل معها. كما أن محدودية الوصول إلى التمويل أو الحوافز لتقليل مخاطر الاستثمار في الذكاء الاصطناعي يمكن أن تُعيق تبنيه».

مخاوف قانونية وتنظيمية

وأضاف البرنامج، فيما يتعلق بالمخاوف التنظيمية والأخلاقية: «الامتثال لقوانين حماية البيانات، مثل اللائحة العامة لحماية البيانات (قانون خصوصية البيانات)، قد يُشكل عقبة كبيرة. وقد تقلق الشركات الصغيرة والمتوسطة بشأن القضايا القانونية والأخلاقية المرتبطة باستخدام الذكاء الاصطناعي».

وقال متحدث باسم وزارة العلوم والابتكار والتكنولوجيا (DSIT)، التي يرأسها كايل، إن الوزير بصفته المسؤول عن الذكاء الاصطناعي يستخدم هذه التقنية، إلا أن هذا لا يُغني عن النصائح الشاملة التي يتلقاها بانتظام من المسؤولين. وأضاف: «تستخدم الحكومة الذكاء الاصطناعي كأداة لتوفير الجهد، مدعومة بتوجيهات واضحة حول كيفية استخدام هذه التقنية بسرعة وأمان».

سؤال حول استخدام البودكاست

استخدم كايل أيضاً روبوت المحادثة لجمع أفكار حول الظهور الإعلامي، متسائلاً: «أنا وزير دولة للعلوم والابتكار والتكنولوجيا في المملكة المتحدة. ما هي أفضل البودكاستات التي يُمكنني الظهور عليها للوصول إلى جمهور واسع ومناسب لمسؤولياتي الوزارية؟»

اقترح برنامج «جي بي تي» برنامجي «The Infinite Monkey Cage» و«The Naked Scientists»، بناءً على عدد مستمعيهما.

وبالإضافة إلى طلب هذه النصائح، طلب كايل من البرنامج الذكي تعريف مصطلحات مختلفة ذات صلة بوزارته: «المادة المضادة» (antimatter)، و«الشمول الرقمي» (digital inclusion)، و«الكم» (quantum).

برنامج جيد

وأعرب خبيران تحدثت إليهما مجلة «نيو ساينتست» عن دهشتهما من جودة ردود البرنامج على تعريفاته للكم. وقال بيتر نايت من «إمبريال كوليدج لندن»: «هذا جيد بشكل مدهش، في رأيي». ويقول كريستيان بوناتو من جامعة هيريوت وات في إدنبره، بالمملكة المتحدة: «أعتقد أنه ليس سيئاً على الإطلاق».

وأكد كايل أنه استخدم البرنامج «لمحاولة فهم السياق الأوسع الذي نشأ منه الابتكار، والأشخاص الذين طوّروه، والمؤسسات التي تقف وراءهم»، وأن «تشات جي بي تي» ممتاز للغاية، وعندما تجد صعوبة في فهم الأمور بعمق يمكن أن يكون مُدرّباً جيداً جداً لها.

وكانت دائرة تكنولوجيا المعلومات والاتصالات رفضت في البداية طلب «حرية المعلومات» المقدم من مجلة «نيو ساينتست»، قائلةً: «يتضمن سجل بيتر كايل في (تشات جي بي تي) طلبات وردوداً قُدّمت بصفة شخصية ورسمية». إلا أن الموافقة تمت على طلب مُحسّن، يقتصر على الطلبات والردود المقدمة بصفة رسمية فقط.

سابقة قانونية

يقول تيم تيرنر، خبير حماية البيانات المقيم في مانشستر بالمملكة المتحدة، إن مجرد تقديم البيانات يُعدّ صدمة، ويعتقد أنها قد تكون أول حالة تُنشر فيها تفاعلات (مراسلات) روبوتات الدردشة بموجب قانون حرية المعلومات. ويضيف: «أنا مندهش من حصولكم عليها. كنت أعتقد أنهم سيحرصون على تجنب سابقة قانونية».

وهذا بدوره يطرح تساؤلات على الحكومات التي لديها قوانين مماثلة لحرية المعلومات، مثل الولايات المتحدة. فعلى سبيل المثال، هل يُشبه «تشات جي بي تي» برامج رسائل البريد الإلكتروني أو محادثات «واتساب»، وكلاهما يخضع تاريخياً لقانون حرية المعلومات، أم أنه يُشبه نتائج استعلام محرك للبحث، التي كان من الأسهل على المؤسسات رفضها تقليدياً؟ يختلف الخبراء حول الإجابة.

* خدمات «تريبيون ميديا»