مستقبلات ضوئية مرنة تحاكي شبكية العين البشرية

باحثو «كاوست» يطورون تطبيقات متنوعة مستوحاة منها

البروفسور خالد سلامة يحمل مصفوفة مستقبلات ضوئية مرنة مصنعة في {كاوست}
البروفسور خالد سلامة يحمل مصفوفة مستقبلات ضوئية مرنة مصنعة في {كاوست}
TT

مستقبلات ضوئية مرنة تحاكي شبكية العين البشرية

البروفسور خالد سلامة يحمل مصفوفة مستقبلات ضوئية مرنة مصنعة في {كاوست}
البروفسور خالد سلامة يحمل مصفوفة مستقبلات ضوئية مرنة مصنعة في {كاوست}

تعتبر القوة الحاسوبية محركاً مُهِمّاً في النمو التكنولوجي والصناعي والاقتصادي للمجتمع في جميع أنحاء العالم، حيث اعتمد الإنسان - منذ ظهور المعالجات الدقيقة - على القدرات الحاسوبية للآلات لإجراء العمليات الحسابية المعقدة بصورة أسرع بكثير من الوقت الذي يحتاجه الدماغ البشري. إلا أن تفوق القوة الحاسوبية على العقل البشري ينحصر بصورة معينة في العمليات الحسابية المعقدة، بينما يتضاءل عند مقارنتها بقدرة الإنسان على تحديد الأنماط واتخاذ الإجراءات أو، على سبيل المثال، التعرف على ملامح الوجه بدقة للأفراد بين الحشود.

- حوسبة عصبية
وفي هذا السياق، تلعب الهندسة العصبية أو الحوسبة العصبية - وهي فرع من العلوم مستوحى من الدماغ البشري - دوراً كبيراً في بناء وتنظيم الأطر العملية لأنظمة الحاسب الآلي. ويأمل العلماء في تطبيق بعض ما نعرفه عن وظيفة الدماغ لتحقيق أقصى قدر من التقدم المهم في تصميم الأنظمة العصبية الصناعية بالاعتماد على تقنيتي الذكاء الصناعي (AI) وتعليم الآلة لبناء أنظمة بصرية حاسوبية أفضل، وروبوتات وسيارات مستقلة، وأجهزة استشعار أكثر ذكاءً، والكثير من التطبيقات الأخرى.
نشرت مجلة نيتشر (Nature) العلمية في وقت سابق من هذا العام ورقة بحثية بعنوان «مستقبلات ضوئية مرنة تحاكي شبكية العين» لفريق من الباحثين في مختبر الاستشعار في جامعة الملك عبد الله للعلوم والتقنية (كاوست)، بقيادة البروفيسور خالد نبيل سلامة تناولت بحثهم حول تطوير مستقبلات ضوئية مرنة هجينة من البيروفسكايت يمكن ضبط سعتها عن طريق تحفيز الضوء، وبالتالي محاكاة شبكية العين البشرية.
بدأ المشروع عندما لاحظ طالب في فريق الباحثين أن خصائص المكثف الكهربائي التي يمكن تغييرها من خلال تسليط الضوء عليها، تتأثر في الوقت نفسه وبشكل مختلف بناءً على لون الضوء، مثل الأخضر أو الأزرق أو الأحمر.
يقول البروفيسور سلامة: «وجدنا أن النطاق الذي تؤثر عليه هذه المكثفات هو نفس نطاق العين البشرية، وهو ما نسميه النطاق المرئي، لذلك بدأنا ننظر لها بنفس نظرتنا للعين البشرية التي تستطيع أيضاً تغيير خصائصها».
كانت الخطوة التالية لعلماء مختبر الاستشعار في كاوست هي الاستفادة من خبرة زملائهم الباحثين في الجامعة الذين يعملون في مجال توصيف الصور والتعرف على أنماط الدماغ لبناء نظام كامل يربط بين الرؤية والمعالجة. وكان هدفهم في الأساس التعرف على آلية ربط العين بالدماغ، بحيث عندما ترى العين شيئا ما، يتعرف الدماغ عليه. وتحقق مرادهم من خلال العمل مع البروفيسور بون أوي، المتخصص في أنظمة الكشف البصري.

استخدام بوليمر حساس للضوء أثناء تصنيع مصفوفة مستقبلات ضوئية مرنة

- تطبيقات مطورة
وقد عمل فريق الباحثين على تطوير تطبيقات مفيدة للهندسة العصبية تساعد في توفير الطاقة.
ويعد تطوير المدن الذكية أولوية متزايدة لكل من الدول الغنية والناشئة المهتمة بمستقبل مستدام. وتمثل الرقمنة وتحسين البيانات وتوفير الطاقة المطلوبة للمعالجة الحاسوبية أولوية مركزية. وبما أن أجهزة الاستشعار توجد في كل مكان - بدءاً من كاميرات الهواتف الذكية التي يستخدمها الأشخاص لالتقاط الصور إلى أنظمة المراقبة الأمنية – فإنها مطلوبة بشكل متزايد، وهي قادرة على اتخاذ القرارات على الفور.
يقول سلامة: «نظراً لأن السيارات ذاتية القيادة تلغي الحاجة إلى السائقين، فإننا نعتمد على أجهزة الاستشعار والكاميرات والليزر للمراقبة الفعلية لبيئة هذه المركبات. وامتلاك تقنية مثل هذه سيسمح للسيارات ذاتية القيادة بالتنقل بشكل أسرع، واتخاذ قرارات لحظية بدلاً من الانتظار حتى يتم إرسال الصور إلى الحاسب الآلي لتحليلها ومعالجتها، وقد لا يكفي هذا لتجنب الاصطدام بعائقٍ ما على الطريق». ويمكن أن تكون الحوسبة العصبية مفيدة للغاية في توفير الطاقة عن طريق زيادة سرعة المعالجة ودقتها، وذلك من خلال بناء أجهزة تشبه في وظيفتها دماغ الإنسان. وهناك حاجة متزايدة للأجهزة التي تحاكي المستقبلات الضوئية لشبكية العين البشرية، مثل أجهزة الاستشعار المختلفة.
وخير مثال على ذلك هو الكاميرات الأمنية التي تسجل باستمرار الصور ومقاطع الفيديو دون أن تعرف بدقة ما تلتقطه. فضلاً عن أن هذا التسجيل المستمر يستهلك قدراً كبيراً من الطاقة والقوة الحاسوبية وحزم من بيانات الاتصال اللازمة لإرسال المعلومات. ويمكن الاستعاضة عن كاميرات المراقبة التقليدية بمكثف خاص يتم تصميمه كجهاز استشعار بصري قابل للضبط ويوفر الكثير من الطاقة، يشرح سلامة: «يعمل المكثف على تقييم صورة المشهد بنفس الطريقة التي يقوم بها الدماغ. وبذلك يصبح بين أيدينا نوع من الكاميرات الأمنية التي تحاكي بالضبط كيف يتعرف البشر على الأشياء».
إن إمكانات جهاز الاستشعار الذي اقترحه باحثو كاوست لتطبيقات الرؤية العصبية كبيرة، لأنه يوسع النطاق من الاستشعار إلى الإدراك، مدعوماً بتقنية تعليم الآلة والشبكات العصبية العميقة.
ووجود مثل أجهزة الاستشعار هذه على طائرة دون طيار (الدرون)، على سبيل المثال، يمكن أن يحسن إلى حد كبير وقت الطيران، والذي لا يتجاوز عادة ساعة واحدة. وإذا نظرنا في تطبيقات محددة، كالتي في القطاعات العسكرية، قد يُطلب من طائرة الدرون اتخاذ بعض الإجراءات المحددة مسبقاً بناءً على الصور التي تلتقطها. وبوجود مثل أجهزة الاستشعار هذه يمكن للدرون اتخاذ هذه القرارات على الفور من تلقاء نفسها دون الحاجة للتدخل البشري أو إرسال المعلومات للقاعدة العسكرية لاتخاذ القرار.
يهدف فريق كاوست الآن إلى زيادة حجم ودقة الصور التي يمكن تحليلها بواسطة جهاز الاستشعار لتتجاوز نطاق 10X10 بكسل. ويتضمن هذا العمل الهندسي أيضاً استكشاف أنواع أخرى من المواد التي يمكن أن تقدم لنا دقة وحساسية أفضل.


مقالات ذات صلة

علماء ينتجون «نموذج جنين بشري» في المختبر

علوم النموذج تم تطويره باستخدام الخلايا الجذعية (أرشيف - رويترز)

علماء ينتجون «نموذج جنين بشري» في المختبر

أنتجت مجموعة من العلماء هيكلاً يشبه إلى حد كبير الجنين البشري، وذلك في المختبر، دون استخدام حيوانات منوية أو بويضات.

«الشرق الأوسط» (لندن)
علوم الهياكل الشبيهة بالأجنة البشرية تم إنشاؤها في المختبر باستخدام الخلايا الجذعية (أرشيف - رويترز)

علماء يطورون «نماذج أجنة بشرية» في المختبر

قال فريق من الباحثين في الولايات المتحدة والمملكة المتحدة إنهم ابتكروا أول هياكل صناعية في العالم شبيهة بالأجنة البشرية باستخدام الخلايا الجذعية.

«الشرق الأوسط» (لندن)
علوم علماء يتمكنون من جمع حمض نووي بشري من الهواء والرمال والمياه

علماء يتمكنون من جمع حمض نووي بشري من الهواء والرمال والمياه

تمكنت مجموعة من العلماء من جمع وتحليل الحمض النووي البشري من الهواء في غرفة مزدحمة ومن آثار الأقدام على رمال الشواطئ ومياه المحيطات والأنهار.

«الشرق الأوسط» (نيويورك)
علوم صورة لنموذج يمثل إنسان «نياندرتال» معروضاً في «المتحف الوطني لعصور ما قبل التاريخ» بفرنسا (أ.ف.ب)

دراسة: شكل أنف البشر حالياً تأثر بجينات إنسان «نياندرتال»

أظهرت دراسة جديدة أن شكل أنف الإنسان الحديث قد يكون تأثر جزئياً بالجينات الموروثة من إنسان «نياندرتال».

«الشرق الأوسط» (لندن)
علوم دراسة تطرح نظرية جديدة بشأن كيفية نشأة القارات

دراسة تطرح نظرية جديدة بشأن كيفية نشأة القارات

توصلت دراسة جديدة إلى نظرية جديدة بشأن كيفية نشأة القارات على كوكب الأرض مشيرة إلى أن نظرية «تبلور العقيق المعدني» الشهيرة تعتبر تفسيراً بعيد الاحتمال للغاية.

«الشرق الأوسط» (لندن)

لماذا يفقد الجمهور ثقته في الذكاء الاصطناعي التوليدي؟

لماذا يفقد الجمهور ثقته في الذكاء الاصطناعي التوليدي؟
TT

لماذا يفقد الجمهور ثقته في الذكاء الاصطناعي التوليدي؟

لماذا يفقد الجمهور ثقته في الذكاء الاصطناعي التوليدي؟

انطلق عصر الذكاء الاصطناعي بوعودٍ واسعة النطاق ونقاشاتٍ حول إمكانياتٍ لا حدود لها، كما تكتب لويز ك. ألين(*).

تفاؤل وخيبة

والآن، وبعد سنواتٍ من الخبرة العملية، لا يزال الخبراء متفائلين بشأن التأثير طويل الأمد للذكاء الاصطناعي. وفي الوقت نفسه، يتفق معظم الناس على أن مساهماته في الحياة اليومية كانت مخيِّبة للآمال، إن لم تكن أسوأ من ذلك.

وحتى بصفتي واحدة من العاملات في القيادة التقنية بهذا المجال، لا بد لي من الاعتراف بأن استياء المستهلكين من الذكاء الاصطناعي له ما يبرره إلى حد كبير، فقد اتسمت تجربة المواطن الأميركي العادي مع الذكاء الاصطناعي التوليدي، حتى الآن، بتراجع الجودة وازدياد انعدام الثقة.

قصص وهمية في وسائل الاتصال الاجتماعي

تعجّ وسائل التواصل الاجتماعي بأشخاصٍ وقصصٍ وهمية، وتمتلئ الأسواق الإلكترونية بشكلٍ متزايد بعمليات الاحتيال المدعومة بالذكاء الاصطناعي. وغالباً ما تفشل مبادرات الشركات في تحقيق التوقعات المالية، بل إن عدداً منها زاد من صعوبة حياة العاملين.

لقد بات فشل أدوات الذكاء الاصطناعي العام في تحقيق الضجة الإعلامية الكبيرة التي أثيرت حولها، أمراً مُسلَّماً به عالمياً، حتى إن قاموس ميريام-ويبستر نفسه أعلن اختياره كلمة «هراء» ككلمة عام 2025.

«التحديد الدقيق والموجّه»

ومع ذلك، تتاح للجمهور، الآن، فرصة لتغيير هذا الواقع في عام 2026. ويبدأ ذلك بتوظيف مفهوم «التحديد الدقيق (specificity)» ككلمة تُعرِّف ما هو مقبل.

وفي حقيقة الأمر، فإن شركات التكنولوجيا وباحثي الذكاء الاصطناعي بالغوا في تقدير القدرات الفعلية لهذه التقنية منذ البداية، فقد ركّز هؤلاء الرواد على الإمكانات الكامنة، بدلاً من النتائج العملية. لقد صوّروا الذكاء الاصطناعي على أنه ضرورة يجب على الشركات اتباعها لمواكبة التطورات، بدلاً من كونه أداةً يمكن للمؤسسات والأفراد استخدامها لتحقيق أهداف محددة.

التكنولوجيا وسيلة وليست غاية

لتطوير هذه التقنية وتحقيق رؤيتهم لمستقبل مُحسَّن بالذكاء الاصطناعي، سيتعيّن على القادة التوقف عن مناشدة الجمهور لتغيير الخطاب حول الذكاء الاصطناعي.

إن الطريق إلى الأمام بسيط للغاية، إذ يحتاج قادة التكنولوجيا إلى العودة إلى أساسيات المنتج. عليهم أن يتقبلوا فكرة أن التكنولوجيا وسيلة لتحقيق غاية، وليست غاية في حد ذاتها، وهذا يعني إعادة تركيز استراتيجيات التطوير والتواصل على حلول للمشاكل الحقيقية.

خطوات التحديد الدقيق «الموجّه»

1. التصميم الموجَّه للأفراد لا «المستخدمين»

إن إغراء بناء أدوات عامة الأغراض مفهوم، لكن القيام بذلك باستخدام التكنولوجيا الحالية يُضعف فائدتها. وستكون أدوات الذكاء الاصطناعي، اليوم، أكثر فاعلية عندما تُصمم خصوصاً لأفراد محددين في أدوار محددة. يجب أن تُوجه هذه المعرفة عملية ابتكار المنتج، والتدريب، والتسويق، وتكتيكات المبيعات.

2. التركيز على النتائج بدلاً من القدرات

الذكاء الاصطناعي ليس مختلفاً عن أي منتج آخر. لن يستخدمه الناس إلا إذا حل مشكلة موجودة لديهم بالفعل. ويفشل كثير من أدوات الذكاء الاصطناعي في تحقيق هذا الهدف، فهي تركز على ما يمكن للنموذج فعله، بدلاً من التمعن في فهم أسباب أهمية ما يفعله.

3. التوقف عن تقديم وعود خيالية

قد يُمثل الذكاء الاصطناعي، اليوم، مستقبلاً يمكن فيه تحقيق التحسين الشامل، لكن هذا ليس صحيحاً. يجب أن تعكس خطط تطوير المنتجات هذه الحقيقة. إنّ الوضوح والمباشرة بشأن ما هو متاح الآن وما سيكون متاحاً في المستقبل يُساعدان على تخفيف الإرهاق الناتج عن الضجة الإعلامية واستعادة الثقة.

حان وقت إعادة النظر

بصفتي مديرة للمنتجات، شاهدتُ عدداً من الأمثلة على الاستخدام الأمثل للذكاء الاصطناعي، خلال السنوات القليلة الماضية.

ومع ذلك، أُدرك أن أسباب انعدام ثقة الجمهور أو عدم اهتمامه الواسع النطاق تقع في معظمها على عاتق قطاع التكنولوجيا، ذلك أن رغبة هذا القطاع في إنجاز كل شيء دفعة واحدة، خلقت بيئةً لا يثق فيها الناس بقدرة التكنولوجيا على القيام بأي شيء مفيد.

إنها حقيقةٌ يصعب تقبّلها، لكن أي قائد تقني يُنكر ذلك يُخدع نفسه. ومع ذلك، لم يفت الأوان بعدُ لتصحيح الوضع. إذا كان القادة على استعداد لتقبُّل هذه الحقيقة وإعادة توجيه استراتيجياتهم نحو «التحديد»، فسيكون هناك متسع من الوقت لإعادة النظر، وإعادة التقييم، وتحقيق رؤية مستقبلٍ مُحسَّن. يجب أن يحدث هذا قريباً، وإلا فسيضيع مستقبل الذكاء الاصطناعي هباءً.

*مجلة «إنك»، خدمات «تريبيون ميديا»


مجتمعات كاملة وتجارب إنسانية... لا تزال خارج نطاق الذكاء الاصطناعي

نافذة على عالمين_ أحدهما لا يفهم الآخر
نافذة على عالمين_ أحدهما لا يفهم الآخر
TT

مجتمعات كاملة وتجارب إنسانية... لا تزال خارج نطاق الذكاء الاصطناعي

نافذة على عالمين_ أحدهما لا يفهم الآخر
نافذة على عالمين_ أحدهما لا يفهم الآخر

في القاعات الكبرى، حيث تُصاغ البيانات وتُعلن المبادئ بلغة تبدو مكتملة، يظهر الذكاء الاصطناعي كأنه يسير بثقة نحو مستقبل أكثر عدلاً وإنصافاً. تُرفع شعارات الشفافية، وتُكرَّر مفاهيم الحوكمة، وتُقدَّم العدالة الخوارزمية كأنها حقيقة قريبة لا جدال فيها.

لكن خلف هذا الانسجام الظاهري، يبقى سؤال أكثر إزعاجاً، وأقل حضوراً:

هل ما يُقال في هذه القاعات يعكس فعلاً ما يحدث خارجها، أم أنه يكتفي بصياغة عالمٍ مثالي لا وجود له في الواقع؟

أخلاقيات داخل حدود البيانات

تركّز معظم النقاشات العالمية حول أخلاقيات الذكاء الاصطناعي على قضايا تبدو مكتملة: التحيّز، والخصوصية، والشفافية، والمسؤولية. وهي دون شك قضايا حقيقية، لكنها تنطلق من افتراض خفيّ نادراً ما يُناقش: أن المشكلة تكمن في كيفية استخدام البيانات، لا في حدودها.

لكن السؤال الأكثر عمقاً، والأقل طرحاً، هو: ماذا عن أولئك الذين لا تُمثّلهم البيانات أصلاً؟ فالذكاء الاصطناعي، مهما بلغ من تعقيد، لا يرى العالم كما هو، بل كما يُقدَّم له. وما لا يدخل في بياناته، لا يدخل في حساباته... ولا في قراراته. وهنا لا يكون الخطأ في الخوارزمية، بل في العالم الذي اختُصر داخلها.

ما لا تراه الخوارزميات

عالم خارج الرؤية الخوارزمية

في مساحات واسعة من هذا العالم، لا تُقاس المعاناة ولا تُسجَّل، ولا تتحول إلى بيانات يمكن للآلة أن تفهمها. هناك أمراض لا تصل إلى مرحلة التشخيص، وصدمات لا تُوثَّق، وواقع صحي كامل يظل خارج أي نموذج تنبؤي.

في مثل هذه البيئات، لا يكون التحيّز نتيجة خلل تقني في الخوارزمية، بل نتيجة غياب الصورة من الأساس. فالمشكلة ليست في طريقة التحليل... بل فيما لم يُحلَّل أصلاً.

وهنا يتبدّل معنى العدالة نفسها. فكيف يمكن الحديث عن «عدالة خوارزمية» في عالمٍ لم يُمثَّل رقمياً بعد؟ وهل يمكن للذكاء الاصطناعي أن يكون منصفاً... إذا كان لا يرى الجميع؟

عندما لا تكفي الأخلاقيات

في القمم العالمية، يُقدَّم الذكاء الاصطناعي كأداة يمكن تهذيبها أخلاقياً، وكأن المشكلة تكمن فقط في ضبط سلوك الخوارزمية من داخل النظام الذي أنشأها. تُناقش المبادئ، وتُصاغ الأطر، ويبدو وكأن الحل يكمن في تحسين ما هو قائم. لكن هذا التصور يخفي افتراضاً أعمق: أن جميع المشكلات قابلة للحل من داخل النظام نفسه. بينما يهمس الواقع بشيء مختلف تماماً.

فهناك معاناة لا تنتظر «حوكمة» الخوارزمية... بل تنتظر أن تُرى. وهناك بشر لا يحتاجون إلى خوارزميات أكثر عدلاً، بل إلى أن يدخلوا أصلاً في مجال رؤيتها.

ما بين الخطاب والواقع: درس من قمة الهند

كما ظهر في نقاشات القمة العالمية للذكاء الاصطناعي في الهند، التي رفعت شعار «الذكاء الاصطناعي المسؤول»، بدا أن التركيز ينصب على مبادئ الحوكمة، والشفافية، وتقليل التحيّز داخل الأنظمة. لكن ما تكشفه هذه النقاشات، رغم أهميتها، هو فجوة أعمق: أن الخطاب الأخلاقي العالمي يفترض وجود عالم ممثَّل بالكامل داخل البيانات... بينما الواقع مختلف تماماً. فما لا يُقال في هذه القاعات، ليس فقط حدود التقنية، بل حدود الرؤية نفسها... إذ توجد مجتمعات كاملة خارج نطاق النماذج، وتجارب إنسانية لا تصل إلى أنظمة الذكاء الاصطناعي، وبالتالي لا تدخل في أي إطار أخلاقي يُناقش.

* عدم الاستقرار البيئي أو الضغوط النفسية من العوامل التي لا يمكن قياسها ولا تدخل إلى الأدوات الذكية *

حدود ما يمكن قياسه

في دراسة حديثة نُشرت عام 2026 في مجلة «نيتشر ميديسن» (Nature Medicine)، أظهرت نماذج تنبؤية طوّرها باحثون في جامعة ستانفورد قدرة متقدمة على تحليل البيانات الصحية، واستباق المخاطر قبل حدوثها. ومع ذلك، توقفت هذه النماذج عند حدود واضحة عندما يتعلق الأمر بعوامل لا تُقاس بسهولة، مثل عدم الاستقرار البيئي أو الضغوط النفسية التي لا تجد طريقها إلى السجلات الطبية.

وهنا لا تنكشف حدود التقنية فحسب، بل حدود الفكرة التي تقوم عليها.

فالمشكلة ليست في دقة ما نقيس، بل في افتراضٍ أعمق: أن كل ما هو مهم... يمكن قياسه.

لكن الواقع أكثر تعقيداً من ذلك. فبعض أهم محددات الصحة لا تُكتب في البيانات، ولا تُترجم إلى أرقام، ومع ذلك تظل الأكثر تأثيراً في حياة الإنسان.

ما بعد الأخلاقيات

قد تنجح القمم في صياغة مبادئ أخلاقية للذكاء الاصطناعي، وتبدو هذه المبادئ مكتملة في نصوصها ومنطقها. لكن التحدي الحقيقي لا يبدأ داخل هذه الأطر، بل خارجها.

في تلك المساحات التي لا تصلها البيانات، ولا تلامسها النماذج، ولا تختزلها الأرقام، هناك يتغيّر السؤال نفسه. فلا يعود السؤال:

هل الذكاء الاصطناعي أخلاقي؟ بل يصبح أكثر عمقاً وإلحاحاً: هل يستطيع أن يرى ما يجب أن يكون أخلاقياً تجاهه؟


أول مهمة مأهولة إلى القمر منذ 50 عاماً

شكل تصويري لمركبة «أوريون» قرب القمر
شكل تصويري لمركبة «أوريون» قرب القمر
TT

أول مهمة مأهولة إلى القمر منذ 50 عاماً

شكل تصويري لمركبة «أوريون» قرب القمر
شكل تصويري لمركبة «أوريون» قرب القمر

سترسل وكالة الطيران والفضاء الاميركية ناسا، أربعة رواد فضاء في مهمة أرتميس 2 في رحلة تستغرق 10 أيام حول القمر للتمهيد لهبوط على سطحه في المستقبل وإقامة قواعد دائمة عليه.