الذكاء الاصطناعي قد يتيح للبشر فهم لغة الدلافين قريبًا

ربما قد نتمكن يوماً ما من إجراء دردشة مع الدلافين (رويترز)
ربما قد نتمكن يوماً ما من إجراء دردشة مع الدلافين (رويترز)
TT

الذكاء الاصطناعي قد يتيح للبشر فهم لغة الدلافين قريبًا

ربما قد نتمكن يوماً ما من إجراء دردشة مع الدلافين (رويترز)
ربما قد نتمكن يوماً ما من إجراء دردشة مع الدلافين (رويترز)

قد يتمكن العلماء قريباً من فهم الطريقة المذهلة التي تتحادث بها الدلافين بمساعدة الذكاء الاصطناعي، وفق تقرير لصحيفة «إندبندنت» البريطانية.

والدلافين كائنات بحرية ثرثارة فائقة الذكاء، تُعرف بسلوكها الاجتماعي المعقد، وأسماءها المميزة التي تُطلقها صافراتها، ونقراتها وأصواتها التي تُشكل حياتها في الماء.

ويُتوقع أن يُسهم نموذج ذكاء اصطناعي جديد اسمه «DolphinGemma» طورته «غوغل» في فك شفرة أحد أكثر أشكال التواصل تطوراً في المحيط. وقد تعاونت شركة التكنولوجيا مع باحثين من معهد جورجيا للتكنولوجيا ومشروع الدلافين البرية (WDP).

وتستخدم الدلافين مجموعة متنوعة من الأصوات عالية التردد لجذب شريك، والحفاظ على الانسجام الاجتماعي داخل المجموعة، والعثور على أصدقاء.

وقد جمع مشروع الدلافين البرية بياناتٍ غزيرة حول أصوات الدلافين، وبدأ في تحديد أنماطها، مثل الصافرات المميزة التي تستخدمها الأمهات وصغارها للعثور على بعضهم بعضاً.

ووجد المشروع أيضاً أن الدلافين تستخدم نبضات صوتية متقطعة أثناء المعارك، وتصدر أصواتاً طنينية عند التودد إلى شريك أو مطاردة أسماك القرش.

ويأمل العلماء أن يتمكن النموذج قيد التطوير، باستخدام تقنية صوتية متقدمة بمساعدة الذكاء الاصطناعي، من تحويل أصوات الدلافين إلى صيغة قابلة للتحليل. ومن المأمول أن يُسهّل ذلك تحديد الأنماط والمعاني.

والمثير للدهشة أنه يمكن تشغيل «DolphinGemma» مباشرةً على الهواتف الذكية التي يستخدمها الباحثون الميدانيون في البرية.

ويجري تدريب «DolphinGemma» على دلافين الأطلسي المرقطة، إلا أن الفريق يأمل في تطبيق النتائج على أنواع أخرى من الحيتانيات، مثل دلافين قارورية الأنف أو دلافين الدوار. ويأمل الباحثون أن يكشف نموذج الذكاء الاصطناعي عما تقوله الدلافين حقاً.

وسيَستخدم نموذجاً لغوياً كبيراً، وهو نوع من برامج الكمبيوتر يتميز بقدرته الفائقة على اكتشاف الأنماط في المعلومات المعقدة، مثل أصوات الدلافين.

وعلى غرار طريقة تدريب «تشات جي بي تي» على فهم اللغة البشرية، صُمم «DolphinGemma» لاكتشاف الأنماط ومجموعات الأصوات والدلائل في دردشة الدلافين. ويساعد ذلك الباحثين على تجاوز مجرد تسجيل أصوات الدلافين، إذ سيتمكنون من استكشاف كيفية عمل هذه الأصوات كلغة.

ومع تعمق العلماء في حوار الدلافين، فمن المتوقع أن يكون لأكثر سكان المحيط ثرثرة الكثير ليقولوه. وربما نتمكن يوماً ما من إجراء دردشة معهم.


مقالات ذات صلة

الذكاء الاصطناعي بين الحوكمة والحرية... من يكبح من؟

خاص «ساس»: الشفافية وبناء الثقة عنصران أساسيان لحماية سمعة المؤسسات في ظل الاعتماد المتزايد على الذكاء الاصطناعي (شاترستوك)

الذكاء الاصطناعي بين الحوكمة والحرية... من يكبح من؟

يحذر خبراء شركة «ساس» من تسارع الذكاء الاصطناعي دون حوكمة واعية مؤكدين أن الشفافية والثقافة والقيادة ضرورية لضمان الاستخدام الأخلاقي والمسؤول للتقنيات الجديدة.

نسيم رمضان (أورلاندو - الولايات المتحدة)
شمال افريقيا مؤتمر رؤساء أجهزة الأمن يوصي بتوظيف الذكاء الاصطناعي لمكافحة الإرهاب والمخدرات والتهريب (الداخلية التونسية)

تونس: توظيف «الذكاء الاصطناعي» في مكافحة الإرهاب والمخدرات

أسفر مؤتمر أجهزة الإعلام الأمني لمجلس وزراء الداخلية العرب عن قرارات عديدة أهمها حث الدول العربية على القيام بخطوات استباقية وحملات لمكافحة ترويج المخدرات.

كمال بن بونس (تونس)
يوميات الشرق مستوحى من الجهاز العصبي للأخطبوط (جامعة بريستول)

روبوت «أخطبوطي» يقطف الفاكهة ولا يُتلفها

ابتكر باحثون في جامعة بريستول البريطانية روبوتاً مرناً مستوحى من الجهاز العصبي للأخطبوط، قادراً على التفاعل مع بيئته المحيطة واتخاذ قرارات بالحركة...

«الشرق الأوسط» (القاهرة)
تكنولوجيا ينطلق مؤتمر «Google I/O 2025» الساعة العاشرة مساءً بتوقيت مكة المكرمة يوم 29 مايو (غوغل)

ماذا نتوقع في مؤتمر «غوغل IO للمطورين»... قبل أيام من انطلاقه؟

يتوقع أن يسلط مؤتمر «Google I/O 2025» الضوء على تقدّم الذكاء الاصطناعي و«آندرويد 16» والواقع الممتد والمساعد الذكي «جيمناي» مع تجارب مبتكرة وتفاعل أوسع.

نسيم رمضان (لندن)
تكنولوجيا أنظمة الذكاء الاصطناعي قادرة على اتخاذ قرارات جماعية بعد التشاور (أرشيفية - رويترز)

دون تدخل بشري... أنظمة الذكاء الاصطناعي قد تتشاور قبل اتخاذ قراراتها

كشفت دراسة جديدة أن أنظمة الذكاء الاصطناعي قادرة على اتخاذ قرارات جماعية بعد التشاور، دون تدخل بشري، بل قد تقنع بعضها بعضاً بتغيير آرائها.

«الشرق الأوسط» (لندن)

الذكاء الاصطناعي بين الحوكمة والحرية... من يكبح من؟

«ساس»: الشفافية وبناء الثقة عنصران أساسيان لحماية سمعة المؤسسات في ظل الاعتماد المتزايد على الذكاء الاصطناعي (شاترستوك)
«ساس»: الشفافية وبناء الثقة عنصران أساسيان لحماية سمعة المؤسسات في ظل الاعتماد المتزايد على الذكاء الاصطناعي (شاترستوك)
TT

الذكاء الاصطناعي بين الحوكمة والحرية... من يكبح من؟

«ساس»: الشفافية وبناء الثقة عنصران أساسيان لحماية سمعة المؤسسات في ظل الاعتماد المتزايد على الذكاء الاصطناعي (شاترستوك)
«ساس»: الشفافية وبناء الثقة عنصران أساسيان لحماية سمعة المؤسسات في ظل الاعتماد المتزايد على الذكاء الاصطناعي (شاترستوك)

بينما تتسارع وتيرة نشر الذكاء الاصطناعي في مختلف المجالات، من قرارات الائتمان إلى التوائم الرقمية، لم تكن الحاجة إلى الحوكمة الواعية والمسؤولة أكثر إلحاحاً من اليوم. على هامش مؤتمر «SAS Innovate 2025» الذي استضافته مدينة أورلاندو الأميركية هذا الشهر، قال ريدجي تاونسند، نائب رئيس وحدة أخلاقيات البيانات في شركة «SAS»: «إن الذكاء الاصطناعي يسمح بالتحرك بسرعة... لكن الحوكمة هي المكابح». ونبّه خلال حديثه الخاص لـ«الشرق الأوسط» أنه حتى الآن «لا يملك كثير من المؤسسات الشجاعة للضغط عليها».

الثقة والحوكمة في القطاع المصرفي

في قطاع البنوك والخدمات المالية، حيث يُستخدم الذكاء الاصطناعي منذ عقود في كشف الاحتيال وتقييم الجدارة الائتمانية، تتضاعف أهمية الحوكمة بسبب حساسية السمعة وشدة التنظيم. وأوضح تاونسند أن لدى البنوك ممارسات ومعايير راسخة، وهي معتادة على بيئات تنظيمية صارمة. لكن الذكاء الاصطناعي اليوم ينتشر خارج أقسام المخاطر، ليصل إلى الموارد البشرية والدعم الفني وسير العمل الداخلي. وأشار إلى أن البنوك اليوم تتبنى نماذج مختلفة، بعضها يدمج فرق إدارة المخاطر ضمن فرق حوكمة الذكاء الاصطناعي الأكبر، بينما تفضّل أخرى إبقاءها منفصلة لضمان الاستقرار. وذكر أن القرار النهائي لا يزال غير محسوم، لكن ما لا يمكن التفاوض حوله هو الحاجة إلى الحفاظ على الثقة. وأكّد تاونسند على أهمية القدرة على شرح سبب حصول هذا العميل على قرض، ولم يحصل الآخر عليه، على سبيل المثال، دون تعريض الأنظمة المعقدة بالكامل للمستهلكين.

ريدجي تاونسند نائب رئيس وحدة أخلاقيات البيانات في شركة «SAS» متحدثاً إلى «الشرق الأوسط» (ساس)

الحوكمة ليست أداة، بل ثقافة

أطلقت شركة «ساس» وحدة استشارية مخصصة لحوكمة الذكاء الاصطناعي. وأشار تاونسند إلى أن ردود الفعل من العملاء كانت «إيجابية للغاية»، لكن التحدي الأكبر يتمثل في مقاومة التغيير داخل المؤسسات. وقال إن «العمل الحقيقي يبدأ بعد الأدوات.... الحوكمة ليست منتجاً، بل حواراً مع الإدارة العليا وثقافة مؤسسية متجذرة». وذكر أن القطاع العام يواجه تحديات أكبر، إذ يصعب على الجهات الحكومية تعديل هياكلها بسرعة لاستيعاب وتيرة تطور الذكاء الاصطناعي. وأشار إلى وجود وعي متزايد، «لكن الهيكل الإداري في كثير من الحكومات لا يسمح بالتحرك بالسرعة المطلوبة».

بين الحذر والأمل

قدّم تاونسند نظرة دقيقة ومتحفظة عن أخلاقيات استخدام البيانات الاصطناعية والتوائم الرقمية. وقال: «إذا استخدمت البيانات الاصطناعية بطريقة خاطئة، يمكن أن تضخم التحيزات القائمة. لكن إذا استُخدمت بحكمة، يمكن أن تساعدنا في اكتشاف هذه التحيزات ومعالجتها».

وأقرّ تاونسند، خلال حديثه لـ«الشرق الأوسط»، بأن الذكاء الاصطناعي التوليدي (GenAI) يمثل تحدياً جديداً بالكامل. وشرح أنه داخل «ساس» يتم تضمينه في منتجات مثل «كوبايلوت» (Copilot)، لكن ضمن ضوابط واضحة مثل تقنيات «RAG» للحدّ من الانحرافات. وأشار إلى أن الشركة تطور حالياً أدوات جديدة لحوكمة «GenAI»، تتضمن «Model Manager» وبطاقات النماذج، إلى جانب منتج شامل للحوكمة سيُعلن عنه قريباً.

يرى خبراء أن البيانات الاصطناعية والتوائم الرقمية قد تعزز التحيز إذا أُسيء استخدامها (غيتي)

الحوسبة الكمية... كن مستعداً جيداً

وحول مستقبل الحوسبة الكمية، دعا تاونسند إلى التريث، قائلاً: «الحوسبة الكمية تعني السرعة، لكننا لسنا مستعدين بعد لنشر الضرر بسرعة».

تنصح «ساس» باستخدام إطار حوكمة يسمى طبقة التفعيل (Activation Layer)، يتضمن الرقابة والعمليات والضوابط والثقافة. وأوضح أن قلة من المؤسسات اليوم جاهزة فعلياً لاستخدام القدرات الكمية. ونقل أن «معظم المؤسسات لا تزال تكافح مع أساسيات الذكاء الاصطناعي. فلنبدأ أولاً بتنظيف بياناتنا».

توحيد قوانين الذكاء الاصطناعي عالمياً

رغم التفاؤل بشأن التعاون الدولي، يشكك تاونسند في إمكانية توحيد القوانين عالمياً. وقال إنه «لن نحصل على لغة موحدة، لكن يمكننا بناء مستوى من الاتساق يسمح بالتعاون الدولي. ويبين جهود منظمات مثل (OECD) والمنتدى الاقتصادي العالمي، بالإضافة إلى مبادرات في الاتحاد الأوروبي وكوريا واليابان». ويفصّل أن المستقبل يكمن في التوافق التقني، مثل بروتوكولات «عميل لعميل» (Agent-to-Agent) التي تعمل عليها شركات كبرى، مثل «غوغل» و«أنثروبيك». واستشهد تاونسند بمثال واضح قائلاً: «كما أن الكهرباء تعمل رغم اختلاف المقابس، والإنترنت يعمل رغم اختلاف الحدود، يمكن للذكاء الاصطناعي أن يعمل ضمن تناغم وظيفي عالمي».

فجوة المعرفة... ومعركة الثقة

في نهاية المطاف، يرى تاونسند أن «أمية الذكاء الاصطناعي» هي التحدي الأكبر قائلاً إن «معظم الناس يخافون من الذكاء الاصطناعي لأنهم لا يفهمونه. لا يمكنك تنظيم ما لا تفهمه». ونوّه إلى الحاجة «إلى مجتمع يعرف ما يطلبه من الشركات. من دون ذلك، ستبقى الثقة هشّة».

وفي نهاية حديثه، يجزم تاونسند أن «الحوكمة ليست قضية تقنية، بل قضية قيادة». ويقول إن «ساس» تسعى من خلال وحدة أخلاقيات البيانات إلى ترسيخ ثقافة مساءلة تحفّز العملاء والمؤسسات على التفكير بعمق، والعمل بحذر، ونشر الذكاء الاصطناعي بحكمة. ويختتم قائلاً: «نحن لسنا هنا لبيع برامج فقط... بل لنطرح سؤالاً؛ هل الذكاء الاصطناعي الذي نبنيه يعكس أفضل ما فينا؟».