كيف يساعد الذكاء الاصطناعي في حل النزاعات خارج المحاكم؟

يتم الاستفادة من الذكاء الاصطناعي في التحكيم بالمهام بما في ذلك البحث القانوني وصياغة المستندات والمراجعة الشاملة
يتم الاستفادة من الذكاء الاصطناعي في التحكيم بالمهام بما في ذلك البحث القانوني وصياغة المستندات والمراجعة الشاملة
TT

كيف يساعد الذكاء الاصطناعي في حل النزاعات خارج المحاكم؟

يتم الاستفادة من الذكاء الاصطناعي في التحكيم بالمهام بما في ذلك البحث القانوني وصياغة المستندات والمراجعة الشاملة
يتم الاستفادة من الذكاء الاصطناعي في التحكيم بالمهام بما في ذلك البحث القانوني وصياغة المستندات والمراجعة الشاملة

يشهد التحكيم الذي يُعتبر وسيلة لحل النزاعات خارج المحاكم التقليدية تحولاً كبيراً، مدفوعاً بالتكامل السريع للذكاء الاصطناعي. ورغم أن هذا التحول يَعِد بإعادة تعريف كيفية حل النزاعات من خلال إدخال السرعة والكفاءة، فإنه يفرض أيضاً تحديات فريدة يمكن أن تؤثر على عدالة وشفافية الإجراءات.

الكفاءة والشفافية في التحكيم

وفقاً لآرون فيسويسواران الشريك في شركة المحاماة العالمية «Addleshaw Goddard»، يتم استخدام الذكاء الاصطناعي التوليدي في الأبحاث القانونية وصياغة المستندات القانونية البسيطة وإجراء مراجعة المستندات. ويعُد فيسويسواران في حديث خاص لـ«الشرق الأوسط» أن التطبيقات الأكثر تقدماً تتضمن تلخيص المستندات الكبيرة وصياغة المستندات الإجرائية والمساعدة في صياغة رسائل البريد الإلكتروني. ويقول إنه يمكن لهذه التكنولوجيا أن تقلل بشكل كبير من الوقت والتكلفة التي ينطوي عليها التحكيم، مما يجعل العملية أكثر كفاءة.

آرون فيسويسواران الشريك في شركة المحاماة العالمية «Addleshaw Goddard» (الشرق الأوسط)

يعتبر فيسويسواران أن قدرة الذكاء الاصطناعي على تلخيص مجموعات كبيرة من المرافعات وتوليد نظريات القضية يمكن أن تساعد المحامين والمحكمين على حد سواء في إدارة القضايا المعقدة.

على سبيل المثال، يمكن للذكاء الاصطناعي إنشاء استراتيجيات للاستجواب بناءً على إفادات الشهود أو تقارير الخبراء، ومن شأن ذلك أن يؤدي إلى استعدادات أكثر شمولاً واستراتيجية لجلسات التحكيم.

كما يؤكد فيسويسواران على أهمية الشفافية عند استخدام الذكاء الاصطناعي في التحكيم. ويرى أنه يجب على الأطراف والمحكمين التأكد من الكشف عن أي استخدام للذكاء الاصطناعي ومعالجة المخاوف المتعلقة بالسرية مقدماً. ويشدد على ضرورة إتمام المناقشات حول المبادئ المحيطة باستخدام الذكاء الاصطناعي في بداية التحكيم لضمان تكافؤ الفرص وتأمين موافقة الأطراف.

ضمان الدقة والموثوقية

أحد الاهتمامات الأساسية بدمج الذكاء الاصطناعي في التحكيم ضمان دقة وموثوقية المخرجات التي يولدها، خاصة في الحالات المعقدة. تعتمد موثوقية أنظمة الذكاء الاصطناعي التوليدية بشكل كبير على جودة البيانات المدخلة. ويشير فيسويسواران إلى ضرورة اختبار المدخلات بدقة للتأكد من صحتها وموثوقيتها قبل الاعتماد على المخرجات التي يولدها الذكاء الاصطناعي.

ويقول فيسويسواران إن نظام الذكاء الاصطناعي الآمن لدى شركة «Addleshaw Goddard» على سبيل المثال، يسمح بتحميل المستندات والاستعلام عنها بواسطة المحامين. ومع ذلك، يظل التحقق البشري ضرورياً لضمان دقة استجابات الذكاء الاصطناعي. تسلط هذه الممارسة الضوء على ضرورة الحفاظ على العنصر البشري في عملية التحكيم، حتى عندما تصبح أدوات الذكاء الاصطناعي أكثر تطوراً وموثوقية.

الاعتبارات الأخلاقية وخصوصية البيانات

إن دمج الذكاء الاصطناعي في الممارسات القانونية يطرح العديد من الاعتبارات الأخلاقية. يجب على شركات المحاماة مناقشة استخدام الذكاء الاصطناعي مع العملاء لضمان الشفافية وإدارة التوقعات.

وينوه فيسويسواران في حديثه لـ«الشرق الأوسط» بأنه بالنسبة للمحكمين، يجب الكشف عن استخدام الذكاء الاصطناعي في عمليات صنع القرار وتنفيذه فقط بموافقة الأطراف. كما يمثل ظهور قرارات التحكيم المزيفة تهديداً متزايداً، حيث يجب أن تكون هناك حاجة إلى مزيد من المبادئ التوجيهية أو اللوائح لضمان نزاهة عملية التحكيم.

تُعتبر خصوصية البيانات وسريتها أيضاً من الاهتمامات الحاسمة. ويضيف فيسويسواران أن العديد من أنظمة الذكاء الاصطناعي المتاحة للجمهور تعمل على خوادم في بلدان مختلفة، وغالباً ما لا تتحمل أي مسؤولية عن انتهاكات البيانات، مما يؤكد الحاجة إلى موافقة مستنيرة وتدابير صارمة لحماية البيانات.

نظراً لاعتماد الذكاء الاصطناعي على جودة بيانات المدخلات، يظل التحقق من قبل الخبراء البشر ضرورياً لضمان موثوقية المخرجات (شاترستوك)

التحديات والآفاق المستقبلية

في حين أن أدوات الذكاء الاصطناعي يمكن أن تُحدث ثورة في تحليل الأدلة وعرضها في التحكيم، إلا أنها تشكل تحديات أيضاً. تُعد قدرة الذكاء الاصطناعي على إنشاء التزييف العميق وغيرها من الأدلة الملفقة مصدر قلق كبير. قد تتطلب معالجة هذه التحديات تكنولوجيا يمكنها اكتشاف مثل هذه التلاعبات، مما يضمن صحة الأدلة المقدمة في جلسات التحكيم.

ويشير فيسويسواران إلى الحاجة لتطوير مهارات جديدة للعمل بفعالية مع تقنيات الذكاء الاصطناعي. ويقول إن التدريب على أنظمة الذكاء الاصطناعي، على غرار التدريب على قواعد بيانات البحوث القانونية، سيصبح ضرورياً. كما سيكون فهم قدرات الذكاء الاصطناعي وقيوده أمراً بالغ الأهمية للمحامين للاستفادة من هذه الأدوات بشكل فعال دون المساس بعملية التحكيم.

وفي رد على سؤال حول تطور الإطار التنظيمي لاستيعاب استخدام الذكاء الاصطناعي في التحكيم دون خنق الابتكار، يصرح آرون فيسويسواران بأنه ينبغي أن تظل المرونة واستقلالية الأطراف من المبادئ الأساسية، مما يسمح للأطراف بتحديد أفضل السبل للاستفادة من الذكاء الاصطناعي. ويتابع أنه يجب أن تكون هناك أيضاً تدابير مساءلة للمحكمين الذين يستخدمون الذكاء الاصطناعي، خاصة في صياغة قرارات التحكيم.

الفوارق الإقليمية والتنبؤات المستقبلية

وفي حين أن تكنولوجيات الذكاء الاصطناعي يمكن الوصول إليها على نطاق واسع، فإن الفوارق في اعتمادها قد تنشأ بناء على القدرة الشرائية للأطراف المعنية. وقد تتمكن الأطراف الأكثر ثراء من توفير أدوات ذكاء اصطناعي أكثر تقدماً، ولكن الدقة المتزايدة للأنظمة المتاحة مجاناً يمكن أن تؤدي إلى تكافؤ الفرص بمرور الوقت.

وبالنظر إلى المستقبل، يتوقع فيسويسواران أن يصبح الذكاء الاصطناعي جزءاً لا يتجزأ من جوانب معينة من عملية التحكيم، مثل مراجعة الأدلة الأولية وصياغة المستندات. ومع ذلك، يجب الحفاظ على دور المحكمين في إصدار قرارات مدروسة مبنية على تحليلاتهم وخبراتهم. سيكون ضمان الشفافية والمساءلة في استخدام الذكاء الاصطناعي أمراً بالغ الأهمية للحفاظ على نزاهة التحكيم.


مقالات ذات صلة

مفوض أممي يدعو واشنطن لإنهاء التحقيق في قصف مدرسة إيرانية

العالم نُصب تذكاري من أحذية وحقائب ترمز إلى ضحايا تفجير مدرسة ميناب الابتدائية في إيران... أمام مبنى الكابيتول الأميركي في العاصمة واشنطن في 18 مارس 2026 (أ.ف.ب)

مفوض أممي يدعو واشنطن لإنهاء التحقيق في قصف مدرسة إيرانية

دعا مفوض الأمم المتحدة لحقوق الإنسان، الجمعة، الولايات المتحدة إلى إنهاء التحقيق الذي تجريه بشأن الضربة الجوية المميتة التي استهدفت مدرسة ابتدائية في إيران.

«الشرق الأوسط» (جنيف)
الولايات المتحدة​ زعيم الديمقراطيين تشاك شومر في «الشيوخ» (أ.ف.ب)

شومر: مجلس الشيوخ الأميركي وافق على تمويل لوزارة الأمن الداخلي

أفاد بيان صادر ​عن مكتب زعيم الديمقراطيين في مجلس الشيوخ الأميركي تشاك ‌شومر بأن المجلس أقر تشريعاً من شأنه تمويل معظم الأجهزة التابعة لوزارة الأمن.

«الشرق الأوسط» (واشنطن)
الولايات المتحدة​ الرئيس الأميركي دونالد ترمب يتحدث خلال اجتماع لمجلس الوزراء في البيت الأبيض بالعاصمة واشنطن 26 مارس 2026 (أ.ب)

ترمب يغازل مذيعة «فوكس نيوز» بعد سؤال عن أوضاع إيران

أثنى الرئيس الأميركي دونالد ترمب على مظهر مذيعة شبكة «فوكس نيوز» مباشرةً بعد سؤاله عن أحوال المدنيين في إيران التي مزقتها الحرب.

«الشرق الأوسط» (واشنطن)
الاقتصاد مخطط مؤشر الأسهم الألماني «داكس» في بورصة فرانكفورت (رويترز)

الأسهم الأوروبية تتراجع وسط مخاوف على التضخم والنمو

تراجعت الأسهم الأوروبية وسط حالة من عدم اليقين بشأن حرب الشرق الأوسط، مع استمرار مخاوف المستثمرين بشأن تأثير الصراع على التضخم والنمو الاقتصادي العالمي.

«الشرق الأوسط» (لندن)
أوروبا وزيرة الخارجية ​البريطانية إيفيت كوبر مع نظيرها الفرنسي جان نويل بارو في فو دو سيرنيه قرب باريس حيث يُعقد لقاء وزراء خارجية دول مجموعة السبع (رويترز)

وزيرة الخارجية البريطانية: نشعر بقلق بالغ من العلاقات بين روسيا وإيران

عبرت وزيرة الخارجية ​البريطانية إيفيت كوبر، اليوم الجمعة، عن قلق بريطانيا وحلفائها في ‌مجموعة ‌السبع البالغ ​من ‌تنامي ⁠العلاقات ​بين روسيا وإيران.

«الشرق الأوسط» (باريس)

«أبل» تعتزم فتح «سيري» أمام خدمات الذكاء الاصطناعي المنافِسة

يظهر شعار شركة «أبل» على مبنى في حي مانهاتن بمدينة نيويورك الأميركية (د.ب.أ)
يظهر شعار شركة «أبل» على مبنى في حي مانهاتن بمدينة نيويورك الأميركية (د.ب.أ)
TT

«أبل» تعتزم فتح «سيري» أمام خدمات الذكاء الاصطناعي المنافِسة

يظهر شعار شركة «أبل» على مبنى في حي مانهاتن بمدينة نيويورك الأميركية (د.ب.أ)
يظهر شعار شركة «أبل» على مبنى في حي مانهاتن بمدينة نيويورك الأميركية (د.ب.أ)

ذكرت «بلومبيرغ نيوز»، اليوم الخميس، أن «أبل» تخطط لفتح مساعدها الصوتي «سيري» أمام خدمات ​الذكاء الاصطناعي المنافِسة، بما يتجاوز شراكتها الحالية مع «تشات جي بي تي».

وقالت الوكالة، في تقريرها الذي نقلته عن مصادر مطّلعة، إن هذه الخطوة، المتوقعة ضِمن تحديث نظام التشغيل «آي أو إس 27» من «أبل»، ستسمح لتطبيقات الذكاء الاصطناعي التابعة لجهات خارجية بالاندماج مباشرة مع «سيري»، مما يمكّن المستخدمين من توجيه الاستفسارات إلى خدمات مثل «جيميناي» التابعة لشركة «ألفابت»، أو «كلود» التابعة لشركة «أنثروبيك» من داخل المساعد.

وهذا التغيير تحول مهم في استراتيجية «أبل» للذكاء الاصطناعي، إذ تسعى الشركة إلى اللحاق بركب نظيراتها في وادي السيليكون، ووضع «آيفون» كمنصة أوسع للذكاء الاصطناعي.

و«سيري»، الذي أُطلق لأول مرة منذ أكثر من عقد، عنصر أساسي في هذا المسعى. وأفادت «بلومبيرغ نيوز» بأن «أبل» تُطور أدوات تسمح لتطبيقات روبوتات الدردشة المثبتة عبر متجر التطبيقات الخاص بها بالعمل مع «سيري» وميزات أخرى ضِمن منصة «أبل إنتليجنس». وسيتمكن المستخدمون من اختيار خدمة الذكاء الاصطناعي التي تتولى معالجة كل طلب.

وذكر التقرير أن هذا التحديث قد يساعد «أبل» أيضاً على تحقيق مزيد من الإيرادات من خلال الحصول على حصة من الاشتراكات المبيعة عبر خدمات الذكاء الاصطناعي التابعة لجهات خارجية.

ومن المتوقع أن تستعرض «أبل» ميزات البرنامج الجديدة في مؤتمر المطورين العالمي الذي تعقده في يونيو (حزيران) المقبل، غير أن الخطط قد تتغير.


البرلمان الأوروبي يحظر أدوات ذكاء اصطناعي «تعرّي» أشخاصاً

شعار روبوت الدردشة «غروك» يظهر على شاشتين (أ.ف.ب)
شعار روبوت الدردشة «غروك» يظهر على شاشتين (أ.ف.ب)
TT

البرلمان الأوروبي يحظر أدوات ذكاء اصطناعي «تعرّي» أشخاصاً

شعار روبوت الدردشة «غروك» يظهر على شاشتين (أ.ف.ب)
شعار روبوت الدردشة «غروك» يظهر على شاشتين (أ.ف.ب)

أقرّ البرلمان الأوروبي، الخميس، قانوناً يحظّر استخدام الذكاء الاصطناعي لـ«تعرية» الأشخاص من دون موافقتهم.

وتمّ تبني القرار في نصّ أُقرّ بأغلبية ساحقة (569 صوتاً مقابل 45 صوتاً معارضاً) خلال جلسة عامة للبرلمان في بروكسل، وفقاً لـ«وكالة الصحافة الفرنسية».

وأوضح بيان صادر عن البرلمان أن الأمر يتعلّق بحظر برامج «التعرية» التي «تستخدم الذكاء الاصطناعي لإنشاء أو التلاعب بصور ذات إيحاءات جنسية واضحة، أو صور في وضع حميم تشبه شخصاً حقيقياً يمكن التعرّف عليه، من دون موافقة هذا الشخص».

ولا يطبّق النص على أنظمة الذكاء الاصطناعي المزوّدة «بتدابير أمنية فعّالة» تحول دون هذه الممارسات.

وكانت دول الاتحاد الأوروبي أقرّت هذا الشهر إجراء مشابهاً. وسيتعيّن عليها الآن التفاوض مع البرلمان للتوصل إلى صياغة متقاربة، قبل أن يصبح من الممكن تطبيق الإجراء.

وتأتي هذه المبادرات خصوصاً بعد إدخال خاصية قبل بضعة أشهر في تطبيق «غروك» للذكاء الاصطناعي تتيح للمستخدمين أن يطلبوا منه تركيب صور مزيفة قريبة جداً من الواقعية (ديب فيك) لنساء وأطفال عراة، انطلاقاً من صور حقيقية.

وأثارت هذه القضية موجة استنكار في العديد من الدول ودفعت الاتحاد الأوروبي إلى فتح تحقيق.

كما وافق البرلمان في النص ذاته، على إرجاء دخول قوانين أوروبية جديدة حيّز التنفيذ بشأن أنظمة الذكاء الاصطناعي ذات المخاطر العالية، أي تلك العاملة في مجالات حساسة كالأمن أو الصحة أو الحقوق الأساسية.

وكان من المفترض أن تدخل هذه القواعد حيّز التنفيذ في أغسطس (آب) 2026. وعلى غرار الدول الأعضاء، اقترح النواب الأوروبيون تاريخين محدّدين لهذا التأجيل، في حين كانت المفوضية الأوروبية تريد منح الشركات جدولاً زمنياً أكثر مرونة.

والتاريخان هما: الثاني من ديسمبر (كانون الأول) 2027 للأنظمة المستقلة ذات المخاطر العالية، والثاني من أغسطس (آب) 2028 للأنظمة المدمجة في برامج أو منتجات أخرى.


«هيوماين» و«Turing» تطلقان سوقاً عالمية لوكلاء الذكاء الاصطناعي للمؤسسات

تجمع الشراكة بين البنية التحتية والنماذج لدى «هيوماين» وخبرة «Turing» في تطوير وتقييم أنظمة الذكاء الاصطناعي (هيوماين)
تجمع الشراكة بين البنية التحتية والنماذج لدى «هيوماين» وخبرة «Turing» في تطوير وتقييم أنظمة الذكاء الاصطناعي (هيوماين)
TT

«هيوماين» و«Turing» تطلقان سوقاً عالمية لوكلاء الذكاء الاصطناعي للمؤسسات

تجمع الشراكة بين البنية التحتية والنماذج لدى «هيوماين» وخبرة «Turing» في تطوير وتقييم أنظمة الذكاء الاصطناعي (هيوماين)
تجمع الشراكة بين البنية التحتية والنماذج لدى «هيوماين» وخبرة «Turing» في تطوير وتقييم أنظمة الذكاء الاصطناعي (هيوماين)

في خطوة تعكس تسارع الاهتمام بتطبيقات الذكاء الاصطناعي داخل المؤسسات، أعلنت «هيوماين»، التابعة لصندوق الاستثمارات العامة، عن شراكة مع شركة «Turing» المتخصصة في تطوير أنظمة الذكاء الاصطناعي، بهدف إنشاء سوق عالمية لوكلاء الذكاء الاصطناعي ضمن منصة «HUMAIN ONE».

وتتمحور الفكرة حول توفير بيئة تمكّن الشركات من اكتشاف هذه الوكلاء وتطبيقها وتوسيع استخدامها عبر وظائف مختلفة، مثل الموارد البشرية والمالية والعمليات، في محاولة لتسريع الانتقال من استخدام أدوات رقمية تقليدية إلى نماذج تشغيل أكثر اعتماداً على الأتمتة الذكية.

يفتح المشروع المجال أمام المطورين لنشر حلولهم وبناء منظومة أوسع لما يُعرف بـ«اقتصاد الوكلاء» (شاترستوك)

منصات التشغيل الذكي

الشراكة تجمع بين ما تطوره «هيوماين» من بنية تحتية ونماذج ذكاء اصطناعي، وبين خبرة «Turing» في تقييم النماذج وضبطها وتطبيقها في بيئات العمل. الهدف المعلن هو الوصول إلى وكلاء ذكاء اصطناعي يمكن استخدامها على نطاق واسع داخل المؤسسات، وليس فقط في التجارب أو النماذج الأولية.

ويُتوقع أن يشكّل هذا السوق طبقة جديدة ضمن ما يُعرف بنماذج التشغيل القائمة على الوكلاء، حيث لا تقتصر البرمجيات على دعم سير العمل، بل تبدأ في تنفيذه بشكل مباشر. وفي هذا السياق، يمكن للمؤسسات الوصول إلى وكلاء متخصصين حسب الوظيفة أو القطاع، ضمن بيئة مصممة لتكون قابلة للتوسع ومراعية لمتطلبات الأمان.

كما يفتح هذا التوجه المجال أمام المطورين وشركات التقنية لنشر حلولهم عبر المنصة، ما قد يساهم في بناء منظومة أوسع لوكلاء الذكاء الاصطناعي، تتجاوز حدود المؤسسات الفردية إلى سوق أكثر تكاملاً.

وتشير «هيوماين» إلى أن هذه الخطوة تأتي ضمن رؤية أوسع لإعادة تعريف كيفية بناء البرمجيات واستخدامها داخل المؤسسات، عبر الانتقال من نموذج «البرمجيات كخدمة» إلى بيئات تعتمد على وكلاء قادرين على تنفيذ المهام والتعلم والتفاعل بشكل مستمر.

يعكس هذا التوجه تحولاً نحو نماذج تشغيل جديدة تعتمد على وكلاء أذكياء بدلاً من البرمجيات التقليدية داخل المؤسسات

اقتصاد الوكلاء الناشئ

من جانبه، يرى طارق أمين، الرئيس التنفيذي لـ«هيوماين»، أن المرحلة المقبلة ستشهد تحولاً في طبيعة البرمجيات المستخدمة داخل المؤسسات، قائلاً إن «المؤسسات في المستقبل لن تُبنى حول تطبيقات منفصلة، بل حول وكلاء أذكياء يعملون إلى جانب الإنسان». ويضيف أن هذه الشراكة تسعى إلى تسريع بناء سوق يربط بين قدرات المطورين واحتياجات المؤسسات.

بدوره، أشار جوناثان سيدهارث، الرئيس التنفيذي والشريك المؤسس لـ«Turing»، إلى أن تحويل قدرات الذكاء الاصطناعي المتقدمة إلى تطبيقات عملية يمثل التحدي الأساسي حالياً، موضحاً أن بناء سوق قائم على الوكلاء قد يسهم في جعل هذه التقنيات أكثر ارتباطاً بالإنتاجية الفعلية داخل المؤسسات.

وتأتي هذه الشراكة أيضاً في سياق أوسع يعكس طموح السعودية لتكون لاعباً في تطوير تقنيات الذكاء الاصطناعي، ليس فقط من حيث الاستخدام، بل كمصدر للمنصات والحلول التقنية.

وبينما لا تزال فكرة «اقتصاد الوكلاء» في مراحل مبكرة، فإن الاتجاه نحو بناء منصات تجمع بين المطورين والمؤسسات يشير إلى تحول محتمل في طريقة تطوير البرمجيات وتبنيها. فبدلاً من شراء أدوات جاهزة، قد تتجه المؤسسات مستقبلاً إلى تشغيل منظومات من الوكلاء القادرين على تنفيذ مهام متكاملة عبر مختلف أقسام العمل.

في هذا الإطار، تبدو «HUMAIN ONE» محاولة لبناء هذه الطبقة التشغيلية الجديدة، حيث لا تقتصر القيمة على التكنولوجيا نفسها، بل على كيفية تنظيمها وتكاملها داخل بيئات العمل.