نظم الذكاء الاصطناعي تثير مخاوف قانونية

بات التطور السريع لنظم الذكاء الاصطناعي واستخدامها المتزايد في مختلف الصناعات والتطبيقات، يتطلبان بحسب القانونيين والخبراء سد ثغرات قانونية كثيرة قد تحول دون ملاحقة منتهكي حقوق النشر والتأليف، ومن يعمدون لتلفيق المعلومات، والتشهير، وغيرها من التعديات التي تسهل التقنيات الحديثة القيام بها من دون رادع.

انتهاكات ومخاوف

وتدفع الكثير من الحكومات باتجاه تنظيم الذكاء الاصطناعي قانونيا لضمان تطويره واستخدامه بطريقة إيجابية، لما له من تأثيرات مهمّة في العالم الواقعي، خاصة أنه قادر على اتخاذ قرارات لها عواقب مهمة على الأفراد والمجتمع ككل.

ويتحدث رئيس مؤسسة «جوستيسيا» الحقوقية المحامي الدكتور بول مرقص لـ«الشرق الأوسط» عن مجموعة من المخاوف القانونية الرئيسية المتعلقة باستخدام نظم الذكاء الاصطناعي، وأبرزها على صعيد انتهاك حقوق النشر والتأليف، لافتا إلى أن «انتهاك هذه الحقوق يُعد إحدى الثغرات القانونية الأساسية المتعلقة بنظم الذكاء الاصطناعي ، حيث يمكن استخدام هذه النظم لإنشاء محتوى مثل المقالات والموسيقى ومقاطع الفيديو التي قد تنتهك قوانين حقوق النشر والتأليف، ويمكن أن يؤدي ذلك إلى تحديات قانونية لكل من أصحاب ومبتكري هذا المحتوى»، عادا أنه «لمعالجة هذه المشكلة، من المهم وجود قواعد قانونية وتعليمات واضحة تمنع هذه الانتهاكات».

وينبه مرقص إلى أنه «يمكن برمجة نظم الذكاء الاصطناعي لإنشاء معلومات خاطئة أو مضللة، ما يؤدي إلى عواقب قانونية»، مضيفا: «على سبيل المثال، يمكن اعتبار المقالات الإخبارية أو التقارير التي يتم إنشاؤها بواسطة الذكاء الاصطناعي والتي تكون مضللة أو غير دقيقة عن قصد تشهيراً أو احتيالاً».

ويرى أنه «يمكن لنظم الذكاء الاصطناعي أن ترفع من حدّة التحيز العنصري، وقد يتمّ ذلك سواء عن قصد أو عن غير قصد، حيث إنه في حالة تغذية نظم الذكاء الاصطناعي المُخطط استخدامها في المجال الحقوقي ببيانات تحوي تمييزاً عنصرياً فسيؤدي ذلك إلى إدانة الأشخاص ذوي البشرة السوداء بشكل تعسفي. على سبيل المثال، يمكن اعتبار نظم التعرف على الوجه المتحيزة ضد أعراق معينة تمييزية». ويضيف: «لمنع التحيز العنصري في نظم الذكاء الاصطناعي، من المهم وضع قواعد وأنظمة قانونية تضمن الشفافية وتخضع للمساءلة، كما يجب أن يتأكد المطورون من أن نظم الذكاء الاصطناعي مصممة لتكون عادلة وغير متحيزة، وأن يتم تدقيقها بانتظام لتحديد أي تحيزات عنصرية».

ومن غير المستبعد استخدام نظم الذكاء الاصطناعي، بحسب مرقص، «للتشهير ضدّ الأشخاص، فعلى سبيل المثال، يقوم الذكاء الاصطناعي بإنشاء منشور أو تعليق على وسائل التواصل الاجتماعي يحتوي على معلومات خاطئة تضرّ بسمعة شخص ما أو مؤسسة، وبعد ذلك يمكن توزيع هذه المقالات أو المنشورات من خلال وسائل التواصل الاجتماعي أو غيرها من المنصات عبر الإنترنت لنشر معلومات كاذبة والإضرار بسمعة الفرد أو المؤسسة المستهدفة. فضلاً عن ذلك، يمكن استخدام تقنية التزييف العميق القائمة على الذكاء الاصطناعي لإنشاء محتوى صوتي أو فيديو مزيف يبدو أنه يصور شخصاً يقول أو يفعل شيئاً لم يفعله في الواقع».

ويشير مرقص إلى أنه «لمنع إساءة استخدام الذكاء الاصطناعي للتشهير، من المهم وجود قواعد ومعايير أخلاقية تنظّم استخدام الذكاء الاصطناعي في إنشاء المحتوى ونشره. من المهم أيضاً تثقيف الأشخاص حول الأخطار المحتملة للتشهير المستند إلى الذكاء الاصطناعي وزيادة الوعي حول الاستخدام المسؤول للذكاء الاصطناعي».

حماية الابتكار

ويشدد مرقص على وجوب «امتثال المصممين والمطورين والناشرين للمعايير والتشريعات، سواء الدولية أو الوطنية، لضمان الأداء السليم للذكاء الاصطناعي»، عادا أنه «من الضروري أيضاً تعزيز تطوير نظم الذكاء الاصطناعي التي تتسم بالشفافية والمساءلة والمصممة لإفادة المجتمع ككل، ومن خلال معالجة المشاكل القانونية يمكن ضمان استخدام نظم الذكاء الاصطناعي بطريقة مسؤولة وأخلاقية لتعزيز التقدم البشري».

ولم يعد مستبعدا أن تلجأ المنظمة العالمية للملكية الفكرية (الويبو) لتعديل نظام الملكية الفكرية القائم حاليا. إذ تعد المنظمة أن نمو الذكاء الاصطناعي في طائفة من المجالات التقنية أثار عدداً من الأسئلة السياساتية فيما يخص الملكية الفكرية، عادة أن التركيز الرئيسي لهذه الأسئلة ينصب حول ما إذا كان نظام الملكية الفكرية القائم بحاجة إلى تعديل كي يتيح حماية متوازنة للأعمال والابتكارات المنشأة بواسطة الآلات، والذكاء الاصطناعي، والبيانات التي يعتمد عليها الذكاء الاصطناعي كي يعمل. وقد شرعت «الويبو» في عملية مفتوحة لريادة المحادثة المتعلقة بتداعيات ذلك على سياسات الملكية الفكرية.

وبحسب أودري أزولاي، وهي المديرة العامة لمنظمة الأمم المتحدة للتربية والعلم والثقافة (اليونيسكو)، فإن الذكاء الاصطناعي يمثل أصلاً مذهلاً للتنمية المسؤولة في مجتمعاتنا، إلا أنه يثير قضايا أخلاقية كبرى. وتسأل أزولاي: «كيف يمكننا التأكد من أن الخوارزميات لا تنتهك حقوق الإنسان الأساسية من الخصوصية وسرية البيانات إلى حرية الاختيار وحرية الضمير؟ هل يمكن ضمان حرية التصرف عندما تكون رغباتنا متوقعة وموجهة؟ كيف يمكننا ضمان عدم تكرار الصور النمطية الاجتماعية والثقافية في برامج الذكاء الاصطناعي، لا سيما عندما يتعلق الأمر بالتمييز بين الجنسين؟ هل يمكن تكرار هذه الدوائر؟ هل يمكن برمجة القيم، وبواسطة من؟ كيف يمكننا ضمان المساءلة عندما تكون القرارات والإجراءات مؤتمتة بالكامل؟ كيف نتأكد من عدم حرمان أي شخص، أينما كان في العالم، من فوائد هذه التقنيات؟ كيف يمكننا ضمان تطوير الذكاء الاصطناعي بطريقة شفافة بحيث يكون للمواطنين العالميين الذين تتأثر حياتهم به رأي في تطويره؟!».

وتجدر الإشارة إلى أن مكتب الحقوق الفكرية في الولايات المتحدة أصدر في فبراير (شباط) 2022، قرارا بمنع إعطاء شهادة الحق الفكري للذكاء الاصطناعي، إذ رأى القائمون عليه أن الإبداع غير البشري ليس مؤهلا لحماية حقوقه الفكرية. وميز المكتب بين إصدار شهادة حقوق فكرية لذكاء صناعي وإصدارها للشخص الذي تعاون مع الذكاء الاصطناعي في ابتكار العمل.