كيف تحاول دول العالم تنظيم الذكاء الاصطناعي؟

وكالة إشراف أميركية وقواعد أوروبية صارمة وليونة يابانية

كيف تحاول دول العالم تنظيم الذكاء الاصطناعي؟
TT

كيف تحاول دول العالم تنظيم الذكاء الاصطناعي؟

كيف تحاول دول العالم تنظيم الذكاء الاصطناعي؟

هل بإمكان الذكاء الصناعي توليد معلومات خاطئة وتوظيف التزييف العميق للصور؟

الحقيقة أن هناك الكثير من الإثارة حول قدرة الذكاء الاصطناعي التوليدي على إنشاء محتوى، بدءاً من حالات الاستخدام في إنتاج مواد تسويقية، إلى ترجمة أصوات مقدمي البودكاست إلى لغات مختلفة.

توليد معلومات غير موثّقة

ولكن مع الوعود الكبيرة تأتي مخاوف كبيرة، بما في ذلك -على سبيل المثال لا الحصر- انتشار المعلومات الخاطئة على نطاق واسع، وخصوصاً عبر التزييف العميق، واستخدام أعمال المبدعين دون إسناد، وخسارة هائلة في الوظائف بفضل الأتمتة.

ومع وضع هذه الجوانب السلبية المحتملة في الحسبان، تحاول الحكومات في جميع أنحاء العالم إنشاء لوائح تنظيمية، أو قوانين للذكاء الاصطناعي، تعمل على تعزيز السلامة والاستخدام العادل، مع الاستمرار في تشجيع الابتكار.

تنظيمات وقوانين

* الولايات المتحدة: سمحت حكومة الولايات المتحدة حتى الآن لشركات التكنولوجيا بوضع ضماناتها الخاصة حول الذكاء الاصطناعي، لكن المشرعين يقولون إن تنظيم الذكاء الاصطناعي ضروري؛ إذ عقدوا اجتماعات متعددة في عام 2023 مع شركات الذكاء الاصطناعي الرائدة من «OpenAI» إلى «Nvidia». وناقش المشرعون متطلبات الترخيص، وإصدار الشهادات لنماذج الذكاء الاصطناعي عالية المخاطر عند الضرورة.

* أميركا تخطط لإنشاء وكالة خاصة للإشراف على خدمات الذكاء الاصطناعي*

في الوقت نفسه، قالت الوكالات الفيدرالية، مثل مكتب الحماية المالية للمستهلك، ووزارة العدل، ولجنة تكافؤ فرص العمل، ولجنة التجارة الفيدرالية، إن الكثير من تطبيقات الذكاء الاصطناعي تخضع بالفعل للقوانين الحالية.

تجنّب التقييدات خانقة للابتكار

* المملكة المتحدة: تريد المملكة المتحدة، التي تعد موطناً لشركات الذكاء الاصطناعي، مثل مختبر الذكاء الاصطناعي «ديب مايند»، التابع لشركة «غوغل»، وشركة «سينثيسيا» لصناعة فيديو الذكاء الاصطناعي، تجنب التشريعات الصارمة التي يمكن أن تخنق الابتكار. وذكرت «رويترز» أن التنظيم سيستند إلى مبادئ، مثل السلامة والشفافية والعدالة والمساءلة.

تريد حكومة المملكة المتحدة أيضاً أن تلعب دوراً رئيسياً في تنظيم الذكاء الاصطناعي. ومن المتوقع أن تعقد أول قمة لها حول سلامة الذكاء الاصطناعي في الأول والثاني من نوفمبر (تشرين الثاني). وقال رئيس الوزراء ريشي سوناك في بيان: «لطالما كانت المملكة المتحدة موطناً للتقنيات التحويلية للمستقبل... ولتبني الفرص الاستثنائية التي يوفرها الذكاء الاصطناعي بشكل كامل، يجب علينا السيطرة على المخاطر، ومعالجتها لضمان تطورها بأمان في السنوات المقبلة».

وتخطط الدولة لتقسيم المسؤولية عن إدارة الذكاء الاصطناعي بين الهيئات التنظيمية الحالية لحقوق الإنسان والصحة والسلامة والمنافسة، بدلاً من إنشاء هيئة جديدة مخصصة للتكنولوجيا، التي تختلف عن الهيئات التنظيمية الأميركية التي ناقشت إنشاء هيئة مستقلة للإشراف على تراخيص الذكاء الاصطناعي، ونماذج الذكاء الاصطناعي عالية المخاطر. وكان الأكاديميون قد انتقدوا الهيئة التنظيمية المستقلة، قائلين إن إنشاء وكالة جديدة تماماً سيستغرق بعض الوقت.

قواعد وقوانين أوروبية صارمة

الاتحاد الأوروبي، منذ عام 2021، يعمل الاتحاد الأوروبي، الذي يتمتع بسجل حافل في تنفيذ قواعد أكثر صرامة على صناعة التكنولوجيا مقارنة بالمناطق الأخرى، على إقرار قانون الذكاء الاصطناعي، الذي سيكون أول قانون للذكاء الاصطناعي في الغرب.

* تحظر القواعد الأوروبية المقترحة الاستخدامات التدخلية والتمييزية للذكاء الاصطناعي*

يقترح القانون تصنيف أنظمة الذكاء الاصطناعي حسب المخاطر. ستواجه الأنظمة عالية المخاطر، بما في ذلك أدوات توظيف الذكاء الاصطناعي، وبرامج تسجيل الاختبارات، معايير امتثال أكبر، مثل التحقق من صحة البيانات والتوثيق، مقارنة بالأنظمة الأقل خطورة.

تحظر القواعد المقترحة أيضاً الاستخدامات التدخلية والتمييزية للذكاء الاصطناعي، مثل أنظمة تحديد الهوية البيومترية عن بعد في الوقت الفعلي في الأماكن العامة، أو أنظمة السياسة التنبؤية القائمة على التنميط.

في الشهر الماضي، قال عضو لجنة المفوضية الأوروبية، تيري بريتون، إن الاتحاد الأوروبي يعمل على تطوير ميثاق للذكاء الاصطناعي، من شأنه أن يساعد الشركات على الاستعداد لتنفيذ قانون الذكاء الاصطناعي، وإن الشركات الناشئة -وليس فقط شركات التكنولوجيا الكبرى- بحاجة إلى أن يتم تضمينها في المناقشات حول تطوير حوكمة الذكاء الاصطناعي. كانت الشركات الناشئة أعلنت في الماضي أن التنظيم المقترح للاتحاد الأوروبي مقيد للغاية.

* خدمات الذكاء الاصطناعي التوليدي في الصين تخضع لتقييم أمني*

تقييم أمني صيني

* الصين: في الصين يجب أن يخضع مقدمو خدمات الذكاء الاصطناعي التوليدي لتقييم أمني، ويجب أن تلتزم أدوات الذكاء الاصطناعي بالقيم الاشتراكية. لكن تكنولوجيا الذكاء الاصطناعي التوليدية، التي تم تطويرها للاستخدام خارج البلاد فقط، معفاة من القواعد. وتمتلك شركات التكنولوجيا الصينية، مثل «بايدو»، و«تينسينت»، و«هواوي»، مراكز بحث وتطوير في وادي السيليكون.

ولمنافسة «تشات جي بي تي» من شركة «أوبن إيه إي»، أعلنت «علي بابا» و«بايدو» و«جاي دي» أكبر شركات الإنترنت في البلاد، عن تطوير روبوتات الدردشة الخاصة بها، التي تعمل بالذكاء الاصطناعي. في الماضي، قالت الصين إنها تريد أن تكون الرائدة عالمياً في مجال الذكاء الاصطناعي بحلول عام 2030، ووضعت خططاً لتسويق الذكاء الاصطناعي تجارياً في عدد من المجالات، من المدن الذكية إلى الاستخدامات العسكرية، حسبما ذكرت شبكة CNBC.

ليونة يابانية

* اليابان: تميل اليابان نحو قواعد أكثر ليونة تحكم استخدام الذكاء الاصطناعي. وفي الأسبوع الفائت تعهد رئيس الوزراء فوميو كيشيدا بأن الحزمة الاقتصادية التالية ستشمل تمويل تطوير الذكاء الاصطناعي في الشركات الصغيرة والمتوسطة الحجم، وهو ما يمكن أن يساعد في تعزيز ريادة اليابان المفقودة في مجال التكنولوجيا.

قالت اليابان أيضاً إن استخدام الصور المحمية بحقوق الطبع والنشر لتدريب نماذج الذكاء الاصطناعي لا ينتهك قوانين حقوق الطبع والنشر، ما يعني أن موفري الذكاء الاصطناعي التوليدي يمكنهم استخدام الأعمال المحمية بحقوق الطبع والنشر، دون الحصول على إذن من أصحاب الصور.

وقال أحد أعضاء «مجلس النواب» عن اليابان: «في اليابان، يمكن استخدام أعمال تحليل المعلومات، بغض النظر عن الطريقة، سواء لأغراض غير ربحية، أو من أجل الربح، أو لأعمال أخرى غير الاستنساخ، أو لمحتوى تم الحصول عليه من مواقع غير قانونية». الحزب «الديمقراطي الدستوري» الياباني.

ومع ذلك، أقر الممثل بأن استخدام الصورة ضد إرادة صاحب حقوق الطبع والنشر يمثل مشكلة من وجهة نظر حماية الحقوق، واقترح الحاجة إلى «لوائح جديدة لحماية أصحاب حقوق الطبع والنشر».

تقييم المخاطر في البرازيل

* البرازيل: بدأ المشرعون في البرازيل في صياغة لوائح خاصة بالذكاء الاصطناعي، تتضمن مطالبة مقدمي أنظمة الذكاء الاصطناعي بتقديم تقييم للمخاطر قبل طرح المنتج للجمهور.

وبغض النظر عن تصنيف مخاطر أنظمة الذكاء الاصطناعي، تقول الجهات التنظيمية إن الأشخاص المتأثرين بهذه الأنظمة لهم الحق في الحصول على تفسير حول القرار أو التوصية المقدمة خلال 15 يوماً من الطلب. يؤكد الخبراء الأكاديميون أنه من الصعب تفسير سبب قيام نظام الذكاء الاصطناعي بشيء ما.

* إيطاليا: في مارس (آذار)، كانت إيطاليا أول دولة غربية تحظر -مؤقتاً- ChatGPT بسبب جمع البيانات بشكل غير قانوني. ومنذ ذلك الحين، قالت الحكومة إنها خصصت 30 مليون يورو (33 مليون دولار) لمساعدة العاطلين عن العمل، والعاملين في الوظائف المعرضة لخطر «الأتمتة»، لتعزيز مهاراتهم الرقمية.

* «كوارتز»، خدمات «تريبيون ميديا».


مقالات ذات صلة

ما دور الذكاء الاصطناعي في تعزيز الاستدامة بالشرق الأوسط؟

تكنولوجيا باحثون: يمكن من خلال الذكاء الاصطناعي تحقيق توازن بين النمو والمسؤولية البيئية وضمان مستقبل أكثر استدامة (أدوبي)

ما دور الذكاء الاصطناعي في تعزيز الاستدامة بالشرق الأوسط؟

يقول خبراء إن الذكاء الاصطناعي يمكن أن يقدم حلولاً مبتكرة لتعزيز كفاءة الطاقة وتقليل الهدر وتعزيز النمو المستدام.

نسيم رمضان (دبي)
يوميات الشرق آفاق جديدة في سوق الفنّ العالمية (إ.ب.أ)

أول عمل فنّي أنجزه روبوت «بشريّ» يُباع بمليون دولار

بيعت لوحة فنّية أنجزها روبوت الذكاء الاصطناعي لشخصية عالم الرياضيات الشهير، آلان تورينغ، الذي كان رمزاً لفكّ الشيفرات خلال الحرب العالمية الثانية.

«الشرق الأوسط» (لندن)
الاقتصاد جانب من حضور ملتقى «بيبان 24» في العاصمة السعودية الرياض (واس)

إطلاق مبادرة لتمكين الذكاء الاصطناعي في 100 شركة صغيرة ومتوسطة بالسعودية

أطلقت الهيئة العامة للمنشآت الصغيرة والمتوسطة السعودية و«غوغل» مبادرة «SMB Lab»، بهدف تسريع تبني الذكاء الاصطناعي في الشركات الصغيرة والمتوسطة.

«الشرق الأوسط» (الرياض)
الاقتصاد جانب من اجتماع المجموعة التشاورية الإقليمية لمنطقة الشرق الأوسط وشمال أفريقيا بالرياض (ساما)

المجموعة التشاورية الإقليمية التابعة لمجلس الاستقرار المالي تجتمع في الرياض

انعقد اجتماع المجموعة التشاورية الإقليمية لمنطقة الشرق الأوسط وشمال أفريقيا، التابعة لمجلس الاستقرار المالي، في العاصمة السعودية الرياض.

«الشرق الأوسط» (الرياض)
تكنولوجيا أصبحت ثقة نحو 3 أرباع المستهلكين (72%) بالشركات أقل مقارنة بعام 2023 (أدوبي)

65 % من العملاء يشعرون بأن الشركات تتعامل مع بياناتهم باستهتار وتهوّر

تظهر دراسة جديدة لشركة «سايلزفورس» تراجع الثقة بالشركات لدى 72 في المائة من العملاء حول العالم.

نسيم رمضان (لندن)

كيف ستؤثر الانتخابات الرئاسية الأميركية على مستقبل التكنولوجيا؟

ستحدد انتخابات 2024 كيفية تطوير التكنولوجيا وحماية خصوصية المستخدمين ومستوى التدخل الحكومي في ذلك القطاع (أدوبي)
ستحدد انتخابات 2024 كيفية تطوير التكنولوجيا وحماية خصوصية المستخدمين ومستوى التدخل الحكومي في ذلك القطاع (أدوبي)
TT

كيف ستؤثر الانتخابات الرئاسية الأميركية على مستقبل التكنولوجيا؟

ستحدد انتخابات 2024 كيفية تطوير التكنولوجيا وحماية خصوصية المستخدمين ومستوى التدخل الحكومي في ذلك القطاع (أدوبي)
ستحدد انتخابات 2024 كيفية تطوير التكنولوجيا وحماية خصوصية المستخدمين ومستوى التدخل الحكومي في ذلك القطاع (أدوبي)

بينما يبدأ الناخبون الأميركيون الإدلاء بأصواتهم في الانتخابات الرئاسية لعام 2024، تولي صناعة التكنولوجيا في أميركا اهتماماً كبيراً للنتائج المحتملة التي ستكون لها تأثيرات كبيرة على الذكاء الاصطناعي، وخصوصية البيانات، وتنظيمات مكافحة الاحتكار، والابتكار التقني بشكل عام. هذه القضايا أصبحت أكثر إلحاحاً مع استمرار نمو الاقتصاد الرقمي، ما يجعل من الضروري تقييم كيفية تأثير سياسات كل مرشح على مستقبل التكنولوجيا.

الذكاء الاصطناعي بين الابتكار والسلامة

يعدّ الذكاء الاصطناعي أحد القضايا التقنية الأكثر أهمية في هذه الانتخابات، حيث تتسارع وتيرة تطوير وتطبيق تكنولوجيا الذكاء الاصطناعي، وكذلك النقاشات حول تنظيمها، والمعايير الأخلاقية، والتنافسية العالمية.

وقد أعربت المرشحة عن الحزب الديمقراطي كامالا هاريس عن التزام قوي بتطوير الذكاء الاصطناعي بشكل مسؤول، مركزةً على أهمية الالتزام بمعايير أخلاقية لتكنولوجيا الذكاء الاصطناعي. وقد أطلقت إدارة بايدن - هاريس تنظيمات جديدة للذكاء الاصطناعي في عام 2023، تهدف إلى معالجة قضايا مثل الشفافية الخوارزمية، والتحيزات المحتملة، ومعايير الأمان. وتهدف هذه التدابير إلى حماية المستهلكين ومنع الاستخدامات الضارة للذكاء الاصطناعي، ولكن بعض خبراء الصناعة يخشون أن تعيق هذه التدابير الابتكار. وترى هاريس أنه من دون الضوابط المناسبة، يمكن أن يؤدي الذكاء الاصطناعي إلى تفاقم عدم المساواة القائمة، وعواقب غير مقصودة، ما يعكس نهجاً حذراً لتكامل الذكاء الاصطناعي بشكل مسؤول مع مراعاة المخاوف الأخلاقية.

من المتوقع أن يمنح المرشح الجمهوري دونالد ترمب شركات التكنولوجيا الكبرى حرية أكبر بالأسواق الأميركية (أدوبي)

على النقيض من ذلك، يدعو مرشح الحزب الجمهوري دونالد ترمب إلى اتباع نهج أكثر حرية فيما يتعلق بتنظيم الذكاء الاصطناعي. ترمب يرى أن التنظيم الزائد يمكن أن يعرقل بقاء الولايات المتحدة في سباق الذكاء الاصطناعي العالمي، خاصة أمام دول مثل الصين التي تستثمر بشكل كبير في هذه التكنولوجيا مع قيود تنظيمية أقل. ومن المتوقع أن يركز ترمب، بالتعاون مع قادة التكنولوجيا مثل إيلون ماسك مالك شركة «إكس» على تخفيف الضوابط حول تطوير الذكاء الاصطناعي لدفع الابتكار بوتيرة أسرع. وقد يساهم هذا النهج في تحقيق تقدم تكنولوجي أسرع، لكن البعض يخشى أن يؤدي ذلك إلى تأثيرات اجتماعية غير متوقعة ويخلق تحديات فيما يتعلق بالشفافية والمساءلة في استخدام الذكاء الاصطناعي.

الاختلاف بين هاريس وترمب حول الذكاء الاصطناعي يعكس النقاشات الأوسع حول تحقيق توازن بين الابتكار والتنظيم، حيث تركز هاريس على ضرورة ضمان الأمان والاعتبارات الأخلاقية، بينما يركز ترمب على الميزة التنافسية مع حواجز تنظيمية أقل أمام قطاع التكنولوجيا.

يرى مراقبون أن الانتخابات ستحدد مسار التكنولوجيا بين تنظيم حذر أو حرية أكبر (أدوبي)

خصوصية البيانات

بلا أدنى شك، أضحت خصوصية البيانات واحدة من أهم القضايا الملحة في مشهد التكنولوجيا، حيث ازداد الوعي بالطرق التي تتبعها الشركات لجمع وتخزين واستخدام البيانات الشخصية، ما يخلق طلباً متزايداً على قوانين شاملة لحماية خصوصية البيانات التي تضمن حقوق الأفراد وتدعم النمو الرقمي.

ولطالما كانت كامالا هاريس مناصرة قوية لحماية خصوصية البيانات، مستلهمةً من خلفيتها كمدعية عامة سابقة لولاية كاليفورنيا، حيث أشرفت على تنفيذ قانون خصوصية المستهلك في كاليفورنيا (CCPA) الذي يمكن لجميع سكان كاليفورنيا بموجبه ممارسة الحق في طلب جميع البيانات الخاصة بهم التي قامت الشركات بتخزينها. وتؤمن هاريس بأهمية وضع معايير فيدرالية لحماية البيانات، تدعم من خلالها تمكين الأفراد من السيطرة على بياناتهم، وتنظم كيفية جمع ومشاركة الشركات للمعلومات، وتعزز الشفافية. ويمكن أن توفر هذه التدابير ثقة أكبر للمستهلكين في الخدمات الرقمية، لكنها قد تفرض أيضاً أعباء امتثال إضافية على شركات التكنولوجيا، خاصة الشركات الصغيرة التي تملك موارد محدودة.

في مقابل ذلك، لم يحدد دونالد ترمب موقفاً واضحاً بشأن خصوصية البيانات. خلال فترة رئاسته السابقة، كانت إدارته تفضل تقليل الأعباء التنظيمية على الشركات، وامتد هذا النهج إلى تشريعات الخصوصية. ويركز ترمب بشكل عام على تعزيز النمو الاقتصادي، مشيراً إلى أن تقليل القوانين التنظيمية يسمح للشركات بالازدهار دون تدخل بيروقراطي. في حين أن هذا النهج قد يوفر مرونة لشركات التكنولوجيا، فإن النقاد يرون أنه يمكن أن يأتي على حساب حقوق خصوصية المستهلك وأمن البيانات.

وجهات النظر المتباينة بين المرشحَين حول خصوصية البيانات تؤكد على أهمية الانتخابات المقبلة في تحديد المستقبل الرقمي، حيث يمكن أن يؤدي موقف هاريس إلى مشهد أكثر تنظيماً يهدف إلى حماية بيانات المستهلك، بينما قد يركز نهج ترمب على مرونة الشركات، ما يترك حماية الخصوصية بشكل أكبر للشركات نفسها.

كامالا هاريس أظهرت دعمها تنظيم الذكاء الاصطناعي لضمان السلامة ومعالجة التحيزات الخوارزمية (أ.ف.ب)

تنظيمات مكافحة الاحتكار

دور الشركات التكنولوجية الكبيرة في الاقتصاد هو موضوع آخر مثير للجدل في انتخابات 2024. هيمنة شركات مثل «أبل» و«غوغل» و«ميتا» و«أمازون» أدت إلى دعوات من كلا الحزبين لتشديد الرقابة المتعلقة بمكافحة الاحتكار واتخاذ إجراءات تهدف إلى تعزيز المنافسة العادلة. ويدرك كلا المرشحين التحديات التي تطرحها هذه الشركات القوية، لكنهما يقترحان حلولاً مختلفة.

أبدت كامالا هاريس دعماً مستمراً لنهج إدارة جو بايدن الصارم تجاه تطبيق قوانين مكافحة الاحتكار. وقد قامت الإدارة بملاحقة عدد من القضايا البارزة ضد شركات التكنولوجيا الكبرى، بهدف كبح الممارسات الاحتكارية، وزيادة المنافسة، وخلق ظروف سوق أكثر عدالة. كما يشمل برنامج هاريس التزاماً بتفكيك الاحتكارات التكنولوجية إذا لزم الأمر، مع التركيز على الحالات التي تتحكم فيها الشركات التكنولوجية الكبرى بشكل مفرط في الأسواق أو تعرقل الابتكار. ويشير نهج هاريس إلى استعدادها لاستخدام السلطة الفيدرالية لمساءلة الشركات الكبرى ومنع الممارسات غير التنافسية، بهدف تحقيق توازن بين مصالح المستهلكين والشركات الصغيرة.

دونالد ترمب كان أيضاً ناقداً للتكنولوجيا الكبيرة، لكن نهجه في تنفيذ قوانين مكافحة الاحتكار كان أقل تنظيماً. بينما عبّر ترمب عن استيائه من شركات التكنولوجيا الكبيرة، غالباً ما كانت دوافعه مدفوعة بخلافات شخصية، ولم تتبع إدارة ترمب نهجاً ثابتاً تجاه تنظيم الاحتكار. إذا فاز ترمب في الانتخابات، فمن المتوقع أن تتبنى إدارته نهجاً أقل تنظيماً بشكل عام، مع التركيز على تقليل التدخل الحكومي في الاقتصاد. قد يوفر هذا مزيداً من الحرية للشركات التكنولوجية الكبرى، لكنه قد يثير المخاوف بشأن قوة السوق غير المقيدة وقلة المنافسة.

تحظى خصوصية البيانات بأهمية قصوى مع تزايد الوعي بحماية المستخدمين (أدوبي)

الاستثمار في الاقتصاد المستقبلي

يعتمد مستقبل قطاع التكنولوجيا في الولايات المتحدة أيضاً على آراء كل مرشح حول تعزيز الابتكار. ويدرك كل من هاريس وترمب أهمية الاستثمار في التكنولوجيا من أجل النمو الاقتصادي، لكن لديهما رؤى مختلفة حول أفضل السبل لدعم الابتكار في عالم رقمي سريع التغير.

كامالا هاريس قدّمت نفسها كداعم لسياسات داعمة للتكنولوجيا، بما في ذلك المبادرات للاستثمار في وصول الإنترنت عريض النطاق، وصناعة أشباه الموصلات، والبنية التحتية الرقمية. ويعكس تركيزها على خلق بيئة تقنية تنافسية ومنظمة إيمانها بدور الحكومة في توجيه الابتكار المسؤول. وتدعو هاريس أيضاً إلى سياسات تشجع على تكوين قوة عمل تقنية متنوعة وشاملة، بهدف جعل الاقتصاد الرقمي متاحاً لجميع الأميركيين. ومع ذلك، فإن التزامها بالإجراءات التنظيمية، خاصة في مجالات مثل الذكاء الاصطناعي وخصوصية البيانات، دفع بعض قادة الصناعة إلى التساؤل عما إذا كانت سياساتها قد تؤدي إلى تباطؤ وتيرة التقدم التكنولوجي.

أما دونالد ترمب فيظهر دعماً لبيئة غير منظمة لتشجيع الابتكار، مع التركيز على الحوافز الاقتصادية وتقليل تدخل الحكومة. اختياره جيه دي فانس شريكاً مرشحاً له يدعم موقفه الذي يحظى بدعم شخصيات بارزة في وادي السيليكون الذين يفضلون الحد الأدنى من التنظيم، خاصة فيما يتعلق بالشركات الناشئة في مجال التكنولوجيا واستثمارات رأس المال الجريء. ومن المتوقع أن تركز سياسات ترمب على تقليل الحواجز أمام شركات التكنولوجيا الناشئة وخلق بيئة صديقة للأعمال مع قيود تنظيمية أقل. في حين أن هذا النهج قد يحفز النمو الاقتصادي، فإن النقاد يرون أنه يمكن أن يؤدي إلى نقص الرقابة، ما قد يضرّ بالمستهلكين أو يؤدي إلى ممارسات تجارية غير أخلاقية.

ومن خلال التركيز على التنظيم والاعتبارات الأخلاقية أو على إلغاء التنظيم والنمو الاقتصادي، يعكس كل مرشح نهجه في الابتكار الفجوة الآيديولوجية الأوسع حول كيفية تطوير قطاع التكنولوجيا في الولايات المتحدة.

محورية لمستقبل التكنولوجيا

يقدم المرشحان في الانتخابات الرئاسية الأميركية للناخبين رؤيتين متمايزتين لمستقبل سياسة التكنولوجيا. يتمحور نهج كامالا هاريس حول التنظيم المسؤول، وحماية المستهلك، والمعايير الأخلاقية، بهدف خلق قطاع تكنولوجي يركز على العدالة والمساءلة. على النقيض من ذلك، يركز نهج دونالد ترمب على إلغاء التنظيم والابتكار السريع، مع أولوية للنمو الاقتصادي والتنافسية الوطنية.

وكما يبدو، يمثل كل مسار فوائده ومساوئه المحتملة، حيث يمكن أن يؤدي نهج هاريس إلى صناعة تقنية أكثر أماناً وعدالة، لكنه قد يبطئ بعض أشكال الابتكار، بينما قد تسهم سياسات ترمب في تسريع التقدم التقني والنمو الاقتصادي، لكنها قد تثير المخاوف بشأن الخصوصية واحتكار السوق والممارسات الأخلاقية.