مغنٍ أميركي يواجه السجن بسبب «سيلفي» الانتخابات

نشر الصورة على حسابه على موقع إنستغرام

مغني البوب الشهير جاستين تيمبرليك
مغني البوب الشهير جاستين تيمبرليك
TT

مغنٍ أميركي يواجه السجن بسبب «سيلفي» الانتخابات

مغني البوب الشهير جاستين تيمبرليك
مغني البوب الشهير جاستين تيمبرليك

أعلنت سلطات ولاية تينيسي الأميركية أنها تحقق مع مغني البوب الشهير جاستين تيمبرليك بشأن نشر صورة له في مركز اقتراع على وسائل التواصل الاجتماعي. وكان مكتب الادعاء المحلي قد نفى إجراء مثل هذا التحقيق.
وقالت أيمي ويريتش، ممثلة الادعاء العام في مقاطعة شيلبي: «إن البيان الصادر في وقت سابق عن مكتبي بخصوص جاستين تيمبرليك وإجراء تحقيق معه، غير صحيح، وصدر دون علمي»، مضيفة: «أنا خارج البلدة لحضور مؤتمر، ولا يحقق أي شخص في مكتبي حاليا بهذا الشأن، ولن نستغل مواردنا المحدودة في ذلك».
ولم يرد ممثل عن تيمبرليك على طلبات للتعقيب.
وبدا أن تيمبرليك خرق قانون الانتخابات في تينيسي عندما نشر الصورة، في أحدث فصول جدل بشأن نشر الصور الذاتية (سيلفي) مع البطاقات الانتخابية بعد التصويت، فيما يعرف بـ«سيلفي الانتخابات» في الولايات المتحدة.
ونشر تيمبرليك، 35 عاما، الصورة، وكتب تحتها يقول إنه سافر من لوس أنجليس إلى مسقط رأسه، مدينة ممفيس في تينيسي، للمشاركة في التصويت المبكر قبل انتخابات الرئاسة الأميركية المقررة في الثامن من الشهر المقبل.
وحث المغني والممثل الشهير الأميركيين على التصويت، ونشر الصورة على حسابه على موقع «إنستغرام»، حيث يصل عدد متابعيه إلى أكثر من 37 مليونا. ويحظر قانون تينيسي على الناخبين التقاط الصور، أو تسجيل مقاطع الفيديو، داخل مركز الاقتراع.
وكان مكتب الادعاء في مقاطعة شيلبي قد قال إن خرق قانون الولاية قد يؤدي إلى الحبس لمدة تصل إلى 30 يوما، ودفع غرامة تصل إلى 50 دولارا. وأثار انتشار كاميرات الهواتف المحمولة ومواقع التواصل الاجتماعي خلافات في الولايات التي تطبق قوانين تمنع التقاط الصور داخل المقصورة المخصصة للتصويت، ونشر صور البطاقات بعد الإدلاء بالصوت.



الذكاء الصناعي قيد التحقيق والضحية المستهلك

مراجعة لسوق الذكاء الصناعي للتأكد من حماية المستهلكين (غيتي)
مراجعة لسوق الذكاء الصناعي للتأكد من حماية المستهلكين (غيتي)
TT

الذكاء الصناعي قيد التحقيق والضحية المستهلك

مراجعة لسوق الذكاء الصناعي للتأكد من حماية المستهلكين (غيتي)
مراجعة لسوق الذكاء الصناعي للتأكد من حماية المستهلكين (غيتي)

تطلق هيئة مراقبة المنافسة في المملكة المتحدة مراجعة لسوق الذكاء الصناعي للتأكد من حماية المستهلكين، حسب (بي بي سي). وسوف ينظر التحقيق في البرنامج الكامن خلف روبوتات الدردشة مثل «شات جي بي تي».
وتواجه صناعة الذكاء الصناعي التدقيق في الوتيرة التي تعمل بها على تطوير التكنولوجيا لمحاكاة السلوك البشري.
وسوف تستكشف هيئة المنافسة والأسواق ما إذا كان الذكاء الصناعي يقدم ميزة غير منصفة للشركات القادرة على تحمل تكاليف هذه التكنولوجيا.
وقالت سارة كارديل، الرئيسة التنفيذية لهيئة المنافسة والأسواق، إن ما يسمى بنماذج التأسيس مثل برنامج «شات جي بي تي» تملك القدرة على «تحويل الطريقة التي تتنافس بها الشركات فضلا عن دفع النمو الاقتصادي الكبير».
إلا أنها قالت إنه من المهم للغاية أن تكون الفوائد المحتملة «متاحة بسهولة للشركات والمستهلكين البريطانيين بينما يظل الناس محميين من قضايا مثل المعلومات الكاذبة أو المضللة». ويأتي ذلك في أعقاب المخاوف بشأن تطوير الذكاء الصناعي التوليدي للتكنولوجيا القادرة على إنتاج الصور أو النصوص التي تكاد لا يمكن تمييزها عن أعمال البشر.
وقد حذر البعض من أن أدوات مثل «شات جي بي تي» -عبارة عن روبوت للدردشة قادر على كتابة المقالات، وترميز البرمجة الحاسوبية، بل وحتى إجراء محادثات بطريقة أشبه بما يمارسه البشر- قد تؤدي في نهاية المطاف إلى إلغاء مئات الملايين من فرص العمل.
في وقت سابق من هذا الأسبوع، حذر جيفري هينتون، الذي ينظر إليه بنطاق واسع باعتباره الأب الروحي للذكاء الصناعي، من المخاطر المتزايدة الناجمة عن التطورات في هذا المجال عندما ترك منصبه في غوغل.
وقال السيد هينتون لهيئة الإذاعة البريطانية إن بعض المخاطر الناجمة عن برامج الدردشة بالذكاء الصناعي كانت «مخيفة للغاية»، وإنها قريبا سوف تتجاوز مستوى المعلومات الموجود في دماغ الإنسان.
«في الوقت الحالي، هم ليسوا أكثر ذكاء منا، على حد علمي. ولكنني أعتقد أنهم قد يبلغون ذلك المستوى قريبا». ودعت شخصيات بارزة في مجال الذكاء الصناعي، في مارس (آذار) الماضي، إلى وقف عمل أنظمة الذكاء الصناعي القوية لمدة 6 أشهر على الأقل، وسط مخاوف من التهديدات التي تشكلها.
وكان رئيس تويتر إيلون ماسك وستيف وزنياك مؤسس شركة آبل من بين الموقعين على الرسالة المفتوحة التي تحذر من تلك المخاطر، وتقول إن السباق لتطوير أنظمة الذكاء الصناعي بات خارجا عن السيطرة.