«غارتنر»: الذكاء الاصطناعي سيتخذ نصف قرارات الأعمال بحلول 2027

«غارتنر»: نجاح تطبيق الذكاء الاصطناعي في اتخاذ القرار يعتمد على وجود حوكمة قوية وبُنية بيانات متماسكة (غيتي)
«غارتنر»: نجاح تطبيق الذكاء الاصطناعي في اتخاذ القرار يعتمد على وجود حوكمة قوية وبُنية بيانات متماسكة (غيتي)
TT

«غارتنر»: الذكاء الاصطناعي سيتخذ نصف قرارات الأعمال بحلول 2027

«غارتنر»: نجاح تطبيق الذكاء الاصطناعي في اتخاذ القرار يعتمد على وجود حوكمة قوية وبُنية بيانات متماسكة (غيتي)
«غارتنر»: نجاح تطبيق الذكاء الاصطناعي في اتخاذ القرار يعتمد على وجود حوكمة قوية وبُنية بيانات متماسكة (غيتي)

مع تسارع المؤسسات حول العالم نحو تبني تقنيات الذكاء الاصطناعي، يكشف تقرير جديد صادر عن شركة الأبحاث العالمية «غارتنر» أن الذكاء الاصطناعي لن يظل مجرد أداة داعمة، بل سيتحوّل إلى قوة أساسية في اتخاذ القرار. فبحلول عام 2027، تتوقع «غارتنر» أن يكون نصف قرارات الأعمال إما آلياً بالكامل أو مدعوماً بشكل كبير بواسطة «وكلاء ذكاء اصطناعي». هذا التحوّل الجذري يشير إلى تغيير عميق في كيفية عمل المؤسسات وتحليلها للبيانات واتخاذها للقرارات الاستراتيجية.

نحو مركز القرار

يُسلّط التقرير الضوء على صعود ما يُعرف بـ«وكلاء ذكاء اصطناعي» وهم أنظمة برمجية قادرة على معالجة البيانات المعقدة وإنتاج رؤى ذكية وتنفيذ قرارات بصورة مستقلة. هذه الأنظمة التي تُعرف أحياناً باسم «الذكاء الاصطناعي القائم على الوكالة» (Agentic AI)، تُستخدم على نطاق متزايد في مجالات مثل إدارة سلاسل الإمداد وخدمة العملاء، مما يجعلها شريكة في قرارات كانت سابقاً من اختصاص البشر فقط.

تشدد كارلي إيدوين نائبة رئيس قسم التحليلات في «غارتنر»، على أن هذه التحولات تتطلب حوكمة دقيقة. وتقول إيدوين إن «وكلاء الذكاء الاصطناعي في مجال اتخاذ القرار ليسوا معصومين من الخطأ. يجب أن يتم دمجهم ضمن أطر حوكمة قوية وبُنى بيانات متينة لضمان دقة القرارات والامتثال للمعايير التنظيمية».

يرى البحث أن المؤسسات التي تستثمر في تعليم القادة مفاهيم الذكاء الاصطناعي ستحقق أداءً مالياً أفضل بنسبة 20 % مقارنة بغيرها

القيادة الواعية

يشير التقرير إلى أن المؤسسات التي تستثمر في تعليم الذكاء الاصطناعي للمديرين التنفيذيين ستتفوق مالياً بنسبة تصل إلى 20 في المائة، مقارنة بغيرها بحلول 2027. وهذه إشارة قوية إلى أن فهم القيادة لإمكانات الذكاء الاصطناعي وحدوده يمكن أن يكون عامل تفوق حاسم. ورغم الإقبال على البيانات الاصطناعية لحماية الخصوصية وتدريب النماذج، يُحذّر التقرير من أن 60 في المائة من فرق البيانات قد تواجه إخفاقات كبيرة في إدارتها بحلول 2027. ويُوصى بتتبع دقيق لمصدر البيانات وتعريفاتها (metadata) للحفاظ على موثوقية النماذج وسلامتها القانونية.

بناء داخلي أم شراء خارجي؟

يتوقع التقرير أنه بحلول 2028، ستكون 30 في المائة من مشاريع الذكاء الاصطناعي التوليدي التي تنتقل إلى مراحل الإنتاج مبنية داخلياً بدلاً من الاعتماد على منصات جاهزة. ويرجع السبب في ذلك إلى الحاجة إلى حلول قابلة للتخصيص وتتكامل بعمق مع العمليات التجارية. واحدة من أكثر النقاط اللافتة هي أن إثراء البيانات بـ«المعاني الدقيقة» يمكن أن يحسن دقة نماذج الذكاء الاصطناعي التوليدي بنسبة تصل إلى 80 في المائة، ويُقلل من تكاليف الحوسبة بنسبة 60 في المائة. ويؤكد التقرير أن وضوح التعريفات داخل البيانات هو عامل نجاح أساسي في تطبيقات الذكاء الاصطناعي.

تشير الدراسة إلى أن البيانات الاصطناعية قد تؤدي لفشل تحليلي إذا لم تُدَر بشكل دقيق وتتبع مصادرها وتعريفاتها بوضوح (شاترستوك)

الذكاء الاصطناعي في مجالس الإدارة

قبل حلول عام 2030، تتوقع «غارتنر» أن 10 في المائة من مجالس إدارات الشركات العالمية ستستخدم أنظمة ذكاء اصطناعي كجزء من عمليات اتخاذ القرار. هذه الأنظمة لن تحل محل البشر، بل ستُستخدم لتحدي القرارات الكبرى واختبارها، في خطوة تعكس تعاظم الثقة والمساءلة في قدرات الذكاء الاصطناعي.

تشدد «غارتنر» على أن نجاح الذكاء الاصطناعي لا يأتي من التقنية وحدها، بل من تفاعل أربع ركائز؛ هي جودة البيانات وفهم القيادة والحوكمة الشفافة والإشراف الأخلاقي. ومن دون هذه العناصر، قد يكون الذكاء الاصطناعي عبئاً بدلاً من أن يكون فرصة. توقُّع «غارتنر» أن الذكاء الاصطناعي سيتحكم في نصف قرارات الأعمال بحلول 2027 يشير إلى لحظة تحول فارقة.

فنجاح المؤسسات في هذا العصر الجديد يعتمد على استراتيجية شاملة تتجاوز التقنية لتشمل التمكين البشري، والبنية التحتية، والإدارة الرشيدة. على قادة الأعمال أن يتعاملوا مع الذكاء الاصطناعي ليس كابتكار عابر، بل كأصل استراتيجي.

فمستقبل اتخاذ القرار لن يعتمد فقط على خوارزميات متطورة، بل على تعاون ذكي بين الإنسان والآلة، ضمن بيئة حوكمة وشفافية متكاملة.


مقالات ذات صلة

بيانات الصوت البيومترية... هل تهدد الخصوصية في زمن الخوارزميات؟

تكنولوجيا تقنيات الذكاء الاصطناعي أصبحت قادرة على استخراج معلومات حساسة من الصوت دون علم المتحدث (أدوبي)

بيانات الصوت البيومترية... هل تهدد الخصوصية في زمن الخوارزميات؟

الصوت يحمل بيانات شخصية حساسة تكشف الصحة والمشاعر والهوية، ومع تطور تقنيات تحليل الكلام تزداد تحديات الخصوصية والحاجة لحمايتها بوعي وتشريعات.

نسيم رمضان (لندن)
تكنولوجيا «غوغل»: الميزة الجديدة داخل «جيميل» لا تستهدف محاربة الرسائل التسويقية (جيميل)

«غوغل» تطلق ميزة جديدة لتنظيم الاشتراكات البريدية في «جيميل»

ميزة إدارة الاشتراكات في «جيميل» تهدف لتنظيم الرسائل الترويجية وجمعها في صفحة واحدة مع إلغاء مباشر للاشتراك وتحسين الأمان والإنتاجية للمستخدمين يومياً.

عبد العزيز الرشيد (الرياض)
تكنولوجيا يسهم في تسريع إنجاز المهام اليومية وتقليل الأعمال الروتينية وتعزيز كفاءة الإنتاجية داخل بيئات العمل «كلود»

«كلود كوورك»... أداة جديدة تعتمد الذكاء الاصطناعي لتنفيذ المهام المكتبية

تقوم الأداة بتحليل المحتوى والتخطيط للتنفيذ ثم إتمام المهمة ورفع المخرجات في نفس المكان دون الحاجة لسلسلة من التعليمات التفصيلية.

عبد العزيز الرشيد (الرياض)
تكنولوجيا تُظهر بيانات عام 2025 أن الغالبية العظمى من هجمات التصيد الاحتيالي تستهدف سرقة بيانات تسجيل الدخول للحسابات الإلكترونية (شاترستوك)

47 مليون رابط تصيد احتيالي استهدف مستخدمي الشرق الأوسط خلال عام

تكشف «كاسبرسكي» تصاعد التصيد الاحتيالي في الشرق الأوسط حيث تُسرق بيانات الدخول ويُعاد بيعها، ما يحول الهجمات الفردية إلى مخاطر سيبرانية طويلة الأمد.

نسيم رمضان (لندن)
خاص خبراء: سيادة الذكاء الاصطناعي باتت محوراً استراتيجياً يُعاد عبرها تعريفه بوصفه بنية تحتية وطنية وصناعية لا أدوات تقنية منفصلة (شاترستوك)

خاص من التجارب إلى المصانع... كيف يتحول الذكاء الاصطناعي بنيةً تحتية وطنية؟

ينتقل الذكاء الاصطناعي في الخليج من مرحلة التجارب إلى أنظمة تشغيلية سيادية، تُبنى بوصفها بنيةً تحتية صناعية وطنية قادرة على التوسع والحوكمة وتحقيق قيمة اقتصادية

نسيم رمضان (لندن)

بيانات الصوت البيومترية... هل تهدد الخصوصية في زمن الخوارزميات؟

تقنيات الذكاء الاصطناعي أصبحت قادرة على استخراج معلومات حساسة من الصوت دون علم المتحدث (أدوبي)
تقنيات الذكاء الاصطناعي أصبحت قادرة على استخراج معلومات حساسة من الصوت دون علم المتحدث (أدوبي)
TT

بيانات الصوت البيومترية... هل تهدد الخصوصية في زمن الخوارزميات؟

تقنيات الذكاء الاصطناعي أصبحت قادرة على استخراج معلومات حساسة من الصوت دون علم المتحدث (أدوبي)
تقنيات الذكاء الاصطناعي أصبحت قادرة على استخراج معلومات حساسة من الصوت دون علم المتحدث (أدوبي)

نحن نتحدث يومياً دون أن نفكر كثيراً في مقدار ما تكشفه أصواتنا عنّا. فإلى جانب الكلمات التي نختارها، يحمل الصوت إشارات دقيقة عن هويتنا قد تكشف معلومات صحية وخلفيات ثقافية وحالات عاطفية، ومستوى التعليم وربما حتى ميولاً فكرية. وحتى وقت قريب، كان هذا الإدراك يقتصر على الحدس البشري؛ إذ يمكننا غالباً أن نميّز تعب صديق أو سعادته أو توتره من نبرة صوته فقط. لكن اليوم، باتت الأنظمة الحاسوبية قادرة على فعل ذلك وأكثر بدقة متزايدة.

ويحذّر باحثون في تقنيات الكلام واللغة من أن هذه القدرات تمثل تحدياً حقيقياً للخصوصية. فالصوت لم يعد مجرد وسيلة لإعطاء الأوامر للمساعدات الرقمية أو أداة للحوار، بل أصبح وعاءً غنياً بالمعلومات الشخصية التي تستطيع الخوارزميات الحديثة استخراجها، غالباً دون علم المتحدث أو موافقته.

لماذا يُعد الصوت بيانات شخصية؟

عندما نتحدث، لا تنتقل الرسالة اللغوية وحدها. فإيقاع الكلام ودرجة الصوت والتوقفات بين الكلمات وأنماط التنفس والخصائص الصوتية الأخرى، جميعها تحمل طبقات متعددة من المعلومات الشخصية. ويشير خبراء تقنيات الكلام إلى أن هذه المعلومات مدمجة مباشرة في الإشارة الصوتية نفسها، أي أنها تُفصح تلقائياً عن صاحبها بمجرد التحدث، دون أي نية واعية للكشف عنها.

وتستطيع هذه الخصائص الصوتية أن تعكس مؤشرات تتعلق بالصحة الجسدية أو النفسية، مثل الإرهاق أو مشكلات في الجهاز التنفسي. كما يمكن أن تشير إلى خلفية المتحدث الثقافية أو الجغرافية من خلال اللهجة ونمط النطق. إضافة إلى ذلك، تحمل الأصوات دلائل عاطفية تُمكّن الأنظمة المتقدمة من استنتاج ما إذا كان الشخص متوتراً أو هادئاً أو متحمساً أو مضطرباً. ولهذا، يُصنَّف الصوت ضمن فئة البيانات البيومترية أي البيانات الشخصية العميقة، الفريدة غالباً، والتي يصعب تغييرها أو استبدالها.

وبسبب هذه الحساسية، تُعامل البيانات الصوتية في العديد من التشريعات الحديثة باعتبارها بيانات محمية. ففي الاتحاد الأوروبي، على سبيل المثال، يمكن أن يندرج الصوت ضمن البيانات البيومترية الخاضعة لقواعد صارمة بموجب اللائحة العامة لحماية البيانات (GDPR)، ما يستلزم توفير ضمانات إضافية والحصول على موافقة صريحة في كثير من الحالات.

تحليل الصوت يطرح مخاطر تتعلق بالخصوصية قد تمتد إلى التوظيف والتأمين والتسويق والمراقبة (شاترستوك)

مخاطر الإفراط في كشف المعلومات

تثير القدرة على استخراج سمات شخصية من الصوت مخاوف تتجاوز مسألة الراحة أو التخصيص. فمع تطور تقنيات تحليل الصوت وانتشارها، قد تمتد آثارها إلى مجالات حساسة في حياة الأفراد. فقد تُستخدم الاستنتاجات المستخلصة من أنماط الكلام يوماً ما للتأثير في قرارات التوظيف أو تقييمات التأمين إذا أسيء استخدامها. كما يمكن للمعلنين استغلال الإشارات العاطفية أو السلوكية المستخلصة من الصوت لتقديم رسائل تسويقية شديدة الاستهداف، وربما ذات طابع تلاعبي.

وتتفاقم المخاطر مع احتمالات سوء الاستخدام، مثل المراقبة غير المشروعة أو التحرش أو تتبع الأفراد دون علمهم. ورغم أن هذه السيناريوهات ليست شائعة على نطاق واسع بعد، يؤكد الباحثون أن سرعة تطور التكنولوجيا تستدعي دق ناقوس الخطر مبكراً، قبل أن تصبح هذه الممارسات أمراً واقعاً يصعب احتواؤه.

قياس ما يكشفه صوتك

أحد التحديات الأساسية في حماية خصوصية الصوت هو فهم مقدار المعلومات التي يحتويها تسجيل صوتي واحد. ولهذا يعمل الباحثون على تطوير أدوات وأساليب لقياس مدى قابلية ربط عيّنة صوتية بسمات تعريفية محددة. وتهدف هذه المقاييس إلى تحديد مدى سهولة نسب الصوت إلى شخص بعينه أو إلى فئة ضيقة من الأشخاص، اعتماداً فقط على الخصائص الصوتية.

وتُعد هذه الأدوات ضرورية لتصميم أنظمة تراعي الخصوصية منذ البداية. فإذا تمكن المطورون من تقدير مستوى المخاطر المرتبطة بتسجيل صوتي معين، يصبح بإمكانهم اتخاذ قرارات مدروسة بشأن كيفية تخزينه أو معالجته أو مشاركته. ويدعم هذا التوجه مفهوم «الخصوصية بحكم التصميم»؛ حيث تُؤخذ المخاطر المحتملة في الحسبان قبل طرح التكنولوجيا للاستخدام الواسع.

الصوت ليس وسيلة تواصل فقط بل يحمل أيضاً بيانات شخصية عميقة تكشف الصحة والحالة النفسية والخلفية الثقافية (شاترستوك)

كيف يمكن حماية خصوصية الصوت؟

لا يدعو الخبراء إلى التخلي عن تقنيات الصوت، بل إلى تقليل التعرض غير الضروري للمعلومات الشخصية. ومن بين أكثر الاستراتيجيات فعالية تقليص كمية البيانات الصوتية الخام التي يتم مشاركتها. فبدلاً من إرسال تسجيلات كاملة، يمكن للأنظمة استخراج الحد الأدنى من المعلومات اللازمة لأداء مهمة محددة كتحويل الكلام إلى نص، ثم التخلص من بقية البيانات.

كما تُعد المعالجة المحلية للصوت خطوة مهمة في هذا السياق. فعندما يُحلل الصوت مباشرة على الجهاز، بدلاً من إرساله إلى خوادم سحابية بعيدة، تقل فرص إساءة الاستخدام أو الاعتراض أو الاستغلال الثانوي للبيانات. ويمنح هذا النهج المستخدمين قدراً أكبر من التحكم فيما يغادر أجهزتهم ومتى.

وتلعب الضوابط الفيزيائية والبيئية دوراً مكملاً. فالتقنيات التي تُظهر بوضوح متى يكون التسجيل نشطاً، أو التي تحصر التقاط الصوت في نطاقات محددة، أو تتطلب تفعيلاً مقصوداً من المستخدم، تساعد في منع التسجيل العرضي أو الخفي. ومجتمعةً، تسهم هذه الإجراءات في جعل التفاعل الصوتي مقصوداً لا متطفلاً.

الثقة والشفافية وتجربة المستخدم

الخصوصية ليست مسألة تقنية فحسب، بل هي قضية نفسية أيضاً. فمجرد الشعور بالمراقبة قد يؤثر في سلوك الأفراد وطريقة تعبيرهم عن أنفسهم. ويحذّر الباحثون من أن الإحساس الدائم بالرصد سواء أكان حقيقياً أم متوهماً، يمكن أن يقوّض الشعور بالكرامة والاستقلالية.

ومن هنا تبرز أهمية الشفافية؛ إذ ينبغي إبلاغ المستخدمين بوضوح متى يتم تسجيل أصواتهم، وما نوع المعلومات التي قد تُستخلص، وكيف ستُستخدم هذه البيانات. فالأنظمة التي تقدم إشارات واضحة وتحكماً مفهوماً في إعدادات الخصوصية تكون أقدر على كسب ثقة المستخدمين من تلك التي تعمل بصمت في الخلفية.

مستقبل مسؤول لتقنيات الصوت

توفر التقنيات المعتمدة على الصوت فوائد لا يمكن إنكارها، بدءاً من أدوات الوصول لذوي الإعاقة، مروراً بالحوسبة دون استخدام اليدين، ووصولاً إلى تفاعل أكثر طبيعية بين الإنسان والآلة. غير أن تعاظم حضور هذه التقنيات في الحياة اليومية يفرض مسؤولية متزايدة لحماية البيانات الصوتية.

ويواصل الباحثون تطوير أساليب لقياس المعلومات الشخصية الكامنة في الصوت وتقليلها والتحكم بها. وفي الوقت ذاته، يتعين على المطورين وصنّاع السياسات والمصممين العمل معاً لضمان تطور أطر الخصوصية بالتوازي مع الابتكار. فالتحدي ليس في إسكات التكنولوجيا، بل في ضمان أن تكون أصواتنا حين نتحدث مصدر تمكين لنا، لا بوابة لانتهاك خصوصيتنا.


«تيك توك» تحذف نحو 3.9 مليون محتوى مخالف في السعودية نهاية 2025

تعتمد «تيك توك» بشكل متزايد على التقنيات الآلية لرصد وحذف غالبية المحتوى المخالف قبل الإبلاغ عنه من المستخدمين (رويترز)
تعتمد «تيك توك» بشكل متزايد على التقنيات الآلية لرصد وحذف غالبية المحتوى المخالف قبل الإبلاغ عنه من المستخدمين (رويترز)
TT

«تيك توك» تحذف نحو 3.9 مليون محتوى مخالف في السعودية نهاية 2025

تعتمد «تيك توك» بشكل متزايد على التقنيات الآلية لرصد وحذف غالبية المحتوى المخالف قبل الإبلاغ عنه من المستخدمين (رويترز)
تعتمد «تيك توك» بشكل متزايد على التقنيات الآلية لرصد وحذف غالبية المحتوى المخالف قبل الإبلاغ عنه من المستخدمين (رويترز)

أظهر أحدث بيانات منصة «تيك توك» أن المملكة العربية السعودية كانت من بين أكثر الأسواق نشاطاً في تطبيق سياسات السلامة الرقمية خلال الربع الثالث من عام 2025، مع حذف ما يقرب من 3.9 مليون مقطع فيديو لمخالفتها إرشادات المجتمع؛ في مؤشر على تشديد الرقابة الاستباقية على المحتوى داخل المنصة.

ووفق تقرير إنفاذ إرشادات المجتمع الصادر عن «تيك توك» للفترة من يوليو (تموز) إلى سبتمبر (أيلول) 2025، بلغ معدل الحذف الاستباقي في السعودية 99.2 في المائة، فيما أُزيل نحو 96.7 في المائة من المحتوى المخالف خلال أقل من 24 ساعة، ما يعكس سرعة الاستجابة وفعالية أنظمة الإشراف المعتمدة داخل المملكة.

ويأتي ذلك ضمن إطار أوسع شهد حذف أكثر من 17.4 مليون مقطع فيديو مخالف في منطقة الشرق الأوسط وشمال أفريقيا خلال الربع ذاته، شمل مصر والإمارات والعراق ولبنان والمغرب، مع اعتماد متزايد على التقنيات الآلية في رصد المحتوى المخالف قبل الإبلاغ عنه من المستخدمين.

إشراف استباقي وتكنولوجيا آلية

على المستوى الإقليمي والعالمي، سجل الربع الثالث من 2025 أعلى مستويات الاعتماد على الأنظمة الآلية في تاريخ المنصة، حيث جرى حذف 91 في المائة من المحتوى المخالف باستخدام تقنيات الرصد التلقائي، إلى جانب حذف 99.3 في المائة من المحتوى قبل تلقي أي بلاغات من المستخدمين. كما أزيل 94.8 في المائة من المقاطع المخالفة خلال أقل من 24 ساعة.

وتشير هذه المؤشرات إلى انتقال متزايد في نموذج الإشراف من المعالجة اللاحقة إلى التدخل المبكر، بما يقلص احتمالات تعرض المستخدمين لمحتوى مخالف، ويتيح لفرق السلامة البشرية التركيز على مراجعة الحالات المعقدة وطلبات الاستئناف والتعامل مع الأحداث المتسارعة.

كثفت المنصة إجراءات حماية القُصّر لإزالة حسابات يُشتبه في عودتها لأشخاص دون 13 عاماً على المستوى العالمي (أ.ب)

حماية الفئات العمرية الأصغر

وفي سياق متصل، كثفت «تيك توك» إجراءاتها المرتبطة بحماية القُصّر، إذ حذفت عالمياً أكثر من 22 مليون حساب يُشتبه في عودتها لأشخاص دون سن 13 عاماً خلال الربع الثالث من 2025. ويعكس ذلك تركيز المنصة على ضبط التجارب الرقمية للفئات العمرية الأصغر، بما يشمل منطقة الشرق الأوسط وشمال أفريقيا.

وتندرج هذه الجهود ضمن مساعٍ أوسع لتعزيز بيئة رقمية أكثر أماناً، لا سيما في الأسواق ذات القاعدة الشبابية الواسعة، مثل السعودية، حيث يحظى المحتوى الرقمي بتفاعل مرتفع وانتشار واسع.

البث المباشر تحت الرقابة

وشهدت سياسات البث المباشر (LIVE) تشديداً إضافياً خلال الفترة نفسها، إذ علّقت المنصة عالمياً أكثر من 32.2 مليون بث مباشر مخالف، وحظرت 623 ألف مضيف بث مباشر، في إطار تعزيز أدوات الإشراف على هذا النمط من المحتوى عالي التفاعل.

وعلى مستوى المنطقة، أوقفت «تيك توك» بشكل استباقي أكثر من 2.48 مليون بث مباشر في عدد من الدول العربية، ما يعكس توسع تطبيق القرارات الآلية بالتوازي مع التوسع في استخدام خاصية البث المباشر.

الاستئناف واستعادة المحتوى في السعودية

وفيما يتعلق بآليات الشفافية، أظهر التقرير أن السعودية جاءت في المرتبة الثانية إقليمياً من حيث عدد مقاطع الفيديو التي أُعيدت بعد قبول طلبات الاستئناف، بواقع 195711 مقطعاً. وتوضح هذه الأرقام حجم التفاعل مع نظام الاعتراض، ودوره في تحقيق توازن بين الإنفاذ الصارم لسياسات المنصة وضمان حق المستخدمين في مراجعة القرارات.

تفرض «تيك توك» رقابة مشددة على البث المباشر مع تعليق ملايين البثوث المخالفة وحظر عدد كبير من المضيفين (شترستوك)

إنفاذ سياسات تحقيق الدخل

كما واصلت «تيك توك» نشر بيانات متعلقة بسلامة تحقيق الدخل، إذ اتخذت خلال الربع الثالث من 2025 إجراءات شملت التحذير أو إيقاف تحقيق الدخل لأكثر من 3.9 مليون بث مباشر و2.1 مليون صانع محتوى على مستوى العالم، بسبب مخالفات لإرشادات تحقيق الدخل.

وتهدف هذه السياسات إلى دعم المحتوى الآمن والأصيل وعالي الجودة، مع الحد من الممارسات التي قد تستغل البث المباشر لأغراض مخالفة.

الشفافية ركيزة أساسية

ويعكس تقرير الربع الثالث من 2025 اعتماد «تيك توك» المتواصل على نموذج إشراف هجين، يجمع بين التقنيات المتقدمة وخبرات فرق متخصصة في مجالي الثقة والسلامة، في إطار سعيها لتعزيز بيئة رقمية أكثر أماناً في الأسواق الإقليمية، وعلى رأسها السعودية.

وتؤكد المنصة أن نشر تقارير الشفافية بشكل دوري يشكل عنصراً أساسياً في بناء الثقة مع المستخدمين والجهات التنظيمية، في وقت يتزايد فيه الاهتمام العالمي بتنظيم المحتوى الرقمي وحوكمة المنصات الاجتماعية.


«غوغل» تطلق ميزة جديدة لتنظيم الاشتراكات البريدية في «جيميل»

«غوغل»: الميزة الجديدة داخل «جيميل» لا تستهدف محاربة الرسائل التسويقية (جيميل)
«غوغل»: الميزة الجديدة داخل «جيميل» لا تستهدف محاربة الرسائل التسويقية (جيميل)
TT

«غوغل» تطلق ميزة جديدة لتنظيم الاشتراكات البريدية في «جيميل»

«غوغل»: الميزة الجديدة داخل «جيميل» لا تستهدف محاربة الرسائل التسويقية (جيميل)
«غوغل»: الميزة الجديدة داخل «جيميل» لا تستهدف محاربة الرسائل التسويقية (جيميل)

مع توسّع الخدمات الرقمية وتزايد التسجيل في التطبيقات والمنصات، بدأ البريد الإلكتروني في مواجهة ظاهرة متنامية، تتمثل في تراكم الرسائل الإعلانية والعروض والاشتراكات الدورية. هذا التراكم لا يعرقل تجربة الاستخدام فحسب، بل يشتت الانتباه ويؤثر على قدرة المستخدم على الوصول إلى الرسائل المهمة. ورغم أن هذه الرسائل ليست «سباماً» بالمعنى التقني، فإنها تشكل عبئاً حقيقياً على المستخدم عندما تُخفي خلفها مراسلات شخصية أو مهنية أكثر أهمية.

في هذا السياق، أعلنت «غوغل» عن إطلاق ميزة جديدة داخل خدمة البريد الإلكتروني «جيميل» (Gmail) تحمل اسم إدارة الاشتراكات (Manage Subscriptions)، وذلك لمعالجة هذا النوع من الإزعاج بطريقة عملية ومنظمة.

اشتراكات مشروعة... وإزعاج متواصل

الإزعاج الذي يشتكي منه المستخدمون في بريدهم ليس بالضرورة ناتجاً عن رسائل احتيالية أو عشوائية، بل بسبب اشتراكات بريدية قانونية حصلت بموافقة المستخدم عند التسجيل في مواقع التجارة الإلكترونية أو المتاجر الرقمية أو التطبيقات أو الفعاليات. ومع الوقت، تتحول هذه الاشتراكات إلى ما يمكن تسميته بـ«الإزعاج المشروع» دون أن تمارس أي انتهاك. نتيجة ذلك، يتراجع حضور البريد الشخصي والمهني داخل صندوق الوارد، وتقل فاعلية البريد كأداة اتصال يومية.

ميزة تجمع اشتراكات البريد في صفحة واحدة وتتيح إلغاءها مباشرة لتنظيم الإيميل (جيميل)

«غوغل» تدخل على الخط

تقول «غوغل» إن الميزة الجديدة داخل «جيميل» لا تستهدف محاربة الرسائل التسويقية، بل تهدف إلى تنظيمها وإعادة السيطرة للمستخدم.

تعتمد الميزة على مبدأ بسيط وفعّال، وهو أن جمع كل القوائم البريدية النشطة في صفحة واحدة داخل «جيميل»، مع ترتيب الجهات الأكثر إرسالاً، وإتاحة خيار إلغاء الاشتراك مباشرة دون الانتقال إلى روابط خارجية أو تعبئة نماذج إضافية. هذا النموذج يعالج فجوة تقنية كانت موجودة منذ سنوات، حيث كان إلغاء الاشتراك سابقاً يتطلب فتح رابط خارجي قد يكون غير موثوق، أو المرور بخطوات مصممة لجعل الإلغاء أقل سهولة.

إلغاء الاشتراكات البريدية مباشرة من صفحة واحدة دون فتح روابط خارجية (جيميل)

فوائد تنظيمية وأمنية

تقول «غوغل» إن الميزة تهدف إلى تحسين تجربة البريد من خلال:

• تقليل الرسائل الترويجية المتكررة

• إبراز الرسائل المهمة ذات الأولوية

• رفع مستوى الأمان عبر تقليل التفاعل مع الروابط الخارجية

• تحسين الإنتاجية وتقليل وقت الفرز اليدوي

• تعزيز تنظيم البريد على المدى الطويل

هذه الخطوة لا تأتي مجرد تحسين بصري أو تقني، بل ضمن توجه أوسع لجعل البريد الإلكتروني أكثر قابلية للإدارة في ظل توسع الاشتراكات الرقمية.