تعرف على العلامات الخفية للفيديوهات المصنوعة بالذكاء الاصطناعي

تزايد خطر العروض المرئية الاصطناعية وتآكل الثقة الرقمية

وجه حقيقي إلى اليسار ومزيف إلى اليمين يشابه إيلون ماسك بعد التزييف
وجه حقيقي إلى اليسار ومزيف إلى اليمين يشابه إيلون ماسك بعد التزييف
TT

تعرف على العلامات الخفية للفيديوهات المصنوعة بالذكاء الاصطناعي

وجه حقيقي إلى اليسار ومزيف إلى اليمين يشابه إيلون ماسك بعد التزييف
وجه حقيقي إلى اليسار ومزيف إلى اليمين يشابه إيلون ماسك بعد التزييف

يشهد الفضاء الرقمي تحولاً جذرياً بفعل التقدم في نماذج الذكاء الاصطناعي التوليدي، لا سيما تقنية التزييف العميق «Deepfake»، وتُعد هذه التقنية التي تستخدم خوارزميات الذكاء الاصطناعي لتركيب الوجوه وتغيير التعبيرات والكلام والإيماءات في عروض الفيديو سلاحاً إلكترونياً متنامياً، مما يشكل تحدياً مباشراً لقدرة المستخدم على التمييز بين الواقع والمحتوى الاصطناعي.

ونذكر في هذا الموضوع نصائح وأدوات للمساعدة في التعرف على ما إذا كان فيديو ما مصنوعاً بتقنيات الذكاء الاصطناعي أم لا.

ويُنذر التطور السريع لتقنيات التزييف العميق وإمكانية الوصول إليها بمخاطر جسيمة، بما في ذلك الانتشار الواسع للمعلومات المضللة وسرقة الهوية والاستغلال. ولا يتضخم الخطر فقط بسبب الجودة المتزايدة للفيديو النهائي، ولكن بسبب سهولة استغلالها. وتستطيع أدوات اليوم توظيف أقل من 3 ثوانٍ من صوت شخص إلى إنشاء نسخة صوتية مزيفة تُستخدم في عمليات الاحتيال. وعليه، يجب أن يبدأ الكشف عنها بتدريب العين البشرية على اكتشاف صفات عروض الفيديو المولدة صناعياً قبل الاستعانة بالأدوات التقنية المتخصصة.

وجه حقيقي إلى اليسار ومزيف إلى اليمين يشابه الممثل توم كروز بعد التزييف

الكشف البشري عن التزييف العميق

أول خطوة في التعرف المباشر على الفيديوهات المزيفة هي معرفة أن عروض الفيديو المولدة بواسطة الذكاء الاصطناعي الحديث نادراً ما تبدو سيئة الصنع، بل غالباً ما تكون مثالية بشكل غير طبيعي.

• عدم التناسق. لذلك، لا يجب البحث عن الأخطاء الفادحة، بل عن التفاصيل الدقيقة والمستويات المتعارضة من التناسق التي يُخفق الذكاء الاصطناعي في دمجها بشكل متكامل. ويجب أن ينصب التركيز الأولي على منطقة العينين، حيث غالباً ما تظهر زجاجية أو آلية أو تشوبها ومضات غير طبيعية.

• عدم التزامن السمعي البصري. مع ذلك، تبقى العلامة الأكثر شيوعاً للكشف هي عدم التزامن السمعي البصري بين حركات الشفاه والصوت.

• ملامح بيولوجية. على الرغم من التقدم الكبير، لا تزال الخوارزميات تجد صعوبة في محاكاة التباين الطبيعي للملامح، وينبغي فحص جلد الشخص: هل يبدو ناعماً بشكل مفرط ويفتقر إلى الملمس المسامي الطبيعي؟ كما يُخفق الذكاء الاصطناعي غالباً في محاكاة التفاصيل الصغيرة والدائمة، مثل الشامات على الخد أو التجاعيد الدقيقة.

وهناك نقطة ضعف حيوية أخرى تكمن في غياب الوظائف البيولوجية المستمرة. يجب على المشاهد أن يلاحظ ما إذا كان هناك غياب واضح لحركة التنفس المنتظم في الصدر، مثلاً، أو رمش العينين بمعدل طبيعي.

• تحليل الحركة. تظل الأيدي والأصابع نقطة الفشل الكلاسيكية في الفيديوهات المصنوعة. ويجب فحص عدد الأصابع بدقة، فقد تظهر الأصابع مشوهة أو بأعداد غير صحيحة. بالإضافة إلى ذلك، يجب الانتباه إلى كيفية تحرك اليدين والمفاصل والأطراف: هل تبدو الحركة عائمة أو طافية أو مشوهة في شكلها؟ كما يجب تحليل الحركة العامة للشخص الذي يظهر في الفيديو. هل تظهر حركات الشخص موجية أو مهتزة وغير طبيعية أو هل يوجد تذبذب واهتزاز في الوجه أو تكتل وتشوه؟ بالإضافة إلى ذلك، يجب الأخذ بعين الاعتبار سلوك الشخص: هل يقوم بشيء غير معقول أو يتعارض مع سياق الموقف أو شخصيته المعروفة؟

• الصوت والإيقاع. عند تحليل المكون الصوتي يجب الانتباه إلى الإيقاع؛ هل يوجد نمط غير طبيعي في الكلام يفتقر إلى الترددات البشرية الطبيعية، مثل التوقفات العادية أو توقفات التنفس التي تميز الخطاب البشري؟ يجب التحقق مما إذا كان النطق مثالياً جداً لدرجة تفتقر إلى النبرة أو العمق العاطفي الطبيعي أو العمر المناسب للشخص الظاهر. كما يجب الانتباه لغياب ضوضاء البيئة في الخلفية التي ينبغي أن تكون موجودة بشكل طبيعي.

• الإضاءة والظلال. وغالباً ما يفشل الذكاء الاصطناعي في دمج العنصر المزيف مع الخلفية المحيطة، مما يخلق ما يُسمّى «التماس البصري». هل تبدو الأشياء في الخلفية ذائبة أو متكررة أو متشابهة بشكل غريب؟ الأهم من ذلك، يجب التحقق مما إذا كانت الإضاءة والظلال متطابقة مع مصدر الضوء المفترض في المشهد، فالتناقضات في الإضاءة والانعكاسات والظلال تُعدّ من الدلائل البصرية الأكثر إفشاء للتلاعب.

تساعد أدوات متخصصة في التعرف الفيديو المزيف

أدوات الذكاء الاصطناعي المضاد

وفي ظل التطور المتسارع لتقنيات التوليد، لم تعد الملاحظة البشرية كافية بمفردها لتوفير قرار قاطع، وأصبحت الحاجة ملحة إلى استخدام أدوات تقنية متقدمة تستخدم الذكاء الاصطناعي المضاد للكشف عن البصمة الخوارزمية المخفية التي لا يمكن للعين المجردة رؤيتها. وتُمثل هذه الأدوات الخطوة شبه الحاسمة، حيث تعمل بوصفها مستشعرات متخصصة قادرة على تحليل بيانات الصوت والصورة بسرعة فائقة لتقديم تقييم موضوعي للمصداقية.

جدير بالذكر أنه لا يمكن لأداة واحدة أن تكشف جميع أشكال التزييف بكفاءة عالية، مما يستدعي استخدام مجموعة من الأدوات المتخصصة. ويتمثل التحدي الأكبر في أن جميع طرق الكشف الآلي لديها معدلات فشل، وهذا يتطلب من المطورين والباحثين توقع طرق جديدة لإنشاء الوسائط الاصطناعية بشكل مستمر. ويجب إدراك أن سباق التسلح مستمر، وأن أدوات الكشف الحالية يجب التعامل مع نتائجها بحذر بصفتها مؤشرات وليست أحكاماً نهائية.

ونذكر فيما يلي أبرز الأدوات التقنية المتاحة، للمساعدة في كشف عروض الفيديو المصنوعة بتقنيات الذكاء الاصطناعي:

• كاشف التلاعب الصوتي: تُمثل أداة «ديب فيك ديتيكتر» McAfee Deepfake Detector من «مكافي» دفاعاً متخصصاً ضد الاحتيال الذي يعتمد على استنساخ الصوت عبر الذكاء الاصطناعي، فقد أصبح من السهل جداً على مجرمي الإنترنت استغلال الأصوات المقلدة. وتستخدم هذه الأداة نماذج الشبكات العصبية العميقة التي يتم تدريبها بخبرة للكشف عن الصوت الذي تم توليده أو التلاعب به بواسطة الذكاء الاصطناعي. ويمكن لهذه الأداة إرسال تنبيهات في غضون ثوانٍ مباشرة في متصفح المستخدم، مما يساعد على التمييز السريع بين الحقيقي والمزيف.

• تقنية كاشف البصمة البيولوجية: تُعد تقنية «فيك كاتشر» Intel FakeCatcher من «إنتل» الأولى عالمياً في توفير منصة كشف عن التزييف العميق في الوقت الفوري، وتتمتع بدقة عالية تصل إلى 96 في المائة. وتعتمد آلية عمل هذه الأداة على مبدأ مبتكر يُعرف باسم «البصمة البشرية». فبدلاً من البحث عن عيوب في الصورة المولّدة، تركز الأداة على تحليل وحدات الـ«بكسل» في الفيديو، للكشف عن علامات تدفق الدم الناتجة عن عمل القلب. وبما أن نماذج الذكاء الاصطناعي لا يمكنها محاكاة هذه الوظيفة الفسيولوجية الحية، فإن غياب تلك الإشارات البيولوجية يُعدّ دليلاً قاطعاً على التلاعب.

• الماسح العميق العام: توفر منصة «ديبووير سكانر» Deepware Scanner أداة مصممة لمسح واكتشاف عروض الفيديو والصوتيات المُتلاعب بها اصطناعياً. وتستخدم الأداة تقنية كشف عامة تستهدف التلاعب البصري والسمعي في الوسائط، وهي حل عملي لإجراء فحص سريع ومباشر عبر الإنترنت.

• منصة الأبحاث المفتوحة: تُمثل «ديب فيك أو ميتير» DeepFake o meter منصة تعمل على دمج أحدث طرق البحث مفتوحة المصدر للكشف عن الوسائط الاصطناعية، بما في ذلك الصور وعروض الفيديو والصوتيات. وتم تطوير هذه المنصة بدعم من جامعات ومؤسسات بحثية، وتهدف إلى توفير أداة مجانية للجمهور لتجربة وفهم التطورات الحديثة في اكتشاف الوسائط الاصطناعية. وتستخدم المنصة نماذج بحثية أولية، مثل LipFD لكشف التلاعب بحركة الشفاه في الفيديو، وRawNet2-Vocoder-v3 لكشف الصوت المزيف.


مقالات ذات صلة

دراسة: نصف الموظفين في السعودية تلقّوا تدريباً سيبرانياً

تكنولوجيا نصف الموظفين في السعودية فقط تلقّوا تدريباً سيبرانياً ما يخلق فجوة خطرة في الوعي الأمني داخل المؤسسات (غيتي)

دراسة: نصف الموظفين في السعودية تلقّوا تدريباً سيبرانياً

ذكرت دراسة «كاسبرسكي» أن نصف موظفي السعودية تلقوا تدريباً سيبرانياً ما يجعل الأخطاء البشرية مدخلاً رئيسياً للهجمات الرقمية.

نسيم رمضان (لندن)
تكنولوجيا خاصية إشعارات ارتفاع ضغط الدم في «أبل ووتش» تستند إلى مستشعر نبضات القلب البصري في الساعة (الشرق الأوسط)

«أبل ووتش» تتيح خاصية التنبيه المبكر لارتفاع ضغط الدم في السعودية والإمارات

قالت شركة «أبل» إنها أتاحت خاصية إشعارات ارتفاع ضغط الدم على ساعات «أبل ووتش» لمستخدميها في السعودية والإمارات.

«الشرق الأوسط» (دبي)
تكنولوجيا أطلقت «يوتيوب» أول ملخص سنوي يمنح المستخدمين مراجعة شخصية لعادات المشاهدة خلال عام 2025

«ملخص يوتيوب»: خدمة تعيد سرد عامك الرقمي في 2025

يقدم الملخص ما يصل إلى 12 بطاقة تفاعلية تُبرز القنوات المفضلة لدى المستخدم، وأكثر الموضوعات التي تابعها، وكيفية تغيّر اهتماماته على مدار العام.

نسيم رمضان (لندن)
علوم الصين تبني أول جزيرة عائمة مقاومة للأسلحة النووية في العالم

الصين تبني أول جزيرة عائمة مقاومة للأسلحة النووية في العالم

مشروع مثير للإعجاب لا مثيل له في العالم

جيسوس دياز (واشنطن)
تكنولوجيا الأوتار الاصطناعية قد تصبح وحدات قابلة للتبديل لتسهيل تصميم روبوتات هجينة ذات استخدامات طبية واستكشافية (شاترستوك)

أوتار اصطناعية تضاعف قوة الروبوتات بثلاثين مرة

الأوتار الاصطناعية تربط العضلات المزروعة بالهياكل الروبوتية، مما يرفع الكفاءة ويفتح الباب لروبوتات بيولوجية أقوى وأكثر مرونة.

نسيم رمضان (لندن)

بـ40 ألف زائر و25 صفقة استثمارية... «بلاك هات» يُسدل ستار نسخته الرابعة

شهد المعرض مشاركة أكثر من 500 جهة (بلاك هات)
شهد المعرض مشاركة أكثر من 500 جهة (بلاك هات)
TT

بـ40 ألف زائر و25 صفقة استثمارية... «بلاك هات» يُسدل ستار نسخته الرابعة

شهد المعرض مشاركة أكثر من 500 جهة (بلاك هات)
شهد المعرض مشاركة أكثر من 500 جهة (بلاك هات)

اختُتمت في ملهم شمال الرياض، الخميس، فعاليات «بلاك هات الشرق الأوسط وأفريقيا 2025»، الذي نظمه الاتحاد السعودي للأمن السيبراني والبرمجة والدرونز، وشركة «تحالف»، عقب 3 أيام شهدت حضوراً واسعاً، عزّز مكانة السعودية مركزاً عالمياً لصناعة الأمن السيبراني.

وسجّلت نسخة هذا العام مشاركة مكثفة جعلت «بلاك هات 2025» من أبرز الفعاليات السيبرانية عالمياً؛ حيث استقطب نحو 40 ألف زائر من 160 دولة، داخل مساحة بلغت 60 ألف متر مربع، بمشاركة أكثر من 500 جهة عارضة، إلى جانب 300 متحدث دولي، وأكثر من 200 ساعة محتوى تقني، ونحو 270 ورشة عمل، فضلاً عن مشاركة 500 متسابق في منافسات «التقط العلم».

كما سجّل المؤتمر حضوراً لافتاً للمستثمرين هذا العام؛ حيث بلغت قيمة الأصول المُدارة للمستثمرين المشاركين نحو 13.9 مليار ريال، الأمر الذي يعكس جاذبية المملكة بوصفها بيئة محفّزة للاستثمار في تقنيات الأمن السيبراني، ويؤكد تنامي الثقة الدولية بالسوق الرقمية السعودية.

وأظهرت النسخ السابقة للمؤتمر في الرياض تنامي المشاركة الدولية؛ حيث بلغ إجمالي المشاركين 4100 متسابق، و1300 شركة عالمية، و1300 متخصص في الأمن السيبراني، في مؤشر يعكس اتساع التعاون الدولي في هذا القطاع داخل المملكة.

إلى جانب ذلك، تم الإعلان عن أكثر من 25 صفقة استثمارية، بمشاركة 200 مستثمر و500 استوديو ومطور، بما يُسهم في دعم بيئة الاقتصاد الرقمي، وتعزيز منظومة الشركات التقنية الناشئة.

وقال خالد السليم، نائب الرئيس التنفيذي لقطاع الأعمال في الاتحاد السعودي للأمن السيبراني والبرمجة والدرونز لـ«الشرق الأوسط»: «إن (بلاك هات) يُحقق تطوّراً في كل نسخة عن النسخ السابقة، من ناحية عدد الحضور وعدد الشركات».

أظهرت النسخ السابقة للمؤتمر في الرياض تنامي المشاركة الدولية (بلاك هات)

وأضاف السليم: «اليوم لدينا أكثر من 350 شركة محلية وعالمية من 162 دولة حول العالم، وعدد الشركات العالمية هذا العام زاد بنحو 27 في المائة على العام الماضي».

وسجّل «بلاك هات الشرق الأوسط وأفريقيا» بنهاية نسخته الرابعة، دوره بوصفه منصة دولية تجمع الخبراء والمهتمين بالأمن السيبراني، وتتيح تبادل المعرفة وتطوير الأدوات الحديثة، في إطار ينسجم مع مسار السعودية نحو تعزيز كفاءة القطاع التقني، وتحقيق مستهدفات «رؤية 2030».


دراسة: نصف الموظفين في السعودية تلقّوا تدريباً سيبرانياً

نصف الموظفين في السعودية فقط تلقّوا تدريباً سيبرانياً ما يخلق فجوة خطرة في الوعي الأمني داخل المؤسسات (غيتي)
نصف الموظفين في السعودية فقط تلقّوا تدريباً سيبرانياً ما يخلق فجوة خطرة في الوعي الأمني داخل المؤسسات (غيتي)
TT

دراسة: نصف الموظفين في السعودية تلقّوا تدريباً سيبرانياً

نصف الموظفين في السعودية فقط تلقّوا تدريباً سيبرانياً ما يخلق فجوة خطرة في الوعي الأمني داخل المؤسسات (غيتي)
نصف الموظفين في السعودية فقط تلقّوا تدريباً سيبرانياً ما يخلق فجوة خطرة في الوعي الأمني داخل المؤسسات (غيتي)

أظهرت دراسة حديثة أجرتها شركة «كاسبرسكي» في منطقة الشرق الأوسط وتركيا وأفريقيا، ونُشرت نتائجها خلال معرض «بلاك هات 2025» في الرياض، واقعاً جديداً في بيئات العمل السعودية.

فقد كشف الاستطلاع، الذي حمل عنوان «الأمن السيبراني في أماكن العمل: سلوكيات الموظفين ومعارفهم»، أن نصف الموظفين فقط في المملكة تلقّوا أي نوع من التدريب المتعلق بالتهديدات الرقمية، على الرغم من أن الأخطاء البشرية ما زالت تمثل المدخل الأبرز لمعظم الحوادث السيبرانية.

وتشير هذه النتائج بوضوح إلى اتساع فجوة الوعي الأمني، وحاجة المؤسسات إلى بناء منظومة تدريبية أكثر صرامة وشمولاً لمختلف مستويات الموظفين.

تكتيكات تتجاوز الدفاعات التقنية

تُظهر البيانات أن المهاجمين باتوا يعتمدون بشكل متزايد على الأساليب المستهدفة التي تستغل الجانب النفسي للأفراد، وعلى رأسها «الهندسة الاجتماعية».

فعمليات التصيّد الاحتيالي ورسائل الانتحال المصممة بعناية قادرة على خداع الموظفين ودفعهم للإفصاح عن معلومات حساسة أو تنفيذ إجراءات مالية مشبوهة.

وقد أفاد 45.5 في المائة من المشاركين بأنهم تلقوا رسائل احتيالية من جهات تنتحل صفة مؤسساتهم أو شركائهم خلال العام الماضي، فيما تعرّض 16 في المائة منهم لتبعات مباشرة جراء هذه الرسائل.

وتشمل صور المخاطر الأخرى المرتبطة بالعنصر البشري كلمات المرور المخترقة، وتسريب البيانات الحساسة، وعدم تحديث الأنظمة والتطبيقات، واستخدام أجهزة غير مؤمنة أو غير مُشفّرة.

الأخطاء البشرية مثل كلمات المرور الضعيفة وتسريب البيانات وعدم تحديث الأنظمة تشكل أبرز أسباب الاختراقات (شاترستوك)

التدريب... خط الدفاع الأول

ورغم خطورة هذه السلوكيات، يؤكد الاستطلاع أن الحد منها ممكن بدرجة كبيرة عبر برامج تدريب موجهة ومستمرة.

فقد اعترف 14 في المائة من المشاركين بأنهم ارتكبوا أخطاء تقنية نتيجة نقص الوعي الأمني، بينما أشار 62 في المائة من الموظفين غير المتخصصين إلى أن التدريب يعدّ الوسيلة الأكثر فاعلية لتعزيز وعيهم، مقارنة بوسائل أخرى مثل القصص الإرشادية أو التذكير بالمسؤولية القانونية.

ويبرز هذا التوجه أهمية بناء برامج تدريبية متكاملة تشكل جزءاً أساسياً من الدفاع المؤسسي ضد الهجمات.

وعند سؤال الموظفين عن المجالات التدريبية الأكثر أهمية لهم، جاءت حماية البيانات السرية في صدارة الاهتمامات بنسبة 43.5 في المائة، تلتها إدارة الحسابات وكلمات المرور (38 في المائة)، وأمن المواقع الإلكترونية (36.5 في المائة).

كما برزت موضوعات أخرى مثل أمن استخدام الشبكات الاجتماعية وتطبيقات المراسلة، وأمن الأجهزة المحمولة، والبريد الإلكتروني، والعمل عن بُعد، وحتى أمن استخدام خدمات الذكاء الاصطناعي التوليدي.

واللافت أن ربع المشاركين تقريباً أبدوا رغبتهم في تلقي جميع أنواع التدريب المتاحة، ما يعكس حاجة ملحة إلى تعليم شامل في الأمن السيبراني.

«كاسبرسكي»: المؤسسات بحاجة لنهج متكامل يجمع بين حلول الحماية التقنية وبناء ثقافة أمنية تُحوّل الموظفين إلى خط دفاع فعّال (شاترستوك)

تدريب عملي ومتجدد

توضح النتائج أن الموظفين مستعدون لاكتساب المهارات الأمنية، لكن يُشترط أن تكون البرامج التدريبية ذات طابع عملي وتفاعلي، وأن تُصمَّم بما يتناسب مع أدوار الموظفين ومستوى خبراتهم الرقمية. كما ينبغي تحديث المحتوى بانتظام ليتوافق مع تطور التهديدات.

ويؤدي تبني هذا النهج إلى ترسيخ ممارسات يومية مسؤولة لدى الموظفين، وتحويلهم من نقطة ضعف محتملة إلى عنصر دفاعي فاعل داخل المؤسسة، قادر على اتخاذ قرارات أمنية واعية وصد محاولات الاحتيال قبل تصعيدها.

وفي هذا السياق، يؤكد محمد هاشم، المدير العام لـ«كاسبرسكي» في السعودية والبحرين، أن الأمن السيبراني «مسؤولية مشتركة تتجاوز حدود أقسام تقنية المعلومات».

ويشير إلى أن بناء مؤسسة قوية يتطلب تمكين جميع الموظفين من الإدارة العليا إلى المتدربين من فهم المخاطر الرقمية والتصرف بوعي عند مواجهتها، وتحويلهم إلى شركاء حقيقيين في حماية البيانات.

تقوية دفاعات المؤسسات

ولتقوية دفاعاتها، تنصح «كاسبرسكي» أن تعتمد المؤسسات نهجاً متكاملاً يجمع بين التكنولوجيا والمهارات البشرية واستخدام حلول مراقبة وحماية متقدمة مثل سلسلة «Kaspersky Next» وتوفير برامج تدريبية مستمرة مثل منصة «كاسبرسكي» للتوعية الأمنية الآلية، إضافة إلى وضع سياسات واضحة تغطي كلمات المرور وتثبيت البرمجيات وتجزئة الشبكات.

وفي الوقت نفسه، يساعد تعزيز ثقافة الإبلاغ عن الأنشطة المشبوهة ومكافأة السلوكيات الأمنية الجيدة في خلق بيئة عمل أكثر يقظة واستعداداً.

يذكر أن هذا الاستطلاع أُجري في عام 2025 بواسطة وكالة «Toluna»، وشمل 2,800 موظف وصاحب عمل في سبع دول، بينها السعودية والإمارات ومصر، ما يقدم صورة إقليمية شاملة حول مستوى الوعي والتحديات المرتبطة بالأمن السيبراني في أماكن العمل.


تقرير: مؤسس «أوبن إيه آي» يتطلع إلى تأسيس شركة صواريخ لمنافسة ماسك في الفضاء

سام ألتمان الرئيس التنفيذي لشركة «أوبن إيه آي» (أ.ب)
سام ألتمان الرئيس التنفيذي لشركة «أوبن إيه آي» (أ.ب)
TT

تقرير: مؤسس «أوبن إيه آي» يتطلع إلى تأسيس شركة صواريخ لمنافسة ماسك في الفضاء

سام ألتمان الرئيس التنفيذي لشركة «أوبن إيه آي» (أ.ب)
سام ألتمان الرئيس التنفيذي لشركة «أوبن إيه آي» (أ.ب)

كشف تقرير جديدة عن أن سام ألتمان، الرئيس التنفيذي لشركة «أوبن إيه آي»، يتطلع إلى بناء أو تمويل أو شراء شركة صواريخ لمنافسة الملياردير إيلون ماسك، مؤسس «سبيس إكس»، في سباق الفضاء.

وأفادت صحيفة «وول ستريت جورنال»، الخميس، بأن ألتمان يدرس شراء أو الشراكة مع مزود خدمات إطلاق صواريخ قائم بتمويل.

وأشار التقرير إلى أن هدف ألتمان هو دعم مراكز البيانات الفضائية لتشغيل الجيل القادم من أنظمة الذكاء الاصطناعي.

كما أفادت الصحيفة بأن ألتمان قد تواصل بالفعل مع شركة «ستوك سبيس»، وهي شركة صواريخ واحدة على الأقل، ومقرها واشنطن، خلال الصيف، واكتسبت المحادثات زخماً في الخريف.

ومن بين المقترحات سلسلة استثمارات بمليارات الدولارات من «أوبن إيه آي»، كان من الممكن أن تمنح الشركة في نهاية المطاف حصة مسيطرة في شركة الصواريخ.

وأشار التقرير إلى أن هذه المحادثات هدأت منذ ذلك الحين، وفقاً لمصادر مقربة من «أوبن إيه آي».

ووفقاً لصحيفة «وول ستريت جورنال»، جاء تواصل ألتمان مع شركة الصواريخ في الوقت الذي تواجه فيه شركته تدقيقاً بشأن خططها التوسعية الطموحة.

ودخلت «أوبن إيه آي» بالتزامات جديدة بمليارات الدولارات، على الرغم من عدم توضيحها لكيفية تمويلها عملية التوسعة الكبيرة.

في وقت سابق من هذا الأسبوع، أعلن ألتمان حالة من القلق الشديد على مستوى الشركة بعد أن بدأ برنامج «شات جي بي تي» يتراجع أمام روبوت الدردشة «جيميني» من «غوغل»؛ ما دفع «أوبن إيه آي» إلى تأجيل عمليات الإطلاق الأخرى، وطلب من الموظفين تحويل فرقهم للتركيز على تحسين منتجها الرائد.

يرى ألتمان أن اهتمامه بالصواريخ يتماشى مع فكرة أن طلب الذكاء الاصطناعي على الطاقة سيدفع البنية التحتية للحوسبة إلى خارج الأرض.

لطالما كان من دعاة إنشاء مراكز بيانات فضائية لتسخير الطاقة الشمسية في الفضاء مع تجنب الصعوبات البيئية على الأرض.

تشارك كل من ماسك وجيف بيزوس وسوندار بيتشاي، رئيس «غوغل»، الأفكار نفسها.

تُطوّر شركة «ستوك سبيس»، التي أسسها مهندسون سابقون في «بلو أوريجين»، صاروخاً قابلاً لإعادة الاستخدام بالكامل يُسمى «نوفا»، والذي تُشير التقارير إلى أنه يُطابق ما تسعى «سبيس إكس» إلى تحقيقه.

الملياردير الأميركي إيلون ماسك (أ.ف.ب)

وأشارت صحيفة «وول ستريت جورنال» إلى أن الشراكة المقترحة كانت ستُتيح لألتمان فرصةً مُختصرةً لدخول قطاع الإطلاق الفضائي.

تُسلّط محادثات ألتمان الضوء على التنافس المستمر بينه وبين ماسك. فقد شارك الاثنان في تأسيس شركة «أوبن إيه آي» عام 2015، ثم اختلفا حول توجه الشركة، ليغادر ماسك بعد ثلاث سنوات.

ومنذ ذلك الحين، أطلق ماسك شركته الخاصة للذكاء الاصطناعي، xAI، بينما وسّع ألتمان طموحات «أوبن إيه آي»، ودعم مؤخراً مشاريع تُنافس مشاريع ماسك مباشرةً، بما في ذلك شركة ناشئة تُعنى بالدماغ والحاسوب.

ألمح ألتمان إلى طموحاته في مجال الفضاء في وقت سابق من هذا العام، وقال: «أعتقد أن الكثير من العالم يُغطى بمراكز البيانات بمرور الوقت. ربما نبني كرة دايسون كبيرة حول النظام الشمسي ونقول: مهلاً، ليس من المنطقي وضع هذه على الأرض».

ثم في يونيو (حزيران)، تساءل: «هل ينبغي لي أن أؤسس شركة صواريخ؟»، قبل أن يضيف: «آمل أن تتمكن البشرية في نهاية المطاف من استهلاك قدر أكبر بكثير من الطاقة مما يمكننا توليده على الأرض».