ديب سيك تؤجل DeepSeek-R2 بعد تعثّر التدريب على شرائح هواوي

تصوير توضيحي لنموذج DeepSeek-R2 وتقنيات هواوي Ascend 910B

تأجيل إطلاق DeepSeek-R2

أفادت تقارير صحفية أن شركة الذكاء الاصطناعي الصينية ديب سيك قررت تأجيل إطلاق نموذجها المتطور DeepSeek-R2 بعد تعثّر تدريبه باستخدام رقائق هواوي Ascend 910B، في خطوة تعكس التحديات المستمرة أمام بكين في سعيها للاستغناء عن التقنيات الأمريكية وتطوير نماذج ذكاء اصطناعي محلية قوية.

أهمية DeepSeek-R2 وبنية MoE

كان من المتوقع أن يُحدث DeepSeek-R2 نقلة نوعية بفضل اعتماده على بنية مزيج الخبراء (MoE)، وهي تقنية تسمح بتقسيم النموذج إلى مجموعة من "الخبراء" المتخصصين، حيث يتم توجيه أجزاء معينة من البيانات لكل خبير بحسب المهمة، مما يزيد الكفاءة ويخفض استهلاك الموارد. يتميز النموذج بقدرة توسع تصل إلى 1.2 تريليون مُعامل، أي ما يقارب ضعف قدرات الإصدار السابق DeepSeek-R1 الذي ضم 671 مليار مُعامل، لكنه يظل أقل من قدرات ChatGPT-4 وChatGPT-5 التي تتجاوز 1.8 تريليون مُعامل.

تكلفة التدريب والكفاءة

رغم الإخفاق في الإطلاق فإن البيانات تشير إلى أن تكلفة تدريب DeepSeek-R2 أقل بنسبة 97% مقارنة بتكلفة تدريب ChatGPT-4، وذلك بفضل الاعتماد على العتاد المحلي وتقنيات التحسين المتقدمة في التدريب.

التحديات التقنية

خفض التكلفة لا يضمن بالضرورة جودة النتائج. نماذج MoE معقدة وتتطلب منظومة برمجية متكاملة ونُظم تسريع متوافقة ومستقرة. أي مشاكل في الذاكرة أو الأداء قد تمنع النموذج من تحقيق المستوى المطلوب للإطلاق.

التداعيات على سباق الذكاء الاصطناعي

تعكس هذه التطورات صراع الصين نحو تحقيق الاكتفاء الذاتي في مجال الذكاء الاصطناعي وسط سباق عالمي محموم لتطوير نماذج لغوية ضخمة وفعالة، وتبرز أهمية الاستثمار في التكنولوجيا المحلية لتعزيز القدرة التنافسية العالمية.

Buy us a coffee!