[DeepSeek, 671 Milyar Parametreli Prover-V2 Modelini Yayınladı] DeepSeek bugün, açık kaynaklı bir AI topluluğu olan Hugging Face'de DeepSeek-Prover-V2-671B adlı yeni bir model yayınladı. DeepSeek-Prover-V2-671B'nin daha verimli bir safetensors dosya formatı kullandığı ve 671 milyar parametre ile daha hızlı ve daha fazla kaynak tasarrufu sağlayan model eğitimi ve dağıtımı için uygun olan çeşitli hesaplama hassasiyetlerini desteklediği veya geçen yıl piyasaya sürülen Prover-V1.5 matematiksel modelinin yükseltilmiş bir sürümünü desteklediği bildiriliyor. Model mimarisi açısından model, DeepSeek-V3 mimarisini kullanır, MoE (Hybrid Expert) modunu benimser ve 61 Transformer katmanına ve 7168 boyutlu gizli katmana sahiptir. Aynı zamanda, karmaşık matematiksel kanıtları işlemesini sağlayan 163.800'e kadar maksimum konum gömme ile ultra uzun bağlamları destekler ve niceleme teknolojisi aracılığıyla model boyutunu azaltabilen ve çıkarım verimliliğini artırabilen FP8 nicelemesi benimsenir. ( altın on )
The content is for reference only, not a solicitation or offer. No investment, tax, or legal advice provided. See Disclaimer for more risks disclosure.
DeepSeek, Prover-V2 modelini piyasaya sürdü, parametre sayısı 671 milyar.
[DeepSeek, 671 Milyar Parametreli Prover-V2 Modelini Yayınladı] DeepSeek bugün, açık kaynaklı bir AI topluluğu olan Hugging Face'de DeepSeek-Prover-V2-671B adlı yeni bir model yayınladı. DeepSeek-Prover-V2-671B'nin daha verimli bir safetensors dosya formatı kullandığı ve 671 milyar parametre ile daha hızlı ve daha fazla kaynak tasarrufu sağlayan model eğitimi ve dağıtımı için uygun olan çeşitli hesaplama hassasiyetlerini desteklediği veya geçen yıl piyasaya sürülen Prover-V1.5 matematiksel modelinin yükseltilmiş bir sürümünü desteklediği bildiriliyor. Model mimarisi açısından model, DeepSeek-V3 mimarisini kullanır, MoE (Hybrid Expert) modunu benimser ve 61 Transformer katmanına ve 7168 boyutlu gizli katmana sahiptir. Aynı zamanda, karmaşık matematiksel kanıtları işlemesini sağlayan 163.800'e kadar maksimum konum gömme ile ultra uzun bağlamları destekler ve niceleme teknolojisi aracılığıyla model boyutunu azaltabilen ve çıkarım verimliliğini artırabilen FP8 nicelemesi benimsenir. ( altın on )