

Yakın zamanda gündem olan OpenAI rakibi Çinli DeepSeek’in bu başarıya nasıl ulaştığı merak konusu olmuştu. Görünüşe bakılırsa yapay zekanın eğitimi için çok farklı bir yönteme başvurulmuş. DeepSeek Farklı Bir Eğitme Aracı Tercih Etmiş DeepSeek, yaklaşık iki ayda 2048 adet NVIDIA H800 GPU içeren bir sistem ile 671 milyar parametreli Mixture-of-Experts (MoE) dil modelini eğiterek sektörde…
Devamını Oku: