DeepSeek, 11 kat az işlem gücüyle yapay zeka modeli eğitti

Çinli yapay zeka girişimi DeepSeek, 671 milyar parametreli bir dil modelini sadece 11 kat daha az işlem gücüyle eğiterek önemli bir başarıya imza attığını duyurdu. DeepSeek-V3 adı verilen model, gelişmiş optimizasyon teknikleri kullanarak, önde gelen yapay zeka şirketlerinin modellerine benzer performans sergiliyor.

Kaynak: DonanımHaber

İlginizi çekebilir