Çinli yapay zeka girişimi DeepSeek, 671 milyar parametreli bir dil modelini sadece 11 kat daha az işlem gücüyle eğiterek önemli bir başarıya imza attığını duyurdu. DeepSeek-V3 adı verilen model, gelişmiş optimizasyon teknikleri kullanarak, önde gelen yapay zeka şirketlerinin modellerine benzer performans sergiliyor.
Kaynak: DonanımHaber