Samsung Electronics rozpoczął produkcję na dużą skalę 8-warstwowych układów High Bandwidth Memory 3 (HBM3) po przejściu testów ewaluacyjnych przeprowadzonych przez Nvidię, jak donosi Seoul Economic Daily, który powołuje się na anonimowe źródła branżowe.
Postęp ten zwiększa prawdopodobieństwo, że zaawansowane chipy HBM3E Samsunga, które firma chce dostarczyć Nvidii (NVDA), spełnią niezbędne kryteria jakości.
Układy HBM mają kluczowe znaczenie dla obecnego wzrostu sztucznej inteligencji ze względu na ich doskonałą przepustowość pamięci i wydajność, co prowadzi do szybszej obsługi danych i zwiększonej wydajności aplikacji sztucznej inteligencji.
Układy te spełniają intensywne wymagania przetwarzania zadań sztucznej inteligencji, takich jak głębokie uczenie i szkolenie sieci neuronowych, oferując szybki dostęp do obszernych zestawów danych i minimalizując czas reakcji.
Jeśli raport jest dokładny, oznacza to znaczący postęp dla Samsunga. Wcześniej w tym roku Reuters ujawnił, że chipy HBM Samsunga napotkały trudności z przegrzewaniem się i nadmiernym zużyciem energii, co utrudniło ich zatwierdzenie w testach Nvidii do wykorzystania w procesorach sztucznej inteligencji amerykańskiej firmy.
Do tej pory lokalny rywal Samsunga, SK Hynix, z powodzeniem dostarczał Nvidii chipy HBM3 od czerwca 2022 roku i rozpoczął dystrybucję chipów HBM3E do niewymienionego publicznie klienta pod koniec marca, który według źródeł jest Nvidią.
W tym samym czasie Micron (MU), inny wiodący producent HBM, zadeklarował zamiar dostarczania Nvidii chipów HBM3E.
Osiągnięcie standardów jakości Nvidii jest kluczowe dla producentów HBM, biorąc pod uwagę, że Nvidia kontroluje około 80% światowego rynku procesorów graficznych (GPU) wykorzystywanych w aplikacjach sztucznej inteligencji. Triumf w tej dziedzinie ma kluczowe znaczenie dla utrzymania silnej reputacji i przyczynienia się do wzrostu zysków.
Ten artykuł został skomponowany i przetłumaczony z pomocą AI i sprawdzony przez redaktora. Dodatkowe informacje można znaleźć w naszym Regulaminie.