— OCI Supercluster przoduje wśród dostawców chmury, oferując wsparcie dla nawet 16 384 GPU AMD (NASDAQ:AMD) Instinct MI300X w jednej ultraszybkiej strukturze sieciowej --
AMD (AMD) ogłosiło dziś, że Oracle Cloud Infrastructure (OCI) wybrało akceleratory AMD Instinct™ MI300X z oprogramowaniem open source ROCm™ do zasilania swojej najnowszej instancji OCI Compute Supercluster o nazwie BM.GPU.MI300X.8. Dla modeli AI, które mogą składać się z setek miliardów parametrów, OCI Supercluster z AMD MI300X obsługuje do 16 384 GPU w jednym klastrze, wykorzystując tę samą ultraszybką technologię struktury sieciowej, co inne akceleratory w OCI. Zaprojektowane do obsługi wymagających zadań AI, w tym wnioskowania i treningu dużych modeli językowych (LLM), które wymagają wysokiej przepustowości z wiodącą pojemnością i przepustowością pamięci, te instancje bare metal OCI zostały już przyjęte przez firmy takie jak Fireworks AI.
"AMD Instinct MI300X i oprogramowanie open source ROCm zyskują coraz większe uznanie jako zaufane rozwiązania do zasilania najważniejszych zadań AI w OCI," powiedział Andrew Dieckmann, wiceprezes korporacyjny i dyrektor generalny działu GPU dla centrów danych w AMD. "W miarę jak te rozwiązania rozszerzają się na rosnące rynki intensywnie wykorzystujące AI, ta kombinacja przyniesie klientom OCI korzyści w postaci wysokiej wydajności, efektywności i większej elastyczności projektowania systemów."
"Możliwości wnioskowania akceleratorów AMD Instinct MI300X poszerzają obszerną ofertę wysokowydajnych instancji bare metal OCI, eliminując narzut związany z wirtualizacją obliczeń powszechnie stosowaną w infrastrukturze AI," powiedział Donald Lu, starszy wiceprezes ds. rozwoju oprogramowania w Oracle Cloud Infrastructure. "Cieszymy się, że możemy zaoferować klientom większy wybór w zakresie przyspieszania zadań AI w konkurencyjnej cenie."
Zapewnienie zaufanej wydajności i otwartego wyboru dla treningu i wnioskowania AI
AMD Instinct MI300X przeszedł obszerne testy, które zostały zwalidowane przez OCI, podkreślając jego możliwości wnioskowania i treningu AI do obsługi przypadków użycia optymalnych pod względem opóźnień, nawet przy większych rozmiarach partii, oraz zdolność do dopasowania największych modeli LLM w pojedynczym węźle. Te wyniki wydajnościowe Instinct MI300X zwróciły uwagę twórców modeli AI.
Fireworks AI oferuje szybką platformę zaprojektowaną do budowania i wdrażania generatywnej AI. Z ponad 100 modelami, Fireworks AI wykorzystuje korzyści wydajnościowe oferowane przez OCI z użyciem AMD Instinct MI300X.
"Fireworks AI pomaga przedsiębiorstwom budować i wdrażać złożone systemy AI w szerokiej gamie branż i przypadków użycia," powiedziała Lin Qiao, CEO Fireworks AI. "Ilość pojemności pamięci dostępnej w AMD Instinct MI300X i oprogramowaniu open source ROCm pozwala nam skalować usługi dla naszych klientów w miarę wzrostu modeli."
Dodatkowe źródła
- Śledź AMD na LinkedIn
- Śledź AMD na Twitter
Artykuł został przetłumaczony przy pomocy sztucznej inteligencji. Zapoznaj się z Warunkami Użytkowania, aby uzyskać więcej informacji.