NVIDIA ogłosiła premierę nowego modułu GB200 NVL4, będącego rozszerzeniem pierwotnej platformy GB200 Grace Blackwell Superchip AI. Dzięki podwojeniu mocy obliczeniowej CPU i poczwórnej GPU oraz zwiększonej pamięci, GB200 NVL4 zapowiada się jako potężne rozwiązanie dla wymagających zastosowań AI i symulacji.
GB200 NVL4: Maksymalna moc i wydajność
GB200 NVL4 to moduł wyposażony w cztery GPU Blackwell GB200 i dwa CPU Grace. Ten został zaprojektowany jako rozwiązanie jednoserwerowe z poczwórną domeną NVLink, co pozwala na podpięcie do czterech grafik i zarządzanie wspólną pamięcią o pojemności 1,3 TB. NVIDIA deklaruje imponujące wzrosty wydajności w porównaniu do poprzedniej generacji Hopper GH200 NVL4, oferujący 2,2-krotny skok osiągów w symulacjach i 1,8-krotny wzrost w zakresie uczenia i wnioskowania (Training i Inference).
GB200 NVL4 to moduł wyposażony w cztery GPU Blackwell GB200 i dwa CPU Grace.
Nowy supermoduł wykorzystuje 5400 W mocy, co czyni go jednym z najbardziej zaawansowanych i wymagających energetycznie rozwiązań na rynku. Dzięki piątej generacji NVLink umożliwia ultraszybką komunikację między CPU i GPU z przepustowością 1,8 TB/s na każde GPU, co zapewnia wyjątkową spójność danych i szybkość operacji.
H200 NVL: Nowa generacja kart Hopper
Oprócz GB200 NVL4, NVIDIA zaprezentowała nowe karty H200 NVL, będące rozszerzeniem rodziny Hopper. Te grafiki, bazujące na interfejsie PCIe, oferują możliwość łączenia do 4 GPU w jednej domenie NVLink, co daje 7-krotnie wyższą przepustowość w porównaniu do standardowych rozwiązań PCIe.
Najważniejsze parametry H200 NVL:
- 114 SM (Streaming Multiprocessors) z 14 592 rdzeniami CUDA
- 456 rdzeni Tensor
- 80 GB pamięci HBM2e na 5120-bitowym interfejsie
- Maksymalna wydajność: 3 TFLOPs FP8 (FP16 akumulowane)
- 350W TDP
Nowe karty charakteryzują się:
- 1,5-krotnie większą pamięcią HBM,
- 1,7-krotnie wyższą wydajnością w inferencji LLM (Large Language Models),
- 1,3-krotnie lepszą wydajnością HPC (High Performance Computing).
NVIDIA chwali się H200 NVL zostały zaprojektowane tak, aby pasować do niemal każdej infrastruktury centrów danych. Dzięki szerokiej gamie konfiguracji serwerowych, nowe rozwiązania mogą być zoptymalizowane zarówno pod kątem obciążeń HPC, jak i AI.
Zgłoś naruszenie/Błąd
Oryginalne źródło ZOBACZ
Dodaj kanał RSS
Musisz być zalogowanym aby zaproponować nowy kanal RSS