A A+ A++

NVIDIA ogłosiła premierę nowego modułu GB200 NVL4, będącego rozszerzeniem pierwotnej platformy GB200 Grace Blackwell Superchip AI. Dzięki podwojeniu mocy obliczeniowej CPU i poczwórnej GPU oraz zwiększonej pamięci, GB200 NVL4 zapowiada się jako potężne rozwiązanie dla wymagających zastosowań AI i symulacji.

GB200 NVL4: Maksymalna moc i wydajność

GB200 NVL4 to moduł wyposażony w cztery GPU Blackwell GB200 i dwa CPU Grace. Ten został zaprojektowany jako rozwiązanie jednoserwerowe z poczwórną domeną NVLink, co pozwala na podpięcie do czterech grafik i zarządzanie wspólną pamięcią o pojemności 1,3 TB. NVIDIA deklaruje imponujące wzrosty wydajności w porównaniu do poprzedniej generacji Hopper GH200 NVL4, oferujący 2,2-krotny skok osiągów w symulacjach i 1,8-krotny wzrost w zakresie uczenia i wnioskowania (Training i Inference).

GB200 NVL4 to moduł wyposażony w cztery GPU Blackwell GB200 i dwa CPU Grace.

Nowy supermoduł wykorzystuje 5400 W mocy, co czyni go jednym z najbardziej zaawansowanych i wymagających energetycznie rozwiązań na rynku. Dzięki piątej generacji NVLink umożliwia ultraszybką komunikację między CPU i GPU z przepustowością 1,8 TB/s na każde GPU, co zapewnia wyjątkową spójność danych i szybkość operacji.

H200 NVL: Nowa generacja kart Hopper

Oprócz GB200 NVL4, NVIDIA zaprezentowała nowe karty H200 NVL, będące rozszerzeniem rodziny Hopper. Te grafiki, bazujące na interfejsie PCIe, oferują możliwość łączenia do 4 GPU w jednej domenie NVLink, co daje 7-krotnie wyższą przepustowość w porównaniu do standardowych rozwiązań PCIe.

Najważniejsze parametry H200 NVL:

  • 114 SM (Streaming Multiprocessors) z 14 592 rdzeniami CUDA
  • 456 rdzeni Tensor
  • 80 GB pamięci HBM2e na 5120-bitowym interfejsie 
  • Maksymalna wydajność: 3 TFLOPs FP8 (FP16 akumulowane)
  • 350W TDP
GB200 NVL4

Nowe karty charakteryzują się:

  • 1,5-krotnie większą pamięcią HBM,
  • 1,7-krotnie wyższą wydajnością w inferencji LLM (Large Language Models),
  • 1,3-krotnie lepszą wydajnością HPC (High Performance Computing).

NVIDIA chwali się H200 NVL zostały zaprojektowane tak, aby pasować do niemal każdej infrastruktury centrów danych. Dzięki szerokiej gamie konfiguracji serwerowych, nowe rozwiązania mogą być zoptymalizowane zarówno pod kątem obciążeń HPC, jak i AI.





Obserwuj nas w Google News

Oryginalne źródło: ZOBACZ
0
Udostępnij na fb
Udostępnij na twitter
Udostępnij na WhatsApp

Oryginalne źródło ZOBACZ

Subskrybuj
Powiadom o

Dodaj kanał RSS

Musisz być zalogowanym aby zaproponować nowy kanal RSS

Dodaj kanał RSS
0 komentarzy
Informacje zwrotne w treści
Wyświetl wszystkie komentarze
Poprzedni artykułOpieka wytchnieniowa 2025 – diagnoza potrzeb
Następny artykułНад Україною за ніч збили 51 із 87 російських БПЛА, ще низка цілей локаційно втрачені