Podczas GTC 2024 NVIDIA zaprezentowała kolejną generację akceleratorów graficznych przeznaczonych do obsługi sztucznej inteligencji. Model B200 będzie w praktyce składał się z dwóch GPU połączonych w jedną całość. Już sam ten fakt każe przypuszczać, że konstrukcja nie będzie należała do tanich. Wstępnym zakresem cen podzielił się sam Jensen Huang podczas niedawnego wywiadu. Po raz kolejny okazuje się, że wydajność niestety sporo kosztuje.
Jensen Huang z NVIDII, podczas niedawnego wywiadu, podzielił się ceną, jaką będą musieli zapłacić chętni na zakup akceleratorów B200. Mowa tutaj o kwocie od 30 tys. do 40 tys. dolarów za jednostkę.
NVIDIA B200 Tensor Core – akcelerator graficzny oparty na architekturze Blackwell. Na pokładzie m.in. 192 GB pamięci HBM3e
Telewizja CNBC przeprowadziła ostatnio rozmowę ze współzałożycielem i prezesem NVIDII. W jej trakcie po raz pierwszy padła kwota, którą przyjdzie zapłacić klientom chętnym na zakup akceleratorów B200. Mowa tutaj o przedziale od 30 tys. do 40 tys. dolarów za jednostkę. Choć cena ta wydaje się bardzo wysoka, to należy zaznaczyć, że nie odbiega ona znacząco od niedawnej szczytowej ceny rynkowej układu H100, który oferuje pojedyncze GPU. Biorąc jednak pod uwagę obecny boom na rynku AI, możliwe, że za B200 trzeba będzie w praktyce zapłacić jeszcze więcej. Warto też odnotować, że NVIDIA może nie być skłonna, by sprzedawać nowe akceleratory na sztuki. Możliwe, że konieczny będzie zakup całych systemów lub serwerów, w skład których wchodzi od ośmiu do nawet kilkuset akceleratorów B200.
NVIDIA oraz Inworld współpracują przy tworzeniu dema Covert Protocol, w którym AI ożywi postacie niezależne
Eksperci branżowi szacują, że koszt wyprodukowania jednego układu B200 wynosi około 6 tys. dolarów. To oznacza, że NVIDIA będzie zarabiała na każdym egzemplarzu pokaźną kwotę, nawet jeśli podany koszt nie uwzględnia takich kwestii, jak na przykład transport. Dla porównania, szacowany koszt produkcji akceleratora H100 to około 3,1 tys. dolarów. W trakcie wywiadu dla CNBC, Jensen Huang podzielił się także informacją, ile wyniosły wydatki badawczo-rozwojowe na architekturę Blackwell. Mowa tutaj o łącznej kwocie 10 mld dolarów. Pokazuje to dobitnie, że opracowanie własnych rozwiązań sprzętowych, służących do obsługi sztucznej inteligencji, jest całkowicie poza zasięgiem małych i średnich firm. Na takie wydatki mogą pozwolić sobie bowiem tylko największe korporacje.
Źródło: CNBC, WCCFTech, Tom’s Hardware
Zgłoś naruszenie/Błąd
Oryginalne źródło ZOBACZ
Dodaj kanał RSS
Musisz być zalogowanym aby zaproponować nowy kanal RSS