NVIDIA już od dłuższego czasu mocno stawia na ARM i firma zaczęła promować tę architekturę obliczeniową w benchmarkach. Zieloni chwalą się, że serwer wyposażony w procesor graficzny A100 z procesorem ARM ma bardzo podobną wydajność do takiego serwera z CPU x86 na pokładzie (chociaż x86 nadal miał wyższą wydajność szczytową).
Odwiecznym problemem jest oczywiście fakt, że podczas gdy ARM bije na głowę x86 w scenariuszach o niskim poborze mocy/wysokiej efektywności energetycznej (co widać w smartfonach), nie jest w stanie skalować tej wydajności do wysokich taktowań. Jest to w rzeczywistości jednym z powodów, dla których nowe chipy Apple A15 są jak dotąd dla wielu osób względnym rozczarowaniem. Serwery stanowiące absolutny top wysokowydajnych obliczeń to obszar, w którym zazwyczaj króluje x86, chociaż NVIDIA chciałaby zmienić narrację w tym zakresie. Widzimy, że serwer A100 oparty na architekturze ARM faktycznie zdołał pokonać x86 w niszowym obciążeniu 3d-Unet, podczas gdy bardziej popularne zastosowania, takie jak ResNet 50, wciąż zdominowane są przez x86.
Zieloni chwalą się, że serwer wyposażony w procesor graficzny A100 z procesorem ARM ma bardzo podobną wydajność do takiego serwera z CPU x86 na pokładzie.
„ARM, jako członek-założyciel MLCommons, angażuje się w proces tworzenia standardów i testów porównawczych, aby lepiej stawiać czoła wyzwaniom i inspirować innowacje w branży przyspieszonego przetwarzania danych” – powiedział David Lecomber, starszy dyrektor ds. HPC i narzędzi w ARM. „Najnowsze wyniki wnioskowania pokazują gotowość systemów opartych na ARM, zasilanych przez procesory ARM i procesory graficzne NVIDIA, do radzenia sobie z szeroką gamą obciążeń roboczych AI w centrum danych” – dodał.
Oczywiście, gdy mówimy o wnioskowaniu, GPU pozostają królem. NVIDIA nie omieszkała wykorzystać okazji, aby pokazać, że procesor graficzny A100 jest 104 razy szybszy niż CPU w benchmarkach MLPERF. Wnioskowanie ma miejsce, gdy komputer uruchamia oprogramowanie AI w celu rozpoznania obiektu lub dokonania prognozy. Jest to proces, który wykorzystuje model głębokiego uczenia się do filtrowania danych i znajdowania wyników, których żaden człowiek nie byłby w stanie uchwycić. Testy wnioskowania MLPerf opierają się na najpopularniejszych obecnie obciążeniach i scenariuszach sztucznej inteligencji, obejmujących widzenie komputerowe, obrazowanie medyczne, przetwarzanie języka naturalnego, systemy rekomendacji, uczenie się ze wzmocnieniem i nie tylko.
Przetestowano wszystko, od popularnego testu klasyfikacji obrazów ResNet-50 po przetwarzanie w języku naturalnym, a GPU A100 okazało się bezkonkurencyjne. Gdy NVIDIA zmierzy się z ostatecznymi przeszkodami regulacyjnymi w przejęciu ARM, zaczniemy widzieć, jak Jensen i spółka naciskają na przejście na ARM w przestrzeni serwerowej i otaczającym ją ekosystemie. I chociaż nie stanie się to z dnia na dzień, to na horyzoncie pojawiło się pierwsze realne zagrożenie dla x86 jako pierwszorzędnej architektury obliczeniowej.
Zobacz także:
Zgłoś naruszenie/Błąd
Oryginalne źródło ZOBACZ
Dodaj kanał RSS
Musisz być zalogowanym aby zaproponować nowy kanal RSS