Razem: 0,00 zł
NVIDIA Hopper – najpotężniejsza obecnie architektura obliczeniowa
Przeszkodą dla dynamicznego rozwoju sztucznej inteligencji w latach 70. były mocno ograniczone w tamtym czasie pamięć i moc obliczeniowa komputerów. Zaprezentowane przez Nvidię podczas konferencji GTC 2022 architektura Hooper pokazuje, jak ogromny uczyniono na tym polu postęp. Jest to najpotężniejszy akcelerator obliczeniowy w ofercie producenta i rozwiązanie, które oferuje rewolucyjną wręcz moc obliczeniową i wydajność. Czego można oczekiwać po NVIDIA Hooper?
Architektura Hopper – cechy charakterystyczne i zastosowanie
Architektura Hooper podnosi poprzeczkę i przenosi branżowe standardy na zupełnie nowy poziom. Na każdym kroku udowadnia swoją wyższość nad konkurencją i stanowi najlepszy wybór dla użytkowników, którzy wymagają najwyższej wydajności działania swoich zaawansowanych modeli AI. O jak dużej mocy mowa? Najlepiej widać to podczas porównania z NVIDIA Ampere, która nadal znajduje się w czołówce najmocniejszych rozwiązań na rynku. Architektura Hooper to jednak zupełnie inny poziom niż ten reprezentowany przez poprzednika – zapewnia nawet 4,5 razy większą wydajność!
Na ten moment producent oferuje tylko jeden układ graficzny, jakim jest rdzeń NVIDIA GH100, który składa się aż z 80 miliardów tranzystorów i powierzchnię zbliżoną do swojego odpowiednika z serii NVIDIA Ampere – NVIDIA GA100. Swoją nieprawdopodobną moc zawdzięcza 18 432 rdzeniom CUDA i 576 rdzeniom Tensor. Tak potężna jednostka nie jest oczywiście adresowana do przeciętnego użytkownika. Jest to produkt z wysokiej półki cenowej, który ze względu na swoją specyfikację doskonale sprawdzi się w dużych centrach danych.
Akcelerator NVIDIA GH100 i jego parametry
W ofercie NVIDI pojawią się dwa modele akceleratora obliczeniowego NVIDIA GH100, które powstały na bazie nowego układu graficznego – jeden oferowany w postaci modułu SXM5 i drugi pod postacią karty rozszerzeń pod PCI-Express 5.0. NVIDIA H100 (SXM) jest jednostką o znacznie wyższej specyfikacji, jednak ceną za to jest znacznie wyższe zapotrzebowanie na energię elektryczną. Oferuje 15 872 rdzeni CUDA i 528 rdzeni Tensor. W przypadku NVIDIA H100 (PCIe) jest to odpowiednio 14 592 i 456. Wydajność FP64 dla modelu NVIDIA H100 (SXM) wynosi 30 TFLOPS, a wydajność FP64 Tensor 60 TFLOPS. Niemniej imponujące są wartości wydajności FP32 i FP32 Tensor, które wynoszą odpowiednio 60 i 1000 TFLOPS. Dla modelu NVIDIA H100 (PCIe) są nieco mniejsze, jednak w porównaniu z modelem poprzedniej generacji – NVIDIA A100 (SXM) – nawet trzykrotnie wyższe!
Oferowana pamięć VRAM to w obu przypadkach imponujące 80 GB. Dlaczego imponujące? Jeszcze kilka lat temu standardem było 2–4 GB. Najlepsze rozwiązania na rynku oferowały maksymalnie 6 GB. Rozwiązania poprzedniej generacji oferowały „zaledwie” 24 GB. Akcelerator graficzny GH100 z pamięcią 80 GB wskakuje na zupełnie nowy poziom i podkreśla, jak wysokie aspiracje ma NVIDIA. I choć rynek nie dorównał jeszcze do tego standardu już pojawiły się plotki, że NVIDIA szykuje kartę graficzną, oferującą imponując 120 GB pamięci VRAM!
Jak prezentują się parametry, jeśli chodzi o przepustowość pamięci dla poszczególnych modeli? W przypadku NVIDIA A100 (SXM4) jest to 1,55 TB/s, NVIDIA H100 (PCIe) 2 TB/s, a w przypadku NVIDIA H100 (SXM5) imponujące 3 TB/s. Ciekawie prezentują się też dane dotyczące zapotrzebowania na energię elektryczną, które dla wszystkich trzech modeli wynoszą odpowiednio: 400W, 350W i 700W.
Nowy akcelerator NVIDIA H100 obsługuje wszystkie kluczowe narzędzia programistyczne, co sprawia, że może wspierać działania najróżniejszych aplikacji AI i HCP. Wraz z jego debiutem producent zdecydował się również na zaktualizowanie swoich bibliotek programistycznych.
Kiedy akcelerator graficzny GH100 pojawi się w sprzedaży?
Akcelerator GH100 powinien trafić do sprzedaży jeszcze przed końcem roku 2022. Na ten moment nie jest jeszcze dostępny, aczkolwiek już pojawiły się pierwsze informacje na temat jego ceny. Ile kosztuje nowy akcelerator NVIDIA H100 (PCIe)? Z oferty jednej z japońskich firm, która już zamieściła ofertę jego sprzedaży, wynika, że potencjalni kupcy muszą być przygotowani na wydatek ponad 35 tys. dolarów. Cena jest niewątpliwie bardzo wysoka, ale zaznaczmy, że mowa o modelu, który nie jest topowym przedstawicielem architektury Hopper. Można tym samym przypuszczać, że cena NVIDIA H100 (SXM5) będzie jeszcze wyższa.
Kogo powinien zainteresować akcelerator GH100?
Możliwości jakie oferuje akcelerator GH100 są ogromne i zdecydowanie przewyższają potrzeby standardowych użytkowników. Jest to profesjonalne rozwiązanie, które z pewnością zostanie wdrożone wielu dużych centrach danych i systemach chmurowych.
Jaki wybrać serwer z kartami GPU NVIDIA H100?
Największym prodcuentem rozwiązań serwerowych dedykowanych pod obliczenia sztucznej inteligencji (AI) oraz pracy z algorytmami Machine Learning oraz Deep Learing jest Supermicro. Ich portfolio stanowi szereg serwerów RACK oraz rozwiażań Tower przytosowanych do obsłużecnia kart obliczenoiwych NVIDIA H100. Poniżej przedstawiamy najciekawsze z nich.
Next-Gen 8U Universal GPU System (Coming Soon)
Dedykowany do najbardziej zaawansowanych środowisk obliczeniowych AI oraz HPC.
- GPU: NVIDIA HGX H100 8-GPU (Nazwa kodowa: Hopper)
- GPU: Dzięki 80 miliardom tranzystorów H100 jest najbardziej zaawansowanym na świecie chipem, jaki kiedykolwiek zbudowano i zapewnia do 9 razy większą wydajność podczas treningu AI
- CPU: Dwa procesory
- Pamięć RAM: ECC DDR5 przepustowość do 4800MT/s
- Dyski twarde: Do 24 Hot-Swap NVMe/SATA