Serwery GPU NVIDIA RTX PRO 6000 Blackwell Max-Q są już dostępne
NVIDIA RTX PRO 6000 Blackwell Max-Q, profesjonalny procesor graficzny z najwyższej półki, jest już dostępny. Ta wysokowydajna konfiguracja, zlokalizowana w Holandii, została zaprojektowana z myślą o elitarnych zadaniach z zakresu sztucznej inteligencji, renderingu i HPC. Wdrożenie jest dostępne już teraz dla każdego projektu o krytycznym znaczeniu.
Pełna konfiguracja serwera
PROCESOR: AMD EPYC 9355P
32 rdzenie, 64 wątki, 3,55/4,4 GHz
Pamięć: 128 GB REG ECC DDR5 (maks. 768 GB)
Pamięć masowa: 960 GB Enterprise NVMe SSD (do 2x PCIe i 6x SATA)
GPU: NVIDIA RTX PRO 6000 Blackwell Max-Q - 96 GB DDR7 (do 4x)
Port: 1 Gb/s - 50 TB ruchu (do 10 Gb/s - niezmierzony)
IP-KVM: Asus BMC
Od 1141,7 €/miesiąc (bez VAT)
Platforma: ASUS ESC4000A-E12
Podstawą tej kompilacji jest ASUS ESC4000A-E12 - serwer GPU 2U zaprojektowany do gęstych wdrożeń z wieloma GPU. Obsługuje do czterech dwuslotowych procesorów graficznych z niezależnymi tunelami przepływu powietrza dla CPU i GPU w celu optymalizacji termicznej. Obudowa obsługuje PCIe 5.0 w ośmiu gniazdach rozszerzeń, skutecznie podwajając przepustowość danych CPU-GPU w porównaniu z poprzednią generacją - co ma kluczowe znaczenie przy przenoszeniu ogromnych zestawów danych AI między przestrzeniami pamięci.
Funkcje klasy korporacyjnej obejmują sieć OCP 3.0, zdalne zarządzanie ASUS ASMB11-iKVM oraz sprzętowe zabezpieczenia Root-of-Trust. System działa na redundantnym zasilaczu, zapewniając nieprzerwaną pracę nawet w przypadku awarii zasilacza - co jest koniecznością w przypadku obciążeń produkcyjnych AI i HPC. Konstrukcja z pojedynczym gniazdem utrzymuje zużycie energii na niskim poziomie, pozostawiając jednocześnie miejsce na rozbudowę o wiele GPU.
Procesor: AMD EPYC 9355P
Serwer działa w oparciu o AMD EPYC 9355P - 32-rdzeniowy procesor Zen 5 z 12-kanałowym kontrolerem pamięci DDR5 obsługującym do 768 GB pamięci RAM z rejestracją ECC o częstotliwości do 6400 MHz. Strona CPU nigdy nie staje się wąskim gardłem podczas przygotowywania kolejek wnioskowania lub tasowania partii treningowych. Obecna konfiguracja podstawowa jest dostarczana z 128 GB REG ECC DDR5, z możliwością rozszerzenia na miejscu na żądanie.
Pamięć masowa zaczyna się od 960 GB Enterprise NVMe SSD (2x 7,68 TB maks.) i skaluje się do sześciu dysków SSD klasy korporacyjnej o pojemności 7,68 TB lub sześciu dysków twardych o pojemności do 16 TB każdy - szybki lokalny dostęp do dużych zbiorów danych bez konieczności korzystania z sieciowej pamięci masowej.
GPU: NVIDIA RTX PRO 6000 Blackwell Max-Q
Sercem tego serwera jest NVIDIA RTX PRO 6000 Blackwell Max-Q - zoptymalizowany pod kątem gęstości wariant flagowego profesjonalnego GPU firmy NVIDIA. Zbudowany w oparciu o architekturę Blackwell, oferuje rdzenie Tensor piątej generacji, rdzenie RT czwartej generacji i 24064 rdzenie CUDA w dwuslotowej obudowie o mocy 300 W.
GPU posiada 96 GB pamięci GDDR7 o przepustowości 1792 GB/s. Duże modele językowe, które wcześniej wymagały wielu układów L40, mogą teraz wykonywać wnioskowanie na jednej karcie. Skalowanie do czterech układów GPU pozwala uzyskać łącznie 384 GB pamięci o wysokiej przepustowości w pojedynczej obudowie 2U.
Kluczowe cechy architektury:
-
Rdzenie Tensor 5 -tej generacji z precyzją FP4 i generacją wieloramkową DLSS 4
-
Rdzenie RT 4. generacji - do 100× więcej trójkątów ray tracingu (RTX Mega Geometry)
-
GPU z wieloma instancjami (MIG): do 4 w pełni odizolowanych instancji na kartę (24 GB każda)
-
PCIe 5. generacji - 2-krotnie większa przepustowość niż w przypadku PCIe 4. generacji
-
NVENC 9. generacji + NVDEC 6. generacji z obsługą 4:2:2 H.264/HEVC
-
3511 AI TOPS z precyzją FP4
Do czego służy ten serwer?
Wnioskowanie AI i obsługa LLM
Uruchamianie modeli o 70B parametrach w kwantyzacji FP8/FP4 na pojedynczym GPU - nie jest wymagana konfiguracja z wieloma kartami graficznymi. Wdrożenie vLLM lub TensorRT-LLM z kwantyzacją FP4 w celu uzyskania maksymalnej przepustowości. Partycjonowanie MIG umożliwia jednoczesne uruchomienie do 4 w pełni odizolowanych instancji modelu (24 GB każda) na jednym układzie GPU.
Dostrajanie modeli AI
Precyzyjne dostrajanie modeli transformatorów z pełną precyzją (praktyczne dla modeli do ~13B), strategiami LoRA lub QLoRA dla większych architektur. Bufor ramki o pojemności 96 GB obsługuje duże partie, których mniejsze układy GPU po prostu nie są w stanie obsłużyć, zmniejszając obciążenie i złożoność synchronizacji wielu układów GPU.
Generatywna sztuczna inteligencja i produkcja multimediów
Procesy generowania obrazów, wideo i treści 3D korzystają bezpośrednio z rdzeni Tensor 5. generacji Blackwell. Potoki przetwarzania tekstu na wideo zapewniają do 3,3× wyższą przepustowość w porównaniu do L40S. NVENC/NVDEC z obsługą 4:2:2 H.264 i HEVC obejmuje profesjonalne potoki transmisji i strumieniowania.
Nauki przyrodnicze i HPC
Sekwencjonowanie genomowe, odkrywanie leków i przewidywanie struktury białek osiągają wielokrotne przyspieszenie. NVIDIA Parabricks uruchamia potoki analizy germinalnej do 1,75× szybciej niż H100 w tych samych zadaniach.
Renderowanie i wizualizacja 3D
RTX Mega Geometry zapewnia do 100× więcej trójkątów ray tracingu na scenę. Złożone wizualizacje architektoniczne, kompozycje VFX i wirtualne procesy produkcyjne w czasie rzeczywistym są natywnie akcelerowane przez GPU.
Nauka o danych i analityka
Akcelerowane potoki RAPIDS i CUDA-X korzystają zarówno z dużego bufora VRAM, jak i przepustowości PCIe 5.0. Przetwarzaj zestawy danych, które przekroczyłyby typowe limity pamięci GPU - i skaluj do czterech układów GPU w miarę wzrostu obciążeń.
Nie zadowalaj się standardowymi specyfikacjami. Dostosuj tę potęgę Blackwell do swoich wymagań dzięki rozszerzonej pamięci RAM, macierzom z wieloma procesorami graficznymi lub rozbudowanej pamięci masowej. Szybka, nielimitowana przepustowość 10 Gb/s jest dostępna jako opcja, aby zapewnić, że dane nigdy nie trafią w wąskie gardło.
Poznaj pełną ofertę serwerów GPU!