I server GPU NVIDIA RTX PRO 6000 Blackwell Max-Q sono ora disponibili
NVIDIA RTX PRO 6000 Blackwell Max-Q, una GPU professionale di alto livello, è ora disponibile. Situata nei Paesi Bassi, questa configurazione ad alte prestazioni è stata progettata per attività di AI, rendering e HPC di alto livello. L'implementazione è disponibile fin da ora per qualsiasi progetto mission-critical.
Configurazione completa del server
CPU: AMD EPYC 9355P
32 core, 64 thread, 3,55/4,4 GHz
Memoria: 128 GB REG ECC DDR5 (768 GB max.)
Storage: 960GB Enterprise NVMe SSD (fino a 2x PCIe e 6x SATA)
GPU: NVIDIA RTX PRO 6000 Blackwell Max-Q - 96 GB DDR7 (fino a 4x)
Porta: 1 Gbps - 50TB di traffico (fino a 10Gbps - non misurato)
IP-KVM: Asus BMC
A partire da €1141,7/mese (IVA esclusa)
La piattaforma: ASUS ESC4000A-E12
La base di questo progetto è l'ASUS ESC4000A-E12, un server GPU 2U progettato per implementazioni dense e multi-GPU. Supporta fino a quattro GPU a doppio slot con tunnel di flusso d'aria indipendenti per CPU e GPU per l'ottimizzazione termica. Lo chassis è dotato di PCIe 5.0 su otto slot di espansione, raddoppiando di fatto la larghezza di banda dei dati CPU-GPU rispetto alla generazione precedente, un aspetto fondamentale per lo spostamento di enormi set di dati AI tra gli spazi di memoria.
Le caratteristiche di livello enterprise includono la rete OCP 3.0, la gestione remota ASUS ASMB11-iKVM e la sicurezza Root-of-Trust a livello hardware. Il sistema è alimentato da un alimentatore ridondante, che garantisce un funzionamento ininterrotto anche in caso di guasto dell'alimentatore, un requisito indispensabile per i carichi di lavoro AI e HPC in produzione. Il design a singolo socket mantiene il consumo energetico concentrato, lasciando al contempo ampio spazio per l'espansione multi-GPU.
La CPU: AMD EPYC 9355P
Il server è dotato di AMD EPYC 9355P, un processore Zen 5 a 32 core con un controller di memoria DDR5 a 12 canali che supporta fino a 768 GB di RAM registrata ECC a 6400 MHz. Il lato CPU non diventa mai un collo di bottiglia quando si preparano le code di inferenza o si mescolano i batch di formazione. L'attuale configurazione di base viene fornita con 128 GB REG ECC DDR5, con espansione in-place disponibile su richiesta.
L'archiviazione parte da un'unità SSD Enterprise NVMe da 960 GB (2x 7,68 TB max.) e arriva a sei unità SSD Enterprise da 7,68 TB o a sei unità HDD fino a 16 TB ciascuna: accesso locale rapido a grandi insiemi di dati senza dover ricorrere allo storage di rete.
La GPU: NVIDIA RTX PRO 6000 Blackwell Max-Q
Il cuore di questo server è la NVIDIA RTX PRO 6000 Blackwell Max-Q, la variante ottimizzata per la densità della GPU professionale di punta di NVIDIA. Basata sull'architettura Blackwell, offre Tensor Cores di quinta generazione, RT Cores di quarta generazione e 24064 CUDA cores in un fattore di forma dual-slot da 300W.
La GPU dispone di 96 GB di memoria GDDR7 con una larghezza di banda di 1792 GB/s. I modelli linguistici di grandi dimensioni che in precedenza richiedevano più L40 possono ora eseguire l'inferenza su una singola scheda. Se si sale a quattro GPU, si ottiene un totale di 384 GB di memoria ad alta larghezza di banda in un singolo chassis 2U.
Caratteristiche architettoniche principali:
-
Core Tensor di quinta generazione con precisione FP4 e generazione di frame multipli DLSS 4
-
RT Cores di quarta generazione - fino a 100 volte più triangoli in ray-tracing (RTX Mega Geometry)
-
Multi-Instance GPU (MIG): fino a 4 istanze completamente isolate per scheda (24 GB ciascuna)
-
PCIe Gen 5 - larghezza di banda 2 volte superiore a PCIe Gen 4
-
NVENC di 9a generazione + NVDEC di 6a generazione con supporto H.264/HEVC 4:2:2
-
3511 AI TOPS con precisione FP4
Per cosa è costruito questo server?
Inferenza AI e servizio LLM
Esecuzione di modelli a 70B parametri in quantizzazione FP8/FP4 su una singola GPU - non è necessaria una configurazione multi-scheda. Distribuire vLLM o TensorRT-LLM con quantizzazione FP4 per ottenere il massimo del throughput. Il partizionamento MIG consente di eseguire simultaneamente fino a 4 istanze di modello completamente isolate (24 GB ciascuna) su una singola GPU.
Messa a punto dei modelli AI
È possibile mettere a punto i modelli di trasformatori con strategie a precisione completa (pratiche per modelli fino a ~13B), LoRA o QLoRA per le architetture più grandi. Il framebuffer da 96 GB si adatta a grandi batch che le GPU più piccole non sono in grado di gestire, riducendo l'overhead e la complessità della sincronizzazione multi-GPU.
IA generativa e produzione multimediale
I flussi di lavoro per la generazione di immagini, video e contenuti 3D traggono vantaggio direttamente dai Tensor Core di quinta generazione di Blackwell. Le pipeline text-to-video offrono un throughput fino a 3,3 volte superiore rispetto a L40S. NVENC/NVDEC con supporto H.264 4:2:2 e HEVC copre le pipeline professionali di broadcast e streaming.
Scienze della vita e HPC
Il sequenziamento genomico, la scoperta di farmaci e la previsione della struttura proteica ottengono accelerazioni di molte volte. NVIDIA Parabricks esegue pipeline di analisi germinale con una velocità fino a 1,75 volte superiore rispetto a H100 per le stesse attività.
Rendering e visualizzazione 3D
RTX Mega Geometry consente di aumentare fino a 100 volte il numero di triangoli in ray-tracing per scena. La visualizzazione architettonica complessa, il compositing VFX e i flussi di lavoro di produzione virtuale in tempo reale sono tutti accelerati in modo nativo dalle GPU.
Scienza dei dati e analisi
Le pipeline accelerate con RAPIDS e CUDA-X traggono vantaggio sia dall'ampio buffer VRAM che dalla larghezza di banda PCIe 5.0. Elaborate dataset che superano i limiti di memoria tipici delle GPU - e scalate a quattro GPU con l'aumentare dei carichi di lavoro.
Non accontentatevi di specifiche standard. Adattate questo concentrato di potenza Blackwell alle vostre esigenze con RAM espansa, array multi-GPU o aggiornamenti massicci dello storage. La larghezza di banda non misurata a 10 Gbps ad alta velocità è disponibile come opzione per garantire che i dati non incontrino mai un collo di bottiglia.
Esplorate l'intera gamma di server GPU!