NVIDIA RTX PRO 6000 Blackwell Max-Q GPU-Server jetzt verfügbar
Die NVIDIA RTX PRO 6000 Blackwell Max-Q, ein professioneller Grafikprozessor der Spitzenklasse, ist jetzt verfügbar. Diese Hochleistungskonfiguration wird in den Niederlanden hergestellt und ist für anspruchsvolle KI-, Rendering- und HPC-Aufgaben konzipiert. Die Bereitstellung ist ab sofort für jedes unternehmenskritische Projekt möglich.
Vollständige Serverkonfiguration
CPU: AMD EPYC 9355P
32 Kerne, 64 Threads, 3.55/4.4GHz
Speicher: 128GB REG ECC DDR5 (768GB max.)
Speicher: 960 GB Enterprise NVMe SSD (bis zu 2x PCIe & 6x SATA)
GPU: NVIDIA RTX PRO 6000 Blackwell Max-Q - 96GB DDR7 (bis zu 4x)
Port: 1 Gbps - 50TB Datenverkehr (Bis zu 10Gbps - Ungemessen)
IP-KVM: Asus BMC
Ab 1141,7 €/Monat (Ex. MwSt.)
Die Plattform: ASUS ESC4000A-E12
Die Grundlage dieses Builds ist der ASUS ESC4000A-E12 - ein 2U-GPU-Server, der für dichte Multi-GPU-Bereitstellungen entwickelt wurde. Er unterstützt bis zu vier Dual-Slot-GPUs mit unabhängigen CPU- und GPU-Luftstromtunneln zur thermischen Optimierung. Das Gehäuse arbeitet mit PCIe 5.0 über acht Erweiterungssteckplätze, wodurch sich die Datenbandbreite zwischen CPU und GPU im Vergleich zur Vorgängergeneration effektiv verdoppelt - ein entscheidender Faktor beim Verschieben umfangreicher KI-Datensätze zwischen Speicherbereichen.
Zu den Funktionen für Unternehmen gehören OCP 3.0-Netzwerke, ASUS ASMB11-iKVM-Fernverwaltung und Root-of-Trust-Sicherheit auf Hardwareebene. Das System wird mit einem redundanten Netzteil betrieben, das einen unterbrechungsfreien Betrieb auch bei einem Ausfall des Netzteils gewährleistet - ein Muss für KI- und HPC-Workloads in der Produktion. Das Single-Socket-Design sorgt für einen geringen Stromverbrauch und lässt gleichzeitig genügend Spielraum für Multi-GPU-Erweiterungen.
Die CPU: AMD EPYC 9355P
Der Server läuft auf dem AMD EPYC 9355P - einem 32-Core-Zen5-Prozessor mit einem 12-Kanal-DDR5-Speicher-Controller, der bis zu 768 GB ECC-registrierten Arbeitsspeicher mit bis zu 6400 MHz unterstützt. Die CPU-Seite wird nie zum Engpass bei der Vorbereitung von Inferenz-Warteschlangen oder beim Mischen von Trainingsbatches. Die aktuelle Basiskonfiguration wird mit 128 GB REG ECC DDR5 ausgeliefert und kann auf Wunsch vor Ort erweitert werden.
Die Speicherkapazität beginnt bei einer 960 GB Enterprise NVMe SSD (2x 7,68 TB max.) und lässt sich auf sechs 7,68 TB Enterprise SSDs oder sechs HDDs mit jeweils bis zu 16 TB skalieren - schneller lokaler Zugriff auf große Datensätze ohne Rückgriff auf Netzwerkspeicher.
Der Grafikprozessor: NVIDIA RTX PRO 6000 Blackwell Max-Q
Das Herzstück dieses Servers ist die NVIDIA RTX PRO 6000 Blackwell Max-Q - die dichteoptimierte Variante des professionellen GPU-Flaggschiffs von NVIDIA. Sie basiert auf der Blackwell-Architektur und bietet Tensor-Cores der 5. Generation, RT-Cores der 4. Generation und 24064 CUDA-Cores in einem 300-W-Dual-Slot-Formfaktor.
Die GPU verfügt über 96 GB GDDR7-Speicher mit einer Bandbreite von 1792 GB/s. Große Sprachmodelle, für die bisher mehrere L40 benötigt wurden, können nun auf einer einzigen Karte ausgeführt werden. Bei einer Skalierung auf bis zu vier GPUs erhalten Sie insgesamt 384 GB Speicher mit hoher Bandbreite in einem einzigen 2U-Gehäuse.
Wichtige Architekturmerkmale:
Tensor Cores der 5. Generation mit FP4-Präzision und DLSS 4 Multi Frame Generation
RT-Kerne der 4. Generation - bis zu 100-mal mehr Raytracing-Dreiecke (RTX Mega Geometry)
Multi-Instance GPU (MIG): bis zu 4 vollständig isolierte Instanzen pro Karte (jeweils 24 GB)
PCIe Gen 5 - 2× mehr Bandbreite als PCIe Gen 4
NVENC der 9. Generation + NVDEC der 6. Generation mit 4:2:2 H.264/HEVC-Unterstützung
3511 AI TOPS bei FP4-Präzision
Wofür ist dieser Server gebaut?
AI-Inferenz & LLM-Dienstleistung
Führen Sie 70B-Parameter-Modelle in FP8/FP4-Quantisierung auf einer einzigen GPU aus - kein Multi-Card-Setup erforderlich. Setzen Sie vLLM oder TensorRT-LLM mit FP4-Quantisierung für höchsten Durchsatz ein. Die MIG-Partitionierung ermöglicht die gleichzeitige Ausführung von bis zu 4 vollständig isolierten Modellinstanzen (jeweils 24 GB) auf einem einzigen Grafikprozessor.
AI-Modell-Feinabstimmung
Feinabstimmung von Transformatormodellen mit voller Präzision (praktisch für Modelle bis zu ~13B), LoRA- oder QLoRA-Strategien für größere Architekturen. Der 96 GB große Framebuffer eignet sich für große Stapel, die von kleineren GPUs nicht bewältigt werden können, und reduziert den Synchronisationsaufwand und die Komplexität von Multi-GPUs.
Generative KI und Medienproduktion
Workflows zur Generierung von Bild-, Video- und 3D-Inhalten profitieren direkt von Blackwells Tensor Cores der 5ten Generation. Text-zu-Video-Pipelines liefern einen bis zu 3,3fach höheren Durchsatz im Vergleich zu L40S. NVENC/NVDEC mit 4:2:2 H.264- und HEVC-Unterstützung deckt professionelle Broadcast- und Streaming-Pipelines ab.
Biowissenschaften und HPC
Genomische Sequenzierung, Medikamentenentwicklung und Proteinstrukturvorhersage werden um ein Vielfaches beschleunigt. NVIDIA Parabricks führt Keimbahnanalyse-Pipelines bei denselben Aufgaben bis zu 1,75 Mal schneller aus als H100.
3D-Rendering und Visualisierung
RTX Mega Geometry ermöglicht bis zu 100-mal mehr ray-traced Dreiecke pro Szene. Komplexe Architekturvisualisierung, VFX-Compositing und virtuelle Produktions-Workflows in Echtzeit werden alle nativ von der GPU beschleunigt.
Datenwissenschaft und Analytik
RAPIDS- und CUDA-X-beschleunigte Pipelines profitieren sowohl vom großen VRAM-Puffer als auch von der PCIe 5.0-Bandbreite. Verarbeiten Sie Datensätze, die typische GPU-Speichergrenzen überschreiten würden - und skalieren Sie auf vier GPUs, wenn die Arbeitslasten wachsen.
Geben Sie sich nicht mit Standardspezifikationen zufrieden. Passen Sie dieses Blackwell-Kraftpaket mit erweitertem RAM, Multi-GPU-Arrays oder massiven Speicher-Upgrades genau an Ihre Anforderungen an. Optional ist eine ungemessene Hochgeschwindigkeits-Bandbreite von 10 Gbit/s erhältlich, damit Ihre Daten nie auf einen Engpass stoßen.
Erkunden Sie die gesamte GPU-Server-Produktpalette!